KR102432248B1 - System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar - Google Patents

System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar Download PDF

Info

Publication number
KR102432248B1
KR102432248B1 KR1020220027136A KR20220027136A KR102432248B1 KR 102432248 B1 KR102432248 B1 KR 102432248B1 KR 1020220027136 A KR1020220027136 A KR 1020220027136A KR 20220027136 A KR20220027136 A KR 20220027136A KR 102432248 B1 KR102432248 B1 KR 102432248B1
Authority
KR
South Korea
Prior art keywords
information
avatar
user
aging
updated
Prior art date
Application number
KR1020220027136A
Other languages
Korean (ko)
Inventor
황보택근
오기성
정원준
김제현
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020220027136A priority Critical patent/KR102432248B1/en
Application granted granted Critical
Publication of KR102432248B1 publication Critical patent/KR102432248B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3236Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions

Abstract

The present invention relates to a system and a method for generating and providing an avatar to an external metaverse platform to update the avatar, and providing an NFT for the updated avatar. The present invention relates to the method and the system for generating the avatar based on user information and providing the NFT for the avatar. The biometric information, activity information, and medical information of a user are received through a VR device, and based on the information, an avatar is generated in virtual reality. Avatar hash information about the avatar is generated, and NFT issuance is requested to an external blockchain network based on the avatar hash information. The NFT is received and provided.

Description

아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템 및 방법 {System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar}System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar}

아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템 및 방법에 관한 것으로서, VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하고, 이를 바탕으로 가상현실 속에서 아바타를 생성할 수 있고, 상기 아바타를 외부의 메타버스플랫폼에 제공하고, 상기 메타버스플랫폼에서 아바타에 대한 인터랙션정보를 수신하여 아바타를 업데이트 할 수 있고, 상기 업데이트된 아바타에 대한 업데이트아바타해시정보를 생성하여, 외부의 블록체인네트워크에 상기 업데이트아바타해시정보를 기초로 NFT 발행을 요청하고, 상기 NFT를 전달받아 NFT를 제공하는, 아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템 및 방법에 관한 것이다.A system and method for generating an avatar and providing it to an external metaverse platform to update the avatar and provide NFT for the updated avatar, receiving biometric information, activity information, and medical information of a user through a VR device and, based on this, an avatar can be created in virtual reality, the avatar can be provided to an external metaverse platform, and the avatar can be updated by receiving interaction information about the avatar from the metaverse platform, and the update Generates updated avatar hash information for the avatar, requests an external blockchain network to issue an NFT based on the updated avatar hash information, and generates an avatar that provides the NFT by receiving the NFT. It relates to a system and method for updating an avatar by providing it to the metaverse platform and providing an NFT for the updated avatar.

NFT는 Non-Fungible Token의 약자로, 대체불가토큰을 말한다. NFT는 디지털 원본을 증명하고, 희소성의 가치를 부여해준다. NFT는 특정한 자산을 나타내는 디지털파일로 NFT 각각은 고유성을 지니고 있어 상호 대체가 불가능하고, 블록체인상에 존재한다. NFT는 한번 생성되면 삭제하거나 위조할 수 없기 때문에 NFT로 등록되어 있는 자산에 대한 원본을 인증하고, 소유권을 증명할 수 있다. 디지털 영역의 특성상 디지털 자산은 무제한 복사 및 배포가 가능한데, NFT를 활용하면 디지털 자산에 대해 희소성 가치를 부여할 수 있다.NFT stands for Non-Fungible Token and refers to non-fungible tokens. NFT proves the digital original and gives it the value of scarcity. An NFT is a digital file representing a specific asset, and each NFT has its own uniqueness, so it cannot be replaced with each other and exists on the blockchain. Since NFTs cannot be deleted or forged once created, they can authenticate the original and prove ownership of assets registered as NFTs. Due to the nature of the digital domain, unlimited copying and distribution of digital assets is possible, but by using NFT, scarcity value can be given to digital assets.

아바타를 생성하기 위해 사용되는, 가상현실이란 사용자가 HMD(Head Mounted Display)장치 등의 입출력장치를 착용함으로써 컴퓨터 상에서 구현되는 가상의 공간을 체험할 수 있게 하는 기술로서, 사용자가 현실 세계와 유사하게 구현되는 가상의 공간에서 시간적, 공간적 제약없이 특정 상황에 대한 체험을 할 수 있도록 하는 기술이다. 이러한 가상현실 기술은 값비싼 장비 및 가상현실 콘텐츠의 부족으로 인해 빠른 시일 내에 대중화되기 어려울 것으로 전망되기도 했으나, 최근에는 VR 및 AR장치의 보급과 비대면 콘텐츠에 대한 수요가 증가함에 따라, 가상현실 기술 또한 재조명 받고 있는 상황이다.Virtual reality, which is used to create an avatar, is a technology that allows a user to experience a virtual space implemented on a computer by wearing an input/output device such as a head mounted display (HMD) device. It is a technology that allows you to experience a specific situation without temporal or spatial restrictions in the implemented virtual space. It was predicted that such virtual reality technology would be difficult to popularize in the near future due to the lack of expensive equipment and virtual reality content. It is also being re-examined.

메타버스 기술이란 가상 자아인 아바타를 통해 경제, 사회, 문화, 정치 활동 등을 이어가는 4차원 가상 시공간 할 수 있다. 상기 메타버스 기술은 가상현실, 증강현실, 거울세계 및 라이프로깅을 포함하는 개념이다. 이러한 메타버스 기술은 게임, 교육, 쇼핑, 의료 및 관광 등 다양한 기술분야와 접목되어 활용되고 있고, 구체적으로 메타버스에서 구현한 게임, 교육, 쇼핑, 의료 및 관광 등의 플랫폼을 아바타를 통해 체험할 수 있어, 아바타 생성은 필수적이다.Metaverse technology enables a four-dimensional virtual space-time that connects economic, social, cultural, and political activities through an avatar, a virtual self. The metaverse technology is a concept including virtual reality, augmented reality, mirror world, and lifelogging. These metaverse technologies are being used in conjunction with various technological fields such as games, education, shopping, medical care and tourism. Therefore, avatar creation is essential.

사용자의 건강 증진을 위한 헬스케어 환경을 구축하기 위한 방법으로 한국 공개특허공보 제10-2020-0022776호에서는 사용자에 대한 4D아바타를 생성하고 특정 동작에 대한 수행을 유도함으로써 사용자가 병원을 방문하지 않고도 재활운동을 수행할 수 있는 방법을 제시한 바 있다. 그러나 종래의 기술은 단순히 사용자의 관절 정보에 기초하여 사용자의 움직임정보를 추정하고 가상현실을 체험할 수 있는 사용자 아바타를 생성하는 것으로서, 사용자의 생체특성을 고려하여 콘텐츠를 제공하거나 사용자와 유사한 아바타를 생성하여 사용자의 몰입도를 향상시키는 방법에 대해서는 개시하는 바가 없었다. 또한, 상기와 같은 종래의 기술들은 생성한 아바타에 대한 NFT를 제공하지 않는다.As a method for building a health care environment for user's health promotion, Korean Patent Application Laid-Open No. 10-2020-0022776 creates a 4D avatar for the user and induces the user to perform a specific operation without requiring the user to visit the hospital. A method for performing rehabilitation exercises has been suggested. However, the prior art simply estimates the user's movement information based on the user's joint information and generates a user avatar that can experience virtual reality. There is no disclosure on a method of generating and improving user immersion. In addition, the conventional techniques as described above do not provide an NFT for the created avatar.

따라서, 사용자의 외형 및 신체특성과 유사한 아바타를 생성하고, 상기 아바타에 대한 정보를 메타버스플랫폼에 제공하고, 메타버스플랫폼 내에서 제공하는 콘텐츠에 대해 상호작용하여 아바타를 이용함으로써 메타버스에 최적화된 아바타를 업데이트하고, 상기 업데이트된 아바타에 대해 디지털 영역에서 상기 업데이트된 아바타의 사용자에게 소유권을 부여하고, 희소성을 인정받기 위한 NFT를 제공하는 시스템에 대한 개발 필요성이 대두되고 있다.Therefore, by creating an avatar similar to the user's appearance and body characteristics, providing information about the avatar to the metaverse platform, and interacting with the content provided within the metaverse platform, the avatar is optimized for the metaverse. There is a need to develop a system for updating an avatar, granting ownership of the updated avatar to a user of the updated avatar in the digital domain, and providing an NFT for recognition of scarcity.

대한민국 등록특허 제10-1943585호(2019.01.23.)Republic of Korea Patent Registration No. 10-1943585 (2019.01.23.) 대한민국 공개특허 제10-2130750호(2020.06.30.)Republic of Korea Patent Publication No. 10-2130750 (2020.06.30.)

본 발명은 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 아바타를 업데이트하는 시스템 및 방법에 관한 것으로서, VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하고, 이를 바탕으로 가상현실 속에서 아바타를 생성할 수 있고, 상기 아바타를 외부의 메타버스플랫폼에 제공하고, 상기 메타버스플랫폼에서 아바타에 대한 인터랙션정보를 수신하여 아바타를 업데이트 할 수 있고, 상기 업데이트된 아바타에 대한 업데이트아바타해시정보를 생성하여, 외부의 블록체인네트워크에 상기 업데이트아바타해시정보를 기초로 NFT 발행을 요청하고, 상기 NFT를 전달받아 NFT를 제공하는, 아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for generating an avatar, providing it to an external metaverse platform, and updating the avatar. A user's biometric information, activity information, and medical information are received through a VR device, and virtual reality based on this information You can create an avatar inside, provide the avatar to an external metaverse platform, receive interaction information about the avatar from the metaverse platform to update the avatar, and update the avatar to the updated avatar. Generates city information, requests an external blockchain network to issue an NFT based on the updated avatar hash information, and generates an avatar that receives the NFT and provides the NFT, and provides the avatar to an external metaverse platform It relates to a system and method for updating an avatar and providing an NFT for an updated avatar.

상기와 같은 과제를 해결하기 위하여, 아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템으로서, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치; 상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부; 상기 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 아바타의 원본 상태에 관련된 원본정보를 포함하는 원본아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 생성된 NFT를 제공하는 원본아바타NFT제공부; 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및 상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 업데이트된 아바타의 현재 버전정보 및 이전 버전정보에 관련된 업데이트정보를 포함하는 업데이트아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 제공하는 업데이트아바타NFT제공부;를 포함하고, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부; 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신부; 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부; 상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부; 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템을 제공한다.In order to solve the above problems, an avatar is created and provided to an external metaverse platform to update the avatar, and NFT for the updated avatar is provided. HMD for providing and detecting the user's voice; a camera device that captures the user's appearance and derives image information of the user; an EEG which is attached to the user's head and measures the user's EEG; a pulse meter attached to the user's wrist to measure the user's pulse; and a motion sensing device for measuring the user's movement; a VR device comprising; a VR service unit that communicates with the VR device worn by the user, provides information about virtual reality to the VR device, generates an avatar of the user, and provides a plurality of virtual reality contents to the user; NFT by transmitting original avatar hash information including object information related to the unique properties of the avatar, input information related to the information input by the user, and original information related to the original state of the avatar to an external blockchain network. an original avatar NFT providing unit that requests generation and provides the generated NFT to the user; an avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information that a user has interacted with using the avatar on the external metaverse platform, and updates the avatar; and updated avatar hash information including object information related to unique attributes of the updated avatar, input information related to information input by the user, and update information related to current and previous version information of the updated avatar. an update avatar NFT providing unit that transmits a request to an external blockchain network to request NFT generation and provides to the user, wherein the VR service unit is available only to the user and provides the plurality of virtual reality contents A virtual reality realization unit that implements the virtual reality being; a VR communication unit that communicates with the VR device to exchange information; the user's biometric information received from the VR device; and a user information input unit for receiving user information including; and activity information and medical information received from the user's smartphone; an avatar generator generating an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementing unit; and a VR content providing unit capable of providing the plurality of contents to the avatar created in the virtual reality, and updating the appearance of the avatar whenever the avatar is performed. provides

본 발명의 일 실시예에서는, 상기 생체정보는, 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함할 수 있다.In an embodiment of the present invention, the biometric information includes: image information input through the camera device; EEG information of the user measured by the EEG; and pulse information of the user measured by the pulse meter.

본 발명의 일 실시예에서는, 상기 업데이트아바타NFT제공부는, 상기 업데이트된 아바타에 대한 정보에 대해 해시함수를 적용하여 업데이트아바타해시정보를 생성하는 업데이트아바타해시정보생성단계; 상기 업데이트아바타해시정보를 상기 외부의 블록체인네트워크로 전송하여 상기 업데이트된 아바타에 대한 NFT 생성을 요청하는 업데이트아바타NFT생성요청단계; 및 상기 외부의 블록체인네트워크에 의하여 생성된 NFT를 수신하는 업데이트아바타NFT수신단계;를 포함할 수 있다.In an embodiment of the present invention, the updated avatar NFT providing unit includes: an updated avatar hash information generating step of generating updated avatar hash information by applying a hash function to the updated avatar information; an update avatar NFT generation request step of transmitting the updated avatar hash information to the external blockchain network to request NFT generation for the updated avatar; and an updated avatar NFT receiving step of receiving the NFT generated by the external blockchain network.

본 발명의 일 실시예에서는, 상기 버전정보는, 해당 아바타 버전의 생성파일, 해당 아바타 버전의 순번, 해당 아바타 버전의 버전이름, In an embodiment of the present invention, the version information includes a file created for the corresponding avatar version, a sequence number of the corresponding avatar version, a version name of the corresponding avatar version,

해당 아바타 버전이 업데이트된 일시, 해당 버전의 아바타에 대해 서로 다른 각도로 획득한 복수의 사진, 해당 버전의 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양을 포함하는 외형특징정보, 해당 버전의 아바타의 노화정보 및 해당 버전의 아바타의 이동속도를 포함할 수 있다.Includes the date and time when the corresponding avatar version was updated, multiple photos obtained from different angles for the corresponding version of the avatar, skin condition information of the corresponding version avatar, hair condition information, bone curvature, eye tilt and mouth shape Appearance characteristic information, aging information of the corresponding version of the avatar, and the moving speed of the corresponding version of the avatar may be included.

본 발명의 일 실시예에서는, 상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함하고, 상기 객체정보는, 상기 업데이트된 아바타의 원본 아바타를 생성한 사용자의 식별정보, 상기 업데이트된 아바타의 원본 아바타가 생성된 일시 및 상기 업데이트된 아바타의 원본 아바타의 이름을 포함하고, 상기 입력정보는, 상기 VR장치로 수신한 사용자의 상기 생체정보, 사용자의 스마트폰으로 수신한 활동정보 및 의료정보를 포함하는 수신정보, 및 상기 사용자가 입력한 1 이상의 병력을 포함하는 상기 의료정보에 기초한 질환정보를 포함하고, 상기 업데이트정보는, 아바타를 업데이트할 때마다 해당 버전의 순번에 해당하는 업데이트정보가 생성되고, 상기 업데이트된 아바타의 현재 버전의 버전정보 및 이전의 모든 버전정보를 포함할 수 있다. In an embodiment of the present invention, the updated avatar hash information includes object information, input information, and update information, and the object information includes identification information of a user who created the original avatar of the updated avatar, and the updated avatar. and a date and time when the original avatar of the avatar was created and the name of the updated original avatar of the avatar, wherein the input information includes the user's biometric information received by the VR device, activity information received by the user's smartphone, and medical treatment Receiving information including information and disease information based on the medical information including one or more medical history input by the user, wherein the update information is updated information corresponding to the order of the corresponding version whenever the avatar is updated is generated, and may include version information of the current version of the updated avatar and all previous version information of the updated avatar.

본 발명의 일 실시예에서는, 상기 아바타업데이트부는, 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계; 상기 외부의 메타버스플랫폼에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계; 및 상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계;를 포함할 수 있다.In an embodiment of the present invention, the avatar update unit includes an avatar information providing step of providing information about the avatar to an external metaverse platform; an interaction information receiving step of receiving interaction information corresponding to the avatar from the external metaverse platform; and extracting avatar-related information from the interaction information and updating the avatar based on the avatar-related information.

본 발명의 일 실시예에서는, 상기 아바타업데이트부는, 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계; 상기 외부의 메타버스플랫폼에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계; 및 상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계;를 포함할 수 있다.In an embodiment of the present invention, the avatar update unit includes an avatar information providing step of providing information about the avatar to an external metaverse platform; an interaction information receiving step of receiving interaction information corresponding to the avatar from the external metaverse platform; and extracting avatar-related information from the interaction information and updating the avatar based on the avatar-related information.

본 발명의 일 실시예에서는, 상기 아바타생성부는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부; 상기 생체정보를 1 이상의 인공신경망 모델에 입력하여 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부; 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부; 및 해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부;를 포함할 수 있다.In one embodiment of the present invention, the avatar generating unit derives each appearance feature information from a plurality of the image information, and averages the derived plurality of appearance feature information to derive a character determination parameter in the form of a one-dimensional vector, , a basic appearance determining unit for determining a basic appearance of the avatar based on the character determination parameter; an aging information determining unit that inputs the biometric information into one or more artificial neural network models to determine aging information of the avatar, and adds a first graphic effect corresponding to the aging information to the basic appearance; a movement speed determiner for determining the movement speed of the avatar in a manner that increases the movement speed as the movement distance or number of steps increases, based on the movement distance or the number of steps for a preset time derived from the user's smartphone; and determining disease information of the avatar based on medical information including at least one medical history input by the user, and adding a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect is added. It may include; a disease information determination unit.

본 발명의 일 실시예에서는, 상기 노화정보결정부는, 상기 카메라장치를 통해 입력 받은 이미지정보를 입력 받아 제1노화정보를 출력하는 제1인공신경망; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보를 입력 받아 제2노화정보를 출력하는 제2인공신경망; 상기 맥박측정기로 측정한 상기 사용자의 맥박정보를 입력 받아 제3노화정보를 출력하는 제3인공신경망; 및 상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보를 합산하여, 최종적인 노화정보를 도출하는 종합판단모듈;을 포함할 수 있다.In an embodiment of the present invention, the aging information determining unit includes: a first artificial neural network that receives image information received through the camera device and outputs first aging information; a second artificial neural network that receives the user's EEG information measured by the EEG and outputs second aging information; a third artificial neural network that receives the user's pulse information measured by the pulse meter and outputs third aging information; and a comprehensive determination module for deriving final aging information by summing the first aging information, the second aging information, and the third aging information.

본 발명의 일 실시예에서는, 상기 VR콘텐츠제공부는, 해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부; 해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부; 해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부; 상기 제1콘텐츠제공부, 상기 제2콘텐츠제공부, 및 상기 제3콘텐츠제공부에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절부; 상기 노화정보조절부에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부;를 포함할 수 있다.In one embodiment of the present invention, the VR content providing unit, the first content system, which provides content for which the difficulty is determined based on the aging information of the user and can perform the user's cognitive ability and concentration strengthening training study; a second content providing unit for providing content for which difficulty is determined based on the activity information of the corresponding user, and for which the user's physical activity reinforcement training can be performed; a third content providing unit for providing content for which a type of content is determined based on the user's disease information and training for a body part or cognitive ability requiring rehabilitation training; The results of performing the contents provided by the first contents providing unit, the second contents providing unit, and the third contents providing unit, EEG information measured by the EEG measuring device during the execution period for the contents, and Based on the pulse information measured by the pulse meter, the aging information control unit for calculating one or more scores, and adjusting the aging information according to the one or more scores; and an avatar appearance update unit configured to update the appearance of the user's avatar by adjusting the first graphic effect according to the adjusted aging information by the aging information adjusting unit.

본 발명의 일 실시예에서는, 상기 제1콘텐츠제공부에서 상기 사용자에게 제공되는 제1콘텐츠는, 틀린그림찾기, 산수 및 퍼즐 맞추기를 포함하는 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠고, 상기 제2콘텐츠제공부에서 상기 사용자에게 제공되는 제2콘텐츠는, 걷기, 스트레칭 및 스쿼트를 포함하는 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠고, 상기 제3콘텐츠제공부에서 상기 사용자에게 제공되는 제3콘텐츠는, 상기 사용자가 부상을 입은 신체부위에 대한 집중적인 훈련을 수행하거나 상기 사용자의 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력을 포함하는 인지능력 강화에 대한 집중적인 훈련을 수행하여 상기 사용자가 취약한 분야를 훈련하기 위한 콘텐츠일 수 있다.In one embodiment of the present invention, the first content provided to the user by the first content providing unit is content for strengthening the user's cognitive ability and concentration, including finding the wrong picture, arithmetic, and jigsaw puzzle; The second content provided to the user by the second content providing unit is content capable of performing the user's physical activity reinforcement training including walking, stretching and squats, and the third content providing unit provides the user with a training The third content provided is that the user performs intensive training on an injured body part or performs intensive training on cognitive ability enhancement including the user's memory, judgment, language ability, and ability to grasp space and time. It may be content for training the user in a weak field by performing the program.

본 발명의 일 실시예에서는, 상기 노화정보조절부는, 상기 사용자가 상기 제1콘텐츠를 수행하는 동안 측정되는 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계; 상기 사용자가 상기 제2콘텐츠를 수행하는 동안 측정되는 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계; 상기 제1콘텐츠의 수행결과, 상기 제2콘텐츠의 수행결과, 및 상기 제3콘텐츠의 수행결과에 기초하여 각각 제1스코어, 제2스코어, 제3스코어를 산출하는 수행결과스코어산출단계; 및 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어의 합산값에 기초하여, 노화정보를 감소시키는 노화정보감소단계;를 수행할 수 있다.In one embodiment of the present invention, the aging information control unit, concentration score calculation step of calculating an intensity score based on the user's EEG information measured while the user performs the first content; an activity score calculating step of calculating an activity score based on the user's pulse information and EMG information measured while the user performs the second content; an execution result score calculation step of calculating a first score, a second score, and a third score, respectively, based on the execution result of the first content, the execution result of the second content, and the execution result of the third content; and an aging information reduction step of reducing aging information based on the sum of the first score, the second score, the third score, the concentration score, and the activity score.

상기와 같은 과제를 해결하기 위하여, 아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템에서 구현되는 업데이트된 아바타에 대한 NFT를 제공하는 방법으로서, 상기 시스템은, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치; 상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부; 상기 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 아바타의 원본 상태에 관련된 원본정보를 포함하는 원본아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 생성된 NFT를 제공하는 원본아바타NFT제공부; 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및 상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 업데이트된 아바타의 현재 버전정보 및 이전 버전정보에 관련된 업데이트정보를 포함하는 업데이트아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 제공하는 업데이트아바타NFT제공부;를 포함하고, 상기 방법은, 상기 VR서비스부에 의하여, 상기 사용자만 이용 가능하고, 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현단계; 상기 VR서비스부에 의하여, 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신단계; 상기 VR서비스부에 의하여, 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력단계; 상기 VR서비스부에 의하여, 상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성단계; 및 상기 VR서비스부에 의하여, 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트 할 VR콘텐츠제공단계;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 방법을 제공한다.In order to solve the above problems, an avatar is created and provided to an external metaverse platform to update the avatar, and as a method of providing an NFT for an updated avatar implemented in a system that provides an NFT for the updated avatar, , The system includes: an HMD mounted to a user to provide images and sounds for virtual reality, and to sense the user's voice; a camera device that captures the user's appearance and derives image information of the user; an EEG which is attached to the user's head and measures the user's EEG; a pulse meter attached to the user's wrist to measure the user's pulse; and a motion sensing device for measuring the user's movement; a VR device comprising; a VR service unit that communicates with the VR device worn by the user, provides information about virtual reality to the VR device, generates an avatar of the user, and provides a plurality of virtual reality contents to the user; NFT by transmitting original avatar hash information including object information related to the unique properties of the avatar, input information related to the information input by the user, and original information related to the original state of the avatar to an external blockchain network. an original avatar NFT providing unit that requests generation and provides the generated NFT to the user; an avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information that a user has interacted with using the avatar on the external metaverse platform, and updates the avatar; and object information related to the unique attribute of the updated avatar, object information related to the unique attribute of the updated avatar, input information related to the information input by the user, and current version information and previous information of the updated avatar. An update avatar NFT provider that requests NFT generation by transmitting updated avatar hash information including update information related to version information to an external blockchain network, and provides the updated avatar NFT provider to the user; including, the method comprising: the VR A virtual reality implementation step of realizing, by the service unit, virtual reality that is available only to the user and provides a plurality of virtual reality contents; a VR communication step of communicating with the VR device and exchanging information by the VR service unit; the user's biometric information received from the VR device by the VR service unit; and a user information input step of receiving user information including; and activity information and medical information received from the user's smartphone; an avatar generating step of generating, by the VR service unit, an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementing unit; and a VR content providing step of providing, by the VR service unit, the plurality of contents to the avatar created in the virtual reality, and updating the appearance of the avatar each time this is performed. A method for providing an NFT is provided.

도 1은 본 발명의 일 실시예에 따른 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템의 구성을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 VR서비스부의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 가상현실을 이용하는 사용자가 착용하는 VR장치 및 그 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 사용자의 아바타 생성을 위한 복수의 외형특징정보를 도출하는 과정을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 아바타생성부의 동작을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 노화정보결정부의 세부구성을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 사용자의 아바타 및 아바타의 능력치를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 VR콘텐츠제공부의 구성을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 VR콘텐츠부에서의 수행단계를 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 노화정보감소단계를 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 아바타의 외형이 변경되는 프로세스를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 제1콘텐츠의 실행화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 집중도스코어 및 활동량스코어가 제1기준값 미만인 경우의 사용자에게 보여지는 가상현실 인터페이스를 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 아바타업데이트부에서의 수행단계를 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 인터랙션정보에 대해 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 노화정보에 기초한 아바타업데이트단계를 개략적으로 도시한다.
도 17은 본 발명의 일 실시예에 따른 이동속도에 기초한 아바타업데이트단계를 개략적으로 도시한다.
도 18은 본 발명의 일 실시예에 따른 업데이트아바타해시정보가 포함된 NFT에 대해 개략적으로 도시한다.
도 19는 본 발명의 일 실시예에 따른 업데이트아바타NFT제공부에서의 수행단계를 개략적으로 도시한다.
도 20은 본 발명의 일 실시예에 따른 객체정보를 개략적으로 도시한다.
도 21은 본 발명의 일 실시예에 따른 입력정보를 개략적으로 도시한다.
도 22은 본 발명의 일 실시예에 따른 버전정보를 개략적으로 도시한다.
도 23은 본 발명의 일 실시예에 따른 업데이트정보를 개략적으로 도시한다.
도 24는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.
1 schematically shows the configuration of a system for generating an avatar and providing a plurality of contents in virtual reality according to an embodiment of the present invention.
2 schematically shows the configuration of a VR service unit according to an embodiment of the present invention.
3 schematically shows a VR device worn by a user using virtual reality and a configuration thereof according to an embodiment of the present invention.
4 schematically illustrates a process of deriving a plurality of appearance feature information for generating a user's avatar according to an embodiment of the present invention.
5 schematically illustrates an operation of an avatar generator according to an embodiment of the present invention.
6 schematically shows a detailed configuration of an aging information determining unit according to an embodiment of the present invention.
7 schematically illustrates an avatar of a user and a capability value of the avatar according to an embodiment of the present invention.
8 schematically shows the configuration of a VR content providing unit according to an embodiment of the present invention.
9 schematically shows the steps performed in the VR content unit according to an embodiment of the present invention.
10 schematically shows a step of reducing aging information according to an embodiment of the present invention.
11 schematically illustrates a process in which an appearance of an avatar is changed according to an embodiment of the present invention.
12 schematically illustrates an execution screen of a first content according to an embodiment of the present invention.
13 schematically illustrates a virtual reality interface shown to a user when an intensity score and an activity score are less than a first reference value according to an embodiment of the present invention.
14 schematically shows the steps performed by the avatar update unit according to an embodiment of the present invention.
15 schematically illustrates interaction information according to an embodiment of the present invention.
16 schematically illustrates an avatar update step based on aging information according to an embodiment of the present invention.
17 schematically illustrates an avatar update step based on a moving speed according to an embodiment of the present invention.
18 schematically illustrates an NFT including updated avatar hash information according to an embodiment of the present invention.
19 schematically shows the performing steps in the update avatar NFT providing unit according to an embodiment of the present invention.
20 schematically illustrates object information according to an embodiment of the present invention.
21 schematically shows input information according to an embodiment of the present invention.
22 schematically shows version information according to an embodiment of the present invention.
23 schematically shows update information according to an embodiment of the present invention.
24 exemplarily shows an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth to provide a thorough understanding of one or more aspects. However, it will also be recognized by one of ordinary skill in the art that such aspect(s) may be practiced without these specific details. The following description and accompanying drawings set forth in detail certain illustrative aspects of one or more aspects. These aspects are illustrative, however, and some of the various methods in principles of various aspects may be employed, and the descriptions set forth are intended to include all such aspects and their equivalents.

또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Further, various aspects and features will be presented by a system that may include a number of devices, components and/or modules, and the like. It is also noted that various systems may include additional apparatuses, components, and/or modules, etc. and/or may not include all of the apparatuses, components, modules, etc. discussed with respect to the drawings. must be understood and recognized.

본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.As used herein, “embodiment”, “example”, “aspect”, “exemplary”, etc. may not be construed as an advantage or an advantage in any aspect or design described above over other aspects or designs. . The terms '~part', 'component', 'module', 'system', 'interface', etc. used below generally mean a computer-related entity, for example, hardware, hardware A combination of and software may mean software.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Also, the terms "comprises" and/or "comprising" mean that the feature and/or element is present, but excludes the presence or addition of one or more other features, elements and/or groups thereof. should be understood as not

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including an ordinal number such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are generally understood by those of ordinary skill in the art to which the present invention belongs. have the same meaning as Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in an embodiment of the present invention, an ideal or excessively formal meaning is not interpreted as

본원 발명의 소셜서버에서 수행되는 가상현실 재활시스템은 사용자의 외형 및 상태를 모사한 아바타를 생성하고, 사용자는 아바타를 조종하여 복수의 콘텐츠를 수행하는 형태로 구현될 수 있다. 이하에서는 이를 위한 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템에 대해 설명한다. The virtual reality rehabilitation system performed in the social server of the present invention may be implemented in the form of generating an avatar that mimics the appearance and state of a user, and the user manipulates the avatar to perform a plurality of contents. Hereinafter, a system for generating an avatar in virtual reality for this purpose and providing a plurality of contents will be described.

1. 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템1. A system that creates an avatar in virtual reality and provides multiple contents

도 1은 본 발명의 일 실시예에 따른 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템의 구성을 개략적으로 도시한다.1 schematically shows the configuration of a system for generating an avatar and providing a plurality of contents in virtual reality according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템으로서, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 상기 사용자의 움직임을 측정하는 동작센싱장치; 및 상기 사용자의 안구운동을 감지하는 아이트래커;를 포함하는 VR장치(1000); 및 상기 사용자가 착용하는 VR장치(1000)와 통신을 수행하고, 상기 VR장치(1000)로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;를 포함하고, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부(2100); 상기 VR장치(1000)와 통신을 수행하여 정보를 주고받는 VR통신부(2200); 상기 VR장치(1000)로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부(2300); 상기 가상현실구현부(2100)에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부(2400); 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부(2500);를 포함하고, 상기 생체정보는, 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 상기 맥박측정기로 측정한 상기 사용자의 맥박정보; 및 상기 아이트래커로 측정한 상기 사용자의 아이트래킹정보;를 포함한다.As shown in FIG. 1 , a system for generating an avatar in virtual reality and providing a plurality of contents, the system comprising: an HMD mounted to a user to provide images and sounds for virtual reality, and to sense the user's voice; a camera device that captures the user's appearance and derives image information of the user; an EEG which is attached to the user's head and measures the user's EEG; a pulse meter attached to the user's wrist to measure the user's pulse; a motion sensing device for measuring the user's movement; and an eye tracker for detecting the user's eye movement; a VR device 1000 including; and performing communication with the VR device 1000 worn by the user, providing information about virtual reality to the VR device 1000, and generating an avatar of the user to provide a plurality of virtual reality contents to the user and a VR service unit, wherein the VR service unit includes: a virtual reality implementation unit 2100 that is available only to the user and implements virtual reality in which the plurality of virtual reality contents are provided; a VR communication unit 2200 that communicates with the VR device 1000 to exchange information; the user's biometric information received from the VR device 1000; and a user information input unit 2300 for receiving user information including; and activity information and medical information received from the user's smartphone; an avatar generating unit 2400 for generating an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementing unit 2100; and a VR content providing unit 2500 capable of providing the plurality of contents to the avatar created in the virtual reality, and updating the appearance of the avatar whenever the avatar is performed. image information input through the device; EEG information of the user measured by the EEG; the user's pulse information measured by the pulse meter; and eye tracking information of the user measured with the eye tracker.

개략적으로, 상기 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템은, 상기 VR장치(1000) 및 상기 VR서비스부를 포함하며, 상기 VR서비스부는 컴퓨팅시스템(10000)에 포함된다. Schematically, the system for generating an avatar in virtual reality and providing a plurality of contents includes the VR device 1000 and the VR service unit, and the VR service unit is included in the computing system 10000 .

구체적으로, 상기 VR장치(1000)는 사용자에게 장착되거나 상기 사용자의 외형을 촬영함으로써, 상기 VR서비스부에서 생성되는 아바타의 외형 및 능력치를 결정할 수 있는 정보를 센싱하는 1 이상의 구성요소를 포함하며, 상기 구성요소로는 상술한 바와 같이, 상기 HMD(Head Mounted Display), 상기 카메라장치, 상기 뇌파측정기, 상기 맥박측정기; 상기 동작센싱장치 및 상기 아이트래커;를 포함한다. 또한, 상기 VR장치(1000)는, 상기 VR장치(1000)의 각 구성을 통해 센싱한 상기 이미지정보, 상기 뇌파정보, 상기 맥박정보, 및 상기 아이트래킹정보를 포함하는 상기 사용자의 생체정보를 상기 VR서비스부로 전달할 수 있다. 상기 VR장치(1000)에 대한 보다 상세한 설명은 도 3에서 후술하도록 한다.Specifically, the VR device 1000 includes one or more components that sense information that can determine the appearance and ability values of the avatar generated by the VR service unit by being mounted on the user or photographing the user's appearance, The components include, as described above, the HMD (Head Mounted Display), the camera device, the EEG, and the pulse meter; and the motion sensing device and the eye tracker. In addition, the VR device 1000 receives the user's biometric information including the image information sensed through each configuration of the VR device 1000, the brain wave information, the pulse information, and the eye tracking information. It can be forwarded to the VR service department. A more detailed description of the VR device 1000 will be described later with reference to FIG. 3 .

상기 VR장치(1000)를 통해 센싱된 상기 생체정보는 상기 컴퓨팅시스템(10000)으로 전송된다. 상기 컴퓨팅시스템(10000)의 상기 VR서비스부는, 가상현실을 구현하고, 상기 생체정보에 기초하여 상기 가상현실 내에 상기 사용자의 아바타를 생성하며, 상기 사용자가 상기 아바타를 통해 복수의 콘텐츠를 제공한다. The biometric information sensed through the VR device 1000 is transmitted to the computing system 10000 . The VR service unit of the computing system 10000 implements virtual reality, generates an avatar of the user in the virtual reality based on the biometric information, and the user provides a plurality of contents through the avatar.

한편, 본 발명의 일 실시예로서 상기 컴퓨팅시스템(10000)은, 도 1에 도시된 바와 같이, 소셜서버(3000)와 통신할 수 있고, 상기 사용자는 상기 VR서비스부에서 생성한 아바타를 통해 상기 소셜서버(3000) 내에서 1 이상의 다른 사용자와 커뮤니케이션 할 수 있다. 또한, 본 발명의 다른 실시예로서, 상기 컴퓨팅시스템(10000)은 VR서비스부에서 제공하는 서비스 외에 다른 콘텐츠를 제공하는 추가콘텐츠부(4000)를 포함할 수 있으며, 바람직하게는, 상기 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템은 상기 소셜서버(3000) 및 상기 추가콘텐츠부(4000)를 동시에 포함할 수 있다.On the other hand, as an embodiment of the present invention, the computing system 10000, as shown in FIG. 1, can communicate with the social server 3000, and the user can use the avatar generated by the VR service unit. It is possible to communicate with one or more other users within the social server 3000 . In addition, as another embodiment of the present invention, the computing system 10000 may include an additional content unit 4000 that provides content other than the service provided by the VR service unit, preferably, in the virtual reality. A system for generating an avatar and providing a plurality of contents may include the social server 3000 and the additional contents unit 4000 at the same time.

도 2는 본 발명의 일 실시예에 따른 VR서비스부의 구성을 개략적으로 도시한다.2 schematically shows the configuration of a VR service unit according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부(2100); 상기 VR장치(1000)와 통신을 수행하여 정보를 주고받는 VR통신부(2200); 상기 VR장치(1000)로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부(2300); 상기 가상현실구현부(2100)에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부(2400); 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부(2500);를 포함한다.As shown in FIG. 2 , the VR service unit includes: a virtual reality implementation unit 2100 that is available only to the user and implements virtual reality in which the plurality of virtual reality contents are provided; a VR communication unit 2200 that communicates with the VR device 1000 to exchange information; the user's biometric information received from the VR device 1000; and a user information input unit 2300 for receiving user information including; and activity information and medical information received from the user's smartphone; an avatar generating unit 2400 for generating an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementing unit 2100; and a VR content providing unit 2500 capable of providing the plurality of contents to the avatar generated in the virtual reality, and updating the appearance of the avatar whenever the avatar is performed.

구체적으로, 상기 가상현실구현부(2100)는, 상기 컴퓨팅시스템(10000) 내에 가상현실을 구현하고, 상기 가상현실에 대한 정보를 상기 VR통신부(2200)를 통해 상기 사용자에게 전달할 수 있다. 상기 가상현실에 대한 정보는 가상현실의 인터페이스 및 디스플레이와 같은 시각적인 요소; 및 효과음 등의 청각적인 요소;를 포함하고, 상기 시청각적 요소는 상기 VR장치(1000)의 HMD를 통해 상기 사용자에게 전달될 수 있다.Specifically, the virtual reality implementation unit 2100 may implement virtual reality in the computing system 10000 , and transmit information about the virtual reality to the user through the VR communication unit 2200 . The information on the virtual reality may include visual elements such as a virtual reality interface and display; and auditory elements such as sound effects, wherein the audiovisual elements may be delivered to the user through the HMD of the VR apparatus 1000 .

전술한 바와 같이, 상기 VR통신부(2200)는 상기 가상현실구현부(2100)에서 구현한 가상현실에 대한 정보를 상기 사용자에게 전달하고, 상기 VR장치(1000)에서 센싱된 동작정보 및 상기 생체정보를 상기 컴퓨팅시스템(10000)으로 전달받는다. 상기 동작정보 및 상기 생체정보는 상기 가상현실 내에서 상기 사용자의 아바타를 생성하거나, 복수의 콘텐츠를 수행하는데 사용된다. As described above, the VR communication unit 2200 transmits information on the virtual reality implemented by the virtual reality implementation unit 2100 to the user, and the motion information and the biometric information sensed by the VR device 1000 . is transmitted to the computing system 10000 . The motion information and the biometric information are used to create an avatar of the user or perform a plurality of contents in the virtual reality.

상기 VR장치(1000)를 통해 전달받은 상기 생체정보는 상기 사용자정보입력부(2300)의 생체정보수신부(2310)로 전달된다. 한편, 상기 사용자정보입력부(2300)는, 도 2에 도시된 바와 같이, 상기 생체정보수신부(2310) 외에 활동정보수신부(2320) 및 의료정보수신부(2330)를 더 포함한다. 상기 활동정보수신부(2320) 및 상기 의료정보수신부(2330) 각각은, 상기 사용자의 스마트폰으로부터 상기 사용자의 활동정보 및 상기 사용자의 의료정보를 각각 수신한다.The biometric information received through the VR device 1000 is transmitted to the biometric information receiving unit 2310 of the user information input unit 2300 . Meanwhile, as shown in FIG. 2 , the user information input unit 2300 further includes an activity information receiving unit 2320 and a medical information receiving unit 2330 in addition to the biometric information receiving unit 2310 . Each of the activity information receiving unit 2320 and the medical information receiving unit 2330 receives the user's activity information and the user's medical information from the user's smartphone, respectively.

상기 활동정보는 상기 사용자의 스마트폰에 기록되는 기설정된 주기로 기록되는 운동기록, 기설정된 주기로 기록되는 생활정보 등에 해당되며, 예를 들어, 하루 동안의 걸음 수, 하루 동안의 걸음걸이, 하루 동안 마신 물의 양 및 횟수, 취침시간 및 기상시간 등을 포함한다. 본 발명의 일 실시예에 따르면, 상기 활동정보는 상기 활동정보를 기록할 수 있는 웨어러블디바이스(wearable device)를 통해 수신될 수 있다. 또한, 상기 의료정보는, 해당 사용자가 입력한 1 이상의 병력에 대한 정보를 포함하며, 본 발명의 일 실시예로서, 의료기관에서 제공하는 의료기록을 이용하여 생성될 수 있다. The activity information corresponds to an exercise record recorded in a preset cycle recorded on the user's smartphone, life information recorded in a preset cycle, etc. Include the amount and frequency of water, bedtime and wake-up time. According to an embodiment of the present invention, the activity information may be received through a wearable device capable of recording the activity information. In addition, the medical information includes information on one or more medical history input by the user, and as an embodiment of the present invention, may be generated using a medical record provided by a medical institution.

상기 VR장치(1000)의 카메라장치를 통해 상기 사용자의 얼굴이미지 및 체형이미지를 촬영하여 생성한 복수의 이미지정보는 상기 VR통신부(2200)를 통해 상기 생체정보수신부(2310)로 수신되고, 상기 아바타생성부(2400)는 상기 복수의 이미지정보에 기초하여 상기 사용자의 아바타를 상기 가상현실 내에 생성한다. A plurality of image information generated by photographing the face image and body image of the user through the camera device of the VR device 1000 is received by the biometric information receiver 2310 through the VR communication unit 2200, and the avatar The generating unit 2400 generates the user's avatar in the virtual reality based on the plurality of image information.

상기 아바타생성부(2400)는, 상기 아바타의 기본외형을 결정하는 기본외형결정부(2410), 복수의 이미지정보에 기초하여 상기 사용자의 노화정보를 결정하고 아바타의 외형 일부를 변경하는 노화정보결정부(2420); 상기 사용자의 활동정보에 기초하여 상기 아바타의 이동속도를 결정하는 이동속도결정부(2430); 및 상기 의료정보에 기초하여 상기 아바타의 외형 일부를 변경하는 질환정보결정부(2440);를 포함한다. 즉, 상기 아바타생성부(2400)는, 상기 사용자의 생체정보, 활동정보, 및 의료정보에 기초하여 상기 아바타의 외형 및 능력치를 설정하고, 상기 가상현실 내에 상기 아바타를 구현한다.The avatar generator 2400 includes a basic appearance determiner 2410 that determines the basic appearance of the avatar, and determines aging information of the user based on a plurality of image information and determines aging information that changes a part of the appearance of the avatar part 2420; a moving speed determining unit 2430 for determining the moving speed of the avatar based on the user's activity information; and a disease information determining unit 2440 that changes a part of the appearance of the avatar based on the medical information. That is, the avatar generator 2400 sets the appearance and capability of the avatar based on the user's biometric information, activity information, and medical information, and implements the avatar in the virtual reality.

상기 VR콘텐츠제공부(2500)는, 상기 가상현실 내에서 상기 아바타에게 복수의 콘텐츠를 제공한다. 상기 복수의 콘텐츠는, 해당 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠; 해당 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠; 및 해당 사용자에게 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠;를 포함한다. 상기 VR콘텐츠제공부(2500)에 대한 보다 상세한 설명은 후술하도록 한다. The VR contents providing unit 2500 provides a plurality of contents to the avatar in the virtual reality. The plurality of contents may include contents capable of performing cognitive ability and concentration reinforcement training of the corresponding user; Content that can perform physical activity strengthening training for the user; and content capable of performing training on a body part or cognitive ability that requires rehabilitation for the user. A more detailed description of the VR content providing unit 2500 will be described later.

도 3은 본 발명의 일 실시예에 따른 가상현실을 이용하는 사용자가 착용하는 VR장치(1000) 및 그 구성을 개략적으로 도시한다.3 schematically illustrates a VR device 1000 worn by a user using virtual reality and a configuration thereof according to an embodiment of the present invention.

개략적으로, 도 3의 (a)는, 상기 사용자가 상기 VR장치(1000)를 착용한 일 실시예를 도시하고, 도 3의 (b)는, 상기 사용자의 머리부분에 장착되는 상기 HMD(1100) 및 상기 뇌파측정기(1300)의 구성을 도시하고, 도 3의 (c)는 상기 VR장치(1000)의 구성을 도시한다.Schematically, Fig. 3(a) shows an embodiment in which the user wears the VR device 1000, and Fig. 3(b) shows the HMD 1100 mounted on the user's head. ) and the configuration of the EEG measuring device 1300 , and FIG. 3 ( c ) shows the configuration of the VR device 1000 .

도 3에 도시된 바와 같이, 상기 VR장치(1000)는, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD(1100); 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치(1200); 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기(1300); 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기(1400); 상기 사용자의 움직임을 측정하는 동작센싱장치(1500); 및 상기 사용자의 안구운동을 감지하는 아이트래커(1600);를 포함한다.As shown in FIG. 3 , the VR device 1000 includes: an HMD 1100 mounted to a user to provide images and sounds for virtual reality, and to sense the user's voice; a camera device 1200 for photographing the user's appearance to derive image information of the user; an EEG 1300 attached to the user's head to measure the user's EEG; a pulse meter 1400 attached to the user's wrist to measure the user's pulse; a motion sensing device 1500 for measuring the user's movement; and an eye tracker 1600 for detecting the user's eye movement.

구체적으로, 도 3의 (a)는 상기 사용자가 상기 VR장치(1000)를 착용한 일 실시예에 해당하며, 상기 카메라장치(1200)는 별도로 도시하지 않는다. 상기 사용자는, 도 3의 (a)에 도시된 VR장치(1000)를 상기 사용자가 장착하기 전에, 상기 카메라장치(1200)를 통하여 상기 사용자의 얼굴이미지 및 체형이미지를 촬영하는 것이 바람직하며, 상기 카메라장치(1200)는 상기 생체정보수신부(2310)로 상기 얼굴이미지 및 상기 체형이미지를 전달할 수 있다.Specifically, (a) of FIG. 3 corresponds to an embodiment in which the user wears the VR device 1000, and the camera device 1200 is not separately illustrated. The user preferably takes a face image and body shape image of the user through the camera device 1200 before the user mounts the VR device 1000 shown in FIG. The camera device 1200 may transmit the face image and the body shape image to the biometric information receiver 2310 .

도 3의 (a)에 도시된 바와 같이, 상기 맥박측정기(1400)는 상기 사용자의 손목에 부착되어 상기 사용자의 맥박을 측정할 수 있다. 즉, 상기 맥박측정기(1400)는 상기 생체정보 중 하나인 사용자의 맥박을 측정할 수 있고, 이와 같이 측정된 상기 사용자의 맥박은 상기 VR서비스부에 입력되어, 상기 사용자의 상태를 분석하거나 상기 사용자의 심리를 파악하여 상기 사용자가 콘텐츠를 원활하게 수행할 수 있는 용도로 사용되거나, 가상현실에서 제공되는 콘텐츠를 생성하는데 사용될 수 있다. 추가적으로, 상기 맥박측정기(1400)는 근전도센서를 포함하여, 상기 사용자의 맥박정보 및 상기 사용자의 근전도정보를 센싱하여 상기 VR서비스로 전달할 수 있다. As shown in (a) of FIG. 3 , the pulse meter 1400 may be attached to the user's wrist to measure the user's pulse. That is, the pulse meter 1400 may measure the user's pulse, which is one of the biometric information, and the measured user's pulse is input to the VR service unit to analyze the user's condition or to determine the user's pulse. It can be used for the purpose of allowing the user to smoothly perform content by grasping the psychology of the user, or it can be used to create content provided in virtual reality. Additionally, the pulse meter 1400 may include an EMG sensor to sense the user's pulse information and the user's EMG information and deliver it to the VR service.

도 3의 (a)에 도시된 바와 같이, 상기 동작센싱장치(1500)는 기설정된 공간에서 상기 사용자의 움직임을 측정함으로써, 상기 기설정된 공간 내에서의 상기 사용자의 동작정보를 측정할 수 있다. 이와 같이 측정된 상기 사용자의 동작정보는 상기 VR서비스부에 입력되어, 상기 VR서비스부에서 제공되는 복수의 콘텐츠를 결정하는데 기초가 되거나, 상기 사용자가 상기 복수의 콘텐츠를 체험하는데 사용될 수 있다.As shown in FIG. 3A , the motion sensing device 1500 may measure the user's motion information in the preset space by measuring the user's movement in the preset space. The user's motion information measured in this way may be input to the VR service unit and may be used as a basis for determining a plurality of contents provided by the VR service unit, or may be used for the user to experience the plurality of contents.

상기 동작센싱장치(1500)는, 도 3의 (a)에 도시된 바와 같이, 상기 사용자가 양 손에 각각 소지하여 상기 기설정된 공간에서의 움직임을 센싱할 수 있는 센서모듈을 포함하고, 본 발명의 일 실시예로서, 적외선 센서 혹은 캠코더 등과 같이 상기 사용자의 상기 기설정된 공간 내에서의 움직임을 영상으로 측정할 수 있는 센서모듈을 포함할 수 있다. 한편, 본 발명의 다른 실시예에 따르면, 상기 동작센싱장치(1500)는, 가속도센서, 혹은 자이로센서 등과 같이 사용자의 몸에 부착되는 형태로서, 상기 기설정된 공간 내에서의 상기 사용자의 움직임을 센싱할 수 있다. 바람직하게는, 상기 기설정된 공간은, 상기 동작센싱장치(1500)의 좌표를 측정하는 위치센서모듈이 구비된 공간에 해당한다.The motion sensing device 1500 includes a sensor module capable of sensing movement in the preset space by holding each of the user's hands in both hands, as shown in FIG. 3A , and the present invention As an embodiment of , a sensor module capable of measuring the user's movement in the preset space as an image, such as an infrared sensor or a camcorder, may be included. Meanwhile, according to another embodiment of the present invention, the motion sensing device 1500 is attached to the user's body, such as an acceleration sensor or a gyro sensor, and senses the user's movement in the preset space. can do. Preferably, the preset space corresponds to a space provided with a position sensor module for measuring the coordinates of the motion sensing device 1500 .

도 3의 (b)는 상기 HMD(1100)의 세부구성을 도시한다. 도 3의 (b)에 도시된 바와 같이, 상기 HMD(1100)는 상기 뇌파측정기(1300)와 연결되어 있으며, 상기 뇌파측정기(1300)는 상기 생체정보 중의 하나인 사용자의 뇌파를 특정할 수 있다. 이와 같이 측정된 상기 사용자의 뇌파는 상기 VR서비스부에 입력되어, 상기 사용자의 상태를 분석하거나 상기 사용자의 심리를 파악하여 상기 사용자가 콘텐츠를 원활하게 수행할 수 있는 용도로 사용되거나, 가상현실에서 제공되는 콘텐츠를 생성하는데 사용될 수 있다. 3B shows a detailed configuration of the HMD 1100. As shown in FIG. As shown in (b) of FIG. 3, the HMD 1100 is connected to the EEG meter 1300, and the EEG meter 1300 can specify the user's EEG, which is one of the biometric information. . The user's brain waves measured in this way are input to the VR service unit and used for the purpose of analyzing the user's state or understanding the user's psychology to enable the user to smoothly perform content, or in virtual reality. It can be used to create content to be provided.

상기 HMD(1100)는, 상기 사용자에게 가상현실에 대한 시각적인 요소를 제공하는 시각제공부(1110); 상기 사용자에게 상기 가상현실에 대한 청각적인 요소를 제공하는 청각제공부(1120); 및 상기 사용자의 목소리를 감지하는 마이크부(미도시);를 포함한다. The HMD 1100 includes: a visual providing unit 1110 that provides a visual element for virtual reality to the user; an auditory providing unit 1120 for providing an auditory element for the virtual reality to the user; and a microphone unit (not shown) for detecting the user's voice.

본 발명의 일 실시예에 따른 VR장치(1000)는 상기 시각제공부(1110) 및 상기 청각제공부(1120)를 통해 상기 사용자에게 상기 가상현실에 대한 정보를 제공함으로써 상기 사용자가 상기 가상현실의 가상공간에 존재하는 것과 같은 체험을 할 수 있도록 하고, 상기 음성입력부 및 상기 동작센싱장치(1500)를 통해 상기 사용자의 목소리 및 행동을 입력 받아 상기 가상현실에 구현된 상기 사용자의 아바타가 움직이거나 말을 할 수 있도록 할 수 있다.The VR apparatus 1000 according to an embodiment of the present invention provides information on the virtual reality to the user through the visual providing unit 1110 and the auditory providing unit 1120 so that the user can view the virtual reality. The user's avatar implemented in the virtual reality moves or speaks by receiving the user's voice and behavior through the voice input unit and the motion sensing device 1500 to provide an experience as if existing in a virtual space. can enable you to

상기 시각제공부(1110)는 도 3의 (b)에 도시된 바와 같이, 상기 사용자의 양 쪽 안구에 입체감을 부여할 수 있도록 각각 시각 정보를 제공하고, 추가적으로, 상기 사용자의 안구운동을 감지하는 아이트래커(1600)를 포함한다. 본 발명의 일 실시예에서는 상기 사용자의 안구운동을 감지하여 상기 사용자에 대한 진단에 활용할 수 있다. 또한, 상기 아이트래커(1600)는 상기 시각제공부(1110)가 상기 사용자에게 시각정보를 제공하는데 방해되지 않도록 상기 시각제공부(1110)의 가장자리 측에 위치하는 것이 바람직하다.As shown in (b) of FIG. 3 , the visual providing unit 1110 provides visual information to provide a three-dimensional effect to both eyes of the user, and additionally, detects the user's eye movement. Includes an eye tracker (1600). In an embodiment of the present invention, the user's eye movement may be sensed and utilized for diagnosis of the user. In addition, it is preferable that the eye tracker 1600 is located on the edge of the time providing unit 1110 so as not to interfere with the time providing unit 1110 providing visual information to the user.

도 3의 (c)에 도시된 바와 같이, 상기 VR장치(1000)는, 전술한 바와 같이 상기 HMD(1100), 상기 카메라장치(1200), 상기 뇌파측정기(1300), 상기 맥박측정기(1400), 상기 동작센싱장치(1500), 및 상기 아이트래커(1600)를 포함한다. As shown in (c) of Figure 3, the VR device 1000, as described above, the HMD 1100, the camera device 1200, the EEG meter 1300, the pulse meter 1400 , the motion sensing device 1500 , and the eye tracker 1600 .

도 4는 본 발명의 일 실시예에 따른 기본외형결정부(2410)의 동작을 개략적으로 도시한다.4 schematically shows the operation of the basic appearance determining unit 2410 according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 상기 기본외형결정부(2410)는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정한다.As shown in FIG. 4 , the basic appearance determining unit 2410 derives respective appearance feature information from a plurality of the image information, and averages the derived plurality of appearance feature information to form a character in the form of a one-dimensional vector. A determination parameter is derived, and a basic appearance of the avatar is determined based on the character determination parameter.

구체적으로, 상기 VR장치(1000)와 통신하는 상기 VR서비스부는, 상기 아바타생성부(2400)를 포함하고, 상기 아바타생성부(2400)는, 도 2에서 전술한 바와 같이, 상기 기본외형결정부(2410), 상기 노화정보결정부(2420), 상기 이동속도결정부(2430), 및 상기 질환정보결정부(2440)를 포함한다. 도 4에 도시된 바와 같이, 상기 기본외형결정부(2410)는, 상기 VR장치(1000)의 카메라장치(1200)를 통해 입력된 상기 사용자의 이미지정보를 수신하고, 상기 사용자의 이미지정보에 기초하여 얼굴이미지 및 체형이미지를 추출하고, 추출된 상기 얼굴이미지 및 상기 체형이미지로부터 각각의 복수의 외형특징정보를 도출한다. Specifically, the VR service unit communicating with the VR device 1000 includes the avatar generating unit 2400, and the avatar generating unit 2400, as described above with reference to FIG. 2, includes the basic appearance determining unit. 2410 , the aging information determining unit 2420 , the moving speed determining unit 2430 , and the disease information determining unit 2440 . As shown in FIG. 4 , the basic appearance determining unit 2410 receives the user's image information input through the camera device 1200 of the VR device 1000 , and based on the user's image information Thus, a face image and a body shape image are extracted, and a plurality of external shape characteristic information is derived from the extracted face image and the body shape image.

상기 이미지정보는 상기 사용자의 감정을 인식할 수 있는 안면의 표정변화를 포함하는 사용자에 대한 동적영상 혹은 일정한 주기로 연속되어 기록한 사용자에 대한 복수의 정적영상일 수 있다. 특히, 상기 이미지정보는 2 이상의 이미지 프레임을 갖는 것을 포함하는 최광의로 해석되어야 할 것이다. 이에 따라, 상기 기본외형결정부(2410)는, 수신한 상기 이미지정보를 복수의 프레임으로 분류하고, 각각의 프레임에서 얼굴이미지 및 체형이미지를 추출한다. 이후, 추출된 얼굴이미지에 기초하여 외형특징정보를 도출할 수 있다. 상기 외형특징정보는 눈의 기울기, 눈썹의 기울기, 입 모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 포함하고, 추가적으로, 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 더 포함한다. The image information may be a dynamic image of the user including a change in facial expression capable of recognizing the user's emotion, or a plurality of static images of the user continuously recorded at a predetermined period. In particular, the image information should be interpreted in its broadest sense including having two or more image frames. Accordingly, the basic appearance determining unit 2410 classifies the received image information into a plurality of frames, and extracts a face image and a body image from each frame. Then, the appearance feature information can be derived based on the extracted face image. The appearance feature information includes feature information on unique characteristics that can recognize facial expressions, such as the inclination of the eyes, the inclination of the eyebrows, the shape of the mouth and the inclination of the mouth, and additionally, the user's skin condition information, hair condition, etc. information, and the degree of curvature of the skeleton.

한편, 도 4는, 본 발명의 일 실시예로서, 상기 복수의 프레임으로부터 상기 얼굴이미지를 추출하는 과정만을 도시하고, 상기 기본외형결정부(2410)는, 도 4에 도시된 것과 같은 방식으로 상기 복수의 프레임으로부터 상기 체형이미지를 추출할 수 있다. 이 때, 바람직하게는, 상기 VR서비스부는 상기 사용자에게 다양한 자세를 요구함으로써, 상기 사용자의 골격의 상태를 엄밀하게 판단할 수 있다. On the other hand, FIG. 4 shows only the process of extracting the face image from the plurality of frames as an embodiment of the present invention, and the basic appearance determining unit 2410 is The body shape image may be extracted from a plurality of frames. In this case, preferably, the VR service unit may strictly determine the state of the user's skeleton by requesting various postures from the user.

도 5는 본 발명의 일 실시예에 따른 아바타생성부(2400)의 동작을 개략적으로 도시한다.5 schematically illustrates the operation of the avatar generator 2400 according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 상기 아바타생성부(2400)는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부(2410); 상기 생체정보를 1 이상의 인공신경망 모델에 입력하여 상기 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부(2420); 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 상기 아바타의 이동속도를 결정하는 이동속도결정부(2430); 및 해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부(2440);를 포함하고,As shown in FIG. 5 , the avatar generating unit 2400 derives respective appearance feature information from a plurality of the image information, and averages the derived plurality of appearance feature information to obtain a character determination parameter in the form of a one-dimensional vector. a basic appearance determining unit 2410 for deriving and determining a basic appearance of the avatar based on the character determination parameter; an aging information determining unit 2420 for inputting the biometric information into one or more artificial neural network models to determine aging information of the avatar, and adding a first graphic effect corresponding to the aging information to the basic appearance; a movement speed determining unit 2430 for determining the movement speed of the avatar in a manner that increases the movement speed as the movement distance or number of steps increases, based on the movement distance or number of steps for a preset time derived from the user's smartphone; and determining disease information of the avatar based on medical information including at least one medical history input by the user, and adding a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect is added. Including; disease information determination unit 2440;

상기 외형특징정보는 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 포함한다.The appearance feature information includes skin condition information of the user, hair condition information, and a degree of curvature of the skeleton.

구체적으로, 상기 기본외형결정부(2410)에서는, 도 4에서 상술한 바와 같이, 상기 사용자의 복수의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터 형태의 캐릭터결정파라미터를 도출할 수 있다. 상기 캐릭터결정파라미터는, 상기 아바타의 기본외형에 대하여 1 이상의 아바타의 외형정보를 설정하는 파라미터로, 예를 들어, 아바타의 키, 골격 혹은 골격의 휘어진 정도, 피부색, 피부상태, 모발의 색깔, 및 모발의 상태 등을 포함하는 파라미터이며, 추가적으로, 전술한 바와 같이, 눈의 기울기, 눈썹의 기울기, 입 모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 더 포함할 수 있다. 상기 기본외형결정부(2410)는 전술한 바와 같은 캐릭터결정파라미터를 통해 실제 사용자의 얼굴 및 체형과 유사한 아바타의 기본외형을 가상현실 내에 구현할 수 있다. Specifically, in the basic appearance determining unit 2410, as described above with reference to FIG. 4 , a plurality of pieces of appearance feature information of the user is derived, and the derived plurality of appearance feature information is averaged to determine a character in a one-dimensional vector form. parameters can be derived. The character determination parameter is a parameter for setting one or more appearance information of the avatar with respect to the basic appearance of the avatar. It is a parameter including the state of the hair, and additionally, as described above, it further includes characteristic information about the unique characteristics that can recognize facial expressions, such as the inclination of the eyes, the inclination of the eyebrows, the shape of the mouth and the inclination of the mouth. can do. The basic appearance determining unit 2410 may implement the basic appearance of the avatar similar to the face and body shape of an actual user in virtual reality through the character determination parameters as described above.

상기 기본외형결정부(2410)에서 상기 아바타의 기본외형이 결정되면, 상기 아바타생성부(2400)의 상기 노화정보결정부(2420)에서는 상기 사용자의 노화정보를 결정하여 상기 아바타의 외형그래픽에 반영한다. 상기 노화정보결정부(2420)는 1 이상의 인공신경망을 포함하며, 각각의 인공신경망 모델에 상기 생체정보를 입력함으로써, 상기 사용자의 노화정보를 결정할 수 있다. 상기 노화정보가 결정되면, 상기 노화정보결정부(2420)는, 상기 노화정보에 상응하는 제1그래픽효과를 도출하고, 상기 아바타의 기본외형에 상기 제1그래픽효과를 추가한다. 상기 노화정보결정부(2420)에 대한 보다 상세한 설명은 후술하도록 한다.When the basic appearance of the avatar is determined by the basic appearance determining unit 2410, the aging information determining unit 2420 of the avatar generating unit 2400 determines the aging information of the user and reflects it in the appearance graphic of the avatar. do. The aging information determining unit 2420 includes one or more artificial neural networks, and by inputting the biometric information to each artificial neural network model, it is possible to determine the aging information of the user. When the aging information is determined, the aging information determining unit 2420 derives a first graphic effect corresponding to the aging information, and adds the first graphic effect to the basic appearance of the avatar. A more detailed description of the aging information determining unit 2420 will be described later.

상기 질환정보결정부(2440)는, 상기 제1그래픽효과가 추가된 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가한다. 상기 질환정보는, 상기 사용자의 스마트폰으로부터 수신한 상기 의료정보에 기초하여 생성된다. 상기 질환정보결정부(2440)는 상기 의료정보수신부(2330)를 통해 상기 의료정보를 수신하고, 상기 의료정보에 기초하여 상기 질환정보를 생성한다. 이후, 상기 질환정보에 상응하는 제2그래픽효과를 산출한다. 예를 들어, 왼쪽어깨에 유착성 관절낭염이 있는 사용자의 아바타에는 왼쪽 어깨가 붉게 처리되는 그래픽효과가 추가될 수 있으며, 혹은 오른쪽 무릎에 류마티스 관절염을 앓고 있는 사용자의 아바타에는 오른쪽 무릎이 붉게 처리되는 그래픽효과가 추가될 수 있다. 한편, 상기 질환정보를 통해 상기 아바타의 외형뿐만 아니라 상기 아바타의 능력치에 영향을 줄 수 있는데 이에 대해서는 후술하도록 한다. 이와 같이, 상기 아바타생성부(2400)에서는, 상기 사용자의 생체정보 및 질환정보에 기초하여, 상기 사용자의 아바타를 가상현실 내에 구현한다.The disease information determining unit 2440 adds a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect is added. The disease information is generated based on the medical information received from the user's smartphone. The disease information determining unit 2440 receives the medical information through the medical information receiving unit 2330 and generates the disease information based on the medical information. Thereafter, a second graphic effect corresponding to the disease information is calculated. For example, a graphic effect in which the left shoulder is processed in red may be added to the avatar of a user with adhesive capsulitis on the left shoulder, or the avatar of a user suffering from rheumatoid arthritis in the right knee may have the right knee in red. Graphic effects can be added. Meanwhile, the disease information may affect not only the appearance of the avatar but also the ability values of the avatar, which will be described later. As such, the avatar generator 2400 implements the user's avatar in virtual reality based on the user's biometric information and disease information.

도 6은 본 발명의 일 실시예에 따른 노화정보결정부(2420)의 세부구성을 개략적으로 도시한다.6 schematically shows a detailed configuration of the aging information determining unit 2420 according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 노화정보결정부(2420)는, 상기 카메라장치(1200)를 통해 입력 받은 이미지정보를 입력 받아 제1노화정보를 출력하는 제1인공신경망(2421); 상기 뇌파측정기(1300)로 측정한 상기 사용자의 뇌파정보를 입력 받아 제2노화정보를 출력하는 제2인공신경망(2422); 상기 맥박측정기(1400)로 측정한 상기 사용자의 맥박정보를 입력 받아 제3노화정보를 출력하는 제3인공신경망(2423); 및 상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보를 합산하여, 최종적인 노화정보를 도출하는 종합판단모듈(2424);을 포함한다. As shown in FIG. 6 , the aging information determining unit 2420 includes: a first artificial neural network 2421 that receives image information received through the camera device 1200 and outputs first aging information; a second artificial neural network 2422 for receiving the EEG information of the user measured by the EEG measuring device 1300 and outputting second aging information; a third artificial neural network 2423 that receives the user's pulse information measured by the pulse meter 1400 and outputs third aging information; and a comprehensive determination module 2424 for deriving final aging information by summing the first aging information, the second aging information, and the third aging information.

구체적으로, 본 발명의 일 실시예에 따른 상기 노화정보결정부(2420)는 상기 사용자의 이미지정보, 뇌파정보, 및 맥박정보 중 1 이상에 기초하여 상기 사용자의 노화정보를 결정할 수 있다. 이 때, 상기 노화정보결정부(2420)는 상기 사용자의 이미지정보, 뇌파정보, 및 맥박정보를 1 이상의 인공신경망을 통해 분석함으로써, 상기 사용자의 노화정보를 결정할 수 있다. Specifically, the aging information determining unit 2420 according to an embodiment of the present invention may determine the aging information of the user based on one or more of the user's image information, EEG information, and pulse information. At this time, the aging information determining unit 2420 may determine the aging information of the user by analyzing the user's image information, EEG information, and pulse information through one or more artificial neural networks.

도 6에 도시된 것과 같이, 상기 제1인공신경망(2421) 내지 제3인공신경망(2423)은 각각 상기 사용자의 이미지정보, 뇌파정보 및 맥박정보를 입력 받아 분석을 수행하고, 분석 결과를 상기 종합진단모듈로 전송하고, 상기 종합진단모듈은 상기 분석 결과를 수신하여 상기 사용자의 노화정보를 결정하여 출력한다. 이과 같이 출력된 상기 노화정보에 기초하여, 도 5에 대한 설명을 참고하여, 상기 노화정보결정부(2420)는 상기 노화정보에 상응하는 제1그래픽효과를 도출하고, 상기 아바타의 기본외형에 상기 제1그래픽효과를 추가한다.As shown in FIG. 6 , the first artificial neural network 2421 to the third artificial neural network 2423 receive and analyze the user's image information, EEG information, and pulse information, respectively, and synthesize the analysis results. transmitted to the diagnosis module, and the comprehensive diagnosis module receives the analysis result, determines and outputs the aging information of the user. Based on the aging information output in this way, referring to the description of FIG. 5 , the aging information determining unit 2420 derives a first graphic effect corresponding to the aging information, and adds the first graphic effect to the basic appearance of the avatar. Add the first graphic effect.

상기 제1인공신경망(2421)에서는 상기 기본외형결정부(2410)로부터 도출된 복수의 외형특징정보 중 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 분석하여 제1노화정보를 도출한다. 또한, 추가적으로, 상기 VR서비스부에서 상기 사용자에게 요구한 다양한 자세에 대한 수행결과에 기초하여 상기 사용자의 외형측면의 노화정보를 분석할 수 있고, 이를 통해 상기 제1노화정보를 도출한다. The first artificial neural network 2421 analyzes the user's skin condition information, hair condition information, and the degree of curvature of the skeleton among the plurality of appearance feature information derived from the basic appearance determining unit 2410 to obtain first aging information. derive In addition, the VR service unit may analyze the aging information on the external aspect of the user based on the results of performing various postures requested by the user, and derive the first aging information through this.

상기 제2인공신경망(2422)에서는 상기 VR장치(1000)의 뇌파측정기(1300)로부터 도출된 뇌파정보를 분석하여 제2노화정보를 도출한다. 본 발명의 일 실시예로서, 상기 뇌파의 안정성, 및 상기 사용자의 집중도를 상기 뇌파정보를 분석함으로써 상기 제2노화정보를 도출한다.The second artificial neural network 2422 derives second aging information by analyzing the EEG information derived from the EEG measuring device 1300 of the VR device 1000 . As an embodiment of the present invention, the second aging information is derived by analyzing the EEG information for the stability of the EEG and the concentration level of the user.

상기 제3인공신경망(2423)에서는 상기 VR장치(1000)의 맥박측정기(1400)로부터 도출된 맥박정보를 분석하여 제3노화정보를 도출한다. 상기 맥박정보는, 상기 사용자의 분당 맥박수, 맥박의 규칙성, 맥압을 포함한다. 상기 제3인공신경망(2423)은 상기 맥박정보에 기초하여, 상기 사용자의 예상 나이 및 심혈관나이를 산출할 수 있다.The third artificial neural network 2423 derives third aging information by analyzing the pulse information derived from the pulse meter 1400 of the VR device 1000 . The pulse information includes the user's pulse rate per minute, pulse regularity, and pulse pressure. The third artificial neural network 2423 may calculate the expected age and cardiovascular age of the user based on the pulse information.

상기 종합판단모듈(2424)은 상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보를 합산하여, 최종적인 노화정보를 산출할 수 있다. 한편, 상기 노화정보는, 본 발명의 일 실시예로서, 상기 사용자의 노화정도가 가장 낮을 때의 노화정보를 1로하고, 사용자의 노화정도가 가장 높은 때의 노화정보를 10으로 하는 것과 같이 점수 혹은 레벨로 도출될 수 있다. 바람직하게는, 상기 종합진단모듈은, 상기 이미지정보, 뇌파정보, 및 맥박정보에 대해 어느 정도의 가중치로 노화정보를 도출할 것인지를 자동으로 조절할 수 있도록 구성할 수 있고, 이와 같은 가중치에 대해서도 학습할 수 있도록 모델을 구성할 수 있다.The comprehensive determination module 2424 may calculate final aging information by summing the first aging information, the second aging information, and the third aging information. On the other hand, in the aging information, as an embodiment of the present invention, the aging information when the user's aging degree is the lowest is 1, and the aging information when the user's aging degree is the highest is 10. Or it can be derived as a level. Preferably, the comprehensive diagnosis module can be configured to automatically adjust how much weight to derive aging information with respect to the image information, EEG information, and pulse information, and learn about these weights. You can configure the model to do this.

이로서, 상기 노화정보결정부(2420)는 상기 최종적인 노화정보를 산출하고, 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중에서 상기 노화정보에 상응하는 제1그래픽효과를 상기 아바타의 기본외형에 추가할 수 있다.In this way, the aging information determining unit 2420 calculates the final aging information, and selects a first graphic effect corresponding to the aging information among a plurality of first graphic effects stored in the computing system 10000 of the avatar. It can be added to the basic appearance.

도 7은 본 발명의 일 실시예에 따른 사용자의 아바타 및 아바타의 능력치를 개략적으로 도시한다.7 schematically illustrates an avatar of a user and a capability value of the avatar according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 상기 아바타생성부(2400)는, 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부(2430);를 포함한다. 한편, 도 7에 도시된 상기 아바타의 능력치는 본 발명의 일 실시예로서, 실제 본 발명의 아바타의 능력치는 도 7에 도시된 것으로 한정되지 않는다.As shown in FIG. 7 , the avatar generating unit 2400 increases the moving speed as the moving distance or number of steps increases based on the moving distance or number of steps for a preset time derived from the user's smartphone. and a moving speed determining unit 2430 for determining the moving speed of the avatar. Meanwhile, the ability values of the avatar shown in FIG. 7 are an embodiment of the present invention, and the actual ability values of the avatar according to the present invention are not limited to those shown in FIG. 7 .

구체적으로, 상기 아바타생성부(2400)는, 상기 사용자의 스마트폰으로부터 수신한 상기 사용자의 활동정보 및 의료정보에 기초하여 상기 아바타의 능력치가 설정될 수 있다. 도 7에 도시된 바와 같이, 상기 아바타의 능력치는, 아바타의 이동속도, 근육량 및 인지능력을 포함한다. Specifically, the avatar generating unit 2400 may set the capability value of the avatar based on the user's activity information and medical information received from the user's smartphone. As shown in FIG. 7 , the ability values of the avatar include movement speed, muscle mass, and cognitive ability of the avatar.

상기 아바타의 이동속도는 상기 사용자의 활동정보 및 의료정보에 기초하여 산출될 수 있다. 예를 들어, 상기 사용자가 기설정된 시간 동안 하루 평균 3km를 2시간 동안 걸은 데이터가 상기 사용자의 스마트폰에 기록되었고, 상기 데이터는 상기 컴퓨팅시스템(10000)으로 송신될 수 있다. 상기 이동속도결정부(2430)는, 상기 데이터에 기초하여 상기 아바타의 이동속도를 산출할 수 있다. 만약, 상술한 예에서 기설정된 시간 동안의 운동기록이 상기 스마트폰에 규칙적으로 입력되지 않거나, 짧은 거리를 긴 시간동안 걸은 데이터가 상기 스마트폰에 입력되는 경우, 상기 이동속도결정부(2430)는 상기 데이터를 통해, 상기 아바타의 이동속도를 낮게 설정할 수 있고, 이와 반대의 예로서, 규칙적인 운동기록이 상기 스마트폰에 입력되거나, 많은 운동량이 상기 스마트폰에 기록된 경우, 상기 이동속도결정부(2430)는 해당 아바타의 이동속도를 높게 설정할 수 있다.The moving speed of the avatar may be calculated based on the user's activity information and medical information. For example, data that the user walks an average of 3 km per day for 2 hours for a preset time is recorded in the user's smartphone, and the data may be transmitted to the computing system 10000 . The movement speed determiner 2430 may calculate the movement speed of the avatar based on the data. If, in the above example, exercise records for a preset time are not regularly input to the smart phone, or when data of walking a short distance for a long time is input to the smart phone, the moving speed determining unit 2430 is Through the data, the moving speed of the avatar can be set to be low, and vice versa, when a regular exercise record is input to the smart phone or a large amount of exercise is recorded in the smart phone, the moving speed determining unit 2430 may set the moving speed of the corresponding avatar to be high.

또한, 상기 사용자의 의료정보에 기초하여 생성된 질환정보를 참고하여, 상기 아바타의 이동속도를 결정할 수 있다. 예를 들어, 상기 사용자가 하체부위에 질환을 갖고 있는 경우, 상기 아바타의 이동속도는 낮게 설정되며, 질환의 경중에 따라 낮게 설정되는 이동속도의 정도가 결정된다.Also, the moving speed of the avatar may be determined by referring to the disease information generated based on the user's medical information. For example, when the user has a disease in the lower body, the movement speed of the avatar is set low, and the degree of the movement speed set low according to the severity of the disease is determined.

상기 아바타생성부(2400)에 의하여, 상기 아바타의 근육량은 해당 사용자의 의료정보를 토대로 결정될 수 있다. 본 발명의 일 실시예로서, 상기 사용자의 의료정보에 포함된 상기 사용자의 실제 체성분 데이터에 기초하여 상기 아바타의 근육량이 결정될 수 있으며, 본 발명의 다른 실시예로서, 도 3의 (a)에 대한 설명을 참고하여, 상기 맥박측정기(1400)에 포함된 근전도센서를 통해 상기 아바타의 근육량을 설정할 수 있다. The avatar generator 2400 may determine the muscle mass of the avatar based on the user's medical information. As an embodiment of the present invention, the muscle mass of the avatar may be determined based on the user's actual body composition data included in the user's medical information. Referring to the description, the muscle mass of the avatar may be set through the EMG sensor included in the pulse meter 1400 .

상기 아바타생성부(2400)에 의하여, 상기 아바타의 인지능력은, 상기 사용자에게 장착된 뇌파측정기(1300)에 의해 센싱된 상기 사용자의 뇌파정보에 기초하여 산출될 수 있으며, 더 자세하게는, 사용자가 후술하는 복수의 콘텐츠를 수행할 때 측정되는 뇌파정보에 기초하여 산출될 수 있고, 추가적으로, 상기 사용자가 상기 아바타를 통해 상기 복수의 콘텐츠를 수행하는 경우, 상기 뇌파정보; 및 상기 복수의 콘텐츠의 수행과정 및 결과;를 참고하여 산출될 수 있다.By the avatar generator 2400, the cognitive ability of the avatar may be calculated based on the user's EEG information sensed by the EEG sensor 1300 mounted on the user. It may be calculated based on EEG information measured when performing a plurality of contents to be described later, and additionally, when the user performs the plurality of contents through the avatar, the EEG information; and the process and results of performing the plurality of contents.

도 8은 본 발명의 일 실시예에 따른 VR콘텐츠제공부(2500)의 구성을 개략적으로 도시한다.8 schematically shows the configuration of a VR content providing unit 2500 according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 상기 VR콘텐츠제공부(2500)는, 해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 상기 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부(2510); 해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부(2520); 해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 상기 사용자의 재활훈련이 필요한 신체부위 또는 상기 사용자의 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부(2530); 상기 제1콘텐츠제공부(2510), 상기 제2콘텐츠제공부(2520), 및 상기 제3콘텐츠제공부(2530)에서 제공한 콘텐츠에 대해 콘텐츠 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기(1300)에 의하여 측정된 뇌파정보, 및 상기 맥박측정기(1400)에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절부(2540); 상기 노화정보조절부(2540)에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부(2550);를 포함하고,As shown in FIG. 8 , the VR content providing unit 2500 provides content for which the difficulty level is determined based on the aging information of the user, and the user's cognitive ability and concentration reinforcement training can be performed. , a first content providing unit 2510; a second content providing unit 2520 for providing content for which difficulty is determined based on the activity information of the user and can perform physical activity reinforcement training for the user; A third content providing unit 2530 that determines the type of content based on the disease information of the user and provides content that can be trained on a body part requiring rehabilitation of the user or the user's cognitive ability ; As a result of performing content on the content provided by the first content providing unit 2510 , the second content providing unit 2520 , and the third content providing unit 2530 , during the content execution period, the Based on the EEG information measured by the EEG meter 1300, and the pulse information measured by the pulse meter 1400, aging information for calculating one or more scores and adjusting the aging information according to the one or more scores control unit 2540; and an avatar appearance update unit 2550 for updating the appearance of the user's avatar by adjusting the first graphic effect according to the adjusted aging information by the aging information adjusting unit 2540;

상기 제1콘텐츠제공부(2510)에서 상기 사용자에게 제공되는 제1콘텐츠는, 틀린그림찾기, 산수 및 퍼즐 맞추기를 포함하는 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠고, 상기 제2콘텐츠제공부(2520)에서 상기 사용자에게 제공되는 제2콘텐츠는, 걷기, 스트레칭 및 스쿼트를 포함하는 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠고, 상기 제3콘텐츠제공부(2530)에서 상기 사용자에게 제공되는 제3콘텐츠는, 상기 사용자가 부상을 입은 신체부위에 대한 집중적인 훈련을 수행하거나 상기 사용자의 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력을 포함하는 인지능력 강화에 대한 집중적인 훈련을 수행하여 상기 사용자가 취약한 분야를 훈련하기 위한 콘텐츠인에 해당한다.The first content provided to the user by the first content providing unit 2510 is content for enhancing the user's cognitive ability and concentration, including finding a wrong picture, arithmetic, and jigsaw puzzle, and the second content system The second content provided to the user in the study 2520 is content capable of performing the user's physical activity strengthening training including walking, stretching and squats, and the third content providing unit 2530 provides the user with the second content. The third content provided to the user performs intensive training on the injured body part or intensive training for cognitive ability enhancement including the user's memory, judgment, language ability, and ability to grasp space and time It corresponds to a content person for training the field in which the user is weak by performing .

구체적으로, 상기 제1콘텐츠제공부(2510)에서 상기 사용자에게 제공되는 제1콘텐츠는, 상기 사용자가 가상현실에 잘 적응할 수 있도록 제공되는 콘텐츠로서, 상기 사용자가 본 발명을 통해 가상현실 내에서 복수의 콘텐츠를 수행하기 위한 연습용 콘텐츠로서 제공될 수 있다. 즉, 상기 사용자는 상기 제1콘텐츠를 통해, 상기 가상현실 내에서 상기 사용자의 아바타를 조작하는 방법을 익힐 수 있다. Specifically, the first content provided to the user by the first content providing unit 2510 is content provided so that the user can adapt well to virtual reality, and the user is provided with a plurality of contents in virtual reality through the present invention. It may be provided as content for practice for performing the content of That is, the user may learn a method of manipulating the user's avatar in the virtual reality through the first content.

또한, 상기 VR콘텐츠제공부(2500)는, 상기 사용자에게 이와 같은 제1콘텐츠를 제공함으로써, 상기 사용자의 기본적인 인지능력 및 상기 사용자의 집중도를 평가할 수 있으며, 더 나아가 상기 사용자는 상기 제1콘텐츠를 수행함으로써, 상기 사용자의 인지능력 및 집중도를 강화시킬 수 있다. 한편, 본 발명의 일 실시예로서, 상기 뇌파측정기(1300)를 통해 측정되는 상기 사용자의 뇌파정보를 상기 가상현실 내의 별도의 인터페이스로 디스플레이함으로써 사용자의 몰입감을 향상시킬 수 있다. In addition, the VR content providing unit 2500 may evaluate the basic cognitive ability of the user and the concentration of the user by providing the first content to the user, and furthermore, the user may receive the first content By doing so, it is possible to enhance the user's cognitive ability and concentration. On the other hand, as an embodiment of the present invention, the user's immersion feeling can be improved by displaying the user's EEG information measured through the EEG meter 1300 as a separate interface in the virtual reality.

상기 제2콘텐츠제공부(2520)에서 상기 사용자에게 제공되는 제2콘텐츠는, 상기 사용자의 부족한 신체능력을 강화하기 위해 제공되는 콘텐츠로서, 상기 제1콘텐츠를 통해 상기 VR장치(1000)의 조작법을 익힌 사용자가 소정의 신체활동을 통해 수행할 수 있는 콘텐츠에 해당한다. 상기 사용자는 상기 가상현실 내에서 상기 제2콘텐츠를 수행하기 위하여, 실제로 사용자의 신체를 사용해야 하므로, 사용자의 질병치료 혹은 재활훈련 등을 위한 신체활동을 하는 효과를 발휘할 수 있다. The second content provided to the user by the second content providing unit 2520 is content provided to strengthen the user's insufficient physical ability, and the user can learn how to operate the VR device 1000 through the first content. It corresponds to content that the learned user can perform through a predetermined physical activity. Since the user actually needs to use the user's body to perform the second content in the virtual reality, it is possible to exert the effect of performing physical activity for the user's disease treatment or rehabilitation training.

상기 VR콘텐츠제공부(2500)는, 상기 사용자에게 이와 같은 제2콘텐츠를 제공함으로써, 사용자의 기본적인 신체능력을 평가할 수 있다. 이 때 평가되는 상기 사용자의 신체능력은, 본 발명의 일 실시예로서, 다음에 제공되는 제2콘텐츠의 난이도 및 종류를 결정하는데 참고되는 것이 바람직하다.The VR content providing unit 2500 may evaluate the basic physical ability of the user by providing the second content to the user. The physical ability of the user evaluated at this time, as an embodiment of the present invention, is preferably referred to in determining the difficulty and type of the second content to be provided next.

상기 제3콘텐츠제공부(2530)에서 상기 사용자에게 제공되는 제3콘텐츠는, 상기 사용자에게 재활훈련이 필요한 신체부위 혹은 인지능력을 강화하기 위해 제공되는 콘텐츠로서, 허리, 다리 및 팔을 포함하는 사용자의 신체부위에 부상을 입거나 특정질환을 가지고 있는 사용자에게 해당 신체부위를 강화시킬 수 있는 훈련을 수행할 수 있는 콘텐츠; 혹은 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력이 부족한 사용자에게 해당 능력을 강화시킬 수 있는 훈련을 수행할 수 있는 콘텐츠;에 해당한다. The third content provided to the user by the third content providing unit 2530 is content provided to the user to strengthen a body part or cognitive ability that requires rehabilitation, and includes a waist, a leg, and an arm. Content that allows users with injuries or specific diseases to perform training to strengthen those body parts; Or, it corresponds to a content that can perform training to strengthen the user's memory, judgment, language ability, and the ability to grasp space and time, the user lacks the ability; corresponds to.

한편, 상술한 제1 내지 제3콘텐츠는 각각 1 이상의 콘텐츠를 포함하며, 본 발명의 일 실시예로서, 매일매일 상기 사용자에게 다른 콘텐츠를 제공하는 것이 바람직하다. Meanwhile, the first to third contents described above each include one or more contents, and as an embodiment of the present invention, it is preferable to provide different contents to the user every day.

상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠, 상기 제2콘텐츠, 및 상기 제3콘텐츠를 수행함으로써, 얻을 수 있는 데이터에 기초하여 상기 아바타의 노화정보를 조절하며, 상기 아바타외형업데이트부(2550)는, 상기 노화정보조절부(2540)에 의하여 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 아바타의 외형을 업데이트한다. 상기 노화정보조절부(2540) 및 상기 아바타외형업데이트부(2550)의 동작에 관한 보다 상세한 설명은 후술하도록 한다.The aging information adjusting unit 2540 adjusts the aging information of the avatar based on data obtained by the user performing the first content, the second content, and the third content. The appearance update unit 2550 updates the appearance of the avatar by adjusting the first graphic effect according to the aging information adjusted by the aging information adjusting unit 2540 . A more detailed description of the operations of the aging information control unit 2540 and the avatar appearance update unit 2550 will be described later.

도 9는 본 발명의 일 실시예에 따른 VR콘텐츠부에서의 수행단계를 개략적으로 도시하고, 도 10은 본 발명의 일 실시예에 따른 노화정보감소단계를 개략적으로 도시한다.9 schematically shows the steps performed in the VR content unit according to an embodiment of the present invention, and FIG. 10 schematically shows the aging information reduction step according to an embodiment of the present invention.

도 9 내지 도 10에 도시된 바와 같이, 상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠를 수행하는 동안 측정되는 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계; 상기 사용자가 상기 제2콘텐츠를 수행하는 동안 측정되는 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계; 상기 제1콘텐츠의 수행결과, 상기 제2콘텐츠의 수행결과, 및 상기 제3콘텐츠의 수행결과에 기초하여 각각 제1스코어, 제2스코어, 제3스코어를 산출하는 수행결과스코어산출단계; 및 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어의 합산값에 기초하여, 노화정보를 감소시키는 노화정보감소단계;를 수행하고,As shown in FIGS. 9 to 10 , the aging information adjusting unit 2540 calculates an intensity score for calculating an intensity score based on the user's EEG information measured while the user performs the first content. step; an activity score calculating step of calculating an activity score based on the user's pulse information and EMG information measured while the user performs the second content; an execution result score calculation step of calculating a first score, a second score, and a third score, respectively, based on the execution result of the first content, the execution result of the second content, and the execution result of the third content; and an aging information reduction step of reducing aging information based on the sum of the first score, the second score, the third score, the concentration score, and the activity score;

상기 집중도스코어산출단계는, 상기 뇌파측정기(1300)로부터 수신한 사용자의 뇌파가 베타파, 세타파, 미드알파파, 및 SMR파 중 어느 파형에 포함하는지 판별하여 스코어를 산출하되, 상기 사용자의 뇌파의 주파수가 12 내지 13 Hz인 SMR파에 해당하거나 10 내지 12Hz인 미드알파파에 해당할 때 가중치를 부여하여 상기 집중도스코어를 산출하고, 상기 활동량스코어산출단계는, 상기 맥박측정기(1400)로부터 수신한 사용자의 맥박의 편차값 또는 근전도센서로부터 수신한 근전도 변화량에 기초하여 상기 사용자의 활동량을 판별하여 상기 활동량스코어를 산출하되, 상기 맥박의 편차값이 기설정된 기준 이상이거나, 상기 근전도 변화량이 216 내지 450 Hz일 때 가중치를 부여하여 상기 활동량스코어를 산출한다.The concentration score calculation step calculates a score by determining which waveform of the user's EEG received from the EEG meter 1300 is included among beta waves, theta waves, mid alpha waves, and SMR waves, but, of the user's EEG When the frequency corresponds to an SMR wave of 12 to 13 Hz or a mid-alpha wave having a frequency of 10 to 12 Hz, weight is given to calculate the concentration score, and the activity score calculation step includes: The amount of activity of the user is determined based on the deviation value of the user's pulse or the amount of EMG change received from the EMG sensor to calculate the amount of activity score, wherein the deviation value of the pulse is greater than or equal to a preset standard, or the amount of EMG change is 216 to 450 At Hz, weights are given to calculate the activity score.

구체적으로, 도 9에 도시된 바와 같이, 도 8에 대한 설명을 참고하여, 상기 제1콘텐츠제공부(2510)는 상기 사용자에게 인지능력 및 집중도 강화훈련콘텐츠를 제공하고, 상기 제2콘텐츠제공부(2520)는 상기 사용자에게 신체활동 강화훈련콘텐츠를 제공하고, 상기 제3콘텐츠제공부(2530)는 상기 사용자에게 재활훈련이 필요한 신체부위 혹은 인지능력에 대한 훈련콘텐츠를 제공한다. Specifically, as shown in FIG. 9 , with reference to the description of FIG. 8 , the first content providing unit 2510 provides cognitive ability and concentration reinforcement training content to the user, and the second content providing unit 2520 provides physical activity reinforcement training contents to the user, and the third contents providing unit 2530 provides training contents for a body part or cognitive ability requiring rehabilitation training to the user.

상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠를 수행한 수행결과에 기초하여 제1스코어를 산출하고, 상기 사용자가 상기 제2콘텐츠를 수행한 수행결과에 기초하여 제2스코어를 산출하고, 상기 사용자가 상기 제3콘텐츠를 수행한 수행결과에 기초하여 제3스코어를 산출하는 수행결과스코어산출단계를 수행한다. The aging information control unit 2540 calculates a first score based on a result of the user performing the first content, and a second score based on a result of the user performing the second content , and a performance result score calculation step of calculating a third score based on the execution result of the user performing the third content is performed.

상기 노화정보조절부(2540)는 상기 사용자가 제1콘텐츠를 수행하는 동안에 상기 뇌파측정기(1300)를 통해 측정된 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계를 수행하고, 상기 제2콘텐츠를 수행하는 동안에 상기 맥박측정기(1400)를 통해 측정된 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계를 수행한다. The aging information control unit 2540 performs an intensity score calculation step of calculating an intensity score based on the user's brain wave information measured through the brain wave meter 1300 while the user performs the first content, An activity score calculation step of calculating an activity score based on the user's pulse information and EMG information measured through the pulse meter 1400 while performing the second content is performed.

본 발명의 일 실시예에서는, 상기 집중도스코어산출단계에서 상기 사용자의 뇌파가 베타파, 세타파, 미드-알파파(mid-alpha wave), 및 SMR파 중 어느 파형에 포함되는지 여부를 판별하고, 상기 베타파 및 세타파가 증가함에 따라 감소하고, 상기 미드 알파파 및 상기 SMR파가 증가함에 따라 증가하는 집중도산출식에 기초하여 집중도스코어를 산출할 수 있다. In one embodiment of the present invention, it is determined whether the user's brain wave is included in any of beta wave, theta wave, mid-alpha wave, and SMR wave in the concentration score calculation step, A concentration score may be calculated based on an intensity calculation formula that decreases as the beta wave and theta wave increase, and increases as the mid alpha wave and the SMR wave increase.

또한, 상기 노화정보조절부(2540)는, 상기 사용자가 제2콘텐츠를 수행하는 동안에 상기 맥박측정기(1400)를 통해 측정되는 해당 사용자의 맥박정보 및 상기 맥박측정기(1400)에 포함되는 근전도센서를 통해 측정되는 해당 사용자의 근전도정보에 기초하여 활동량스코어를 산출하는 상기 활동량스코어산출단계를 수행한다. 바람직하게는, 상기 활동량스코어산출단계는, 상기 사용자의 맥박의 편차값이 기설정된 기준 이상이거나, 상기 사용자의 근전도 변화량이 216 내지 450 Hz일 때 가중치를 부여하여 상기 활동량스코어를 산출한다.In addition, the aging information control unit 2540, the user's pulse information measured through the pulse meter 1400 while the user performs the second content and the EMG sensor included in the pulse meter 1400. The activity score calculation step of calculating an activity score score based on the user's EMG information measured through the Preferably, in the step of calculating the activity score, the activity score is calculated by assigning weights when the deviation value of the user's pulse is greater than or equal to a preset standard or the user's EMG variation is 216 to 450 Hz.

도 10에 도시된 바와 같이, 상기 노화정보조절부(2540)는, 상기 집중도스코어산출단계, 상기 활동량스코어산출단계, 및 상기 수행결과스코어산출단계를 통해 산출된 상기 집중도스코어, 상기 활동량스코어, 상기 제1스코어, 상기 제2스코어, 및 상기 제3스코어의 합산값에 기초하여 상기 사용자의 노화정보를 감소시키는 노화정보감소단계를 수행한다.As shown in FIG. 10 , the aging information control unit 2540 includes the concentration score calculated through the concentration score calculation step, the activity amount score calculation step, and the performance result score calculation step, the activity amount score, and the An aging information reduction step of reducing the aging information of the user is performed based on the sum of the first score, the second score, and the third score.

상기 노화정보감소단계를 통해 감소된 노화정보는 상기 아바타외형업데이트부(2550)로 전달되고, 도 8에 대한 설명을 참고하여, 상기 아바타외형업데이트부(2550)에 의하여, 상기 아바타의 상기 제1그래픽효과를 조절함으로써 상기 아바타의 외형을 업데이트할 수 있다.The aging information reduced through the aging information reduction step is transmitted to the avatar appearance update unit 2550, and with reference to the description of FIG. 8, the avatar appearance update unit 2550 provides the first The appearance of the avatar can be updated by adjusting the graphic effect.

도 11은 본 발명의 일 실시예에 따른 아바타의 외형이 변경되는 프로세스를 개략적으로 도시한다.11 schematically illustrates a process in which an appearance of an avatar is changed according to an embodiment of the present invention.

개략적으로, 도 11에 도시된 바와 같이, 도 10에 도시된 노화정보감소단계 및 상기 노화정보감소단계를 통해 조절된 노화정보에 따라 상기 아바타의 외형을 변경하는 과정을 도시한다. 한편, 도 11에 도시된 과정은 설명을 위해, 상기 수행결과스코어산출단계 중 상기 제1스코어를 산출하는 과정만 도시하였으며, 상기 수행결과스코어산출단계 및 상기 노화정보감소단계에서는, 상술한 바와 같이, 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어를 모두 산출한다.Schematically, as shown in FIG. 11, the process of changing the appearance of the avatar according to the aging information adjusted through the aging information reduction step and the aging information reduction step shown in FIG. 10 is shown. On the other hand, the process shown in FIG. 11 is only illustrated in the process of calculating the first score among the performing result score calculation step for explanation, and in the performing result score calculating step and the aging information reduction step, as described above, , the first score, the second score, the third score, the concentration score, and the activity score are all calculated.

구체적으로, 상기 사용자가 가상현실 내에 아바타를 생성한 이후, 상기 VR콘텐츠제공부(2500)의 제1콘텐츠제공부(2510)는 상기 아바타에게 제1콘텐츠를 제공(S100)한다. 상기 제1콘텐츠는, 전술한 바와 같이, 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠에 해당한다. 상기 사용자는 상기 가상현실 내에서 상기 아바타를 통해 상기 제1콘텐츠를 수행(S200)한다.Specifically, after the user creates an avatar in virtual reality, the first content providing unit 2510 of the VR content providing unit 2500 provides the first content to the avatar (S100). The first content corresponds to content for reinforcing the user's cognitive ability and concentration, as described above. The user performs the first content through the avatar in the virtual reality (S200).

상기 아바타가 상기 제1콘텐츠를 수행한 수행결과를 상기 노화정도조절부가 수신(S300)하면, 상기 노화정도조절부는 상기 수행결과에 기초하여 제1스코어를 산출(S400)하는 상기 수행결과스코어산출단계를 수행한다.When the aging degree control unit receives the result of performing the first content by the avatar (S300), the aging level control unit calculates a first score based on the execution result (S400). carry out

상시 노화정도조절부는, 상기 제1스코어를 참고하여 상기 사용자의 노화정보를 조절(S500)한다. 바람직하게는, 상기 단계 S500은, 전술한 바와 같이, 상기 제1스코어뿐만 아니라, 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어를 모두 합한 합산값에 기초하여 상기 사용자의 노화정보를 조절한다.The normal aging degree adjusting unit adjusts the aging information of the user with reference to the first score (S500). Preferably, in step S500, as described above, in addition to the first score, the first score, the second score, the third score, the concentration score, and the activity score Based on the user's aging information is adjusted.

상기 노화정도조절부는 조절된 노화정보를 상기 아바타외형업데이트부(2550)에 송신(S600)하고, 상기 아바타외형업데이트부(2550)는, 수신한 상기 조절된 노화정보에 따라 상기 아바타의 기본외형에 적용된 제1그래픽효과를 조절(S700)한다. 상기 제1그래픽효과는, 도 6에 대한 설명을 참고하여, 상기 노화정보결정부(2420)에서 산출한 노화정보에 기초하여 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중 상기 노화정보결정부(2420)에서 산출한 노화정보에 상응하는 제1그래픽효과에 해당되며, 상기 아바타외형업데이트부(2550)가 상기 조절된 노화정보를 수신하면, 상기 아바타외형업데이트부(2550)는 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중에서 상기 조절된 노화정보에 상응하는 그래픽효과로 상기 아바타의 외형을 변경(S800)할 수 있다.The aging degree adjusting unit transmits the adjusted aging information to the avatar appearance update unit 2550 (S600), and the avatar appearance update unit 2550 adjusts the basic appearance of the avatar according to the received adjusted aging information. The applied first graphic effect is adjusted (S700). The first graphic effect is the aging among a plurality of first graphic effects pre-stored in the computing system 10000 based on the aging information calculated by the aging information determining unit 2420 with reference to the description of FIG. 6 . It corresponds to the first graphic effect corresponding to the aging information calculated by the information determination unit 2420, and when the avatar appearance update unit 2550 receives the adjusted aging information, the avatar appearance update unit 2550 returns the The appearance of the avatar may be changed to a graphic effect corresponding to the adjusted aging information among a plurality of first graphic effects pre-stored in the computing system 10000 ( S800 ).

도 12는 본 발명의 일 실시예에 따른 제1콘텐츠의 실행화면을 개략적으로 도시한다.12 schematically illustrates an execution screen of a first content according to an embodiment of the present invention.

개략적으로, 도 12의 (a)는 상기 사용자에게 제1콘텐츠가 제공될 때의 상기 사용자에게 보여지는 실행화면을 도시하고, 도 12의 (b)는 상기 사용자가 상기 제1콘텐츠를 수행한 이후, 그 수행결과가 상기 사용자에게 보여지는 실행화면을 도시한다. 한편, 도 12는, 본 발명의 일 실시예로서, 상기 사용자에게 보여지는 상기 제1콘텐츠의 실행화면을 도시하나, 상기 제2콘텐츠, 상기 제3콘텐츠 혹은 후술하는 돌발콘텐츠의 실행화면 또한 도 12에 도시된 바와 같은 실행화면이 상기 HMD(1100)를 통해 상기 사용자에게 제공될 수 있다.Schematically, (a) of FIG. 12 shows an execution screen shown to the user when the first content is provided to the user, and (b) of FIG. 12 is after the user performs the first content , shows an execution screen in which the execution result is shown to the user. Meanwhile, FIG. 12 shows an execution screen of the first content shown to the user as an embodiment of the present invention, but also the execution screen of the second content, the third content, or a sudden content to be described later in FIG. An execution screen as shown in may be provided to the user through the HMD 1100 .

구체적으로, 도 12에 도시된 바와 같이, 상기 VR서비스부는, 상기 사용자에게 플로팅인터페이스(floating-interface)를 통해 정보를 제공할 수 있다. 도 12의 (a)는 상기 제1콘텐츠제공부(2510)에 의하여 상기 제1콘텐츠가 상기 사용자에게 제공될 때, 상기 사용자가 장착한 HMD(1100)를 통해 제공되는 인터페이스를 도시한다. 상기 사용자는 상기 VR장치(1000)를 조작함으로써 도 12의 (a)에 도시된 상기 플로팅인터페이스에서 “예” 혹은 “아니오”를 선택할 수 있으며, 상기 사용자가 “예”를 선택하면, 상기 사용자는 상기 사용자에게 장착된 상기 VR장치(1000)를 조작하여 상기 제1콘텐츠를 수행할 수 있다.Specifically, as shown in FIG. 12 , the VR service unit may provide information to the user through a floating-interface. 12A illustrates an interface provided through the HMD 1100 mounted by the user when the first content is provided to the user by the first content providing unit 2510 . The user may select “yes” or “no” in the floating interface shown in FIG. 12 (a) by manipulating the VR device 1000, and when the user selects “yes”, the user The first content may be performed by manipulating the VR device 1000 mounted on the user.

상기 사용자가 제1콘텐츠를 수행하면, 그 수행결과를 도 12의 (b)에 도시된 바와 같은 플로팅인터페이스를 통해 상기 사용자에게 명시할 수 있다. 한편, 도 12의 (b)에 도시된 수행결과 항목은, 본 발명의 일 실시예로서, 상기 수행결과 항목은 콘텐츠에 종류에 따라 상이할 수 있다. 예를 들어, 상기 사용자에게 제공된 콘텐츠가 제2콘텐츠의 걷기 콘텐츠일 경우, 걷는 시간, 거리, 및 이동 속도가 수행결과 항목으로서 플로팅인터페이스에 명시될 수 있다.When the user performs the first content, the execution result may be indicated to the user through a floating interface as shown in FIG. 12(b). Meanwhile, the execution result item shown in FIG. 12B is an embodiment of the present invention, and the execution result item may be different depending on the type of content. For example, when the content provided to the user is the walking content of the second content, walking time, distance, and moving speed may be specified in the floating interface as the execution result items.

도 13은 본 발명의 일 실시예에 따른 집중도스코어 및 활동량스코어가 제1기준값 미만인 경우의 사용자에게 보여지는 가상현실 인터페이스를 개략적으로 도시한다.13 schematically illustrates a virtual reality interface shown to a user when an intensity score and an activity score are less than a first reference value according to an embodiment of the present invention.

개략적으로, 도 12의 (a)는 상기 가상현실 내에 존재하는 객체의 선명도 또는 상기 아바타의 시야가 조절되는 것을 도시하고, 도 12의 (b)는 상기 사용자에게 돌발콘텐츠가 제공될 때의 실행화면을 도시한다.Schematically, FIG. 12(a) shows that the sharpness of an object existing in the virtual reality or the field of view of the avatar is adjusted, and FIG. 12(b) is an execution screen when unexpected content is provided to the user shows

도 13에 도시된 바와 같이, 상기 VR콘텐츠제공부(2500)는, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 기설정된 제1기준값 미만인 경우, 상기 가상현실 내에 존재하는 객체의 선명도 또는 아바타의 시야를 조절하고, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 상기 제1기준값 미만인 경우, 상기 제1콘텐츠제공부(2510), 상기 제2콘텐츠제공부(2520) 혹은 상기 제3콘텐츠제공부(2530)에 의하여 콘텐츠가 제공되는 중간에 돌발콘텐츠를 제공함으로써, 상기 사용자가 상기 돌발콘텐츠를 수행하였을 때 상기 가상현실 내에 존재하는 객체의 선명도 또는 아바타의 시야를 기본값으로 되돌린다.As shown in FIG. 13 , the VR content providing unit 2500 provides an object existing in the virtual reality when the detailed sum of the concentration score and the activity score during a preset section is less than a preset first reference value. The first content providing unit 2510, the second content providing unit when the detailed sum of the concentration score and the activity score during a preset section is less than the first reference value. (2520) or by providing the unexpected content in the middle of the content being provided by the third content providing unit 2530, when the user performs the unexpected content, the clarity of the object or the avatar's view in the virtual reality return to default.

구체적으로, 상기 VR콘텐츠제공부(2500)는, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 기설정된 제1기준값 미만으로 산출되는 경우, 상기 사용자의 집중도가 떨어졌다고 판단하고, 상기 사용자에게 하기와 같은 방식으로 알릴 수 있다. 도 13의 (a)의 좌측도면에 도시된 바와 같이, 상기 사용자가 장착한 HMD(1100)를 통해 제공되는 가상현실 내에 존재하는 객체의 선명도를 낮추거나, 도 13의 (a)의 우측도면에 도시된 바와 같이, 상기 아바타의 시야를 불투명한 플로팅인터페이스를 통해 조절할 수 있다. Specifically, the VR content providing unit 2500 determines that the concentration of the user has dropped when the detailed sum of the concentration score and the activity score during a preset section is calculated to be less than a preset first reference value, and , can be notified to the user in the following manner. As shown in the left drawing of FIG. 13 (a), the sharpness of an object existing in the virtual reality provided through the HMD 1100 mounted by the user is lowered, or in the right drawing of FIG. 13 (a). As shown, the view of the avatar can be adjusted through an opaque floating interface.

상기 VR콘텐츠제공부(2500)는, 상기 세부합산값이 상기 제1기준값 미만으로 산출되는 경우, 상기 사용자에게 돌발콘텐츠를 제공할 수 있다. 상기 돌발콘텐츠는, 상기 사용자가 VR콘텐츠에 대한 집중도를 향상시키기 위해 상기 사용자에게 제공되는 콘텐츠로, 바람직하게는, 제1콘텐츠와 같이, 비교적 쉬운 난이도의 콘텐츠를 제공한다. The VR content providing unit 2500 may provide the unexpected content to the user when the detailed summation value is calculated to be less than the first reference value. The sudden content is a content provided to the user in order for the user to improve concentration on the VR content, and preferably, like the first content, provides content with relatively easy difficulty.

도 13의 (b)에 도시된 바와 같이, 상기 돌발콘텐츠가 상기 사용자에게 제공될 때는, 도 12에 대한 설명을 참고하여, 상기 제1 내지 제3콘텐츠와 같이, 가상현실에 플로팅인터페이스를 제공함으로써 상기 사용자에게 상기 돌발콘텐츠를 제공할 수 있다. 상기 사용자가 돌발콘텐츠를 수행할 때 산출되는 집중도스코어 및 활동량스코어의 세부합산값이 기설정된 제1기준값 이상으로 산출되면, 상기 가상현실 내에 존재하는 객체의 선명도가 기본값으로 복구되고, 상기 불투명한 플로팅인터페이스가 사라지게 된다.As shown in (b) of FIG. 13, when the unexpected content is provided to the user, referring to the description of FIG. 12, like the first to third content, by providing a floating interface to virtual reality It is possible to provide the unexpected content to the user. When the detailed sum of the concentration score and the activity score calculated when the user performs the unexpected content is calculated to be greater than or equal to a preset first reference value, the sharpness of the object existing in the virtual reality is restored to the default value, and the opaque floating The interface disappears.

본 발명의 일 실시예로서, 상기 돌발콘텐츠를 수행할 때의 집중도스코어 및 활동량스코어의 세부합산값이 상기 제1기준값 미만인 경우, 상기 VR콘텐츠제공부(2500)는 휴식을 권유하는 플로팅인터페이스를 상기 사용자에게 제공할 수 있다.As an embodiment of the present invention, when the detailed sum of the concentration score and the activity score when performing the unexpected content is less than the first reference value, the VR content providing unit 2500 provides a floating interface recommending a break. can be provided to users.

2. 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 아바타를 업데이트하는 시스템2. A system that creates an avatar, provides it to an external metaverse platform, and updates the avatar

상술한 바와 같이 본 발명의 아바타를 생성하여 외부의 메타버스플랫폼(5000)에 제공하고 아바타를 업데이트하는 시스템은 사용자정보에 기초하여 아바타를 생성하고, 콘텐츠 수행에 따른 수행결과, 집중도 및 활동량에 기초하여 아바타의 외형을 업데이트할 수 있다. 한편, 상기 아바타를 업데이트하는 시스템은 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하는 것으로써, 이하에서는, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼(5000)에 제공하여 인터랙션정보를 수신하고 아바타를 업데이트하는 시스템에 대하여 상세하게 설명하도록 한다.As described above, the system for generating the avatar of the present invention and providing it to the external metaverse platform 5000 and updating the avatar generates the avatar based on user information, and based on the performance result, concentration and activity amount according to the content performance. to update the appearance of the avatar. Meanwhile, the system for updating the avatar provides information about the avatar to an external metaverse platform 5000. Hereinafter, information on the avatar is provided to the external metaverse platform 5000 for interaction A system for receiving information and updating the avatar will be described in detail.

메타버스플랫폼(5000)에서 사용자에게 아바타를 제공하기 위해서 특정 캐릭터를 제공하는 방법을 사용하곤 한다. 허나, 사용자의 정보가 반영된 아바타로 메타버스플랫폼(5000)을 이용할 경우 메타버스플랫폼(5000) 속에 있는 느낌에 더 많은 흥미를 느낄 수 있다. 또한, 메타버스플랫폼(5000) 내에서 아바타와 사용자가 일체감을 느낄 수 있다. 따라서, 본원 발명에서 생성한 아바타를 기초로 상기 메타버스플랫폼(5000)에 적합한 아바타로 업데이트하여 제공하는 방법을 제시한다.In order to provide an avatar to a user in the metaverse platform 5000, a method of providing a specific character is often used. However, when the metaverse platform 5000 is used as an avatar reflecting the user's information, the feeling of being in the metaverse platform 5000 may be more interesting. In addition, the avatar and the user can feel a sense of unity in the metaverse platform 5000 . Accordingly, a method for updating and providing an avatar suitable for the metaverse platform 5000 based on the avatar created in the present invention is presented.

도 14는 본 발명의 일 실시예에 따른 아바타업데이트부에서의 수행단계를 개략적으로 도시한다.14 schematically shows the steps performed by the avatar update unit according to an embodiment of the present invention.

도 14에 도시된 바와 같이, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부를 포함할 수 있고, 상기 아바타업데이트부는, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하고, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계(S900); 상기 외부의 메타버스플랫폼(5000)에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계(S920); 및 상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계(S930);를 포함할 수 있다.As shown in FIG. 14 , information about the avatar is provided to an external metaverse platform 5000 , and interaction information that a user has interacted with using the avatar is received on the external metaverse platform 5000 . , an avatar update unit that performs an update on the avatar, wherein the avatar update unit provides information about the avatar to an external metaverse platform (5000), and uses the external metaverse platform (5000). an avatar information providing step (S900) of receiving interaction information that a user has interacted with using the avatar, updating the avatar, and providing information on the avatar to an external metaverse platform (5000); an interaction information receiving step (S920) of receiving interaction information corresponding to the avatar from the external metaverse platform (5000); and extracting avatar-related information from the interaction information and updating the avatar based on the avatar-related information (S930).

구체적으로, 아바타정보제공단계는 본 발명에서 생성한 아바타에 대한 정보를 외부로 제공하는 단계이다. 상기 아바타는 상술한 바와 같이 VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하여 이를 바탕으로 생성하고, 상기 아바타에 대한 정보 중 일부 혹은 전체를 외부 메타버스플랫폼(5000)에 제공할 수 있다. 상기 아바타에 반영된 상기 사용자 의료정보의 경우에는 보안성에 따라 전송하지 않을 수 있다.Specifically, the step of providing the avatar information is a step of providing information on the avatar created in the present invention to the outside. As described above, the avatar receives the user's biometric information, activity information, and medical information through the VR device and is generated based on it, and some or all of the information on the avatar is provided to the external metaverse platform 5000 . can do. The user's medical information reflected in the avatar may not be transmitted according to security.

이어서, 상기 아바타정보를 제공받은 상기 외부의 메타버스플랫폼(5000)에서, 사용자는 아바타를 이용하고, 사용자의 아바타 이용에 따른 인터랙션정보가 생성된다. 구체적으로 인터랙션정보는 상기 외부의 메타버스플랫폼(5000) 이용 상황에 맞게 아바타를 업데이트할 수 있는 정보를 의미할 수 있고, 상기 외부의 메타버스플랫폼(5000)이 제공하는 서비스에 따라 달라질 수 있다. 예를 들어, 상기 외부의 메타버스플랫폼(5000)이 의료서비스를 제공하는 경우와 상기 메타버스플랫폼(5000)이 게임을 제공하는 경우의 인터랙션정보는 다를 수 있다.Then, in the external metaverse platform 5000 that has received the avatar information, the user uses the avatar, and interaction information according to the user's avatar use is generated. Specifically, the interaction information may refer to information for updating an avatar according to the usage situation of the external metaverse platform 5000 , and may vary depending on services provided by the external metaverse platform 5000 . For example, interaction information when the external metaverse platform 5000 provides a medical service and when the metaverse platform 5000 provides a game may be different.

본 발명의 실시예에 따르면, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 이용하는 아바타는, 본 발명에서 생성한 아바타 혹은 상기 외부의 메타버스플랫폼(5000)이 수신한 아바타에 대한 정보가 반영된 상기 외부의 메타버스플랫폼(5000)에서 제공하는 아바타에 해당할 수 있다. According to an embodiment of the present invention, the avatar used by the user in the external metaverse platform 5000 is the avatar created in the present invention or information about the avatar received by the external metaverse platform 5000 is reflected. It may correspond to an avatar provided by an external metaverse platform 5000 .

상기 외부의 메타버스플랫폼(5000)에서 인터랙션정보를 수신한 컴퓨팅시스템은 상기 인터랙션정보에 기초하여 아바타업데이트를 수행한다. 구체적으로, 상기 인터랙션정보는 사용자가 상기 외부의 메타버스플랫폼(5000) 내에서 아바타 이용하며 생성된 모든 정보를 포함하고 있어, 상기 인터랙션정보에서 아바타와 관련된 정보만을 추출하여 사용한다. 추출한 상기 아바타와 관련된 인터랙션정보를 기초로 상기 아바타를 업데이트할 수 있다. 본 발명의 일 실시예에 따르면, 상기 인터랙션정보에서 아바타와 관련된 정보는 상기 외부의 메타버스플랫폼(5000)이 제공하는 서비스에 따라 달라질 수 있어, 상기 외부의 메타버스플랫폼(5000) 특색에 맞게 아바타를 업데이트할 수 있는 효과를 발휘할 수 있다.The computing system that has received the interaction information from the external metaverse platform 5000 performs an avatar update based on the interaction information. Specifically, the interaction information includes all information generated by the user using the avatar in the external metaverse platform 5000, so only information related to the avatar is extracted and used from the interaction information. The avatar may be updated based on the extracted interaction information related to the avatar. According to an embodiment of the present invention, the information related to the avatar in the interaction information may vary depending on the service provided by the external metaverse platform 5000 , so that the avatar matches the characteristics of the external metaverse platform 5000 . can have the effect of updating

이하에서는, 상기 외부의 메타버스플랫폼(5000)이 게임을 제공하는 경우에 대해서 서술한다.Hereinafter, a case in which the external metaverse platform 5000 provides a game will be described.

도 15는 본 발명의 일 실시예에 따른 인터랙션정보에 대해 개략적으로 도시한다.15 schematically illustrates interaction information according to an embodiment of the present invention.

도 15에 도시된 바와 같이, 상기 인터랙션정보는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 사용시간, 레벨업정보, 수집아이템개수, 착용아이템개수, 습득스킬개수 및 퀘스트클리어개수를 포함할 수 있다.As shown in FIG. 15 , the interaction information is, when the game is provided on the external metaverse platform 5000, usage time, level-up information, the number of collected items, the number of items worn, the number of acquired skills, and quests. It may include the number of clears.

구체적으로, 상기 외부의 메타버스플랫폼(5000) 내에서 사용자가 아바타를 이용하여 게임을 하면서 생성된 모든 정보가 인터랙션정보로 저장되고, 상기 외부의 메타버스플랫폼(5000)이 게임을 제공하는 경우에는, 사용자가 아바타를 이용한 사용시간, 사용자가 아바타를 이용하여 게임의 레벨에 대해 레벨업정보, 사용자가 아바타를 이용하여 수집한 아이템의 수집아이템개수, 사용자가 아바타에 착용한 착용아이템개수, 사용자가 아바타에 대해서 습득한 습득스킬개수 및 사용자가 아바타를 이용하여 상기 외부의 메타버스플랫폼(5000) 내의 퀘스트를 클리어한 퀘스트클리어개수 등이 인터랙션정보에 포함될 수 있고, 상기 인터랙션정보에서 아바타와 관련된 정보로 사용시간, 레벨업정보, 수집아이템개수, 착용아이템개수, 습득스킬개수 및 퀘스트클리어개수가 추출될 수 있다.Specifically, all information generated while a user plays a game using an avatar in the external metaverse platform 5000 is stored as interaction information, and when the external metaverse platform 5000 provides a game, , time spent using the avatar by the user, level-up information about the level of the game by the user using the avatar, the number of items collected by the user using the avatar, the number of items worn by the user on the avatar, The number of acquired skills acquired for the avatar and the number of quest cleared by the user using the avatar in the quest in the external metaverse platform 5000 may be included in the interaction information, and from the interaction information to information related to the avatar Usage time, level-up information, the number of collected items, the number of worn items, the number of acquired skills, and the number of quest cleared may be extracted.

도 16은 본 발명의 일 실시예에 따른 노화정보에 기초한 아바타업데이트단계(S930)를 개략적으로 도시한다.16 schematically illustrates an avatar update step (S930) based on aging information according to an embodiment of the present invention.

도 16에 도시된 바와 같이, 상기 아바타업데이트단계(S930)는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 레벨업정보, 수집아이템개수 및 퀘스트클리어개수에 기초하여 상기 노화정보를 조절하고, 상기 노화정보에 기초하여 상기 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양에 대해 아바타를 업데이트할 수 있다.As shown in FIG. 16 , in the avatar update step S930, when the game is provided on the external metaverse platform 5000, the aging based on the level-up information, the number of collected items, and the number of quest cleared. The information may be adjusted, and the avatar may be updated with respect to the skin condition information, the hair condition information, the degree of curvature of the skeleton, the inclination of the eyes, and the shape of the mouth based on the aging information.

구체적으로, 본 발명에서는 사용자의 복수의 이미지정보, 사용자의 뇌파정보 및 사용자의 맥박정보 중 일부 혹은 전체 기초하여 노화정보를 생성한다. 상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합한 아바타 업데이트를 위해, 상기 노화정보는 상기 인터랙션정보 중 일부에 기초하여 조절한다. 바람직하게는, 상기 노화정보를 조절하는 인터랙션정보에 해당하는 정보는 상기 레벨업정보, 상기 수집아이템개수 및 상기 퀘스트클리어개수일 수 있다.Specifically, in the present invention, aging information is generated based on some or all of the user's plurality of image information, the user's brain wave information, and the user's pulse information. In order to update the avatar suitable for the game provided by the external metaverse platform 5000, the aging information is adjusted based on some of the interaction information. Preferably, the information corresponding to the interaction information for controlling the aging information may be the level-up information, the number of items to be collected, and the number of clear quests.

상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합하게 조절된 노화정보에 기초하여 상기 아바타를 업데이트한다. 상기 아바타의 노화에 표현할 수 있는 모든 요소들에 대해 업데이트 할 수 있으나, 바람직하게는 상기 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양에 대해 업데이트 할 수 있다.The avatar is updated based on the aging information adjusted to fit the game provided by the external metaverse platform 5000 . All elements that can be expressed in the aging of the avatar can be updated, but preferably, the skin condition information, hair condition information, the degree of curvature of the skeleton, the inclination of the eyes, and the mouth shape of the avatar can be updated.

도 17은 본 발명의 일 실시예에 따른 이동속도에 기초한 아바타업데이트단계(S930)를 개략적으로 도시한다.17 schematically illustrates an avatar update step (S930) based on a moving speed according to an embodiment of the present invention.

도 17에 도시된 바와 같이, 상기 아바타업데이트단계(S930)는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 사용시간, 습득스킬개수 및 착용아이템개수에 기초하여 상기 이동속도를 조절하고, 상기 이동속도에 기초하여 아바타를 업데이트할 수 있다.As shown in FIG. 17 , in the avatar update step ( S930 ), when the game is provided on the external metaverse platform 5000 , the movement speed is based on the use time, the number of acquired skills and the number of worn items. may be adjusted, and the avatar may be updated based on the movement speed.

구체적으로, 본 발명에서는 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정한다. 상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합한 아바타 업데이트를 위해, 상기 이동속도는 상기 인터랙션정보 중 일부에 기초하여 조절한다. 바람직하게는, 사용시간, 습득스킬개수 및 착용아이템개수에 기초하여 상기 아바타를 업데이트한다. Specifically, in the present invention, the movement speed of the avatar is determined in such a way that the movement speed increases as the movement distance or number of steps increases based on the movement distance or the number of steps for a preset time derived from the user's smartphone. In order to update the avatar suitable for the game provided by the external metaverse platform 5000, the moving speed is adjusted based on some of the interaction information. Preferably, the avatar is updated based on the use time, the number of acquired skills, and the number of worn items.

한편, 인터랙션정보에 기초하여 조절된 이동속도는 상기 사용시간 늘어날수록, 습득스킬개수가 많을수록 이동속도를 높힐 수 있고, 착용아이템개수가 많을수록 이동속도를 낮출 수 있다. 따라서, 도 17에 도시된 바와 같이, 이동속도는 이전보다 ‘3’이 증가했고, 이는 이전보다 사용시간이 늘어났거나, 습득스킬개수가 많아졌거나, 착용아이템개수가 줄어들었거나 중 일부 혹은 전체를 의미할 수 있다.On the other hand, the movement speed adjusted based on the interaction information may increase the movement speed as the usage time increases and the number of acquired skills increases, and may decrease the movement speed as the number of worn items increases. Therefore, as shown in FIG. 17, the movement speed is increased by '3' than before, which is part or all of the use time increased, the number of acquired skills increased, or the number of worn items decreased. can mean

도 17에 도시된 상기 아바타의 능력치는 본 발명의 일 실시예로서, 실제 본 발명의 아바타의 능력치는 도 17에 도시된 것으로 한정되지 않는다.The ability value of the avatar shown in FIG. 17 is an embodiment of the present invention, and the actual ability value of the avatar according to the present invention is not limited to that shown in FIG. 17 .

3. 아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템3. A system that creates an avatar and provides it to an external metaverse platform to update the avatar and provide NFT for the updated avatar

이하에서 언급되는 "블록체인네트워크"는 본 발명의 일 실시예로서, 하나의 기관에서 독자적으로 사용하는 블록체인인 프라이빗 블록체인(private blockchain) 기술; 혹은 여러 기관들이 컨소시엄(consortium)을 이뤄 구성되며 허가된 기관만 네트워크에 참여할 수 있는 컨소시엄 블록체인(consortium blockchain) 기술이 적용되는 것이 바람직하다. 이와 같은 경우, 상기 "블록체인네트워크"는 상술한 프라이빗 블록체인 기술 혹은 컨소시엄 블록체인 기술을 사용한 블록체인 전체를 의미하거나, 또는 상기 프라이빗 블록체인 기술 혹은 컨소시엄 블록체인 기반의 블록체인에 속한 복수의 노드를 의미한다.The "blockchain network" referred to below is an embodiment of the present invention, and a private blockchain technology, which is a blockchain independently used by one institution; Alternatively, it is desirable to apply consortium blockchain technology, in which several institutions form a consortium and only authorized institutions can participate in the network. In this case, the "blockchain network" means the entire block chain using the above-mentioned private block chain technology or consortium block chain technology, or a plurality of nodes belonging to the block chain based on the private block chain technology or consortium block chain technology. means

한편, 본 발명의 다른 실시예로서, "블록체인네트워크"는 누구나 네트워크에 참여가능한 퍼블릭 블록체인(public blockchain) 기술이 적용될 수 있고, 이 경우, 이하에서 언급되는 "블록체인네트워크"는 상기 퍼블릭 블록체인 기술 기반의 블록체인에 속한 복수의 노드를 의미할 수 있다.On the other hand, as another embodiment of the present invention, the "blockchain network" can be a public blockchain technology that anyone can participate in the network, and in this case, the "blockchain network" referred to below is the public block It can mean a plurality of nodes belonging to a blockchain based on chain technology.

상술한 바와 같이 본 발명의 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 아바타를 업데이트하는 시스템은 사용자정보에 기초하여 아바타를 생성하고, 콘텐츠 수행에 따른 수행결과, 집중도 및 활동량에 기초하여 아바타의 외형을 업데이트할 수 있고, 외부의 메타버스플랫폼에 상기 아바타를 제공하여, 인터랙션정보를 수신하여 이를 기초로 아바타를 업데이트한다. 한편, 상기 업데이트 아바타에 대한 NFT를 제공하는 시스템은 인터랙션정보에 기초하여 업데이트 된 아바타에 대한 NFT 생성을 요청하고 NFT를 제공하는 것으로써, 이하에서는, 상기 업데이트된 아바타의 업데이트아바타해시정보를 생성하고, 이를 외부의 블록체인네트워크에 등록하여 업데이트된 아바타에 대한 NFT를 제공하는 시스템에 대하여 상세하게 설명하도록 한다.As described above, the system for generating an avatar of the present invention, providing it to an external metaverse platform, and updating the avatar creates the avatar based on user information, and generates the avatar based on the performance result, concentration and activity amount according to the content performance. Appearance can be updated, and the avatar is provided to an external metaverse platform to receive interaction information and update the avatar based on this. On the other hand, the system providing the NFT for the updated avatar requests generation of the NFT for the updated avatar based on the interaction information and provides the NFT. Hereinafter, the updated avatar hash information of the updated avatar is generated. and a system that provides NFT for the updated avatar by registering it in an external blockchain network will be described in detail.

사용자의 정보가 담긴 아바타 생성하고, 외부의 메타버스플랫폼에 아바타를 제공할 경우에, 아바타에 대한 소유권 문제와 아바타 원본의 희소성에 영향을 줄 수 있다. 생성한 아바타에 대해 NFT를 발행하게되면, 사용자의 자산인 아바타에 대해 상기 메타버스플랫폼에서 원본임을 인증하고, 소유권을 증명할 수 있다. 한편, 업데이트된 아바타 각각에 대하여 NFT를 발행하게 되면, 업데이트된 아바타의 업데이트 이력을 알 수 없게 된다.When an avatar containing user information is created and the avatar is provided to an external metaverse platform, the problem of ownership of the avatar and the scarcity of the original avatar may be affected. When NFT is issued for the created avatar, the metaverse platform can authenticate the originality of the avatar, which is the user's asset, and prove ownership. On the other hand, if the NFT is issued for each updated avatar, the update history of the updated avatar cannot be known.

따라서, 본원 발명에서 업데이트된 아바타에 대해 연속적인 업데이트정보를 포함하는 NFT를 제공하는 방법을 제시한다. Accordingly, the present invention provides a method of providing an NFT including continuous update information for an updated avatar.

도 18은 본 발명의 일 실시예에 따른 업데이트아바타해시정보가 포함된 NFT에 대해 개략적으로 도시한다.18 schematically illustrates an NFT including updated avatar hash information according to an embodiment of the present invention.

도 18에 도시된 바와 같이, 상기 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 아바타의 원본 상태에 관련된 원본정보를 포함하는 원본아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 생성된 NFT를 제공하는 원본아바타NFT제공부;를 포함할 수 있고, 상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 업데이트된 아바타의 현재 버전정보 및 이전 버전정보에 관련된 업데이트정보를 포함하는 업데이트아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 제공하는 업데이트아바타NFT제공부;를 포함할 수 있고, 상기 원본아바타NFT제공부는, 상기 아바타에 대한 정보에 대해 해시함수를 적용하여 아바타해시정보를 생성하는 아바타해시정보생성단계; 상기 아바타해시정보를 상기 외부의 블록체인네트워크로 전송하여 상기 아바타에 대한 NFT 생성을 요청하는 아바타NFT생성요청단계; 및 상기 외부의 블록체인네트워크에 의하여 발행된 NFT를 수신하는 아바타NFT수신단계;를 포함할 수 있다.As shown in FIG. 18 , the original avatar hash information including object information related to the unique attribute of the avatar, input information related to the information input by the user, and original information related to the original state of the avatar is externally transmitted. may include; an original avatar NFT providing unit that transmits to a blockchain network of transmits updated avatar hash information including input information related to the information entered by the and an updated avatar NFT providing unit provided to the user, wherein the original avatar NFT providing unit includes: an avatar hash information generating step of generating avatar hash information by applying a hash function to the information on the avatar; an avatar NFT generation request step of requesting NFT generation for the avatar by transmitting the avatar hash information to the external blockchain network; and an avatar NFT receiving step of receiving the NFT issued by the external blockchain network.

구체적으로, 사용자의 아바타를 생성하기 위해서는 사용자에 대한 정보, 사용자에 의해서 생성된 정보 등 다양한 정보들이 필요하다. 상기 다양한 정보들 중에서 아바타의 NFT를 생성함에 있어서 업데이트아바타해시정보는, 상기 NFT에 등록하고 싶은 정보 및/혹은 해당 아바타의 희소성과 소유권을 나타내기 위한 정보에 해당할 수 있다.Specifically, in order to generate a user's avatar, various types of information such as information about the user and information generated by the user are required. Among the various pieces of information, in generating the NFT of the avatar, the updated avatar hash information may correspond to information desired to be registered in the NFT and/or information for indicating the scarcity and ownership of the avatar.

상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함할 수 있다. 상기 객체정보, 상기 입력정보 및 상기 업데이트정보는 단일 정보가 아닌 해당하는 복수의 정보를 포함할 수 있다. 상기 객체정보는 상기 아바타에 대한 고유의 속성과 관련된 정보에 해당하는 정보가 포함될 수 있고, 상기 입력정보는 사용자가 입력한 사용자에 대한 정보가 포함될 수 있고, 상기 업데이트정보는 현재 아바타의 버전정보 및 이전의 모든 버전정보가 포함될 수 있다. 업데이트정보에 대한 자세한 설명은 후술하도록 한다.The update avatar hash information may include object information, input information, and update information. The object information, the input information, and the update information may include a plurality of pieces of information, not single information. The object information may include information corresponding to information related to a unique attribute of the avatar, the input information may include information about a user input by a user, and the update information may include current avatar version information and All previous version information may be included. A detailed description of the update information will be provided later.

상기 업데이트된 아바타에 대한 NFT 생성을 외부의 블록체인네트워크에 요청하면, 상기 업데이트아바타해시정보에 기초하여 외부의 블록체인네트워크에 상기 업데이트아바타해시정보가 포함된 NFT가 생성될 수 있다. 상기 NFT는 업데이트아바타해시정보를 포함할 수 있다. 자세한 단계에 대해서는 후술하도록 한다.When an external blockchain network is requested to generate an NFT for the updated avatar, an NFT including the updated avatar hash information may be generated in an external blockchain network based on the updated avatar hash information. The NFT may include updated avatar hash information. Detailed steps will be described later.

본 발명의 일 실시예에서는, 해당 아바타가 제공되는 메타버스플랫폼의 목적에 따라 업데이트아바타해시정보에 포함되는 정보가 달라질 수 있다. 예를 들어, 해당 아바타가 헬스케어 컨텐츠를 제공하는 메타버스플랫폼에 제공되는 경우에, 업데이트아바타해시정보는 사용자의 건강상태에 관련된 정보를 더 포함하여 생성할 수 있다.In one embodiment of the present invention, information included in the updated avatar hash information may vary according to the purpose of the metaverse platform on which the corresponding avatar is provided. For example, when the corresponding avatar is provided to a metaverse platform that provides health care content, the updated avatar hash information may be generated by further including information related to the user's health condition.

본 발명의 실시예에 따른 상기 원본아바타NFT제공부는 아바타가 업데이트되기 전의 최초의 버전인 원본 아바타에 해당하는 NFT를 제공할 수 있고, 상기 업데이트아바타NFT제공부는 최초의 버전 이후의 아바타(업데이트된 아바타)에 대해서 NFT를 제공할 수 있다.The original avatar NFT provider according to an embodiment of the present invention may provide an NFT corresponding to an original avatar that is an original version before the avatar is updated, and the updated avatar NFT provider may provide an avatar after the first version (updated avatar). ) can provide NFT.

도 19은 본 발명의 일 실시예에 따른 업데이트아바타NFT제공부에서의 수행단계를 개략적으로 도시한다.19 schematically shows the performing steps in the update avatar NFT providing unit according to an embodiment of the present invention.

도 19에 도시된 바와 같이, 상기 업데이트아바타NFT제공부는, 상기 업데이트된 아바타에 대한 정보에 대해 해시함수를 적용하여 업데이트아바타해시정보를 생성하는 업데이트아바타해시정보생성단계(S1110); 상기 업데이트아바타해시정보를 상기 외부의 블록체인네트워크로 전송하여 상기 업데이트된 아바타에 대한 NFT 생성을 요청하는 업데이트아바타NFT생성요청단계(S1120); 및 상기 외부의 블록체인네트워크에 의하여 생성된 NFT를 수신하는 업데이트아바타NFT수신단계(S1140);를 포함할 수 있다.As shown in FIG. 19 , the updated avatar NFT providing unit generates updated avatar hash information by applying a hash function to the updated avatar information to generate updated avatar hash information (S1110); an updated avatar NFT generation request step (S1120) of transmitting the updated avatar hash information to the external blockchain network to request NFT generation for the updated avatar; and an updated avatar NFT receiving step (S1140) of receiving the NFT generated by the external blockchain network.

구체적으로, 업데이트아바타해시정보생성단계(S1110)는 본 발명에서 생성한 상기 업데이트된 아바타에 대한 정보 중 NFT에 등록하여 적합한 효과를 얻을 수 있는 정보를 해시함수를 적용하여 업데이트아바타해시정보를 생성하는 단계이다. 상기 업데이트아바타해시정보는 해시함수를 통해 해시값으로 변형된 형태이다.Specifically, the updated avatar hash information generation step (S1110) is performed by applying a hash function to the information on the updated avatar generated in the present invention that can obtain a suitable effect by registering it in the NFT to generate the updated avatar hash information. This is the creation step. The updated avatar hash information is in a form transformed into a hash value through a hash function.

본 발명의 실시예에 따르면, 상기 업데이트된 아바타에 대한 정보는 복수의 정보를 포함할 수 있고, 각각에 대하여 해시함수를 통해 해시값으로 변형할 수 있고, 상기 업데이트아바타해시정보는 업데이트된 아바타에 대한 정보 각각의 해시값을 포함할 수 있다. 즉, 상기 업데이트된 아바타에 대한 정보를 기준에 따라 분류하고, 같은 분류의 업데이트된 아바타에 대한 정보 각각을 해시함수를 통해 해시값으로, 변형하고, 이를 모두 합해 해시함수를 통해 같은 분류의 업데이트된 아바타에 대한 정보를 모두 포함한 해시값을 도출한다. 즉, 상기 업데이트된 아바타에 대한 정보에 대해 머클트리 형식을 갖고, 같은 분류의 아바타에 대한 정보를 모두 포함한 해시값은 머클루트를 의미하고, 상기 업데이트된해시정보는 복수의 머클루트를 포함할 수 있다. 예를 들어, 상기 업데이트된 아바타에 대한 정보에는 객체정보, 입력정보 및 업데이트정보가 포함될 수 있고, 상기 객체정보는 식별정보, 생성된일시 및 아바타이름이 포함될 수 있다. 상기 식별정보, 생성된일시 및 아바타이름 각각에 대한 해시값을 구하고, 이 세가지 해시값을 합해 객체정보의 해시값을 구하고, 상기 입력정보 및 상기 업데이트정보에 대해서 이와 같은 방법으로 상기 입력정보 및 상기 업데이트정보에 해당하는 복수의 정보 각각에 대해 해시값을 구하면, 상기 객체정보, 상기 입력정보 및 상기 업데이트정보 각각 머클루트가 되고, 상기 세가지 머클루트를 업데이트아바타해시정보로 도출할 수 있다.According to an embodiment of the present invention, the information on the updated avatar may include a plurality of pieces of information, each of which can be transformed into a hash value through a hash function, and the updated avatar hash information is the updated avatar. Each hash value of the information may be included. That is, the information on the updated avatar is classified according to the criteria, each of the information on the updated avatar of the same classification is transformed into a hash value through a hash function, and all of the information on the updated avatar of the same classification is combined through a hash function. A hash value including all information about the avatar is derived. That is, the updated information on the avatar has a Merkle tree format, and a hash value including all information on avatars of the same class means a Merkle root, and the updated hash information includes a plurality of Merkle roots. can For example, the updated information on the avatar may include object information, input information, and update information, and the object information may include identification information, a creation date and time, and an avatar name. Obtaining a hash value for each of the identification information, the generated date and time, and the avatar name, summing these three hash values to obtain a hash value of the object information, and the input information and the updated information in this way When a hash value is obtained for each of a plurality of pieces of information corresponding to the update information, the object information, the input information, and the update information each become a merkle root, and the three merkle roots can be derived as update avatar hash information.

본 발명의 다른 실시예에 따르면, 상기 업데이트된 아바타에 대한 정보는 복수의 정보를 포함할 수 있고, 각각에 대하여 해시함수를 통해 해시값으로 변형할 수 있고, 상기 업데이트아바타해시정보는 업데이트된 아바타에 대한 정보 각각의 해시값을 모두 합해 해시함수를 통해 해시값으로 변형한 해시값일 수 있다. 즉, 상기 업데이트된 아바타에 대한 정보에 대해 머클트리 형식을 갖고, 상기 업데이트아바타해시정보는 머클루트에 해당할 수 있다. 예를 들어, 상기 업데이트된 아바타에 대한 정보에는 객체정보, 입력정보 및 업데이트정보가 포함될 수 있고, 상기 객체정보는 식별정보, 생성된일시 및 아바타이름이 포함될 수 있다. 상기 식별정보, 생성된일시 및 아바타이름 각각에 대한 해시값을 구하고, 이 세가지 해시값을 합해 객체정보의 해시값을 구하고, 상기 입력정보 및 상기 업데이트정보에 대해서 이와 같은 방법으로 상기 입력정보 및 상기 업데이트정보에 해당하는 복수의 정보 각각에 대해 해시값을 구한 뒤, 각각의 해시값을 합해 상기 입력정보 및 상기 업데이트정보에 대한 해시값을 구할 수 있다. 이에 이어서, 상기 객체정보, 상기 입력정보 및 상기 업데이트정보에 대한 해시값을 합해 상기 업데이트아바타해시정보의 해시값을 도출할 수 있다.According to another embodiment of the present invention, the updated information on the avatar may include a plurality of pieces of information, each of which can be transformed into a hash value through a hash function, and the updated avatar hash information is updated. The hash value may be a hash value transformed into a hash value through a hash function by summing the hash values of each information about the avatar. That is, the updated avatar information may have a merkle tree format, and the updated avatar hash information may correspond to a merkle root. For example, the updated information on the avatar may include object information, input information, and update information, and the object information may include identification information, a creation date and time, and an avatar name. Obtaining a hash value for each of the identification information, the generated date and time, and the avatar name, summing these three hash values to obtain a hash value of the object information, and the input information and the updated information in this way After obtaining a hash value for each of a plurality of pieces of information corresponding to the update information, the hash values for the input information and the update information may be obtained by summing the respective hash values. Subsequently, a hash value of the updated avatar hash information may be derived by summing the hash values for the object information, the input information, and the update information.

상기 아바타는 상술한 바와 같이 VR장치를 통해 사용자의 생체정보, 활동정보 및 의료정보를 수신하여 이를 바탕으로 생성하고, 외부의 메타버스플랫폼에 제공되어 인터랙션정보를 생성한다. 상기 인터랙션정보를 기초로 상기 아바타를 업데이트하고, 상기 업데이트된 아바타는 원본 아바타와 비교했을 때 다른 정보를 포함할 수 있고, 상기 업데이트된 아바타가 포함하는 정보 중 일부 혹은 전체는 업데이트아바타해시정보에 포함되고, 상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함할 수 있고, 업데이트아바타해시정보에 자세한 사항에 대해서는 후술하도록 한다. As described above, the avatar receives the user's biometric information, activity information, and medical information through the VR device, is generated based on the received biometric information, and is provided to an external metaverse platform to generate interaction information. The avatar is updated based on the interaction information, the updated avatar may include different information when compared to the original avatar, and some or all of the information included in the updated avatar is in the updated avatar hash information. included, and the updated avatar hash information may include object information, input information, and update information, and details of the updated avatar hash information will be described later.

상기 복수의 정보 중 일부 혹은 전체는 업데이트아바타해시정보에 포함되고, 상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함할 수 있다. 업데이트아바타해시정보에 자세한 사항에 대해서는 후술하도록한다. Some or all of the plurality of pieces of information may be included in the updated avatar hash information, and the updated avatar hash information may include object information, input information, and update information. Details of the updated avatar hash information will be described later.

이어서, 상기 업데이트아바타해시정보를 외부의 블록체인네트워크에 등록하여 해당 업데이트된 아바타에 대한 NFT 생성을 요청하는 업데이트아바타NFT생성요청단계(S1120)를 수행 후, 외부의 블록체인네트워크에 의하여 생성된 NFT를 수신하는 아바타NFT수신단계(S1140)를 수행한다.Next, after performing the update avatar NFT generation request step (S1120) of registering the updated avatar hash information to an external blockchain network and requesting NFT generation for the updated avatar, the data generated by the external blockchain network is generated. An avatar NFT receiving step (S1140) of receiving NFT is performed.

본 발명의 일 실시에 따르면, 상기 외부의 블록체인네트워크는 특정 블록체인네트워크를 의미하지 않고, 이더리움, 바이낸스 스마트 체인, 폴카닷, 트론 등 NFT를 생성할 수 있는 블록체인네트워크를 의미할 수 있다.According to an embodiment of the present invention, the external block chain network does not mean a specific block chain network, but a block chain network that can generate NFTs such as Ethereum, Binance smart chain, Polkadot, and Tron. have.

본 발명의 실시예에서는 NFT 수신은 NFT의 링크 혹은 토큰 URI를 의미할 수 있고, NFT에 포함되는 아바타해시정보는 메타데이터를 의미할 수 있다.In an embodiment of the present invention, NFT reception may mean a link or token URI of an NFT, and avatar hash information included in the NFT may mean metadata.

도 20는 본 발명의 일 실시예에 따른 객체정보를 개략적으로 도시한다.20 schematically illustrates object information according to an embodiment of the present invention.

도 20에 도시된 바와 같이, 상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함하고, 상기 객체정보는, 상기 업데이트된 아바타의 원본 아바타를 생성한 사용자의 식별정보, 상기 업데이트된 아바타의 원본 아바타가 생성된 일시 및 상기 업데이트된 아바타의 원본 아바타의 이름을 포함할 수 있다.20 , the updated avatar hash information includes object information, input information, and update information, and the object information includes identification information of a user who created the original avatar of the updated avatar, and the updated avatar. The date and time when the original avatar of the avatar was created and the name of the updated original avatar of the avatar may be included.

상기 컴퓨팅시스템(10000)에는 아바타를 생성하면서 사용된 모든 정보 및 아바타를 업데이트하면서 사용된 모든 정보가 저장되어 있고, 이 중 NFT에 등록하고자하는 정보가 업데이트아바타해시정보에 해당한다. The computing system 10000 stores all information used while generating the avatar and all information used while updating the avatar, among which information to be registered in the NFT corresponds to the updated avatar hash information.

구체적으로, 객체정보는 상기 업데이트아바타해시정보에 포함되고, 업데이트된 아바타에 대한 객관적인 사실과 관련된 정보이다. 상기 객체정보에는 사용자의 식별정보, 아바타를 업데이트 하기 전 원본 아바타가 생성된일시 및 아바타를 업데이트 하기 전 원본 아바타의 아바타이름이 포함될 수 있고, 상기 식별정보는 원본 아바타의 생성에 사용된 정보를 제공한 사용자의 성명, 연락정보 등을 포함하는 식별정보이고, 상기 생성된일시는 사용자의 정보를 활용해 원본 아바타를 최종 생성한 일시이고, 상기 아바타이름은 사용자가 지정한 원본 아바타에 대한 이름이다.Specifically, the object information is included in the updated avatar hash information and is information related to the objective facts about the updated avatar. The object information may include user identification information, the date and time the original avatar was created before updating the avatar, and the avatar name of the original avatar before updating the avatar, and the identification information provides information used to create the original avatar. It is identification information including a name and contact information of a user, the generated date and time is the date and time when the original avatar is finally created using the user's information, and the avatar name is the name of the original avatar designated by the user.

도 21은 본 발명의 일 실시예에 따른 입력정보를 개략적으로 도시한다.21 schematically shows input information according to an embodiment of the present invention.

도 21에 도시된 바와 같이, 상기 입력정보는, 상기 VR장치로 수신한 사용자의 상기 생체정보, 사용자의 스마트폰으로 수신한 활동정보 및 의료정보를 포함하는 수신정보, 및 상기 사용자가 입력한 1 이상의 병력을 포함하는 상기 의료정보에 기초한 질환정보를 포함할 수 있다.As shown in FIG. 21 , the input information includes the user's biometric information received with the VR device, received information including activity information and medical information received with the user's smartphone, and 1 inputted by the user. It may include disease information based on the medical information including the above medical history.

상기 컴퓨팅시스템(10000)에는 아바타를 생성하면서 사용된 모든 정보 및 아바타를 업데이트하면서 사용된 모든 정보가 저장되어 있고, 이 중 NFT에 등록하고자하는 정보가 업데이트아바타해시정보로 해당한다. The computing system 10000 stores all information used while generating the avatar and all information used while updating the avatar, among which information to be registered in the NFT corresponds to the updated avatar hash information.

구체적으로, 입력정보는 상기 업데이트아바타해시정보에 포함되고, 원본 아바타를 생성하기 위해 사용자가 입력한 정보와 관련된 정보이다. 상기 입력정보에는 생체정보, 수신정보 및 질환정보가 포함되고, 상기 입력정보는 메타버스플랫폼이 게임을 제공하는 경우에는, 상기 인터랙션정보에 의해 업데이트된 아바타에 해당하는 정보와 원본 아바타에 해당하는 정보를 비교하였을 때 변하지 않은 정보일 수 있지만, 메타버스플랫폼이 의료콘텐츠를 제공하는 경우에는 변할 수 있다.Specifically, the input information is included in the updated avatar hash information and is information related to information input by the user to generate the original avatar. The input information includes biometric information, reception information, and disease information. When the metaverse platform provides a game, the input information includes information corresponding to the avatar updated by the interaction information and information corresponding to the original avatar. It may be information that has not changed when comparing

상기 생체정보는 이미지정보, 뇌파정보, 맥박정보 및 아이트래킹정보를 포함할 수 있고 VR장치(1000)를 통해 센싱된다. 상기 이미지정보는 카메라장치를 통해 상기 사용자의 얼굴이미지 및 체형이미지를 촬영하여 입력받고, 상기 뇌파정보는 뇌파측정기로 사용자의 뇌파를 측정한 정보이고, 상기 맥박정보는 맥박측정기로 사용자의 맥박을 측정한 정보이고, 아이트래킹정보는 아이트래커로 측정한 사용자의 아이트래킹을 측정한 정보이다.The biometric information may include image information, brain wave information, pulse information, and eye tracking information, and is sensed through the VR device 1000 . The image information is received by photographing the user's face image and body shape image through a camera device, the EEG information is information obtained by measuring the user's EEG with an EEG measuring device, and the pulse information is measuring the user's pulse with a pulse meter. information, and the eye tracking information is information measured by the user's eye tracking measured with an eye tracker.

상기 수신정보는 활동정보 및 의료정보를 포함하고, 상기 활동정보 및 상기 의료정보는 사용자의 스마트폰으로부터 수신하고, 상기 활동정보는 스마트폰에 연결된 웨어러블디바이스(wearable device) 등을 통해 수집될 수 있는 사용자의 활동에 해당하는 운동기록, 생활정보 등에 해당되며, 기설정된 주기로 기록될 수 있다. 예를 들어, 소비한 칼로리, 운동 시간, 하루 동안의 걸음 수, 하루 동안의 걸음걸이, 하루 동안 마신 물의 양 및 횟수, 취침시간 및 기상시간 등을 포함한다. The reception information includes activity information and medical information, the activity information and the medical information are received from a user's smartphone, and the activity information can be collected through a wearable device connected to the smartphone, etc. It corresponds to an exercise record, life information, etc. corresponding to the user's activity, and may be recorded at a preset period. For example, it includes calories burned, exercise time, steps per day, steps per day, amount and number of water drinks per day, bedtime and wake time, and the like.

상기 질환정보는 사용자가 입력한 1 이상의 병력에 대한 의료정보에 기초하여 결정하고, 본 발명의 일 실시예로서, 상기 의료정보는 의료기관에서 제공하는 의료기록을 이용하여 생성될 수 있다.The disease information is determined based on medical information on one or more medical history input by a user, and as an embodiment of the present invention, the medical information may be generated using a medical record provided by a medical institution.

도 22은 본 발명의 일 실시예에 따른 버전정보를 개략적으로 도시한다.22 schematically shows version information according to an embodiment of the present invention.

도 22에 도시된 바와 같이, 상기 버전정보는, 해당 아바타 버전의 생성파일, 해당 아바타 버전의 순번, 해당 아바타 버전의 버전이름, 해당 아바타 버전이 업데이트된 일시, 해당 버전의 아바타에 대해 서로 다른 각도로 획득한 복수의 사진, 해당 버전의 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양을 포함하는 외형특징정보, 해당 버전의 아바타의 노화정보 및 해당 버전의 아바타의 이동속도를 포함할 수 있다.As shown in FIG. 22 , the version information includes a generated file of the corresponding avatar version, the order number of the corresponding avatar version, the version name of the corresponding avatar version, the date and time the corresponding avatar version was updated, and different angles for the corresponding version of the avatar. a plurality of photos acquired with the avatar, skin condition information of the corresponding version of the avatar, hair condition information, the degree of curvature of the skeleton, appearance characteristic information including the inclination of the eyes and the shape of the mouth, aging information of the corresponding version of the avatar, and the corresponding version of the avatar may include the movement speed of

상기 컴퓨팅시스템(10000)에는 아바타를 생성하면서 사용된 모든 정보 및 아바타를 업데이트하면서 사용된 모든 정보가 저장되어 있고, 이 중 NFT에 등록하고자하는 정보가 업데이트아바타해시정보로 해당한다. The computing system 10000 stores all information used while generating the avatar and all information used while updating the avatar, among which information to be registered in the NFT corresponds to the updated avatar hash information.

구체적으로, 버전정보는 상기 업데이트아바타해시정보에 포함되고, 업데이트된 아바타를 생성한 시점에 해당하는 업데이트된 아바타에 관련된 정보이다. 상기 버전정보에는 해당 버전 아바타의 복수의 사진, 해당 버전 아바타의 외형특징정보, 해당 버전 아바타의 노화정보, 해당 버전 아바타의 이동속도, 해당 버전 아바타의 생성파일, 해당 아바타 버전의 순번, 해당 아바타 버전의 버전이름, 해당 아바타 버전이 업데이트된 일시를 포함할 수 있고, 상기 복수의 사진은 해당 버전의 아바타에 대해 서로 다른 각도로 획득하고, 바람직하게 상기 복수의 사진은 사용자의 정보가 반영된 해당 버전 아바타의 특징(예를 들어, 아바타의 얼굴, 질환정보에 상응하는 그래픽효과가 가시화된 부분, 외형특징정보가 가시화된 부분 등)이 포함되게 획득한다. Specifically, the version information is included in the updated avatar hash information and is information related to the updated avatar corresponding to the time of generating the updated avatar. The version information includes a plurality of photos of the corresponding version avatar, appearance characteristic information of the corresponding version avatar, aging information of the corresponding version avatar, the moving speed of the corresponding version avatar, the generation file of the corresponding version avatar, the order number of the corresponding avatar version, and the corresponding avatar version may include a version name of the avatar and the date and time when the corresponding avatar version was updated, the plurality of photos are obtained at different angles with respect to the corresponding version of the avatar, and preferably, the plurality of photos are the corresponding version avatar reflecting user information. characteristics (eg, the face of the avatar, a portion in which graphic effects corresponding to disease information are visualized, a portion in which appearance characteristic information is visualized, etc.) are acquired.

본 발명의 실시예에서, 해당 버전의 아바타는 이전 버전의 아바타에서 업데이트된 아바타를 의미할 수 있고, 최초의 이전 버전 아바타는 사용자가 최초로 생성하여 업데이트되지 않은 원본 아바타에 해당할 수 있다.In an embodiment of the present invention, the avatar of the corresponding version may mean an avatar updated from an avatar of a previous version, and the first previous version avatar may correspond to an original avatar that is initially created and not updated by the user.

상기 해당 버전의 외형특징정보는 이전 버전의 외형특징정보에서 업데이트된 정보이다.The appearance feature information of the corresponding version is information updated from the appearance feature information of the previous version.

구체적으로, 원본 아바타의 외형특징정보는 사용자로부터 획득한 이미지정보의 얼굴이미지 및 체형이미지로부터 도출하고, 눈의 기울기, 입 모양, 입의 기울기, 눈썹의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유 특성에 대한 특징정보, 사용자의 피부상태정보, 모발상태정보 및 골격의 휘어진 정도를 포함할 수 있다.Specifically, the appearance characteristic information of the original avatar is derived from the face image and body shape image of the image information obtained from the user, and facial expressions such as eye tilt, mouth shape, mouth tilt, eyebrow tilt, etc. can be recognized. It may include characteristic information on intrinsic characteristics, skin condition information of the user, hair condition information, and the degree of curvature of the skeleton.

원본 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 원본 아바타의 외형특징정보를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 외형특징정보가 도출되고, 해당 외형특징정보는 상기 해당 버전 아바타의 버전정보에 포함된다.When the original avatar is updated to the corresponding version avatar based on the interaction information generated by performing the contents provided by the external metaverse platform, and the appearance characteristic information of the original avatar is updated based on the interaction information, the corresponding version avatar is Appearance characteristic information is derived, and the corresponding appearance characteristic information is included in the version information of the corresponding version avatar.

또한, 원본 아바타가 아닌 업데이트된 아바타에 대해서는, 이전 버전의 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 이전 버전 아바타의 외형특징정보를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 외형특징정보가 도출되고, 해당 외형특징정보는 상기 해당 버전 아바타의 버전정보에 포함된다.In addition, for the updated avatar other than the original avatar, the previous version avatar is updated to the corresponding version avatar based on the interaction information generated by performing the contents provided by the external metaverse platform, and the appearance characteristics of the previous version avatar When the information is updated based on the interaction information, appearance characteristic information corresponding to the corresponding version avatar is derived, and the corresponding appearance characteristic information is included in the version information of the corresponding version avatar.

상기 해당 버전의 노화정보는 이전 버전의 노화정보에서 업데이트된 정보이다.The aging information of the corresponding version is information updated from the aging information of the previous version.

원본 아바타의 노화정보는 1 이상의 인공신경망 모델에서 상기 생체정보를 입력함으로써 결정될 수 있다. 구체적으로, 사용자의 이미지정보, 뇌파정보 및 맥박정보를 입력 받아 1 이상의 인공신경망을 통해 분석하고, 각각의 분석 결과를 합산하여 원본 아바타의 노화정보를 도출할 수 있다.The aging information of the original avatar may be determined by inputting the biometric information in one or more artificial neural network models. Specifically, it is possible to derive the aging information of the original avatar by receiving the user's image information, EEG information, and pulse information, analyzing it through one or more artificial neural networks, and summing the results of each analysis.

원본 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 원본 아바타의 노화정보를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 노화정보가 도출되고, 해당 노화정보는 상기 해당 버전 아바타의 버전정보에 포함된다.When the original avatar is updated to the corresponding version avatar based on the interaction information generated by performing the content provided by the external metaverse platform, and the aging information of the original avatar is updated based on the interaction information, Aging information is derived, and the aging information is included in the version information of the corresponding version avatar.

또한, 원본 아바타가 아닌 업데이트된 아바타에 대해서는, 이전 버전의 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 이전 버전 아바타의 노화정보를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 노화정보가 도출되고, 해당 노화정보는 상기 해당 버전 아바타의 버전정보에 포함된다.In addition, for an updated avatar other than the original avatar, the previous version avatar is updated to the corresponding version avatar based on the interaction information generated by performing the contents provided by the external metaverse platform, and aging information of the previous version avatar is updated based on the interaction information, aging information corresponding to the corresponding version avatar is derived, and the aging information is included in the version information of the corresponding version avatar.

상기 해당 버전의 이동속도는 이전 버전의 이동속도에서 업데이트된 정보이다.The moving speed of the corresponding version is information updated from the moving speed of the previous version.

원본 아바타의 이동속도는 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 결정할 수 있고, 상기 사용자의 의료정보에 기초하여 생성된 질환정보를 참고하여 이동속도를 결정할 수 있다. 예를 들어, 질환정보가 하체부위에 해당하는 경우, 이동속도는 낮게 설정될 수 있다. The movement speed of the original avatar may be determined by increasing the movement speed as the movement distance or number of steps increases based on the movement distance or number of steps for a preset time derived from the user's smartphone, and based on the user's medical information The movement speed can be determined by referring to the generated disease information. For example, when the disease information corresponds to the lower body, the movement speed may be set low.

원본 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 원본 아바타의 이동속도를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 이동속도가 도출되고, 해당 이동속도는 상기 해당 버전 아바타의 버전정보에 포함된다.When the original avatar is updated to the corresponding version avatar based on the interaction information generated by performing the content provided by the external metaverse platform, and the movement speed of the original avatar is updated based on the interaction information, The movement speed is derived, and the movement speed is included in the version information of the corresponding version avatar.

또한, 원본 아바타가 아닌 업데이트된 아바타에 대해서는, 이전 버전의 아바타가 외부 메타버스플랫폼에서 제공하는 컨텐츠를 수행하여 생성된 인터랙션정보에 기초하여 상기 해당 버전 아바타로 업데이트되고, 상기 이전 버전 아바타의 이동속도를 인터랙션정보에 기초하여 업데이트하면, 해당 버전 아바타에 해당하는 이동속도가 도출되고, 해당 이동속도는 상기 해당 버전 아바타의 버전정보에 포함된다.In addition, for an updated avatar other than the original avatar, the previous version avatar is updated to the corresponding version avatar based on the interaction information generated by performing the contents provided by the external metaverse platform, and the movement speed of the previous version avatar is updated based on the interaction information, a movement speed corresponding to the corresponding version avatar is derived, and the corresponding movement speed is included in the version information of the corresponding version avatar.

본 발명의 실시예에 따르면, 상기 생성파일은 해당 버전 아바타가 저장되어 있는 3D 파일이고, 메타버스플랫폼에 구현될 수 있는 포맷으로 확장자를 갖는 파일일 수 있다. 상기 순번은 원본 아바타의 순번을 시작으로 연속적으로 증가하는 해당 아바타 버전에 해당하는 숫자일 수 있다. 상기 버전이름은 객체정보에 포함되어 있는 아바타이름과는 상이한 해당 버전 아바타를 표현할 수 있는 이름일 수 있다. 예를 들어, 상기 아바타이름에 해당 버전의 순번을 추가하여 버전이름을 생성할 수 있다.According to an embodiment of the present invention, the generated file may be a 3D file in which the corresponding version avatar is stored, and may be a file having an extension in a format that can be implemented in the metaverse platform. The order number may be a number corresponding to the corresponding avatar version that continuously increases starting with the order number of the original avatar. The version name may be a name capable of expressing a corresponding version avatar different from the avatar name included in the object information. For example, the version name may be created by adding the order number of the corresponding version to the avatar name.

도 23은 본 발명의 일 실시예에 따른 업데이트정보를 개략적으로 도시한다.23 schematically shows update information according to an embodiment of the present invention.

도 23에 도시된 바와 같이, 상기 업데이트정보는, 아바타를 업데이트할 때마다 해당 버전의 순번에 해당하는 업데이트정보가 생성되고, 상기 업데이트된 아바타의 현재 버전의 버전정보 및 이전의 모든 버전정보를 포함할 수 있다.As shown in FIG. 23 , the update information is generated every time the avatar is updated, and update information corresponding to the corresponding version number is generated, and includes version information of the current version and all previous version information of the updated avatar. can do.

구체적으로, 업데이트 아바타는 인터랙션정보를 기초하여 업데이트된 아바타를 의미하고, 이전 버전의 아바타를 업데이트하여 현재 버전의 아바타가 만들어진다. 더 구체적으로, 사용자가 생성한 업데이트하지 않은 최초의 아바타인 원본 아바타가 메타버스플랫폼에 제공되어, 해당 메타버스플랫폼이 제공하는 콘텐츠를 이용하며 인터랙션정보를 생성하고, 해당 인터랙션정보에 기초하여 상기 원본 아바타를 업데이트아바타#1으로 업데이트할 수 있다. 또한, 업데이트아바타#1이 메타버스플랫폼에 제공되어 해당 메타버스플랫폼이 제공하는 콘텐츠를 이용하며 인터랙션정보를 생성하고, 해당 인터랙션정보에 기초하여 상기 업데이트아바타#1을 업데이트아바타#2로 업데이트할 수 있다. 따라서, 원본 아바타에서부터 연속적으로 해당하는 순번을 가지는 업데이트 아바타로 업데이트될 수 있다.Specifically, the updated avatar means an avatar updated based on interaction information, and an avatar of a current version is created by updating an avatar of a previous version. More specifically, the original avatar, which is the first non-updated avatar created by the user, is provided to the metaverse platform, generates interaction information using the content provided by the metaverse platform, and based on the interaction information, the original avatar is provided. You can update your avatar with UpdateAvatar #1. In addition, the update avatar #1 is provided on the metaverse platform to generate interaction information using the content provided by the metaverse platform, and the update avatar #1 can be updated to update avatar #2 based on the interaction information. have. Accordingly, the update avatar may be continuously updated from the original avatar to the updated avatar having the corresponding sequence number.

본 발명의 다른 실시예에서는, 이전 버전 아바타를 기초로 복수의 버전으로 아바타를 업데이트할 수 있다. 예를 들어, 업데이트 아바타#1가 복수의 메타버스플랫폼으로 제공되었을 경우에, 각각의 메타버스플랫폼이 제공하는 컨텐츠에 따라 각각의 인터랙션정보가 생성되고, 업데이트 아바타#1를 각각의 인터랙션정보에 기초하여 업데이트 아바타#1-1, 업데이트 아바타#1-2 등으로 업데이트할 수 있다.In another embodiment of the present invention, the avatar may be updated with a plurality of versions based on the previous version of the avatar. For example, when the updated avatar #1 is provided to a plurality of metaverse platforms, each interaction information is generated according to the content provided by each metaverse platform, and the updated avatar #1 is based on each interaction information. Then, it can be updated to update avatar #1-1, update avatar #1-2, etc.

상기 업데이트 아바타는 상술한 객체정보, 입력정보 및 업데이트 아바타의 해당 버전정보를 포함하고, 상기 버전정보는 해당 버전의 순번을 가지는 업데이트정보에 포함된다. 구체적으로, 버전정보 및 업데이트정보는 아바타가 업데이트될 때마다 아바타의 순번과 동일한 순번으로 생성되고, 상기 업데이트정보는 직전 버전의 업데이트정보에서 상기 현재 버전정보가 추가되어 생성된다. 더 구체적으로, 상기 업데이트정보는 이전 버전의 모든 버전정보 및 현재 버전정보를 포함한다. 예를 들면, 도23에 도시된 바와 같이, 업데이트 아바타#2의 버전정보는 버전정보#2이고, 업데이트 아바타#2의 업데이트정보는 업데이트정보#2이고, 상기 업데이트정보#2는 업데이트정보#1에 버전정보#2를 추가하여 생성하여 상기 업데이트정보#2는 버전정보#1 및 버전정보#2를 포함할 수 있다. 따라서, 업데이트 아바타#N의 버전정보는 버전정보#N일 수 있고, 업데이트 아바타#N의 업데이트정보는 업데이트정보#N이고, 버전정보#1 내지 버전정보#N을 포함할 수 있다.The updated avatar includes the above-described object information, input information, and corresponding version information of the updated avatar, and the version information is included in update information having a sequence number of the corresponding version. Specifically, the version information and the update information are generated in the same order as the avatar whenever the avatar is updated, and the update information is generated by adding the current version information to the update information of the previous version. More specifically, the update information includes all version information of the previous version and current version information. For example, as shown in FIG. 23 , the version information of the updated avatar #2 is the version information #2, the update information of the updated avatar #2 is the update information #2, and the update information #2 is the update information #1 By adding version information #2 to , the update information #2 may include version information #1 and version information #2. Accordingly, the version information of the updated avatar #N may be version information #N, and the update information of the updated avatar #N is the update information #N, and may include version information #1 to version information #N.

도 24는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.24 exemplarily shows an internal configuration of a computing device according to an embodiment of the present invention.

도 24에 도시된 바와 같이, 컴퓨팅장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅장치(11000)의 내부 구성은 도 1에 도시된 컴퓨팅시스템이 포함할 수 있고, 혹은 컴퓨팅장치(11000)은 도 1에 도시된 컴퓨팅시스템의 일 실시예에 해당할 수 있으며, 상기 입/출력 서브시스템(11400)에 의하여 상기 VR서비스부(2000) 및 상기 추가콘텐츠부(4000)에 연결될 수 있다. 상기 프로세서(11100)은 복수로 구성될 수 있고, 전술한 제1프로세서모듈 및 제2프로세서모듈을 포함할 수 있다.24, the computing device 11000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, an input/output subsystem ( It may include at least an I/O subsystem) 11400 , a power circuit 11500 , and a communication circuit 11600 . At this time, the internal configuration of the computing device 11000 may include the computing system shown in FIG. 1 , or the computing device 11000 may correspond to an embodiment of the computing system shown in FIG. 1 , and the It may be connected to the VR service unit 2000 and the additional content unit 4000 by the /output subsystem 11400 . The processor 11100 may be configured in plurality, and may include the first processor module and the second processor module described above.

메모리(11200)는 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그 밖에 다양한 데이터를 포함할 수 있다.The memory 11200 may include, for example, high-speed random access memory, a magnetic disk, SRAM, DRAM, ROM, flash memory, or non-volatile memory. . The memory 11200 may include a software module, an instruction set, or other various data required for the operation of the computing device 11000 .

이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.In this case, access to the memory 11200 from other components such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100 .

주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.Peripheral interface 11300 may couple input and/or output peripherals of computing device 11000 to processor 11100 and memory 11200 . The processor 11100 may execute a software module or an instruction set stored in the memory 11200 to perform various functions for the computing device 11000 and process data.

입/출력 서브시스템은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem may couple various input/output peripherals to the peripheral interface 11300 . For example, the input/output subsystem may include a controller for coupling peripherals such as a monitor or keyboard, mouse, printer, or a touch screen or sensor as needed to the peripheral interface 11300 . According to another aspect, input/output peripherals may be coupled to peripheral interface 11300 without going through an input/output subsystem.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or some of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or a power source. It may include any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may transmit and receive an RF signal, also known as an electromagnetic signal, including an RF circuit, thereby enabling communication with other computing devices.

이러한 도 24의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)는 도 24에 도시된 일부 컴포넌트가 생략되거나, 도 24에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 24에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 24 is only an example of the computing device 11000, and the computing device 11000 may omit some components shown in FIG. 24 or further include additional components not shown in FIG. 24, or 2 It may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 24 , and may include various communication methods (WiFi, 3G, LTE) in the communication circuit 11600 . , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 11000 may be implemented in hardware, software, or a combination of both hardware and software including an integrated circuit specialized for one or more signal processing or applications.

본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 컴퓨팅장치(11000)에 설치될 수 있다. 일 예로, 파일 배포 시스템은 컴퓨팅장치(11000)의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded in a computer-readable medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied may be installed in the computing device 11000 through a file provided by the file distribution system. For example, the file distribution system may include a file transfer unit (not shown) that transmits the file in response to a request of the computing device 11000 .

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computing devices, so that it may be stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result. Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템으로서,
사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치;
상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;
상기 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 아바타의 원본 상태에 관련된 원본정보를 포함하는 원본아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 생성된 NFT를 제공하는 원본아바타NFT제공부;
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및
상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 업데이트된 아바타의 현재 버전정보 및 이전 버전정보에 관련된 업데이트정보를 포함하는 업데이트아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 제공하는 업데이트아바타NFT제공부;를 포함하고,
상기 VR서비스부는,
상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부;
상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신부;
상기 VR장치로부터 수신한 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함하는, 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부;
상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부; 및
상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부;를 포함하고,
상기 아바타생성부는,
복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부;
상기 생체정보에 기초하여 입력하여 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부;
해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부; 및
해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이고, 상기 질환정보가 하체부위에 대한 질환인 경우에 이동속도를 낮추는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부;를 포함하고,
상기 노화정보결정부는,
상기 카메라장치를 통해 입력 받은 이미지정보에서 상기 사용자의 피부상태정보, 모발상태정보, 및 골격이 휘어진 정도를 포함하는 제1노화정보를 도출하는 제1노화정보부;
상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보에서 뇌파의 안정성 및 상기 사용자의 집중도를 포함하는 제2노화정보를 도출하는 제2노화정보부;
상기 맥박측정기로 측정한 상기 사용자의 맥박정보에서 상기 사용자의 분당 맥박수, 맥박의 규칙성, 맥압을 포함하는 제3노화정보를 도출하는 제3노화정보부; 및
상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보 각각에 대해 1 내지 10 중 하나의 점수를 부여하고, 각각의 점수 및 각각의 점수를 합산한 합산점수를 포함하는 노화정보를 도출하는 종합판단모듈;을 포함하고,
상기 VR콘텐츠제공부는,
해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부;
해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부;
해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부;
상기 제1콘텐츠제공부, 상기 제2콘텐츠제공부, 및 상기 제3콘텐츠제공부에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절부; 및
상기 노화정보조절부에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
A system that generates an avatar and provides it to an external metaverse platform to update the avatar and provide NFT for the updated avatar,
an HMD mounted to a user to provide images and sounds for virtual reality, and to sense the user's voice; a camera device that captures the user's appearance and derives image information of the user; an EEG which is attached to the user's head and measures the user's EEG; a pulse meter attached to the user's wrist to measure the user's pulse; and a motion sensing device for measuring the user's movement; a VR device comprising;
a VR service unit that communicates with the VR device worn by the user, provides information about virtual reality to the VR device, generates an avatar of the user, and provides a plurality of virtual reality contents to the user;
NFT by transmitting original avatar hash information including object information related to the unique properties of the avatar, input information related to the information input by the user, and original information related to the original state of the avatar to an external blockchain network. an original avatar NFT providing unit that requests generation and provides the generated NFT to the user;
an avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information that a user has interacted with using the avatar on the external metaverse platform, and updates the avatar; and
updated avatar hash information including object information related to the unique properties of the updated avatar, input information related to the information input by the user, and update information related to the current version information and previous version information of the updated avatar Including; an update avatar NFT provider that requests NFT generation by transmitting to an external blockchain network, and provides to the user;
The VR service department,
a virtual reality implementation unit that is available only to the user and implements virtual reality in which the plurality of virtual reality contents are provided;
a VR communication unit that communicates with the VR device to exchange information;
image information received through the camera device received from the VR device; EEG information of the user measured by the EEG; and the user's pulse information measured by the pulse meter; including, user's biometric information; and a user information input unit for receiving user information including; and activity information and medical information received from the user's smartphone;
an avatar generator generating an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementing unit; and
and a VR content providing unit capable of providing the plurality of contents to the avatar generated in the virtual reality and updating the appearance of the avatar whenever the avatar is performed;
The avatar generating unit,
Each of the appearance characteristic information is derived from a plurality of the image information, and a character determination parameter in the form of a one-dimensional vector is derived by averaging the plurality of appearance characteristic information, and based on the character determination parameter, the basic appearance of the avatar Basic appearance determining unit to determine;
an aging information determining unit that determines aging information of the avatar by inputting it based on the biometric information, and adds a first graphic effect corresponding to the aging information to the basic appearance;
A disease in which disease information of an avatar is determined based on medical information including at least one medical history input by the user, and a second graphic effect corresponding to the disease information is added to the basic appearance to which the first graphic effect is added information decision unit; and
A method of increasing the movement speed as the movement distance or number of steps increases based on the movement distance or number of steps for a preset time derived from the user's smartphone, and lowering the movement speed when the disease information is a disease of the lower body and a movement speed determining unit that determines the movement speed of the avatar.
The aging information determining unit,
a first aging information unit for deriving first aging information including the user's skin condition information, hair condition information, and a degree of skeletal curvature from the image information input through the camera device;
a second aging information unit for deriving second aging information including the stability of the EEG and the concentration of the user from the EEG information of the user measured with the EEG;
a third aging information unit for deriving third aging information including the user's pulse rate per minute, pulse regularity, and pulse pressure from the user's pulse information measured by the pulse meter; and
Aging information including a summation score by assigning a score of 1 to 10 for each of the first aging information, the second aging information, and the third aging information, and adding each score and each score Including; a comprehensive judgment module to derive
The VR content providing unit,
A first content providing unit, the difficulty is determined based on the aging information of the user, and provides content that can perform the user's cognitive ability and concentration reinforcement training;
a second content providing unit for providing content for which difficulty is determined based on the activity information of the corresponding user, and for which the user's physical activity reinforcement training can be performed;
a third content providing unit for providing content for which a type of content is determined based on the user's disease information and training for a body part or cognitive ability requiring rehabilitation training;
The results of performing the contents provided by the first contents providing unit, the second contents providing unit, and the third contents providing unit, EEG information measured by the EEG measuring device during the execution period for the contents, and Based on the pulse information measured by the pulse meter, the aging information control unit for calculating one or more scores, and adjusting the aging information according to the one or more scores; and
A system for providing NFT for an updated avatar, comprising: an avatar appearance update unit configured to update the appearance of the user's avatar by adjusting the first graphic effect according to the aging information adjusted by the aging information adjustment unit .
삭제delete 청구항 1에 있어서,
상기 업데이트아바타NFT제공부는,
상기 업데이트된 아바타에 대한 정보에 대해 해시함수를 적용하여 업데이트아바타해시정보를 생성하는 업데이트아바타해시정보생성단계;
상기 업데이트아바타해시정보를 상기 외부의 블록체인네트워크로 전송하여 상기 업데이트된 아바타에 대한 NFT 생성을 요청하는 업데이트아바타NFT생성요청단계; 및
상기 외부의 블록체인네트워크에 의하여 생성된 NFT를 수신하는 업데이트아바타NFT수신단계;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
The method according to claim 1,
The update avatar NFT provider,
an updated avatar hash information generating step of generating updated avatar hash information by applying a hash function to the updated avatar information;
an update avatar NFT generation request step of transmitting the updated avatar hash information to the external blockchain network to request NFT generation for the updated avatar; and
An updated avatar NFT receiving step of receiving the NFT generated by the external blockchain network; a system for providing an NFT for the updated avatar.
청구항 1에 있어서,
상기 버전정보는,
해당 아바타 버전의 생성파일, 해당 아바타 버전의 순번, 해당 아바타 버전의 버전이름, 해당 아바타 버전이 업데이트된 일시, 해당 버전의 아바타에 대해 서로 다른 각도로 획득한 복수의 사진, 해당 버전의 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양을 포함하는 외형특징정보, 해당 버전의 아바타의 노화정보 및 해당 버전의 아바타의 이동속도를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
The method according to claim 1,
The version information is
The file created for the avatar version, the order number of the avatar version, the version name of the avatar version, the date and time the avatar version was updated, multiple photos obtained from different angles for the avatar version, the skin of the avatar version NFT for the updated avatar, including state information, hair state information, the degree of curvature of the skeleton, appearance feature information including eye inclination and mouth shape, aging information of the corresponding version of the avatar, and the moving speed of the corresponding version of the avatar system that provides
청구항 3에 있어서,
상기 업데이트아바타해시정보는 객체정보, 입력정보 및 업데이트정보를 포함하고,
상기 객체정보는,
상기 업데이트된 아바타의 원본 아바타를 생성한 사용자의 식별정보, 상기 업데이트된 아바타의 원본 아바타가 생성된 일시 및 상기 업데이트된 아바타의 원본 아바타의 이름을 포함하고,
상기 입력정보는,
상기 VR장치로 수신한 사용자의 상기 생체정보, 사용자의 스마트폰으로 수신한 활동정보 및 의료정보를 포함하는 수신정보, 및 상기 사용자가 입력한 1 이상의 병력을 포함하는 상기 의료정보에 기초한 질환정보를 포함하고,
상기 업데이트정보는,
아바타를 업데이트할 때마다 해당 버전의 순번에 해당하는 업데이트정보가 생성되고, 상기 업데이트된 아바타의 현재 버전의 버전정보 및 이전의 모든 버전정보를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
4. The method according to claim 3,
The update avatar hash information includes object information, input information and update information,
The object information is
identification information of a user who created the original avatar of the updated avatar, a date and time when the original avatar of the updated avatar was created, and a name of the original avatar of the updated avatar;
The input information is
The user's biometric information received by the VR device, received information including activity information and medical information received by the user's smartphone, and disease information based on the medical information including one or more medical history input by the user including,
The update information is
A system for providing an NFT for an updated avatar, wherein update information corresponding to a sequence number of a corresponding version is generated whenever an avatar is updated, and includes version information of the current version of the updated avatar and all previous version information of the updated avatar.
청구항 1에 있어서,
상기 아바타업데이트부는,
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계;
상기 외부의 메타버스플랫폼에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계; 및
상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
The method according to claim 1,
The avatar update unit,
an avatar information providing step of providing information about the avatar to an external metaverse platform;
an interaction information receiving step of receiving interaction information corresponding to the avatar from the external metaverse platform; and
and an avatar update step of extracting avatar-related information from the interaction information and updating the avatar based on the avatar-related information.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 제1콘텐츠제공부에서 상기 사용자에게 제공되는 제1콘텐츠는,
틀린그림찾기, 산수 및 퍼즐 맞추기를 포함하는 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠고,
상기 제2콘텐츠제공부에서 상기 사용자에게 제공되는 제2콘텐츠는,
걷기, 스트레칭 및 스쿼트를 포함하는 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠고,
상기 제3콘텐츠제공부에서 상기 사용자에게 제공되는 제3콘텐츠는,
상기 사용자가 부상을 입은 신체부위에 대한 집중적인 훈련을 수행하거나 상기 사용자의 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력을 포함하는 인지능력 강화에 대한 집중적인 훈련을 수행하여 상기 사용자가 취약한 분야를 훈련하기 위한 콘텐츠인, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
The method according to claim 1,
The first content provided to the user by the first content providing unit,
Content for enhancing the user's cognitive ability and concentration, including finding the wrong picture, arithmetic, and jigsaw puzzles,
The second content provided to the user by the second content providing unit,
Content that can perform the user's physical activity reinforcement training, including walking, stretching and squats,
The third content provided to the user by the third content providing unit,
A field in which the user is vulnerable by performing intensive training on the body part where the user is injured or performing intensive training on strengthening cognitive ability including the user's memory, judgment, language ability, and ability to understand time and space A system that provides NFTs for updated avatars, which are content for training .
청구항 1에 있어서,
상기 노화정보조절부는,
상기 사용자가 상기 제1콘텐츠를 수행하는 동안 측정되는 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계;
상기 사용자가 상기 제2콘텐츠를 수행하는 동안 측정되는 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계;
상기 제1콘텐츠의 수행결과, 상기 제2콘텐츠의 수행결과, 및 상기 제3콘텐츠의 수행결과에 기초하여 각각 제1스코어, 제2스코어, 제3스코어를 산출하는 수행결과스코어산출단계; 및
상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어의 합산값에 기초하여, 노화정보를 감소시키는 노화정보감소단계;를 수행하는, 업데이트된 아바타에 대한 NFT를 제공하는 시스템.
The method according to claim 1,
The aging information control unit,
an intensity score calculation step of calculating an intensity score based on the user's brain wave information measured while the user performs the first content;
an activity score calculating step of calculating an activity score based on the user's pulse information and EMG information measured while the user performs the second content;
an execution result score calculation step of calculating a first score, a second score, and a third score, respectively, based on the execution result of the first content, the execution result of the second content, and the execution result of the third content; and
NFT for the updated avatar, performing an aging information reduction step of reducing aging information based on the sum of the first score, the second score, the third score, the concentration score, and the activity score system that provides
아바타를 생성하여 외부의 메타버스플랫폼에 제공하여 아바타를 업데이트하고, 업데이트된 아바타에 대한 NFT를 제공하는 시스템에서 구현되는 업데이트된 아바타에 대한 NFT를 제공하는 방법으로서,
상기 시스템은,
사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치;
상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;
상기 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 아바타의 원본 상태에 관련된 원본정보를 포함하는 원본아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 생성된 NFT를 제공하는 원본아바타NFT제공부;
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및
상기 업데이트된 아바타에 대한 고유의 속성과 관련된 객채정보, 상기 사용자가 입력한 정보에 관련된 입력정보 및 상기 업데이트된 아바타의 현재 버전정보 및 이전 버전정보에 관련된 업데이트정보를 포함하는 업데이트아바타해시정보를 외부의 블록체인네트워크에 전송하여 NFT 생성을 요청하고, 상기 사용자에게 제공하는 업데이트아바타NFT제공부;를 포함하고,
상기 방법은,
상기 VR서비스부에 의하여, 상기 사용자만 이용 가능하고, 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현단계;
상기 VR서비스부에 의하여, 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신단계;
상기 VR서비스부에 의하여, 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력단계;
상기 VR서비스부에 의하여, 상기 가상현실구현단계에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성단계; 및
상기 VR서비스부에 의하여, 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트 할 VR콘텐츠제공단계;를 포함하고,
상기 아바타생성단계는,
복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정단계;
상기 생체정보에 기초하여 입력하여 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정단계;
해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정단계; 및
해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이고, 상기 질환정보가 하체부위에 대한 질환인 경우에 이동속도를 낮추는 방식으로 아바타의 이동속도를 결정하는 이동속도결정단계;를 포함하고,
상기 노화정보결정단계는,
상기 카메라장치를 통해 입력 받은 이미지정보에서 상기 사용자의 피부상태정보, 모발상태정보, 및 골격이 휘어진 정도를 포함하는 제1노화정보를 도출하는 제1노화정보단계;
상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보에서 뇌파의 안정성 및 상기 사용자의 집중도를 포함하는 제2노화정보를 도출하는 제2노화정보단계;
상기 맥박측정기로 측정한 상기 사용자의 맥박정보에서 상기 사용자의 분당 맥박수, 맥박의 규칙성, 맥압을 포함하는 제3노화정보를 도출하는 제3노화정보단계; 및
상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보 각각에 대해 1 내지 10 중 하나의 점수를 부여하고, 각각의 점수 및 각각의 점수를 합산한 합산점수를 포함하는 노화정보를 도출하는 종합판단모듈단계;를 포함하고,
상기 VR콘텐츠제공단계는,
해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공단계;
해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공단계;
해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공단계;
상기 제1콘텐츠제공단계, 상기 제2콘텐츠제공단계, 및 상기 제3콘텐츠제공단계에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절단계; 및
상기 노화정보조절단계에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트단계;를 포함하는, 업데이트된 아바타에 대한 NFT를 제공하는 방법.
A method of providing an NFT for an updated avatar implemented in a system that generates an avatar and provides it to an external metaverse platform to update the avatar, and provides NFT for the updated avatar,
The system is
an HMD mounted to a user to provide images and sounds for virtual reality, and to sense the user's voice; a camera device that captures the user's appearance and derives image information of the user; an EEG which is attached to the user's head and measures the user's EEG; a pulse meter attached to the user's wrist to measure the user's pulse; and a motion sensing device for measuring the user's movement; a VR device comprising;
a VR service unit that communicates with the VR device worn by the user, provides information about virtual reality to the VR device, generates an avatar of the user, and provides a plurality of virtual reality contents to the user;
NFT by transmitting original avatar hash information including object information related to the unique properties of the avatar, input information related to the information input by the user, and original information related to the original state of the avatar to an external blockchain network. an original avatar NFT providing unit that requests generation and provides the generated NFT to the user;
an avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information that a user has interacted with using the avatar on the external metaverse platform, and updates the avatar; and
updated avatar hash information including object information related to the unique properties of the updated avatar, input information related to the information input by the user, and update information related to the current version information and previous version information of the updated avatar Including; an update avatar NFT provider that requests NFT generation by transmitting to an external blockchain network, and provides to the user;
The method is
a virtual reality implementation step of realizing, by the VR service unit, virtual reality available only to the user and provided with a plurality of virtual reality contents;
a VR communication step of communicating with the VR device and exchanging information by the VR service unit;
the user's biometric information received from the VR device by the VR service unit; and a user information input step of receiving user information including; and activity information and medical information received from the user's smartphone;
an avatar generation step of generating, by the VR service unit, an avatar of the user based on the user information in the virtual reality implemented by the virtual reality realization step; and
a VR content providing step of providing, by the VR service unit, the plurality of contents to the avatar created in the virtual reality, and updating the appearance of the avatar each time this is performed;
In the avatar creation step,
Each of the appearance characteristic information is derived from a plurality of the image information, and a character determination parameter in the form of a one-dimensional vector is derived by averaging the plurality of appearance characteristic information, and based on the character determination parameter, the basic appearance of the avatar Basic appearance determining step to determine;
an aging information determining step of determining aging information of the avatar by inputting it based on the biometric information, and adding a first graphic effect corresponding to the aging information to the basic appearance;
A disease in which disease information of an avatar is determined based on medical information including at least one medical history input by the user, and a second graphic effect corresponding to the disease information is added to the basic appearance to which the first graphic effect is added information determination step; and
A method of increasing the movement speed as the movement distance or number of steps increases based on the movement distance or number of steps for a preset time derived from the user's smartphone, and lowering the movement speed when the disease information is a disease of the lower body a moving speed determining step of determining the moving speed of the avatar with
The aging information determination step,
a first aging information step of deriving first aging information including the user's skin condition information, hair condition information, and a degree of skeletal curvature from the image information input through the camera device;
a second aging information step of deriving second aging information including the stability of the EEG and the concentration of the user from the EEG information of the user measured with the EEG;
a third aging information step of deriving third aging information including the user's pulse rate per minute, pulse regularity, and pulse pressure from the user's pulse information measured by the pulse meter; and
Aging information including a summation score by assigning a score of 1 to 10 for each of the first aging information, the second aging information, and the third aging information, and adding each score and each score Including; a comprehensive judgment module step to derive
The VR content providing step includes:
A first content providing step, wherein the level of difficulty is determined based on the aging information of the user, and providing content that can perform cognitive ability and concentration reinforcement training of the user;
a second content providing step of determining a difficulty level based on the activity information of the corresponding user and providing content capable of performing the user's physical activity reinforcement training;
a third content providing step of providing content in which a type of content is determined based on the disease information of the user and training for a body part or cognitive ability requiring rehabilitation training is performed;
The result of performing the contents provided in the first contents providing step, the second contents providing step, and the third contents providing step, EEG information measured by the EEG measuring device during the execution period for the contents, and An aging information control step of calculating one or more scores based on the pulse information measured by the pulse meter, and adjusting the aging information according to the one or more scores; and
An avatar appearance update step of updating the appearance of the user's avatar by adjusting the first graphic effect according to the adjusted aging information by the aging information adjustment step; .
KR1020220027136A 2022-03-03 2022-03-03 System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar KR102432248B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220027136A KR102432248B1 (en) 2022-03-03 2022-03-03 System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220027136A KR102432248B1 (en) 2022-03-03 2022-03-03 System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar

Publications (1)

Publication Number Publication Date
KR102432248B1 true KR102432248B1 (en) 2022-08-12

Family

ID=82803662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220027136A KR102432248B1 (en) 2022-03-03 2022-03-03 System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar

Country Status (1)

Country Link
KR (1) KR102432248B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102523264B1 (en) 2022-12-23 2023-04-18 김태원 METHOD FOR PROVIDING Non-fungible Token INSURANCE AND TRADING SERVICE FOR MUSIC CONTENT RECORDED IN MUSIC ALBUM BY RECOGNIZING QUICK RESPONSE
KR102538963B1 (en) * 2022-11-15 2023-06-02 주식회사 블록버스터랩 Method for generating nft for game rauncher
KR102552979B1 (en) * 2022-11-09 2023-07-07 (주)휴먼아이티솔루션 Method, device and computer-readable recording medium for providing metaverse content through a digital atelier
TWI824699B (en) * 2022-09-06 2023-12-01 英業達股份有限公司 Avatar carrier generating system for metaverse and method thereof
KR102637984B1 (en) 2022-08-31 2024-02-16 에스케이증권 주식회사 Method and appartus for authenticating and synchronizing users by linking metaverse and messenger chat room
KR20240030674A (en) 2022-08-31 2024-03-07 에스케이증권 주식회사 Method and appartus for delivering communication content between metaverse and messenger chat room

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20120011772A (en) * 2010-07-20 2012-02-08 삼성전자주식회사 Apparatus and method for operating virtual world using vital information
KR101943585B1 (en) 2016-12-23 2019-01-30 이광순 System for Psychological Diagnosis using Virtual Reality Environment Configuration
KR102130750B1 (en) 2020-03-23 2020-07-06 이병관 Method for providing bigdata and artificial intelligence based counseling and psychological service using bidirectional virtual reality contents
KR20210022944A (en) * 2019-08-21 2021-03-04 한국과학기술연구원 Biosignal-based avatar control system and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060032409A (en) * 2004-10-12 2006-04-17 삼성전자주식회사 Method and apparatus of generating avata for representing state of health
KR20120011772A (en) * 2010-07-20 2012-02-08 삼성전자주식회사 Apparatus and method for operating virtual world using vital information
KR101943585B1 (en) 2016-12-23 2019-01-30 이광순 System for Psychological Diagnosis using Virtual Reality Environment Configuration
KR20210022944A (en) * 2019-08-21 2021-03-04 한국과학기술연구원 Biosignal-based avatar control system and method
KR102130750B1 (en) 2020-03-23 2020-07-06 이병관 Method for providing bigdata and artificial intelligence based counseling and psychological service using bidirectional virtual reality contents

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102637984B1 (en) 2022-08-31 2024-02-16 에스케이증권 주식회사 Method and appartus for authenticating and synchronizing users by linking metaverse and messenger chat room
KR20240030674A (en) 2022-08-31 2024-03-07 에스케이증권 주식회사 Method and appartus for delivering communication content between metaverse and messenger chat room
TWI824699B (en) * 2022-09-06 2023-12-01 英業達股份有限公司 Avatar carrier generating system for metaverse and method thereof
KR102552979B1 (en) * 2022-11-09 2023-07-07 (주)휴먼아이티솔루션 Method, device and computer-readable recording medium for providing metaverse content through a digital atelier
KR102538963B1 (en) * 2022-11-15 2023-06-02 주식회사 블록버스터랩 Method for generating nft for game rauncher
KR102593151B1 (en) * 2022-11-15 2023-10-25 주식회사 블록버스터랩 Method for executing game using nft and application therefor
KR102523264B1 (en) 2022-12-23 2023-04-18 김태원 METHOD FOR PROVIDING Non-fungible Token INSURANCE AND TRADING SERVICE FOR MUSIC CONTENT RECORDED IN MUSIC ALBUM BY RECOGNIZING QUICK RESPONSE

Similar Documents

Publication Publication Date Title
KR102432248B1 (en) System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar
US11244485B2 (en) Augmented reality systems and methods utilizing reflections
US10430985B2 (en) Augmented reality systems and methods utilizing reflections
JP2021027917A (en) Information processing device, information processing system, and machine learning device
KR102445135B1 (en) System And Method For Providing Forgery And Falsification Verification Of Avatar Information For Avatar Generation On The Metaverse Platform
US9965675B2 (en) Using virtual reality for behavioral analysis
KR102453304B1 (en) A system that provides virtual reality content for dementia prevention and self-diagnosis
KR102425481B1 (en) Virtual reality communication system for rehabilitation treatment
KR102429630B1 (en) A system that creates communication NPC avatars for healthcare
Shi et al. Accurate and fast classification of foot gestures for virtual locomotion
KR102445134B1 (en) System And Method For Generating An Avatar Based On A User's Information And Providing An NFT For Avatar
KR102425479B1 (en) System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)
KR102429627B1 (en) The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
KR102437583B1 (en) System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals
KR102445133B1 (en) System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof
KR102443946B1 (en) System And Method For Providing Owner Verification Of Avatar Information To Protect Avatar Information In The Metaverse Platform From False Avatar Information
KR102432251B1 (en) Virtual reality rehabilitation system performed on social servers
KR102432250B1 (en) The System that Provides Care Chatbot
KR102543337B1 (en) System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar
KR102617431B1 (en) A System And Method For Calculating The Optimum Temperature For A User-Customized Immersive Content Test Bed Performing Content By Creating An Avatar
Guanoluisa et al. GY MEDIC: analysis and rehabilitation system for patients with facial paralysis
KR20230137535A (en) System And Method For Sensory Effects That Control The Temperature Of A Real Space With The Temperature Of The Environment In The Content Performed By Creating An Avatar
KR20230137139A (en) System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar
KR20230137537A (en) A System And Method For Calculating User-Customized Optimal Humidity For Performing Content With The Generated Avatar In The Realistic Content Test Bed
CN112116971A (en) Data processing method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant