KR102835552B1 - System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar - Google Patents
System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated AvatarInfo
- Publication number
- KR102835552B1 KR102835552B1 KR1020220034915A KR20220034915A KR102835552B1 KR 102835552 B1 KR102835552 B1 KR 102835552B1 KR 1020220034915 A KR1020220034915 A KR 1020220034915A KR 20220034915 A KR20220034915 A KR 20220034915A KR 102835552 B1 KR102835552 B1 KR 102835552B1
- Authority
- KR
- South Korea
- Prior art keywords
- content
- user
- information
- humidity
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/291—Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D22/00—Control of humidity
- G05D22/02—Control of humidity characterised by the use of electric means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/08—Other bio-electrical signals
- A61M2230/10—Electroencephalographic signals
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Hardware Design (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Physiology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것으로서, VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하고, 이를 바탕으로 가상현실 속에서 아바타를 생성할 수 있고, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼에 제공하고, 사용자가 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠를 수행하면, 상기 콘텐츠 내의 환경의 습도를 콘텐츠습도로 도출하고, 상기 사용자가 존재하는 공간인 현실공간의 현실습도를 상기 콘텐츠습도를 기초로 제어하는, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by an avatar created by generating the humidity, wherein the system receives the user's biometric information, activity information, and medical information through a VR device, and creates an avatar in virtual reality based on the biometric information, activity information, and medical information, and provides information about the avatar to an external metaverse platform, and when the user performs content provided by the external metaverse platform, the humidity of the environment in the content is derived as the content humidity, and the real humidity of the real space in which the user exists is controlled based on the content humidity. The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by a generated avatar.
Description
본 발명은 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것으로서, VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하고, 이를 바탕으로 가상현실 속에서 아바타를 생성할 수 있고, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼에 제공하고, 사용자가 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠를 수행하면, 상기 콘텐츠 내의 환경의 습도를 콘텐츠습도로 도출하고, 상기 사용자가 존재하는 공간인 현실공간의 현실습도를 상기 콘텐츠습도를 기초로 제어하는, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by an avatar created by generating the humidity, wherein the system receives the user's biometric information, activity information, and medical information through a VR device, and creates an avatar in virtual reality based on the biometric information, activity information, and medical information, and provides information about the avatar to an external metaverse platform, and when the user performs content provided by the external metaverse platform, the humidity of the environment in the content is derived as the content humidity, and the real humidity of the real space in which the user exists is controlled based on the content humidity. The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by a generated avatar.
실감콘텐츠란 인간의 오감을 극대화해 실제와 유사한 경험을 제공하는 가상현실, 증강현실, 혼합현실 등에 실감기술을 적용한 디지털콘텐츠를 의미한다. 글로벌 컨설팅 업체 PWC에 따르면 실감콘텐츠 기반 기술로 VR, AR 등을 아우르는 가상융합기술(XR)은 2025년 4,764억 달러(약 534조 원)에 달하는 경제적 파급효과를 창출할 것으로 전망된다.Realistic content refers to digital content that applies realistic technology to virtual reality, augmented reality, and mixed reality to maximize the five senses of humans and provide experiences similar to reality. According to global consulting firm PWC, XR, a virtual fusion technology that encompasses VR, AR, etc. as a realistic content-based technology, is expected to create an economic ripple effect of 476.4 billion dollars (approximately 534 trillion won) in 2025.
가상현실이란 사용자가 HMD(Head Mounted Display)장치 등의 입출력장치를 착용함으로써 컴퓨터 상에서 구현되는 가상의 공간을 체험할 수 있게 하는 기술로서, 사용자가 현실 세계와 유사하게 구현되는 가상의 공간에서 시간적, 공간적 제약없이 특정 상황에 대한 체험을 할 수 있도록 하는 기술이다. 이러한 가상현실 기술은 값비싼 장비 및 가상현실 콘텐츠의 부족으로 인해 빠른 시일 내에 대중화되기 어려울 것으로 전망되기도 했으나, 최근에는 VR 및 AR장치의 보급과 비대면 콘텐츠에 대한 수요가 증가함에 따라, 가상현실 기술 또한 재조명 받고 있는 상황이다.Virtual reality is a technology that allows users to experience a virtual space implemented on a computer by wearing an input/output device such as an HMD (Head Mounted Display). It is a technology that allows users to experience specific situations in a virtual space implemented similarly to the real world without temporal or spatial constraints. It was predicted that this virtual reality technology would have difficulty becoming popular in the near future due to the expensive equipment and lack of virtual reality content. However, recently, with the spread of VR and AR devices and the increase in demand for non-face-to-face content, virtual reality technology is also being re-examined.
메타버스 기술이란 가상 자아인 아바타를 통해 경제, 사회, 문화, 정치 활동 등을 이어가는 4차원 가상 시공간 할 수 있다. 상기 메타버스 기술은 가상현실, 증강현실, 거울세계 및 라이프로깅을 포함하는 개념이다. 이러한 메타버스 기술은 게임, 교육, 쇼핑, 의료 및 관광 등 다양한 기술분야와 접목되어 활용되고 있고, 구체적으로 메타버스에서 구현한 게임, 교육, 쇼핑, 의료 및 관광 등의 플랫폼을 아바타를 통해 체험할 수 있다.Metaverse technology is a four-dimensional virtual space-time that can continue economic, social, cultural, and political activities through a virtual self, an avatar. The above metaverse technology is a concept that includes virtual reality, augmented reality, a mirror world, and life logging. This metaverse technology is being utilized in various technological fields such as games, education, shopping, medical care, and tourism, and specifically, platforms such as games, education, shopping, medical care, and tourism implemented in the metaverse can be experienced through avatars.
이에 따라, 메타버스가 제공하는 컨텐츠에서 실감기술을 활용하면, 물리적 세계의 시간과 공간에 대한 제약을 허물어 이용자의 경험을 극대화해 줄 것으로 기대되고 있다Accordingly, it is expected that the use of real-time technology in the content provided by the metaverse will maximize the user experience by breaking down the constraints of time and space in the physical world.
사용자의 건강 증진을 위한 헬스케어 환경을 구축하기 위한 방법으로 한국 공개특허공보 제10-2020-0022776호에서는 사용자에 대한 4D아바타를 생성하고 특정 동작에 대한 수행을 유도함으로써 사용자가 병원을 방문하지 않고도 재활운동을 수행할 수 있는 방법을 제시한 바 있다. 그러나 종래의 기술은 단순히 사용자의 관절 정보에 기초하여 사용자의 움직임정보를 추정하고 가상현실을 체험할 수 있는 사용자 아바타를 생성하는 것으로서, 사용자의 생체특성을 고려하여 콘텐츠를 제공하거나 사용자와 유사한 아바타를 생성하여 사용자의 몰입도를 향상시키는 방법에 대해서는 개시하는 바가 없었다. 또한, 상기와 같은 종래의 기술들은 제공하는 콘텐츠 내의 환경과 사용자가 존재하는 실제 환경의 실감 효과를 제공하지 않는다. As a method for building a healthcare environment for promoting the health of users, Korean Patent Publication No. 10-2020-0022776 proposes a method for creating a 4D avatar for the user and inducing the performance of specific movements so that the user can perform rehabilitation exercises without visiting a hospital. However, the conventional technology simply estimates the user's movement information based on the user's joint information and creates a user avatar that can experience virtual reality, and does not disclose a method for providing content by considering the user's biometric characteristics or creating an avatar similar to the user to enhance the user's immersion. In addition, the above-mentioned conventional technologies do not provide a realistic effect between the environment within the provided content and the actual environment in which the user exists.
따라서, 사용자의 외형 및 신체특성과 유사한 아바타를 생성하고, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼에 제공할 수 있고, 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠를 수행함에 있어서, 사용자가 존재하는 공간을 콘텐츠 내의 환경의 습도로 제어하여 실감효과를 얻을 수 있는 시스템에 대한 개발 필요성이 대두되고 있다.Accordingly, there is an emerging need to develop a system that can create an avatar similar to the user's appearance and physical characteristics, provide information about the avatar to an external metaverse platform, and control the space in which the user exists with the humidity of the environment within the content to achieve a realistic effect when performing content provided by the external metaverse platform.
본 발명은 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것으로서, VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하고, 이를 바탕으로 가상현실 속에서 아바타를 생성할 수 있고, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼에 제공하고, 사용자가 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠를 수행하면, 상기 콘텐츠 내의 환경의 습도를 콘텐츠습도로 도출하고, 상기 사용자가 존재하는 공간인 현실공간의 현실습도를 상기 콘텐츠습도를 기초로 제어하는, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by an avatar created by generating the humidity, wherein the system receives the user's biometric information, activity information, and medical information through a VR device, and creates an avatar in virtual reality based on the biometric information, activity information, and medical information, and provides information about the avatar to an external metaverse platform, and when the user performs content provided by the external metaverse platform, the humidity of the environment in the content is derived as the content humidity, and the real humidity of the real space in which the user exists is controlled based on the content humidity. The present invention relates to a system and method for a realistic effect in which the humidity of a space in which a user exists is controlled by the humidity of an environment in which a content is performed by a generated avatar.
상기와 같은 과제를 해결하기 위하여, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템으로서, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치; 사용자가 존재하는 현실환경의 습도를 측정하고 제어하는 습도조절장치; 상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부; 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및 기계학습된 추론모델을 포함하고, 상기 기계학습된 추론모델 및 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠의 콘텐츠영상에 기초하여 상기 콘텐츠영상 내 콘텐츠환경의 콘텐츠습도를 도출하고, 상기 콘텐츠습도에 기초하여 상기 습도조절장치를 제어하여 상기 사용자가 존재하는 현실환경의 현실습도를 제어하는 습도제어부;를 포함하고, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부; 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신부; 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부; 상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부; 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부;를 포함하고, 상기 생체정보는, 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함하는, 실감 효과를 위한 시스템을 제공한다.In order to solve the above-mentioned problem, a system for a realistic effect that controls the humidity of a content environment in which a user exists by creating an avatar, the system comprising: a VR device including: an HMD that is worn by a user and provides images and sounds of virtual reality and detects the user's voice; a camera device that photographs the user's appearance to derive image information of the user; an electroencephalograph that is attached to the user's head and can measure brain waves of the user; a pulse meter that is attached to the user's wrist and can measure the user's pulse; and a motion sensing device that measures the user's movements; a humidity control device that measures and controls the humidity of a real environment in which the user exists; a VR service unit that performs communication with a VR device worn by the user, provides information about virtual reality to the VR device, and creates an avatar for the user to provide a plurality of virtual reality contents to the user; an avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information on an interaction that the user has made using the avatar on the external metaverse platform, and performs an update on the avatar; And a humidity control unit including a machine-learned inference model, and deriving content humidity of a content environment in the content image based on the machine-learned inference model and the content image of the content provided by the external metaverse platform, and controlling the humidity control device based on the content humidity to control the real humidity of the real environment in which the user exists; and the VR service unit includes a virtual reality implementation unit that implements a virtual reality that only the user can use and in which the plurality of virtual reality contents are provided; a VR communication unit that communicates with the VR device to exchange information; a user information input unit that receives user information including the user's biometric information received from the VR device; and activity information and medical information received from the user's smartphone; an avatar creation unit that creates an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementation unit; and a VR content provision unit that provides the plurality of contents to the avatar created in the virtual reality and can update the appearance of the avatar whenever this is performed; and the biometric information includes image information input through the camera device; brainwave information of the user measured by the brainwave measuring device; And the system for realistic effect is provided, including the user's pulse information measured by the pulse meter.
본 발명의 일 실시예에서는, 상기 추론모델은, 입력된 상기 콘텐츠영상에서 기설정된 규칙으로 복수의 프레임을 추출하고, 상기 복수의 프레임 각각에서 해당 프레임의 콘텐츠습도를 도출할 수 있다.In one embodiment of the present invention, the inference model can extract a plurality of frames from the input content image according to a preset rule, and derive the content humidity of each frame from each of the plurality of frames.
본 발명의 일 실시예에서는, 상기 습도제어부는, 제1습도제어부를 포함하고, 상기 제1습도제어부는, 외부의 메타버스플랫폼에서 상기 콘텐츠영상을 수신하는 제1콘텐츠영상수신단계; 상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하는 제1콘텐츠습도도출단계; 상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치로부터 수신하는 제1현실습도수신단계; 및 상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 상기 습도조절장치를 제어하는 제1현실습도제어단계;를 수행할 수 있다.In one embodiment of the present invention, the humidity control unit includes a first humidity control unit, and the first humidity control unit can perform a first content image receiving step of receiving the content image from an external metaverse platform; a first content humidity derivation step of inputting the content image into the machine-learned inference model to derive a plurality of content humidity and deriving an average value of the plurality of content humidity as the first content humidity; a first reality humidity receiving step of receiving a reality humidity measured in a real environment in which the user exists from the humidity control device; and a first reality humidity control step of controlling the humidity control device so that the reality humidity reaches the first content humidity.
본 발명의 일 실시예에서는, 상기 제1현실습도제어단계는, 특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제1콘텐츠습도에 도달하기 위한 상기 습도조절장치의 작동을 중지할 수 있다.In one embodiment of the present invention, when performing content that moves from a specific location to another location, the first reality humidity control step may stop the operation of the humidity control device for reaching the first content humidity of the specific location when the content progress rate at the specific location reaches a preset progress rate.
본 발명의 일 실시예에서는, 상기 습도제어부는, 제2습도제어부를 포함하고, 상기 제2습도제어부는, 외부의 메타버스플랫폼에서 상기 콘텐츠영상을 수신하는 제2콘텐츠영상수신단계; 상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도 중 최고 습도를 제2콘텐츠습도 및 최저 습도를 제3콘텐츠습도로 도출하는 제2콘텐츠습도도출단계; 상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치로부터 수신하는 제2현실습도수신단계; 및 상기 현실습도가 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지되도록 상기 습도조절장치를 제어하는 제2현실습도제어단계;를 수행할 수 있다.In one embodiment of the present invention, the humidity control unit includes a second humidity control unit, and the second humidity control unit can perform a second content image receiving step of receiving the content image from an external metaverse platform; a second content humidity deriving step of inputting the content image into the machine-learned inference model to derive a plurality of content humidity, and deriving the highest humidity as the second content humidity and the lowest humidity as the third content humidity among the plurality of content humidity; a second reality humidity receiving step of receiving the reality humidity measured in the real environment in which the user exists from the humidity control device; and a second reality humidity control step of controlling the humidity control device so that the reality humidity is maintained between the second content humidity and the third content humidity.
본 발명의 일 실시예에서는, 상기 제2현실습도제어단계는, 특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지하기 위한 상기 습도조절장치의 작동을 중지할 수 있다.In one embodiment of the present invention, when performing content that moves from a specific location to another location, the second reality humidity control step may stop the operation of the humidity control device to maintain the humidity of the specific location between the second content humidity and the third content humidity when the content progress rate at the specific location reaches a preset progress rate.
본 발명의 일 실시예에서는, 상기 아바타업데이트부는, 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계; 상기 외부의 메타버스플랫폼에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계; 및 상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계;를 수행할 수 있다.In one embodiment of the present invention, the avatar update unit may perform an avatar information providing step of providing information about the avatar to an external metaverse platform; an interaction information receiving step of receiving interaction information corresponding to the avatar from the external metaverse platform; and an avatar update step of extracting information related to the avatar from the interaction information and updating the avatar based on the information related to the avatar.
본 발명의 일 실시예에서는, 상기 아바타생성부는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부; 상기 생체정보를 1 이상의 인공신경망 모델에 입력하여 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부; 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부; 및 해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부;를 포함할 수 있다.In one embodiment of the present invention, the avatar generation unit may include a basic appearance determination unit that derives appearance feature information from each of a plurality of the image information, derives a character determination parameter in the form of a one-dimensional vector by averaging the derived plurality of appearance feature information, and determines a basic appearance of the avatar based on the character determination parameter; an aging information determination unit that inputs the biometric information into one or more artificial neural network models to determine aging information of the avatar, and adds a first graphic effect corresponding to the aging information to the basic appearance; a movement speed determination unit that determines the movement speed of the avatar in a manner that the movement speed increases as the movement distance or the number of steps increases based on a movement distance or the number of steps derived from a smartphone of the user for a preset period of time; and a disease information determination unit that determines disease information of the avatar based on medical information including one or more medical histories input by the user, and adds a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect has been added.
본 발명의 일 실시예에서는, 상기 VR콘텐츠제공부는, 해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부; 해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부; 해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부; 상기 제1콘텐츠제공부, 상기 제2콘텐츠제공부, 및 상기 제3콘텐츠제공부에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절부; 상기 노화정보조절부에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부;를 포함할 수 있다.In one embodiment of the present invention, the VR content providing unit may include: a first content providing unit, which provides content whose difficulty is determined based on the aging information of the corresponding user and which enables the user to perform cognitive ability and concentration enhancement training; a second content providing unit, which provides content whose difficulty is determined based on the activity information of the corresponding user and which enables the user to perform physical activity enhancement training; a third content providing unit, which provides content whose type is determined based on the disease information of the corresponding user and which enables the user to perform training for a body part requiring rehabilitation training or cognitive ability; an aging information controlling unit, which calculates one or more scores based on performance results according to performance of content provided by the first content providing unit, the second content providing unit, and the third content providing unit, brainwave information measured by the brainwave measuring device during the performance period of the content, and pulse information measured by the pulse measuring device, and adjusts the aging information according to the one or more scores; and an avatar appearance updating unit, which updates the appearance of the avatar of the corresponding user by adjusting the first graphic effect according to the aging information adjusted by the aging information controlling unit.
상기와 같은 과제를 해결하기 위하여, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템에서 구현되는 실감 효과를 위한 방법으로서, 상기 시스템은, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치; 사용자가 존재하는 현실환경의 습도를 측정하고 제어하는 습도조절장치; 상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부; 외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및 기계학습된 추론모델을 포함하고, 상기 기계학습된 추론모델 및 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠의 콘텐츠영상에 기초하여 상기 콘텐츠영상 내 콘텐츠환경의 콘텐츠습도를 도출하고, 상기 콘텐츠습도에 기초하여 상기 사용자가 존재하는 현실환경의 현실습도를 제어하는 습도제어부;를 포함하고, 상기 방법은, 상기 VR서비스부에 의하여, 상기 사용자만 이용 가능하고, 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현단계; 상기 VR서비스부에 의하여, 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신단계; 상기 VR서비스부에 의하여, 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력단계; 상기 VR서비스부에 의하여, 상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성단계; 및 상기 VR서비스부에 의하여, 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공단계;를 포함하고, 상기 생체정보는, 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함하는, 실감 효과를 위한 방법을 제공한다.In order to solve the above-mentioned problem, a method for a realistic effect implemented in a system for a realistic effect in which humidity of a content environment is controlled by the humidity of a space in which a user exists, which is created by an avatar, is provided, the system comprising: a VR device including an HMD which is worn by a user and provides images and sounds of virtual reality and detects the user's voice; a camera device which photographs the user's appearance and derives image information of the user; an electroencephalograph which is attached to the user's head and can measure brain waves of the user; a pulse meter which is attached to the user's wrist and can measure the user's pulse; and a motion sensing device which measures the user's movements; a humidity control device which measures and controls the humidity of a real environment in which the user exists; a VR service unit which performs communication with the VR device worn by the user, provides information on virtual reality to the VR device, and generates an avatar of the user to provide a plurality of virtual reality contents to the user; an avatar update unit which provides information on the avatar to an external metaverse platform, receives interaction information on an interaction in which the user interacts using the avatar on the external metaverse platform, and performs an update on the avatar; And a humidity control unit including a machine-learned inference model, and deriving content humidity of a content environment in the content image based on the machine-learned inference model and the content image of the content provided by the external metaverse platform, and controlling the real humidity of the real environment in which the user exists based on the content humidity; the method comprises: a virtual reality implementation step of implementing a virtual reality in which only the user can use and a plurality of virtual reality contents are provided by the VR service unit; a VR communication step of communicating with the VR device and exchanging information by the VR service unit; a user information input step of receiving, by the VR service unit, user information including the user's biometric information received from the VR device; and activity information and medical information received from the user's smartphone; an avatar creation step of creating, by the VR service unit, an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementation unit; And a VR content providing step for providing the plurality of contents to an avatar created in the virtual reality by the VR service unit, and updating the appearance of the avatar each time the same is performed; Including; The method for a realistic effect is provided, wherein the biometric information includes: image information input through the camera device; brainwave information of the user measured by the brainwave measuring device; and pulse information of the user measured by the pulse measuring device.
도 1은 본 발명의 일 실시예에 따른 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템의 구성을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 VR서비스부의 구성을 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 가상현실을 이용하는 사용자가 착용하는 VR장치 및 그 구성을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 사용자의 아바타 생성을 위한 복수의 외형특징정보를 도출하는 과정을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 아바타생성부의 동작을 개략적으로 도시한다.
도 6은 본 발명의 일 실시예에 따른 노화정보결정부의 세부구성을 개략적으로 도시한다.
도 7은 본 발명의 일 실시예에 따른 사용자의 아바타 및 아바타의 능력치를 개략적으로 도시한다.
도 8은 본 발명의 일 실시예에 따른 VR콘텐츠제공부의 구성을 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 VR콘텐츠부에서의 수행단계를 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 노화정보감소단계를 개략적으로 도시한다.
도 11은 본 발명의 일 실시예에 따른 아바타의 외형이 변경되는 프로세스를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 제1콘텐츠의 실행화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 집중도스코어 및 활동량스코어가 제1기준값 미만인 경우의 사용자에게 보여지는 가상현실 인터페이스를 개략적으로 도시한다.
도 14는 본 발명의 일 실시예에 따른 아바타업데이트부에서의 수행단계를 개략적으로 도시한다.
도 15는 본 발명의 일 실시예에 따른 인터랙션정보에 대해 개략적으로 도시한다.
도 16은 본 발명의 일 실시예에 따른 노화정보에 기초한 아바타업데이트단계를 개략적으로 도시한다.
도 17은 본 발명의 일 실시예에 따른 이동속도에 기초한 아바타업데이트단계를 개략적으로 도시한다.
도 18은 본 발명의 일 실시예에 따른 습도제어부 및 습도조절장치를 개략적으로 도시한다.
도 19은 본 발명의 일 실시예에 따른 기계학습된 추론모델의 콘텐츠습도를 도출을 개략적으로 도시한다.
도 20은 본 발명의 일 실시예에 따른 제1습도제어부가 수행하는 단계를 개략적으로 도시한다.
도 21은 본 발명의 일 실시예에 따른 제2습도제어부가 수행하는 단계를 개략적으로 도시한다.
도 22은 본 발명의 일 실시예에 따른 콘텐츠 내에서 장소를 이동하는 경우에 습도제어 방법을 개략적으로 도시한다.
도 23는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.FIG. 1 schematically illustrates the configuration of a system for creating an avatar and providing multiple contents in virtual reality according to one embodiment of the present invention.
Figure 2 schematically illustrates the configuration of a VR service unit according to one embodiment of the present invention.
FIG. 3 schematically illustrates a VR device worn by a user using virtual reality and its configuration according to one embodiment of the present invention.
FIG. 4 schematically illustrates a process of deriving multiple external feature information for creating a user's avatar according to one embodiment of the present invention.
Figure 5 schematically illustrates the operation of an avatar generation unit according to one embodiment of the present invention.
Figure 6 schematically illustrates a detailed configuration of an aging information determination unit according to one embodiment of the present invention.
Figure 7 schematically illustrates a user's avatar and the avatar's abilities according to one embodiment of the present invention.
Figure 8 schematically illustrates the configuration of a VR content providing unit according to one embodiment of the present invention.
Figure 9 schematically illustrates the execution steps in the VR content section according to one embodiment of the present invention.
Figure 10 schematically illustrates an aging information reduction step according to one embodiment of the present invention.
Figure 11 schematically illustrates a process for changing the appearance of an avatar according to one embodiment of the present invention.
Figure 12 schematically illustrates an execution screen of the first content according to one embodiment of the present invention.
FIG. 13 schematically illustrates a virtual reality interface shown to a user when the concentration score and activity score are below a first reference value according to one embodiment of the present invention.
Figure 14 schematically illustrates the execution steps in an avatar update unit according to one embodiment of the present invention.
Figure 15 schematically illustrates interaction information according to one embodiment of the present invention.
Figure 16 schematically illustrates an avatar update step based on aging information according to one embodiment of the present invention.
Figure 17 schematically illustrates an avatar update step based on movement speed according to one embodiment of the present invention.
Figure 18 schematically illustrates a humidity control unit and a humidity control device according to one embodiment of the present invention.
Figure 19 schematically illustrates derivation of content humidity of a machine-learned inference model according to one embodiment of the present invention.
Figure 20 schematically illustrates steps performed by a first humidity control unit according to one embodiment of the present invention.
Figure 21 schematically illustrates steps performed by a second humidity control unit according to one embodiment of the present invention.
FIG. 22 schematically illustrates a humidity control method when moving a location within content according to one embodiment of the present invention.
FIG. 23 exemplarily illustrates the internal configuration of a computing device according to one embodiment of the present invention.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.Hereinafter, various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of one or more of the aspects. It will be recognized, however, by one skilled in the art that such aspect(s) may be practiced without these specific details. The following description and the annexed drawings set forth specific exemplary aspects of one or more of the aspects in detail. It should be understood, however, that these aspects are exemplary and that any of the various methods of the principles of the various aspects may be utilized, and the description is intended to encompass all such aspects and their equivalents.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.Additionally, various aspects and features will be presented by means of systems that may include a number of devices, components, and/or modules, etc. It is also to be understood and appreciated that various systems may include additional devices, components, and/or modules, etc., and/or may not include all of the devices, components, modules, etc. discussed in connection with the drawings.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.The terms "embodiment," "example," "aspect," and "example" as used herein are not to be construed as implying that any aspect or design described is better or advantageous over other aspects or designs. The terms "part," "component," "module," "system," and "interface," as used below, generally refer to computer-related entities, and can refer to, for example, hardware, a combination of hardware and software, or software.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.Additionally, it should be understood that the terms "comprises" and/or "comprising" imply the presence of the features and/or components, but do not preclude the presence or addition of one or more other features, components and/or groups thereof.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Also, terms including ordinal numbers such as first, second, etc. may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and/or includes a combination of a plurality of related described items or any item among a plurality of related described items.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning they have in the context of the relevant technology, and shall not be interpreted in an ideal or overly formal meaning unless explicitly defined in the embodiments of the present invention.
본원 발명의 소셜서버에서 수행되는 가상현실 재활시스템은 사용자의 외형 및 상태를 모사한 아바타를 생성하고, 사용자는 아바타를 조종하여 복수의 콘텐츠를 수행하는 형태로 구현될 수 있다. 이하에서는 이를 위한 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템에 대해 설명한다. The virtual reality rehabilitation system performed in the social server of the present invention can be implemented in a form in which an avatar is created that mimics the user's appearance and status, and the user controls the avatar to perform multiple contents. Hereinafter, a system for creating an avatar in virtual reality and providing multiple contents will be described.
1. 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템1. A system that creates avatars in virtual reality and provides multiple contents.
도 1은 본 발명의 일 실시예에 따른 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템의 구성을 개략적으로 도시한다.FIG. 1 schematically illustrates the configuration of a system for creating an avatar and providing multiple contents in virtual reality according to one embodiment of the present invention.
도 1에 도시된 바와 같이, 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템으로서, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 상기 사용자의 움직임을 측정하는 동작센싱장치; 및 상기 사용자의 안구운동을 감지하는 아이트래커;를 포함하는 VR장치(1000); 및 상기 사용자가 착용하는 VR장치(1000)와 통신을 수행하고, 상기 VR장치(1000)로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;를 포함하고, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부(2100); 상기 VR장치(1000)와 통신을 수행하여 정보를 주고받는 VR통신부(2200); 상기 VR장치(1000)로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부(2300); 상기 가상현실구현부(2100)에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부(2400); 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부(2500);를 포함하고, 상기 생체정보는, 상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 상기 맥박측정기로 측정한 상기 사용자의 맥박정보; 및 상기 아이트래커로 측정한 상기 사용자의 아이트래킹정보;를 포함한다.As illustrated in FIG. 1, a system for creating an avatar in virtual reality and providing a plurality of contents includes: a VR device (1000) including: an HMD that is worn by a user and provides images and sounds of virtual reality and detects the user's voice; a camera device that photographs the user's appearance to derive image information of the user; an electroencephalograph that is attached to the user's head and can measure brain waves of the user; a pulse meter that is attached to the user's wrist and can measure the user's pulse; a motion sensing device that measures the user's movement; and an eye tracker that detects the user's eye movement; and a VR service unit that performs communication with the VR device (1000) worn by the user, provides information about virtual reality to the VR device (1000), and creates an avatar of the user and provides a plurality of virtual reality contents to the user; wherein the VR service unit comprises: a virtual reality implementation unit (2100) that implements a virtual reality that only the user can use and in which the plurality of virtual reality contents are provided; a VR communication unit (2200) that communicates with the VR device (1000) to exchange information; A user information input unit (2300) for receiving user information including the user's biometric information received from the VR device (1000); and activity information and medical information received from the user's smartphone; an avatar generation unit (2400) for generating an avatar of the user based on the user information in a virtual reality implemented by the virtual reality implementation unit (2100); and a VR content provision unit (2500) for providing the plurality of contents to the avatar generated in the virtual reality and updating the appearance of the avatar whenever the same is performed; wherein the biometric information includes image information input through the camera device; the user's brainwave information measured by the brainwave measuring device; the user's pulse information measured by the pulse measuring device; and the user's eye tracking information measured by the eye tracker.
개략적으로, 상기 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템은, 상기 VR장치(1000) 및 상기 VR서비스부를 포함하며, 상기 VR서비스부는 컴퓨팅시스템(10000)에 포함된다. In brief, the system for creating an avatar and providing multiple contents in the virtual reality includes the VR device (1000) and the VR service unit, and the VR service unit is included in the computing system (10000).
구체적으로, 상기 VR장치(1000)는 사용자에게 장착되거나 상기 사용자의 외형을 촬영함으로써, 상기 VR서비스부에서 생성되는 아바타의 외형 및 능력치를 결정할 수 있는 정보를 센싱하는 1 이상의 구성요소를 포함하며, 상기 구성요소로는 상술한 바와 같이, 상기 HMD(Head Mounted Display), 상기 카메라장치, 상기 뇌파측정기, 상기 맥박측정기; 상기 동작센싱장치 및 상기 아이트래커;를 포함한다. 또한, 상기 VR장치(1000)는, 상기 VR장치(1000)의 각 구성을 통해 센싱한 상기 이미지정보, 상기 뇌파정보, 상기 맥박정보, 및 상기 아이트래킹정보를 포함하는 상기 사용자의 생체정보를 상기 VR서비스부로 전달할 수 있다. 상기 VR장치(1000)에 대한 보다 상세한 설명은 도 3에서 후술하도록 한다.Specifically, the VR device (1000) includes one or more components that sense information that can determine the appearance and ability of an avatar created in the VR service unit by being worn by a user or by photographing the appearance of the user, and the components include, as described above, the HMD (Head Mounted Display), the camera device, the EEG measuring device, the pulse measuring device, the motion sensing device, and the eye tracker. In addition, the VR device (1000) can transmit the user's biometric information, including the image information, the EEG information, the pulse information, and the eye tracking information sensed through each component of the VR device (1000), to the VR service unit. A more detailed description of the VR device (1000) will be described later with reference to FIG. 3.
상기 VR장치(1000)를 통해 센싱된 상기 생체정보는 상기 컴퓨팅시스템(10000)으로 전송된다. 상기 컴퓨팅시스템(10000)의 상기 VR서비스부는, 가상현실을 구현하고, 상기 생체정보에 기초하여 상기 가상현실 내에 상기 사용자의 아바타를 생성하며, 상기 사용자가 상기 아바타를 통해 복수의 콘텐츠를 제공한다. The biometric information sensed through the VR device (1000) is transmitted to the computing system (10000). The VR service unit of the computing system (10000) implements virtual reality, creates an avatar of the user within the virtual reality based on the biometric information, and provides the user with multiple contents through the avatar.
한편, 본 발명의 일 실시예로서 상기 컴퓨팅시스템(10000)은, 도 1에 도시된 바와 같이, 소셜서버(3000)와 통신할 수 있고, 상기 사용자는 상기 VR서비스부에서 생성한 아바타를 통해 상기 소셜서버(3000) 내에서 1 이상의 다른 사용자와 커뮤니케이션 할 수 있다. 또한, 본 발명의 다른 실시예로서, 상기 컴퓨팅시스템(10000)은 VR서비스부에서 제공하는 서비스 외에 다른 콘텐츠를 제공하는 추가콘텐츠부(4000)를 포함할 수 있으며, 바람직하게는, 상기 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템은 상기 소셜서버(3000) 및 상기 추가콘텐츠부(4000)를 동시에 포함할 수 있다.Meanwhile, as an embodiment of the present invention, the computing system (10000) can communicate with a social server (3000), as illustrated in FIG. 1, and the user can communicate with one or more other users within the social server (3000) through an avatar created in the VR service unit. In addition, as another embodiment of the present invention, the computing system (10000) can include an additional content unit (4000) that provides other content in addition to the service provided by the VR service unit, and preferably, the system for creating an avatar in the virtual reality and providing a plurality of contents can include the social server (3000) and the additional content unit (4000) at the same time.
도 2는 본 발명의 일 실시예에 따른 VR서비스부의 구성을 개략적으로 도시한다.Figure 2 schematically illustrates the configuration of a VR service unit according to one embodiment of the present invention.
도 2에 도시된 바와 같이, 상기 VR서비스부는, 상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부(2100); 상기 VR장치(1000)와 통신을 수행하여 정보를 주고받는 VR통신부(2200); 상기 VR장치(1000)로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부(2300); 상기 가상현실구현부(2100)에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부(2400); 및 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부(2500);를 포함한다.As illustrated in FIG. 2, the VR service unit includes a virtual reality implementation unit (2100) that implements a virtual reality that is available only to the user and in which the plurality of virtual reality contents are provided; a VR communication unit (2200) that communicates with the VR device (1000) to exchange information; a user information input unit (2300) that receives user information including the user's biometric information received from the VR device (1000); and activity information and medical information received from the user's smartphone; an avatar creation unit (2400) that creates an avatar of the user based on the user information in the virtual reality implemented by the virtual reality implementation unit (2100); and a VR content provision unit (2500) that provides the plurality of contents to the avatar created in the virtual reality and can update the appearance of the avatar whenever this is performed.
구체적으로, 상기 가상현실구현부(2100)는, 상기 컴퓨팅시스템(10000) 내에 가상현실을 구현하고, 상기 가상현실에 대한 정보를 상기 VR통신부(2200)를 통해 상기 사용자에게 전달할 수 있다. 상기 가상현실에 대한 정보는 가상현실의 인터페이스 및 디스플레이와 같은 시각적인 요소; 및 효과음 등의 청각적인 요소;를 포함하고, 상기 시청각적 요소는 상기 VR장치(1000)의 HMD를 통해 상기 사용자에게 전달될 수 있다.Specifically, the virtual reality implementation unit (2100) can implement virtual reality within the computing system (10000) and transmit information about the virtual reality to the user through the VR communication unit (2200). The information about the virtual reality includes visual elements such as the interface and display of the virtual reality; and auditory elements such as sound effects; and the audiovisual elements can be transmitted to the user through the HMD of the VR device (1000).
전술한 바와 같이, 상기 VR통신부(2200)는 상기 가상현실구현부(2100)에서 구현한 가상현실에 대한 정보를 상기 사용자에게 전달하고, 상기 VR장치(1000)에서 센싱된 동작정보 및 상기 생체정보를 상기 컴퓨팅시스템(10000)으로 전달받는다. 상기 동작정보 및 상기 생체정보는 상기 가상현실 내에서 상기 사용자의 아바타를 생성하거나, 복수의 콘텐츠를 수행하는데 사용된다. As described above, the VR communication unit (2200) transmits information about the virtual reality implemented by the virtual reality implementation unit (2100) to the user, and receives motion information and biometric information sensed by the VR device (1000) to the computing system (10000). The motion information and biometric information are used to create the user's avatar or perform multiple contents within the virtual reality.
상기 VR장치(1000)를 통해 전달받은 상기 생체정보는 상기 사용자정보입력부(2300)의 생체정보수신부(2310)로 전달된다. 한편, 상기 사용자정보입력부(2300)는, 도 2에 도시된 바와 같이, 상기 생체정보수신부(2310) 외에 활동정보수신부(2320) 및 의료정보수신부(2330)를 더 포함한다. 상기 활동정보수신부(2320) 및 상기 의료정보수신부(2330) 각각은, 상기 사용자의 스마트폰으로부터 상기 사용자의 활동정보 및 상기 사용자의 의료정보를 각각 수신한다.The biometric information received through the VR device (1000) is transmitted to the biometric information receiving unit (2310) of the user information input unit (2300). Meanwhile, the user information input unit (2300), as illustrated in Fig. 2, further includes an activity information receiving unit (2320) and a medical information receiving unit (2330) in addition to the biometric information receiving unit (2310). The activity information receiving unit (2320) and the medical information receiving unit (2330) each receive the user's activity information and the user's medical information from the user's smartphone, respectively.
상기 활동정보는 상기 사용자의 스마트폰에 기록되는 기설정된 주기로 기록되는 운동기록, 기설정된 주기로 기록되는 생활정보 등에 해당되며, 예를 들어, 하루 동안의 걸음 수, 하루 동안의 걸음걸이, 하루 동안 마신 물의 양 및 횟수, 취침시간 및 기상시간 등을 포함한다. 본 발명의 일 실시예에 따르면, 상기 활동정보는 상기 활동정보를 기록할 수 있는 웨어러블디바이스(wearable device)를 통해 수신될 수 있다. 또한, 상기 의료정보는, 해당 사용자가 입력한 1 이상의 병력에 대한 정보를 포함하며, 본 발명의 일 실시예로서, 의료기관에서 제공하는 의료기록을 이용하여 생성될 수 있다. The above activity information corresponds to exercise records recorded at preset intervals in the user's smartphone, lifestyle information recorded at preset intervals, etc., and includes, for example, the number of steps per day, the number of steps per day, the amount and number of times of water drunk per day, bedtime and wake-up time, etc. According to one embodiment of the present invention, the activity information can be received through a wearable device capable of recording the activity information. In addition, the medical information includes information on one or more medical records input by the user, and as one embodiment of the present invention, can be generated using a medical record provided by a medical institution.
상기 VR장치(1000)의 카메라장치를 통해 상기 사용자의 얼굴이미지 및 체형이미지를 촬영하여 생성한 복수의 이미지정보는 상기 VR통신부(2200)를 통해 상기 생체정보수신부(2310)로 수신되고, 상기 아바타생성부(2400)는 상기 복수의 이미지정보에 기초하여 상기 사용자의 아바타를 상기 가상현실 내에 생성한다. A plurality of image information created by capturing the user's face image and body image through the camera device of the VR device (1000) is received by the biometric information receiving unit (2310) through the VR communication unit (2200), and the avatar generating unit (2400) creates the user's avatar in the virtual reality based on the plurality of image information.
상기 아바타생성부(2400)는, 상기 아바타의 기본외형을 결정하는 기본외형결정부(2410), 복수의 이미지정보에 기초하여 상기 사용자의 노화정보를 결정하고 아바타의 외형 일부를 변경하는 노화정보결정부(2420); 상기 사용자의 활동정보에 기초하여 상기 아바타의 이동속도를 결정하는 이동속도결정부(2430); 및 상기 의료정보에 기초하여 상기 아바타의 외형 일부를 변경하는 질환정보결정부(2440);를 포함한다. 즉, 상기 아바타생성부(2400)는, 상기 사용자의 생체정보, 활동정보, 및 의료정보에 기초하여 상기 아바타의 외형 및 능력치를 설정하고, 상기 가상현실 내에 상기 아바타를 구현한다.The above avatar generation unit (2400) includes a basic appearance determination unit (2410) that determines the basic appearance of the avatar, an aging information determination unit (2420) that determines aging information of the user based on a plurality of image information and changes a part of the appearance of the avatar, a movement speed determination unit (2430) that determines the movement speed of the avatar based on the activity information of the user, and a disease information determination unit (2440) that changes a part of the appearance of the avatar based on the medical information. That is, the avatar generation unit (2400) sets the appearance and ability values of the avatar based on the user's biometric information, activity information, and medical information, and implements the avatar in the virtual reality.
상기 VR콘텐츠제공부(2500)는, 상기 가상현실 내에서 상기 아바타에게 복수의 콘텐츠를 제공한다. 상기 복수의 콘텐츠는, 해당 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠; 해당 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠; 및 해당 사용자에게 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠;를 포함한다. 상기 VR콘텐츠제공부(2500)에 대한 보다 상세한 설명은 후술하도록 한다. The above VR content provider (2500) provides a plurality of contents to the avatar within the virtual reality. The plurality of contents include: contents capable of performing cognitive ability and concentration enhancement training for the corresponding user; contents capable of performing physical activity enhancement training for the corresponding user; and contents capable of performing training for a body part or cognitive ability requiring rehabilitation training for the corresponding user. A more detailed description of the VR content provider (2500) will be described later.
도 3은 본 발명의 일 실시예에 따른 가상현실을 이용하는 사용자가 착용하는 VR장치(1000) 및 그 구성을 개략적으로 도시한다.FIG. 3 schematically illustrates a VR device (1000) worn by a user using virtual reality according to one embodiment of the present invention and its configuration.
개략적으로, 도 3의 (a)는, 상기 사용자가 상기 VR장치(1000)를 착용한 일 실시예를 도시하고, 도 3의 (b)는, 상기 사용자의 머리부분에 장착되는 상기 HMD(1100) 및 상기 뇌파측정기(1300)의 구성을 도시하고, 도 3의 (c)는 상기 VR장치(1000)의 구성을 도시한다.Schematically, (a) of FIG. 3 illustrates an example in which the user wears the VR device (1000), (b) of FIG. 3 illustrates the configuration of the HMD (1100) and the EEG measuring device (1300) mounted on the head of the user, and (c) of FIG. 3 illustrates the configuration of the VR device (1000).
도 3에 도시된 바와 같이, 상기 VR장치(1000)는, 사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD(1100); 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치(1200); 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기(1300); 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기(1400); 상기 사용자의 움직임을 측정하는 동작센싱장치(1500); 및 상기 사용자의 안구운동을 감지하는 아이트래커(1600);를 포함한다.As illustrated in FIG. 3, the VR device (1000) includes an HMD (1100) that is worn by a user to provide images and sounds of virtual reality and detect the user's voice; a camera device (1200) that photographs the user's appearance and derives image information of the user; an electroencephalograph (1300) that is attached to the user's head and can measure the user's brain waves; a pulse meter (1400) that is attached to the user's wrist and can measure the user's pulse; a motion sensing device (1500) that measures the user's movements; and an eye tracker (1600) that detects the user's eye movements.
구체적으로, 도 3의 (a)는 상기 사용자가 상기 VR장치(1000)를 착용한 일 실시예에 해당하며, 상기 카메라장치(1200)는 별도로 도시하지 않는다. 상기 사용자는, 도 3의 (a)에 도시된 VR장치(1000)를 상기 사용자가 장착하기 전에, 상기 카메라장치(1200)를 통하여 상기 사용자의 얼굴이미지 및 체형이미지를 촬영하는 것이 바람직하며, 상기 카메라장치(1200)는 상기 생체정보수신부(2310)로 상기 얼굴이미지 및 상기 체형이미지를 전달할 수 있다.Specifically, (a) of FIG. 3 corresponds to an embodiment in which the user wears the VR device (1000), and the camera device (1200) is not illustrated separately. It is preferable for the user to capture a face image and a body image of the user through the camera device (1200) before the user wears the VR device (1000) illustrated in (a) of FIG. 3, and the camera device (1200) can transmit the face image and the body image to the biometric information receiving unit (2310).
도 3의 (a)에 도시된 바와 같이, 상기 맥박측정기(1400)는 상기 사용자의 손목에 부착되어 상기 사용자의 맥박을 측정할 수 있다. 즉, 상기 맥박측정기(1400)는 상기 생체정보 중 하나인 사용자의 맥박을 측정할 수 있고, 이와 같이 측정된 상기 사용자의 맥박은 상기 VR서비스부에 입력되어, 상기 사용자의 상태를 분석하거나 상기 사용자의 심리를 파악하여 상기 사용자가 콘텐츠를 원활하게 수행할 수 있는 용도로 사용되거나, 가상현실에서 제공되는 콘텐츠를 생성하는데 사용될 수 있다. 추가적으로, 상기 맥박측정기(1400)는 근전도센서를 포함하여, 상기 사용자의 맥박정보 및 상기 사용자의 근전도정보를 센싱하여 상기 VR서비스로 전달할 수 있다. As illustrated in (a) of FIG. 3, the pulse meter (1400) can be attached to the user's wrist to measure the user's pulse. That is, the pulse meter (1400) can measure the user's pulse, which is one of the bio-information, and the user's pulse measured in this manner can be input into the VR service unit and used to analyze the user's condition or understand the user's psychology so that the user can smoothly perform content, or can be used to generate content provided in virtual reality. Additionally, the pulse meter (1400) can include an electromyography sensor to sense the user's pulse information and the user's electromyography information and transmit them to the VR service.
도 3의 (a)에 도시된 바와 같이, 상기 동작센싱장치(1500)는 기설정된 공간에서 상기 사용자의 움직임을 측정함으로써, 상기 기설정된 공간 내에서의 상기 사용자의 동작정보를 측정할 수 있다. 이와 같이 측정된 상기 사용자의 동작정보는 상기 VR서비스부에 입력되어, 상기 VR서비스부에서 제공되는 복수의 콘텐츠를 결정하는데 기초가 되거나, 상기 사용자가 상기 복수의 콘텐츠를 체험하는데 사용될 수 있다.As shown in (a) of Fig. 3, the motion sensing device (1500) can measure the motion information of the user within the preset space by measuring the movement of the user within the preset space. The motion information of the user measured in this way is input to the VR service unit and can be used as a basis for determining multiple contents provided by the VR service unit or can be used for the user to experience the multiple contents.
상기 동작센싱장치(1500)는, 도 3의 (a)에 도시된 바와 같이, 상기 사용자가 양 손에 각각 소지하여 상기 기설정된 공간에서의 움직임을 센싱할 수 있는 센서모듈을 포함하고, 본 발명의 일 실시예로서, 적외선 센서 혹은 캠코더 등과 같이 상기 사용자의 상기 기설정된 공간 내에서의 움직임을 영상으로 측정할 수 있는 센서모듈을 포함할 수 있다. 한편, 본 발명의 다른 실시예에 따르면, 상기 동작센싱장치(1500)는, 가속도센서, 혹은 자이로센서 등과 같이 사용자의 몸에 부착되는 형태로서, 상기 기설정된 공간 내에서의 상기 사용자의 움직임을 센싱할 수 있다. 바람직하게는, 상기 기설정된 공간은, 상기 동작센싱장치(1500)의 좌표를 측정하는 위치센서모듈이 구비된 공간에 해당한다.The above motion sensing device (1500), as illustrated in (a) of FIG. 3, includes a sensor module that can sense the movement of the user in the preset space by holding it in each of the user's two hands, and as an embodiment of the present invention, may include a sensor module that can measure the movement of the user in the preset space as an image, such as an infrared sensor or a camcorder. Meanwhile, according to another embodiment of the present invention, the motion sensing device (1500) is in a form that is attached to the user's body, such as an acceleration sensor or a gyro sensor, and can sense the movement of the user in the preset space. Preferably, the preset space corresponds to a space in which a position sensor module that measures the coordinates of the motion sensing device (1500) is provided.
도 3의 (b)는 상기 HMD(1100)의 세부구성을 도시한다. 도 3의 (b)에 도시된 바와 같이, 상기 HMD(1100)는 상기 뇌파측정기(1300)와 연결되어 있으며, 상기 뇌파측정기(1300)는 상기 생체정보 중의 하나인 사용자의 뇌파를 특정할 수 있다. 이와 같이 측정된 상기 사용자의 뇌파는 상기 VR서비스부에 입력되어, 상기 사용자의 상태를 분석하거나 상기 사용자의 심리를 파악하여 상기 사용자가 콘텐츠를 원활하게 수행할 수 있는 용도로 사용되거나, 가상현실에서 제공되는 콘텐츠를 생성하는데 사용될 수 있다. Fig. 3 (b) illustrates a detailed configuration of the HMD (1100). As illustrated in Fig. 3 (b), the HMD (1100) is connected to the brainwave measuring device (1300), and the brainwave measuring device (1300) can identify the user's brainwave, which is one of the bio-information. The user's brainwave measured in this manner is input to the VR service unit, and can be used to analyze the user's state or understand the user's psychology so that the user can smoothly perform the content, or can be used to generate the content provided in virtual reality.
상기 HMD(1100)는, 상기 사용자에게 가상현실에 대한 시각적인 요소를 제공하는 시각제공부(1110); 상기 사용자에게 상기 가상현실에 대한 청각적인 요소를 제공하는 청각제공부(1120); 및 상기 사용자의 목소리를 감지하는 마이크부(미도시);를 포함한다. The HMD (1100) includes a visual provision unit (1110) that provides visual elements of the virtual reality to the user; an auditory provision unit (1120) that provides auditory elements of the virtual reality to the user; and a microphone unit (not shown) that detects the user's voice.
본 발명의 일 실시예에 따른 VR장치(1000)는 상기 시각제공부(1110) 및 상기 청각제공부(1120)를 통해 상기 사용자에게 상기 가상현실에 대한 정보를 제공함으로써 상기 사용자가 상기 가상현실의 가상공간에 존재하는 것과 같은 체험을 할 수 있도록 하고, 상기 음성입력부 및 상기 동작센싱장치(1500)를 통해 상기 사용자의 목소리 및 행동을 입력 받아 상기 가상현실에 구현된 상기 사용자의 아바타가 움직이거나 말을 할 수 있도록 할 수 있다.A VR device (1000) according to one embodiment of the present invention provides information about the virtual reality to the user through the visual providing unit (1110) and the auditory providing unit (1120), thereby allowing the user to have an experience similar to existing in the virtual space of the virtual reality, and receives the user's voice and actions through the voice input unit and the motion sensing device (1500), thereby allowing the user's avatar implemented in the virtual reality to move or speak.
상기 시각제공부(1110)는 도 3의 (b)에 도시된 바와 같이, 상기 사용자의 양 쪽 안구에 입체감을 부여할 수 있도록 각각 시각 정보를 제공하고, 추가적으로, 상기 사용자의 안구운동을 감지하는 아이트래커(1600)를 포함한다. 본 발명의 일 실시예에서는 상기 사용자의 안구운동을 감지하여 상기 사용자에 대한 진단에 활용할 수 있다. 또한, 상기 아이트래커(1600)는 상기 시각제공부(1110)가 상기 사용자에게 시각정보를 제공하는데 방해되지 않도록 상기 시각제공부(1110)의 가장자리 측에 위치하는 것이 바람직하다.The above-described visual provision unit (1110) provides visual information to each of the user's eyes to provide a three-dimensional effect, as shown in (b) of FIG. 3, and additionally includes an eye tracker (1600) that detects eye movements of the user. In one embodiment of the present invention, the eye movements of the user can be detected and utilized for diagnosis of the user. In addition, it is preferable that the eye tracker (1600) be located on the edge of the visual provision unit (1110) so as not to interfere with the visual provision unit (1110) from providing visual information to the user.
도 3의 (c)에 도시된 바와 같이, 상기 VR장치(1000)는, 전술한 바와 같이 상기 HMD(1100), 상기 카메라장치(1200), 상기 뇌파측정기(1300), 상기 맥박측정기(1400), 상기 동작센싱장치(1500), 및 상기 아이트래커(1600)를 포함한다. As shown in (c) of FIG. 3, the VR device (1000) includes, as described above, the HMD (1100), the camera device (1200), the electroencephalograph (1300), the pulse meter (1400), the motion sensing device (1500), and the eye tracker (1600).
도 4는 본 발명의 일 실시예에 따른 기본외형결정부(2410)의 동작을 개략적으로 도시한다.Figure 4 schematically illustrates the operation of the basic external shape determination unit (2410) according to one embodiment of the present invention.
도 4에 도시된 바와 같이, 상기 기본외형결정부(2410)는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정한다.As illustrated in FIG. 4, the basic appearance determination unit (2410) derives appearance feature information from each of the plurality of image information, averages the derived plurality of appearance feature information to derive a character determination parameter in the form of a one-dimensional vector, and determines the basic appearance of the avatar based on the character determination parameter.
구체적으로, 상기 VR장치(1000)와 통신하는 상기 VR서비스부는, 상기 아바타생성부(2400)를 포함하고, 상기 아바타생성부(2400)는, 도 2에서 전술한 바와 같이, 상기 기본외형결정부(2410), 상기 노화정보결정부(2420), 상기 이동속도결정부(2430), 및 상기 질환정보결정부(2440)를 포함한다. 도 4에 도시된 바와 같이, 상기 기본외형결정부(2410)는, 상기 VR장치(1000)의 카메라장치(1200)를 통해 입력된 상기 사용자의 이미지정보를 수신하고, 상기 사용자의 이미지정보에 기초하여 얼굴이미지 및 체형이미지를 추출하고, 추출된 상기 얼굴이미지 및 상기 체형이미지로부터 각각의 복수의 외형특징정보를 도출한다. Specifically, the VR service unit communicating with the VR device (1000) includes the avatar generation unit (2400), and the avatar generation unit (2400) includes the basic appearance determination unit (2410), the aging information determination unit (2420), the movement speed determination unit (2430), and the disease information determination unit (2440), as described above with reference to FIG. 2. As illustrated in FIG. 4, the basic appearance determination unit (2410) receives the user's image information input through the camera device (1200) of the VR device (1000), extracts a face image and a body image based on the user's image information, and derives a plurality of pieces of appearance feature information from the extracted face image and the body image, respectively.
상기 이미지정보는 상기 사용자의 감정을 인식할 수 있는 안면의 표정변화를 포함하는 사용자에 대한 동적영상 혹은 일정한 주기로 연속되어 기록한 사용자에 대한 복수의 정적영상일 수 있다. 특히, 상기 이미지정보는 2 이상의 이미지 프레임을 갖는 것을 포함하는 최광의로 해석되어야 할 것이다. 이에 따라, 상기 기본외형결정부(2410)는, 수신한 상기 이미지정보를 복수의 프레임으로 분류하고, 각각의 프레임에서 얼굴이미지 및 체형이미지를 추출한다. 이후, 추출된 얼굴이미지에 기초하여 외형특징정보를 도출할 수 있다. 상기 외형특징정보는 눈의 기울기, 눈썹의 기울기, 입 모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 포함하고, 추가적으로, 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 더 포함한다. The above image information may be a dynamic image of the user including facial expression changes that can recognize the user's emotions, or a plurality of static images of the user continuously recorded at a certain cycle. In particular, the image information should be interpreted in the broadest sense to include having two or more image frames. Accordingly, the basic appearance determination unit (2410) classifies the received image information into a plurality of frames, and extracts a face image and a body image from each frame. Thereafter, appearance feature information can be derived based on the extracted face image. The appearance feature information includes feature information on unique characteristics that can recognize facial expressions, such as the inclination of the eyes, the inclination of the eyebrows, the shape of the mouth, and the inclination of the mouth, and additionally includes the user's skin condition information, hair condition information, and the degree of bone curvature.
한편, 도 4는, 본 발명의 일 실시예로서, 상기 복수의 프레임으로부터 상기 얼굴이미지를 추출하는 과정만을 도시하고, 상기 기본외형결정부(2410)는, 도 4에 도시된 것과 같은 방식으로 상기 복수의 프레임으로부터 상기 체형이미지를 추출할 수 있다. 이 때, 바람직하게는, 상기 VR서비스부는 상기 사용자에게 다양한 자세를 요구함으로써, 상기 사용자의 골격의 상태를 엄밀하게 판단할 수 있다. Meanwhile, Fig. 4, as an embodiment of the present invention, only illustrates the process of extracting the face image from the plurality of frames, and the basic appearance determination unit (2410) can extract the body image from the plurality of frames in the same manner as illustrated in Fig. 4. At this time, preferably, the VR service unit can strictly determine the state of the user's skeleton by requesting various postures from the user.
도 5는 본 발명의 일 실시예에 따른 아바타생성부(2400)의 동작을 개략적으로 도시한다.Figure 5 schematically illustrates the operation of an avatar generation unit (2400) according to one embodiment of the present invention.
도 5에 도시된 바와 같이, 상기 아바타생성부(2400)는, 복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부(2410); 상기 생체정보를 1 이상의 인공신경망 모델에 입력하여 상기 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부(2420); 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 상기 아바타의 이동속도를 결정하는 이동속도결정부(2430); 및 해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부(2440);를 포함하고,As illustrated in FIG. 5, the avatar generation unit (2400) includes a basic appearance determination unit (2410) that derives appearance characteristic information from each of the plurality of image information, derives a character determination parameter in the form of a one-dimensional vector by averaging the derived plurality of appearance characteristic information, and determines a basic appearance of the avatar based on the character determination parameter; an aging information determination unit (2420) that inputs the biometric information into one or more artificial neural network models to determine aging information of the avatar, and adds a first graphic effect corresponding to the aging information to the basic appearance; a movement speed determination unit (2430) that determines the movement speed of the avatar in a manner that the movement speed increases as the movement distance or the number of steps increases based on a movement distance or the number of steps derived from a smartphone of the user for a preset time; and a disease information determination unit (2440) that determines disease information of the avatar based on medical information including one or more medical histories input by the user, and adds a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect has been added.
상기 외형특징정보는 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 포함한다.The above-mentioned external feature information includes the user's skin condition information, hair condition information, and degree of bone curvature.
구체적으로, 상기 기본외형결정부(2410)에서는, 도 4에서 상술한 바와 같이, 상기 사용자의 복수의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터 형태의 캐릭터결정파라미터를 도출할 수 있다. 상기 캐릭터결정파라미터는, 상기 아바타의 기본외형에 대하여 1 이상의 아바타의 외형정보를 설정하는 파라미터로, 예를 들어, 아바타의 키, 골격 혹은 골격의 휘어진 정도, 피부색, 피부상태, 모발의 색깔, 및 모발의 상태 등을 포함하는 파라미터이며, 추가적으로, 전술한 바와 같이, 눈의 기울기, 눈썹의 기울기, 입 모양 및 입의 기울기 등과 같이 얼굴의 표정을 인식할 수 있는 고유특성에 대한 특징정보를 더 포함할 수 있다. 상기 기본외형결정부(2410)는 전술한 바와 같은 캐릭터결정파라미터를 통해 실제 사용자의 얼굴 및 체형과 유사한 아바타의 기본외형을 가상현실 내에 구현할 수 있다. Specifically, the basic appearance determination unit (2410) can derive multiple appearance feature information of the user as described above with reference to FIG. 4, and derive a character determination parameter in the form of a one-dimensional vector by averaging the derived multiple appearance feature information. The character determination parameter is a parameter that sets one or more appearance information of the avatar for the basic appearance of the avatar, and is a parameter including, for example, the height of the avatar, the skeleton or the degree of skeleton bending, skin color, skin condition, hair color, and hair condition of the avatar, and additionally, as described above, can further include feature information on unique characteristics that can recognize facial expressions, such as the inclination of the eyes, the inclination of the eyebrows, the shape of the mouth, and the inclination of the mouth. The basic appearance determination unit (2410) can implement the basic appearance of the avatar similar to the face and body shape of an actual user in virtual reality through the character determination parameter as described above.
상기 기본외형결정부(2410)에서 상기 아바타의 기본외형이 결정되면, 상기 아바타생성부(2400)의 상기 노화정보결정부(2420)에서는 상기 사용자의 노화정보를 결정하여 상기 아바타의 외형그래픽에 반영한다. 상기 노화정보결정부(2420)는 1 이상의 인공신경망을 포함하며, 각각의 인공신경망 모델에 상기 생체정보를 입력함으로써, 상기 사용자의 노화정보를 결정할 수 있다. 상기 노화정보가 결정되면, 상기 노화정보결정부(2420)는, 상기 노화정보에 상응하는 제1그래픽효과를 도출하고, 상기 아바타의 기본외형에 상기 제1그래픽효과를 추가한다. 상기 노화정보결정부(2420)에 대한 보다 상세한 설명은 후술하도록 한다.When the basic appearance of the avatar is determined in the basic appearance determination unit (2410), the aging information determination unit (2420) of the avatar generation unit (2400) determines the aging information of the user and reflects it in the appearance graphic of the avatar. The aging information determination unit (2420) includes one or more artificial neural networks, and can determine the aging information of the user by inputting the biometric information into each artificial neural network model. When the aging information is determined, the aging information determination unit (2420) derives a first graphic effect corresponding to the aging information and adds the first graphic effect to the basic appearance of the avatar. A more detailed description of the aging information determination unit (2420) will be described later.
상기 질환정보결정부(2440)는, 상기 제1그래픽효과가 추가된 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가한다. 상기 질환정보는, 상기 사용자의 스마트폰으로부터 수신한 상기 의료정보에 기초하여 생성된다. 상기 질환정보결정부(2440)는 상기 의료정보수신부(2330)를 통해 상기 의료정보를 수신하고, 상기 의료정보에 기초하여 상기 질환정보를 생성한다. 이후, 상기 질환정보에 상응하는 제2그래픽효과를 산출한다. 예를 들어, 왼쪽어깨에 유착성 관절낭염이 있는 사용자의 아바타에는 왼쪽 어깨가 붉게 처리되는 그래픽효과가 추가될 수 있으며, 혹은 오른쪽 무릎에 류마티스 관절염을 앓고 있는 사용자의 아바타에는 오른쪽 무릎이 붉게 처리되는 그래픽효과가 추가될 수 있다. 한편, 상기 질환정보를 통해 상기 아바타의 외형뿐만 아니라 상기 아바타의 능력치에 영향을 줄 수 있는데 이에 대해서는 후술하도록 한다. 이와 같이, 상기 아바타생성부(2400)에서는, 상기 사용자의 생체정보 및 질환정보에 기초하여, 상기 사용자의 아바타를 가상현실 내에 구현한다.The disease information determination unit (2440) adds a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect has been added. The disease information is generated based on the medical information received from the user's smartphone. The disease information determination unit (2440) receives the medical information through the medical information receiving unit (2330) and generates the disease information based on the medical information. Thereafter, the second graphic effect corresponding to the disease information is generated. For example, a graphic effect in which the left shoulder is processed in red may be added to the avatar of a user who has adhesive capsulitis in the left shoulder, or a graphic effect in which the right knee is processed in red may be added to the avatar of a user who has rheumatoid arthritis in the right knee. Meanwhile, the disease information may affect not only the appearance of the avatar but also the abilities of the avatar, which will be described later. In this way, the avatar generation unit (2400) implements the user's avatar in virtual reality based on the user's biometric information and disease information.
도 6은 본 발명의 일 실시예에 따른 노화정보결정부(2420)의 세부구성을 개략적으로 도시한다.Figure 6 schematically illustrates the detailed configuration of an aging information determination unit (2420) according to one embodiment of the present invention.
도 6에 도시된 바와 같이, 상기 노화정보결정부(2420)는, 상기 카메라장치(1200)를 통해 입력 받은 이미지정보를 입력 받아 제1노화정보를 출력하는 제1인공신경망(2421); 상기 뇌파측정기(1300)로 측정한 상기 사용자의 뇌파정보를 입력 받아 제2노화정보를 출력하는 제2인공신경망(2422); 상기 맥박측정기(1400)로 측정한 상기 사용자의 맥박정보를 입력 받아 제3노화정보를 출력하는 제3인공신경망(2423); 및 상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보를 합산하여, 최종적인 노화정보를 도출하는 종합판단모듈(2424);을 포함한다. As illustrated in FIG. 6, the aging information determination unit (2420) includes a first artificial neural network (2421) that receives image information input through the camera device (1200) and outputs first aging information; a second artificial neural network (2422) that receives brainwave information of the user measured by the brainwave measuring device (1300) and outputs second aging information; a third artificial neural network (2423) that receives pulse information of the user measured by the pulse measuring device (1400) and outputs third aging information; and a comprehensive judgment module (2424) that derives final aging information by adding the first aging information, the second aging information, and the third aging information.
구체적으로, 본 발명의 일 실시예에 따른 상기 노화정보결정부(2420)는 상기 사용자의 이미지정보, 뇌파정보, 및 맥박정보 중 1 이상에 기초하여 상기 사용자의 노화정보를 결정할 수 있다. 이 때, 상기 노화정보결정부(2420)는 상기 사용자의 이미지정보, 뇌파정보, 및 맥박정보를 1 이상의 인공신경망을 통해 분석함으로써, 상기 사용자의 노화정보를 결정할 수 있다. Specifically, the aging information determination unit (2420) according to one embodiment of the present invention can determine the aging information of the user based on at least one of the user's image information, brain wave information, and pulse information. At this time, the aging information determination unit (2420) can determine the user's aging information by analyzing the user's image information, brain wave information, and pulse information through at least one artificial neural network.
도 6에 도시된 것과 같이, 상기 제1인공신경망(2421) 내지 제3인공신경망(2423)은 각각 상기 사용자의 이미지정보, 뇌파정보 및 맥박정보를 입력 받아 분석을 수행하고, 분석 결과를 상기 종합진단모듈로 전송하고, 상기 종합진단모듈은 상기 분석 결과를 수신하여 상기 사용자의 노화정보를 결정하여 출력한다. 이과 같이 출력된 상기 노화정보에 기초하여, 도 5에 대한 설명을 참고하여, 상기 노화정보결정부(2420)는 상기 노화정보에 상응하는 제1그래픽효과를 도출하고, 상기 아바타의 기본외형에 상기 제1그래픽효과를 추가한다.As illustrated in FIG. 6, the first artificial neural network (2421) to the third artificial neural network (2423) respectively receive the user's image information, brain wave information, and pulse information, perform analysis, transmit the analysis results to the comprehensive diagnosis module, and the comprehensive diagnosis module receives the analysis results to determine and output the user's aging information. Based on the aging information output in this manner, with reference to the description of FIG. 5, the aging information determination unit (2420) derives a first graphic effect corresponding to the aging information, and adds the first graphic effect to the basic appearance of the avatar.
상기 제1인공신경망(2421)에서는 상기 기본외형결정부(2410)로부터 도출된 복수의 외형특징정보 중 상기 사용자의 피부상태정보, 모발상태정보, 및 골격의 휘어진 정도를 분석하여 제1노화정보를 도출한다. 또한, 추가적으로, 상기 VR서비스부에서 상기 사용자에게 요구한 다양한 자세에 대한 수행결과에 기초하여 상기 사용자의 외형측면의 노화정보를 분석할 수 있고, 이를 통해 상기 제1노화정보를 도출한다. In the above first artificial neural network (2421), the user's skin condition information, hair condition information, and degree of bone curvature among the plurality of external appearance characteristic information derived from the basic external appearance determination unit (2410) are analyzed to derive the first aging information. In addition, the user's external appearance-related aging information can be analyzed based on the performance results for various postures requested from the user by the VR service unit, and the first aging information is derived through this.
상기 제2인공신경망(2422)에서는 상기 VR장치(1000)의 뇌파측정기(1300)로부터 도출된 뇌파정보를 분석하여 제2노화정보를 도출한다. 본 발명의 일 실시예로서, 상기 뇌파의 안정성, 및 상기 사용자의 집중도를 상기 뇌파정보를 분석함으로써 상기 제2노화정보를 도출한다.The second artificial neural network (2422) above analyzes brainwave information derived from the brainwave measuring device (1300) of the VR device (1000) to derive second aging information. In one embodiment of the present invention, the second aging information is derived by analyzing the brainwave information based on the stability of the brainwaves and the concentration of the user.
상기 제3인공신경망(2423)에서는 상기 VR장치(1000)의 맥박측정기(1400)로부터 도출된 맥박정보를 분석하여 제3노화정보를 도출한다. 상기 맥박정보는, 상기 사용자의 분당 맥박수, 맥박의 규칙성, 맥압을 포함한다. 상기 제3인공신경망(2423)은 상기 맥박정보에 기초하여, 상기 사용자의 예상 나이 및 심혈관나이를 산출할 수 있다.The third artificial neural network (2423) analyzes pulse information derived from the pulse meter (1400) of the VR device (1000) to derive third aging information. The pulse information includes the user's pulse rate per minute, pulse regularity, and pulse pressure. The third artificial neural network (2423) can calculate the user's expected age and cardiovascular age based on the pulse information.
상기 종합판단모듈(2424)은 상기 제1노화정보, 상기 제2노화정보, 및 상기 제3노화정보를 합산하여, 최종적인 노화정보를 산출할 수 있다. 한편, 상기 노화정보는, 본 발명의 일 실시예로서, 상기 사용자의 노화정도가 가장 낮을 때의 노화정보를 1로하고, 사용자의 노화정도가 가장 높은 때의 노화정보를 10으로 하는 것과 같이 점수 혹은 레벨로 도출될 수 있다. 바람직하게는, 상기 종합진단모듈은, 상기 이미지정보, 뇌파정보, 및 맥박정보에 대해 어느 정도의 가중치로 노화정보를 도출할 것인지를 자동으로 조절할 수 있도록 구성할 수 있고, 이와 같은 가중치에 대해서도 학습할 수 있도록 모델을 구성할 수 있다.The above comprehensive judgment module (2424) can calculate the final aging information by adding up the first aging information, the second aging information, and the third aging information. Meanwhile, the aging information can be derived as a score or level, such as, as an embodiment of the present invention, setting the aging information when the user's aging level is the lowest as 1 and setting the aging information when the user's aging level is the highest as 10. Preferably, the comprehensive diagnosis module can be configured to automatically adjust the weighting for the image information, the brain wave information, and the pulse information to derive the aging information, and can configure a model to learn about such weighting.
이로서, 상기 노화정보결정부(2420)는 상기 최종적인 노화정보를 산출하고, 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중에서 상기 노화정보에 상응하는 제1그래픽효과를 상기 아바타의 기본외형에 추가할 수 있다.Accordingly, the aging information determination unit (2420) can calculate the final aging information and add a first graphic effect corresponding to the aging information among a plurality of first graphic effects pre-stored in the computing system (10000) to the basic appearance of the avatar.
도 7은 본 발명의 일 실시예에 따른 사용자의 아바타 및 아바타의 능력치를 개략적으로 도시한다.Figure 7 schematically illustrates a user's avatar and the avatar's abilities according to one embodiment of the present invention.
도 7에 도시된 바와 같이, 상기 아바타생성부(2400)는, 해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부(2430);를 포함한다. 한편, 도 7에 도시된 상기 아바타의 능력치는 본 발명의 일 실시예로서, 실제 본 발명의 아바타의 능력치는 도 7에 도시된 것으로 한정되지 않는다.As illustrated in FIG. 7, the avatar generation unit (2400) includes a movement speed determination unit (2430) that determines the movement speed of the avatar in such a way that the movement speed increases as the movement distance or number of steps increases based on the movement distance or number of steps for a preset time derived from the smartphone of the user. Meanwhile, the ability value of the avatar illustrated in FIG. 7 is an embodiment of the present invention, and the ability value of the actual avatar of the present invention is not limited to that illustrated in FIG. 7.
구체적으로, 상기 아바타생성부(2400)는, 상기 사용자의 스마트폰으로부터 수신한 상기 사용자의 활동정보 및 의료정보에 기초하여 상기 아바타의 능력치가 설정될 수 있다. 도 7에 도시된 바와 같이, 상기 아바타의 능력치는, 아바타의 이동속도, 근육량 및 인지능력을 포함한다. Specifically, the avatar generation unit (2400) can set the avatar's ability based on the user's activity information and medical information received from the user's smartphone. As shown in Fig. 7, the avatar's ability includes the avatar's movement speed, muscle mass, and cognitive ability.
상기 아바타의 이동속도는 상기 사용자의 활동정보 및 의료정보에 기초하여 산출될 수 있다. 예를 들어, 상기 사용자가 기설정된 시간 동안 하루 평균 3km를 2시간 동안 걸은 데이터가 상기 사용자의 스마트폰에 기록되었고, 상기 데이터는 상기 컴퓨팅시스템(10000)으로 송신될 수 있다. 상기 이동속도결정부(2430)는, 상기 데이터에 기초하여 상기 아바타의 이동속도를 산출할 수 있다. 만약, 상술한 예에서 기설정된 시간 동안의 운동기록이 상기 스마트폰에 규칙적으로 입력되지 않거나, 짧은 거리를 긴 시간동안 걸은 데이터가 상기 스마트폰에 입력되는 경우, 상기 이동속도결정부(2430)는 상기 데이터를 통해, 상기 아바타의 이동속도를 낮게 설정할 수 있고, 이와 반대의 예로서, 규칙적인 운동기록이 상기 스마트폰에 입력되거나, 많은 운동량이 상기 스마트폰에 기록된 경우, 상기 이동속도결정부(2430)는 해당 아바타의 이동속도를 높게 설정할 수 있다.The movement speed of the avatar can be calculated based on the activity information and medical information of the user. For example, data indicating that the user walked an average of 3 km per day for 2 hours during a preset period of time is recorded on the user's smartphone, and the data can be transmitted to the computing system (10000). The movement speed determination unit (2430) can calculate the movement speed of the avatar based on the data. If, in the above-described example, an exercise record for a preset period of time is not regularly input into the smartphone, or data indicating that a short distance was walked for a long period of time is input into the smartphone, the movement speed determination unit (2430) can set the movement speed of the avatar to be low based on the data, and as an opposite example, if a regular exercise record is input into the smartphone, or a large amount of exercise is recorded into the smartphone, the movement speed determination unit (2430) can set the movement speed of the corresponding avatar to be high.
또한, 상기 사용자의 의료정보에 기초하여 생성된 질환정보를 참고하여, 상기 아바타의 이동속도를 결정할 수 있다. 예를 들어, 상기 사용자가 하체부위에 질환을 갖고 있는 경우, 상기 아바타의 이동속도는 낮게 설정되며, 질환의 경중에 따라 낮게 설정되는 이동속도의 정도가 결정된다.In addition, the movement speed of the avatar can be determined by referring to disease information generated based on the medical information of the user. For example, if the user has a disease in the lower body, the movement speed of the avatar is set low, and the degree of the movement speed set low is determined according to the severity of the disease.
상기 아바타생성부(2400)에 의하여, 상기 아바타의 근육량은 해당 사용자의 의료정보를 토대로 결정될 수 있다. 본 발명의 일 실시예로서, 상기 사용자의 의료정보에 포함된 상기 사용자의 실제 체성분 데이터에 기초하여 상기 아바타의 근육량이 결정될 수 있으며, 본 발명의 다른 실시예로서, 도 3의 (a)에 대한 설명을 참고하여, 상기 맥박측정기(1400)에 포함된 근전도센서를 통해 상기 아바타의 근육량을 설정할 수 있다. By the above avatar generation unit (2400), the muscle mass of the avatar can be determined based on the medical information of the corresponding user. As one embodiment of the present invention, the muscle mass of the avatar can be determined based on the actual body composition data of the user included in the medical information of the user, and as another embodiment of the present invention, with reference to the description of (a) of FIG. 3, the muscle mass of the avatar can be set through the electromyography sensor included in the pulse measuring device (1400).
상기 아바타생성부(2400)에 의하여, 상기 아바타의 인지능력은, 상기 사용자에게 장착된 뇌파측정기(1300)에 의해 센싱된 상기 사용자의 뇌파정보에 기초하여 산출될 수 있으며, 더 자세하게는, 사용자가 후술하는 복수의 콘텐츠를 수행할 때 측정되는 뇌파정보에 기초하여 산출될 수 있고, 추가적으로, 상기 사용자가 상기 아바타를 통해 상기 복수의 콘텐츠를 수행하는 경우, 상기 뇌파정보; 및 상기 복수의 콘텐츠의 수행과정 및 결과;를 참고하여 산출될 수 있다.By the avatar generation unit (2400), the cognitive ability of the avatar can be calculated based on the user's brainwave information sensed by the brainwave measuring device (1300) equipped on the user, and more specifically, can be calculated based on the brainwave information measured when the user performs the plurality of contents described below, and additionally, when the user performs the plurality of contents through the avatar, can be calculated with reference to the brainwave information; and the performance process and results of the plurality of contents.
도 8은 본 발명의 일 실시예에 따른 VR콘텐츠제공부(2500)의 구성을 개략적으로 도시한다.Figure 8 schematically illustrates the configuration of a VR content provider (2500) according to one embodiment of the present invention.
도 8에 도시된 바와 같이, 상기 VR콘텐츠제공부(2500)는, 해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 상기 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부(2510); 해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부(2520); 해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 상기 사용자의 재활훈련이 필요한 신체부위 또는 상기 사용자의 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부(2530); 상기 제1콘텐츠제공부(2510), 상기 제2콘텐츠제공부(2520), 및 상기 제3콘텐츠제공부(2530)에서 제공한 콘텐츠에 대해 콘텐츠 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기(1300)에 의하여 측정된 뇌파정보, 및 상기 맥박측정기(1400)에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어에 따라 상기 노화정보를 조절하는 노화정보조절부(2540); 상기 노화정보조절부(2540)에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부(2550);를 포함하고,As illustrated in FIG. 8, the VR content provider (2500) comprises: a first content provider (2510) which provides content whose difficulty is determined based on the aging information of the user and which enables the user to perform cognitive ability and concentration enhancement training; a second content provider (2520) which provides content whose difficulty is determined based on the activity information of the user and which enables the user to perform physical activity enhancement training; a third content provider (2530) which provides content whose type is determined based on the disease information of the user and which enables the user to perform training for a body part requiring rehabilitation training or the user's cognitive ability. An aging information control unit (2540) that calculates a score of 1 or more based on the performance result according to content performance for the content provided by the first content provider (2510), the second content provider (2520), and the third content provider (2530), the brainwave information measured by the brainwave measuring device (1300) during the performance period for the content, and the pulse information measured by the pulse measuring device (1400), and adjusts the aging information according to the score of 1 or more; An avatar appearance update unit (2550) that updates the appearance of the avatar of the corresponding user by adjusting the first graphic effect according to the aging information adjusted by the aging information control unit (2540);
상기 제1콘텐츠제공부(2510)에서 상기 사용자에게 제공되는 제1콘텐츠는, 틀린그림찾기, 산수 및 퍼즐 맞추기를 포함하는 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠고, 상기 제2콘텐츠제공부(2520)에서 상기 사용자에게 제공되는 제2콘텐츠는, 걷기, 스트레칭 및 스쿼트를 포함하는 상기 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠고, 상기 제3콘텐츠제공부(2530)에서 상기 사용자에게 제공되는 제3콘텐츠는, 상기 사용자가 부상을 입은 신체부위에 대한 집중적인 훈련을 수행하거나 상기 사용자의 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력을 포함하는 인지능력 강화에 대한 집중적인 훈련을 수행하여 상기 사용자가 취약한 분야를 훈련하기 위한 콘텐츠인에 해당한다.The first content provided to the user in the first content provider (2510) is content for enhancing the user's cognitive ability and concentration, including finding the difference, arithmetic, and solving puzzles; the second content provided to the user in the second content provider (2520) is content for enabling the user to perform physical activity strengthening training, including walking, stretching, and squats; and the third content provided to the user in the third content provider (2530) is content for enabling the user to perform intensive training on a body part that has been injured, or for enabling the user to perform intensive training for enhancing cognitive ability, including the user's memory, judgment, language ability, and ability to perceive space and time, to train areas in which the user is vulnerable.
구체적으로, 상기 제1콘텐츠제공부(2510)에서 상기 사용자에게 제공되는 제1콘텐츠는, 상기 사용자가 가상현실에 잘 적응할 수 있도록 제공되는 콘텐츠로서, 상기 사용자가 본 발명을 통해 가상현실 내에서 복수의 콘텐츠를 수행하기 위한 연습용 콘텐츠로서 제공될 수 있다. 즉, 상기 사용자는 상기 제1콘텐츠를 통해, 상기 가상현실 내에서 상기 사용자의 아바타를 조작하는 방법을 익힐 수 있다. Specifically, the first content provided to the user from the first content provider (2510) is content provided so that the user can adapt well to virtual reality, and can be provided as practice content for the user to perform multiple contents within the virtual reality through the present invention. That is, the user can learn how to operate the user's avatar within the virtual reality through the first content.
또한, 상기 VR콘텐츠제공부(2500)는, 상기 사용자에게 이와 같은 제1콘텐츠를 제공함으로써, 상기 사용자의 기본적인 인지능력 및 상기 사용자의 집중도를 평가할 수 있으며, 더 나아가 상기 사용자는 상기 제1콘텐츠를 수행함으로써, 상기 사용자의 인지능력 및 집중도를 강화시킬 수 있다. 한편, 본 발명의 일 실시예로서, 상기 뇌파측정기(1300)를 통해 측정되는 상기 사용자의 뇌파정보를 상기 가상현실 내의 별도의 인터페이스로 디스플레이함으로써 사용자의 몰입감을 향상시킬 수 있다. In addition, the VR content provider (2500) can evaluate the user's basic cognitive ability and concentration level by providing the first content to the user, and furthermore, the user can enhance the user's cognitive ability and concentration level by performing the first content. Meanwhile, as an embodiment of the present invention, the user's brainwave information measured by the brainwave measuring device (1300) can be displayed as a separate interface within the virtual reality to enhance the user's sense of immersion.
상기 제2콘텐츠제공부(2520)에서 상기 사용자에게 제공되는 제2콘텐츠는, 상기 사용자의 부족한 신체능력을 강화하기 위해 제공되는 콘텐츠로서, 상기 제1콘텐츠를 통해 상기 VR장치(1000)의 조작법을 익힌 사용자가 소정의 신체활동을 통해 수행할 수 있는 콘텐츠에 해당한다. 상기 사용자는 상기 가상현실 내에서 상기 제2콘텐츠를 수행하기 위하여, 실제로 사용자의 신체를 사용해야 하므로, 사용자의 질병치료 혹은 재활훈련 등을 위한 신체활동을 하는 효과를 발휘할 수 있다. The second content provided to the user in the second content provider (2520) is content provided to strengthen the user's insufficient physical ability, and corresponds to content that the user who learned how to operate the VR device (1000) through the first content can perform through a predetermined physical activity. Since the user must actually use the user's body to perform the second content within the virtual reality, it can have the effect of performing physical activity for the user's disease treatment or rehabilitation training.
상기 VR콘텐츠제공부(2500)는, 상기 사용자에게 이와 같은 제2콘텐츠를 제공함으로써, 사용자의 기본적인 신체능력을 평가할 수 있다. 이 때 평가되는 상기 사용자의 신체능력은, 본 발명의 일 실시예로서, 다음에 제공되는 제2콘텐츠의 난이도 및 종류를 결정하는데 참고되는 것이 바람직하다.The VR content provider (2500) can evaluate the user's basic physical ability by providing the second content to the user. In this case, it is preferable that the user's physical ability evaluated is used as a reference for determining the difficulty and type of the second content provided next, as one embodiment of the present invention.
상기 제3콘텐츠제공부(2530)에서 상기 사용자에게 제공되는 제3콘텐츠는, 상기 사용자에게 재활훈련이 필요한 신체부위 혹은 인지능력을 강화하기 위해 제공되는 콘텐츠로서, 허리, 다리 및 팔을 포함하는 사용자의 신체부위에 부상을 입거나 특정질환을 가지고 있는 사용자에게 해당 신체부위를 강화시킬 수 있는 훈련을 수행할 수 있는 콘텐츠; 혹은 기억력, 판단력, 언어능력 및 시공간을 파악하는 능력이 부족한 사용자에게 해당 능력을 강화시킬 수 있는 훈련을 수행할 수 있는 콘텐츠;에 해당한다. The third content provided to the user by the third content provider (2530) above is content provided to the user to strengthen a body part or cognitive ability that requires rehabilitation training, such as content that allows a user who has an injury to a body part including the waist, legs, and arms or a specific disease to perform training to strengthen the body part; or content that allows a user who has a deficiency in memory, judgment, language ability, and the ability to perceive time and space to perform training to strengthen the ability.
한편, 상술한 제1 내지 제3콘텐츠는 각각 1 이상의 콘텐츠를 포함하며, 본 발명의 일 실시예로서, 매일매일 상기 사용자에게 다른 콘텐츠를 제공하는 것이 바람직하다. Meanwhile, the first to third contents described above each include one or more contents, and as an embodiment of the present invention, it is preferable to provide different contents to the user every day.
상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠, 상기 제2콘텐츠, 및 상기 제3콘텐츠를 수행함으로써, 얻을 수 있는 데이터에 기초하여 상기 아바타의 노화정보를 조절하며, 상기 아바타외형업데이트부(2550)는, 상기 노화정보조절부(2540)에 의하여 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 아바타의 외형을 업데이트한다. 상기 노화정보조절부(2540) 및 상기 아바타외형업데이트부(2550)의 동작에 관한 보다 상세한 설명은 후술하도록 한다.The above aging information control unit (2540) controls the aging information of the avatar based on data that the user can obtain by performing the first content, the second content, and the third content, and the avatar appearance update unit (2550) controls the first graphic effect according to the aging information controlled by the aging information control unit (2540) to update the appearance of the avatar. A more detailed description of the operations of the aging information control unit (2540) and the avatar appearance update unit (2550) will be provided later.
도 9는 본 발명의 일 실시예에 따른 VR콘텐츠부에서의 수행단계를 개략적으로 도시하고, 도 10은 본 발명의 일 실시예에 따른 노화정보감소단계를 개략적으로 도시한다.FIG. 9 schematically illustrates an execution step in a VR content section according to one embodiment of the present invention, and FIG. 10 schematically illustrates an aging information reduction step according to one embodiment of the present invention.
도 9 내지 도 10에 도시된 바와 같이, 상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠를 수행하는 동안 측정되는 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계; 상기 사용자가 상기 제2콘텐츠를 수행하는 동안 측정되는 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계; 상기 제1콘텐츠의 수행결과, 상기 제2콘텐츠의 수행결과, 및 상기 제3콘텐츠의 수행결과에 기초하여 각각 제1스코어, 제2스코어, 제3스코어를 산출하는 수행결과스코어산출단계; 및 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어의 합산값에 기초하여, 노화정보를 감소시키는 노화정보감소단계;를 수행하고,As shown in FIGS. 9 and 10, the aging information control unit (2540) performs a concentration score calculation step for calculating a concentration score based on the user's brainwave information measured while the user performs the first content; an activity score calculation step for calculating an activity score based on the user's pulse information and electromyogram information measured while the user performs the second content; a performance result score calculation step for calculating a first score, a second score, and a third score based on the performance results of the first content, the performance results of the second content, and the performance results of the third content, respectively; and an aging information reduction step for reducing aging information based on the sum of the first score, the second score, the third score, the concentration score, and the activity score.
상기 집중도스코어산출단계는, 상기 뇌파측정기(1300)로부터 수신한 사용자의 뇌파가 베타파, 세타파, 미드알파파, 및 SMR파 중 어느 파형에 포함하는지 판별하여 스코어를 산출하되, 상기 사용자의 뇌파의 주파수가 12 내지 13 Hz인 SMR파에 해당하거나 10 내지 12Hz인 미드알파파에 해당할 때 가중치를 부여하여 상기 집중도스코어를 산출하고, 상기 활동량스코어산출단계는, 상기 맥박측정기(1400)로부터 수신한 사용자의 맥박의 편차값 또는 근전도센서로부터 수신한 근전도 변화량에 기초하여 상기 사용자의 활동량을 판별하여 상기 활동량스코어를 산출하되, 상기 맥박의 편차값이 기설정된 기준 이상이거나, 상기 근전도 변화량이 216 내지 450 Hz일 때 가중치를 부여하여 상기 활동량스코어를 산출한다.The above concentration score calculation step calculates a score by determining which waveform of beta wave, theta wave, mid-alpha wave, and SMR wave the user's brain waves received from the brainwave measuring device (1300) belong to, and when the user's brain waves correspond to SMR waves having a frequency of 12 to 13 Hz or mid-alpha waves having a frequency of 10 to 12 Hz, a weight is assigned to calculate the concentration score, and the activity score calculation step determines the user's activity based on the deviation value of the user's pulse received from the pulse measuring device (1400) or the amount of electromyography (EMG) change received from the electromyography (EMG) sensor, and calculates the activity score, and when the deviation value of the pulse is equal to or greater than a preset standard or the amount of electromyography change is 216 to 450 Hz, a weight is assigned to calculate the activity score.
구체적으로, 도 9에 도시된 바와 같이, 도 8에 대한 설명을 참고하여, 상기 제1콘텐츠제공부(2510)는 상기 사용자에게 인지능력 및 집중도 강화훈련콘텐츠를 제공하고, 상기 제2콘텐츠제공부(2520)는 상기 사용자에게 신체활동 강화훈련콘텐츠를 제공하고, 상기 제3콘텐츠제공부(2530)는 상기 사용자에게 재활훈련이 필요한 신체부위 혹은 인지능력에 대한 훈련콘텐츠를 제공한다. Specifically, as illustrated in FIG. 9, referring to the description of FIG. 8, the first content provider (2510) provides cognitive ability and concentration enhancement training content to the user, the second content provider (2520) provides physical activity enhancement training content to the user, and the third content provider (2530) provides training content for a body part or cognitive ability requiring rehabilitation training to the user.
상기 노화정보조절부(2540)는, 상기 사용자가 상기 제1콘텐츠를 수행한 수행결과에 기초하여 제1스코어를 산출하고, 상기 사용자가 상기 제2콘텐츠를 수행한 수행결과에 기초하여 제2스코어를 산출하고, 상기 사용자가 상기 제3콘텐츠를 수행한 수행결과에 기초하여 제3스코어를 산출하는 수행결과스코어산출단계를 수행한다. The above aging information control unit (2540) performs a performance result score calculation step of calculating a first score based on the performance result of the user performing the first content, calculating a second score based on the performance result of the user performing the second content, and calculating a third score based on the performance result of the user performing the third content.
상기 노화정보조절부(2540)는 상기 사용자가 제1콘텐츠를 수행하는 동안에 상기 뇌파측정기(1300)를 통해 측정된 상기 사용자의 뇌파정보에 기초하여 집중도스코어를 산출하는 집중도스코어산출단계를 수행하고, 상기 제2콘텐츠를 수행하는 동안에 상기 맥박측정기(1400)를 통해 측정된 상기 사용자의 맥박정보 및 근전도정보에 기초하여 활동량스코어를 산출하는 활동량스코어산출단계를 수행한다. The above-mentioned aging information control unit (2540) performs a concentration score calculation step of calculating a concentration score based on the user's brainwave information measured by the brainwave measuring device (1300) while the user performs the first content, and performs an activity score calculation step of calculating an activity score based on the user's pulse information and electromyography information measured by the pulse measuring device (1400) while the user performs the second content.
본 발명의 일 실시예에서는, 상기 집중도스코어산출단계에서 상기 사용자의 뇌파가 베타파, 세타파, 미드-알파파(mid-alpha wave), 및 SMR파 중 어느 파형에 포함되는지 여부를 판별하고, 상기 베타파 및 세타파가 증가함에 따라 감소하고, 상기 미드 알파파 및 상기 SMR파가 증가함에 따라 증가하는 집중도산출식에 기초하여 집중도스코어를 산출할 수 있다. In one embodiment of the present invention, in the concentration score calculation step, it is determined whether the user's brain waves are included in any of the beta waves, theta waves, mid-alpha waves, and SMR waves, and the concentration score can be calculated based on a concentration calculation formula in which the brain waves decrease as the beta waves and theta waves increase, and increase as the mid-alpha waves and the SMR waves increase.
또한, 상기 노화정보조절부(2540)는, 상기 사용자가 제2콘텐츠를 수행하는 동안에 상기 맥박측정기(1400)를 통해 측정되는 해당 사용자의 맥박정보 및 상기 맥박측정기(1400)에 포함되는 근전도센서를 통해 측정되는 해당 사용자의 근전도정보에 기초하여 활동량스코어를 산출하는 상기 활동량스코어산출단계를 수행한다. 바람직하게는, 상기 활동량스코어산출단계는, 상기 사용자의 맥박의 편차값이 기설정된 기준 이상이거나, 상기 사용자의 근전도 변화량이 216 내지 450 Hz일 때 가중치를 부여하여 상기 활동량스코어를 산출한다.In addition, the aging information control unit (2540) performs the activity score calculation step of calculating an activity score based on the pulse information of the user measured through the pulse meter (1400) while the user is performing the second content and the electromyography information of the user measured through the electromyography sensor included in the pulse meter (1400). Preferably, the activity score calculation step calculates the activity score by assigning a weight when the deviation value of the pulse of the user is equal to or greater than a preset standard or when the electromyography change amount of the user is between 216 and 450 Hz.
도 10에 도시된 바와 같이, 상기 노화정보조절부(2540)는, 상기 집중도스코어산출단계, 상기 활동량스코어산출단계, 및 상기 수행결과스코어산출단계를 통해 산출된 상기 집중도스코어, 상기 활동량스코어, 상기 제1스코어, 상기 제2스코어, 및 상기 제3스코어의 합산값에 기초하여 상기 사용자의 노화정보를 감소시키는 노화정보감소단계를 수행한다.As illustrated in FIG. 10, the aging information control unit (2540) performs an aging information reduction step for reducing the aging information of the user based on the sum of the concentration score, the activity score, the first score, the second score, and the third score calculated through the concentration score calculation step, the activity score calculation step, and the performance result score calculation step.
상기 노화정보감소단계를 통해 감소된 노화정보는 상기 아바타외형업데이트부(2550)로 전달되고, 도 8에 대한 설명을 참고하여, 상기 아바타외형업데이트부(2550)에 의하여, 상기 아바타의 상기 제1그래픽효과를 조절함으로써 상기 아바타의 외형을 업데이트할 수 있다.The aging information reduced through the above aging information reduction step is transmitted to the avatar appearance update unit (2550), and with reference to the description of FIG. 8, the avatar's appearance can be updated by adjusting the first graphic effect of the avatar through the avatar appearance update unit (2550).
도 11은 본 발명의 일 실시예에 따른 아바타의 외형이 변경되는 프로세스를 개략적으로 도시한다.Figure 11 schematically illustrates a process for changing the appearance of an avatar according to one embodiment of the present invention.
개략적으로, 도 11에 도시된 바와 같이, 도 10에 도시된 노화정보감소단계 및 상기 노화정보감소단계를 통해 조절된 노화정보에 따라 상기 아바타의 외형을 변경하는 과정을 도시한다. 한편, 도 11에 도시된 과정은 설명을 위해, 상기 수행결과스코어산출단계 중 상기 제1스코어를 산출하는 과정만 도시하였으며, 상기 수행결과스코어산출단계 및 상기 노화정보감소단계에서는, 상술한 바와 같이, 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어를 모두 산출한다.Schematically, as illustrated in FIG. 11, the process of changing the appearance of the avatar according to the aging information reduction step illustrated in FIG. 10 and the aging information adjusted through the aging information reduction step is illustrated. Meanwhile, the process illustrated in FIG. 11 illustrates only the process of calculating the first score among the performance result score calculation steps for explanation, and in the performance result score calculation step and the aging information reduction step, as described above, the first score, the second score, the third score, the concentration score, and the activity score are all calculated.
구체적으로, 상기 사용자가 가상현실 내에 아바타를 생성한 이후, 상기 VR콘텐츠제공부(2500)의 제1콘텐츠제공부(2510)는 상기 아바타에게 제1콘텐츠를 제공(S100)한다. 상기 제1콘텐츠는, 전술한 바와 같이, 상기 사용자의 인지능력 및 집중도를 강화하기 위한 콘텐츠에 해당한다. 상기 사용자는 상기 가상현실 내에서 상기 아바타를 통해 상기 제1콘텐츠를 수행(S200)한다.Specifically, after the user creates an avatar in the virtual reality, the first content provider (2510) of the VR content provider (2500) provides the first content to the avatar (S100). The first content corresponds to content for enhancing the user's cognitive ability and concentration, as described above. The user performs the first content through the avatar in the virtual reality (S200).
상기 아바타가 상기 제1콘텐츠를 수행한 수행결과를 상기 노화정도조절부가 수신(S300)하면, 상기 노화정도조절부는 상기 수행결과에 기초하여 제1스코어를 산출(S400)하는 상기 수행결과스코어산출단계를 수행한다.When the aging level control unit receives the performance result of the above-mentioned avatar performing the above-mentioned first content (S300), the aging level control unit performs the performance result score calculation step of calculating the first score (S400) based on the performance result.
상시 노화정도조절부는, 상기 제1스코어를 참고하여 상기 사용자의 노화정보를 조절(S500)한다. 바람직하게는, 상기 단계 S500은, 전술한 바와 같이, 상기 제1스코어뿐만 아니라, 상기 제1스코어, 상기 제2스코어, 상기 제3스코어, 상기 집중도스코어, 및 상기 활동량스코어를 모두 합한 합산값에 기초하여 상기 사용자의 노화정보를 조절한다.The constant aging degree control unit controls the aging information of the user with reference to the first score (S500). Preferably, the step S500 controls the aging information of the user based on the sum of not only the first score, but also the first score, the second score, the third score, the concentration score, and the activity score, as described above.
상기 노화정도조절부는 조절된 노화정보를 상기 아바타외형업데이트부(2550)에 송신(S600)하고, 상기 아바타외형업데이트부(2550)는, 수신한 상기 조절된 노화정보에 따라 상기 아바타의 기본외형에 적용된 제1그래픽효과를 조절(S700)한다. 상기 제1그래픽효과는, 도 6에 대한 설명을 참고하여, 상기 노화정보결정부(2420)에서 산출한 노화정보에 기초하여 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중 상기 노화정보결정부(2420)에서 산출한 노화정보에 상응하는 제1그래픽효과에 해당되며, 상기 아바타외형업데이트부(2550)가 상기 조절된 노화정보를 수신하면, 상기 아바타외형업데이트부(2550)는 상기 컴퓨팅시스템(10000)에 기저장된 복수의 제1그래픽효과 중에서 상기 조절된 노화정보에 상응하는 그래픽효과로 상기 아바타의 외형을 변경(S800)할 수 있다.The above-mentioned aging degree control unit transmits the controlled aging information to the above-mentioned avatar appearance update unit (2550) (S600), and the above-mentioned avatar appearance update unit (2550) controls the first graphic effect applied to the basic appearance of the above-mentioned avatar according to the received controlled aging information (S700). The above first graphic effect, with reference to the description of FIG. 6, corresponds to a first graphic effect corresponding to the aging information calculated by the aging information determination unit (2420) among a plurality of first graphic effects pre-stored in the computing system (10000) based on the aging information calculated by the aging information determination unit (2420), and when the avatar appearance update unit (2550) receives the adjusted aging information, the avatar appearance update unit (2550) can change the appearance of the avatar to a graphic effect corresponding to the adjusted aging information among a plurality of first graphic effects pre-stored in the computing system (10000) (S800).
도 12는 본 발명의 일 실시예에 따른 제1콘텐츠의 실행화면을 개략적으로 도시한다.Figure 12 schematically illustrates an execution screen of the first content according to one embodiment of the present invention.
개략적으로, 도 12의 (a)는 상기 사용자에게 제1콘텐츠가 제공될 때의 상기 사용자에게 보여지는 실행화면을 도시하고, 도 12의 (b)는 상기 사용자가 상기 제1콘텐츠를 수행한 이후, 그 수행결과가 상기 사용자에게 보여지는 실행화면을 도시한다. 한편, 도 12는, 본 발명의 일 실시예로서, 상기 사용자에게 보여지는 상기 제1콘텐츠의 실행화면을 도시하나, 상기 제2콘텐츠, 상기 제3콘텐츠 혹은 후술하는 돌발콘텐츠의 실행화면 또한 도 12에 도시된 바와 같은 실행화면이 상기 HMD(1100)를 통해 상기 사용자에게 제공될 수 있다.In outline, (a) of FIG. 12 illustrates an execution screen shown to a user when the first content is provided to the user, and (b) of FIG. 12 illustrates an execution screen in which the result of execution is shown to the user after the user executes the first content. Meanwhile, FIG. 12 illustrates an execution screen of the first content shown to the user as an embodiment of the present invention, but the execution screens of the second content, the third content, or the surprise content described below may also be provided to the user through the HMD (1100) as an execution screen as illustrated in FIG. 12.
구체적으로, 도 12에 도시된 바와 같이, 상기 VR서비스부는, 상기 사용자에게 플로팅인터페이스(floating-interface)를 통해 정보를 제공할 수 있다. 도 12의 (a)는 상기 제1콘텐츠제공부(2510)에 의하여 상기 제1콘텐츠가 상기 사용자에게 제공될 때, 상기 사용자가 장착한 HMD(1100)를 통해 제공되는 인터페이스를 도시한다. 상기 사용자는 상기 VR장치(1000)를 조작함으로써 도 12의 (a)에 도시된 상기 플로팅인터페이스에서 “예” 혹은 “아니오”를 선택할 수 있으며, 상기 사용자가 “예”를 선택하면, 상기 사용자는 상기 사용자에게 장착된 상기 VR장치(1000)를 조작하여 상기 제1콘텐츠를 수행할 수 있다.Specifically, as illustrated in FIG. 12, the VR service unit can provide information to the user through a floating interface. FIG. 12 (a) illustrates an interface provided through an HMD (1100) worn by the user when the first content is provided to the user by the first content provider (2510). The user can select “Yes” or “No” in the floating interface illustrated in FIG. 12 (a) by operating the VR device (1000), and if the user selects “Yes,” the user can perform the first content by operating the VR device (1000) worn by the user.
상기 사용자가 제1콘텐츠를 수행하면, 그 수행결과를 도 12의 (b)에 도시된 바와 같은 플로팅인터페이스를 통해 상기 사용자에게 명시할 수 있다. 한편, 도 12의 (b)에 도시된 수행결과 항목은, 본 발명의 일 실시예로서, 상기 수행결과 항목은 콘텐츠에 종류에 따라 상이할 수 있다. 예를 들어, 상기 사용자에게 제공된 콘텐츠가 제2콘텐츠의 걷기 콘텐츠일 경우, 걷는 시간, 거리, 및 이동 속도가 수행결과 항목으로서 플로팅인터페이스에 명시될 수 있다.When the above user performs the first content, the performance result can be specified to the user through a floating interface as shown in (b) of Fig. 12. Meanwhile, the performance result items shown in (b) of Fig. 12, as an embodiment of the present invention, may differ depending on the type of content. For example, when the content provided to the user is walking content of the second content, the walking time, distance, and movement speed can be specified as performance result items in the floating interface.
도 13은 본 발명의 일 실시예에 따른 집중도스코어 및 활동량스코어가 제1기준값 미만인 경우의 사용자에게 보여지는 가상현실 인터페이스를 개략적으로 도시한다.FIG. 13 schematically illustrates a virtual reality interface shown to a user when the concentration score and activity score are below a first reference value according to one embodiment of the present invention.
개략적으로, 도 12의 (a)는 상기 가상현실 내에 존재하는 객체의 선명도 또는 상기 아바타의 시야가 조절되는 것을 도시하고, 도 12의 (b)는 상기 사용자에게 돌발콘텐츠가 제공될 때의 실행화면을 도시한다.In outline, (a) of Fig. 12 illustrates that the clarity of an object existing in the virtual reality or the field of view of the avatar is adjusted, and (b) of Fig. 12 illustrates an execution screen when sudden content is provided to the user.
도 13에 도시된 바와 같이, 상기 VR콘텐츠제공부(2500)는, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 기설정된 제1기준값 미만인 경우, 상기 가상현실 내에 존재하는 객체의 선명도 또는 아바타의 시야를 조절하고, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 상기 제1기준값 미만인 경우, 상기 제1콘텐츠제공부(2510), 상기 제2콘텐츠제공부(2520) 혹은 상기 제3콘텐츠제공부(2530)에 의하여 콘텐츠가 제공되는 중간에 돌발콘텐츠를 제공함으로써, 상기 사용자가 상기 돌발콘텐츠를 수행하였을 때 상기 가상현실 내에 존재하는 객체의 선명도 또는 아바타의 시야를 기본값으로 되돌린다.As illustrated in FIG. 13, the VR content provider (2500) adjusts the clarity of an object existing in the virtual reality or the field of view of an avatar when the detailed sum of the concentration score and the activity score during a preset section is less than a first reference value, and provides a burst content while content is being provided by the first content provider (2510), the second content provider (2520), or the third content provider (2530), so that when the user performs the burst content, the clarity of an object existing in the virtual reality or the field of view of an avatar is returned to a default value.
구체적으로, 상기 VR콘텐츠제공부(2500)는, 기설정된 구간 동안의 상기 집중도스코어 및 상기 활동량스코어의 세부합산값이 기설정된 제1기준값 미만으로 산출되는 경우, 상기 사용자의 집중도가 떨어졌다고 판단하고, 상기 사용자에게 하기와 같은 방식으로 알릴 수 있다. 도 13의 (a)의 좌측도면에 도시된 바와 같이, 상기 사용자가 장착한 HMD(1100)를 통해 제공되는 가상현실 내에 존재하는 객체의 선명도를 낮추거나, 도 13의 (a)의 우측도면에 도시된 바와 같이, 상기 아바타의 시야를 불투명한 플로팅인터페이스를 통해 조절할 수 있다. Specifically, if the sum of the concentration score and the activity score during the preset section is calculated to be less than the preset first reference value, the VR content provider (2500) may determine that the user's concentration has decreased and may notify the user in the following manner. As illustrated in the left drawing of (a) of Fig. 13, the clarity of an object existing in the virtual reality provided through the HMD (1100) worn by the user may be lowered, or, as illustrated in the right drawing of (a) of Fig. 13, the field of view of the avatar may be adjusted through an opaque floating interface.
상기 VR콘텐츠제공부(2500)는, 상기 세부합산값이 상기 제1기준값 미만으로 산출되는 경우, 상기 사용자에게 돌발콘텐츠를 제공할 수 있다. 상기 돌발콘텐츠는, 상기 사용자가 VR콘텐츠에 대한 집중도를 향상시키기 위해 상기 사용자에게 제공되는 콘텐츠로, 바람직하게는, 제1콘텐츠와 같이, 비교적 쉬운 난이도의 콘텐츠를 제공한다. The VR content provider (2500) may provide sudden content to the user when the detailed sum is calculated to be less than the first reference value. The sudden content is content provided to the user to improve the user's concentration on the VR content, and preferably, like the first content, provides content with a relatively easy difficulty level.
도 13의 (b)에 도시된 바와 같이, 상기 돌발콘텐츠가 상기 사용자에게 제공될 때는, 도 12에 대한 설명을 참고하여, 상기 제1 내지 제3콘텐츠와 같이, 가상현실에 플로팅인터페이스를 제공함으로써 상기 사용자에게 상기 돌발콘텐츠를 제공할 수 있다. 상기 사용자가 돌발콘텐츠를 수행할 때 산출되는 집중도스코어 및 활동량스코어의 세부합산값이 기설정된 제1기준값 이상으로 산출되면, 상기 가상현실 내에 존재하는 객체의 선명도가 기본값으로 복구되고, 상기 불투명한 플로팅인터페이스가 사라지게 된다.As illustrated in (b) of Fig. 13, when the sudden content is provided to the user, the sudden content can be provided to the user by providing a floating interface in virtual reality, like the first to third contents, with reference to the description of Fig. 12. When the user performs the sudden content, if the calculated detailed sum of the concentration score and the activity score is calculated to be equal to or higher than the preset first reference value, the clarity of the object existing in the virtual reality is restored to the default value, and the opaque floating interface disappears.
본 발명의 일 실시예로서, 상기 돌발콘텐츠를 수행할 때의 집중도스코어 및 활동량스코어의 세부합산값이 상기 제1기준값 미만인 경우, 상기 VR콘텐츠제공부(2500)는 휴식을 권유하는 플로팅인터페이스를 상기 사용자에게 제공할 수 있다.As one embodiment of the present invention, when the detailed sum of the concentration score and activity score when performing the sudden content is less than the first reference value, the VR content provider (2500) can provide the user with a floating interface recommending rest.
2. 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 아바타를 업데이트하는 시스템2. A system that creates avatars, provides them to external metaverse platforms, and updates the avatars.
상술한 바와 같이 본 발명의 아바타를 생성하여 외부의 메타버스플랫폼(5000)에 제공하고 아바타를 업데이트하는 시스템은 사용자정보에 기초하여 아바타를 생성하고, 콘텐츠 수행에 따른 수행결과, 집중도 및 활동량에 기초하여 아바타의 외형을 업데이트할 수 있다. 한편, 상기 아바타를 업데이트하는 시스템은 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하는 것으로써, 이하에서는, 상기 아바타에 대한 정보를 외부의 메타버스플랫폼(5000)에 제공하여 인터랙션정보를 수신하고 아바타를 업데이트하는 시스템에 대하여 상세하게 설명하도록 한다.As described above, the system for generating an avatar of the present invention, providing it to an external metaverse platform (5000), and updating the avatar can generate an avatar based on user information, and update the appearance of the avatar based on the performance result, concentration, and activity level according to content performance. Meanwhile, the system for updating the avatar provides information about the avatar to an external metaverse platform (5000). Hereinafter, a system for providing information about the avatar to an external metaverse platform (5000) to receive interaction information and update the avatar will be described in detail.
외부의 메타버스플랫폼(5000)에서 사용자에게 아바타를 제공하기 위해서 특정 캐릭터를 제공하는 방법을 사용하곤 한다. 허나, 사용자의 정보가 반영된 아바타로 외부의 메타버스플랫폼(5000)을 이용할 경우 외부의 메타버스플랫폼(5000) 속에 있는 느낌에 더 많은 흥미를 느낄 수 있다. 또한, 외부의 메타버스플랫폼(5000) 내에서 아바타와 사용자가 일체감을 느낄 수 있다. 따라서, 본원 발명에서 생성한 아바타를 기초로 상기 외부의 메타버스플랫폼(5000)에 적합한 아바타로 업데이트하여 제공하는 방법을 제시한다.In order to provide an avatar to a user on an external metaverse platform (5000), a method of providing a specific character is often used. However, if an external metaverse platform (5000) is used with an avatar reflecting the user's information, the user can feel more interest in the feeling of being in the external metaverse platform (5000). In addition, the user can feel a sense of unity with the avatar within the external metaverse platform (5000). Therefore, a method of updating and providing an avatar suitable for the external metaverse platform (5000) based on the avatar created in the present invention is proposed.
도 14는 본 발명의 일 실시예에 따른 아바타업데이트부에서의 수행단계를 개략적으로 도시한다.Figure 14 schematically illustrates the execution steps in an avatar update unit according to one embodiment of the present invention.
도 14에 도시된 바와 같이, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부를 포함할 수 있고, 상기 아바타업데이트부는, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하고, 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계(S900); 상기 외부의 메타버스플랫폼(5000)에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계(S920); 및 상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계(S930);를 수행할 수 있다.As illustrated in FIG. 14, the method may include: providing information about the avatar to an external metaverse platform (5000), receiving interaction information that a user interacts with using the avatar on the external metaverse platform (5000), and performing an update on the avatar; and including an avatar information providing step (S900) that provides information about the avatar to the external metaverse platform (5000), receiving interaction information that a user interacts with using the avatar on the external metaverse platform (5000), performing an update on the avatar, and providing information about the avatar to the external metaverse platform (5000); an interaction information receiving step (S920) that receives interaction information corresponding to the avatar on the external metaverse platform (5000); And an avatar update step (S930) can be performed to extract information related to the avatar from the interaction information and update the avatar based on the information related to the avatar.
구체적으로, 아바타정보제공단계는 본 발명에서 생성한 아바타에 대한 정보를 외부로 제공하는 단계이다. 상기 아바타는 상술한 바와 같이 VR장치를 통해 사용자의 생체정보, 활동정보, 및 의료정보를 수신하여 이를 바탕으로 생성하고, 상기 아바타에 대한 정보 중 일부 혹은 전체를 외부 메타버스플랫폼(5000)에 제공할 수 있다. 상기 아바타에 반영된 상기 사용자 의료정보의 경우에는 보안성에 따라 전송하지 않을 수 있다.Specifically, the avatar information provision step is a step of providing information about the avatar created in the present invention to the outside. As described above, the avatar receives the user's biometric information, activity information, and medical information through the VR device, and is created based on this, and some or all of the information about the avatar can be provided to an external metaverse platform (5000). In the case of the user's medical information reflected in the avatar, it may not be transmitted depending on security.
이어서, 상기 아바타정보를 제공받은 상기 외부의 메타버스플랫폼(5000)에서, 사용자는 아바타를 이용하고, 사용자의 아바타 이용에 따른 인터랙션정보가 생성된다. 구체적으로 인터랙션정보는 상기 외부의 메타버스플랫폼(5000) 이용 상황에 맞게 아바타를 업데이트할 수 있는 정보를 의미할 수 있고, 상기 외부의 메타버스플랫폼(5000)이 제공하는 서비스에 따라 달라질 수 있다. 예를 들어, 상기 외부의 메타버스플랫폼(5000)이 의료서비스를 제공하는 경우와 상기 외부의 메타버스플랫폼(5000)이 게임을 제공하는 경우의 인터랙션정보는 다를 수 있다.Next, in the external metaverse platform (5000) that has received the avatar information, the user uses the avatar, and interaction information is generated according to the user's use of the avatar. Specifically, the interaction information may mean information that can update the avatar according to the usage situation of the external metaverse platform (5000), and may vary depending on the service provided by the external metaverse platform (5000). For example, the interaction information may be different when the external metaverse platform (5000) provides a medical service and when the external metaverse platform (5000) provides a game.
본 발명의 실시예에 따르면, 상기 외부의 메타버스플랫폼(5000)에서 사용자가 이용하는 아바타는, 본 발명에서 생성한 아바타 혹은 상기 외부의 메타버스플랫폼(5000)이 수신한 아바타에 대한 정보가 반영된 상기 외부의 메타버스플랫폼(5000)에서 제공하는 아바타에 해당할 수 있다. According to an embodiment of the present invention, the avatar used by the user in the external metaverse platform (5000) may correspond to an avatar created in the present invention or an avatar provided by the external metaverse platform (5000) in which information about the avatar received by the external metaverse platform (5000) is reflected.
상기 외부의 메타버스플랫폼(5000)에서 인터랙션정보를 수신한 컴퓨팅시스템은 상기 인터랙션정보에 기초하여 아바타업데이트를 수행한다. 구체적으로, 상기 인터랙션정보는 사용자가 상기 외부의 메타버스플랫폼(5000) 내에서 아바타 이용하며 생성된 모든 정보를 포함하고 있어, 상기 인터랙션정보에서 아바타와 관련된 정보만을 추출하여 사용한다. 추출한 상기 아바타와 관련된 인터랙션정보를 기초로 상기 아바타를 업데이트할 수 있다. 본 발명의 일 실시예에 따르면, 상기 인터랙션정보에서 아바타와 관련된 정보는 상기 외부의 메타버스플랫폼(5000)이 제공하는 서비스에 따라 달라질 수 있어, 상기 외부의 메타버스플랫폼(5000) 특색에 맞게 아바타를 업데이트할 수 있는 효과를 발휘할 수 있다.A computing system that receives interaction information from the external metaverse platform (5000) performs an avatar update based on the interaction information. Specifically, the interaction information includes all information generated while the user uses the avatar within the external metaverse platform (5000), and thus only information related to the avatar is extracted and used from the interaction information. The avatar can be updated based on the extracted interaction information related to the avatar. According to one embodiment of the present invention, information related to the avatar in the interaction information can vary depending on the service provided by the external metaverse platform (5000), and thus the effect of updating the avatar according to the characteristics of the external metaverse platform (5000) can be exerted.
이하에서는, 상기 외부의 메타버스플랫폼(5000)이 게임을 제공하는 경우에 대해서 서술한다.Below, we describe a case where the external metaverse platform (5000) provides a game.
도 15는 본 발명의 일 실시예에 따른 인터랙션정보에 대해 개략적으로 도시한다.Figure 15 schematically illustrates interaction information according to one embodiment of the present invention.
도 15에 도시된 바와 같이, 상기 인터랙션정보는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 사용시간, 레벨업정보, 수집아이템개수, 착용아이템개수, 습득스킬개수 및 퀘스트클리어개수를 포함할 수 있다.As illustrated in Figure 15, the interaction information may include usage time, level-up information, number of collected items, number of worn items, number of acquired skills, and number of quests cleared when the game is provided on the external metaverse platform (5000).
구체적으로, 상기 외부의 메타버스플랫폼(5000) 내에서 사용자가 아바타를 이용하여 게임을 하면서 생성된 모든 정보가 인터랙션정보로 저장되고, 상기 외부의 메타버스플랫폼(5000)이 게임을 제공하는 경우에는, 사용자가 아바타를 이용한 사용시간, 사용자가 아바타를 이용하여 게임의 레벨에 대해 레벨업정보, 사용자가 아바타를 이용하여 수집한 아이템의 수집아이템개수, 사용자가 아바타에 착용한 착용아이템개수, 사용자가 아바타에 대해서 습득한 습득스킬개수 및 사용자가 아바타를 이용하여 상기 외부의 메타버스플랫폼(5000) 내의 퀘스트를 클리어한 퀘스트클리어개수 등이 인터랙션정보에 포함될 수 있고, 상기 인터랙션정보에서 아바타와 관련된 정보로 사용시간, 레벨업정보, 수집아이템개수, 착용아이템개수, 습득스킬개수 및 퀘스트클리어개수가 추출될 수 있다.Specifically, all information generated when a user plays a game using an avatar within the external metaverse platform (5000) is stored as interaction information, and when the external metaverse platform (5000) provides a game, the user's usage time using the avatar, level-up information about the level of the game using the avatar, the number of collected items collected by the user using the avatar, the number of worn items worn by the user on the avatar, the number of acquired skills acquired by the user for the avatar, and the number of quests cleared by the user using the avatar within the external metaverse platform (5000) may be included in the interaction information, and the usage time, level-up information, number of collected items, number of worn items, number of acquired skills, and number of quests cleared by the user using the avatar may be extracted as information related to the avatar from the interaction information.
도 16은 본 발명의 일 실시예에 따른 노화정보에 기초한 아바타업데이트단계(S930)를 개략적으로 도시한다.Figure 16 schematically illustrates an avatar update step (S930) based on aging information according to one embodiment of the present invention.
도 16에 도시된 바와 같이, 상기 아바타업데이트단계(S930)는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 레벨업정보, 수집아이템개수 및 퀘스트클리어개수에 기초하여 상기 노화정보를 조절하고, 상기 노화정보에 기초하여 상기 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양에 대해 아바타를 업데이트할 수 있다.As illustrated in FIG. 16, the avatar update step (S930) can adjust the aging information based on the level-up information, the number of collected items, and the number of quests cleared, when the game is provided on the external metaverse platform (5000), and update the avatar with respect to the skin condition information, hair condition information, degree of bone curvature, eye inclination, and mouth shape based on the aging information.
구체적으로, 본 발명에서는 사용자의 복수의 이미지정보, 사용자의 뇌파정보 및 사용자의 맥박정보 중 일부 혹은 전체 기초하여 노화정보를 생성한다. 상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합한 아바타 업데이트를 위해, 상기 노화정보는 상기 인터랙션정보 중 일부에 기초하여 조절한다. 바람직하게는, 상기 노화정보를 조절하는 인터랙션정보에 해당하는 정보는 상기 레벨업정보, 상기 수집아이템개수 및 상기 퀘스트클리어개수일 수 있다.Specifically, in the present invention, aging information is generated based on some or all of the user's multiple image information, the user's brainwave information, and the user's pulse information. In order to update the avatar suitable for the game provided by the external metaverse platform (5000), the aging information is adjusted based on some of the interaction information. Preferably, the information corresponding to the interaction information that adjusts the aging information may be the level-up information, the number of collected items, and the number of quests cleared.
상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합하게 조절된 노화정보에 기초하여 상기 아바타를 업데이트한다. 상기 아바타의 노화에 표현할 수 있는 모든 요소들에 대해 업데이트 할 수 있으나, 바람직하게는 상기 아바타의 피부상태정보, 모발상태정보, 골격의 휘어진 정도, 눈의 기울기 및 입모양에 대해 업데이트 할 수 있다.The avatar is updated based on aging information that is adjusted to suit the game provided by the external metaverse platform (5000). All elements that can express the aging of the avatar can be updated, but preferably, the skin condition information, hair condition information, degree of bone curvature, eye inclination, and mouth shape of the avatar can be updated.
도 17은 본 발명의 일 실시예에 따른 이동속도에 기초한 아바타업데이트단계(S930)를 개략적으로 도시한다.Figure 17 schematically illustrates an avatar update step (S930) based on movement speed according to one embodiment of the present invention.
도 17에 도시된 바와 같이, 상기 아바타업데이트단계(S930)는, 상기 외부의 메타버스플랫폼(5000)에서 게임을 제공하는 경우에, 사용시간, 습득스킬개수 및 착용아이템개수에 기초하여 상기 이동속도를 조절하고, 상기 이동속도에 기초하여 아바타를 업데이트할 수 있다.As illustrated in FIG. 17, the avatar update step (S930) can adjust the movement speed based on the usage time, the number of skills acquired, and the number of items worn, and update the avatar based on the movement speed when the game is provided on the external metaverse platform (5000).
구체적으로, 본 발명에서는 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정한다. 상기 외부의 메타버스플랫폼(5000)이 제공하는 게임에 적합한 아바타 업데이트를 위해, 상기 이동속도는 상기 인터랙션정보 중 일부에 기초하여 조절한다. 바람직하게는, 사용시간, 습득스킬개수 및 착용아이템개수에 기초하여 상기 아바타를 업데이트한다. Specifically, in the present invention, the movement speed of the avatar is determined in such a way that the movement speed increases as the movement distance or the number of steps increases based on the movement distance or the number of steps derived from the user's smartphone for a preset time. In order to update the avatar suitable for the game provided by the external metaverse platform (5000), the movement speed is adjusted based on some of the interaction information. Preferably, the avatar is updated based on the usage time, the number of acquired skills, and the number of worn items.
한편, 인터랙션정보에 기초하여 조절된 이동속도는 상기 사용시간 늘어날수록, 습득스킬개수가 많을수록 이동속도를 높힐 수 있고, 착용아이템개수가 많을수록 이동속도를 낮출 수 있다. 따라서, 도 17에 도시된 바와 같이, 이동속도는 이전보다 ‘3’이 증가했고, 이는 이전보다 사용시간이 늘어났거나, 습득스킬개수가 많아졌거나, 착용아이템개수가 줄어들었거나 중 일부 혹은 전체를 의미할 수 있다.Meanwhile, the movement speed adjusted based on the interaction information can increase as the usage time increases and the number of acquired skills increases, and can decrease as the number of worn items increases. Accordingly, as shown in Fig. 17, the movement speed has increased by ‘3’ compared to before, which can mean some or all of the following: an increase in usage time, an increase in the number of acquired skills, or a decrease in the number of worn items.
도 17에 도시된 상기 아바타의 능력치는 본 발명의 일 실시예로서, 실제 본 발명의 아바타의 능력치는 도 17에 도시된 것으로 한정되지 않는다.The ability values of the avatar illustrated in FIG. 17 are an embodiment of the present invention, and the ability values of the actual avatar of the present invention are not limited to those illustrated in FIG. 17.
3. 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템3. A system for realistic effects that controls the humidity of the content environment performed by the avatar that created the humidity of the space where the user exists.
상술한 바와 같이 본 발명의 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템은 사용자정보에 기초하여 아바타를 생성하고, 콘텐츠 수행에 따른 수행결과, 집중도 및 활동량에 기초하여 아바타의 외형을 업데이트할 수 있고, 상기 외부의 메타버스플랫폼(5000)에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼 내에서 아바타가 인터랙션한 인터랙션정보를 수신하여 이를 기초로 아바타를 업데이트한다. As described above, the system for controlling the humidity of a content environment in which a user of the present invention performs by creating an avatar that creates a humidity of a space in which the user exists for a realistic effect can create an avatar based on user information, update the appearance of the avatar based on the performance result, concentration, and activity level according to the content performance, provide information about the avatar to an external metaverse platform (5000), and receive interaction information about the avatar's interaction within the external metaverse platform and update the avatar based on the information.
한편, 상기 실감 효과를 위한 시스템은 사용자가 존재하는 환경을 콘텐츠의 환경과 유사하게 제공하여 실감 효과를 제공하는 것으로써, 이하에서는, 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠 내의 환경의 습도를 도출하고, 콘텐츠 내의 환경 습도에 기초하여 사용자가 존재하는 환경의 습도를 제어할 수 있도록 하는 시스템에 대하여 상세하게 설명하도록 한다.Meanwhile, the system for the above-mentioned realism effect provides a realism effect by providing an environment in which the user exists similarly to the environment of the content. Below, a system that derives the humidity of the environment in the content provided by an external metaverse platform (5000) and controls the humidity of the environment in which the user exists based on the environmental humidity in the content will be described in detail.
상기 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠에 대한 최적의 경험을 위해 콘텐츠와 사용자 간의 상호작용이 필요하다. 상기 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠는 시각 및 청각적인 효과만 제공할 뿐 촉각적인 효과는 제공하지 못한다. 즉, 상기 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠 내부의 환경의 습도는 사용자가 느낄 수가 없어 콘텐츠에 대한 몰입감이 떨어질 수 있다.In order to provide an optimal experience with the content provided by the external metaverse platform (5000), interaction between the content and the user is required. The content provided by the external metaverse platform (5000) only provides visual and auditory effects and does not provide tactile effects. In other words, the humidity of the environment inside the content provided by the external metaverse platform (5000) cannot be felt by the user, which may reduce the sense of immersion in the content.
예를 들어, 콘텐츠의 환경이 겨울이지만 사용자가 존재하고 있는 실제 계절이 여름일 경우에는 콘텐츠에 의해서 보여지고 사용자가 체험하고 있는 환경의 습도는 낮지만, 사용자가 느끼는 습도는 높아 콘텐츠에 대한 현존감이 떨어질 수 있다. 따라서, 더 나은 수준의 콘텐츠 경험을 제공하고자 아바타를 생성하여 수행하는 콘텐츠 내 환경 습도로 실제 공간의 습도를 제어하는 방법을 제시한다.For example, if the content environment is winter but the actual season where the user exists is summer, the humidity of the environment shown by the content and experienced by the user may be low, but the humidity felt by the user may be high, which may reduce the sense of presence of the content. Therefore, in order to provide a better level of content experience, a method is proposed to control the humidity of the actual space with the environmental humidity in the content by creating an avatar and performing it.
도 18은 본 발명의 일 실시예에 따른 습도제어부(7000) 및 습도조절장치(8000)를 개략적으로 도시한다.Figure 18 schematically illustrates a humidity control unit (7000) and a humidity control device (8000) according to one embodiment of the present invention.
도 18에 도시된 바와 같이, 사용자가 존재하는 공간의 습도를 생성한 아바타로 수행하는 콘텐츠 환경의 습도로 제어하는 실감 효과를 위한 시스템으로서, 사용자가 존재하는 현실환경의 습도를 측정하고 제어하는 습도조절장치(8000)를 포함할 수 있고, 기계학습된 추론모델을 포함하고, 상기 기계학습된 추론모델 및 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠의 콘텐츠영상에 기초하여 상기 콘텐츠영상 내 콘텐츠환경의 콘텐츠습도를 도출하고, 상기 콘텐츠습도에 기초하여 상기 습도조절장치(8000)를 제어하여 상기 사용자가 존재하는 현실환경의 현실습도를 제어하는 습도제어부(7000)를 포함할 수 있다.As illustrated in FIG. 18, a system for a realistic effect that controls the humidity of a content environment in which a user exists by creating an avatar that generates humidity in a space in which the user exists may include a humidity control device (8000) that measures and controls the humidity of a real environment in which the user exists, and may include a humidity control unit (7000) that includes a machine-learned inference model and derives content humidity of a content environment in the content image based on the machine-learned inference model and a content image of the content provided by the external metaverse platform, and controls the humidity control device (8000) based on the content humidity to control the real humidity of the real environment in which the user exists.
구체적으로, 습도제어부(7000)는 제1습도제어부(7100) 및 제2습도제어부(7200)를 포함하고, 습도조절장치(8000)로부터 사용자가 존재하는 공간의 습도인 현실습도를 수신하고, 상기 습도조절장치(8000)를 제어하여 상기 콘텐츠습도를 기초로 상기 현실습도를 제어할 수 있다. Specifically, the humidity control unit (7000) includes a first humidity control unit (7100) and a second humidity control unit (7200), receives the actual humidity, which is the humidity of a space where a user exists, from a humidity control device (8000), and controls the humidity control device (8000) to control the actual humidity based on the content humidity.
더 구체적으로, 상기 사용자가 상기 아바타 혹은 상기 아바타에 대한 정보가 반영되어 있는 상기 외부의 메타버스플랫폼(5000)이 제공하는 아바타를 이용하여 상기 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠를 수행하면, 컨텐츠영상을 기계학습된 추론모델에 입력하여 복수의 콘텐츠습도를 도출할 수 있다. 상기 복수의 콘텐츠습도를 도출하는 자세한 사항은 후술하도록 한다. 상기 컨텐츠영상은 사용자가 착용하고 있는 HMD에 디스플레이되어 상기 사용자가 아바타를 이용해 콘텐츠를 수행하는 영상일 수 있다.More specifically, when the user performs content provided by the external metaverse platform (5000) using the avatar or the avatar provided by the external metaverse platform (5000) in which information about the avatar is reflected, the content image can be input into a machine-learned inference model to derive multiple content sensitivities. The details of deriving the multiple content sensitivities will be described later. The content image can be an image displayed on an HMD worn by the user and showing the user performing content using the avatar.
상기 복수의 콘텐츠습도는 상기 제1습도제어부(7100)에 의해서 제1콘텐츠습도로, 상기 제2습도제어부(7200)에 의해서 제2콘텐츠습도 및 제3콘텐츠습도로 도출되고, 상기 제1습도제어부(7100)는 제1콘텐츠습도를 기초로 상기 습도조절장치(8000)를 제어하여 상기 현실습도를 제어할 수 있고, 상기 제2습도제어부(7200)는 제2콘텐츠습도 및 제3콘텐츠습도를 기초로 상기 습도조절장치(8000)를 제어하여 상기 현실습도를 제어할 수 있다. 상기 제1습도제어부(7100) 및 상기 제2습도제어부(7200)의 자세한 사항에 대해서는 후술하도록 한다. The above plural content humidity is derived as the first content humidity by the first humidity control unit (7100), and as the second content humidity and the third content humidity by the second humidity control unit (7200). The first humidity control unit (7100) can control the humidity control device (8000) based on the first content humidity to control the actual humidity, and the second humidity control unit (7200) can control the humidity control device (8000) based on the second content humidity and the third content humidity to control the actual humidity. The details of the first humidity control unit (7100) and the second humidity control unit (7200) will be described later.
본 발명의 일 실시예에 따르면, 상기 사용자는 상기 제1습도제어부(7100) 및 상기 제2습도제어부(7200) 중 하나를 선택하여 상기 현실습도를 제어할 수 있다.According to one embodiment of the present invention, the user can control the actual humidity by selecting one of the first humidity control unit (7100) and the second humidity control unit (7200).
상기 습도조절장치(8000)는 제습 및 가습을 수행할 수 있는 모든 기기를 의미할 수 있다. 예를 들어, 한 가지 기기로 제습 및 가습을 모두 수행할 수 있는 일체형을 포함하거나, 가습을 수행하는 가습기 및 제습을 수행하는 제습기 두 기기 모두를 포함할 수 있고, 상기 현실습도를 기설정된 간격으로 측정할 수 있고, 실시간으로 측정할 수 있다.The above humidity control device (8000) may refer to any device capable of performing dehumidification and humidification. For example, it may include an integrated device capable of performing both dehumidification and humidification with a single device, or it may include both a humidifier performing humidification and a dehumidifier performing dehumidification, and it may measure the actual humidity at preset intervals and in real time.
도 19은 본 발명의 일 실시예에 따른 기계학습된 추론모델의 콘텐츠습도를 도출을 개략적으로 도시한다. Figure 19 schematically illustrates derivation of content humidity of a machine-learned inference model according to one embodiment of the present invention.
도 19에 도시된 바와 같이, 상기 추론모델은, 입력된 상기 콘텐츠영상에서 기설정된 규칙으로 복수의 프레임을 추출하고, 상기 복수의 프레임 각각에서 해당 프레임의 콘텐츠습도를 도출할 수 있다.As illustrated in Figure 19, the inference model can extract multiple frames from the input content image according to preset rules, and derive the content humidity of each frame from each of the multiple frames.
구체적으로, 기계학습된 추론모델에 상기 외부 메타버스플랫폼(5000)이 제공하는 콘텐츠의 콘텐츠영상을 입력할 수 있다. 상기 콘텐츠영상은 사용자가 착용하고 있는 HMD에 디스플레이되는, 사용자가 아바타를 사용하여 상기 외부 메타버스플랫폼(5000)이 제공하는 콘텐츠를 수행하는 영상을 의미할 수 있다. 상기 기계학습된 추론모델에 기설정된 시간 동안의 콘텐츠영상을 입력할 수 있다. 예를 들어, 기설정된 시간은 상기 콘텐츠가 수행되는 상기 외부의 메타버스플랫폼(5000) 내의 장소가 변화하지 않은 동안의 일부 혹은 전체 시간을 의미할 수 있다. Specifically, a content image of content provided by the external metaverse platform (5000) can be input into the machine-learned inference model. The content image can mean an image displayed on an HMD worn by a user, in which a user performs content provided by the external metaverse platform (5000) using an avatar. A content image for a preset period of time can be input into the machine-learned inference model. For example, the preset period of time can mean a part or the entire period of time during which a location within the external metaverse platform (5000) where the content is performed does not change.
상기 기계학습된 추론모델은 입력된 상기 콘텐츠영상에서 상기 기설정된 규칙으로 복수의 프레임을 추출할 수 있다. 상기 기설정된 규칙은 입력된 상기 콘텐츠영상의 시간 길이에 따라 추출되는 프레임수가 다르거나, 고정되게 설정될 수 있다. 예를 들어, 입력된 콘텐츠영상에서 2초마다 1 프레임을 추출하거나, 상기 콘텐츠영상의 시간 길이에 상관없이 50프레임을 추출할 수 있다.The above machine-learned inference model can extract multiple frames from the input content video with the above preset rule. The above preset rule can be set so that the number of frames extracted varies depending on the time length of the input content video, or can be fixed. For example, one frame can be extracted every two seconds from the input content video, or 50 frames can be extracted regardless of the time length of the content video.
이어서, 기계학습된 추론모델은 상기 복수의 프레임 각각에 대해서 콘텐츠습도를 도출하여 복수의 콘텐츠습도를 획득할 수 있다. 상기 콘텐츠습도는 상기 콘텐츠영상에서의 아바타가 존재하는 환경(배경)의 습도에 해당할 수 있다.Next, the machine-learned inference model can obtain multiple content humidity by deriving content humidity for each of the multiple frames. The content humidity can correspond to the humidity of the environment (background) in which the avatar exists in the content video.
기계학습된 추론모델에 의해 도출된 상기 복수의 콘텐츠습도는 상기 습도제어부(7000)에 의해 상기 제1콘텐츠습도, 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도로 도출될 수 있고, 자세한 사항에 대해서는 후술하도록 한다.The above multiple content humidity derived by the machine-learned inference model can be derived as the first content humidity, the second content humidity, and the third content humidity by the humidity control unit (7000), and details will be described later.
본 발명의 실시예에 따른 기계학습된 추론모델은 컨볼루션신경망모델(CNN), 캡슐네트워크(CapsNet) 등의 인공신경망 모델 및 규칙-기반 특징정보 추출 모델 중 1 이상을 포함하는 형태로 구현될 수 있고, CCTV 등 위치 및 시간이 기록되어 있는 영상정보 및 해당 영상의 해당 지역, 해당 시간의 습도 자료를 통해 학습할 수 있다.A machine-learned inference model according to an embodiment of the present invention can be implemented in a form that includes at least one of an artificial neural network model such as a convolutional neural network model (CNN), a capsule network (CapsNet), and a rule-based feature information extraction model, and can be learned through image information such as CCTV in which location and time are recorded, and humidity data of a corresponding region and time of the corresponding image.
도 20은 본 발명의 일 실시예에 따른 제1습도제어부(7100)가 수행하는 단계를 개략적으로 도시한다.Figure 20 schematically illustrates steps performed by a first humidity control unit (7100) according to one embodiment of the present invention.
도 20에 도시된 바와 같이, 상기 습도제어부(7000)는, 제1습도제어부(7100)를 포함하고, 상기 제1습도제어부(7100)는, 외부의 메타버스플랫폼(5000)에서 상기 콘텐츠영상을 수신하는 제1콘텐츠영상수신단계(S1000); 상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하는 제1콘텐츠습도도출단계(S1010); 상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치(8000)로부터 수신하는 제1현실습도수신단계(S1020); 및 상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 상기 습도조절장치(8000)를 제어하는 제1현실습도제어단계(S1030);를 수행할 수 있다.As illustrated in FIG. 20, the humidity control unit (7000) includes a first humidity control unit (7100), and the first humidity control unit (7100) can perform a first content image receiving step (S1000) of receiving the content image from an external metaverse platform (5000); a first content humidity deriving step (S1010) of inputting the content image into the machine-learned inference model to derive a plurality of content humidity and deriving an average value of the plurality of content humidity as the first content humidity; a first reality humidity receiving step (S1020) of receiving a reality humidity measured in a real environment in which the user exists from the humidity control device (8000); and a first reality humidity control step (S1030) of controlling the humidity control device (8000) so that the reality humidity reaches the first content humidity.
구체적으로, 상기 제1콘텐츠영상수신단계(S1000)에서는 상기 외부의 메타버스플랫폼(5000)이 제공하여 사용자가 수행하고 있는 콘텐츠에 대한 콘텐츠영상을 수신할 수 있고, 상기 제1습도제어부(7100)는 상기 콘텐츠영상을 상기 습도제어부에 포함된 기계학습된 추론모델에 입력하여 프레임에 대해 도 19에서 상술한 방법에 의해 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하는 제1콘텐츠습도도출단계(S1010)를 수행할 수 있다.Specifically, in the first content image reception step (S1000), the content image for the content being performed by the user can be received, which is provided by the external metaverse platform (5000), and the first humidity control unit (7100) can input the content image into a machine-learned inference model included in the humidity control unit to derive a plurality of content humidity for the frame by the method described above in FIG. 19, and perform the first content humidity derivation step (S1010) of deriving an average value of the plurality of content humidity as the first content humidity.
본 발명의 실시예에 따르면, 상기 콘텐츠영상을 기설정된 시간 동안의 프레임에 대해 복수의 콘텐츠습도를 도출할 수 있다.According to an embodiment of the present invention, multiple content humidities can be derived for frames of the content video for a preset period of time.
이후에, 상기 제1습도제어부(7100)는 상기 사용자가 존재하고, 상기 콘텐츠를 수행하고 있는 장소인 현실환경의 습도를 측정한 현실습도를 상기 습도조절장치(8000)로부터 수신하는 단계(S1020)를 수행할 수 있다.Thereafter, the first humidity control unit (7100) can perform a step (S1020) of receiving the actual humidity, which is the humidity of the actual environment where the user exists and performs the content, from the humidity control device (8000).
상기 제1습도제어부(7100)는 상기 제1콘텐츠습도와 측정된 상기 현실습도 값의 비교 결과에 따라 제1현실습도제어단계(S1030)를 수행할 수 있다.The above first humidity control unit (7100) can perform the first reality humidity control step (S1030) based on the comparison result between the first content humidity and the measured reality humidity value.
상기 현실습도가 상기 제1콘텐츠습도보다 높을 경우에는 상기 제1습도제어부(7100)는 습도조절장치(8000)가 제습을 수행하여 상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 제어할 수 있다.When the actual humidity is higher than the first content humidity, the first humidity control unit (7100) can control the humidity control device (8000) to perform dehumidification so that the actual humidity reaches the first content humidity.
상기 현실습도가 상기 제1콘텐츠습도보다 낮을 경우에는 상기 제1습도제어부(7100)는 습도조절장치(8000)가 가습을 수행하여 상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 제어할 수 있다. When the actual humidity is lower than the first content humidity, the first humidity control unit (7100) can control the humidity control device (8000) to perform humidification so that the actual humidity reaches the first content humidity.
본 발명의 실시예에 따르면, 상기 제1습도제어부(7100)는 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하여 상기 현실습도를 제어하므로, 기계학습된 추론모델에서 도출하는 각각의 콘텐츠습도의 오차를 줄일 수 있는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the first humidity control unit (7100) controls the actual humidity by deriving an average value of multiple content humidity as the first content humidity, thereby reducing the error of each content humidity derived from a machine-learned inference model.
도 21은 본 발명의 일 실시예에 따른 제2습도제어부(7200)가 수행하는 단계를 개략적으로 도시한다.Figure 21 schematically illustrates steps performed by a second humidity control unit (7200) according to one embodiment of the present invention.
도 21에 도시된 바와 같이, 상기 습도제어부(7000)는, 제2습도제어부(7200)를 포함하고, 상기 제2습도제어부(7200)는, 외부의 메타버스플랫폼(5000)에서 상기 콘텐츠영상을 수신하는 제2콘텐츠영상수신단계(S1100); 상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도 중 최고 습도를 제2콘텐츠습도 및 최저 습도를 제3콘텐츠습도로 도출하는 제2콘텐츠습도도출단계(S1110); 상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치(8000)로부터 수신하는 제2현실습도수신단계(S1120); 및 상기 현실습도가 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지되도록 상기 습도조절장치(8000)를 제어하는 제2현실습도제어단계(S1130);를 수행할 수 있다.As illustrated in FIG. 21, the humidity control unit (7000) includes a second humidity control unit (7200), and the second humidity control unit (7200) can perform a second content image receiving step (S1100) of receiving the content image from an external metaverse platform (5000); a second content humidity deriving step (S1110) of inputting the content image into the machine-learned inference model to derive a plurality of content humidity, and deriving the highest humidity among the plurality of content humidity as the second content humidity and the lowest humidity as the third content humidity; a second reality humidity receiving step (S1120) of receiving the reality humidity measured in the real environment in which the user exists from the humidity control device (8000); and a second reality humidity control step (S1130) of controlling the humidity control device (8000) so that the reality humidity is maintained between the second content humidity and the third content humidity.
구체적으로, 상기 제2콘텐츠영상수신단계(S1100)에서는 상기 외부의 메타버스플랫폼(5000)이 제공하여 사용자가 수행하고 있는 콘텐츠에 대한 콘텐츠영상을 수신할 수 있고, 상기 제2습도제어부(7200)는 상기 콘텐츠영상을 상기 습도제어부에 포함된 기계학습된 추론모델에 입력하여 도 19에서 상술한 방법에 의해 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도에서 최고 습도를 제2콘텐츠습도로 도출하고, 최저 습도를 제3콘텐츠습도로 도출하는 제2콘텐츠습도도출단계(S1110)를 수행할 수 있다.Specifically, in the second content image reception step (S1100), the content image for the content being performed by the user can be received, which is provided by the external metaverse platform (5000), and the second humidity control unit (7200) can input the content image into the machine-learned inference model included in the humidity control unit to derive a plurality of content humidity by the method described above in FIG. 19, and perform the second content humidity derivation step (S1110) of deriving the highest humidity from the plurality of content humidity as the second content humidity and deriving the lowest humidity as the third content humidity.
본 발명의 실시예에 따르면, 상기 콘텐츠영상을 기설정된 시간 동안의 프레임에 대해 복수의 콘텐츠습도를 도출할 수 있다.According to an embodiment of the present invention, multiple content humidities can be derived for frames of the content video for a preset period of time.
이후에, 상기 제2습도제어부(7200)는 상기 사용자가 존재하고, 상기 콘텐츠를 수행하고 있는 장소인 현실환경의 습도를 측정한 현실습도를 상기 습도조절장치(8000)로부터 수신하는 단계(S1120)를 수행할 수 있다.Thereafter, the second humidity control unit (7200) can perform a step (S1120) of receiving the actual humidity, which is the humidity of the actual environment where the user exists and performs the content, from the humidity control device (8000).
상기 제2습도제어부(7200)는 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도와 측정된 현실습도 값의 비교 결과에 따라 제2현실습도제어단계(S1130)를 수행할 수 있다. The above second humidity control unit (7200) can perform the second reality humidity control step (S1130) based on the comparison result between the second content humidity and the third content humidity and the measured reality humidity value.
상기 현실습도가 상기 제2콘텐츠습도보다 높을 경우에는 상기 제2습도제어부(7200)는 습도조절장치(8000)가 제습을 수행하여 상기 현실습도가 상기 제2콘텐츠습도 및 제3콘텐츠습도 사이로 유지되도록 제어할 수 있다.When the actual humidity is higher than the second content humidity, the second humidity control unit (7200) can control the humidity control device (8000) to perform dehumidification so that the actual humidity is maintained between the second content humidity and the third content humidity.
상기 현실습도가 상기 제3콘텐츠습도보다 낮을 경우에는 상기 제2습도제어부(7200)는 습도조절장치(8000)가 가습을 수행하여 상기 현실습도가 상기 제2콘텐츠습도 및 제3콘텐츠습도 사이로 유지되도록 제어할 수 있다.When the actual humidity is lower than the third content humidity, the second humidity control unit (7200) can control the humidity control device (8000) to perform humidification so that the actual humidity is maintained between the second content humidity and the third content humidity.
상기 현실습도가 상기 제2콘텐츠습도 및 제3콘텐츠습도 사이인 경우에는 상기 제2습도제어부(7200)는 습도조절장치(8000)가 제습 혹은 가습을 수행하여 상태가 유지되도록 제어할 수 있다.When the actual humidity is between the second content humidity and the third content humidity, the second humidity control unit (7200) can control the humidity control device (8000) to perform dehumidification or humidification so that the state is maintained.
본 발명의 실시예에 따르면, 상기 제2습도제어부(7200)는 복수의 콘텐츠습도의 최고 습도를 제2콘텐츠습도로, 최저 습도를 제3콘텐츠습도로 도출하여 상기 현실습도를 제어하므로, 습도조절장치(8000)의 에너지 효율을 높이는 효과를 발휘할 수 있다.According to an embodiment of the present invention, the second humidity control unit (7200) controls the actual humidity by deriving the highest humidity among the plurality of content humidity as the second content humidity and the lowest humidity as the third content humidity, thereby increasing the energy efficiency of the humidity control device (8000).
도 22은 본 발명의 일 실시예에 따른 콘텐츠 내에서 장소를 이동하는 경우에 습도제어 방법을 개략적으로 도시한다.FIG. 22 schematically illustrates a humidity control method when moving a location within content according to one embodiment of the present invention.
도 22에 도시된 바와 같이, 상기 제1현실습도제어단계는, 특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제1콘텐츠습도에 도달하기 위한 상기 습도조절장치(8000)의 작동을 중지할 수 있고, 상기 제2현실습도제어단계는, 특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지하기 위한 상기 습도조절장치(8000)의 작동을 중지할 수 있다.As illustrated in FIG. 22, in the case where content moving from a specific location to another location is performed, the first reality humidity control step can stop the operation of the humidity control device (8000) for reaching the first content humidity of the specific location when the content progress rate in the specific location reaches a preset progress rate, and in the case where the second reality humidity control step, in the case where content moving from a specific location to another location is performed, the operation of the humidity control device (8000) for maintaining the humidity of the specific location between the second content humidity and the third content humidity can stop when the content progress rate in the specific location reaches a preset progress rate.
상기 제1현실습도제어단계는 제1습도제어부(7100)에서 수행되고, 상기 제2현실습도제어단계는 제2습도제어부(7200)에서 수행될 수 있고, 경우에 따라 습도조절장치(8000)의 작동을 멈추어 에너지를 효율적으로 소비하는 효과를 발휘할 수 있다.The above first reality humidity control step is performed in the first humidity control unit (7100), and the above second reality humidity control step can be performed in the second humidity control unit (7200), and in some cases, the operation of the humidity control device (8000) can be stopped to achieve the effect of efficiently consuming energy.
구체적으로, 상기 외부의 메타버스플랫폼(5000)이 제공하는 콘텐츠가 특정 장소에서 타 장소로 이동이 정해져 있는 경우에는 상기 특정 장소에서 콘텐츠의 진행률에 따라 상기 습도조절장치(8000)의 작동을 멈추도록 제어할 수 있다. 더 구체적으로, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률(바람직하게는 100퍼센트에 가까운 진행률)에 도달하게되면, 콘텐츠의 진행률이 100퍼센트에 도달한 후 콘텐츠 상에서 타 장소로 이동하여 상기 타 장소의 콘텐츠습도를 기초로 현실습도를 제어할 것을 고려하여 상기 습도조절장치(8000)의 작동을 멈출 수 있다.Specifically, when the content provided by the external metaverse platform (5000) is set to move from a specific location to another location, the operation of the humidity control device (8000) can be controlled to stop depending on the progress of the content in the specific location. More specifically, when the progress of the content in the specific location reaches a preset progress (preferably a progress close to 100 percent), the operation of the humidity control device (8000) can be stopped in consideration of moving to another location on the content after the progress of the content reaches 100 percent and controlling the actual humidity based on the content humidity of the other location.
도 22에서 A콘텐츠의 콘텐츠환경은 비내리는 도시이고, B콘텐츠의 콘텐츠환경은 사막이므로, 상기 A콘텐츠의 콘텐츠습도와 상기 B콘텐츠의 콘텐츠습도의 차이는 클 수 있고, 상대적으로 상기 A콘텐츠의 콘텐츠습도가 상기 B콘텐츠의 콘텐츠습도보다 높을 수 있다. 따라서, A콘텐츠의 콘텐츠 진행률이 T1 시점에서 기설정된 80퍼센트에 도달하게 되면, 상기 A콘텐츠의 콘텐츠습도를 기초로 상기 현실습도를 제어하는 습도조절장치(8000)의 작동을 T1 시점에서부터 멈출 수 있다. 이후, 상기 사용자가 이용하는 아바타가 B콘텐츠인 사막으로 이동한 T2 시점부터 상기 습도조절장치(8000)의 작동을 시작할 수 있다.In Fig. 22, since the content environment of content A is a rainy city and the content environment of content B is a desert, the difference between the content humidity of content A and the content humidity of content B may be large, and relatively, the content humidity of content A may be higher than the content humidity of content B. Accordingly, when the content progress rate of content A reaches a preset 80 percent at time T1, the operation of the humidity control device (8000) that controls the real humidity based on the content humidity of content A may be stopped from time T1. Thereafter, the operation of the humidity control device (8000) may be started from time T2 when the avatar used by the user moves to the desert, which is content B.
상기 제1습도제어부(7100)의 경우에는 상기 A콘텐츠의 콘텐츠습도는 A콘텐츠영상에 대해 기계학습된 추론모델에서 도출한 복수의 콘텐츠습도의 평균값인 제1콘텐츠습도일 수 있고, 상기 현실습도가 제1콘텐츠습도에 도달하도록 제어하는 습도조절장치(8000)의 작동을 T1시점에서부터 멈출 수 있고, 상기 사용자가 이용하는 아바타가 B콘텐츠인 사막으로 이동한 T2 시점부터 상기 습도조절장치(8000)의 작동을 시작할 수 있다. 또한, 상기 습도조절장치(8000)를 제어하여 상기 B콘텐츠의 제1콘텐츠습도에 기초하여 상기 현실습도를 제어할 수 있고, 상기 B콘텐츠의 진행률이 기설정된 80퍼센트에 도달한 T3시점에서부터 습도조절장치(8000)의 작동을 멈출 수 있다.In the case of the first humidity control unit (7100), the content humidity of the A content may be the first content humidity, which is an average value of multiple content humidity derived from a machine-learned inference model for the A content video, and the operation of the humidity control device (8000) that controls the reality humidity to reach the first content humidity may be stopped from time T1, and the operation of the humidity control device (8000) may be started from time T2 when the avatar used by the user moves to the desert, which is the B content. In addition, the humidity control device (8000) may be controlled to control the reality humidity based on the first content humidity of the B content, and the operation of the humidity control device (8000) may be stopped from time T3 when the progress of the B content reaches a preset 80 percent.
상기 제2습도제어부(7200)의 경우에는 상기 A콘텐츠의 콘텐츠습도는 A콘텐츠영상에 대해 기계학습된 추론모델에서 도출한 복수의 콘텐츠습도 중에서 최고 습도를 제2콘텐츠습도, 최저 습도를 제3콘텐츠습도 도출할 수 있고, 상기 현실습도가 제2콘텐츠습도 및 제3콘텐츠습도 사이로 유지되도록 제어하는 습도조절장치(8000)의 작동을 T1시점에서부터 멈출 수 있고, 상기 사용자가 이용하는 아바타가 B콘텐츠인 사막으로 이동한 T2 시점부터 상기 습도조절장치(8000)의 작동을 시작할 수 있다. 또한, 상기 습도조절장치(8000)를 제어하여 상기 B콘텐츠의 제2콘텐츠습도 및 제3콘텐츠습도에 기초하여 상기 현실습도를 제어할 수 있고, 상기 B콘텐츠의 진행률이 기설정된 80퍼센트에 도달한 T3시점에서부터 습도조절장치(8000)의 작동을 멈출 수 있다.In the case of the second humidity control unit (7200), the content humidity of the A content can derive the highest humidity as the second content humidity and the lowest humidity as the third content humidity from among the multiple content humidity derived from the machine-learned inference model for the A content video, and the operation of the humidity control device (8000) that controls the reality humidity to be maintained between the second content humidity and the third content humidity can be stopped from time T1, and the operation of the humidity control device (8000) can be started from time T2 when the avatar used by the user moves to the desert, which is the B content. In addition, the humidity control device (8000) can be controlled to control the reality humidity based on the second content humidity and the third content humidity of the B content, and the operation of the humidity control device (8000) can be stopped from time T3 when the progress of the B content reaches a preset 80 percent.
도 23는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.FIG. 23 exemplarily illustrates the internal configuration of a computing device according to one embodiment of the present invention.
도 23에 도시된 바와 같이, 컴퓨팅장치(11000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅장치(11000)의 내부 구성은 도 1에 도시된 컴퓨팅시스템이 포함할 수 있고, 혹은 컴퓨팅장치(11000)은 도 1에 도시된 컴퓨팅시스템의 일 실시예에 해당할 수 있으며, 상기 입/출력 서브시스템(11400)에 의하여 상기 VR서비스부(2000) 및 상기 추가콘텐츠부(4000)에 연결될 수 있다. 상기 프로세서(11100)은 복수로 구성될 수 있고, 전술한 제1프로세서모듈 및 제2프로세서모듈을 포함할 수 있다.As illustrated in FIG. 23, the computing device (11000) may include at least one processor (11100), a memory (11200), a peripheral interface (11300), an input/output subsystem (I/O subsystem) (11400), a power circuit (11500), and a communication circuit (11600). At this time, the internal configuration of the computing device (11000) may include the computing system illustrated in FIG. 1, or the computing device (11000) may correspond to an embodiment of the computing system illustrated in FIG. 1, and may be connected to the VR service unit (2000) and the additional content unit (4000) by the input/output subsystem (11400). The processor (11100) may be configured in plurality, and may include the first processor module and the second processor module described above.
메모리(11200)는 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그 밖에 다양한 데이터를 포함할 수 있다.The memory (11200) may include, for example, a high-speed random access memory, a magnetic disk, an SRAM, a DRAM, a ROM, a flash memory, or a nonvolatile memory. The memory (11200) may include a software module, a set of instructions, or other various data necessary for the operation of the computing device (11000).
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.At this time, access to the memory (11200) from other components such as the processor (11100) or peripheral interface (11300) may be controlled by the processor (11100).
주변장치 인터페이스(11300)는 컴퓨팅장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리(11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The peripheral interface (11300) can couple input and/or output peripherals of the computing device (11000) to the processor (11100) and memory (11200). The processor (11100) can execute software modules or instruction sets stored in the memory (11200) to perform various functions for the computing device (11000) and process data.
입/출력 서브시스템은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem can couple various input/output peripherals to the peripheral interface (11300). For example, the input/output subsystem can include a controller for coupling peripherals such as a monitor, a keyboard, a mouse, a printer, or, as needed, a touchscreen or a sensor to the peripheral interface (11300). In another aspect, the input/output peripherals can be coupled to the peripheral interface (11300) without going through the input/output subsystem.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit (11500) may provide power to all or part of the components of the terminal. For example, the power circuit (11500) may include a power management system, one or more power sources such as a battery or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator, or any other components for generating, managing, or distributing power.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅장치와 통신을 가능하게 할 수 있다.The communication circuit (11600) may enable communication with another computing device using at least one external port.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, the communication circuit (11600) may enable communication with another computing device by transmitting and receiving RF signals, also known as electromagnetic signals, including RF circuits, as needed.
이러한 도 23의 실시예는, 컴퓨팅장치(11000)의 일례일 뿐이고, 컴퓨팅장치(11000)는 도 23에 도시된 일부 컴포넌트가 생략되거나, 도 23에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅장치는 도 23에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(11600)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.This embodiment of FIG. 23 is only an example of a computing device (11000), and the computing device (11000) may have some of the components illustrated in FIG. 23 omitted, may further include additional components not illustrated in FIG. 23, or may have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touchscreen or a sensor, in addition to the components illustrated in FIG. 23, and may include a circuit for RF communication of various communication methods (WiFi, 3G, LTE, Bluetooth, NFC, Zigbee, etc.) in the communication circuit (11600). Components that can be included in the computing device (11000) may be implemented as hardware including one or more signal processing or application-specific integrated circuits, software, or a combination of both hardware and software.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 어플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 컴퓨팅장치(11000)에 설치될 수 있다. 일 예로, 파일 배포 시스템은 컴퓨팅장치(11000)의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.The methods according to the embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable medium. In particular, the program according to the embodiments may be configured as a PC-based program or an application exclusively for mobile terminals. The application to which the present invention is applied may be installed on a computing device (11000) through a file provided by a file distribution system. For example, the file distribution system may include a file transfer unit (not shown) that transfers the file according to a request from the computing device (11000).
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented using one or more general-purpose computers or special-purpose computers, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing instructions and responding to them. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For ease of understanding, the processing device is sometimes described as being used alone, but those skilled in the art will appreciate that the processing device may include multiple processing elements and/or multiple types of processing elements. For example, the processing device may include multiple processors, or a processor and a controller. Other processing configurations, such as parallel processors, are also possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to perform a desired operation or may independently or collectively command the processing device. The software and/or data may be permanently or temporarily embodied in any type of machine, component, physical device, virtual equipment, computer storage medium or device, or transmitted signal waves, for interpretation by the processing device or for providing instructions or data to the processing device. The software may also be distributed over network-connected computing devices, and stored or executed in a distributed manner. The software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the embodiment or may be those known to and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, flash memories, etc. Examples of the program commands include not only machine language codes generated by a compiler but also high-level language codes that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiment, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the embodiments have been described above by way of limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, appropriate results can be achieved even if the described techniques are performed in a different order from the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or are replaced or substituted by other components or equivalents. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (10)
사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치;
사용자가 존재하는 현실환경의 습도를 측정하고 제어하는 습도조절장치;
상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및
기계학습된 추론모델을 포함하고, 상기 기계학습된 추론모델 및 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠의 콘텐츠영상에 기초하여 상기 콘텐츠영상 내 콘텐츠환경의 콘텐츠습도를 도출하고, 상기 콘텐츠습도에 기초하여 상기 습도조절장치를 제어하여 상기 사용자가 존재하는 현실환경의 현실습도를 제어하는 습도제어부;를 포함하고,
상기 VR서비스부는,
상기 사용자만 이용 가능하고, 상기 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현부;
상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신부;
상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력부;
상기 가상현실구현부에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성부; 및
상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공부;를 포함하고,
상기 습도제어부는, 제1습도제어부를 포함하고,
상기 제1습도제어부는,
외부의 메타버스플랫폼에서 상기 콘텐츠영상을 수신하는 제1콘텐츠영상수신단계;
상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하는 제1콘텐츠습도도출단계;
상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치로부터 수신하는 제1현실습도수신단계; 및
상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 상기 습도조절장치를 제어하는 제1현실습도제어단계;를 수행하고,
상기 제1현실습도제어단계는,
특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제1콘텐츠습도에 도달하기 위한 상기 습도조절장치의 작동을 중지하고,
상기 아바타생성부는,
복수의 상기 이미지정보에 따라 아바타의 기본외형을 결정하고,
상기 생체정보에 따라 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하고,
해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고,
상기 VR콘텐츠제공부는,
해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공부;
해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공부;
해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공부;
상기 제1콘텐츠제공부, 상기 제2콘텐츠제공부, 및 상기 제3콘텐츠제공부에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어를 합산한 값에 따라 상기 노화정보를 조절하는 노화정보조절부; 및
상기 노화정보조절부에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트부;를 포함하고,
상기 생체정보는,
상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함하는, 실감 효과를 위한 시스템.
A system for a realistic effect that controls the humidity of the content environment performed by an avatar that creates the humidity of the space where the user exists.
A VR device including: an HMD that is mounted on a user and provides images and sounds of virtual reality and detects the user's voice; a camera device that photographs the user's appearance to derive image information of the user; an electroencephalograph that is attached to the user's head and can measure the user's brain waves; a pulse meter that is attached to the user's wrist and can measure the user's pulse; and a motion sensing device that measures the user's movements;
A humidity control device that measures and controls the humidity in the real environment where the user exists;
A VR service unit that communicates with a VR device worn by the user, provides information about virtual reality to the VR device, and creates an avatar for the user to provide multiple virtual reality contents to the user;
An avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information about interactions that a user has had with the avatar on the external metaverse platform, and performs an update on the avatar; and
A humidity control unit including a machine-learned inference model, and deriving content humidity of a content environment in the content image based on the machine-learned inference model and the content image provided by the external metaverse platform, and controlling the humidity control device based on the content humidity to control the real humidity of the real environment in which the user exists;
The above VR service department,
A virtual reality implementation unit that implements a virtual reality that is available only to the above users and provides the above multiple virtual reality contents;
A VR communication unit that communicates with the VR device and exchanges information;
A user information input unit that receives user information including the user's biometric information received from the VR device; and activity information and medical information received from the user's smartphone;
An avatar generation unit that generates an avatar of the user based on the user information within the virtual reality implemented by the virtual reality implementation unit; and
Includes a VR content provider that provides the plurality of contents to an avatar created in the virtual reality and updates the appearance of the avatar each time it performs the same;
The above humidity control unit includes a first humidity control unit,
The above first humidity control unit,
A first content video receiving step for receiving the content video from an external metaverse platform;
A first content humidity derivation step of inputting the above content image into the machine-learned inference model to derive multiple content humidity, and deriving the average value of the multiple content humidity as the first content humidity;
A first real humidity receiving step for receiving the real humidity measured in the real environment in which the user exists from the humidity control device; and
A first reality humidity control step is performed to control the humidity control device so that the above reality humidity reaches the first content humidity;
The above first reality humidity control step is,
When performing content that moves from a specific location to another location, when the content progress at the specific location reaches a preset progress, the operation of the humidity control device to reach the first content humidity of the specific location is stopped.
The above avatar creation part,
Determine the basic appearance of the avatar based on multiple image information,
Determine the avatar's aging information based on the above biometric information, and add a first graphic effect corresponding to the aging information to the above basic appearance,
Determine the avatar's disease information based on medical information including one or more medical conditions entered by the user,
The above VR content provider is,
A first content provider that provides content that enables the user to perform cognitive ability and concentration enhancement training, and whose difficulty is determined based on the aging information of the user;
A second content provider that determines the level of difficulty based on the activity information of the user and provides content that enables the user to perform physical activity strengthening training;
A third-party content provider that determines the type of content based on the above disease information of the user and provides content that can perform training on body parts or cognitive abilities requiring rehabilitation training;
An aging information control unit that calculates one or more scores based on the performance results according to the performance of the content provided by the first content provider, the second content provider, and the third content provider, the brainwave information measured by the brainwave measuring device during the performance period of the content, and the pulse information measured by the pulse measuring device, and controls the aging information according to the sum of the one or more scores; and
Including an avatar appearance update unit that updates the appearance of the avatar of the corresponding user by adjusting the first graphic effect according to the adjusted aging information by the above aging information adjustment unit;
The above biometric information is,
A system for realistic effect, comprising: image information input through the camera device; brainwave information of the user measured by the brainwave measuring device; and pulse information of the user measured by the pulse measuring device.
상기 추론모델은,
입력된 상기 콘텐츠영상에서 기설정된 규칙으로 복수의 프레임을 추출하고, 상기 복수의 프레임 각각에서 해당 프레임의 콘텐츠습도를 도출하는, 실감 효과를 위한 시스템.
In claim 1,
The above inference model is,
A system for realism effect, which extracts multiple frames from the input content video according to preset rules and derives the content humidity of each frame from each of the multiple frames.
상기 습도제어부는, 제2습도제어부를 포함하고,
상기 제2습도제어부는,
외부의 메타버스플랫폼에서 상기 콘텐츠영상을 수신하는 제2콘텐츠영상수신단계;
상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도 중 최고 습도를 제2콘텐츠습도 및 최저 습도를 제3콘텐츠습도로 도출하는 제2콘텐츠습도도출단계;
상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치로부터 수신하는 제2현실습도수신단계; 및
상기 현실습도가 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지되도록 상기 습도조절장치를 제어하는 제2현실습도제어단계;를 수행하는, 실감 효과를 위한 시스템.
In claim 1,
The above humidity control unit includes a second humidity control unit,
The above second humidity control unit is,
A second content video reception step for receiving the content video from an external metaverse platform;
A second content humidity derivation step of inputting the above content video into the machine-learned inference model to derive multiple content humidity, and deriving the highest humidity among the multiple content humidity as the second content humidity and the lowest humidity as the third content humidity;
A second reality humidity receiving step for receiving the reality humidity measured in the real environment in which the user exists from the humidity control device; and
A system for realism effect, which performs a second reality humidity control step of controlling the humidity control device so that the above-mentioned reality humidity is maintained between the second content humidity and the third content humidity.
상기 제2현실습도제어단계는,
특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제2콘텐츠습도 및 상기 제3콘텐츠습도 사이로 유지하기 위한 상기 습도조절장치의 작동을 중지하는, 실감 효과를 위한 시스템.
In claim 5,
The above second reality humidity control step is,
A system for realism effect, in which, when performing content that moves from a specific location to another location, the operation of the humidity control device for maintaining the humidity of the specific location between the second content humidity and the third content humidity is stopped when the content progress at the specific location reaches a preset progress.
상기 아바타업데이트부는,
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하는 아바타정보제공단계;
상기 외부의 메타버스플랫폼에서 상기 아바타에 해당하는 인터랙션정보를 수신하는 인터랙션정보수신단계; 및
상기 인터랙션정보 중 아바타와 관련된 정보를 추출하고, 상기 아바타와 관련된 정보에 기초하여 상기 아바타를 업데이트하는 아바타업데이트단계;를 수행하는, 실감 효과를 위한 시스템.
In claim 1,
The above avatar update part is,
Avatar information provision step that provides information about the avatar to an external metaverse platform;
An interaction information receiving step for receiving interaction information corresponding to the avatar from the external metaverse platform; and
A system for realism effect, which performs an avatar update step of extracting information related to an avatar from the above interaction information and updating the avatar based on the information related to the avatar.
상기 아바타생성부는,
복수의 상기 이미지정보로부터 각각의 외형특징정보를 도출하고, 도출된 복수의 외형특징정보를 평균화하여 1차원 벡터의 형태의 캐릭터결정파라미터를 도출하고, 상기 캐릭터결정파라미터에 기초하여, 아바타의 기본외형을 결정하는 기본외형결정부;
상기 생체정보를 1 이상의 인공신경망 모델에 입력하여 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하는 노화정보결정부;
해당 사용자의 스마트폰으로부터 도출되는 기설정된 시간 동안의 이동거리 혹은 걸음수에 기초하여, 이동거리 혹은 걸음수가 클수록 이동속도를 높이는 방식으로 아바타의 이동속도를 결정하는 이동속도결정부; 및
해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고, 상기 제1그래픽효과가 추가된 상기 기본외형에 상기 질환정보에 상응하는 제2그래픽효과를 추가하는 질환정보결정부;를 포함하는, 실감 효과를 위한 시스템.
In claim 1,
The above avatar creation part,
A basic appearance determination unit that derives appearance feature information from a plurality of pieces of image information, derives character determination parameters in the form of a one-dimensional vector by averaging the derived appearance feature information, and determines the basic appearance of the avatar based on the character determination parameters;
An aging information determination unit that inputs the above biometric information into one or more artificial neural network models to determine aging information of the avatar and adds a first graphic effect corresponding to the aging information to the basic appearance;
A movement speed determination unit that determines the movement speed of the avatar by increasing the movement speed as the movement distance or number of steps increases based on the movement distance or number of steps for a preset time derived from the user's smartphone; and
A system for a realistic effect, comprising: a disease information determination unit for determining disease information of an avatar based on medical information including one or more medical conditions entered by the user, and adding a second graphic effect corresponding to the disease information to the basic appearance to which the first graphic effect has been added.
상기 시스템은,
사용자에게 장착되어 가상현실에 대한 영상 및 소리를 제공하고, 상기 사용자의 목소리를 감지하는 HMD; 사용자의 외형을 촬영하여 사용자의 이미지정보를 도출하는 카메라장치; 상기 사용자의 두부에 부착되어 상기 사용자의 뇌파를 측정할 수 있는 뇌파측정기; 상기 사용자의 손목부위에 부착되어 상기 사용자의 맥박을 측정할 수 있는 맥박측정기; 및 상기 사용자의 움직임을 측정하는 동작센싱장치;를 포함하는 VR장치;
사용자가 존재하는 현실환경의 습도를 측정하고 제어하는 습도조절장치;
상기 사용자가 착용하는 VR장치와 통신을 수행하고, 상기 VR장치로 가상현실에 대한 정보를 제공하며, 상기 사용자의 아바타를 생성하여 상기 사용자에게 복수의 가상현실 콘텐츠를 제공하는 VR서비스부;
외부의 메타버스플랫폼에 상기 아바타에 대한 정보를 제공하고, 상기 외부의 메타버스플랫폼에서 사용자가 상기 아바타를 이용하여 인터랙션한 인터랙션정보를 수신하여, 상기 아바타에 대한 업데이트를 수행하는 아바타업데이트부; 및
기계학습된 추론모델을 포함하고, 상기 기계학습된 추론모델 및 상기 외부의 메타버스플랫폼이 제공하는 콘텐츠의 콘텐츠영상에 기초하여 상기 콘텐츠영상 내 콘텐츠환경의 콘텐츠습도를 도출하고, 상기 콘텐츠습도에 기초하여 상기 사용자가 존재하는 현실환경의 현실습도를 제어하는 습도제어부;를 포함하고,
상기 방법은,
상기 VR서비스부에 의하여, 상기 사용자만 이용 가능하고, 복수의 가상현실 콘텐츠가 제공되는 가상현실을 구현하는, 가상현실구현단계;
상기 VR서비스부에 의하여, 상기 VR장치와 통신을 수행하여 정보를 주고받는 VR통신단계;
상기 VR서비스부에 의하여, 상기 VR장치로부터 수신한 사용자의 생체정보; 및 상기 사용자의 스마트폰으로부터 수신한 활동정보 및 의료정보;를 포함하는 사용자정보를 수신하는 사용자정보입력단계;
상기 VR서비스부에 의하여, 상기 가상현실구현단계에 의해 구현된 가상현실 내에 상기 사용자정보에 기초하여 상기 사용자의 아바타를 생성하는 아바타생성단계; 및
상기 VR서비스부에 의하여, 상기 가상현실에 생성된 아바타에게 상기 복수의 콘텐츠를 제공하고, 이를 수행할 때마다 상기 아바타의 외형을 업데이트할 수 있는 VR콘텐츠제공단계;를 포함하고,
상기 습도제어부는, 제1습도제어부를 포함하고,
상기 제1습도제어부는,
외부의 메타버스플랫폼에서 상기 콘텐츠영상을 수신하는 제1콘텐츠영상수신단계;
상기 콘텐츠영상을 기계학습된 상기 추론모델에 입력하여 복수의 콘텐츠습도를 도출하고, 상기 복수의 콘텐츠습도의 평균값을 제1콘텐츠습도로 도출하는 제1콘텐츠습도도출단계;
상기 사용자가 존재하는 현실환경을 측정한 현실습도를 상기 습도조절장치로부터 수신하는 제1현실습도수신단계; 및
상기 현실습도가 상기 제1콘텐츠습도에 도달하도록 상기 습도조절장치를 제어하는 제1현실습도제어단계;를 수행하고,
상기 제1현실습도제어단계는,
특정 장소에서 타 장소로 이동하는 콘텐츠를 수행하는 경우에는, 상기 특정 장소에서의 콘텐츠 진행률이 기설정된 진행률에 도달하게되면 특정 장소의 상기 제1콘텐츠습도에 도달하기 위한 상기 습도조절장치의 작동을 중지하고,
상기 아바타생성단계는,
복수의 상기 이미지정보에 따라 아바타의 기본외형을 결정하고,
상기 생체정보에 따라 아바타의 노화정보를 결정하고, 상기 기본외형에 상기 노화정보에 상응하는 제1그래픽효과를 추가하고,
해당 사용자가 입력한 1 이상의 병력을 포함하는 의료정보에 기초하여 아바타의 질환정보를 결정하고,
상기 VR콘텐츠제공단계는,
해당 사용자의 상기 노화정보에 기초하여 난이도가 결정되고, 사용자의 인지능력 및 집중도 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는, 제1콘텐츠제공단계;
해당 사용자의 상기 활동정보에 기초하여 난이도가 결정되고, 사용자의 신체 활동 강화 훈련을 수행할 수 있는 콘텐츠를 제공하는 제2콘텐츠제공단계;
해당 사용자의 상기 질환정보에 기초하여 콘텐츠의 종류가 결정되고 재활훈련이 필요한 신체부위 또는 인지능력에 대한 훈련을 수행할 수 있는 콘텐츠를 제공하는 제3콘텐츠제공단계;
상기 제1콘텐츠제공단계, 상기 제2콘텐츠제공단계, 및 상기 제3콘텐츠제공단계에서 제공한 콘텐츠에 대한 수행에 따른 수행결과, 콘텐츠에 대한 수행기간 동안 상기 뇌파측정기에 의하여 측정된 뇌파정보, 및 상기 맥박측정기에 의하여 측정된 맥박정보에 기초하여, 1 이상의 스코어를 산출하고, 상기 1 이상의 스코어를 합산한 값에 따라 상기 노화정보를 조절하는 노화정보조절단계; 및
상기 노화정보조절단계에 의하여, 조절된 노화정보에 따라 상기 제1그래픽효과를 조절하여 해당 사용자의 아바타의 외형을 업데이트하는 아바타외형업데이트단계;를 포함하고,
상기 생체정보는,
상기 카메라장치를 통해 입력 받은 이미지정보; 상기 뇌파측정기로 측정한 상기 사용자의 뇌파정보; 및 상기 맥박측정기로 측정한 상기 사용자의 맥박정보;를 포함하는, 실감 효과를 위한 방법.
A method for a realistic effect implemented in a system for a realistic effect that controls the humidity of a content environment performed by an avatar that creates the humidity of a space in which a user exists,
The above system,
A VR device including: an HMD that is mounted on a user and provides images and sounds of virtual reality and detects the user's voice; a camera device that photographs the user's appearance to derive image information of the user; an electroencephalograph that is attached to the user's head and can measure the user's brain waves; a pulse meter that is attached to the user's wrist and can measure the user's pulse; and a motion sensing device that measures the user's movements;
A humidity control device that measures and controls the humidity in the real environment where the user exists;
A VR service unit that communicates with a VR device worn by the user, provides information about virtual reality to the VR device, and creates an avatar for the user to provide multiple virtual reality contents to the user;
An avatar update unit that provides information about the avatar to an external metaverse platform, receives interaction information about a user interacting with the avatar on the external metaverse platform, and performs an update on the avatar; and
A humidity control unit including a machine-learned inference model, and deriving content humidity of a content environment in the content image based on the machine-learned inference model and the content image provided by the external metaverse platform, and controlling the real humidity of the real environment in which the user exists based on the content humidity;
The above method,
A virtual reality implementation step that implements a virtual reality in which only the user can use it and multiple virtual reality contents are provided by the VR service department;
A VR communication step for exchanging information by performing communication with the VR device through the VR service unit;
A user information input step for receiving user information including the user's biometric information received from the VR device by the VR service department; and activity information and medical information received from the user's smartphone;
An avatar creation step for creating an avatar of the user based on the user information within the virtual reality implemented by the virtual reality implementation step by the VR service department; and
A VR content providing step capable of providing the plurality of contents to an avatar created in the virtual reality by the VR service unit and updating the appearance of the avatar each time the same is performed;
The above humidity control unit includes a first humidity control unit,
The above first humidity control unit,
A first content video receiving step for receiving the content video from an external metaverse platform;
A first content humidity derivation step of inputting the above content video into the machine-learned inference model to derive multiple content humidity, and deriving the average value of the multiple content humidity as the first content humidity;
A first real humidity receiving step for receiving the real humidity measured in the real environment in which the user exists from the humidity control device; and
A first reality humidity control step is performed to control the humidity control device so that the above reality humidity reaches the first content humidity;
The above first reality humidity control step is,
When performing content that moves from a specific location to another location, when the content progress at the specific location reaches a preset progress, the operation of the humidity control device to reach the first content humidity of the specific location is stopped.
The above avatar creation step is,
Determine the basic appearance of the avatar based on multiple image information,
Determine the avatar's aging information based on the above biometric information, and add a first graphic effect corresponding to the aging information to the above basic appearance,
Determine the avatar's disease information based on medical information including one or more medical conditions entered by the user,
The above VR content provision stage is:
A first content provision step in which the difficulty level is determined based on the aging information of the user and content is provided that enables the user to perform cognitive ability and concentration enhancement training;
A second content provision step in which the difficulty level is determined based on the activity information of the user and content is provided that enables the user to perform physical activity strengthening training;
A third content provision step in which the type of content is determined based on the above disease information of the user and content is provided that can perform training on a body part or cognitive ability requiring rehabilitation training;
An aging information control step for calculating one or more scores based on the performance results according to the performance of the content provided in the first content providing step, the second content providing step, and the third content providing step, the brainwave information measured by the brainwave measuring device during the performance period of the content, and the pulse information measured by the pulse measuring device, and controlling the aging information according to the sum of the one or more scores; and
Including an avatar appearance update step for updating the appearance of the avatar of the corresponding user by adjusting the first graphic effect according to the adjusted aging information through the above aging information adjustment step;
The above biometric information is,
A method for providing a realistic effect, comprising: image information input through the camera device; brain wave information of the user measured by the brain wave measuring device; and pulse information of the user measured by the pulse measuring device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220034915A KR102835552B1 (en) | 2022-03-21 | 2022-03-21 | System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220034915A KR102835552B1 (en) | 2022-03-21 | 2022-03-21 | System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230137139A KR20230137139A (en) | 2023-10-04 |
| KR102835552B1 true KR102835552B1 (en) | 2025-07-16 |
Family
ID=88290313
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220034915A Active KR102835552B1 (en) | 2022-03-21 | 2022-03-21 | System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102835552B1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101901261B1 (en) * | 2017-12-04 | 2018-09-21 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Virtual-Reality |
| KR102030350B1 (en) * | 2019-06-05 | 2019-10-10 | 최경덕 | Healthcare system using bio abatar |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101923723B1 (en) * | 2012-09-17 | 2018-11-29 | 한국전자통신연구원 | Metaverse client terminal and method for providing metaverse space for user interaction |
| KR20180018357A (en) * | 2016-08-12 | 2018-02-21 | 민상규 | User experience apparatus USING ARTIFICIAL INTELLIGENCE |
| KR101943585B1 (en) | 2016-12-23 | 2019-01-30 | 이광순 | System for Psychological Diagnosis using Virtual Reality Environment Configuration |
| KR102313622B1 (en) * | 2019-08-21 | 2021-10-19 | 한국과학기술연구원 | Biosignal-based avatar control system and method |
| KR102130750B1 (en) | 2020-03-23 | 2020-07-06 | 이병관 | Method for providing bigdata and artificial intelligence based counseling and psychological service using bidirectional virtual reality contents |
-
2022
- 2022-03-21 KR KR1020220034915A patent/KR102835552B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101901261B1 (en) * | 2017-12-04 | 2018-09-21 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Virtual-Reality |
| KR102030350B1 (en) * | 2019-06-05 | 2019-10-10 | 최경덕 | Healthcare system using bio abatar |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20230137139A (en) | 2023-10-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102432248B1 (en) | System And Method For Generating An Avatar And Provides It To An External Metaverse Platform To Update The Avatar And Provide NFT For The Updated Avatar | |
| KR102425479B1 (en) | System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics) | |
| US11244485B2 (en) | Augmented reality systems and methods utilizing reflections | |
| CN112352390B (en) | Leveraging sensor data for detecting neural states for content generation and control | |
| KR102445133B1 (en) | System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof | |
| KR102453304B1 (en) | A system that provides virtual reality content for dementia prevention and self-diagnosis | |
| CN114287041A (en) | Electronic devices and related methods for therapeutic intervention using virtual or augmented reality | |
| KR102445135B1 (en) | A system and method for providing forgery verification of avatar information for avatar creation on the metaverse platform | |
| KR102445134B1 (en) | A system and method for generating an avatar based on user information and providing NFT for the avatar | |
| KR102617431B1 (en) | A System And Method For Calculating The Optimum Temperature For A User-Customized Immersive Content Test Bed Performing Content By Creating An Avatar | |
| US20170206691A1 (en) | Augmented reality systems and methods utilizing reflections | |
| KR102425481B1 (en) | Virtual reality communication system for rehabilitation treatment | |
| KR102429627B1 (en) | The System that Generates Avatars in Virtual Reality and Provides Multiple Contents | |
| KR102429630B1 (en) | A system that creates communication NPC avatars for healthcare | |
| US12039673B2 (en) | Augmented reality artificial intelligence enhance ways user perceive themselves | |
| KR102437583B1 (en) | System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals | |
| KR102432250B1 (en) | The System that Provides Care Chatbot | |
| KR102443946B1 (en) | System and method for providing owner verification of avatar information to protect avatar information in the Metaverse platform from false avatar information | |
| Botha | CyPVICS: A framework to prevent or minimise cybersickness in immersive virtual clinical simulation | |
| KR102457571B1 (en) | Augmented reality-based lumbar core twist exercise treatment system and lumbar core twist exercise treatment method | |
| KR102835552B1 (en) | System And Method For Sensory Effects In Which The Humidity Of The Space Where The User Exists Is Controlled By The Humidity Of The Content Environment Performed By The Generated Avatar | |
| KR20230173831A (en) | System and method for operation of realistic learning content platform for elderly | |
| KR102764435B1 (en) | System And Method For Sensory Effects That Control The Temperature Of A Real Space With The Temperature Of The Environment In The Content Performed By Creating An Avatar | |
| KR102764436B1 (en) | A System And Method For Calculating User-Customized Optimal Humidity For Performing Content With The Generated Avatar In The Realistic Content Test Bed | |
| KR102543337B1 (en) | System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |