KR102650349B1 - Extended reality device and method for controlling the same - Google Patents

Extended reality device and method for controlling the same Download PDF

Info

Publication number
KR102650349B1
KR102650349B1 KR1020190158869A KR20190158869A KR102650349B1 KR 102650349 B1 KR102650349 B1 KR 102650349B1 KR 1020190158869 A KR1020190158869 A KR 1020190158869A KR 20190158869 A KR20190158869 A KR 20190158869A KR 102650349 B1 KR102650349 B1 KR 102650349B1
Authority
KR
South Korea
Prior art keywords
user
indicator
face
virtual avatar
camera
Prior art date
Application number
KR1020190158869A
Other languages
Korean (ko)
Other versions
KR20210069281A (en
Inventor
이원범
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190158869A priority Critical patent/KR102650349B1/en
Publication of KR20210069281A publication Critical patent/KR20210069281A/en
Application granted granted Critical
Publication of KR102650349B1 publication Critical patent/KR102650349B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

본 발명은 XR 디바이스 및 그 제어 방법에 관한 것으로서, 보다 구체적으로는 5G 통신 기술 분야, 로봇 기술 분야, 자율 주행 기술 분야 및 AI (Artificial Intelligence) 기술 분야에도 모두 적용 가능하다.The present invention relates to an XR device and its control method, and more specifically, is applicable to the 5G communication technology field, robot technology field, autonomous driving technology field, and AI (Artificial Intelligence) technology field.

Description

XR 디바이스 및 그 제어 방법{EXTENDED REALITY DEVICE AND METHOD FOR CONTROLLING THE SAME}XR device and its control method {EXTENDED REALITY DEVICE AND METHOD FOR CONTROLLING THE SAME}

본 발명은 XR 디바이스 및 그 제어 방법에 관한 것으로서, 보다 구체적으로는 5G 통신 기술 분야, 로봇 기술 분야, 자율 주행 기술 분야 및 AI (Artificial Intelligence) 기술 분야에도 모두 적용 가능하다.The present invention relates to an XR device and its control method, and more specifically, is applicable to the 5G communication technology field, robot technology field, autonomous driving technology field, and AI (Artificial Intelligence) technology field.

VR (Virtual Reality) 기술은 현실 세계의 객체나 배경 등을 CG (Computer Graphic) 영상으로만 제공하고, AR (Augmented Reality) 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR (Mixed) 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다. 전술한 VR, AR, MR 등을 모두 간단히 XR (extended reality) 기술로 지칭하기도 한다.VR (Virtual Reality) technology provides objects and backgrounds in the real world only as CG (Computer Graphics) images, while AR (Augmented Reality) technology provides virtually created CG images on top of images of real objects, and MR (Mixed Reality) technology provides ) technology is a computer graphics technology that mixes and combines virtual objects in the real world. The aforementioned VR, AR, MR, etc. are all simply referred to as XR (extended reality) technologies.

특히, 최근에는 XR 기술을 이용하여 사용자에게 가상의 서비스를 적용하고 있다. 예를 들어, 매장이나 집에 설치된 XR 디바이스는 스크린에 가상 아바타를 디스플레이 한다.In particular, recently, virtual services have been applied to users using XR technology. For example, XR devices installed in stores or at home display virtual avatars on the screen.

그러나, 매장에 설치된 XR 디바이스의 스크린은 대형 화면인데, 가상의 아바타 생성을 위해 사용되는 카메라는 상기 스크린의 일측면에 설치된다. 따라서, XR 디바이스의 스크린에 설치된 카메라만으로는 사용자의 얼굴을 여러 각도에서 촬영하는 것이 불가능하였다. 또한, 사용자의 얼굴을 정확하게 캡쳐하지 못하면, 가상 아바타의 얼굴이 실제 사용자와 많이 달라진다는 문제점이 있었다.However, the screen of the XR device installed in the store is a large screen, and the camera used to create the virtual avatar is installed on one side of the screen. Therefore, it was impossible to photograph the user's face from various angles using only the camera installed on the screen of the XR device. Additionally, if the user's face cannot be captured accurately, there is a problem that the virtual avatar's face is very different from the actual user's face.

물론, 여러대의 카메라를 사용하거나 화각이 넓은 카메라를 사용하는 것도 고려할 수 있으나, 비용이 기하급수적으로 증가하는 문제가 있었다.Of course, you can consider using multiple cameras or a camera with a wide angle of view, but there is a problem that the cost increases exponentially.

본 발명의 일실시예는, XR 디바이스의 스크린의 사이즈와 관계 없이 사용자의 얼굴을 정확하게 인식하는 기술을 제공한다.One embodiment of the present invention provides technology for accurately recognizing the user's face regardless of the size of the screen of the XR device.

본 발명의 다른 일실시예는, XR 디바이스의 임의에 위치에 설치된 하나의 카메라만으로 사용자의 얼굴을 다각도로 촬영할 수 있는 기술을 제공한다.Another embodiment of the present invention provides a technology that can capture a user's face from multiple angles using only one camera installed at an arbitrary location on an XR device.

그리고, 본 발명의 또 다른 일실시예는, XR 디바이스에서 가상 아바타를 생성하는 과정에서 발생할 수 있는 에러 가능성을 최소화 하고자 한다.In addition, another embodiment of the present invention seeks to minimize the possibility of errors that may occur in the process of creating a virtual avatar on an XR device.

다만, 전술한 목적만으로 제한되는 것은 아니며, 본 명세서 전체 내용에 기초하여 당업자가 유추할 수 있는 다른 목적으로 본 발명의 권리범위가 확장될 수 있다.However, it is not limited to the above-described purpose, and the scope of the present invention may be expanded to other purposes that can be inferred by a person skilled in the art based on the entire contents of this specification.

전술한 목적 등을 달성하기 위한 본 발명의 일실시예에 의한 적어도 하나의 가상 아바타를 제공하는 XR 디바이스의 제어 방법은, 카메라를 이용하여 상기 XR 디바이스의 주변에 위치한 사용자를 인식하는 단계와, 상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 하는 단계와, 제2 가상 아바타 생성을 위한 인디케이터를 생성하는 단계와, 상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 하는 단계와, 상기 인디케이터를 상기 제1위치에서 제2위치로 이동시키는 단계(상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 함)와, 상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하는 단계와, 그리고 상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 하는 단계를 포함한다.A method of controlling an XR device that provides at least one virtual avatar according to an embodiment of the present invention to achieve the above-described object, etc. includes the steps of recognizing a user located around the XR device using a camera, Displaying at least one real object and a first virtual avatar around the XR device, generating an indicator for creating a second virtual avatar, and displaying the generated indicator to the XR device. displaying at a first position within the screen, and moving the indicator from the first position to a second position (the second position is different from the first position and is located around the camera within the screen). ) and, while the indicator moves from the first position to the second position, photographing the user using the camera, and based on the photographed result, the at least one real object and displaying the second virtual avatar.

그리고, 본 발명의 일실시예에 의한 적어도 하나의 가상 아바타를 제공하는 XR 디바이스는, 상기 XR 디바이스의 주변에 위치한 사용자를 인식하는 카메라와, 상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 하는 디스플레이 모듈과, 그리고 상기 카메라 및 상기 디스플레이 모듈을 제어하는 컨트롤러를 포함한다.And, an XR device that provides at least one virtual avatar according to an embodiment of the present invention includes a camera that recognizes a user located around the XR device, and at least one real object around the XR device. and a display module that displays a first virtual avatar, and a controller that controls the camera and the display module.

예를 들어, 상기 컨트롤러는, 제2 가상 아바타 생성을 위한 인디케이터를 생성하고, 상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 하도록 제어하고, 상기 인디케이터를 상기 제1위치에서 제2위치로 이동시키고(상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 함), 상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하도록 제어하고, 그리고 상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 하도록 제어한다.For example, the controller generates an indicator for creating a second virtual avatar, controls the generated indicator to be displayed at a first position in the screen of the XR device, and moves the indicator from the first position to a second position. position (the second position is different from the first position and is located around the camera in the screen), and while the indicator moves from the first position to the second position, the camera Controls to photograph the user using and controls to display the at least one real object and the second virtual avatar based on the photographed results.

본 발명의 다양한 실시예들 중 일실시예에 따르면, XR 디바이스의 스크린의 사이즈와 관계 없이 사용자의 얼굴을 정확하게 인식하는 기술을 제공할 수 있다.According to one of the various embodiments of the present invention, it is possible to provide technology for accurately recognizing the user's face regardless of the size of the screen of the XR device.

본 발명의 다른 일실시예에 의하면, XR 디바이스의 임의에 위치에 설치된 하나의 카메라만으로 사용자의 얼굴을 다각도로 촬영할 수 있는 기술을 제공하는 장점이 있다.According to another embodiment of the present invention, there is an advantage in providing a technology that can photograph a user's face from multiple angles with only one camera installed at an arbitrary location on an XR device.

그리고, 본 발명의 또 다른 일실시예에 의하면, XR 디바이스에서 가상 아바타를 생성하는 과정에서 발생할 수 있는 에러 가능성을 최소화 하는 기술적 효과가 있다.And, according to another embodiment of the present invention, there is a technical effect of minimizing the possibility of errors that may occur in the process of creating a virtual avatar on an XR device.

다만, 전술한 기술적 효과만으로 제한되는 것은 아니며, 본 명세서 전체 내용에 기초하여 당업자가 유추할 수 있는 다른 기술적 효과로 본 발명의 권리범위가 확장될 수 있다.However, it is not limited to only the technical effects described above, and the scope of the present invention may be expanded to other technical effects that can be inferred by a person skilled in the art based on the entire contents of this specification.

도 1은 본 발명의 일실시예에 의한 XR 디바이스를 HMD 타입으로 구현한 경우를 도시하고 있다.
도 2는 본 발명의 일실시예에 의한 XR 디바이스를 AR 글래스 타입으로 구현한 경우를 도시하고 있다.
도 3은 본 발명의 일실시예를 의류 관련 기기에 적용한 경우를 도시하고 있다.
도 4는 본 발명의 일실시예에 의한 XR 디바이스를 제어하는 프로세스를 도시한 플로우 차트의 일예를 도시하고 있다.
도 5는 본 발명의 일실시예에 의한 XR 디바이스 및 설치된 카메라의 외관을 도시하고 있다.
도 6은 본 발명의 일실시예에 의한 XR 디바이스가 하나의 이미지로 가상 아바타의 얼굴을 생성하는 과정을 도시하고 있다.
도 7은 본 발명의 일실시예에 의한 XR 디바이스가 다양한 각도에서 획득한 복수개의 이미지들을 도시하고 있다.
도 8은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴 자세를 유도하는 프로세스를 도시하고 있다.
도 9는 본 발명의 일실시예에 의한 XR 디바이스가 도 8에서 획득한 복수개의 이미지들로 가상 아바타의 얼굴을 생성하는 과정을 도시하고 있다.
도 10은 본 발명의 일실시예에 의한 XR 디바이스로부터 이격한 사용자의 위치에 따른 문제점을 도시하고 있다.
도 11은 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 일예를 도시하고 있다.
도 12는 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 다른 일예를 도시하고 있다.
도 13은 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 또 다른 일예를 도시하고 있다.
도 14는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선을 유도하는 프로세스를 도시하고 있다.
도 15는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선이 유도된 방향과 달라진 경우의 문제점을 해결하기 위한 프로세스를 도시하고 있다.
도 16은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선을 일정한 시간 이상 유도하기 위한 프로세스를 도시하고 있다.
도 17은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선과 상반신이 향하는 방향이 일치하지 않는 경우의 문제점을 해결하기 위한 프로세스를 도시하고 있다.
도 18은 본 발명의 일실시예에 의한 XR 디바이스가 생성된 아바타의 얼굴을 확인하는 프로세스를 도시하고 있다.
도 19는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴내 특정 부위를 보다 상세하게 캡쳐하기 위한 프로세스를 도시하고 있다.
도 20은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴내 특정 부위를 보다 정확하게 캡쳐하기 위한 프로세스를 도시하고 있다.
그리고, 도 21은 본 발명의 일실시예에 의한 XR 디바이스를 제어하는 프로세스를 도시한 플로우 차트의 일예를 도시하고 있다.
Figure 1 shows a case where an XR device according to an embodiment of the present invention is implemented as an HMD type.
Figure 2 shows a case where the XR device according to an embodiment of the present invention is implemented as an AR glass type.
Figure 3 shows a case where an embodiment of the present invention is applied to a clothing-related device.
Figure 4 shows an example of a flow chart illustrating a process for controlling an XR device according to an embodiment of the present invention.
Figure 5 shows the appearance of an XR device and an installed camera according to an embodiment of the present invention.
Figure 6 shows a process in which an XR device generates the face of a virtual avatar from one image according to an embodiment of the present invention.
Figure 7 shows a plurality of images acquired from various angles by an XR device according to an embodiment of the present invention.
Figure 8 shows a process in which an XR device induces the user's facial posture according to an embodiment of the present invention.
FIG. 9 illustrates a process in which an XR device according to an embodiment of the present invention creates a face of a virtual avatar using a plurality of images acquired in FIG. 8.
Figure 10 shows a problem depending on the location of a user away from the XR device according to an embodiment of the present invention.
FIG. 11 shows an example of a solution to solve the problem shown in FIG. 10.
FIG. 12 shows another example of a solution for solving the problem shown in FIG. 10.
FIG. 13 shows another example of a solution for solving the problem shown in FIG. 10.
Figure 14 shows a process in which an XR device guides the user's gaze according to an embodiment of the present invention.
Figure 15 shows a process for solving a problem when the XR device according to an embodiment of the present invention changes from the direction in which the user's gaze was guided.
Figure 16 shows a process by which an XR device guides the user's gaze for more than a certain period of time according to an embodiment of the present invention.
Figure 17 shows a process for solving a problem when the XR device according to an embodiment of the present invention does not match the direction in which the user's gaze and upper body face.
Figure 18 shows a process in which an XR device confirms the face of a created avatar according to an embodiment of the present invention.
Figure 19 shows a process for an XR device to capture a specific part of a user's face in more detail according to an embodiment of the present invention.
Figure 20 shows a process for the XR device to more accurately capture a specific part of the user's face according to an embodiment of the present invention.
And, Figure 21 shows an example of a flow chart showing a process for controlling an XR device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

본 발명의 하기의 실시예들은 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예들로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.Of course, the following examples of the present invention are only intended to embody the present invention and do not limit or limit the scope of the present invention. Anything that can be easily inferred by an expert in the technical field to which the present invention belongs from the detailed description and embodiments of the present invention will be interpreted as falling within the scope of the rights of the present invention.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 안되며, 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in any respect and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

당해 명세서에서 설명하는 확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.Extended reality described in this specification collectively refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR). VR technology provides objects and backgrounds in the real world only as CG images, AR technology provides virtual CG images on top of images of real objects, and MR technology provides computer technology that mixes and combines virtual objects in the real world. It is a graphic technology.

MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.MR technology is similar to AR technology in that it shows real objects and virtual objects together. However, in AR technology, virtual objects are used to complement real objects, whereas in MR technology, virtual objects and real objects are used equally.

XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices with XR technology applied are called XR Devices. It can be called.

다만, 최근에는 VR, AR, MR 기술을 명확히 구별하기 보다는 XR (extended Reality) 기술로 부르기도 한다. 따라서, 본 발명의 실시예들은 VR, AR, MR, XR 기술 모두에 적용 가능하다.However, recently, rather than clearly distinguishing between VR, AR, and MR technologies, they are sometimes referred to as XR (extended reality) technologies. Accordingly, embodiments of the present invention are applicable to all VR, AR, MR, and XR technologies.

한편, VR, AR, MR, XR 기술에 적용되는 하드웨어(HW) 관련 요소 기술로서, 예를 들어 유/무선 통신 기술, 입력 인터페이스 기술, 출력 인터페이스 기술 및 컴퓨팅 장치 기술 등이 존재한다. 또한, 소프트웨어(SW) 관련 요소 기술로서, 예를 들어 추적 및 정합 기술, 음성 인식 기술, 상호 작용 및 사용자 인터페이스 기술, 위치기반 서비스 기술, 검색 기술, AI (Artificial Intelligence) 기술 등이 존재한다.Meanwhile, hardware (HW)-related element technologies applied to VR, AR, MR, and XR technologies include, for example, wired/wireless communication technology, input interface technology, output interface technology, and computing device technology. In addition, software (SW)-related element technologies include, for example, tracking and matching technology, voice recognition technology, interaction and user interface technology, location-based service technology, search technology, and AI (Artificial Intelligence) technology.

특히, 본 발명의 실시예들은, 전술한 HW/SW 관련 요소 기술 등을 이용하여, 다른 디바이스와의 통신 문제, 효율적인 메모리 사용 문제, 불편한 UX/UI로 인한 데이터 처리 속도가 낮아지는 문제, 영상 문제, 음향 문제, 멀미 현상 또는 기타 문제 중 적어도 하나를 해결하고자 한다.In particular, embodiments of the present invention use the above-described HW/SW related element technologies, etc. to solve problems such as communication problems with other devices, efficient memory use problems, slow data processing speed due to inconvenient UX/UI, and video problems. , it seeks to solve at least one of the following: acoustic problems, motion sickness, or other problems.

도 1은 본 발명의 일실시예에 의한 XR 디바이스를 HMD 타입으로 구현한 경우를 도시하고 있다. 후술할 다양한 실시예들은 도 1에 도시된 HMD 타입으로 구현할 수도 있다.Figure 1 shows a case where an XR device according to an embodiment of the present invention is implemented as an HMD type. Various embodiments to be described later may be implemented with the HMD type shown in FIG. 1.

도 1에 도시된 HMD 타입의 XR 디바이스(100a)는, 커뮤니케이션 유닛(110), 컨트롤 유닛(120), 메모리 유닛(130), I/O 유닛(140a), 센서 유닛(140b), 그리고 파워 공급 유닛(140c) 등을 포함한다. 특히, XR 디바이스(10a)내 커뮤니케이션 유닛(110)은 모바일 터미날(100b)과 유무선 통신이 이루어 진다.The HMD type XR device 100a shown in FIG. 1 includes a communication unit 110, a control unit 120, a memory unit 130, an I/O unit 140a, a sensor unit 140b, and a power supply. Includes unit 140c, etc. In particular, the communication unit 110 in the XR device 10a establishes wired and wireless communication with the mobile terminal 100b.

그리고, 도 2는 본 발명의 일실시예에 의한 XR 디바이스를 AR 글래스 타입으로 구현한 경우를 도시하고 있다. 후술할 다양한 실시예들은 도 2에 도시된 AR 글래스 타입으로 구현할 수도 있다.And, Figure 2 shows a case where the XR device according to an embodiment of the present invention is implemented as an AR glass type. Various embodiments to be described later can also be implemented with the AR glass type shown in FIG. 2.

도 2에 도시된 바와 같이, AR 글래스는 프레임, 제어부(200) 및 광학 디스플레이부(300)를 포함할 수 있다.As shown in FIG. 2, AR glasses may include a frame, a control unit 200, and an optical display unit 300.

프레임은 도 2에 도시된 바와 같이, 사용자(10)의 신체 중 안면에 착용되는 안경 형태를 가질 수 있으나, 이에 반드시 한정되는 것은 아니고, 사용자(10)의 안면에 밀착되어 착용되는 고글 등의 형태를 가질 수도 있다.As shown in FIG. 2, the frame may have the form of glasses worn on the face of the user 10's body, but is not necessarily limited thereto, and may be in the form of goggles, etc., worn in close contact with the face of the user 10. You can also have

이와 같은 프레임은 전면 프레임(110)과 제1, 2 측면 프레임을 포함할 수 있다.Such a frame may include a front frame 110 and first and second side frames.

전면 프레임(110)은 적어도 하나의 개구부를 구비하고, 제1 수평 방향(x)으로 연장될 수 있으며, 제1, 2 측면 프레임은 전면 프레임(110)과 교차하는 제2 수평 방향(y)으로 연장되어 서로 나란하게 연장될 수 있다.The front frame 110 has at least one opening and may extend in a first horizontal direction (x), and the first and second side frames extend in a second horizontal direction (y) that intersects the front frame 110. They can be extended and extended parallel to each other.

제어부(200)는 사용자(10)에게 보여질 이미지 또는 이미지가 연속되는 영상을 생성할 수 있다. 이와 같은 제어부(200)에는 이미지를 발생시키는 이미지 소스와 이미지 소스에서 발생된 빛을 확산 및 수렴하는 복수의 렌즈 등을 포함할 수 있다. 이와 같이 제어부(200)에서 생성되는 이미지는 제어부(200)와 광학 디스플레이부(300) 사이에 위치하는 가이드 렌즈(P200)을 통해 광학 디스플레이부(300)로 출사될 수 있다. The control unit 200 may generate an image to be shown to the user 10 or an image containing a series of images. Such a control unit 200 may include an image source that generates an image and a plurality of lenses that diffuse and converge light generated from the image source. In this way, the image generated by the control unit 200 may be output to the optical display unit 300 through the guide lens P200 located between the control unit 200 and the optical display unit 300.

이와 같은 제어부(200)는 제1, 2 측면 프레임 중 어느 하나의 측면 프레임에 고정될 수 있다. 일례로, 제어부(200)는 어느 하나의 측면 프레임 내측 또는 외측에 고정되거나, 어느 하나의 측면 프레임의 내부에 내장되어 일체로 형성될 수 있다.This control unit 200 may be fixed to either the first or second side frames. For example, the control unit 200 may be fixed to the inside or outside of one of the side frames, or may be built into the inside of one of the side frames and formed integrally.

광학 디스플레이부(300)는 제어부(200)에서 생성된 이미지가 사용자(10)에게 보여지도록 하는 역할을 수행할 수 있으며, 이미지가 사용자(10)에게 보여지도록 하면서, 개구부를 통하여 외부 환경을 볼 수 있도록 하기 위하여, 반투명 재질로 형성될 수 있다.The optical display unit 300 may play a role in allowing the image generated by the control unit 200 to be displayed to the user 10, and while allowing the image to be displayed to the user 10, the external environment can be viewed through the opening. In order to do so, it may be formed of a translucent material.

이와 같은 광학 디스플레이부(300)는 전면 프레임(110)에 포함된 개구부에 삽입되어 고정되거나, 개부구의 배면[즉 개구부와 사용자(10) 사이]에 위치하여, 전면 프레임(110)에 고정되어 구비될 수 있다. 본 발명에서는 일례로, 광학 디스플레이부(300)가 개구부의 배면에 위치하여, 전면 프레임(110)에 고정된 경우를 일예로 도시하였다.This optical display unit 300 is inserted into and fixed to the opening included in the front frame 110, or is located on the back of the opening (i.e. between the opening and the user 10) and fixed to the front frame 110. It can be provided. In the present invention, as an example, a case where the optical display unit 300 is located on the back of the opening and is fixed to the front frame 110 is shown as an example.

이와 같은 XR 디바이스는 도 2에 도시된 바와 같이, 제어부(200)에서 이미지에 대한 이미지를 광학 디스플레이부(300)의 입사 영역(S1)으로 입사시키면, 이미지광이 광학 디스플레이부(300)를 통하여, 광학 디스플레이부(300)의 출사 영역(S2)으로 출사되어, 제어부(200)에서 생성된 이미지를 사용자(10)에게 보여지도록 할 수 있다.As shown in FIG. 2, in such an XR device, when the control unit 200 makes an image incident on the incident area (S1) of the optical display unit 300, the image light passes through the optical display unit 300. , the image generated by the control unit 200 can be displayed to the user 10 by being emitted to the emission area S2 of the optical display unit 300.

이에 따라, 사용자(10)는 프레임(100)의 개구부를 통하여 외부 환경을 보면서 동시에 제어부(200)에서 생성된 이미지를 함께 볼 수 있다.Accordingly, the user 10 can view the external environment through the opening of the frame 100 and simultaneously view the image generated by the control unit 200.

도 3은 본 발명의 일실시예를 의류 관련 기기에 적용한 경우를 도시하고 있다.Figure 3 shows a case where an embodiment of the present invention is applied to a clothing-related device.

당해 명세서의 실시예들은 XR 디바이스 뿐만 아니라 다양한 의류 관련 기기들에도 적용할 수가 있다. Embodiments of this specification can be applied not only to XR devices but also to various clothing-related devices.

본 발명의 일실시예와 관련하여 추가 설명 하면, 도 3에 도시된 바와 같이, 사용자(100)가 의류 관련 기기(ex: 스타일러, 에어 드레서 등)에 접근하면, 의류 관련 기기에 설치된 카메라 또는 센서를 통해 사용자의 접근을 인식한다.To further explain in relation to an embodiment of the present invention, as shown in FIG. 3, when the user 100 approaches a clothing-related device (ex: styler, air dresser, etc.), a camera or sensor installed in the clothing-related device Recognizes user access.

그리고, 의류 관련 기기의 전면에 설치된 디스플레이(200)는 인식된 사용자 관련 아바타를 표시하고, 사용자(100)가 원하는 의상, 모자등을 가상으로 입어본 형태의 그래픽이 추가적으로 표시된다. 도 3에 도시된 바와 같이, 실제 사용자(100)는 모자를 쓰지 않았으나, 디스플레이(200)에 표시된 아바타는 가상의 모자를 쓰고 있음을 확인할 수 있다. 나아가, 상기 디스플레이(200)는 사용자 인식이 안된 경우에는 거울로서 동작하는 것도 가능하다.Additionally, the display 200 installed on the front of the clothing-related device displays an avatar related to the recognized user, and additionally displays graphics showing the user 100 virtually trying on the desired clothing, hat, etc. As shown in FIG. 3, it can be confirmed that the actual user 100 is not wearing a hat, but the avatar displayed on the display 200 is wearing a virtual hat. Furthermore, the display 200 can also operate as a mirror when the user is not recognized.

마지막으로, 도 3에서는 디스플레이(200)가 의류 관련 기기의 전면에 노출되어 있는 것으로 가정하였으나, 사용자가(100)가 의류 관련 기기의 문을 열었을 때 내부에 디스플레이가 위치하도록 설계하는 것도 본 발명의 권리범위에 속한다.Lastly, in FIG. 3, it is assumed that the display 200 is exposed to the front of the clothing-related device, but the present invention is also designed so that the display is located inside when the user 100 opens the door of the clothing-related device. falls within the scope of rights.

한편, 당해 명세서는 XR 디바이스 및 다양한 멀티미디어 디바이스를 예로 설명하고 있지만, 본 발명은 디스플레이 기능이 있는 디바이스면 충분하다.Meanwhile, although this specification describes XR devices and various multimedia devices as examples, any device with a display function is sufficient for the present invention.

도 4는 본 발명의 일실시예에 의한 XR 디바이스를 제어하는 프로세스를 도시한 플로우 차트의 일예를 도시하고 있다.Figure 4 shows an example of a flow chart illustrating a process for controlling an XR device according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 일실시예에 따라, 적어도 하나의 가상 아바타를 제공하는 XR 디바이스는 다음과 같은 순서로 동작한다. 물론, 당업자의 필요에 따라 일부 스텝이 변경, 추가 또는 삭제되는 것도 가능하다.As shown in FIG. 4, according to one embodiment of the present invention, an XR device providing at least one virtual avatar operates in the following order. Of course, it is also possible for some steps to be changed, added, or deleted according to the needs of those skilled in the art.

XR 디바이스는, 카메라를 이용하여 상기 XR 디바이스의 주변에 위치한 사용자를 인식한다(S510). 상기 XR 디바이스는 예를 들어 옷이 판매되는 오프라인 매장에 설치될 수 있으나, 다른 장소에도 설치 가능하다.The XR device uses a camera to recognize users located around the XR device (S510). The XR device can be installed, for example, in an offline store where clothes are sold, but can also be installed in other places.

상기 XR 디바이스는 상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 한다(S520). 다만, 여기서의 제1 가상 아바타는, 예를 들어 XR 디바이스 주변의 사용자 얼굴이 반영되지 않은 상태를 의미한다.The XR device displays at least one real object and a first virtual avatar around the XR device (S520). However, the first virtual avatar here means, for example, a state in which the user's face around the XR device is not reflected.

상기 XR 디바이스는, 제2 가상 아바타 생성을 위한 인디케이터를 생성하고(S530), 상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 한다(S540).The XR device generates an indicator for creating a second virtual avatar (S530), and displays the generated indicator at the first location on the screen of the XR device (S540).

상기 XR 디바이스는, 상기 인디케이터를 상기 제1위치에서 제2위치로 이동시킨다(S550). 상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 한다. 이와 관련하여 이하 도 8 등을 참조하여 상세히 후술하겠다.The XR device moves the indicator from the first position to the second position (S550). The second location is different from the first location and is located around the camera within the screen. This will be described in detail later with reference to FIG. 8 and the like.

상기 XR 디바이스는, 상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하고(S560), 그리고 상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 한다(S570). 다만, 여기서의 제2 가상 아바타는, 전술한 제1 가상 아바타와 다르다. 상기 제2 가상 아바타는, 예를 들어 XR 디바이스 주변의 사용자 얼굴이 반영된 상태를 의미한다.The XR device photographs the user using the camera while the indicator moves from the first position to the second position (S560), and based on the photographed result, the at least one actual The object and the second virtual avatar are displayed (S570). However, the second virtual avatar here is different from the first virtual avatar described above. The second virtual avatar means, for example, a state in which the user's face around the XR device is reflected.

도 4에 도시하지는 않았으나, XR 디바이스는 상기 사용자가 상기 XR 디바이스로부터 기설정된 일정 거리 이상 이격하였는지 여부를 판단한다. 나아가, 상기 판단 결과 상기 기설정된 거리 이상 이격한 경우, 상기 제1 가상 아바타와 함께 기준 위치 관련 그래픽 이미지를 디스플레이 한다. 상기 제1 가상 아바타는 상기 사용자의 움직임에 따라 이동하는 것을 특징으로 한다. 이와 관련해서는, 이하 도 10 내지 도 12를 참조하여 후술하도록 하겠다.Although not shown in FIG. 4, the XR device determines whether the user is separated from the XR device by a predetermined distance or more. Furthermore, as a result of the determination, if the distance is greater than the preset distance, a graphic image related to the reference location is displayed together with the first virtual avatar. The first virtual avatar is characterized in that it moves according to the user's movement. In relation to this, it will be described later with reference to FIGS. 10 to 12.

상기 기설정된 일정 거리는, 예를 들어 상기 XR 디바이스의 스크린 사이즈에 따라 변경되는 것을 특징으로 한다.The preset constant distance is characterized in that it changes depending on the screen size of the XR device, for example.

나아가, 상기 XR 디바이스는, 상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있는지 여부를 판단하고, 상기 판단 결과 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있지 않은 경우, 상기 인디케이터의 사이즈 또는 칼라를 변경한다. 이와 관련해서는 이하 도 15를 참조하여 후술한다.Furthermore, the XR device determines whether the user's eyes or face are facing the indicator while the indicator moves from the first position to the second position, and as a result of the determination, the user's eyes or face If it is not pointing towards the indicator, change the size or color of the indicator. This will be described later with reference to FIG. 15.

나아가, 상기 XR 디바이스는, 상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 얼굴 스캔에 필요한 시간 정보 또는 상태 정보를 디스플레이 한다. 이와 관련해서는 이하 도 16을 참조하여 보다 상세히 후술한다.Furthermore, the XR device displays time information or status information necessary for face scanning only while the indicator is located in the second position. This will be described in more detail below with reference to FIG. 16.

또한, 상기 XR 디바이스는, 상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 사용자의 얼굴 기준의 제1벡터와 상기 사용자의 상반신 기준의 제2벡터를 비교한다. 나아가, 상기 XR 디바이스는, 상기 제1벡터와 상기 제2벡터가 기설정된 각도 이상 차이가 나는 경우에 한하여, 상기 사용자의 상반신을 움직이도록 가이드 하는 메시지를 디스플레이 한다. 이와 관련해서는 이하 도 17을 참조하여 후술한다.Additionally, the XR device compares a first vector based on the user's face with a second vector based on the user's upper body only while the indicator is located at the second position. Furthermore, the XR device displays a message guiding the user to move his or her upper body only when the first vector and the second vector differ by more than a preset angle. This will be described later with reference to FIG. 17.

또한, 상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 XR 디바이스는 상기 사용자의 얼굴내 분석되는 특정 부분에 대응하는 그래픽 이미지를 디스플레이 한다. 상기 특정 부분은, 예를 들어, 상기 사용자의 눈, 코 또는 입 중 적어도 하나를 포함한다. 이와 관련해서는 이하 도 19에서 보다 상세히 후술하겠다.Additionally, only while the indicator is located in the second position, the XR device displays a graphic image corresponding to the specific part of the user's face to be analyzed. The specific part includes, for example, at least one of the user's eyes, nose, or mouth. This will be described in more detail in Figure 19 below.

또한, 상기 얼굴내 특정 부분에 대한 분석에 실패한 경우의 상기 그래픽 이미지의 최외곽선의 칼라와, 상기 얼굴내 특정 부분에 대한 분석에 성공한 경우의 상기 그래픽 이미지의 최외곽선의 칼라는 서로 다른 것을 특징으로 한다. 이와 관련해서는, 이하 도 20을 참조하여 후술한다.In addition, the color of the outermost line of the graphic image when the analysis of the specific part of the face fails and the color of the outermost line of the graphic image when the analysis of the specific part of the face is successful are different from each other. do. This will be described later with reference to FIG. 20.

한편, 도 4에서는 방법 발명에 대하여 설명하였으나, 장치 발명으로도 구현할 수가 있다. 본 발명의 일실시예에 의한 XR 디바이스는, 이전 도 1 및 도 2등에서 전술한 바와 같이, 카메라, 디스플레이 모듈 및 컨트롤러를 포함한다.Meanwhile, although the method invention is explained in Figure 4, it can also be implemented as a device invention. The XR device according to an embodiment of the present invention includes a camera, a display module, and a controller, as previously described in FIGS. 1 and 2, etc.

상기 카메라는, 상기 XR 디바이스의 주변에 위치한 사용자를 인식한다.The camera recognizes users located around the XR device.

상기 디스플레이 모듈은, 상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 한다.The display module displays at least one real object and a first virtual avatar around the XR device.

그리고, 상기 컨트롤러는, 상기 카메라 및 상기 디스플레이 모듈을 제어한다.And, the controller controls the camera and the display module.

보다 구체적으로 예를 들면, 상기 컨트롤러는, 제2 가상 아바타 생성을 위한 인디케이터를 생성하고, 상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 하도록 제어하고, 상기 인디케이터를 상기 제1위치에서 제2위치로 이동시키고(상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 함), 상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하도록 제어하고, 그리고 상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 하도록 제어한다.More specifically, for example, the controller generates an indicator for creating a second virtual avatar, controls the generated indicator to be displayed at a first location on the screen of the XR device, and displays the indicator at the first location. to a second position (the second position is different from the first position and is located around the camera in the screen), while the indicator moves from the first position to the second position. , controlling to photograph the user using the camera, and controlling to display the at least one real object and the second virtual avatar based on the photographed result.

도 5는 본 발명의 일실시예에 의한 XR 디바이스 및 설치된 카메라의 외관을 도시하고 있다.Figure 5 shows the appearance of an XR device and an installed camera according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명의 일실시예에 의한 XR 디바이스(600)는 하나의 카메라(610)를 측면에 구비하고 있으며, 상기 카메라(610)를 이용하여 주변 사용자(620)를 인식한다. 이를 통해, 상기 사용자(620)의 얼굴과 유사한 가상 아바타를 생성하는 것이 가능하다.As shown in FIG. 5, the XR device 600 according to an embodiment of the present invention is equipped with a camera 610 on the side, and uses the camera 610 to recognize nearby users 620. do. Through this, it is possible to create a virtual avatar similar to the face of the user 620.

다만, XR 디바이스(600)의 스크린 사이즈가 클수록, 상기 카메라(610)가 스크린의 중심점으로부터 물리적으로 상당히 멀리 떨어져 있을 수 밖에 없다. 상기 사용자(620)는 통상적으로 XR 디바이스(600)의 스크린 중앙을 응시하기 때문에, 상기 하나의 카메라(610)만으로 상기 사용자(620)의 정면 및 다양한 각도를 촬영할 수 없다는 문제점이 있었다. 이와 같은 상황에서는, 상기 사용자(620)의 얼굴을 정확하게 디텍트할 수 없고, 이로 인하여 가상 아바타의 얼굴이 실제 사용자(620) 얼굴과 많이 달라지는 문제점이 대두되었다.However, the larger the screen size of the XR device 600, the larger the camera 610 must be physically located at a considerable distance from the center point of the screen. Since the user 620 typically gazes at the center of the screen of the XR device 600, there was a problem in that the front view and various angles of the user 620 could not be photographed with only the single camera 610. In this situation, the face of the user 620 cannot be accurately detected, which raises the problem that the face of the virtual avatar is very different from the face of the actual user 620.

도 6은 본 발명의 일실시예에 의한 XR 디바이스가 하나의 이미지로 가상 아바타의 얼굴을 생성하는 과정을 도시하고 있다.Figure 6 shows a process in which an XR device generates the face of a virtual avatar from one image according to an embodiment of the present invention.

예를 들어, 도 6의 (a)에 도시된 바와 같이, 사용자의 정면 얼굴을 촬영한 것으로 가정한다. 도 6의 (a)에 도시된 이미지를 이용하여, 도 6의 (b)에 도시된 바와 같이, 3D 얼굴 모델을 생성하고 렌더링 작업을 수행한다. 그 결과, 도 6의 (c)에 도시된 바와 같이, 가상 아바타 얼굴이 생성된다.For example, as shown in (a) of FIG. 6, assume that the user's frontal face has been photographed. Using the image shown in (a) of FIG. 6, a 3D face model is created and a rendering task is performed, as shown in (b) of FIG. 6. As a result, as shown in (c) of FIG. 6, a virtual avatar face is created.

다만, 사용자의 실제 얼굴과 가장 근접한 가상 아바타를 생성하기 위해서는, 사용자의 정면 얼굴을 캡쳐하는 것이 매우 중요하고, 가능한 다양한 각도의 얼굴을 캡쳐하는 것 또한 중요하다.However, in order to create a virtual avatar that is closest to the user's actual face, it is very important to capture the user's frontal face, and it is also important to capture the face from various angles as possible.

도 7은 본 발명의 일실시예에 의한 XR 디바이스가 다양한 각도에서 획득한 복수개의 이미지들을 도시하고 있다.Figure 7 shows a plurality of images acquired from various angles by an XR device according to an embodiment of the present invention.

도 7은 XR 디바이스의 측면에 카메라가 설치되어 있는 것을 가정한다(이전 도 5 참조). 따라서, 사용자가 XR 디바이스의 스크린 중심점을 응시하는 경우, 도 7의 (a)에 도시된 이미지를 획득하며, 사용자가 XR 디바이스의 측면에 설치된 카메라를 응시해야만 도 7의 (b)에 도시된 이미지를 획득하는 것이 가능하다. 본 발명의 일실시예에 의한 XR 디바이스는 도 7에 도시된 다양한 이미지들을 가능한 빠른 시간내에, 보다 정확하게 그리고 사용자의 거부감 없이 획득하는 솔루션을 제안한다. 이와 관련하여 이하 도 8에서 보다 상세히 후술한다.Figure 7 assumes that a camera is installed on the side of the XR device (see previous Figure 5). Therefore, when the user gazes at the center point of the screen of the XR device, the image shown in (a) of FIG. 7 is obtained, and the image shown in (b) of FIG. 7 is obtained only when the user gazes at the camera installed on the side of the XR device. It is possible to obtain. The XR device according to an embodiment of the present invention proposes a solution for acquiring various images shown in FIG. 7 as quickly as possible, more accurately, and without user resistance. This will be described in more detail below in FIG. 8.

도 8은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴 자세를 유도하는 프로세스를 도시하고 있다.Figure 8 shows a process in which an XR device induces the user's facial posture according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 특정 인디케이터(ex: Red Dot)를 이용하여 XR 디바이스 주변에 위치한 사용자 얼굴의 각도를 제어한다. 사용자의 얼굴과 근접한 가상 아바타를 생성하기 위하여, XR 디바이스 주변에 위치한 사용자의 얼굴 자세를 자연스럽게 유도하고자 한다.As shown in FIG. 8, the angle of the user's face located around the XR device is controlled using a specific indicator (ex: Red Dot). In order to create a virtual avatar that is close to the user's face, we want to naturally induce the facial posture of the user located around the XR device.

우선, 도 8의 (a)에 도시된 바와 같이, 본 발명의 일실시예에 의한 XR 디바이스는 카메라(930)를 이용하여 주변 사용자(901)가 존재하는지 여부를 판단한다. 물론, 카메라가 아닌 다른 물체 근접 센서를 이용하여 이 기능을 구현할 수도 있다.First, as shown in (a) of FIG. 8, the XR device according to an embodiment of the present invention uses the camera 930 to determine whether a nearby user 901 exists. Of course, this function can also be implemented using an object proximity sensor other than a camera.

주변 사용자(901)가 존재하는 것으로 인식된 경우, XR 디바이스는 제1 가상 아타바(900) 및 제1 위치에서 인디케이터(920)를 표시한다. 다만, 상기 제1 가상 아바타(900)는 메모리에 기저장된 임의의 그래픽 이미지로, 사용자(901)의 얼굴이 반영되지 않은 상태를 의미한다.When it is recognized that a nearby user 901 exists, the XR device displays the first virtual ataba 900 and the indicator 920 at the first location. However, the first virtual avatar 900 is an arbitrary graphic image previously stored in memory, and does not reflect the face of the user 901.

나아가, 사용자의 얼굴이 자연스럽게 움직일 수 있는 가이드 메시지(910)가 디스플레이 된다.Furthermore, a guide message 910 that allows the user's face to move naturally is displayed.

그리고, XR 디바이스는 상기 인디케이터를 제2 위치(921)로 천천히 이동시키고, 상기 사용자(901)의 얼굴도 자연스럽게 이동한다. 특히, 상기 제2 위치는 상기 카메라(930) 주변에 위치하도록 설계함으로써, 카메라(930)는 사용자(901)의 정면 얼굴을 캡쳐하는 것이 가능하다.Then, the XR device slowly moves the indicator to the second position 921, and the face of the user 901 also moves naturally. In particular, by designing the second location to be located around the camera 930, the camera 930 is capable of capturing the front face of the user 901.

도 8의 (a)는 카메라(930)가 XR 디바이스의 왼쪽 측면에 위치한 것을 가정하였으나, 도 8의 (b)에 도시된 바와 같이, 카메라(950)가 XR 디바이스의 오른쪽 측면에 위치하는 경우에도 본 발명의 일실시예를 적용할 수가 있다.Figure 8 (a) assumes that the camera 930 is located on the left side of the XR device, but as shown in Figure 8 (b), even if the camera 950 is located on the right side of the XR device One embodiment of the present invention can be applied.

도 8의 (b)에 도시된 바와 같이, 인디케이터가 최초 표시되는 위치(940)는 도 8의 (a)와 동일하지만, 최종 이동되는 지점(941)은 도 8의 (a)와 다르다. 즉, XR 디바이스에 설치된 카메라(950)의 위치인 XR 디바이스의 스크린내 오른쪽 중간 지점(941)까지 인디케이터가 이동하고, 따라서 사용자의 얼굴 정면을 캡쳐하는 것이 가능하다.As shown in (b) of FIG. 8, the position 940 where the indicator is first displayed is the same as (a) in FIG. 8, but the point to which it is finally moved (941) is different from (a) in FIG. 8. That is, the indicator moves to the midpoint 941 on the right side of the screen of the XR device, which is the location of the camera 950 installed in the XR device, and thus it is possible to capture the front of the user's face.

나아가, 도 8의 (a)는 카메라(930)가 XR 디바이스의 왼쪽 측면에 위치한 것을 가정하였으나, 도 8의 (c)에 도시된 바와 같이, 카메라(970)가 XR 디바이스의 중앙 상단에 위치하는 경우에도 본 발명의 일실시예를 적용할 수가 있다.Furthermore, Figure 8(a) assumes that the camera 930 is located on the left side of the XR device, but as shown in Figure 8(c), the camera 970 is located at the top center of the XR device. Even in this case, an embodiment of the present invention can be applied.

도 8의 (c)에 도시된 바와 같이, 인디케이터가 최초 표시되는 위치(960)는 도 8의 (a)와 동일하지만, 최종 이동되는 지점(961)은 도 8의 (a)와 다르다. 즉, XR 디바이스에 설치된 카메라(970)의 위치인 XR 디바이스의 스크린내 중앙 상단 지점(961)까지 인디케이터가 이동하고, 따라서 사용자의 얼굴 정면을 캡쳐하는 것이 가능하다.As shown in (c) of FIG. 8, the position 960 where the indicator is first displayed is the same as (a) of FIG. 8, but the point to which it is finally moved (961) is different from (a) of FIG. 8. That is, the indicator moves to the upper central point 961 of the screen of the XR device, which is the location of the camera 970 installed in the XR device, and thus it is possible to capture the front of the user's face.

도 9는 본 발명의 일실시예에 의한 XR 디바이스가 도 8에서 획득한 복수개의 이미지들로 가상 아바타의 얼굴을 생성하는 과정을 도시하고 있다.FIG. 9 illustrates a process in which an XR device according to an embodiment of the present invention creates a face of a virtual avatar using a plurality of images acquired in FIG. 8.

도 8에 도시된 바와 같이, 사용자의 얼굴 방향이 서서히 변경되면, XR 디바이스는 도 9의 (a)에 도시된 바와 같이, 사용자의 다양한 얼굴 방향에서의 이미지를 캡쳐하는 것이 가능하다.As shown in FIG. 8, when the direction of the user's face gradually changes, the XR device is capable of capturing images in various facial directions of the user, as shown in (a) of FIG. 9.

따라서, 도 9의 (b)에 도시된 바와 같이, 더욱 자세한 얼굴 텍스쳐(texture) 정보를 획득하는 것이 가능하며, 렌더링 프로세스를 통해 도 9의 (c)에 도시된 3D 가상 아바타 얼굴을 생성한다.Therefore, as shown in (b) of FIG. 9, it is possible to obtain more detailed facial texture information, and generate the 3D virtual avatar face shown in (c) of FIG. 9 through a rendering process.

다만, 이전에 설명한 실시예들은, XR 디바이스 주변에 위치한 사용자와 상기 XR 디바이스간 거리가 일정한 것을 가정하였다. 그러나, 실제로는 XR 디바이스와 상기 사용자간 거리가 달라질 수가 있다. 이와 같은 경우에도, 인디케이터가 표시되는 위치가 동일하다면, 다양한 각도에서의 사용자 얼굴 및 정면에서의 사용자 얼굴을 획득할 수 없는 문제점이 발생한다. 관련 문제점들의 구체적인 시나리오는 이하 도 10에서 후술하고, 이를 해결하기 위한 다양한 솔루션들에 대해서는 이하 도 11 내지 도 13에서 보다 상세히 후술하도록 하겠다.However, the previously described embodiments assumed that the distance between the user located around the XR device and the XR device was constant. However, in reality, the distance between the XR device and the user may vary. Even in this case, if the position where the indicator is displayed is the same, a problem arises in which the user's face from various angles and the user's face from the front cannot be obtained. Specific scenarios of related problems will be described later in Figure 10, and various solutions to solve them will be described in more detail in Figures 11 to 13 below.

도 10은 본 발명의 일실시예에 의한 XR 디바이스로부터 이격한 사용자의 위치에 따른 문제점을 도시하고 있다.Figure 10 shows a problem depending on the location of a user away from the XR device according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 임의의 사용자들은 XR 디바이스(1100)와 다양한 거리에 서 있을 수 있다.As shown in FIG. 10 , arbitrary users may be standing at various distances from the XR device 1100.

예를 들어, 사용자가 XR 디바이스(1100)와 매우 근거리에 위치한 경우 및 매우 원거리에 위치한 경우에는, 다양한 각도에서 사용자 얼굴을 정확하게 캡쳐하는 것이 불가능하다. 특히, 사용자가 XR 디바이스(1100)로부터 멀리 떨어진 곳에 위치한 경우, XR 디바이스의 스크린내 인디케이터 움직임만으로는 사용자의 얼굴을 다양한 각도에서 캡쳐하는 것이 불가능하다.For example, when the user is located very close to or very far from the XR device 1100, it is impossible to accurately capture the user's face from various angles. In particular, when the user is located far away from the XR device 1100, it is impossible to capture the user's face from various angles just by moving the indicator on the screen of the XR device.

이를 해결하기 위한 2가지 솔루션을 제시한다. 도 11 및 도 12에서 제시한 솔루션은, 사용자가 일정한 위치로 이동하도록 가이드 하는 방법이고, 도 13에서 제시한 솔루션은 사용자가 XR 디바이스의 스크린 밖 실제 오브젝트 중 특정 오브젝트를 바라볼 수 있도록 가이드 하는 방법이다.We present two solutions to solve this. The solution presented in FIGS. 11 and 12 is a method of guiding the user to move to a certain location, and the solution presented in FIG. 13 is a method of guiding the user to look at a specific object among real objects outside the screen of the XR device. am.

도 11은 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 일예를 도시하고 있다.FIG. 11 shows an example of a solution to solve the problem shown in FIG. 10.

도 11의 (a)에 도시된 바와 같이, XR 디바이스(1200)와 사용자(1210)가 멀리 떨어져 있는 경우, XR 디바이스(1200)의 스크린내 인디케이터의 움직임 및 이에 대응하는 사용자 얼굴의 동작만으로는 다양한 각도에서의 사용자 얼굴을 캡쳐할 수가 없다.As shown in (a) of FIG. 11, when the XR device 1200 and the user 1210 are far away, the movement of the indicator on the screen of the XR device 1200 and the corresponding movement of the user's face can be used at various angles. The user's face cannot be captured.

따라서, 도 11의 (a)에 도시된 문제점을 해결하기 위해서는, 사용자가 먼거리에 있는 제1지점(1230)에서 XR 디바이스와 보다 근접한 제2지점(1231)으로 이동시키는 솔루션이 요구된다. 이와 관련된 구체적인 방법은, 이하 도 12에서 후술한다.Therefore, in order to solve the problem shown in (a) of FIG. 11, a solution is required that allows the user to move from the first point 1230, which is far away, to the second point 1231, which is closer to the XR device. A specific method related to this will be described later with reference to FIG. 12.

도 12는 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 다른 일예를 도시하고 있다.FIG. 12 shows another example of a solution for solving the problem shown in FIG. 10.

도 12에 도시된 아바타는 이전에도 설명한 제1 아바타에 대응하는 개념으로서, 사용자 얼굴이 아직 반영되지 않은 상태이다.The avatar shown in FIG. 12 is a concept corresponding to the first avatar described previously, and the user's face is not yet reflected.

다만, 사용자가 최초 인식된 지점(1310)에 대응하여 제1 아바타 역시 특정 지점(1320)에서 디스플레이 된다. 그리고, 사용자의 움직임에 따라 제1 아바타 역시 XR 디바이스의 스크린내에서 움직인다.However, the first avatar is also displayed at a specific point 1320 corresponding to the point 1310 where the user is first recognized. And, according to the user's movement, the first avatar also moves within the screen of the XR device.

따라서, 사용자가 최초 인식된 지점(1310)에서 전술한 인디케이터의 동작만으로 사용자의 다양한 얼굴을 캡쳐하는 것이 불가능한 경우, 제1 아바타는 기준 위치(1321)로 이동한다. 따라서, 사용자 역시 타겟 지점(1311)으로 움직이도록 가이드 하는 것이 가능하다.Accordingly, if it is impossible to capture the user's various faces at the point 1310 where the user is first recognized by simply operating the above-described indicator, the first avatar moves to the reference position 1321. Therefore, it is possible to guide the user to move to the target point 1311 as well.

다만, 도 11 및 도 12의 솔루션은 사용자가 기준 위치로 이동해야만 한다는 한계를 가지고 있고, 사용자가 정확한 기준 위치로 이동하지 않을 가능성도 존재한다. 이와 같은 문제점을 해결하기 위한 솔루션은 이하 도 13에서 후술한다.However, the solutions of FIGS. 11 and 12 have the limitation that the user must move to the reference position, and there is a possibility that the user may not move to the exact reference position. A solution to solve this problem will be described later in FIG. 13.

도 13은 도 10에서 도시된 문제점을 해결하기 위한 솔루션의 또 다른 일예를 도시하고 있다.FIG. 13 shows another example of a solution for solving the problem shown in FIG. 10.

우선, XR 디바이스는 사용자가 XR 디바이스를 바라 보는 방향에서의 특정 사진 정보를 가지고 있는 것으로 가정한다.First, it is assumed that the XR device has specific photo information in the direction from which the user is looking at the XR device.

특히, 사용자가 XR 디바이스로부터 원격에 위치하고 있어서, XR 디바이스의 스크린내 특정 지점을 바라 보는 것만으로는 다양한 각도에서의 사용자를 촬영할 수 없는 경우, XR 디바이스(1400)는 전술한 특정 사진 정보(1410)를 디스플레이 한다.In particular, if the user is located remotely from the XR device and cannot photograph the user from various angles just by looking at a specific point on the screen of the XR device, the XR device 1400 may use the above-described specific photo information 1410 displays.

따라서, 유저는 XR 디바이스의 스크린내 인디케이터를 응시하는 것이 아니라, 대응하는 지점의 실제 오브젝트(1420)를 바라 보게 된다. 이를 통해, 사용자의 얼굴을 보다 다양한 각도에서 촬영하는 것이 가능하다.Accordingly, the user does not look at the indicator on the screen of the XR device, but looks at the actual object 1420 at the corresponding point. Through this, it is possible to photograph the user's face from more diverse angles.

전술한 실시예들에 따르면, XR 디바이스의 스크린내 인디케이터의 움직임에 따라, 사용자의 얼굴도 움직이게 된다. 다만, 사용자의 얼굴 움직임과 다르게, 사용자의 시선이 움직일 가능성도 존재한다.According to the above-described embodiments, the user's face also moves according to the movement of the indicator on the screen of the XR device. However, unlike the user's facial movement, there is a possibility that the user's gaze may move.

이를 해결하기 위한 솔루션에 대해서는 이하 도 14 및 도 15를 참조하여 후술한다.A solution to solve this problem will be described later with reference to FIGS. 14 and 15.

도 14는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선을 유도하는 프로세스를 도시하고 있다.Figure 14 shows a process in which an XR device guides the user's gaze according to an embodiment of the present invention.

도 14에 도시된 바와 같이, XR 디바이스(1500)는 사용자(1510)의 존재 여부를 인식한 경우, 제1 가상 아바타(1520)를 표시하고 인디케이터(ex: red dot)의 움직임으로 사용자의 얼굴이 움직이도록 가이드 한다.As shown in FIG. 14, when the XR device 1500 recognizes the presence of the user 1510, it displays the first virtual avatar 1520 and displays the user's face by moving an indicator (ex: red dot). Guide you to move.

다만, 사용자의 시선이 카메라를 향할 수 있도록 부가적인 메시지(1530)를 표시함으로써, 사용자의 얼굴 방향에 적합한 사용자의 눈을 정확하게 캡쳐 하는 것이 가능하다.However, by displaying an additional message 1530 to direct the user's gaze toward the camera, it is possible to accurately capture the user's eyes appropriate for the direction of the user's face.

그러나, 도 14의 실시예는 사용자가 카메라를 보는 경우에만 얼굴 방향과 시선 방향이 맞게 되는 문제점이 있다. 이를 해결하기 위한 솔루션은 이하 도 15에서 후술한다.However, the embodiment of FIG. 14 has a problem in that the face direction and gaze direction match only when the user is looking at the camera. A solution to solve this problem is described later in FIG. 15.

도 15는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선이 유도된 방향과 달라진 경우의 문제점을 해결하기 위한 프로세스를 도시하고 있다.Figure 15 shows a process for solving a problem when the XR device according to an embodiment of the present invention changes from the direction in which the user's gaze was guided.

도 15에 도시된 XR 디바이스는 아이 트래킹(eye tracking) 기능이 적용되어 있는 것으로 가정한다.It is assumed that the XR device shown in FIG. 15 has an eye tracking function applied.

도 15의 (a)에 도시된 바와 같이, 인디케이터(1610)의 움직임에 따라 사용자의 시선(1600)도 일정 오차 범위 내에서 위치하고 있다. 나아가, 사용자의 시선(1600)을 XR 디바이스의 스크린내에 표시함으로써 사용자에게 피드백 효과를 주는 것도 본 발명의 권리범위에 속한다.As shown in (a) of FIG. 15, the user's gaze 1600 is located within a certain error range according to the movement of the indicator 1610. Furthermore, providing a feedback effect to the user by displaying the user's gaze 1600 on the screen of the XR device also falls within the scope of the present invention.

그러나, 도 15의 (b)에 도시된 바와 같이, 사용자 시선(1601)이 인디케이터(1611)로부터 기설정된 오차 범위를 벗어난 경우, 도 15의 (c)에 도시된 바와 같이, 인디케이터 사이즈를 크게 변경한다(1621). 따라서, 가능한 짧은 시간 이내에, 사용자 시선이 다시 인디케이터를 향할 수 있도록 유도하는 것이 가능하다. 물론, 도 15의 (c)에서는 인디케이터의 사이즈를 확대하는 것으로 예시하였으나, 인디케이터의 칼라를 변경하거나 워닝 오디오를 출력하는 것도 본 발명의 권리범위에 속한다.However, as shown in (b) of FIG. 15, when the user's gaze 1601 deviates from the preset error range of the indicator 1611, the indicator size is changed significantly as shown in (c) of FIG. 15. Do (1621). Therefore, it is possible to guide the user's gaze back to the indicator within the shortest possible time. Of course, in Figure 15 (c), the size of the indicator is enlarged, but changing the color of the indicator or outputting warning audio also falls within the scope of the present invention.

다만, 사용자의 정면 얼굴을 촬영하는 순간 사용자의 얼굴이 정상적인 상태가 아닌 경우가 존재할 수 있는데, 이를 해결하기 위한 솔루션은 이하 도 16에서 후술한다.However, there may be cases where the user's face is not in a normal state at the moment the user's frontal face is photographed, and a solution to solve this problem will be described later in FIG. 16.

도 16은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선을 일정한 시간 이상 유도하기 위한 프로세스를 도시하고 있다.Figure 16 shows a process by which an XR device guides the user's gaze for more than a certain period of time according to an embodiment of the present invention.

XR 디바이스 주변의 사용자가 눈을 깜빡이거나 할 수 있기 때문에 기설정된 시간(3초)동안 여러 장을 촬영하고, 표정 변화가 없는 한 장의 사진으로 가상 아바타를 생성하도록 설계한다.Because users around the XR device may blink, multiple photos are taken during a preset time (3 seconds), and a virtual avatar is designed to be created from a single photo with no change in facial expression.

도 16의 (a)에 도시된 바와 같이, 인디케이터가 카메라 주변에 위치한 경우, 표정을 유지하도록 가이드 하는 카운팅 넘버(1710)가 표시된다. 따라서, 유저는 해당 넘버의 초 동안 표정을 유지해야 함을 인식할 수 있다.As shown in (a) of FIG. 16, when the indicator is located around the camera, a counting number 1710 is displayed to guide the user to maintain the facial expression. Accordingly, the user can recognize that the facial expression must be maintained for the corresponding number of seconds.

나아가, 얼굴 스캔 상태를 표시하는 바를 원형(1720) 타입으로 표시하는 것도 본 발명의 일실시예의 권리범위에 속한다.Furthermore, displaying a bar indicating the face scanning status in a circular (1720) type also falls within the scope of rights of one embodiment of the present invention.

따라서, XR 디바이스는 해당 시간 동안 캡쳐된 다수의 이미지들(도 16의 (b), (c), (d)) 중에서 표정 변화가 가장 없는 정상적인 상태의 이미지(도 16의 (d))에 기반하여 가상 아바타를 생성하는 것이 가능하다.도 17은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 시선과 상반신이 향하는 방향이 일치하지 않는 경우의 문제점을 해결하기 위한 프로세스를 도시하고 있다.Therefore, the XR device is based on the image in a normal state ((d) in Figure 16) with the least change in facial expression among the multiple images ((b), (c), and (d) in Figure 16) captured during the corresponding time. It is possible to create a virtual avatar. FIG. 17 shows a process for solving a problem when the XR device according to an embodiment of the present invention does not match the direction in which the user's gaze and upper body are facing.

도 17의 (a)에 도시된 바와 같이, 인디케이터가 XR 디바이스의 카메라 근처에 위치하는 경우, 사용자의 시선도 인디케이터를 향하고 있으므로 정면 얼굴을 캡쳐하는 것이 가능하다.As shown in (a) of FIG. 17, when the indicator is located near the camera of the XR device, the user's gaze is also directed toward the indicator, so it is possible to capture the frontal face.

그러나, 사용자 시선과 달리, 사용자의 상반신은 인디케이터를 향하지 않고 있을 가능성이 존재하고, 이 경우 가상 아바타 역시 사용자의 실제 모습과는 달라지는 문제점이 존재한다.However, unlike the user's gaze, there is a possibility that the user's upper body is not facing the indicator, and in this case, there is a problem that the virtual avatar also differs from the user's actual appearance.

따라서, 사용자의 얼굴 방향과 사용자의 상반신 방향이 일치하지 않는 경우, 사용자의 상반신을 얼굴 방향과 일치하도록 가이드 하는 그래픽 이미지(1800)를 디스플레이 한다.Therefore, when the direction of the user's face and the direction of the user's upper body do not match, a graphic image 1800 is displayed to guide the user's upper body to match the direction of the face.

이를 판단하기 위한 솔루션은 도 17의 (b) 및 (c)에 도시되어 있다.The solution for determining this is shown in Figures 17 (b) and (c).

도 17의 (b)에 도시된 바와 같이, 본 발명의 일실시예에 의한 XR 디바이스는 사용자 얼굴 기준의 제1벡터(1810)와 상기 사용자의 상반신 기준의 제2 벡터(1820)를 비교한다. 상기 제1벡터와 상기 제2벡터가 기설정된 각도(예를 들어, 15도) 이상 차이가 나는 경우에 한하여, 도 17의 (a)에 도시된 그래픽 이미지(1800) 또는 사용자의 상반신을 움직이도록 가이드 하는 메시지를 디스플레이 하도록 설계한다.As shown in (b) of FIG. 17, the XR device according to an embodiment of the present invention compares a first vector 1810 based on the user's face and a second vector 1820 based on the user's upper body. Only when the first vector and the second vector differ by more than a preset angle (for example, 15 degrees), the graphic image 1800 shown in (a) of FIG. 17 or the user's upper body is moved. Designed to display guiding messages.

반면, 도 17의 (c)에 도시된 바와 같이, 사용자 얼굴 기준의 제1벡터와 상기 사용자의 상반신 기준의 제2 벡터가 일치하거나 또는 적어도 상기 기설정된 각도 미만으로만 차이가 나는 경우에는, 도 17의 (a)에 도시된 그래픽 이미지(1800)를 디스플레이 하지 않는다.On the other hand, as shown in (c) of FIG. 17, when the first vector based on the user's face and the second vector based on the user's upper body match or differ by at least less than the preset angle, FIG. The graphic image 1800 shown in (a) of 17 is not displayed.

전술한 바와 같이, 다양한 각도에서 촬영 및 캡쳐된 사용자의 이미지 정보에 기초하여, 제2 가상 아바타를 디스플레이 하는 것이 가능하다. 제1 가상 아바타와 달리, 제2 가상 아바타는 사용자의 얼굴 정보가 반영되어 있음은 전술한 바 있다. 그러나, 전술한 실시예들에도 불구하고 제2 가상 아바타와 사용자의 실제 얼굴에 차이가 나는 경우가 존재할 수 있는데, 이를 확인하는 방법에 대해서는 이하 도 18에서 후술한다,.As described above, it is possible to display the second virtual avatar based on the user's image information photographed and captured from various angles. It has been described above that unlike the first virtual avatar, the second virtual avatar reflects the user's facial information. However, despite the above-described embodiments, there may be cases where there is a difference between the second virtual avatar and the user's actual face, and a method for confirming this will be described later with reference to FIG. 18.

도 18은 본 발명의 일실시예에 의한 XR 디바이스가 생성된 아바타의 얼굴을 확인하는 프로세스를 도시하고 있다.Figure 18 shows a process in which an XR device confirms the face of a created avatar according to an embodiment of the present invention.

전술한 실시예들에 따라 생성된 제2 가상 아바타가, 도 18에 도시된 바와 같이 디스플레이 된다.The second virtual avatar created according to the above-described embodiments is displayed as shown in FIG. 18.

나아가, 사용자(1900)의 얼굴 회전에 따라 제2 가상 아바타(1910) 역시 동일한 방향으로 회전된다.Furthermore, as the face of the user 1900 rotates, the second virtual avatar 1910 is also rotated in the same direction.

사용자(1900)는 제2 가상 아바타(1910)의 정면 뿐만 아니라 옆모습을 모두 확인 후, 자신과 유사하다고 확인 한 경우 가상 아바타를 적용하겠다는 옵션(1940)을 선택한다. 이는, 사용자의 제스쳐 기반으로 선택될 수 있으며, XR 디바이스는 모션 디텍션 기능이 있는 것으로 가정한다.The user 1900 checks both the front and side views of the second virtual avatar 1910 and, if it is confirmed that it is similar to the user, selects the option 1940 to apply the virtual avatar. This can be selected based on the user's gesture, and it is assumed that the XR device has a motion detection function.

반면, 상기 사용자(1900)는 제2 가상 아바타(1910)의 정면 뿐만 아니라 옆모습을 모두 확인 후, 자신과 유사하지 않다고 확인 한 경우 가상 아바타를 적용하지 않고 다시 촬영을 시도하겠다는 옵션(1930)을 선택한다. 이는, 사용자의 제스쳐 기반으로 선택될 수 있으며, XR 디바이스는 모션 디텍션 기능이 있는 것으로 가정한다.On the other hand, the user 1900 checks both the front and side views of the second virtual avatar 1910 and, if it is confirmed that it is not similar to the user, selects the option 1930 to try taking a picture again without applying the virtual avatar. do. This can be selected based on the user's gesture, and it is assumed that the XR device has a motion detection function.

도 19는 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴내 특정 부위를 보다 상세하게 캡쳐하기 위한 프로세스를 도시하고 있다.Figure 19 shows a process for an XR device to capture a specific part of a user's face in more detail according to an embodiment of the present invention.

도 19의 (a)에 도시된 바와 같이, 사용자는 XR 디바이스의 카메라 주변 인디케이터(2010)를 응시함으로써, 상기 XR 디바이스가 사용자의 정면 얼굴을 캡쳐하는 것이 가능함은 전술한 바 있다. 그러나, XR 디바이스가 사용자 얼굴 내 어떤 부분을 캡쳐하는지 사용자에게 피드백을 제공하지 않으면, 사용자는 얼굴 전체에 힘을 주어 신경을 쓸 수 밖에 없다.As shown in (a) of FIG. 19, it has been described above that the XR device can capture the user's frontal face by gazing at the indicator 2010 around the camera of the XR device. However, if the XR device does not provide feedback to the user about which part of the user's face it is capturing, the user has no choice but to focus their attention on the entire face.

이를 해결하기 위하여, 도 19의 (b)에 도시된 바와 같이, 사용자의 얼굴 외곽선(2020)을 디텍션 한다는 가이드 메시지를 제1 단계에서 표시한다. 따라서, 이 때 사용자는 얼굴내 부위를 편하게 움직여도 문제가 없다.To solve this problem, as shown in (b) of FIG. 19, a guide message indicating that the user's face outline 2020 is detected is displayed in the first step. Therefore, at this time, there is no problem even if the user moves the area within the face comfortably.

나아가, 도 19의 (c)에 도시된 바와 같이, 사용자의 눈을 디텍션 한다는 가이드 메시지를 제2 단계에서 표시한다. 따라서, 이 때 사용자는 눈을 제대로 뜬 상태를 유지해야 하지만, 눈을 제외한 얼굴내 다른 부위는 편하게 움직여도 된다.Furthermore, as shown in (c) of FIG. 19, a guide message indicating that the user's eyes are detected is displayed in the second step. Therefore, at this time, the user must keep his eyes properly open, but other parts of the face other than the eyes can be moved comfortably.

마지막으로, 도 19의 (d)에 도시된 바와 같이, 사용자의 입을 디텍션 한다는 가이드 메시지를 제3 단계에서 표시한다. 따라서, 이 때 사용자는 입을 다문 상태를 유지해야 하지만, 입을 제외한 얼굴내 다른 부위는 편하게 움직여도 된다.Finally, as shown in (d) of FIG. 19, a guide message indicating that the user's mouth is detected is displayed in the third step. Therefore, at this time, the user must keep the mouth closed, but other parts of the face other than the mouth can be moved comfortably.

다만, 도 19의 실시예만으로는 사용자가 어느 정도 시간 동안 해당 표정을 유지해야 하는지 알 수 없다는 문제점이 있다. 이를 해결하기 위한 솔루션은 이하 도 20에서 후술한다.도 20은 본 발명의 일실시예에 의한 XR 디바이스가 사용자의 얼굴내 특정 부위를 보다 정확하게 캡쳐하기 위한 프로세스를 도시하고 있다.However, there is a problem that the embodiment of Figure 19 alone does not know how long the user should maintain the corresponding facial expression. A solution to solve this problem will be described later in Figure 20. Figure 20 shows a process for an XR device to more accurately capture a specific part of a user's face according to an embodiment of the present invention.

도 20의 (a)에 도시된 바와 같이, 사용자의 얼굴내 특정 부위에 대한 인식에 성공한 경우, 제1 칼라의 외곽선(2110)으로 상기 특정 부위에 대응하는 그래픽 이미지를 디스플레이 한다.As shown in (a) of FIG. 20, when recognition of a specific part of the user's face is successful, a graphic image corresponding to the specific part is displayed as an outline 2110 of the first color.

반면, 도 20의 (b)에 도시된 바와 같이, 사용자의 얼굴내 특정 부위에 대한 인식에 실패한 경우(또는 눈을 찌푸린 경우), 제2 칼라의 외곽선(2120)으로 상기 특정 부위에 대응하는 그래픽 이미지를 디스플레이 한다.On the other hand, as shown in (b) of FIG. 20, when recognition of a specific part of the user's face fails (or the eyes are frowned), a graphic corresponding to the specific part is displayed as an outline 2120 in a second color. Display the image.

그리고, 도 21은 본 발명의 일실시예에 의한 XR 디바이스를 제어하는 프로세스를 도시한 플로우 차트의 일예를 도시하고 있다.And, Figure 21 shows an example of a flow chart showing a process for controlling an XR device according to an embodiment of the present invention.

본 발명의 일실시예에 의한 XR 디바이스는 인디케이터가 최종 타겟 위치인 제2 위치에 위치하고 있는지 여부를 판단한다(S2210). 전술한 바와 같이, 상기 제2 위치는, 예를 들어 XR 디바이스의 스크린내 카메라 주변에 해당한다.The XR device according to an embodiment of the present invention determines whether the indicator is located at the second location, which is the final target location (S2210). As described above, the second location corresponds, for example, to the vicinity of the in-screen camera of the XR device.

상기 판단 결과, 상기 인디케이터가 상기 제2 위치에 위치하고 있는 경우, XR 디바이스는 사용자의 얼굴 기준의 제1벡터와 상기 사용자의 상반신 기준의 제2벡터를 비교한다(S2220).As a result of the determination, if the indicator is located at the second position, the XR device compares a first vector based on the user's face and a second vector based on the user's upper body (S2220).

또한, XR 디바이스는 제1벡터와 제2벡터가 기설정된 각도 이상 차이가 발생하였는지 여부를 판단하고(S2230), 기설정된 각도 이상인 경우에 한하여 가이드 메시지를 디스플레이 한다(S2240). 이와 관련해서는 이전 도 17에서 상술한 바 있다.Additionally, the XR device determines whether the first vector and the second vector have a difference of more than a preset angle (S2230), and displays a guide message only if the difference is more than the preset angle (S2240). This has been previously described in detail in FIG. 17.

110: Communication unit
120: Control unit
130: Memory unit
140a: I/O unit
140b: Sensor unit
140c: Power supply unit
110: Communication unit
120: Control unit
130: Memory unit
140a: I/O unit
140b: Sensor unit
140c: Power supply unit

Claims (20)

적어도 하나의 가상 아바타를 제공하는 XR 디바이스의 제어 방법에 있어서,
카메라를 이용하여 상기 XR 디바이스의 주변에 위치한 사용자를 인식하는 단계;
상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 하는 단계;
제2 가상 아바타 생성을 위한 인디케이터를 생성하는 단계;
상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 하는 단계;
상기 인디케이터를 상기 제1위치에서 제2위치로 이동시키는 단계-상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 함-;
상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하는 단계;
상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 하는 단계;
상기 사용자가 상기 XR 디바이스로부터 기설정된 일정 거리 이상 이격하였는지 여부를 판단하는 단계; 그리고
상기 판단 결과 상기 기설정된 일정 거리 이상 이격한 경우, 상기 제1 가상 아바타와 함께 기준 위치 관련 그래픽 이미지를 디스플레이 하는 단계
를 포함하며,
상기 제1 가상 아바타는 상기 사용자의 움직임에 따라 이동하고, 상기 기설정된 일정 거리는 상기 XR 디바이스의 스크린 사이즈에 따라 변경되는 것을 특징으로 하는 XR 디바이스의 제어 방법.
In a method of controlling an XR device providing at least one virtual avatar,
Recognizing a user located around the XR device using a camera;
Displaying at least one real object and a first virtual avatar around the XR device;
Creating an indicator for creating a second virtual avatar;
Displaying the generated indicator at a first location on the screen of the XR device;
moving the indicator from the first position to a second position, wherein the second position is different from the first position and is located around the camera in the screen;
While the indicator moves from the first position to the second position, photographing the user using the camera;
Based on the photographed result, displaying the at least one real object and the second virtual avatar;
Determining whether the user is separated from the XR device by a predetermined distance or more; and
As a result of the determination, if the distance is greater than the predetermined distance, displaying a graphic image related to the reference location together with the first virtual avatar.
Includes,
The first virtual avatar moves according to the user's movement, and the preset distance changes according to the screen size of the XR device.
삭제delete 삭제delete 제1항에 있어서,
상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있는지 여부를 판단하는 단계; 그리고
상기 판단 결과 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있지 않은 경우, 상기 인디케이터의 사이즈 또는 칼라를 변경하는 단계
를 포함하는 XR 디바이스의 제어 방법.
According to paragraph 1,
determining whether the user's eyes or face are facing the indicator while the indicator moves from the first position to the second position; and
If, as a result of the determination, the user's eyes or face are not facing the indicator, changing the size or color of the indicator
A control method of an XR device including.
제4항에 있어서,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 얼굴 스캔에 필요한 시간 정보 또는 상태 정보를 디스플레이 하는 단계
를 포함하는 XR 디바이스의 제어 방법.
According to paragraph 4,
Displaying time information or status information required for face scanning only while the indicator is located at the second position.
A control method of an XR device including.
제5항에 있어서,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 사용자의 얼굴 기준의 제1벡터와 상기 사용자의 상반신 기준의 제2벡터를 비교하는 단계
를 포함하는 XR 디바이스의 제어 방법.
According to clause 5,
Comparing a first vector based on the user's face and a second vector based on the user's upper body only while the indicator is located at the second position
A control method of an XR device including.
제6항에 있어서,
상기 제1벡터와 상기 제2벡터가 기설정된 각도 이상 차이가 나는 경우에 한하여,
상기 사용자의 상반신을 움직이도록 가이드 하는 메시지를 디스플레이 하는 단계
를 포함하는 XR 디바이스의 제어 방법.
According to clause 6,
Only when the first vector and the second vector differ by more than a preset angle,
Displaying a message guiding the user to move his/her upper body
A control method of an XR device including.
제7항에 있어서,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 사용자의 얼굴내 분석되는 특정 부분에 대응하는 그래픽 이미지를 디스플레이 하는 단계
를 포함하는 XR 디바이스의 제어 방법.
In clause 7,
Displaying a graphic image corresponding to a specific part of the user's face to be analyzed only while the indicator is located in the second position.
A control method of an XR device including.
제8항에 있어서,
상기 특정 부분은,
상기 사용자의 눈, 코 또는 입 중 적어도 하나를 포함하는 XR 디바이스의 제어 방법.
According to clause 8,
The specific part above is,
A method of controlling an XR device including at least one of the user's eyes, nose, or mouth.
제9항에 있어서,
상기 얼굴내 특정 부분에 대한 분석에 실패한 경우의 상기 그래픽 이미지의 최외곽선의 칼라와, 상기 얼굴내 특정 부분에 대한 분석에 성공한 경우의 상기 그래픽 이미지의 최외곽선의 칼라는 서로 다른 것을 특징으로 하는 XR 디바이스의 제어 방법.
According to clause 9,
XR, characterized in that the color of the outermost line of the graphic image when the analysis of a specific part of the face fails and the color of the outermost line of the graphic image when the analysis of the specific part of the face is successful are different from each other Device control method.
적어도 하나의 가상 아바타를 제공하는 XR 디바이스에 있어서,
상기 XR 디바이스의 주변에 위치한 사용자를 인식하는 카메라;
상기 XR 디바이스 주변의 적어도 하나의 실제 오브젝트(real object) 및 제1 가상 아바타(virtual avatar)를 디스플레이 하는 디스플레이 모듈; 그리고
상기 카메라 및 상기 디스플레이 모듈을 제어하는 컨트롤러를 포함하되,
상기 컨트롤러는,
제2 가상 아바타 생성을 위한 인디케이터를 생성하고,
상기 생성된 인디케이터를 상기 XR 디바이스의 스크린내 제1위치에서 디스플레이 하도록 제어하고,
상기 인디케이터를 상기 제1위치에서 제2위치로 이동시키고-상기 제2위치는 상기 제1위치와 다르며, 상기 스크린내 카메라 주변에 위치하는 것을 특징으로 함-,
상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 카메라를 이용하여 상기 사용자를 촬영하도록 제어하고, 그리고
상기 촬영된 결과에 기초하여, 상기 적어도 하나의 실제 오브젝트 및 상기 제2 가상 아바타를 디스플레이 하도록 제어하며,
상기 컨트롤러는,
상기 사용자가 상기 XR 디바이스로부터 기설정된 일정 거리 이상 이격하였는지 여부를 판단하고,
상기 판단 결과 상기 기설정된 일정 거리 이상 이격한 경우, 상기 제1 가상 아바타와 함께 기준 위치 관련 그래픽 이미지를 디스플레이 하도록 제어하며,
상기 제1 가상 아바타는 상기 사용자의 움직임에 따라 이동하며, 상기 기설정된 일정 거리는 상기 XR 디바이스의 스크린 사이즈에 따라 변경되는 것을 특징으로 하는 XR 디바이스.
In an XR device providing at least one virtual avatar,
A camera that recognizes a user located around the XR device;
A display module that displays at least one real object and a first virtual avatar around the XR device; and
Including a controller that controls the camera and the display module,
The controller is,
Create an indicator for creating a second virtual avatar,
Controlling the generated indicator to be displayed at a first position in the screen of the XR device,
Moving the indicator from the first position to a second position, wherein the second position is different from the first position and is located around the camera in the screen,
While the indicator moves from the first position to the second position, control to photograph the user using the camera, and
Based on the captured results, control to display the at least one real object and the second virtual avatar,
The controller is,
Determine whether the user is more than a preset distance from the XR device,
As a result of the determination, if the distance is greater than the preset distance, control to display a graphic image related to the reference location together with the first virtual avatar,
The first virtual avatar moves according to the user's movement, and the preset distance changes depending on the screen size of the XR device.
삭제delete 삭제delete 제11항에 있어서,
상기 컨트롤러는,
상기 인디케이터가 상기 제1위치에서 상기 제2위치로 이동하는 동안, 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있는지 여부를 판단하고, 그리고
상기 판단 결과 상기 사용자의 눈 또는 얼굴이 상기 인디케이터를 향하고 있지 않은 경우, 상기 인디케이터의 사이즈 또는 칼라를 변경하는 것을 특징으로 하는 XR 디바이스.
According to clause 11,
The controller is,
While the indicator is moving from the first position to the second position, determine whether the user's eyes or face are facing the indicator, and
XR device, characterized in that if the user's eyes or face are not facing the indicator as a result of the determination, the size or color of the indicator is changed.
제14항에 있어서,
상기 컨트롤러는,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 얼굴 스캔에 필요한 시간 정보 또는 상태 정보를 디스플레이 하도록 제어하는 것을 특징으로 하는 XR 디바이스.
According to clause 14,
The controller is,
An XR device characterized in that the indicator is controlled to display time information or status information required for face scanning only while it is located in the second position.
제15항에 있어서,
상기 컨트롤러는,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 사용자의 얼굴 기준의 제1벡터와 상기 사용자의 상반신 기준의 제2벡터를 비교하는 것을 특징으로 하는 XR 디바이스.
According to clause 15,
The controller is,
An XR device characterized in that it compares a first vector based on the user's face and a second vector based on the user's upper body only while the indicator is located at the second position.
제16항에 있어서,
상기 컨트롤러는,
상기 제1벡터와 상기 제2벡터가 기설정된 각도 이상 차이가 나는 경우에 한하여,
상기 사용자의 상반신을 움직이도록 가이드 하는 메시지를 디스플레이 하도록 제어하는 것을 특징으로 하는 XR 디바이스.
According to clause 16,
The controller is,
Only when the first vector and the second vector differ by more than a preset angle,
An XR device characterized in that it controls to display a message guiding the user to move his or her upper body.
제17항에 있어서,
상기 컨트롤러는,
상기 인디케이터가 상기 제2위치에 위치한 동안에 한하여, 상기 사용자의 얼굴내 분석되는 특정 부분에 대응하는 그래픽 이미지를 디스플레이 하도록 제어하는 것을 특징으로 하는 XR 디바이스.
According to clause 17,
The controller is,
XR device characterized in that it controls to display a graphic image corresponding to a specific part to be analyzed in the user's face only while the indicator is located in the second position.
제18항에 있어서,
상기 특정 부분은,
상기 사용자의 눈, 코 또는 입 중 적어도 하나를 포함하는 XR 디바이스.
According to clause 18,
The specific part above is,
An XR device including at least one of the user's eyes, nose, or mouth.
제19항에 있어서,
상기 얼굴내 특정 부분에 대한 분석에 실패한 경우의 상기 그래픽 이미지의 최외곽선의 칼라와, 상기 얼굴내 특정 부분에 대한 분석에 성공한 경우의 상기 그래픽 이미지의 최외곽선의 칼라는 서로 다른 것을 특징으로 하는 XR 디바이스.
According to clause 19,
XR, characterized in that the color of the outermost line of the graphic image when the analysis of a specific part of the face fails and the color of the outermost line of the graphic image when the analysis of the specific part of the face is successful are different from each other device.
KR1020190158869A 2019-12-03 2019-12-03 Extended reality device and method for controlling the same KR102650349B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158869A KR102650349B1 (en) 2019-12-03 2019-12-03 Extended reality device and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158869A KR102650349B1 (en) 2019-12-03 2019-12-03 Extended reality device and method for controlling the same

Publications (2)

Publication Number Publication Date
KR20210069281A KR20210069281A (en) 2021-06-11
KR102650349B1 true KR102650349B1 (en) 2024-03-22

Family

ID=76376663

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158869A KR102650349B1 (en) 2019-12-03 2019-12-03 Extended reality device and method for controlling the same

Country Status (1)

Country Link
KR (1) KR102650349B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133207A (en) * 2016-06-06 2019-08-08 シャープ株式会社 Video generation apparatus, video generation method, and video generation program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102622883B1 (en) * 2019-09-02 2024-01-09 엘지전자 주식회사 Xr device and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133207A (en) * 2016-06-06 2019-08-08 シャープ株式会社 Video generation apparatus, video generation method, and video generation program

Also Published As

Publication number Publication date
KR20210069281A (en) 2021-06-11

Similar Documents

Publication Publication Date Title
CN107209386B (en) Augmented reality view object follower
US10691934B2 (en) Real-time visual feedback for user positioning with respect to a camera and a display
KR20230025914A (en) Augmented reality experiences using audio and text captions
KR20230074780A (en) Touchless photo capture in response to detected hand gestures
US8966613B2 (en) Multi-frame depth image information identification
US9348411B2 (en) Object display with visual verisimilitude
US20150215351A1 (en) Control of enhanced communication between remote participants using augmented and virtual reality
AU2021290132B2 (en) Presenting avatars in three-dimensional environments
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11954268B2 (en) Augmented reality eyewear 3D painting
US20210004081A1 (en) Information processing apparatus, information processing method, and program
US11422380B2 (en) Eyewear including virtual scene with 3D frames
US11579693B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
US11195341B1 (en) Augmented reality eyewear with 3D costumes
KR20200040716A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR20230025913A (en) Augmented Reality Eyewear with Mood Sharing
JP7128473B2 (en) Character display method
KR102650349B1 (en) Extended reality device and method for controlling the same
KR20200111144A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US20240104819A1 (en) Representations of participants in real-time communication sessions
KR20190134639A (en) Improved Methods and Systems for Virtual Reality Interaction
US20240070243A1 (en) Authenticating a selective collaborative object
US20240103680A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
KR20240018607A (en) Devices with dynamic transcode throttling
KR20210085766A (en) Extended reality device and method for controlling the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant