KR102419919B1 - User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same - Google Patents

User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same Download PDF

Info

Publication number
KR102419919B1
KR102419919B1 KR1020210189894A KR20210189894A KR102419919B1 KR 102419919 B1 KR102419919 B1 KR 102419919B1 KR 1020210189894 A KR1020210189894 A KR 1020210189894A KR 20210189894 A KR20210189894 A KR 20210189894A KR 102419919 B1 KR102419919 B1 KR 102419919B1
Authority
KR
South Korea
Prior art keywords
user
user image
metaverse
image data
office environment
Prior art date
Application number
KR1020210189894A
Other languages
Korean (ko)
Inventor
김대욱
김대호
제성철
이도행
최용재
Original Assignee
주식회사 직방
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 직방 filed Critical 주식회사 직방
Priority to KR1020210189894A priority Critical patent/KR102419919B1/en
Application granted granted Critical
Publication of KR102419919B1 publication Critical patent/KR102419919B1/en
Priority to PCT/KR2022/018838 priority patent/WO2023128307A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention relates to a user image data display method in a metaverse-based office environment, in which, when constructing an office environment in a three-dimensional virtual space based on a metaverse, the current circumstance of a participant (user) corresponding to a character that has accessed the correspondent office environment can be filmed in real time to be overlapped on the virtual image, thereby significantly increasing the social bonding in the virtual space which is sought after by the metaverse. In particular, according to the present invention, the top priority is given to a user who is currently participating in a chat or a user who has participated in the last chat among users participating in a conversation group, and the image filming the correspondent user is arranged at the uppermost layer, thereby improving concentration of the correspondent conversation group. Furthermore, according to the present invention, the image data of the video camera filmed at a remote point may be received to be located in a two-dimensional shape at the location of the head of a character in a three-dimensional virtual space, thereby replacing the face of the character with the image data of the user which has been filmed in real time, and thus simultaneously delivering additional information by means of the facial expression and behavior of a partner without being simply limited to the conversation based on the text. Therefore, the present invention may improve reliability and competitiveness in the metaverse field, the virtual reality field, the virtual office field and other fields similar to or related to the same. To this end, the present invention comprises: a user image matching step; a priority determination step; and a user image display step.

Description

메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법과 이를 실행하는 프로그램이 기록된 저장매체 및 이를 포함하는 유저영상데이터 디스플레이 시스템{User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same}A method for displaying user image data in a metaverse-based office environment, a storage medium having a program executing the same, and a user image data display system including the same the same, and user image data display system including the same}

본 발명은 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법에 관한 것으로서, 보다 상세하게는 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있도록 한 것이다.The present invention relates to a method of displaying user image data in a metaverse-based office environment, and more particularly, in constructing an office environment in a three-dimensional virtual space based on metaverse, a character (avatar) connected to the office environment By filming the current situation of the corresponding participant (user) in real time and superimposing it on the virtual image, it is possible to greatly improve the social ties in the virtual space pursued by the metaverse.

특히, 본 발명은 대화그룹에 참여한 유저들 중 현재 채팅을 하는 유저 또는 마지막 채팅을 한 유저에게 최우선순위를 부여하고, 해당 유저를 촬영한 영상을 최상단 레이어에 배치함으로써, 해당 대화그룹의 집중도를 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법에 관한 것이다.In particular, the present invention gives the highest priority to the user who is currently chatting or the user who has the last chat among users participating in the conversation group, and improves the concentration of the conversation group by placing an image of the user in the uppermost layer It relates to a method of displaying user image data in a metaverse-based office environment that can

메타버스 '가상', '초월' 등을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회적활동이 이뤄지는 3차원의 가상세계를 말한다.Metaverse It is a compound word of the English word 'meta' meaning 'virtual' and 'transcendence' and 'universe' meaning the universe. say

메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 구성원(아바타) 간의 사회적, 문화적 활동 등을 할 수 있다는 특징이 있다.Metaverse is a concept that has evolved one step further than virtual reality (VR, a cutting-edge technology that enables people to experience real-world experiences in a virtual world created by a computer). It has the characteristic of being able to engage in social and cultural activities among members (avatars) like real reality.

한편, 가상현실은 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 말한다.On the other hand, virtual reality refers to an interface between a human and a computer that makes a specific environment or situation into a computer and makes it as if the person using it is interacting with the actual surrounding situation and environment.

이러한 가상현실은 주로 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고서도 그 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 해주기 위한 것으로, 응용분야는 게임, 교육, 고급 프로그래밍, 원격조작, 원격위성 표면탐사, 탐사자료 분석, 과학적 시각화(Scientific visualization) 등이다.Such virtual reality is mainly for showing and manipulating an environment that is difficult for people to experience on a daily basis without directly experiencing it. These include surface exploration, exploration data analysis, and scientific visualization.

결과적으로, 메타버스는 컴퓨터에 의해 어떤 특정한 환경이나 상황을 만들고, 이러한 환경이나 상황 속에서 유저들 간의 사회적 유대관계가 보다 적극적으로 이어질 수 있도록 한 것을 말한다고 볼 수 있다.As a result, the metaverse can be seen to mean that a specific environment or situation is created by a computer, and social ties between users can be continued more actively in this environment or situation.

최근 들어, IT인프라와 사회적인 발전, 그리고 보건위기 등의 다양한 이유로 인해 재택근무가 활성화됨에 따라, 이러한 메타버스 기반의 가상오피스환경에서 업무를 수행하는 방법들이 개발되고 있다.Recently, as telecommuting has been activated due to various reasons such as IT infrastructure, social development, and health crisis, methods for performing work in such a metaverse-based virtual office environment are being developed.

하기의 선행기술문헌인 대한민국 공개특허공보 제10-2019-0062045호 '가상 회의 구현 방법 및 장치'(이하 '선행기술'이라 한다)는, 가상회의가 진행되는 영상에 사용자의 신체 중 일부를 오버랩하여 디스플레이 함으로써, 현실감이 증가된 가상 회의 공간을 구현하기 위한 것이다.The following prior art document, Republic of Korea Patent Publication No. 10-2019-0062045, 'Virtual Conference Implementation Method and Apparatus' (hereinafter referred to as 'prior art') overlaps a part of the user's body in an image in which a virtual conference is in progress. This is to implement a virtual conference space with increased realism by displaying it.

그러나, 선행기술에서 오버랩되는 유저의 이미지는 정지상태의 사진과 같은 이미지이므로, 유저들이 대화하는 과정에서 텍스트 이상의 향상된 정보(표정이나 행동 등에 의한 정보)가 전달된다고 하기에는 무리가 있다.However, since the image of the user overlapping in the prior art is an image such as a still state photo, it is unreasonable to say that improved information (information by expression or action, etc.) beyond text is transmitted in the course of user conversation.

일반적으로, 현실세계에서의 구성원(사람)간의 커뮤니케이션에 있어서 가장 중요한 것 중 하나인 대화는, 대화 자체의 음성정보에 더하여 표정이나, 성조, 몸짓 등의 시각정보를 추가적으로 확인함으로써, 보다 정확한 의미의 정보를 전달하게 된다.In general, conversation, which is one of the most important things in communication between members (persons) in the real world, is more accurate by checking visual information such as facial expressions, tones, and gestures in addition to the voice information of the conversation itself. information will be conveyed.

이로 인해, 채팅과 같은 텍스트에 의한 대화에서, 문장 자체만으로 오해를 유발할 수 있기 때문에, 다양한 이모티콘 등을 함께 사용하여 대화하게 되지만, 이러한 이모티콘 만으로는 정확한 의미나 느낌을 충분히 전달하는데 한계가 있었다.For this reason, in a text-based conversation such as chatting, since only the sentence itself can cause misunderstanding, various emoticons are used together to communicate.

다시 말해, 선행기술은 온라인상에서 단순히 텍스트에 의해 대화하는 정도의 수준에 머무르는 것으로, 현실세계와 같은 구성원간의 유대감을 향상시키지는 못한다는 문제점이 있다.In other words, there is a problem in that the prior art stays at the level of simply talking online through text, and does not improve the bond between members like the real world.

더욱이, 선행기술은 단지 컴퓨터상에서 사무실이미지를 배경으로 하여, 각 유저들의 이미지를 단순히 오버랩한 것으로, 가상공간을 배경으로 하지는 않기 때문에, 그 기술분야가 가상현실을 기반으로 한다고 하기에는 무리가 있다.Moreover, the prior art simply overlaps the images of each user with the background of the office image on the computer, and does not use the virtual space as the background, so it is unreasonable to say that the technical field is based on virtual reality.

대한민국 공개특허공보 제10-2019-0062045호 '가상 회의 구현 방법 및 장치'Republic of Korea Patent Publication No. 10-2019-0062045 'Virtual Conference Implementation Method and Apparatus'

상기와 같은 문제점을 해결하기 위해서, 본 발명은 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법을 제공하는데 목적이 있다.In order to solve the above problems, the present invention establishes an office environment in a three-dimensional virtual space based on a metaverse, real-time monitoring of the current situation of a participant (user) corresponding to a character (avatar) connected to the office environment. The purpose of this is to provide a method for displaying user image data in a metaverse-based office environment that can greatly improve social ties in the virtual space pursued by Metaverse by superimposing it on a virtual image.

특히, 본 발명은 대화그룹에 참여한 유저들 중 현재 채팅을 하는 유저 또는 마지막 채팅을 한 유저에게 최우선순위를 부여하고, 해당 유저를 촬영한 영상을 최상단 레이어에 배치함으로써, 해당 대화그룹의 집중도를 향상시킬 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법을 제공하는데 목적이 있다.In particular, the present invention gives the highest priority to the user who is currently chatting or the user who has the last chat among users participating in the conversation group, and improves the concentration of the conversation group by placing an image of the user in the uppermost layer The purpose of this is to provide a method for displaying user image data in a metaverse-based office environment.

또한, 본 발명은 원격지점에서 촬영된 화상카메라의 영상데이터를 수신하여 3차원 가상공간의 캐릭터 머리위치에 2차원형상으로 위치시켜, 캐릭터의 얼굴을 실시간 촬영한 유저의 영상데이터로 대체함으로써, 단순히 텍스트에 의한 대화에 제한하지 않고 상대방의 표정이나 행동에 의한 추가적인 정보를 동시에 전달할 수 있는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법을 제공하는데 목적이 있다.In addition, the present invention receives the image data of the video camera photographed at a remote point, places it in a two-dimensional shape at the position of the character's head in the three-dimensional virtual space, and replaces the character's face with the user's image data taken in real time. The purpose of this is to provide a method for displaying user image data in a metaverse-based office environment that can simultaneously deliver additional information based on the other person's facial expressions or actions without being limited to text-based conversations.

상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법은, 대화그룹에 포함된 각 그룹유저의 아바타에, 해당 그룹유저를 실시간으로 촬영한 유저영상을 매칭하는 유저영상 매칭단계; 적어도 두 개의 유저영상의 적어도 일부가 겹치는 경우, 현재 대화하는 유저 또는 가장 최근에 대화했던 유저의 유저영상을 최우선순위로 설정하는 우선순위 결정단계; 및 설정된 우선순위에 따라 각 유저영상을 최상층 레이어부터 순차적으로 배치하여 디스플레이하는 유저영상 디스플레이단계;를 포함한다.In order to achieve the above object, the method for displaying user image data in a metaverse-based office environment according to the present invention is to display a user image captured in real time by the group user on the avatar of each group user included in the conversation group. matching user image matching step; a priority determining step of setting, as a highest priority, a user image of a user who is currently chatting or a user who has recently talked when at least a portion of the at least two user images overlap; and a user image display step of sequentially arranging and displaying each user image from the uppermost layer according to the set priority.

또한, 상기 우선순위 결정단계는, 해당 대화그룹에 포함된 그룹유저들의 음성 및 문자 중 적어도 하나의 채팅데이터에 대한 전송여부를 확인하는 채팅확인단계; 및 현재 시점을 최우선으로 하여 채팅데이터가 전송된 순서에 따라 내림차순으로 우선순위를 부여하는 우선순위부여단계;를 포함할 수 있다.In addition, the priority determining step may include: a chat confirmation step of confirming whether to transmit at least one chat data among voices and texts of group users included in the chat group; and a prioritization step of giving priority in a descending order according to an order in which chat data is transmitted with the current time as the top priority.

또한, 상기 우선순위부여단계는, 채팅데이터가 음성인 경우, 수신된 목소리의 크기가 설정된 기준크기보다 큰 경우, 해당 음성이 수신된 그룹유저가 대화한 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여할 수 있다.In addition, in the prioritization step, when the chat data is voice, when the received voice is larger than the set reference size, it is determined that the group user from whom the corresponding voice was received has a conversation, and prioritizes the chat data. can be given

또한, 상기 우선순위부여단계는, 대화한 것으로 판단된 그룹유저의 영상수신이 유지되면, 해당 그룹유저가 대화를 지속하는 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여할 수 있다.In addition, in the prioritization step, if the reception of the video of the group user determined to have a conversation is maintained, it is determined that the corresponding group user continues the conversation, and a priority may be given to the corresponding chatting data.

또한, 상기 유저영상 디스플레이단계는, 설정된 우선순위에 따라 각 유저영상의 밝기를 순차적으로 조절하여 디스플레이할 수 있다.In addition, the user image display step may be displayed by sequentially adjusting the brightness of each user image according to a set priority.

또한, 상기 유저영상 디스플레이단계는, 일정시간 이상 대화하지 않은 경우, 해당 그룹유저의 유저영상을 반투명효과로 블라인드처리할 수 있다.In addition, in the step of displaying the user image, when there is no conversation for a predetermined time or more, the user image of the group user may be blinded with a semi-transparent effect.

또한, 상기 유저영상 매칭단계는, 3차원좌표계의 가상공간이 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 타겟좌표확인단계; 및 해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 유저영상오버랩단계;를 포함할 수 있다.In addition, the user image matching step may include: a target coordinate checking step of confirming the two-dimensional coordinates on which the head position of the corresponding avatar is projected in the virtual image of the camera coordinate system on which the virtual space of the three-dimensional coordinate system is projected; and a user image overlapping step of overlapping the corresponding user image on the two-dimensional coordinates of the corresponding virtual image.

또한, 상기 타겟좌표확인단계는, 3차원 가상공간에서 해당 아바타의 위치를 확인하는 아바타위치확인단계; 해당 아바타의 뼈대구조에서 머리의 상대위치를 계산하는 상대위치확인단계; 해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산하는 머리위치확인단계; 및 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 투영좌표확인단계;를 포함할 수 있다.In addition, the target coordinate checking step may include: an avatar location checking step of checking the location of the corresponding avatar in a three-dimensional virtual space; a relative position checking step of calculating the relative position of the head in the skeletal structure of the corresponding avatar; a head position checking step of calculating the 3D coordinates of the head by applying the relative position to the 3D coordinates of the corresponding avatar; and a projection coordinate confirmation step of confirming the two-dimensional coordinates on which the head position of the corresponding avatar is projected.

또한, 상기 유저영상 매칭단계 이전에, 가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인하는 대화그룹 확인단계;를 더 포함할 수 있다.In addition, before the user image matching step, confirming the camera viewpoint of the target user in the virtual space, and a conversation group confirmation step of confirming whether a conversation group for users included in the virtual image of the corresponding camera viewpoint is included; can do.

또한, 상기 대화그룹 확인단계는, 상기 가상공간에서 설정별로 구획된 공간영역을 확인하는 공간영역확인단계; 및 상기 대상유저와 같은 공간영역에 위치한 유저를 대화그룹으로 판단하는 대화그룹판단단계;를 포함할 수 있다.In addition, the chat group checking step may include: a spatial area checking step of checking a spatial area partitioned for each setting in the virtual space; and a conversation group determination step of judging a user located in the same spatial area as the target user as a conversation group.

또한, 대화그룹판단단계는, 상기 가상공간 중 보안영역을 포함하는 적어도 일부의 공간영역에 대화그룹참여제한을 설정하고, 해당 공간영역에 위치한 유저들 중 대화참여권한이 제거된 유저는 해당 대화그룹에서 제외할 수 있다.In addition, in the conversation group determination step, a conversation group participation restriction is set in at least a partial spatial area including the security area of the virtual space, and a user whose conversation participation right is removed from among users located in the corresponding spatial area is the corresponding conversation group can be excluded from

또한, 본 발명은 상기의 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법을 실행하는 프로그램이 기록된 저장매체를 포함한다.In addition, the present invention includes a storage medium in which a program for executing the method for displaying user image data in the metaverse-based office environment is recorded.

또한, 본 발명은 메타버스 기반의 오피스 환경에서 상기 저장매체를 포함하는 유저영상데이터 디스플레이 시스템을 포함한다.In addition, the present invention includes a system for displaying user image data including the storage medium in a metaverse-based office environment.

상기와 같은 해결수단에 의해, 본 발명은 메타버스 기반으로 3차원 가상공간에 오피스환경을 구축함에 있어, 해당 오피스환경에 접속한 캐릭터(아바타)에 해당하는 참여자(유저)의 현재상황을 실시간으로 촬영하여 가상영상에 오버랩함으로써, 메타버스가 추구하는 가상공간에서의 사회적 유대관계를 크게 향상시킬 수 있는 장점이 있다.By means of the above solution, the present invention provides real-time information on the current situation of a participant (user) corresponding to a character (avatar) connected to the office environment in building an office environment in a three-dimensional virtual space based on the metaverse. By filming and overlapping the virtual image, it has the advantage of greatly improving the social ties in the virtual space pursued by the metaverse.

특히, 본 발명은 대화그룹에 참여한 유저들 중 현재 채팅을 하는 유저 또는 마지막 채팅을 한 유저에게 최우선순위를 부여하고, 해당 유저를 촬영한 영상을 최상단 레이어에 배치함으로써, 해당 대화그룹의 집중도를 향상시킬 수 있는 장점이 있다.In particular, the present invention gives the highest priority to the user who is currently chatting or the user who has the last chat among users participating in the conversation group, and improves the concentration of the conversation group by placing an image of the user in the uppermost layer There are advantages to doing it.

또한, 본 발명은 부여된 우선순위에 따라 해당 그룹유저의 유저영상에 차별화(밝기 및 명암 등)를 부여함으로써, 해당 대화그룹의 집중도를 더욱 향상시킬 수 있는 장점이 있다.In addition, the present invention has an advantage in that the concentration of the corresponding conversation group can be further improved by giving differentiation (brightness and contrast, etc.) to the user image of the corresponding group user according to the assigned priority.

또한, 본 발명은 원격지점에서 촬영된 화상카메라의 영상데이터를 수신하여 3차원 가상공간의 캐릭터 머리위치에 2차원형상으로 위치시켜, 캐릭터의 얼굴을 실시간 촬영한 유저의 영상데이터로 대체함으로써, 단순히 텍스트에 의한 대화에 제한하지 않고 상대방의 표정이나 행동에 의한 추가적인 정보를 동시에 전달할 수 있는 장점이 있다.In addition, the present invention receives the image data of the video camera photographed at a remote point, places it in a two-dimensional shape at the position of the character's head in the three-dimensional virtual space, and replaces the character's face with the user's image data taken in real time. It has the advantage of being able to simultaneously deliver additional information based on the other person's facial expressions or actions without being limited to text-based conversations.

이를 통해 본 발명은 대화 자체의 음성정보와 더불어, 유저들 간의 표정이나, 성조, 몸짓 등의 시각정보를 추가적으로 확인함으로써, 보다 정확한 의미의 정보를 전달할 수 있는 장점이 있다.Through this, the present invention has the advantage of being able to deliver information with a more accurate meaning by additionally checking visual information such as facial expressions, tones, and gestures between users as well as voice information of the conversation itself.

결과적으로, 본 발명은 각각의 구성원(유저)들이 온라인 상에서 접속하고 있으나, 실제 현실세계에서 직접 만나서 이야기 하는 것과 동일한 수준의 대화레벨을 제공할 수 있으며, 이를 통해 구성원 간의 유대관계를 크게 향상시킬 수 있다.As a result, in the present invention, although each member (user) is online, it is possible to provide the same level of conversation as meeting and talking directly in the real world, and through this, the bond between members can be greatly improved. have.

또한, 본 발명은 가상공간에 접속한 유저들 중 일정조건을 만족하는 대화그룹을 설정하고, 해당 대화그룹 내에서만 대화가 가능하도록 함으로써, 정보를 전달하는 과정에서 발생하는 정보유출 등의 문제를 미연에 방지할 수 있는 장점이 있다In addition, the present invention sets up a conversation group that satisfies a certain condition among users accessing the virtual space, and enables conversation only within the conversation group, thereby avoiding problems such as information leakage occurring in the process of information delivery. has the advantage of preventing

특히, 현실세계에서도 대화의 내용을 다른 사람들이 듣는 경우가 발생하여 정보가 유출되고 확산되며, 심한 경우 루머 등을 만들게 되지만, 본 발명에서는 이러한 문제점을 원천적으로 방지할 수 있다.In particular, even in the real world, there are cases in which other people hear the contents of the conversation, so information is leaked and spread, and in severe cases, rumors are created. However, in the present invention, this problem can be fundamentally prevented.

따라서, 메타버스 분야, 가상현실분야 및 가상오피스 분야는 물론 이와 유사 내지 연관된 분야에서 신뢰성 및 경쟁력을 향상시킬 수 있다.Accordingly, reliability and competitiveness can be improved in the metaverse field, virtual reality field, and virtual office field, as well as similar or related fields.

도 1은 본 발명에 의한 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법의 일 실시예를 나타내는 흐름도이다.
도 2는 도 1에 나타난 단계 'S200'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 3은 도 1의 다른 일 실시예를 나타내는 흐름도이다.
도 4는 도 1의 구체적인 일 실시예를 나타내는 순서도이다.
도 5는 도 1에 나타난 단계 'S100'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 6은 도 5에 나타난 단계 'S110'의 구체적인 일 실시예를 나타내는 흐름도이다
도 7은 도 3에 나타난 단계 'S10'의 구체적인 일 실시예를 나타내는 흐름도이다.
도 8은 도 1에 의해 유저영상의 디스플레이가 변화되는 과정을 설명하는 도면이다.
1 is a flowchart illustrating an embodiment of a method for displaying user image data in a metaverse-based office environment according to the present invention.
FIG. 2 is a flowchart illustrating a specific embodiment of step 'S200' shown in FIG. 1. Referring to FIG.
3 is a flowchart illustrating another embodiment of FIG. 1 .
4 is a flowchart illustrating a specific embodiment of FIG. 1 .
5 is a flowchart illustrating a specific embodiment of step 'S100' shown in FIG. 1 .
6 is a flowchart showing a specific embodiment of step 'S110' shown in FIG.
7 is a flowchart illustrating a specific embodiment of step 'S10' shown in FIG. 3 .
FIG. 8 is a view for explaining a process in which a display of a user image is changed according to FIG. 1 .

본 발명에 따른 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.Examples of the method for displaying user image data in the metaverse-based office environment according to the present invention can be variously applied, and the most preferred embodiment will be described below with reference to the accompanying drawings.

먼저, 본 발명의 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법은, 인터넷 상의 서버/클라이언트 시스템에서 운용이 가능하며, 해당 방법을 실행하는 구성으로는 데스크탑(Desktop), 워크스테이션(Workstation) 또는 서버(Server)와 같은 고정식 컴퓨팅 장치 중 어느 하나가 될 수 있으며, 이 외에도 스마트폰(Smart phone), 랩탑(Laptaop), 태블릿(Tablet), 패블릿(Phablet), 휴대용 멀티미디어 재생장치(Portable Multimedia Player, PMP), 개인용 휴대 단말기(Personal Digital Assistants, PDA) 또는 전자책 단말기(E-book reader)과 같은 이동식 컴퓨팅 장치 중 어느 하나가 될 수도 있다.First, the method for displaying user image data in the metaverse-based office environment of the present invention can be operated in a server/client system on the Internet, and the configuration for executing the method includes a desktop, a workstation, or a It may be any one of the stationary computing devices such as a server, and in addition to this, a smart phone, a laptop, a tablet, a phablet, a portable multimedia player , PMP), personal digital assistants (PDA), or portable computing devices such as E-book readers.

또한, 본 발명의 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법은, 서버/클라인언트 시스템에서 서버 또는 클라이언트 중 적어도 하나의 구성에서 실행될 수 있으며, 적어도 두 개의 구성이 연동하면서 해당 방법에 의한 프로세스를 운용방식에 따라 분할하여 분산실행할 수 있다. 이때, 클라이언트는 사용자가 사용하는 사용자단말기는 물론 서버를 제외한 관리자단말기를 포함할 수 있음은 물론이다.In addition, the method for displaying user image data in the metaverse-based office environment of the present invention may be executed in at least one configuration of a server or a client in a server/client system, and the process according to the method while at least two components are interlocked can be divided and distributed according to the operation method. In this case, of course, the client may include a user terminal used by the user as well as an administrator terminal excluding the server.

또한, 본 발명을 설명하는 과정에서 사용되는 기술적 용어는, 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 함은 당연하다.In addition, technical terms used in the process of describing the present invention should be interpreted as meanings generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined in particular, It is natural that it should not be interpreted in a very comprehensive sense or in an excessively reduced meaning.

또한, 본 발명을 설명하면서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 한다.In addition, when the technical term used while describing the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art.

또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.In addition, general terms used in the present invention should be interpreted as defined in advance or according to the context before and after, and should not be interpreted in an excessively reduced meaning.

또한, 본 발명을 설명하면서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Also, the singular expression used in describing the present invention may include the plural expression unless the context clearly dictates otherwise.

또한, '구성된다' 또는 '가지다' 등의 용어는 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, terms such as 'consisting' or 'having' should not be construed as necessarily including all of several elements or several steps, some of which may not be included, or It should be construed that additional components or steps may be further included.

또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 해당 구성 요소들은 해당 용어들에 의해 한정되어서는 안 되며, 해당 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용됨은 당연하다.In addition, terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various components, but the components should not be limited by the terms, and the terms may refer to one component as another component. It goes without saying that it is used only for the purpose of distinguishing it from an element.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

또한, 어떤 구성 요소가 다른 구성 요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다.In addition, when it is said that a certain component is 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but other components may exist in between. have.

반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that there is no other element in the middle.

이하, 첨부된 도면을 참조하여 본 발명을 설명함에 있어, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, in describing the present invention with reference to the accompanying drawings, the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략할 수 있다.In addition, in describing the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof may be omitted.

또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 되며, 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.In addition, the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings, and the spirit of the present invention includes all changes other than the accompanying drawings. , should be construed as extending to equivalents or substitutes.

도 1은 본 발명에 의한 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법의 일 실시예를 나타내는 흐름도이다.1 is a flowchart illustrating an embodiment of a method for displaying user image data in a metaverse-based office environment according to the present invention.

도 1을 참조하면, 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법은 유저영상 매칭단계(S100), 우선순위 결정단계(S200) 및 유저영상 디스플레이단계(S300)를 포함한다.Referring to FIG. 1 , the method for displaying user image data in a metaverse-based office environment includes a user image matching step ( S100 ), a priority determination step ( S200 ), and a user image display step ( S300 ).

먼저, 본 발명은 메타버스 기반의 오피스 환경에서, 대상유저(본인)과 대화가능한 유저(그룹유저)들을 확인하는 과정을 거치며, 가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인할 수 있다.First, in the present invention, in a metaverse-based office environment, a process of identifying users (group users) who can interact with a target user (the person) is checked, the camera viewpoint of the target user is confirmed in a virtual space, and the camera viewpoint is virtual You can check whether the chat group is included for the users included in the video.

유저영상 매칭단계(S100)는 대화그룹에 포함된 각 그룹유저의 아바타에, 해당 그룹유저를 실시간으로 촬영한 유저영상을 매칭하는 과정으로, 보다 구체적으로는 도 8에 나타난 바와 같이 아바타의 머리에 해당 유저의 유저영상을 매칭할 수 있다.The user image matching step (S100) is a process of matching the avatar of each group user included in the conversation group with the user image shot in real time of the group user. More specifically, as shown in FIG. You can match the user image of the corresponding user.

우선순위 결정단계(S200)는 도 8에 나타난 바와 같이 대화그룹에 참여한 그룹유저의 유저영상이 디스플레이되는 과정에서, 적어도 두 개의 유저영상의 적어도 일부가 겹치는 경우, 현재 대화하는 유저 또는 가장 최근에 대화했던 유저의 유저영상을 최우선순위로 설정(예를 들어, 도 8의 붉은색 박스형 화살표가 지시하는 유저영상)한다.In the priority determination step (S200), as shown in FIG. 8 , in the process of displaying the user images of the group users participating in the conversation group, when at least some of the at least two user images overlap, the current conversational user or the most recent conversational user The user image of the user who has done it is set as the highest priority (eg, the user image indicated by the red box-shaped arrow in FIG. 8).

이후, 유저영상 디스플레이단계(S300)에서는 도 8의 하부에 나타난 바와 같이, 설정된 우선순위에 따라 각 유저영상을 최상층 레이어부터 순차적으로 배치하여 할 수 있다.Thereafter, in the user image display step ( S300 ), as shown in the lower part of FIG. 8 , each user image may be sequentially arranged from the uppermost layer according to the set priority.

이와 같이 우선순위에 따른 레이어의 순차적 배치와 더불어, 설정된 우선순위에 따라 각 유저영상의 밝기를 순차적으로 조절하여 디스플레이할 수 있다.As described above, in addition to the sequential arrangement of layers according to priorities, the brightness of each user image may be sequentially adjusted and displayed according to the set priorities.

예를 들어, 현재 대화하는 그룹유저의 유저영상을 다른 그룹유저들에 비하여 밝게 디스플레이 할 수 있다.For example, a user image of a group user currently having a conversation may be displayed brighter than other group users.

다른 예로, 현재 대화하는 그룹유저의 유저영상의 테두리를 밝게 하거나 다른 색상으로 표시할 수 있다.As another example, the border of the user image of the group user currently chatting may be brightened or displayed in a different color.

그리고, 일정시간 이상 대화하지 않은 경우, 해당 그룹유저의 유저영상을 반투명효과로 블라인드처리함으로써, 밝게 표시된 그룹유저의 유저영상에 집중하도록 할 수 있다.And, when there is no conversation for a certain period of time or more, the user image of the corresponding group user is blindly processed with a semi-transparent effect, so that the user image of the group user displayed brightly can be focused.

도 2는 도 1에 나타난 단계 'S200'의 구체적인 일 실시예를 나타내는 흐름도이다.FIG. 2 is a flowchart illustrating a specific embodiment of step 'S200' shown in FIG. 1. Referring to FIG.

도 2를 참조하면, 우선순위 결정단계(S200)는 채팅확인단계(S210) 및 우선순위부여단계(S220)를 포함할 수 있다.Referring to FIG. 2 , the priority determination step ( S200 ) may include a chatting confirmation step ( S210 ) and a prioritization step ( S220 ).

먼저, 채팅확인단계(S210)에서는 해당 대화그룹에 포함된 그룹유저들의 음성 및 문자 중 적어도 하나의 채팅데이터에 대한 전송여부를 실시간으로 확인할 수 있다.First, in the chatting confirmation step ( S210 ), it is possible to check in real time whether or not chat data of at least one of the voices and texts of group users included in the corresponding chat group is transmitted.

이후, 확인된 결과에 따라 현재 시점을 최우선으로 하여 채팅데이터가 전송된 순서에 따라 내림차순으로 우선순위를 부여하는 할 수 있다(S220).Thereafter, according to the confirmed result, the current time may be given the highest priority, and the priority may be given in descending order according to the order in which the chat data is transmitted (S220).

예를 들어, 현재 채팅하는 유저가 있는 경우, 해당 그룹유저의 유저영상에 최우선순위를 부여할 수 있다.For example, if there is a current chatting user, the highest priority may be given to the user image of the corresponding group user.

다른 예로, 현재 채팅하는 유저가 없는 경우, 마지막으로 채팅을 한 그룹유저의 유저영상에 최우선순위를 부여할 수 있다.As another example, if there is no current chatting user, the highest priority may be given to the user image of the last chatting group user.

결과적으로, 현재 채팅을 하는 그룹유저에게 최우선순위를 부여한 후, 다른 그룹유저가 채팅을 하기 전까지 현재 상태를 유지할 수 있다.As a result, after giving the highest priority to a group user who is currently chatting, the current state can be maintained until another group user starts chatting.

또 다른 예로, 과거로부터 현재시점까지 채팅한 순서에 따라 현재시점을 최우선으로 하여 내림차순으로 우선순위를 부여할 수 있다.As another example, according to the order of chatting from the past to the present time, the present time may be given the highest priority, and the priority may be given in descending order.

도 3은 도 1의 다른 일 실시예를 나타내는 흐름도이다.3 is a flowchart illustrating another embodiment of FIG. 1 .

도 3을 참조하면, 유저영상 매칭단계(S100) 이전에 대화그룹 확인단계(S10)를 수행할 수 있다.Referring to FIG. 3 , before the user image matching step ( S100 ), the conversation group confirmation step ( S10 ) may be performed.

대화그룹 확인단계(S10)는 앞서 설명한 바와 같이, 메타버스 기반의 오피스 환경에서, 대상유저(본인)과 대화가능한 유저(그룹유저)들을 확인하는 단계로, 가상공간에서 대상유저의 카메라시점을 확인하고, 해당 카메라시점의 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인하는 과정이다.As described above, the conversation group confirmation step (S10) is a step of confirming users (group users) who can talk with the target user (the person) in the metaverse-based office environment, and confirms the target user's camera point of view in the virtual space It is a process of confirming whether a conversation group for users included in the virtual image of the corresponding camera point of view is included.

여기서, 카메라시점은 대상유저의 아바타 또는 대상유저의 아바타의 후방상부를 기준으로 할 수 있고, 가상공간은 3차원좌표계를 기준으로 형성될 수 있으며, 가상영상은 카메라시점을 기준으로 도 7에 나타난 바와 같이 유저의 단말기에 출력되는 영상으로, 가상공간의 3차원좌표가 2차원으로 투영된 영상을 말한다.Here, the camera viewpoint may be based on the target user's avatar or the rear upper part of the target user's avatar, the virtual space may be formed based on a three-dimensional coordinate system, and the virtual image shown in FIG. 7 based on the camera viewpoint As an image output to the user's terminal as shown, it refers to an image in which three-dimensional coordinates of a virtual space are projected in two dimensions.

결과적으로, 대화그룹 확인단계(S10)는 대상유저의 단말기에 디스플레이되는 아바타 중 일정한 조건에 의해 대화그룹에 포함될 적어도 일부의 유저들을 확인할 수 있다.As a result, in the chat group confirmation step S10 , at least some users to be included in the chat group may be identified according to a predetermined condition among the avatars displayed on the terminal of the target user.

도 4는 도 1의 구체적인 일 실시예를 나타내는 순서도이다.4 is a flowchart illustrating a specific embodiment of FIG. 1 .

먼저, 대상유저의 아바타가 이동하는 과정에서, 해당 아바타의 카메라시점에 포함되는 다수의 유저(원격 사용자)들에 대하여, 해당 유저들의 화상데이터(유저영상)를 수신할 수 있다(S11). 이때, 화상데이터는 해당 유저의 ID에 매칭될 수 있다.First, in the process of moving the target user's avatar, image data (user image) of the plurality of users (remote users) included in the camera view of the corresponding avatar may be received (S11). In this case, the image data may be matched to the ID of the corresponding user.

이후, 해당 유저가 대상유저(나)와 대화하는 그룹인지를 확인한 후(S12), 대화그룹이 아닐 경우 해당 화상데이터를 폐기(S13)할 수 있다.Thereafter, after confirming whether the corresponding user is a conversational group with the target user (B) (S12), the corresponding image data may be discarded (S13) if not in the chatting group.

만약, 해당 유저가 대상유저의 대화그룹인 경우(S12), 해당 유저의 ID에 매칭(인덱싱)된 아바타를 선택하고, 타겟(머리)의 상대위치 및 3차원위치를 계산한 후, 이에 기초하여 투영될 가상영상의 2차원위치를 계산하고 해당 위치에 수신한 화상데이터를 오버랩할 수 있다.If the user is a conversation group of the target user (S12), select an avatar matching (indexed) the ID of the user, calculate the relative position and 3D position of the target (head), and then based on this It is possible to calculate the two-dimensional position of the virtual image to be projected, and to overlap the image data received at the corresponding position.

다시 말해, 메타버스 기반의 오피스 환경에서 특정 공간에 위치한(또는 카메라시점에 포함되는) 유저들에 대하여, 각 유저들의 화상데이터를 수신한 후, 해당 유저가 대화그룹일 경우에는 해당 화상데이터를 오버랩하고 대화그룹이 아니면 해당 화상데이터를 폐기할 수 있다.In other words, for users located in a specific space (or included in the camera view) in the metaverse-based office environment, after receiving the image data of each user, if the user is a conversation group, the image data is overlapped and if it is not a conversation group, the corresponding image data can be discarded.

물론, 대화그룹의 포함여부를 먼저 확인한 후, 대화그룹에 포함된 유저들의 유저영상을 수신하여 해당 아바타에 오버랩할 수도 있음은 당연하다.Of course, it is natural that after checking whether the chat group is included, user images of users included in the chat group may be received and overlapped with the corresponding avatar.

이러한 방법들은 해당 오피스 환경의 구축정보(크기, 해상도 및 복잡도 등), 데이터처리방법 및 당업자의 요구 등에 따라 최적의 방법이 선택되어 적용되어 수행될 수 있다.These methods can be performed by selecting and applying an optimal method according to construction information (size, resolution, complexity, etc.) of the corresponding office environment, data processing method, and the needs of those skilled in the art.

또한, 유저영상을 아바타의 머리부부에 매칭하는 과정에서, 원격지의 유저를 촬영한 영상이 수신되면, 해당 유저영상을 영상처리하여 해당 유저의 머리부분을 중심으로 도 8에 나타난 바와 같이 필요한 부분을 추출하고, 추출된 영상을 해당 아바타의 머리부분에 매칭할 수 있다. 다시 말해, 배경 등과 같이 불필요한 영상을 제거함으로써, 전송되는 영상의 데이터량을 최소화할 수 있다.In addition, in the process of matching the user image to the head of the avatar, when an image of a remote user is received, the user image is processed to image the necessary part as shown in FIG. 8 centered on the head of the user. It can be extracted, and the extracted image can be matched to the head of the corresponding avatar. In other words, by removing unnecessary images such as a background, the amount of data of a transmitted image can be minimized.

이때, 유저의 머리부부에 해당하는 영상을 추출함에 있어, 설정된 특징점(예를 들어, 눈이나 코 등)을 중심으로 일정한 영상영역을 추출할 수 있다. 이와 같이 특징점을 기준으로 영상을 추출하게 되면, 얼굴의 경계선을 기준으로 영상을 추출하는 방법에 비하여, 영상처리시 데이터의 연산량을 크게 줄일 수 있다.In this case, in extracting the image corresponding to the user's head, a certain image region may be extracted centering on the set feature points (eg, eyes or nose). When the image is extracted based on the feature point in this way, compared to the method of extracting the image based on the boundary line of the face, the amount of data calculation during image processing can be greatly reduced.

이와 같이, 특징점에 의해 처음 영상영역이 추출되면, 이후 해당 유저의 움직임에 무관하게 추출된 영상영역을 고정하여 오버랩함으로써, 유저의 표정변화와 더불어 행동(머리의 움직임 등)도 쉽게 확인할 수 있으며, 이를 통해 대화의 보다 더 정확한 의미전달이 가능해질 수 잇다.In this way, when the image area is extracted for the first time by the feature point, the extracted image area is fixed and overlapped regardless of the user's movement afterwards, so that the user's facial expression change and behavior (head movement, etc.) can be easily confirmed, Through this, more accurate meaning of conversation can be conveyed.

이후, 대화그룹에 포함된 그룹유저들에 대하여, 채팅데이터가 문자가 아닌 음성인 경우, 실시간으로 소리(음향) 데이터가 수신되는지를 확인하고, 소리 데이터가 수신되면 그 크기를 계산한 후(S201), 수신된 목소리의 크기가 설정된 기준크기보다 큰 경우(S202), 해당 음성이 수신된 그룹유저가 대화한 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여할 수 있다(S204).Thereafter, for group users included in the chat group, if the chat data is voice rather than text, it is checked whether sound (sound) data is received in real time, and when the sound data is received, the size is calculated (S201) ), when the received voice is greater than the set reference size (S202), it is determined that the group user from whom the corresponding voice is received has a conversation, and priority can be given to the corresponding chatting data (S204).

만약, 수신된 소리 데이터가 기준크기보다 작은 경우(S202), 해당 소리가 잡음소리인 것으로 판단하고 수신된 소리데이터를 폐기할 수 있다(S13).If the received sound data is smaller than the reference level (S202), it is determined that the corresponding sound is a noise sound, and the received sound data may be discarded (S13).

또한, 대화한 것으로 판단된 그룹유저의 영상수신이 유지되면(S203), 해당 그룹유저가 대화를 지속하는 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여할 수 있으며(S204), 영상수신이 종료되면(S203) 해당 그룹유저가 이탈한 것으로 판단하고 수신된 소리 데이터를 폐기할 수 있다(S13).In addition, when the video reception of the group user determined to have been chatted is maintained (S203), it is determined that the group user continues the conversation, and priority can be given to the chatting data (S204), and the video reception is terminated If it is (S203), it is determined that the corresponding group user has departed, and the received sound data can be discarded (S13).

도 5는 도 1에 나타난 단계 'S100'의 구체적인 일 실시예를 나타내는 흐름도이다.5 is a flowchart illustrating a specific embodiment of step 'S100' shown in FIG. 1 .

도 5를 참조하면, 유저영상 매칭단계(S100)는 타겟좌표확인단계(S110) 및 유저영상오버랩단계(S120)를 포함한다.Referring to FIG. 5 , the user image matching step ( S100 ) includes a target coordinate checking step ( S110 ) and a user image overlapping step ( S120 ).

타겟좌표확인단계(S110)는 메타버스 기반의 오피스 환경이 구축된 3차원좌표계의 가상공간이, 유저가 사용하는 유저단말기의 디스플레이로 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 과정을 수행한다.In the target coordinate confirmation step (S110), the virtual space of the three-dimensional coordinate system in which the metaverse-based office environment is constructed is projected on the display of the user terminal used by the user, in the virtual image of the camera coordinate system, the head position of the corresponding avatar is projected The process of confirming the two-dimensional coordinates that become

예를 들어, 도 8에 나타난 바와 같이 아바타의 머리부분에 해당 유저의 유저영상을 오버랩할 경우, 타겟좌표확인단계(S110)에서는 3차원의 가상공간에 위치하는 아바타의 머리부분에 해당하는 3차원좌표를, 투영되는 평면영상인 가상영상의 2차원좌표계로 변환한 2차원좌표를 산출하게 된다.For example, as shown in FIG. 8 , when the user image of the corresponding user is overlapped with the head of the avatar, in the target coordinate check step S110, the 3D corresponding to the head of the avatar located in the 3D virtual space Two-dimensional coordinates are calculated by converting the coordinates into a two-dimensional coordinate system of a virtual image that is a projected flat image.

이후, 유저영상오버랩단계(S120)에서, 해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 하게 된다.Thereafter, in the user image overlap step (S120), the user image is overlapped on the two-dimensional coordinates of the virtual image.

예를 들어, 가상공간의 아바타 머리부분에 유저영상을 매칭한 후, 이를 디스플레이하게 되면, 아바타의 움직임에 따라 유저영상의 크기 등을 조절하는데 많은 연산을 필요로 하게 되는 바, 본 발명과 같이 3차원좌표를 2차원좌표로 변환하고 해당 2차원좌표에 유저영상을 매칭하게 되면, 해당 과정에서 좌표변환만 연산하면 되므로, 데이터의 연산량을 크게 줄일 수 있으며, 이를 통해 보다 쉽게 온라인상에서의 실시간처리가 가능하도록 할 수 있다.For example, if a user image is matched to the avatar head in a virtual space and then displayed, many calculations are required to adjust the size of the user image according to the movement of the avatar. If the dimensional coordinates are converted into two-dimensional coordinates and the user image is matched to the corresponding two-dimensional coordinates, only the coordinate transformation is calculated in the process, so the amount of data computation can be greatly reduced. can make it possible

이하에서는 3차원좌표를 2차원좌표로 변환하는 과정에 대해 보다 상세히 살펴보기로 한다.Hereinafter, the process of converting 3D coordinates into 2D coordinates will be described in more detail.

도 6은 도 5에 나타난 단계 'S110'의 구체적인 일 실시예를 나타내는 흐름도이다6 is a flowchart showing a specific embodiment of step 'S110' shown in FIG.

먼저, 대상유저가 메타버스기반의 오피스 환경에 접속하게 되면, 3차원 가상공간에서 대상유저에 매칭된 아바타의 위치를 확인할 수 있다(S111).First, when the target user accesses the metaverse-based office environment, the location of the avatar matched to the target user can be checked in the three-dimensional virtual space (S111).

이때, 로그인(Login)시 아바타의 처음 위치는 이전 로그아웃(Logout)시 위치이거나, 설정된 고정위치(예를 들어, 가상 오피스의 정문 등)를 포함할 수 있다.In this case, the initial position of the avatar upon login may be the position at the time of previous logout or may include a set fixed position (eg, the front door of the virtual office, etc.).

그리고, 해당 아바타의 뼈대구조에서, 아바타의 기준위치와 머리의 상대위치를 계산하고(S112), 해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산할 수 있다(S113).Then, in the skeleton structure of the avatar, the reference position of the avatar and the relative position of the head are calculated (S112), and the 3D coordinates of the head can be calculated by applying the relative position to the 3D coordinates of the avatar (S113).

한편, 아바타는 대상유저에 의해 다양한 형태로 설정될 수 있다.Meanwhile, the avatar may be set in various forms by the target user.

이에, 본 발명에서는 타겟좌표확인단계(S110) 이전에, 앞서 대화그룹 확인단계(S10)에서 확인된 해당 그룹유저의 아바타에 대한 설정정보를 확인하는 아바타설정정보확인단계를 수행할 수 있다.Accordingly, in the present invention, before the target coordinate checking step S110, the avatar setting information checking step of checking the setting information for the avatar of the corresponding group user confirmed in the chat group checking step S10 can be performed.

다시 말해, 대화그룹 확인단계(S10)에서 대화그룹으로 확인된 그룹유저에 대하여, 해당 그룹유저의 설정정보를 확인하여 매칭된 아바타의 외형적 특징(골격)을 확인하고, 이에 기초하여 아바타의 머리에 대한 상대위치를 계산할 수 있다(S112).In other words, for the group user identified as the chat group in the chat group confirmation step ( S10 ), the set information of the corresponding group user is checked to confirm the appearance characteristics (skeleton) of the matched avatar, and based on this, the head of the avatar is checked. It is possible to calculate a relative position with respect to (S112).

이후, 해당 아바타의 머리위치에 대한 3차원좌표를 확인하고(S113), 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하여, 가상영상에 디스플레이되는 아바타의 머리(타겟) 위치를 확인할 수 있다(S114).Thereafter, the 3D coordinates of the head position of the corresponding avatar are checked (S113), the 2D coordinates on which the head position of the corresponding avatar is projected, and the position of the head (target) of the avatar displayed in the virtual image can be checked. (S114).

도 7은 도 3에 나타난 단계 'S10'의 구체적인 일 실시예를 나타내는 흐름도이다.7 is a flowchart illustrating a specific embodiment of step 'S10' shown in FIG. 3 .

도 7을 참조하면, 대화그룹 확인단계(S10)는 공간영역확인단계(S15) 및 대화그룹판단단계(S16)를 포함할 수 있다.Referring to FIG. 7 , the talk group confirmation step S10 may include a spatial area confirmation step S15 and a talk group determination step S16 .

먼저 공간영역확인단계(S15)에서는, 가상공간에서 설정별로 구획된 공간영역을 확인할 수 있다. 예를 들어, 가상 오피스의 공간에서 용도별(회의실, 복도, 휴게실 등)로 구획된 공간영역을 확인할 수 있다. 다른 예로, 가상 오피스의 공간에서 카메라시점에 포함되는 영역과 포함되지 않는 영역으로 구획할 수 있다.First, in the spatial area confirmation step S15, it is possible to check the spatial area partitioned for each setting in the virtual space. For example, in the space of the virtual office, it is possible to check the space area divided by use (conference room, hallway, lounge, etc.). As another example, the space of the virtual office may be divided into an area included in the camera view point and an area not included in the camera view point.

이와 같이 대상유저가 위치하는 공간이 구분되어 확인되면, 대화그룹판단단계(S16)에서는 대상유저와 같은 공간영역에 위치한 유저를 대화그룹으로 판단할 수 있다.When the space in which the target user is located is identified and identified as described above, in the conversation group determination step S16, a user located in the same spatial area as the target user may be determined as the conversation group.

한편, 본 발명의 메타버스 기반의 오피스 환경은 현실세계와 유사하게 구축하는 것이 목적이므로, 가상공간에 만들어진 하나의 건물을 하나의 업체가 이용하거나, 경우에 따라 많은 수의 업체나 개인들이 함께 이용할 수 있다.On the other hand, since the purpose of the metaverse-based office environment of the present invention is to build similarly to the real world, a single building created in a virtual space can be used by one company or, in some cases, a large number of companies or individuals can use it together. can

이에, 본 발명에서는 대화그룹을 형성함에 있어, 기본적으로는 해당 공간 전체(건물 전체)에 속해 있는 모든 유저들에게 대화그룹을 형성할 권한(대화참여권한)을 부여하고, 앞서 살펴본 방법에 의해 대화그룹에 참여하거나 탈퇴하도록 할 수 있다.Accordingly, in the present invention, in forming a conversation group, basically, all users belonging to the entire space (the whole building) are given the right to form a conversation group (the right to participate in the conversation), and the conversation is performed by the method described above. You can join or leave the group.

다만, 특정 업체나 개인의 보안영역으로 설정된 영역에서는, 해당 보안영역을 이용하도록 허가된 유저들에게만 대화참여권한을 부여함으로써, 대화참여권한이 없는 유저가 해당 공간에 위치하더라도, 해당 보안영역에서의 대화에 참여하지 못하도록 할 수 있다.However, in the area set as the security area of a specific company or individual, by granting the right to participate in the conversation only to users who are permitted to use the security area, even if a user without the right to participate in the conversation is located in the space, You can prevent them from participating in the conversation.

예를 들어, 특정 업체의 회의실 등은 해당 업체의 직원에 해당하는 유저들, 또는 거래처에 해당하는 유저들에게만 대화참여권한을 부여함으로써, 업무와 무관한 유저들에게 대화의 내용이 유출되는 것을 방지할 수 있으며, 이를 통해 보안성을 향상시킬 수 있다.For example, in a meeting room of a specific company, by granting the right to participate in the conversation only to users who are employees of the company or users who are business partners, the contents of conversations are prevented from leaking to users unrelated to work and can improve security through this.

이 외의 공용공간(예를 들어, 휴게실이나 복도 등)에서는 현실세계와 마찬가지로 모든 유저들이 대화에 참여할 수 있도록 대화참여권한을 부여할 수 있다.In other public spaces (for example, in a lounge or hallway), the right to participate in the conversation can be given so that all users can participate in the conversation, just like in the real world.

다시 말해, 기본적으로 모든 공간에 대하여 모든 유저들에게 대화참여권한을 부여한 상태에서, 보안영역으로 설정된 영역에서는 대화그룹참여제한을 설정하고, 특정 팀이나 소속 등으로 매칭된 유저들을 제외한 나머지 유저들의 대화참여권한을 제거함으로써, 대상유저와 매칭된 팀의 유저들만이 대화에 참여하도록 할 수 있다.In other words, in the state that basically all users are given the right to participate in the conversation for all spaces, the conversation group participation limit is set in the area set as the secure area, and the conversation of the remaining users except for users who are matched by a specific team or affiliation, etc. By removing the participation right, only users of the team matched with the target user can participate in the conversation.

이상에서 살펴본 메타버스 기반의 가상 오피스 환경에서 유저의 영상데이터를 디스플레이하는 방법은, 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능할 수 있다.The method of displaying the user's image data in the metaverse-based virtual office environment described above may be implemented as a computer-readable code on a computer-readable recording medium.

여기서, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 예를 들어, 컴퓨터가 읽을 수 있는 기록 매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함할 수 있다.Here, the computer-readable recording medium includes all types of recording devices in which data readable by the computer system is stored. For example, the computer-readable recording medium may include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like.

또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner.

그리고 본 발명을 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.

또한, 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.In addition, the technical configuration of the present invention will be understood by those skilled in the art to which the present invention pertains to be implemented in other specific forms without changing the technical spirit or essential characteristics of the present invention.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 한다.Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (13)

오피스환경으로 설정된 가상공간에 접속한 유저들이 복수 개의 공간영역으로 구획된 가상공간의 각 공간영역들을 이동하는 과정에서, 대상유저와 같은 공간영역에 위치한 유저들 중 대상유저의 카메라시점에 대응하는 가상영상에 포함된 유저들에 대한 대화그룹 포함여부를 확인하고, 대화그룹에 포함된 각 그룹유저의 아바타에, 해당 그룹유저를 실시간으로 촬영한 유저영상을 매칭하는 유저영상 매칭단계;
적어도 두 개의 유저영상의 적어도 일부가 겹치는 경우, 현재 대화하는 유저 또는 가장 최근에 대화했던 유저의 유저영상을 최우선순위로 설정하는 우선순위 결정단계; 및
설정된 우선순위에 따라 각 유저영상을 최상층 레이어부터 순차적으로 배치하여 디스플레이하는 유저영상 디스플레이단계;를 포함하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
In the process where users connected to a virtual space set as an office environment move through each spatial area of the virtual space partitioned into a plurality of spatial areas, a virtual corresponding to the camera view point of the target user among users located in the same spatial area as the target user a user image matching step of confirming whether the chat group for the users included in the video is included, and matching the avatar of each group user included in the chat group with the user video shot in real time of the group user;
a priority determining step of setting, as a highest priority, a user image of a user who is currently chatting or a user who has recently talked when at least a portion of the at least two user images overlap; and
A user image display step of sequentially arranging and displaying each user image from the top layer according to a set priority; a method for displaying user image data in a metaverse-based office environment, comprising: a.
제 1항에 있어서,
상기 우선순위 결정단계는,
해당 대화그룹에 포함된 그룹유저들의 음성 및 문자 중 적어도 하나의 채팅데이터에 대한 전송여부를 확인하는 채팅확인단계; 및
현재 시점을 최우선으로 하여 채팅데이터가 전송된 순서에 따라 내림차순으로 우선순위를 부여하는 우선순위부여단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
The method of claim 1,
The prioritization step is
a chat confirmation step of confirming whether at least one chat data among voices and texts of group users included in the corresponding chat group is transmitted; and
A method for displaying user image data in a metaverse-based office environment, comprising: a prioritization step of giving priority in descending order according to the order in which the chat data is transmitted with the current time as the top priority.
제 2항에 있어서,
상기 우선순위부여단계는,
채팅데이터가 음성인 경우, 수신된 목소리의 크기가 설정된 기준크기보다 큰 경우, 해당 음성이 수신된 그룹유저가 대화한 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
3. The method of claim 2,
The prioritization step is
Metaverse-based, characterized in that when the chat data is voice and the received voice is larger than the set reference size, it is determined that the group user who received the corresponding voice has a conversation, and prioritizes the chat data A method of displaying user image data in the office environment of
제 3항에 있어서,
상기 우선순위부여단계는,
대화한 것으로 판단된 그룹유저의 영상수신이 유지되면, 해당 그룹유저가 대화를 지속하는 것으로 판단하고, 해당 채팅데이터에 우선순위를 부여하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
4. The method of claim 3,
The prioritization step is
If the reception of the video of the group user determined to have a conversation is maintained, it is determined that the group user continues the conversation, and priority is given to the chatting data. Displaying user image data in a metaverse-based office environment Way.
제 1항에 있어서,
상기 유저영상 디스플레이단계는,
설정된 우선순위에 따라 각 유저영상의 밝기를 순차적으로 조절하여 디스플레이하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
The method of claim 1,
The user image display step,
A method for displaying user image data in a metaverse-based office environment, characterized in that the brightness of each user image is sequentially adjusted and displayed according to a set priority.
제 5항에 있어서,
상기 유저영상 디스플레이단계는,
일정시간 이상 대화하지 않은 경우, 해당 그룹유저의 유저영상을 반투명효과로 블라인드처리하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
6. The method of claim 5,
The user image display step,
A method for displaying user image data in a metaverse-based office environment, characterized in that the user image of the corresponding group user is blindly processed with a semi-transparent effect when there is no conversation for a certain period of time.
제 1항에 있어서,
상기 유저영상 매칭단계는,
3차원좌표계의 가상공간이 투영되는 카메라좌표계의 가상영상에서, 해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 타겟좌표확인단계; 및
해당 가상영상의 2차원좌표에 해당 유저영상을 오버랩하는 유저영상오버랩단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
The method of claim 1,
The user image matching step is,
a target coordinate checking step of confirming the two-dimensional coordinates on which the head position of the corresponding avatar is projected in the virtual image of the camera coordinate system on which the virtual space of the three-dimensional coordinate system is projected; and
A method for displaying user image data in a metaverse-based office environment, comprising: a user image overlap step of overlapping the corresponding user image on the two-dimensional coordinates of the virtual image.
제 7항에 있어서,
상기 타겟좌표확인단계는,
3차원 가상공간에서 해당 아바타의 위치를 확인하는 아바타위치확인단계;
해당 아바타의 뼈대구조에서 머리의 상대위치를 계산하는 상대위치확인단계;
해당 아바타의 3차원좌표에 상대위치를 적용하여 머리의 3차원좌표를 계산하는 머리위치확인단계; 및
해당 아바타의 머리위치가 투영되는 2차원좌표를 확인하는 투영좌표확인단계;를 포함하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
8. The method of claim 7,
The target coordinate confirmation step is,
an avatar location checking step of checking the location of the corresponding avatar in a three-dimensional virtual space;
a relative position checking step of calculating the relative position of the head in the skeletal structure of the corresponding avatar;
a head position checking step of calculating the 3D coordinates of the head by applying the relative position to the 3D coordinates of the corresponding avatar; and
A method for displaying user image data in a metaverse-based office environment, comprising: a projection coordinate checking step of confirming the two-dimensional coordinates on which the head position of the corresponding avatar is projected.
제 1항에 있어서,
상기 유저영상 매칭단계는,
상기 가상공간 중 보안영역을 포함하는 적어도 일부의 공간영역에 대화그룹참여제한을 설정하고,
해당 공간영역에 위치한 유저들 중 대화참여권한이 제거된 유저는 해당 대화그룹에서 제외하는 것을 특징으로 하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법.
The method of claim 1,
The user image matching step is,
setting a conversation group participation restriction in at least some spatial areas including a security area among the virtual spaces;
A method of displaying user image data in a metaverse-based office environment, characterized in that, among users located in the corresponding spatial area, users whose conversation participation rights have been removed are excluded from the corresponding conversation group.
제 1항 내지 제 9항 중 어느 하나의 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 방법을 실행하는 프로그램이 기록된 저장매체.
A storage medium in which a program for executing the method of displaying user image data in the metaverse-based office environment of any one of claims 1 to 9 is recorded.
제 10항의 저장매체를 포함하는 메타버스 기반의 오피스 환경에서 유저영상데이터 디스플레이 시스템.A system for displaying user image data in a metaverse-based office environment including the storage medium of claim 10 . 삭제delete 삭제delete
KR1020210189894A 2021-12-28 2021-12-28 User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same KR102419919B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210189894A KR102419919B1 (en) 2021-12-28 2021-12-28 User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same
PCT/KR2022/018838 WO2023128307A1 (en) 2021-12-28 2022-11-25 Method for displaying user image data in metaverse-based office environment, storage medium in which program for executing same is recorded, and user image data display system comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210189894A KR102419919B1 (en) 2021-12-28 2021-12-28 User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same

Publications (1)

Publication Number Publication Date
KR102419919B1 true KR102419919B1 (en) 2022-07-13

Family

ID=82401339

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210189894A KR102419919B1 (en) 2021-12-28 2021-12-28 User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same

Country Status (2)

Country Link
KR (1) KR102419919B1 (en)
WO (1) WO2023128307A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128307A1 (en) * 2021-12-28 2023-07-06 주식회사 직방 Method for displaying user image data in metaverse-based office environment, storage medium in which program for executing same is recorded, and user image data display system comprising same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160154A (en) * 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device in virtual space communication system, avatar displaying method and storage medium
JP2013078105A (en) * 2011-09-13 2013-04-25 Ricoh Co Ltd Conference system, event management server and program
KR20180000022A (en) * 2016-06-21 2018-01-02 한양대학교 에리카산학협력단 Virtual office implementation method
KR20180062045A (en) * 2016-11-30 2018-06-08 에릭슨엘지엔터프라이즈 주식회사 Method and apparatus for realizing virtual conference
KR20190062045A (en) 2017-11-28 2019-06-05 제주대학교 산학협력단 Level maintaining apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200067537A (en) * 2018-12-04 2020-06-12 주식회사 동우 이앤씨 System and method for providing a virtual environmental conference room
KR102419919B1 (en) * 2021-12-28 2022-07-13 주식회사 직방 User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160154A (en) * 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device in virtual space communication system, avatar displaying method and storage medium
JP2013078105A (en) * 2011-09-13 2013-04-25 Ricoh Co Ltd Conference system, event management server and program
KR20180000022A (en) * 2016-06-21 2018-01-02 한양대학교 에리카산학협력단 Virtual office implementation method
KR20180062045A (en) * 2016-11-30 2018-06-08 에릭슨엘지엔터프라이즈 주식회사 Method and apparatus for realizing virtual conference
KR20190062045A (en) 2017-11-28 2019-06-05 제주대학교 산학협력단 Level maintaining apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023128307A1 (en) * 2021-12-28 2023-07-06 주식회사 직방 Method for displaying user image data in metaverse-based office environment, storage medium in which program for executing same is recorded, and user image data display system comprising same

Also Published As

Publication number Publication date
WO2023128307A1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
Aseeri et al. The influence of avatar representation on interpersonal communication in virtual social environments
US11546550B2 (en) Virtual conference view for video calling
US11397507B2 (en) Voice-based virtual area navigation
KR102509398B1 (en) Emotion recognition in video conferencing
CN113168231A (en) Enhanced techniques for tracking movement of real world objects to improve virtual object positioning
Li et al. Social VR: A new medium for remote communication and collaboration
TWI656505B (en) System and method for avatar management and selection
US11533354B1 (en) Storage and retrieval of video conference state based upon participants
CN102904936B (en) Method, server, device, system and apparatus for establishing session
US11080941B2 (en) Intelligent management of content related to objects displayed within communication sessions
KR102419906B1 (en) User image data matching method in metaverse based office environment, storage medium in which a program executing the same, and user image data matching system including the same
US20220319139A1 (en) Multi-endpoint mixed-reality meetings
WO2013027893A1 (en) Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same
KR102395940B1 (en) User image data control method in metaverse based office environment, storage medium in which a program executing the same, and user image data control system including the same
Chang et al. AlphaRead: Support unambiguous referencing in remote collaboration with readable object annotation
US20230236713A1 (en) Established perspective user interface and user experience for video meetings
KR102419919B1 (en) User image data display method in metaverse based office environment, storage medium in which a program executing the same, and user image data display system including the same
KR102423902B1 (en) User grouping method in metaverse based office environment, storage medium in which a program executing the same, and user grouping system including the same
KR102419932B1 (en) Display control method in metaverse based office environment, storage medium in which a program executing the same, and display control system including the same
KR20220159968A (en) Conference handling method and system using avatars
KR20220160558A (en) A method and system for expressing an avatar that follows a user&#39;s motion in a virtual space
KR102610299B1 (en) Method and apparatus for providing virtual reality service that can provide reliability of user avatars in virtual relity space
CN117547838A (en) Social interaction method, device, equipment, readable storage medium and program product
WO2023172318A1 (en) Management of in room meeting participant
CN117957834A (en) Visual angle user interface and user experience for video meeting establishment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant