KR20230140783A - Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality - Google Patents

Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality Download PDF

Info

Publication number
KR20230140783A
KR20230140783A KR1020220039452A KR20220039452A KR20230140783A KR 20230140783 A KR20230140783 A KR 20230140783A KR 1020220039452 A KR1020220039452 A KR 1020220039452A KR 20220039452 A KR20220039452 A KR 20220039452A KR 20230140783 A KR20230140783 A KR 20230140783A
Authority
KR
South Korea
Prior art keywords
avatar
user
range
exposure
recognition
Prior art date
Application number
KR1020220039452A
Other languages
Korean (ko)
Other versions
KR102684394B1 (en
Inventor
이성욱
Original Assignee
주식회사 긱스로프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 긱스로프트 filed Critical 주식회사 긱스로프트
Priority to KR1020220039452A priority Critical patent/KR102684394B1/en
Publication of KR20230140783A publication Critical patent/KR20230140783A/en
Application granted granted Critical
Publication of KR102684394B1 publication Critical patent/KR102684394B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Operations Research (AREA)

Abstract

가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버는 가상 공간을 생성할 수 있다. 서버는 상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력할 수 있다. 상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공할 수 있다. 서버는 상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하되, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상일 수 있다.The virtual reality-based Metaverse user-to-user communication service server can create a virtual space. The server generates a first avatar corresponding to the first user terminal accessing the virtual space, and creates a second avatar corresponding to the second user terminal accessing the virtual space, so that the first and second avatars are It can be printed in virtual space. A first image of the virtual space as seen by the first avatar is provided to the first user terminal, and a second image of the virtual space as seen by the second avatar is provided to the second user terminal. can be provided. When the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar, the server acquires the first user information from the first user terminal. An image is output together with the first avatar, and the first user image may be a 2D image facing in the direction the first avatar is looking.

Description

가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING COMMUNICATION SERVICE BETWEEEN USERS OF METAVERSE BASED ON VIRTUAL REALITY}Method and device for providing communication services between virtual reality-based Metaverse users {METHOD AND APPARATUS FOR PROVIDING COMMUNICATION SERVICE BETWEEEN USERS OF METAVERSE BASED ON VIRTUAL REALITY}

본 발명의 실시예들은 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버 및 그 동작 방법에 대한 것이다.Embodiments of the present invention relate to a virtual reality-based metaverse user-to-user communication service providing server and its operating method.

최근, 컴퓨터 그래픽 기술을 응용한 가상현실(Virtual Reality), 증강현실(Augmented Reality) 및 혼합현실(Mixed Reality) 기술이 발달하고 있다. 이 때, 가상현실 기술은 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을 말하고, 증강현실 또는 혼합현실 기술은 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 기술을 말한다.Recently, virtual reality, augmented reality, and mixed reality technologies that apply computer graphics technology are developing. At this time, virtual reality technology refers to a technology that uses a computer to build a virtual space that does not exist in the real world and then makes the virtual space feel like reality, while augmented reality or mixed reality technology refers to a technology that uses a computer to create a virtual space that does not exist in the real world. It refers to a technology that adds and expresses information, that is, a technology that allows real-time interaction with users by combining the real world and the virtual world.

이들 중 증강현실과 혼합현실 기술은 다양한 분야의 기술(예컨대, 방송 기술, 의료 기술 및 게임 기술 등)들과 접목되어 활용되고 있다. TV에서 일기 예보를 하는 기상 캐스터 앞의 날씨 지도가 자연스럽게 바뀌는 경우나, 스포츠 중계에서 경기장에 존재하지 않는 광고 이미지를 경기장에 실제로 존재하는 것처럼 화면에 삽입하여 송출하는 경우가 방송 기술 분야에 증강현실 기술이 접목되어 활용된 대표적인 예이다. 특히, 이러한 증강현실과 혼합현실 기술은 스마트폰(Smart phone)의 등장과 함께 다양한 응용 서비스로 구현되어 제공되고 있다.Among these, augmented reality and mixed reality technologies are being used in conjunction with technologies in various fields (for example, broadcasting technology, medical technology, and game technology, etc.). Augmented reality technology is used in the field of broadcasting technology in cases where the weather map in front of a weathercaster giving a weather forecast on TV changes naturally, or when advertising images that do not exist in the stadium are inserted and transmitted on the screen during sports broadcasts as if they actually exist in the stadium. This is a representative example of this being grafted and utilized. In particular, these augmented reality and mixed reality technologies are being implemented and provided as various application services with the advent of smart phones.

증강현실 또는 혼합현실을 사용자에게 제공하는 대표적인 서비스로서, 메타버스(Meta-verse)가 있다. 이 메타버스는 가공, 추상을 의미하는 '메타(Meta)'와 현실세계를 의미하는 '유니버스(Universe)'의 합성어로 3차원 가상세계를 의미한다. 메타버스는 기존의 가상현실 환경(Virtual reality environment)이라는 용어보다 진보된 개념으로서, 웹과 인터넷 등의 가상세계가 현실세계에 흡수된 증강 현실 환경을 제공한다.As a representative service that provides augmented reality or mixed reality to users, there is Meta-verse. This 'metaverse' is a compound word of 'Meta', which means processing and abstraction, and 'Universe', which means the real world, and means a three-dimensional virtual world. Metaverse is an advanced concept than the existing term virtual reality environment, and provides an augmented reality environment in which virtual worlds such as the web and the Internet are absorbed into the real world.

서로 다른 현실공간 상에 위치하는 사용자들이 동일한 가상 공간 내에서 상호작용(Interaction)할 수 있도록 하는 다수의 사용자 간 상호작용을 지원하기 위한 방법들이 요구되고 있다.There is a need for methods to support interaction between multiple users that allow users located in different real spaces to interact within the same virtual space.

본 발명의 실시예들은, 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버 및 그 동작 방법을 제공할 수 있다. Embodiments of the present invention can provide a virtual reality-based metaverse user-to-user communication service providing server and its operating method.

실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical challenges to be achieved in the embodiments are not limited to the matters mentioned above, and other technical challenges not mentioned may be considered by those skilled in the art from the various embodiments described below. You can.

실시예들에 따르면, 적어도 하나의 서버에 의해 수행되는 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법에 있어서, 가상 공간을 생성하는 단계; 상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력하는 단계; 상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공하는 단계; 및 상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하되, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상인, 단계를 포함할 수 있다.According to embodiments, a method of providing a communication service between virtual reality-based metaverse users performed by at least one server includes the steps of creating a virtual space; A first avatar corresponding to a first user terminal accessing the virtual space is created, a second avatar corresponding to a second user terminal accessing the virtual space is created, and the first and second avatars are created in the virtual space. output to; A first image of the virtual space as seen by the first avatar is provided to the first user terminal, and a second image of the virtual space as seen by the second avatar is provided to the second user terminal. providing a; and when the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar, a first user image acquired from the first user terminal. may include outputting together with the first avatar, wherein the first user image is a 2D image facing in the direction the first avatar is looking.

여기서, 상기 서버는, 상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하되, 상기 제1 노출 범위는 상기 제1 아바타의 정면을 기준으로 제1 노출 시야각 내의 제1 노출 거리 내로 설정되고, 상기 제1 인식 범위는 상기 제1 아바타의 정면을 기준으로 제1 인식 시야각 내의 제1 인식 거리 내로 설정되는 단계를 더 포함할 수 있다.Here, the server sets the first exposure range and the first recognition range for the first avatar, and the first exposure range is a first exposure distance within the first exposure viewing angle based on the front of the first avatar. The method may further include setting the first recognition range to be within a first recognition distance within the first recognition viewing angle based on the front of the first avatar.

여기서, 상기 서버가, 상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하는 단계는, 상기 제1 사용자 단말로부터 상기 제1 노출 시야각, 상기 제1 노출 거리, 상기 제1 인식 시야각, 및 상기 제1 인식 거리에 관련된 정보를 획득하는 단계; 상기 제1 노출 시야각 및 상기 제1 노출 거리를 기초로 상기 제1 노출 범위를 결정하는 단계; 상기 제1 인식 시야각 및 상기 제1 인식 거리를 기초로 상기 제1 인식 범위를 결정하는 단계를 더 포함할 수 있다.Here, the step of the server setting the first exposure range and the first recognition range for the first avatar includes the first exposure viewing angle, the first exposure distance, and the first recognition from the first user terminal. Obtaining information related to the viewing angle and the first recognition distance; determining the first exposure range based on the first exposure viewing angle and the first exposure distance; The method may further include determining the first recognition range based on the first recognition viewing angle and the first recognition distance.

여기서, 상기 제1 노출 범위는, 상기 제2 아바타가 상기 제1 노출 범위에 존재할 때 상기 제2 아바타의 상기 제2 인식 범위 내에 상기 제1 아바타가 존재하면 상기 제1 사용자 영상이 상기 제2 영상에 노출되는 범위이고, 상기 제1 인식 범위는, 상기 제1 아바타가 상기 제2 아바타의 제2 노출 범위에 존재할 때 상기 제1 아바타의 상기 제1 인식 범위 내에 상기 제2 아바타가 존재하면 상기 제2 사용자 영상이 상기 제1 영상에 노출되는 범위일 수 있다.Here, the first exposure range means that when the second avatar exists in the first exposure range and the first avatar exists within the second recognition range of the second avatar, the first user image is displayed as the second image. is a range exposed to, and the first recognition range is when the first avatar exists in the second exposure range of the second avatar and the second avatar exists within the first recognition range of the first avatar. 2 This may be the range where the user image is exposed to the first image.

여기서, 상기 제1 사용자 영상 및 상기 제2 사용자 영상은 상기 제1 사용자 단말 및 상기 제2 사용자 단말로부터 실시간으로 스트리밍되는 영상일 수 있다.Here, the first user video and the second user video may be images streamed in real time from the first user terminal and the second user terminal.

여기서, 상기 제1 사용자 영상은 상기 제1 아바타의 얼굴 측면에 노출될 수 있다.Here, the first user image may be exposed on the side of the face of the first avatar.

본 발명의 일 실시예는 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하는 서버에 있어서, 프로세서(processor); 송수신기(transceiver); 및 메모리(memory); 를 포함하고, 상기 프로세서는: 가상 공간을 생성하고; 상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력하고; 상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공하고; 그리고 상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하도록 설정되고, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상일 수 있다.One embodiment of the present invention provides a server that provides a communication service between virtual reality-based metaverse users, comprising: a processor; transceiver; and memory; wherein the processor: creates a virtual space; A first avatar corresponding to a first user terminal accessing the virtual space is created, a second avatar corresponding to a second user terminal accessing the virtual space is created, and the first and second avatars are created in the virtual space. output to; A first image of the virtual space as seen by the first avatar is provided to the first user terminal, and a second image of the virtual space as seen by the second avatar is provided to the second user terminal. provide; And when the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar, the first user image obtained from the first user terminal is set to be output together with the first avatar, and the first user image may be a 2D image facing the direction the first avatar is looking.

실시예들에 따르면, 사용자들은 실제 상대방의 얼굴을 보면서 상호 커뮤니케이션을 수행할 수 있으므로, 더욱 실감나는 소통을 수행할 수 있다.According to embodiments, users can communicate with each other while actually seeing the other person's face, thereby enabling more realistic communication.

실제 상황에서와 같이 커뮤니케이션이 수행될 수 있을 만한 공간에서 아바타들이 존재할 때 커뮤니케이션이 수행되는 현실적인 커뮤니케이션 서비스가 제공될 수 있고, 자신의 프라이버시도 보호할 수 있으며 상황에 맞는 커뮤니케이션 방법이 때에 따라 적합하게 제공될 수 있는 효과가 있다.A realistic communication service can be provided in which communication is performed when avatars exist in a space where communication can be performed as in a real situation, one's privacy can also be protected, and communication methods appropriate to the situation are provided as appropriate. There is a possible effect.

실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.The effects that can be obtained from the examples are not limited to the effects mentioned above, and other effects not mentioned can be clearly derived and understood by those skilled in the art based on the detailed description below. It can be.

실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버를 포함하는 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 3은 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버의 동작 방법의 일 실시예를 도시한 도면이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 노출 범위 및 인식 범위를 도시한 도면이다.
도 6 및 도 7은 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법의 일 실시예를 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 사용자 영상을 도시한 도면이다.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the embodiments, provide various embodiments and together with the detailed description describe technical features of the various embodiments.
Figure 1 is a system diagram including a server providing a communication service between virtual reality-based metaverse users according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a server that provides a communication service between virtual reality-based metaverse users according to an embodiment of the present invention.
Figure 3 is a diagram illustrating an embodiment of a method of operating a virtual reality-based metaverse user-to-user communication service providing server.
Figures 4 and 5 are diagrams showing the exposure range and recognition range according to an embodiment of the present invention.
Figures 6 and 7 are diagrams illustrating an embodiment of a method of providing communication services between virtual reality-based metaverse users.
Figure 8 is a diagram illustrating a user image according to an embodiment of the present invention.

이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments combine elements and features of the embodiments in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form that is not combined with other components or features. Additionally, various embodiments may be configured by combining some components and/or features. The order of operations described in various embodiments may change. Some features or features of one embodiment may be included in other embodiments or may be replaced with corresponding features or features of other embodiments.

도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of the various embodiments are not described, and procedures or steps that can be understood at the level of a person with ordinary knowledge in the relevant technical field are not described. did.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to “comprise or include” a certain element, this means that it does not exclude other elements but may further include other elements, unless specifically stated to the contrary. do. In addition, terms such as "... unit", "... unit", and "module" used in the specification refer to a unit that processes at least one function or operation, which refers to hardware, software, or a combination of hardware and software. It can be implemented as: Additionally, the terms “a or an,” “one,” “the,” and similar related terms are used herein in the context of describing various embodiments (particularly in the context of the claims below). Unless otherwise indicated or clearly contradicted by context, it may be used in both singular and plural terms.

이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, embodiments according to various embodiments will be described in detail with reference to the attached drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to illustrate exemplary embodiments of various embodiments and is not intended to represent the only embodiment.

또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in various embodiments are provided to aid understanding of the various embodiments, and the use of such specific terms may be changed to other forms without departing from the technical spirit of the various embodiments. .

도 1을 참조하면, 본 발명의 실시예에 따른 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법은 PC(Personal Computer) 등과 같이 저장공간을 구비하고 인터넷에 연결될 수 있으며 휴대가 용이하지 않는 컴퓨팅 장치에서 수행되거나 스마트폰 등과 같이 휴대용 단말기에서 수행될 수 있다. 이때 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법은 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법이 구현된 어플리케이션(application)이 앱스토어(App store)등에서 다운되어 상기 휴대용 단말기에 설치된 후 실행될 수 있다.Referring to Figure 1, the method of providing communication services between virtual reality-based Metaverse users according to an embodiment of the present invention includes a computing device that has a storage space, such as a PC (Personal Computer), can be connected to the Internet, and is not easily portable. It can be performed in or on a portable terminal such as a smartphone. At this time, the method of providing communication services between users of the virtual reality-based metaverse is an application that implements the method of providing communication services between users of the metaverse based on virtual reality, which is downloaded from the App store, etc. and installed on the portable terminal. It can be executed afterward.

그리고 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법은 CD(Compact Disc) 또는 USB(Universal Serial Bus) 메모리 등과 같은 기록매체에 기록된 상태에서 PC 등과 같은 컴퓨팅 장치에 삽입되어 상기 컴퓨팅 장치의 액세스 동작을 통해서 수행되거나 상기 기록매체로부터 컴퓨팅 장치의 저장공간에 저장된 후 컴퓨팅 장치의 액세스 동작을 통해서 수행될 수도 있다.In addition, the method of providing communication services between virtual reality-based metaverse users is recorded on a recording medium such as CD (Compact Disc) or USB (Universal Serial Bus) memory, and inserted into a computing device such as a PC to access the computing device. It may be performed through an operation or may be performed through an access operation of the computing device after being stored in the storage space of the computing device from the recording medium.

한편 상기 컴퓨팅 장치 또는 휴대용 단말기가 인터넷에 연결된 서버에 접속가능한 경우, 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법은 상기 컴퓨팅 장치 또는 휴대용 단말기의 요청에 따라 서버에서도 실행될 수 있다.Meanwhile, if the computing device or portable terminal can access a server connected to the Internet, the method of providing communication services between virtual reality-based metaverse users can also be executed on the server at the request of the computing device or portable terminal.

이하에서 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법이 실행되는 컴퓨팅 장치, 휴대용 단말기 또는 서버 등을 통칭하여 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 장치라고 칭할 수 있다.Hereinafter, the computing device, portable terminal, or server on which the method of providing communication services between virtual reality-based metaverse users is executed can be collectively referred to as a device for providing communication services between virtual reality-based metaverse users.

상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 장치는 도 2에 예시된 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 장치와 동일한 구성을 가질 수 있으며, 상기 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 장치는 도 1에 도시된 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 장치에 국한되지 않을 수 있다.The virtual reality-based metaverse user-to-user communication service providing device may have the same configuration as the virtual reality-based metaverse user-to-user communication service provider illustrated in Figure 2, and the virtual reality-based metaverse user-to-user communication service The provision device may not be limited to the device for providing communication services between virtual reality-based metaverse users shown in FIG. 1.

일 실시예에 따른 시스템은 사용자 단말(100, 110, 120, 130), 및 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버(200)(이하, 서버(200))를 포함할 수 있다. 네트워크는 인터넷 포털 사이트 서버, SNS 서버, 블로그를 운영하는 서버 등을 포함할 수 있다.The system according to one embodiment may include user terminals 100, 110, 120, and 130, and a server 200 (hereinafter referred to as server 200) providing a communication service between virtual reality-based metaverse users. The network may include an Internet portal site server, an SNS server, and a server that operates a blog.

사용자 단말(100, 110, 120, 130)은, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 단말(100, 110, 120, 130)은 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.User terminals 100, 110, 120, and 130 include smartphones, tablet PCs, PCs, smart TVs, mobile phones, personal digital assistants (PDAs), laptops, media players, micro servers, global positioning system (GPS) devices, and electronic devices. It may be, but is not limited to, book terminals, digital broadcasting terminals, navigation devices, kiosks, MP3 players, digital cameras, home appliances, devices equipped with cameras, and other mobile or non-mobile computing devices. Additionally, the user terminals 100, 110, 120, and 130 may be wearable devices equipped with communication functions and data processing functions. However, it is not limited to this.

서버(200)는 사용자 단말(100, 110, 120, 130)과, 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.The server 200 may be implemented as a computer device or a plurality of computer devices that communicate with the user terminals 100, 110, 120, and 130 over a network to provide commands, codes, files, content, services, etc.

일례로, 서버(200)는 네트워크를 통해 접속한 사용자 단말(100, 110, 120, 130)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 사용자 단말(100, 110, 120, 130)은 서버(200)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다.For example, the server 200 may provide files for installing an application to user terminals 100, 110, 120, and 130 connected through a network. In this case, the user terminals 100, 110, 120, and 130 can install the application using files provided from the server 200.

또한, 사용자 단말(100, 110, 120, 130)은 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(200)에 접속하여, 서버(200)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.In addition, the user terminals 100, 110, 120, and 130 connect to the server 200 under the control of an operating system (OS) and at least one program (for example, a browser or an installed application), and the server 200 You can receive services or content provided by .

다른 예로, 서버(200)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 사용자 단말(100, 110, 120, 130) 간의 데이터 송수신을 라우팅할 수도 있다.As another example, the server 200 may establish a communication session for data transmission and reception, and route data transmission and reception between user terminals 100, 110, 120, and 130 through the established communication session.

사용자 단말(100, 110, 120, 130) 및 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버(200)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.The user terminals 100, 110, 120, and 130 and the virtual reality-based metaverse user-to-user communication service providing server 200 may communicate using a network. For example, networks include Local Area Network (LAN), Wide Area Network (WAN), Value Added Network (VAN), mobile radio communication network, satellite communication network, and their It is a comprehensive data communication network that includes mutual combinations and allows each network constituent shown in Figure 1 to communicate smoothly with each other, and may include wired Internet, wireless Internet, and mobile wireless communication networks. In addition, wireless communications include, for example, wireless LAN (Wi-Fi), Bluetooth, Bluetooth low energy, ZigBee, WFD (Wi-Fi Direct), UWB (ultra wideband), and infrared communications (IrDA). Data Association), NFC (Near Field Communication), etc., but are not limited to these.

도 2는 본 발명의 일 실시예에 따른 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of a server that provides a communication service between virtual reality-based metaverse users according to an embodiment of the present invention.

도 2를 참조하면, 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하는 서버(200)(이하, 서버(200))는 통신부(210), 프로세서(220) 및 DB(230)를 포함할 수 있다. 도 2의 서버(200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.Referring to FIG. 2, the server 200 (hereinafter referred to as the server 200) that provides a communication service between virtual reality-based metaverse users may include a communication unit 210, a processor 220, and a DB 230. there is. In the server 200 of FIG. 2, only components related to the embodiment are shown. Accordingly, those skilled in the art can understand that other general-purpose components may be included in addition to the components shown in FIG. 2.

통신부(210)는 단말들 간 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.The communication unit 210 may include one or more components that enable wired/wireless communication between terminals. For example, the communication unit 210 may include at least one of a short-range communication unit (not shown), a mobile communication unit (not shown), and a broadcast receiver (not shown).

일례로, DB(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(210)의 제어에 따라 네트워크를 통해 단말로 전달될 수 있다. 역으로, 단말의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신부(210)을 통해 서버(200)로 수신될 수 있다. 예를 들어, 통신부(210)를 통해 수신된 서버(200)의 제어 신호나 명령, 컨텐츠 및 파일 등은 프로세서(220)로 전달되거나 DB(230)로 전달되어 저장될 수 있다.For example, a request generated according to a program code stored in a recording device such as the DB 230 may be transmitted to the terminal through the network under the control of the communication unit 210. Conversely, control signals, commands, content, files, etc. provided under control of the processor of the terminal may be received by the server 200 through the communication unit 210 via the network. For example, control signals, commands, contents, files, etc. of the server 200 received through the communication unit 210 may be transmitted to the processor 220 or transmitted to the DB 230 and stored.

DB(230)는 서버(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.DB 230 is hardware that stores various data processed within the server 200, and can store programs for processing and control of the processor 220.

DB(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. DB(230)는 메모리라고 나타낼 수도 있다.The DB 230 includes random access memory (RAM) such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory. DB 230 may also be referred to as memory.

프로세서(220)는 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 DB(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), DB(230) 등을 전반적으로 제어할 수 있다. 프로세서(220)는, DB(230)에 저장된 프로그램들을 실행함으로써, 외부 서버(200)의 동작을 제어할 수 있다.The processor 220 controls the overall operation of the server 200. For example, the processor 220 can generally control the input unit (not shown), display (not shown), communication unit 210, DB 230, etc. by executing programs stored in the DB 230. The processor 220 can control the operation of the external server 200 by executing programs stored in the DB 230.

통신부(210)는, 서버(200)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 서버(200)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 통신부(210)는 네트워크를 통해, 다른 전자 장치로부터의 사용자 입력을 수신하거나, 외부 장치로부터 외부 장치에 저장된 데이터를 수신할 수 있다. The communication unit 210 may include one or more components that allow the server 200 to communicate with other devices (not shown) and servers (not shown). The other device (not shown) may be a computing device such as the server 200 or a sensing device, but is not limited thereto. The communication unit 210 may receive a user input from another electronic device or receive data stored in an external device from an external device through a network.

DB(230)는, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, DB(230)는 서비스 제공을 위한 인스트럭션(instruction)을 저장할 수 있다. 또한 DB(230)는 프로세서(220)에서 생성된 데이터를 저장할 수 있다. 예를 들어, DB(230)는 프로세서(220)가 제공하는 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스와 관련된 정보를 저장할 수 있다. DB(230)는 서버(200)로 입력되거나 서버(200)로부터 출력되는 정보를 저장할 수도 있다. DB 230 may store programs for processing and control of processor 220. For example, the DB 230 may store instructions for providing services. Additionally, the DB 230 may store data generated by the processor 220. For example, the DB 230 may store information related to a communication service between virtual reality-based metaverse users provided by the processor 220. DB 230 may store information input to or output from the server 200.

프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 220 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), controllers, and microcontrollers. It may be implemented using at least one of micro-controllers, microprocessors, and other electrical units for performing functions.

DB(230)는 프로세서(220)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 가상 공간을 생성하고; 상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력하고; 상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공하고; 그리고 상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하도록 설정되고, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상일 수 있다.DB 230 may store at least one command executed through processor 220. At least one instruction creates a virtual space; A first avatar corresponding to a first user terminal accessing the virtual space is created, a second avatar corresponding to a second user terminal accessing the virtual space is created, and the first and second avatars are created in the virtual space. output to; A first image of the virtual space as seen by the first avatar is provided to the first user terminal, and a second image of the virtual space as seen by the second avatar is provided to the second user terminal. provide; And when the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar, the first user image obtained from the first user terminal is set to be output together with the first avatar, and the first user image may be a 2D image facing the direction the first avatar is looking.

여기서, 상기 적어도 하나의 명령은, 상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하되, 상기 제1 노출 범위는 상기 제1 아바타의 정면을 기준으로 제1 노출 시야각 내의 제1 노출 거리 내로 설정되고, 상기 제1 인식 범위는 상기 제1 아바타의 정면을 기준으로 제1 인식 시야각 내의 제1 인식 거리 내로 설정되도록 설정될 수 있다.Here, the at least one command sets the first exposure range and the first recognition range for the first avatar, where the first exposure range is within the first exposure viewing angle based on the front of the first avatar. 1 exposure distance, and the first recognition range may be set to be set to be within a first recognition distance within the first recognition viewing angle based on the front of the first avatar.

여기서, 상기 적어도 하나의 명령은, 상기 제1 사용자 단말로부터 상기 제1 노출 시야각, 상기 제1 노출 거리, 상기 제1 인식 시야각, 및 상기 제1 인식 거리에 관련된 정보를 획득하고; 상기 제1 노출 시야각 및 상기 제1 노출 거리를 기초로 상기 제1 노출 범위를 결정하고; 상기 제1 인식 시야각 및 상기 제1 인식 거리를 기초로 상기 제1 인식 범위를 결정하도록 더 설정될 수 있다.Here, the at least one command includes obtaining information related to the first exposure viewing angle, the first exposure distance, the first recognition viewing angle, and the first recognition distance from the first user terminal; determine the first exposure range based on the first exposure viewing angle and the first exposure distance; It may be further set to determine the first recognition range based on the first recognition viewing angle and the first recognition distance.

여기서, 상기 제1 노출 범위는, 상기 제2 아바타가 상기 제1 노출 범위에 존재할 때 상기 제2 아바타의 상기 제2 인식 범위 내에 상기 제1 아바타가 존재하면 상기 제1 사용자 영상이 상기 제2 영상에 노출되는 범위이고, 상기 제1 인식 범위는, 상기 제1 아바타가 상기 제2 아바타의 제2 노출 범위에 존재할 때 상기 제1 아바타의 상기 제1 인식 범위 내에 상기 제2 아바타가 존재하면 상기 제2 사용자 영상이 상기 제1 영상에 노출되는 범위일 수 있다.Here, the first exposure range means that when the second avatar exists in the first exposure range and the first avatar exists within the second recognition range of the second avatar, the first user image is displayed as the second image. is a range exposed to, and the first recognition range is when the first avatar exists in the second exposure range of the second avatar and the second avatar exists within the first recognition range of the first avatar. 2 This may be the range where the user image is exposed to the first image.

여기서, 상기 제1 사용자 영상 및 상기 제2 사용자 영상은 상기 제1 사용자 단말 및 상기 제2 사용자 단말로부터 실시간으로 스트리밍되는 영상일 수 있다.Here, the first user video and the second user video may be images streamed in real time from the first user terminal and the second user terminal.

여기서, 상기 제1 사용자 영상은 상기 제1 아바타의 얼굴 측면에 노출될 수 있다.Here, the first user image may be exposed on the side of the face of the first avatar.

도 3은 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버의 동작 방법의 일 실시예를 도시한 도면이다.Figure 3 is a diagram illustrating an embodiment of a method of operating a virtual reality-based metaverse user-to-user communication service providing server.

도 3을 참조하면, 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 서버(이하, 서버)는 가상 공간을 생성할 수 있다(S300). 예를 들어, 서버는 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하기 위한 가상 공간을 생성할 수 있다.Referring to FIG. 3, a virtual reality-based metaverse user-to-user communication service providing server (hereinafter referred to as server) can create a virtual space (S300). For example, the server can create a virtual space to provide communication services between virtual reality-based Metaverse users.

서버는 아바타를 생성 및 출력할 수 있다(S310). 예를 들어, 서버는 상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력할 수 있다.The server can create and output an avatar (S310). For example, the server generates a first avatar corresponding to a first user terminal connecting to the virtual space, and creates a second avatar corresponding to a second user terminal connecting to the virtual space, so that the first and 2 The avatar can be output to the virtual space.

예를 들어, 제1 아바타와 제2 아바타는 각 사용자 단말로부터 사용자 정보를 획득하여 사용자 정보를 기초로 생성될 수 있다. 제1 아바타와 제2 아바타는 3D 가상 공간 상에 생성된 3D 캐릭터일 수 있다.For example, the first avatar and the second avatar may be created based on user information by obtaining user information from each user terminal. The first avatar and the second avatar may be 3D characters created in a 3D virtual space.

서버는 각 사용자 단말에 아바타 시점의 영상을 제공할 수 있다(S320). 예를 들어, 서버는 상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공할 수 있다.The server may provide images from the avatar's perspective to each user terminal (S320). For example, the server provides the first user terminal with a first image of the virtual space from the viewpoint of the first avatar, and provides the second user terminal with the virtual space from the viewpoint of the second avatar. A second image of space can be provided.

즉, 제1 사용자 단말에는 제1 아바타가 바라보는 1인칭 시점의 영상이 제공될 수 있고, 제2 사용자 단말에는 제2 아바타가 바라보는 1인칭 시점의 영상이 제공될 수 있다.That is, the first user terminal may be provided with an image from a first-person perspective viewed by the first avatar, and the second user terminal may be provided with an image from a first-person perspective viewed by the second avatar.

서버는 인식 범위 및 노출 범위를 설정할 수 있다(S330). 예를 들어, 서버는 상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하되, 상기 제1 노출 범위는 상기 제1 아바타의 정면을 기준으로 제1 노출 시야각 내의 제1 노출 거리 내로 설정되고, 상기 제1 인식 범위는 상기 제1 아바타의 정면을 기준으로 제1 인식 시야각 내의 제1 인식 거리 내로 설정될 수 있다.The server can set the recognition range and exposure range (S330). For example, the server sets the first exposure range and the first recognition range for the first avatar, and the first exposure range is a first exposure distance within the first exposure viewing angle based on the front of the first avatar. is set within, and the first recognition range may be set within a first recognition distance within the first recognition viewing angle based on the front of the first avatar.

예를 들어, 상기 서버가 상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하는 단계는 다음과 같이 수행될 수 있다.For example, the step of the server setting the first exposure range and first recognition range for the first avatar may be performed as follows.

서버는 상기 제1 사용자 단말로부터 상기 제1 노출 시야각, 상기 제1 노출 거리, 상기 제1 인식 시야각, 및 상기 제1 인식 거리에 관련된 정보를 획득할 수 있다.The server may obtain information related to the first exposure viewing angle, the first exposure distance, the first recognition viewing angle, and the first recognition distance from the first user terminal.

서버는 상기 제1 노출 시야각 및 상기 제1 노출 거리를 기초로 상기 제1 노출 범위를 결정할 수 있다.The server may determine the first exposure range based on the first exposure viewing angle and the first exposure distance.

서버는 상기 제1 인식 시야각 및 상기 제1 인식 거리를 기초로 상기 제1 인식 범위를 결정할 수 있다.The server may determine the first recognition range based on the first recognition viewing angle and the first recognition distance.

예를 들어, 상기 제1 노출 범위는, 상기 제2 아바타가 상기 제1 노출 범위에 존재할 때 상기 제2 아바타의 상기 제2 인식 범위 내에 상기 제1 아바타가 존재하면 상기 제1 사용자 영상이 상기 제2 영상에 노출되는 범위일 수 있다.For example, the first exposure range is such that when the second avatar exists in the first exposure range and the first avatar exists within the second recognition range of the second avatar, the first user image is displayed in the first exposure range. 2 This may be the range exposed to the video.

예를 들어, 상기 제1 인식 범위는, 상기 제1 아바타가 상기 제2 아바타의 제2 노출 범위에 존재할 때 상기 제1 아바타의 상기 제1 인식 범위 내에 상기 제2 아바타가 존재하면 상기 제2 사용자 영상이 상기 제1 영상에 노출되는 범위일 수 있다.For example, the first recognition range is, when the first avatar exists in the second exposure range of the second avatar and the second avatar exists within the first recognition range of the first avatar, the second user This may be the range in which the image is exposed to the first image.

예를 들어, 상기 제1 사용자 영상 및 상기 제2 사용자 영상은 상기 제1 사용자 단말 및 상기 제2 사용자 단말로부터 실시간으로 스트리밍되는 영상일 수 있다.For example, the first user video and the second user video may be images streamed in real time from the first user terminal and the second user terminal.

도 4 및 도 5는 본 발명의 일 실시예에 따른 노출 범위 및 인식 범위를 도시한 도면이다.Figures 4 and 5 are diagrams showing the exposure range and recognition range according to an embodiment of the present invention.

도 4를 참조하면, 제1 사용자는 제1 인식 거리 및 제1 인식 시야각을 기초로한 제1 인식 범위를 가질 수 있다. 즉, 제1 사용자는 제1 인식 범위 내에 있는 사용자가 존재한다면, 해당 사용자의 노출 범위 안에 제1 사용자가 존재하면 제1 사용자는 해당 사용자 영상을 제공받을 수 있다. 다만, 도 4에서 제1 사용자의 제1 인식 범위 내에 사용자가 존재하지 않기 때문에 제1 사용자는 다른 사용자의 사용자 영상을 획득할 수 없다.Referring to FIG. 4, the first user may have a first recognition range based on the first recognition distance and the first recognition viewing angle. That is, if there is a user within the first recognition range, the first user can be provided with the user's image if there is a first user within the exposure range of the user. However, in FIG. 4, since there is no user within the first recognition range of the first user, the first user cannot obtain the user image of another user.

제1 사용자는 제1 노출 거리 및 제1 노출 시야각을 기초로 한 제1 노출 범위를 가질 수 있다. 즉, 서버는 제1 노출 범위 내에 있는 사용자 중, 해당 사용자의 인식 범위에 제1 사용자가 존재하는 경우, 해당 사용자에게 제1 사용자의 제1 사용자 영상을 제공할 수 있다. 도 4에서 제2 사용자가 제1 사용자의 제1 노출 범위 내에 존재하므로, 제1 사용자가 제2 사용자의 인식 범위 내에 존재한다면, 제2 사용자에게 제1 사용자 영상이 노출될 수 있다.The first user may have a first exposure range based on the first exposure distance and the first exposure viewing angle. That is, if the first user exists in the recognition range of the user among the users within the first exposure range, the server may provide the first user image of the first user to the user. In FIG. 4, since the second user exists within the first exposure range of the first user, if the first user exists within the recognition range of the second user, the first user's image may be exposed to the second user.

도 5를 참조하면, 제1 사용자는 제2 인식 거리 및 제2 인식 시야각을 기초로한 제2 인식 범위를 가질 수 있다. 즉, 제2 사용자는 제2 인식 범위 내에 있는 사용자가 존재한다면, 해당 사용자의 노출 범위 안에 제2 사용자가 존재하면 제2 사용자는 해당 사용자 영상을 제공받을 수 있다. 도 5에서 제2 사용자의 제2 인식 범위 내에 제1 사용자가 존재하고, 도 4를 기초로 제2 사용자가 제1 사용자의 노출 범위 내에 존재하기 때문에, 서버는 제2 사용자에게 제1 사용자 영상을 제공할 수 있다.Referring to FIG. 5, the first user may have a second recognition range based on the second recognition distance and the second recognition viewing angle. That is, if there is a user within the second recognition range, the second user can be provided with the user's image if there is a second user within the exposure range of the user. Since the first user exists within the second recognition range of the second user in FIG. 5 and the second user exists within the exposure range of the first user based on FIG. 4, the server displays the first user image to the second user. can be provided.

제2 사용자는 제2 노출 거리 및 제2 노출 시야각을 기초로 한 제2 노출 범위를 가질 수 있다. 즉, 서버는 제2 노출 범위 내에 있는 사용자 중, 해당 사용자의 인식 범위에 제2 사용자가 존재하는 경우, 해당 사용자에게 제2 사용자의 제2 사용자 영상을 제공할 수 있다. 도 5에서 제2 사용자가 노출 범위에 어떤 사용자도 존재하지 않으므로, 어떤 사용자에게도 제2 사용자 영상은 제공되지 않을 수 있다.The second user may have a second exposure range based on the second exposure distance and the second exposure viewing angle. That is, if a second user exists in the recognition range of the user among the users within the second exposure range, the server may provide the second user image of the second user to the user. In FIG. 5 , since no user exists in the exposure range of the second user, the second user image may not be provided to any user.

다시 도 3을 참조하면, 서버는 사용자 영상을 제공할 수 있다(S340). 예를 들어, 서버는 상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하되, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상일 수 있다.Referring again to FIG. 3, the server may provide a user image (S340). For example, the server obtains information from the first user terminal when the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar. A first user image is output together with the first avatar, and the first user image may be a 2D image facing in the direction the first avatar is looking.

도 6 및 도 7은 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법의 일 실시예를 도시한 도면이다.Figures 6 and 7 are diagrams illustrating an embodiment of a method of providing communication services between virtual reality-based metaverse users.

도 6 및 도 7을 참조하면, 사용자들이 서로의 노출 범위 및 인식 범위에 들어온 경우, 각 아바타의 측면에 사용자 영상이 노출될 수 있다. 사용자 영상은 각 사용자 단말로부터 실시간으로 획득되는 영상(예를 들어, 사용자의 얼굴을 촬영하는 영상)일 수 있다.Referring to Figures 6 and 7, when users come into each other's exposure and recognition ranges, user images may be exposed on the side of each avatar. The user image may be an image acquired in real time from each user terminal (for example, an image capturing the user's face).

사용자들은 실제 상대방의 얼굴을 보면서 상호 커뮤니케이션을 수행할 수 있으므로, 더욱 실감나는 소통을 수행할 수 있다. 또한, 상호 노출되는 영역을 설정할 수 있으므로, 자신의 얼굴이 노출은 되지만 다른 사람들의 얼굴을 모두 보기는 어려운 일대다 커뮤니케이션(예를 들어, 강의 등)의 경우에는 자신의 노출 범위는 크게 설정하고, 인식 범위는 좁게 설정할 수 있다.Since users can communicate with each other while actually seeing the other person's face, they can communicate more realistically. In addition, you can set mutual exposure areas, so in the case of one-to-many communication (e.g., lectures, etc.) where your face is exposed but it is difficult to see all other people's faces, you can set your exposure range to be large. The recognition range can be set narrowly.

예를 들어, 자신의 얼굴을 노출시키기는 싫지만 여러 사람들의 얼굴을 보고 싶은 경우에는 자신의 인식 범위는 크게 설정하고, 노출 범위는 좁게 설정할 수 있다.For example, if you do not want to expose your face, but want to see the faces of many people, you can set your recognition range to be large and your exposure range to be narrow.

이를 통해, 실제 상황에서와 같이 커뮤니케이션이 수행될 수 있을 만한 공간에서 아바타들이 존재할 때 커뮤니케이션이 수행되는 현실적인 커뮤니케이션 서비스가 제공될 수 있고, 자신의 프라이버시도 보호할 수 있으며 상황에 맞는 커뮤니케이션 방법이 때에 따라 적합하게 제공될 수 있는 효과가 있다.Through this, a realistic communication service can be provided in which communication is performed when avatars exist in a space where communication can be performed as in a real situation, one's privacy can also be protected, and a communication method appropriate to the situation can be provided depending on the situation. There is an effect that can be provided appropriately.

도 8은 본 발명의 일 실시예에 따른 사용자 영상을 도시한 도면이다.Figure 8 is a diagram illustrating a user image according to an embodiment of the present invention.

도 8을 참조하면, 예를 들어, 서버는 여러 인물이 포함된 사용자 영상을 획득할 수 있다. 서버는 사용자 단말로부터 획득한 사용자 영상에 여러 인물이 포함되는 경우, 획득한 사용자 영상으로부터 특정 인물만을 포함하는 사용자 영상을 추출할 수 있고, 추출한 사용자 영상을 아바타의 측면에 노출하는 사용자 영상으로 사용할 수 있다. 즉, 서버가 사용자 단말로부터 획득하는 사용자 영상과 서버가 제공하는 사용자 영상은 다를 수 있다. 서버가 제공하는 사용자 영상은 서버가 사용자 단말로부터 획득한 영상의 일부를 포함할 수 있다.Referring to FIG. 8, for example, the server may obtain a user image containing several people. If the user image acquired from the user terminal includes several people, the server can extract a user image containing only specific people from the acquired user image, and use the extracted user image as a user image exposed on the side of the avatar. there is. That is, the user image that the server obtains from the user terminal and the user image that the server provides may be different. The user video provided by the server may include part of the video acquired by the server from the user terminal.

예를 들어, 획득한 사용자 영상에 여러 인물이 존재하는 경우, 서버는 우선 인물들을 인식할 수 있다. 여러 인물이 인식되는 경우, 서버는 여러 인물들 중 화면의 가장 중심에 인접한 인물을 사용자로 간주하고, 사용자로 간주되는 인물만을 포함하도록 사용자 영상을 추출할 수 있다(예를 들어, 점선 영역).For example, if there are multiple people in the acquired user image, the server can first recognize the people. When multiple people are recognized, the server may consider the person closest to the center of the screen among the multiple people as the user, and extract the user image to include only the person considered to be the user (for example, a dotted line area).

예를 들어, 획득한 사용자 영상에 여러 인물이 존재하는 경우, 서버는 미리 획득된 사용자 이미지와 일치하는 인물을 사용자로 간주하고, 사용자로 간주되는 인물만을 포함하는 사용자 영상을 추출할 수 있다. 즉, 서버는 사전에 사용자 이미지를 사용자 단말로부터 획득할 수 있고, 해당 사용자 이미지와 일치하는 인물을 사용자로 간주할 수 있다.For example, if several people exist in the acquired user image, the server may consider the person matching the pre-acquired user image as the user and extract a user image containing only the people considered to be the user. In other words, the server can obtain a user image from the user terminal in advance, and can regard a person matching the user image as a user.

예를 들어, 획득한 사용자 영상에 인물이 상기 사용자 영상의 중앙에 위치하지 않는 경우, 서버는 인물(즉, 사용자)이 화면의 중앙에 위치하도록 사용자 중심의 영상을 추출하여 사용자 영상으로 사용할 수 있다.For example, if the person in the acquired user image is not located in the center of the user image, the server can extract the user-centered image so that the person (i.e., the user) is located in the center of the screen and use it as the user image. .

도 3의 일례에 표시된 세부 단계 중 일부는 필수 단계가 아닐 수 있고, 생략될 수 있다. 도 3에 도시된 단계 외에 다른 단계가 추가될 수 있고, 상기 단계들의 순서는 달라질 수 있다. 상기 단계들 중 일부 단계가 독자적 기술적 의미를 가질 수 있다.Some of the detailed steps shown in the example of FIG. 3 may not be essential steps and may be omitted. Other steps may be added in addition to those shown in FIG. 3, and the order of the steps may vary. Some of the above steps may have their own technical meaning.

본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.Operations according to embodiments of the present specification can be implemented as a computer-readable program or code on a computer-readable recording medium. Computer-readable recording media include all types of recording devices that store data that can be read by a computer system. Additionally, computer-readable recording media can be distributed across networked computer systems so that computer-readable programs or codes can be stored and executed in a distributed manner.

실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.When the embodiment is implemented in software, the above-described techniques may be implemented as modules (processes, functions, etc.) that perform the above-described functions. Modules are stored in memory and can be executed by a processor. Memory may be internal or external to the processor and may be connected to the processor by a variety of well-known means.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Additionally, computer-readable recording media may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Program instructions may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter, etc.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the invention have been described in the context of an apparatus, it may also refer to a corresponding method description, where a block or device corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also be represented by corresponding blocks or items or features of a corresponding device. Some or all of the method steps may be performed by (or using) a hardware device, such as a microprocessor, programmable computer, or electronic circuit, for example. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (e.g., a field programmable gate array) may be used to perform some or all of the functionality of the methods described herein. In embodiments, a field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. In general, the methods are preferably performed by some hardware device.

상술한 다양한 실시예들은 그 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 다양한 실시예들의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 다양한 실시예들의 등가적 범위 내에서의 모든 변경은 다양한 실시예들의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The various embodiments described above may be embodied in other specific forms without departing from the technical idea and essential features. Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the various embodiments should be determined by a reasonable interpretation of the appended claims, and all changes within the equivalent scope of the various embodiments are included in the scope of the various embodiments. In addition, claims that do not have an explicit reference relationship in the patent claims can be combined to form an embodiment or included as a new claim through amendment after filing.

Claims (5)

적어도 하나의 서버에 의해 수행되는 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스를 제공하는 방법에 있어서,
가상 공간을 생성하는 단계;
상기 가상 공간에 접속하는 제1 사용자 단말에 대응하는 제1 아바타를 생성하고, 상기 가상 공간에 접속하는 제2 사용자 단말에 대응하는 제2 아바타를 생성하여 상기 제1 및 제2 아바타를 상기 가상 공간에 출력하는 단계;
상기 제1 사용자 단말에게 상기 제1 아바타가 바라보는 시점의 상기 가상 공간에 대한 제1 영상을 제공하고, 상기 제2 사용자 단말에게 상기 제2 아바타가 바라보는 시점의 상기 가상 공간에 대한 제2 영상을 제공하는 단계; 및
상기 제1 아바타의 제1 노출 범위 내에 상기 제2 아바타가 존재하고, 상기 제1 아바타가 상기 제2 아바타의 제2 인식 범위 내에 존재하는 경우, 상기 제1 사용자 단말로부터 획득하는 제1 사용자 영상을 상기 제1 아바타와 함께 출력하되, 상기 제1 사용자 영상은 상기 제1 아바타가 바라보는 방향을 향하는 2D 영상인, 단계를 포함하는,
가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법.
In a method of providing a virtual reality-based metaverse user-to-user communication service performed by at least one server,
creating a virtual space;
A first avatar corresponding to a first user terminal accessing the virtual space is created, a second avatar corresponding to a second user terminal accessing the virtual space is created, and the first and second avatars are created in the virtual space. output to;
A first image of the virtual space as seen by the first avatar is provided to the first user terminal, and a second image of the virtual space as seen by the second avatar is provided to the second user terminal. providing a; and
If the second avatar exists within the first exposure range of the first avatar and the first avatar exists within the second recognition range of the second avatar, the first user image obtained from the first user terminal Outputting together with the first avatar, wherein the first user image is a 2D image facing in the direction the first avatar looks,
A method of providing communication services between virtual reality-based Metaverse users.
청구항 1에 있어서,
상기 서버는,
상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하되,
상기 제1 노출 범위는 상기 제1 아바타의 정면을 기준으로 제1 노출 시야각 내의 제1 노출 거리 내로 설정되고,
상기 제1 인식 범위는 상기 제1 아바타의 정면을 기준으로 제1 인식 시야각 내의 제1 인식 거리 내로 설정되는 단계를 더 포함하는,
가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법.
In claim 1,
The server is,
Set the first exposure range and first recognition range for the first avatar,
The first exposure range is set within a first exposure distance within the first exposure viewing angle based on the front of the first avatar,
The first recognition range further includes setting a first recognition distance within a first recognition viewing angle based on the front of the first avatar,
A method of providing communication services between virtual reality-based Metaverse users.
청구항 2에 있어서,
상기 서버가,
상기 제1 아바타에 대한 상기 제1 노출 범위 및 제1 인식 범위를 설정하는 단계는,
상기 제1 사용자 단말로부터 상기 제1 노출 시야각, 상기 제1 노출 거리, 상기 제1 인식 시야각, 및 상기 제1 인식 거리에 관련된 정보를 획득하는 단계;
상기 제1 노출 시야각 및 상기 제1 노출 거리를 기초로 상기 제1 노출 범위를 결정하는 단계;
상기 제1 인식 시야각 및 상기 제1 인식 거리를 기초로 상기 제1 인식 범위를 결정하는 단계를 더 포함하는,
가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법.
In claim 2,
The server,
The step of setting the first exposure range and first recognition range for the first avatar includes:
Obtaining information related to the first exposure viewing angle, the first exposure distance, the first recognition viewing angle, and the first recognition distance from the first user terminal;
determining the first exposure range based on the first exposure viewing angle and the first exposure distance;
Further comprising determining the first recognition range based on the first recognition viewing angle and the first recognition distance,
A method of providing communication services between virtual reality-based Metaverse users.
청구항 3에 있어서,
상기 제1 노출 범위는, 상기 제2 아바타가 상기 제1 노출 범위에 존재할 때 상기 제2 아바타의 상기 제2 인식 범위 내에 상기 제1 아바타가 존재하면 상기 제1 사용자 영상이 상기 제2 영상에 노출되는 범위이고,
상기 제1 인식 범위는, 상기 제1 아바타가 상기 제2 아바타의 제2 노출 범위에 존재할 때 상기 제1 아바타의 상기 제1 인식 범위 내에 상기 제2 아바타가 존재하면 상기 제2 사용자 영상이 상기 제1 영상에 노출되는 범위인,
가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법.
In claim 3,
The first exposure range is such that when the second avatar exists in the first exposure range and the first avatar exists within the second recognition range of the second avatar, the first user image is exposed to the second image. It is within the range,
The first recognition range is defined as the second user image when the first avatar exists in the second exposure range of the second avatar and the second avatar exists within the first recognition range of the first avatar. 1 The range exposed to video,
A method of providing communication services between virtual reality-based Metaverse users.
청구항 4에 있어서,
상기 제1 사용자 영상 및 상기 제2 사용자 영상은 상기 제1 사용자 단말 및 상기 제2 사용자 단말로부터 실시간으로 스트리밍되는 영상인,
가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법.
In claim 4,
The first user video and the second user video are videos streamed in real time from the first user terminal and the second user terminal,
A method of providing communication services between virtual reality-based Metaverse users.
KR1020220039452A 2022-03-30 2022-03-30 Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality KR102684394B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220039452A KR102684394B1 (en) 2022-03-30 2022-03-30 Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220039452A KR102684394B1 (en) 2022-03-30 2022-03-30 Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality

Publications (2)

Publication Number Publication Date
KR20230140783A true KR20230140783A (en) 2023-10-10
KR102684394B1 KR102684394B1 (en) 2024-07-12

Family

ID=88292423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220039452A KR102684394B1 (en) 2022-03-30 2022-03-30 Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality

Country Status (1)

Country Link
KR (1) KR102684394B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063601A (en) * 2000-08-15 2002-02-28 Shinji Shimojo Virtual space system
KR101793463B1 (en) * 2016-04-19 2017-11-03 김창범 Picture image and business card information mapping method
KR20210146193A (en) * 2020-05-26 2021-12-03 주식회사 빌리버 Remote-class providing method using virtual reality

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063601A (en) * 2000-08-15 2002-02-28 Shinji Shimojo Virtual space system
KR101793463B1 (en) * 2016-04-19 2017-11-03 김창범 Picture image and business card information mapping method
KR20210146193A (en) * 2020-05-26 2021-12-03 주식회사 빌리버 Remote-class providing method using virtual reality

Also Published As

Publication number Publication date
KR102684394B1 (en) 2024-07-12

Similar Documents

Publication Publication Date Title
US20200201490A1 (en) Providing content via multiple display devices
US9936335B2 (en) Mobile computing device application sharing
US10397320B2 (en) Location based synchronized augmented reality streaming
US20210056762A1 (en) Design and generation of augmented reality experiences for structured distribution of content based on location-based triggers
WO2019062606A1 (en) Overlay comment information display method, providing method, and apparatus
US20180342105A1 (en) Augmented reality-based information acquiring method and apparatus
KR101769852B1 (en) System for mediating real estate trading using dron
CN111970571B (en) Video production method, device, equipment and storage medium
CN112995759A (en) Interactive service processing method, system, device, equipment and storage medium
JP2017073136A (en) Method and system for extending function of message in communication session
US11343468B2 (en) Method, system, and non-transitory computer readable record medium for providing communication using video call bot
US11343577B2 (en) Electronic device and method of providing content therefor
JP2023522266A (en) Method, apparatus, device and medium for multimedia data delivery
KR101413794B1 (en) Edutainment contents mobile terminal using augmented reality and method for controlling thereof
WO2018000620A1 (en) Method and apparatus for data presentation, virtual reality device, and play controller
CN112969093A (en) Interactive service processing method, device, equipment and storage medium
US20190164323A1 (en) Method and program for generating virtual reality contents
US20170185422A1 (en) Method and system for generating and controlling composite user interface control
CN113490006A (en) Live broadcast interaction method and equipment based on bullet screen
KR102225175B1 (en) Method and system for navigation using video call
CN110908752A (en) Control setting method and device, electronic equipment and interaction system
CN114489891A (en) Control method, system, device, readable medium and equipment of cloud application program
KR102684394B1 (en) Method and apparatus for providing communication service betweeen users of metaverse based on virtual reality
CN109636922B (en) Method and device for presenting augmented reality content
CN109636917B (en) Three-dimensional model generation method, device and hardware device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant