KR102484313B1 - 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템 - Google Patents

메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템 Download PDF

Info

Publication number
KR102484313B1
KR102484313B1 KR1020220046006A KR20220046006A KR102484313B1 KR 102484313 B1 KR102484313 B1 KR 102484313B1 KR 1020220046006 A KR1020220046006 A KR 1020220046006A KR 20220046006 A KR20220046006 A KR 20220046006A KR 102484313 B1 KR102484313 B1 KR 102484313B1
Authority
KR
South Korea
Prior art keywords
user
character
avatar
metaverse
user terminal
Prior art date
Application number
KR1020220046006A
Other languages
English (en)
Inventor
백종엽
Original Assignee
주식회사 에이알스케치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이알스케치 filed Critical 주식회사 에이알스케치
Priority to KR1020220046006A priority Critical patent/KR102484313B1/ko
Application granted granted Critical
Publication of KR102484313B1 publication Critical patent/KR102484313B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에 관한 것으로서, 보다 구체적으로는 캐릭터 애플리케이션을 설치한 사용자 단말기; 메타버스 플랫폼을 운영하며, 상기 메타버스 플랫폼에서 사용자 아바타를 생성하고 제어하는 메타버스 서버; 및 사용자 단말기의 위치 정보를 기초로, 제1 사용자 단말기의 뷰 필드를 통해 보이는 실제 세계의 제2 사용자의 캐릭터를 상기 제1 사용자 단말기에 제공하는 캐릭터 제공 서버를 포함하며, 상기 제1 사용자 단말기에 설치된 제1 캐릭터 애플리케이션은, 상기 제1 사용자 단말기의 뷰 필드를 통해 실제 세계와 함께 영상 정보를 증강현실로 제공하되, 상기 뷰 필드를 통해 보이는 실제 세계의 제2 사용자 주변에 상기 캐릭터 제공 서버로부터 수신한 상기 제2 사용자의 캐릭터를 영상 정보로 표시하여 증강현실로 제공하며, 상기 캐릭터 제공 서버는, 사용자의 캐릭터를 저장하는 데이터베이스부; 상기 메타버스 서버의 사용자 아바타와 상기 데이터베이스부에 저장된 사용자의 캐릭터를 연동하는 연동부; 상기 캐릭터 또는 아바타의 노출 정보를 설정 및 관리하는 노출 관리부; 상기 사용자 단말기의 위치 정보를 기초로, 제1 사용자와 매칭되는 제2 사용자를 검색하는 매칭부; 및 상기 제2 사용자의 노출 정보에 따라, 상기 매칭부에서 검색된 제2 사용자의 캐릭터 및 아바타 중 적어도 하나를 상기 제1 사용자 단말기에 제공하는 캐릭터 제공부를 포함하여, 상기 메타버스 플랫폼의 아바타와 캐릭터 애플리케이션의 캐릭터를 연동해 제공하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에 따르면, 메타버스 플랫폼의 사용자 아바타와 사용자 단말기의 위치 정보를 기초로 증강현실로 제공되는 사용자 캐릭터를 연동해, 메타버스의 아바타를 사용자 주변에 증강현실 기반으로 출력해 제공함으로써, 현실 공간의 사용자 곁에 메타버스의 아바타가 존재하는 것처럼 제공되어, 현실 세계와 가상 세계를 효과적으로 통합할 수 있다.

Description

메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템{INTERWORKING SYSTEM BETWEEN METAVERSE AVATARS AND LOCATION-BASED AUGMENTED REALITY CHARACTERS}
본 발명은 연동 시스템에 관한 것으로서, 보다 구체적으로는 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에 관한 것이다.
증강현실(Augmented Reality, AR)은 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강현실을 활용하면 자칫 무료하게 보일 수 있는 현실 세계에 각종 특수 효과를 내는 가상현실 이벤트를 적용해서 사용자로 하여금 색다른 경험을 할 수 있도록 한다.
한편, 메타버스는 현실 세계와 같은 사회, 경제, 문화 활동이 이뤄지는 3차원 가상 세계를 일컫는 말로, 가공, 추상을 의미하는 '메타(Meta)'와 현실 세계를 의미하는 '유니버스(Universe)'의 합성어이다. 메타버스는 기존의 가상현실 환경(Virtual reality environment)이라는 용어보다 진보된 개념으로서, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회·문화적 활동을 할 수 있다는 특징이 있다.
최근 정보통신기술의 발달과 비대면 온라인 추세 가속화로 메타버스가 크게 주목받고 있다. 신규 브랜드나 상품의 홍보, 콘서트, 회의, 학교 축제 등을 메타버스 플랫폼에서 진행하기도 하고, 사무실을 메타버스로 구현하기도 한다.
이러한 메타버스 플랫폼에서 사용자는 아바타를 사용해 플랫폼에 입장하고 활동하게 된다. 즉, 아바타는 메타버스 플랫폼에서 사용자를 나타내는 분신에 해당하는데, 사무 공간, 회의, 수업 등 실제 현실과 같은 활동이 이뤄지는 최근의 메타버스 특성상, 사용자의 분신으로서의 아바타의 의미는 더욱 커지게 된다.
그러나 현실과 가상 세계가 통합되는 메타버스의 개념에 비하여, 메타버스 플랫폼에서 사용자의 분신 역할을 하는 아바타를 실제 현실과 가상 세계를 통합해 제공하는 기술에 대해서는 개발된 바가 없는 실정이다.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 메타버스 플랫폼의 사용자 아바타와 사용자 단말기의 위치 정보를 기초로 증강현실로 제공되는 사용자 캐릭터를 연동해, 메타버스의 아바타를 사용자 주변에 증강현실 기반으로 출력해 제공함으로써, 현실 공간의 사용자 곁에 메타버스의 아바타가 존재하는 것처럼 제공되어, 현실 세계와 가상 세계를 효과적으로 통합할 수 있는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템을 제공하는 것을 그 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템은,
캐릭터 애플리케이션을 설치한 사용자 단말기;
메타버스 플랫폼을 운영하며, 상기 메타버스 플랫폼에서 사용자 아바타를 생성하고 제어하는 메타버스 서버; 및
사용자 단말기의 위치 정보를 기초로, 제1 사용자 단말기의 뷰 필드를 통해 보이는 실제 세계의 제2 사용자의 캐릭터를 상기 제1 사용자 단말기에 제공하는 캐릭터 제공 서버를 포함하며,
상기 제1 사용자 단말기에 설치된 제1 캐릭터 애플리케이션은,
상기 제1 사용자 단말기의 뷰 필드를 통해 실제 세계와 함께 영상 정보를 증강현실로 제공하되, 상기 뷰 필드를 통해 보이는 실제 세계의 제2 사용자 주변에 상기 캐릭터 제공 서버로부터 수신한 상기 제2 사용자의 캐릭터를 영상 정보로 표시하여 증강현실로 제공하며,
상기 캐릭터 제공 서버는,
사용자의 캐릭터를 저장하는 데이터베이스부;
상기 메타버스 서버의 사용자 아바타와 상기 데이터베이스부에 저장된 사용자의 캐릭터를 연동하는 연동부;
상기 캐릭터 또는 아바타의 노출 정보를 설정 및 관리하는 노출 관리부;
상기 사용자 단말기의 위치 정보를 기초로, 제1 사용자와 매칭되는 제2 사용자를 검색하는 매칭부; 및
상기 제2 사용자의 노출 정보에 따라, 상기 매칭부에서 검색된 제2 사용자의 캐릭터와 연동된 제2 아바타를 상기 제1 사용자 단말기에 제공하는 캐릭터 제공부를 포함하여,
상기 메타버스 플랫폼의 아바타와 캐릭터 애플리케이션의 캐릭터를 연동해 제공하는 것을 그 구성상의 특징으로 한다.
바람직하게는, 상기 노출 정보는,
다른 사용자에 대한 아바타의 노출 여부, 노출을 허용하는 사용자 범위, 노출할 캐릭터 또는 아바타의 선택, 및 노출 시 아바타 설정을 포함하는 군에서 선택된 적어도 하나 이상일 수 있다.
바람직하게는, 상기 제1 캐릭터 애플리케이션은,
상기 캐릭터 또는 아바타의 표시 정보를 설정 및 저장하고, 제1 사용자의 표시 정보에 따라 상기 캐릭터 제공 서버로부터 수신한 상기 제2 아바타를 표시할 수 있다.
바람직하게는, 상기 메타버스 서버는,
상기 캐릭터 제공 서버의 사용자의 캐릭터를 상기 메타버스 플랫폼에서 사용자 아바타로 연동해 사용하도록 상기 캐릭터 제공 서버의 연동부와 통신할 수 있다.
바람직하게는, 상기 매칭부는,
상기 사용자 단말기의 위치, 방향 및 고도를 포함하는 위치 정보를 이용해, 상기 제1 사용자 단말기와 미리 정해진 거리 이내에서, 상기 제1 사용자 단말기가 향하는 방향 및 상기 제1 사용자 단말기의 고도와 대응되는 고도에 위치한 제2 사용자 단말기를 검색하고, 제1 사용자와 제2 사용자를 매칭할 수 있다.
더욱 바람직하게는, 상기 매칭부는,
상기 제1 사용자 단말기로부터 뷰 필드를 촬영한 영상을 수신하고, 수신한 영상을 분석해 제2 사용자를 검출해 매칭할 수 있다.
바람직하게는, 상기 제1 사용자 단말기는,
상기 뷰 필드를 통해 보이는 실제 세계의 제2 사용자를 실시간으로 검출해 트래킹하여, 상기 캐릭터 제공 서버로부터 수신한 제2 사용자 아바타를 상기 트래킹되는 제2 사용자의 주변에 증강현실로 표시할 수 있다.
더욱 바람직하게는, 상기 제1 캐릭터 애플리케이션은,
상기 제1 사용자 단말기의 뷰 필드 내의 상기 트래킹되는 제2 사용자의 크기에 따라 상기 제2 사용자 아바타 크기를 조절하여 표시할 수 있다.
본 발명에서 제안하고 있는 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에 따르면, 메타버스 플랫폼의 사용자 아바타와 사용자 단말기의 위치 정보를 기초로 증강현실로 제공되는 사용자 캐릭터를 연동해, 메타버스의 아바타를 사용자 주변에 증강현실 기반으로 출력해 제공함으로써, 현실 공간의 사용자 곁에 메타버스의 아바타가 존재하는 것처럼 제공되어, 현실 세계와 가상 세계를 효과적으로 통합할 수 있다.
도 1은 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템을 설명하기 위해, 사용자와 캐릭터 및 아바타 구성을 예를 들어 도시한 도면.
도 3은 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 캐릭터 제공 서버의 세부적인 구성을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 스마트폰 형태의 제1 사용자 단말기에 제2 사용자의 캐릭터가 표시된 모습을 예를 들어 도시한 도면.
도 5는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 스마트 글라스 형태의 제1 사용자 단말기에 제2 사용자의 아바타가 표시된 모습을 예를 들어 도시한 도면.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
도 1은 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템의 구성을 도시한 도면이다. 도 1에 도시된 바와 가티, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템은, 사용자 단말기(100), 메타버스 서버(200) 및 캐릭터 제공 서버(300)를 포함하여 구성되며, 네트워크를 통해 각 구성요소가 신호 및 데이터를 송수신할 수 있다.
여기서, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5/6G(3/4/5/6th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
도 2는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템을 설명하기 위해, 사용자(10)와 사용자의 캐릭터(111) 및 사용자 아바타(211) 구성을 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서는, 사용자(10)가 사용자 단말기(100)에 설치한 캐릭터 애플리케이션(110)을 이용해 증강현실 서비스로 이용하는 사용자의 캐릭터(111)와, 메타버스 플랫폼(210)에서 사용자(10)의 가상 분신으로 사용하는 사용자 아바타(211)를 연동해 제공할 수 있다. 따라서 메타버스 플랫폼(210)의 사용자 아바타(211)를 캐릭터 애플리케이션(110)을 이용해 증강현실로 표시할 수 있고, 캐릭터 애플리케이션(110)에서 사용하는 사용자의 캐릭터(111)를 메타버스 플랫폼(210)의 아바타 또는 아이템으로 사용할 수도 있다.
즉, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서는, 메타버스 플랫폼(210)의 사용자 아바타(211)와 사용자 단말기(100)의 위치 정보를 기초로 증강현실로 제공하는 사용자의 캐릭터(11)를 연동해, 메타버스의 아바타를 증강현실로 사용자(10) 주변에 출력해 제공함으로써, 현실 공간의 사용자(10) 곁에 메타버스의 아바타가 존재하는 것처럼 제공되어, 현실 세계와 가상 세계를 효과적으로 통합할 수 있다.
여기서, 사용자의 캐릭터(111)는 가상의 애완동물, 몬스터 등일 수 있으며, 2D나 3D 영상 정보를 포함하되, 정지된 캐릭터 영상뿐 아니라, 애니메이션, 음향 등을 포함할 수 있고, 사용자(10)와 인터랙션 할 수도 있다. 또한, 캐릭터는 성장형 캐릭터일 수도 있다. 성장형 캐릭터의 경우, 사용자(10) 디바이스(100)에 설치된 캐릭터 애플리케이션(110)은, 캐릭터 제공 서버(300)와 통신을 수행하여, 미리 설정된 조건에 따라 캐릭터를 성장시킬 수 있다. 예를 들어, 가상의 애완동물을 각종 아이템으로 꾸미거나, 먹이 주기, 물 주기, 간식 주기, 목욕시키기, 놀아주기, 운동시키기, 털 깎기, 옷 입히기, 훈련하기 등을 하면서, 캐릭터를 성장시킬 수 있다.
또한, 사용자 아바타(211)는 메타버스 플랫폼(210)에서 사용자(10)의 분신 역할을 하는 것으로, 메타버스 플랫폼(210) 종류에 따라 다양할 수 있고, 사용자(10)가 피부색, 머리 스타일, 의상, 액세서리 등을 선택할 수 있다.
이하에서는, 도 1 및 도 2를 참조하여 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템을 구성하는 각 구성요소에 대해 상세히 설명하도록 한다.
사용자 단말기(100)는, 캐릭터 애플리케이션(110)을 설치할 수 있다. 사용자 단말기(100)는, 캐릭터 애플리케이션(110)을 설치 및 구동하고 증강현실을 제공할 수 있는 전자장치로 구현될 수 있다. 도 1에 도시된 바와 같이, 사용자 단말기(100)는, 제1 사용자(10a)가 사용하는 제1 사용자 단말기(100a)와 제2 사용자(10b)가 사용하는 제2 사용자 단말기(100b)로 구성될 수 있으며, 제1 사용자 단말기(100a)와 제2 사용자 단말기(100b)에는 각각 제1 캐릭터 애플리케이션(110a)과 제2 캐릭터 애플리케이션(110b)이 설치될 수 있다.
여기서, 전자장치는 스마트폰, 태블릿(tablet) PC(personal computer), 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑(desktop) PC, 랩탑(laptop) PC, 넷북(netbook) 컴퓨터, 워크스테이션(workstation), 서버(server), PDA(personal digital assistant), 미디어 박스, 게임 콘솔, 전자사전 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있으며, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트렌즈, 또는 머리착용형 장치(HMD, head-mounted-device), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형 회로(implantable circuit) 중 적어도 하나를 포함할 수 있다. 다양한 실시예들에서, 전자장치는 전술한 기기들에 한정되지는 않으며, 전술한 다양한 장치 중 둘 이상의 조합일 수 있다.
메타버스 서버(200)는, 메타버스 플랫폼(210)을 운영하며, 메타버스 플랫폼(210)에서 사용자 아바타(211)를 생성하고 제어할 수 있다. 즉, 메타버스 서버(200)는 가상공간 플랫폼인 메타버스 플랫폼(210)을 운영 및 제공하면서, 복수의 사용자(10)들이 메타버스 플랫폼(210)에 접속해 사용자 아바타(211)를 생성 및 관리하고, 사용자 단말기(100)를 통해 사용자 아바타(211)를 제어해 가상공간에서 게임, 회의, 강의 등 다양한 활동을 하도록 할 수 있다.
캐릭터 제공 서버(300)는, 사용자 단말기(100)의 위치 정보를 기초로, 제1 사용자 단말기(100a)의 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b)의 캐릭터(111b)를 제1 사용자 단말기(100a)에 제공할 수 있다. 이때, 캐릭터 제공 서버(300)는 사용자의 캐릭터(111)와 메타버스 플랫폼(210)의 사용자 아바타(211)를 연동해 관리하여, 캐릭터 애플리케이션(110)에서 사용자 아바타(211)를 사용할 수 있도록 하며, 실시예에 따라서는 캐릭터 애플리케이션(110)의 캐릭터를 메타버스 플랫폼(210)에서 사용할 수 있도록 연동할 수 있다. 이하에서는, 도 3을 참조하여 캐릭터 제공 서버(300)의 세부적인 구성에 대해서 상세히 설명하도록 한다.
도 3은 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 캐릭터 제공 서버(300)의 세부적인 구성을 도시한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템의 캐릭터 제공 서버(300)는, 데이터베이스부(310), 연동부(320), 노출 관리부(330), 매칭부(340) 및 캐릭터 제공부(350)를 포함하여 구성될 수 있다.
데이터베이스부(310)는, 사용자의 캐릭터(111)를 저장할 수 있다. 즉, 데이터베이스부(310)는 각 사용자의 캐릭터(111)를 사용자(10) 계정별로 저장하고, 캐릭터와 관련된 다양한 설정 정보 등을 저장할 수 있다.
연동부(320)는, 메타버스 서버(200)의 사용자 아바타(211)와 데이터베이스부(310)에 저장된 사용자의 캐릭터(111)를 연동할 수 있다. 또한, 메타버스 서버(200)는, 캐릭터 제공 서버(300)의 사용자의 캐릭터(111)를 메타버스 플랫폼(210)에서 아바타로 연동해 사용하도록 캐릭터 제공 서버(300)의 연동부(320)와 통신할 수 있다. 즉, 연동부(320)는, 사용자 아바타(211)의 데이터와 사용자의 캐릭터(111) 데이터를 메타버스 서버(200)와 캐릭터 제공 서버(300) 사이에 공유하여, 두 가상의 캐릭터/아바타가 연동되도록 할 수 있다. 이때, 연동부(320)는, 메타버스 서버(200)와 미리 설정된 시간 간격으로 데이터를 송수신할 수 있다.
여기서, 사용자 아바타(211)와 사용자의 캐릭터(111)를 연동한다는 것은, 캐릭터 애플리케이션(110)에서 사용자 아바타(211)를, 메타버스 플랫폼(210)에서 사용자의 캐릭터(111)를 각각 사용할 수 있도록 하는 것을 의미할 수 있다. 이때, 캐릭터 애플리케이션(110)에서는 사용자의 캐릭터(111)를 사용자 아바타(211)로 대체하여 사용할 수 있고, 사용자의 캐릭터(111)과 함께 사용자 아바타(211)를 추가해 사용할 수도 있다. 또한, 메타버스 플랫폼(210)에서는 사용자 아바타(211)를 사용자의 캐릭터(111)로 대체하여 사용할 수 있고, 사용자 아바타(211)와 함께 사용자의 캐릭터(111)를 사용할 수도 있다. 예를 들어, 사용자 아바타(211)의 아이템, 반려견 등으로 표시 및 제어될 수 있다.
노출 관리부(330)는, 캐릭터 또는 아바타의 노출 정보를 설정 및 관리할 수 있다. 여기서, 노출 정보는, 다른 사용자(10)에 대한 아바타의 노출 여부, 노출을 허용하는 사용자(10) 범위, 노출할 캐릭터 또는 아바타의 선택, 및 노출 시 아바타 설정을 포함하는 군에서 선택된 적어도 하나 이상일 수 있다. 즉, 사용자(10)는 캐릭터 애플리케이션(110)을 이용해 타인에게 캐릭터를 노출할지 여부, 지인에게만 노출을 허용할지, 모든 사용자(10)에게 노출을 허용할지 등을 설정할 수 있다. 또한, 사용자의 캐릭터(111)를 노출할지, 캐릭터와 연동된 아바타를 노출할지, 둘 다 노출할지 등을 선택하고, 노출 허용 시 캐릭터 등의 위치, 자세, 방향, 애니메이션, 음향 등을 설정할 수 있다.
또한, 노출 관리부(330)가 설정하는 노출 정보에는, 사용자(10) 동작과의 연결이 포함될 수 있다. 사용자(10)가 사용자(10) 동작과의 연결을 선택하면, 사용자(10) 동작 또는 모션을 인식하고, 인식되는 동작 또는 모션을 노출되는 캐릭터 또는 아바타에 적용해, 사용자(10)와 캐릭터/아바타의 동작을 동기화할 수 있다. 뿐만 아니라, 캐릭터 또는 아바타의 동작을 사용자(10)가 따라하고, 사용자(10)의 모션을 캡처 및 비교해 얼마나 비슷한지 분석하여, 분석 결과를 수치로 산출할 수도 있다. 산출된 수치는 추후 상세히 설명할 캐릭터 제공부(350)가 사용자 단말기(100)에 표시해 제공할 수 있다. 이때, 사용자(10) 동작과의 연결을 위해 다양한 동작 인식 기술을 사용할 수 있는데, 예를 들어 사용자 단말기(100)에 설치된 카메라에서 촬영된 영상을 분석해 모션을 인식하는 딥러닝 기반의 모션 인식 기술을 이용할 수 있다.
매칭부(340)는, 사용자 단말기(100)의 위치 정보를 기초로, 제1 사용자(10a)와 매칭되는 제2 사용자(10b)를 검색할 수 있다. 보다 구체적으로, 매칭부(340)는, 사용자 단말기(100)의 위치, 방향 및 고도를 포함하는 위치 정보를 이용해, 제1 사용자 단말기(100a)와 미리 정해진 거리 이내에서, 제1 사용자 단말기(100a)가 향하는 방향 및 제1 사용자 단말기(100a)의 고도와 대응되는 고도에 위치한 제2 사용자 단말기(100b)를 검색하고, 제1 사용자(10a)와 제2 사용자(10b)를 매칭할 수 있다. 여기서, 매칭부(340)는, 캐릭터를 다른 사용자(10)에게 노출하도록 설정한 사용자(10)를 검색 대상으로 하여, 위치 정보를 기반으로 검색을 수행할 수 있다.
또한, 매칭부(340)는, 제1 사용자 단말기(100a)로부터 뷰 필드를 촬영한 영상을 수신하고, 수신한 영상을 분석해 제2 사용자(10b)를 검출해 매칭할 수 있다. 즉, 매칭부(340)는, 위치 정보와 함께 제1 사용자 단말기(100a)에서 제1 사용자(10a)의 시선 방향을 촬영한 카메라 촬영 영상을 이용해 제2 사용자(10b)를 정확하게 매칭할 수 있다. 보다 구체적으로, 매칭부(340)는, 사용자 단말기(100)의 위치 정보를 이용해 제1 사용자 단말기(100a)와 미리 정해진 거리 이내에서 대응되는 고도에 위치한 제2 사용자 단말기(100b)를 검색하고, 제1 사용자 단말기(100a)의 뷰 필드 영상을 분석해 검색한 제2 사용자 단말기(100b) 중에서 해당 영상 내에 있는 제2 사용자(10b)를 검출해 서로 매칭할 수 있다.
캐릭터 제공부(350)는, 제2 사용자(10b)의 노출 정보에 따라, 매칭부(340)에서 검색된 제2 사용자(10b)의 캐릭터(111b)와 연동된 제2 아바타(211b)를 제1 사용자 단말기(100a)에 제공할 수 있다. 즉, 캐릭터 제공부(350)는, 연동부(320)에 의해 제2 사용자(10b)의 캐릭터(111b)와 연동된 제2 아바타(211b)의 데이터를 제1 사용자 단말기(100a)에 전송할 수 있다. 제1 사용자 단말기(100a)에 설치된 제1 캐릭터 애플리케이션(110a)은, 캐릭터 제공부(350)로부터 수신한 제2 아바타(211b) 데이터를 이용해 증강현실로 제2 아바타(211b)를 출력할 수 있다.
한편, 제1 사용자 단말기(100a)에 설치된 제1 캐릭터 애플리케이션(110a)은, 제1 사용자 단말기(100a)의 뷰 필드를 통해 실제 세계와 함께 영상 정보를 증강현실로 제공하되, 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b) 주변에 캐릭터 제공 서버(300)로부터 수신한 제2 사용자(10b)의 캐릭터(111b)를 영상 정보로 표시하여 증강현실로 제공할 수 있다.
도 4는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 스마트폰 형태의 제1 사용자 단말기(100a)에 제2 사용자(10b)의 캐릭터(111b)가 표시된 모습을 예를 들어 도시한 도면이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서는, 제1 사용자 단말기(100a)(스마트폰)의 카메라를 이용해 실제 세계의 제2 사용자(10b)가 촬영되어 표시될 수 있다. 이때, 제1 캐릭터 애플리케이션(110a)은 촬영된 제2 사용자(10b)의 캐릭터인 제2 캐릭터(111b)의 데이터를 캐릭터 제공 서버(300)로부터 수신하여, 제1 사용자 단말기(100a)의 뷰 필드 내의 제2 사용자(10b) 주변에 제2 캐릭터(111b)를 영상 정보로 표시할 수 있다. 따라서 실제 세계의 제2 사용자(10b) 곁에는 아무것도 없지만, 제1 사용자 단말기(100a)의 뷰 필드를 통해 보이는 제2 사용자(10b)의 곁에는 제2 캐릭터(111b)가 함께 표시되어 증강현실로 제공될 수 있다.
여기서, 캐릭터 제공 서버(300)는, 메타버스 아바타와 위치기반 증강현실 캐릭터를 연동하여 관리하므로, 캐릭터 제공 서버(300)가 제공하는 데이터는 제2 캐릭터(111b)의 데이터일 수 있으나, 제2 사용자(10b)가 메타버스 플랫폼(210)에서 사용하는 사용자 아바타(211)인 제2 아바타(211b)의 데이터일 수도 있다.
도 5는 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서, 스마트 글라스 형태의 제1 사용자 단말기(100a)에 제2 사용자(10b)의 아바타가 표시된 모습을 예를 들어 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에서는, 제1 사용자 단말기(100a)(스마트 글라스)의 광학계를 통해 실제 세계의 제2 사용자(10b)가 투과되어 보일 수 있다. 제1 캐릭터 애플리케이션(110a)은 뷰 필드 내의 제2 사용자(10b)의 제2 아바타(211b)를 캐릭터 제공 서버(300)로부터 수신해 제2 사용자(10b) 주변에 증강현실로 표시할 수 있다.
실시예에 따라서, 제2 사용자(10b)의 노출 설정에 따라, 제1 사용자 단말기(100a)의 뷰 필드에 표시되는 것은 제2 캐릭터(111b) 또는 제2 아바타(211b)일 수 있으나, 제2 캐릭터(111b)와 제2 아바타(211b)가 모두 표시될 수도 있다.
도 4 및 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템의 사용자 단말기(100)는, 증강현실 경험이 가능한 다양한 전자장치로 구현될 수 있고, 캐릭터 제공 서버(300)는 캐릭터와 아바타를 연동해 제2 캐릭터(111b) 또는 제2 아바타(211b)를 제1 사용자 단말기(100a)에 제공할 수 있다. 여기서, 제1 사용자(10a)와 제2 사용자(10b)는 고정된 것은 아니며, 상황에 따라 변경될 수 있고 동일인일 수도 있다.
한편, 제1 사용자 단말기(100a)는, 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b)를 실시간으로 검출해 트래킹하여, 캐릭터 제공 서버(300)로부터 수신한 제2 사용자(10b) 아바타(211b)를 트래킹되는 제2 사용자(10b)의 주변에 증강현실로 표시할 수 있다. 여기서, 제1 사용자 단말기(100a)는 제2 사용자(10b)를 트래킹하기 위해 인공지능 기반의 객체 추적 기술을 사용할 수 있다. 제1 캐릭터 애플리케이션(110a)은, 제1 사용자 단말기(100a)의 뷰 필드 내의 트래킹되는 제2 사용자(10b)의 크기에 따라 제2 사용자(10b) 아바타(211b) 크기를 조절하여 표시할 수 있다. 따라서 제1 사용자(10a)가 뷰 필드를 통해 보는 제2 사용자(10b)의 크기와 위치에 따라, 제2 사용자(10b)의 캐릭터(111b)/아바타(211b)의 크기와 위치가 최적화되어 표시될 수 있다.
한편, 제1 캐릭터 애플리케이션(110a)은, 캐릭터 또는 아바타의 표시 정보를 설정 및 저장하고, 제1 사용자(10a)의 표시 정보에 따라 캐릭터 제공 서버(300)로부터 수신한 제2 아바타(211b)를 표시할 수 있다. 여기서, 표시 정보는 제1 사용자(10a)가 제1 사용자 단말기(100a)에 표시될 내용을 설정하는 것으로, 사용자(10)가 상대방의 단말기에 표시될 사용자의 캐릭터(111) 또는 아바타의 내용을 설정하는 노출 정보와는 구분된다. 즉, 사용자(10)는 자신의 사용자 단말기(100)에서 상대방의 캐릭터 또는 아바타가 출력될 때, 그 크기, 비율 등을 설정할 수 있다.
전술한 바와 같이, 본 발명에서 제안하고 있는 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템에 따르면, 메타버스 플랫폼(210)의 사용자 아바타(211)와 사용자 단말기(100)의 위치 정보를 기초로 증강현실로 제공되는 사용자의 캐릭터(111)를 연동해, 메타버스의 아바타를 사용자(10) 주변에 증강현실 기반으로 출력해 제공함으로써, 현실 공간의 사용자(10) 곁에 메타버스의 사용자 아바타(211)가 존재하는 것처럼 제공되어, 현실 세계와 가상 세계를 효과적으로 통합할 수 있다.
한편, 본 발명은 다양한 통신 단말기로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터에서 판독 가능한 매체를 포함할 수 있다. 예를 들어, 컴퓨터에서 판독 가능한 매체는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD_ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.
이와 같은 컴퓨터에서 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이때, 컴퓨터에서 판독 가능한 매체에 기록되는 프로그램 명령은 본 발명을 구현하기 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예를 들어, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.
10: 사용자
10a: 제1 사용자
10b: 제2 사용자
100: 사용자 단말기
100a: 제1 사용자 단말기
100b: 제2 사용자 단말기
110: 캐릭터 애플리케이션
110a: 제1 캐릭터 애플리케이션
110b: 제2 캐릭터 애플리케이션
111: 사용자의 캐릭터
111b: 제2 사용자의 캐릭터, 제2 캐릭터
200: 메타버스 서버
210: 메타버스 플랫폼
211: 사용자 아바타
211b: 제2 아바타
300: 캐릭터 제공 서버
310: 데이터베이스부
320: 연동부
330: 노출 관리부
340: 매칭부
350: 캐릭터 제공부

Claims (8)

  1. 캐릭터 애플리케이션(110)을 설치한 사용자 단말기(100);
    메타버스 플랫폼(210)을 운영하며, 상기 메타버스 플랫폼(210)에서 사용자 아바타(211)를 생성하고 제어하는 메타버스 서버(200); 및
    사용자 단말기(100)의 위치 정보를 기초로, 제1 사용자 단말기(100a)의 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b)의 캐릭터(111b)를 상기 제1 사용자 단말기(100a)에 제공하는 캐릭터 제공 서버(300)를 포함하며,
    상기 제1 사용자 단말기(100a)에 설치된 제1 캐릭터 애플리케이션(110a)은,
    상기 제1 사용자 단말기(100a)의 뷰 필드를 통해 실제 세계와 함께 영상 정보를 증강현실로 제공하되, 상기 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b) 주변에 상기 캐릭터 제공 서버(300)로부터 수신한 상기 제2 사용자(10b)의 캐릭터(111b)를 영상 정보로 표시하여 증강현실로 제공하며,
    상기 캐릭터 제공 서버(300)는,
    사용자의 캐릭터(111)를 저장하는 데이터베이스부(310);
    상기 메타버스 서버(200)의 사용자 아바타(211)와 상기 데이터베이스부(310)에 저장된 사용자의 캐릭터(111)를 연동하는 연동부(320);
    상기 캐릭터 또는 아바타의 노출 정보를 설정 및 관리하는 노출 관리부(330);
    상기 사용자 단말기(100)의 위치 정보를 기초로, 제1 사용자(10a)와 매칭되는 제2 사용자(10b)를 검색하는 매칭부(340); 및
    상기 제2 사용자(10b)의 노출 정보에 따라, 상기 매칭부(340)에서 검색된 제2 사용자(10b)의 캐릭터(111b)와 연동된 제2 아바타(211b)를 상기 제1 사용자 단말기(100a)에 제공하는 캐릭터 제공부(350)를 포함하여,
    상기 메타버스 플랫폼(210)의 아바타와 캐릭터 애플리케이션(110)의 캐릭터를 연동해 제공하며,
    상기 사용자의 캐릭터(111)는 가상의 애완동물 또는 몬스터이며,
    상기 메타버스 서버(200)는,
    상기 캐릭터 제공 서버(300)의 사용자의 캐릭터(111)를 상기 메타버스 플랫폼(210)에서 사용자 아바타(211)로 연동해 사용하도록 상기 캐릭터 제공 서버(300)의 연동부(320)와 통신하고,
    상기 연동부(320)는,
    상기 사용자 아바타(211)의 데이터와 상기 사용자의 캐릭터(111)의 데이터를 상기 메타버스 서버(200)와 상기 캐릭터 제공 서버(300) 사이에 공유하여, 두 가상의 캐릭터 및 아바타를 연동하여,
    상기 메타버스 플랫폼(210)의 사용자 아바타(211)를 상기 캐릭터 애플리케이션(110)을 이용해 사용자 주변에 증강현실로 표시하고, 상기 캐릭터 애플리케이션(110)에서 사용하는 사용자의 캐릭터(111)를 상기 메타버스 플랫폼(210)의 아이템으로 사용하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  2. 제1항에 있어서, 상기 노출 정보는,
    다른 사용자(10)에 대한 아바타의 노출 여부, 노출을 허용하는 사용자(10) 범위, 노출할 캐릭터 또는 아바타의 선택, 및 노출 시 아바타 설정을 포함하는 군에서 선택된 적어도 하나 이상인 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  3. 제1항에 있어서, 상기 제1 캐릭터 애플리케이션(110a)은,
    상기 캐릭터 또는 아바타의 표시 정보를 설정 및 저장하고, 제1 사용자(10a)의 표시 정보에 따라 상기 캐릭터 제공 서버(300)로부터 수신한 상기 제2 아바타(211b)를 표시하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  4. 삭제
  5. 제1항에 있어서, 상기 매칭부(340)는,
    상기 사용자 단말기(100)의 위치, 방향 및 고도를 포함하는 위치 정보를 이용해, 상기 제1 사용자 단말기(100a)와 미리 정해진 거리 이내에서, 상기 제1 사용자 단말기(100a)가 향하는 방향 및 상기 제1 사용자 단말기(100a)의 고도와 대응되는 고도에 위치한 제2 사용자 단말기(100b)를 검색하고, 제1 사용자(10a)와 제2 사용자(10b)를 매칭하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  6. 제5항에 있어서, 상기 매칭부(340)는,
    상기 제1 사용자 단말기(100a)로부터 뷰 필드를 촬영한 영상을 수신하고, 수신한 영상을 분석해 제2 사용자(10b)를 검출해 매칭하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  7. 제1항에 있어서, 상기 제1 사용자 단말기(100a)는,
    상기 뷰 필드를 통해 보이는 실제 세계의 제2 사용자(10b)를 실시간으로 검출해 트래킹하여, 상기 캐릭터 제공 서버(300)로부터 수신한 제2 사용자(10b) 아바타(211b)를 상기 트래킹되는 제2 사용자(10b)의 주변에 증강현실로 표시하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
  8. 제7항에 있어서, 상기 제1 캐릭터 애플리케이션(110a)은,
    상기 제1 사용자 단말기(100a)의 뷰 필드 내의 상기 트래킹되는 제2 사용자(10b)의 크기에 따라 상기 제2 사용자(10b) 아바타(211b) 크기를 조절하여 표시하는 것을 특징으로 하는, 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템.
KR1020220046006A 2022-04-13 2022-04-13 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템 KR102484313B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220046006A KR102484313B1 (ko) 2022-04-13 2022-04-13 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220046006A KR102484313B1 (ko) 2022-04-13 2022-04-13 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템

Publications (1)

Publication Number Publication Date
KR102484313B1 true KR102484313B1 (ko) 2023-01-04

Family

ID=84924875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220046006A KR102484313B1 (ko) 2022-04-13 2022-04-13 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템

Country Status (1)

Country Link
KR (1) KR102484313B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140036555A (ko) * 2012-09-17 2014-03-26 한국전자통신연구원 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법
KR102200196B1 (ko) * 2019-09-11 2021-01-08 백종엽 위치 정보를 이용한 증강현실 기반의 캐릭터 제공 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140036555A (ko) * 2012-09-17 2014-03-26 한국전자통신연구원 사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법
KR102200196B1 (ko) * 2019-09-11 2021-01-08 백종엽 위치 정보를 이용한 증강현실 기반의 캐릭터 제공 시스템

Similar Documents

Publication Publication Date Title
KR102376390B1 (ko) 메타버스 서비스를 제공하는 방법 및 장치
US20220301231A1 (en) Mirroring device with whole-body outfits
US8963916B2 (en) Coherent presentation of multiple reality and interaction models
Papagiannakis et al. A survey of mobile and wireless technologies for augmented reality systems
US20130249947A1 (en) Communication using augmented reality
KR20230096043A (ko) 실시간 3d 신체 모션 캡처로부터의 사이드-바이-사이드 캐릭터 애니메이션
EP3383036A2 (en) Information processing device, information processing method, and program
US20130238778A1 (en) Self-architecting/self-adaptive model
CN111627117B (zh) 画像展示特效的调整方法、装置、电子设备及存储介质
CN108876927A (zh) 通过基于故事的增强和/或混合现实体验引导的物理航行
KR20230107654A (ko) 보철 림을 위한 실시간 모션 전달
US11954762B2 (en) Object replacement system
US20240015355A1 (en) Video distribution device, video distribution method, and video distribution process
JP7478740B2 (ja) アニメーションシーケンスを生成する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
CN112396679A (zh) 虚拟对象显示方法及装置、电子设备、介质
US20160320833A1 (en) Location-based system for sharing augmented reality content
US11983826B2 (en) 3D upper garment tracking
US10740942B2 (en) Image customization using a persona
WO2023121898A1 (en) Real-time upper-body garment exchange
Patil et al. Accelerating extended reality vision with 5g networks
US10672190B2 (en) Customizing appearance in mixed reality
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
KR102484313B1 (ko) 메타버스 아바타와 위치기반 증강현실 캐릭터의 연동 시스템
WO2023121896A1 (en) Real-time motion and appearance transfer
KR102550491B1 (ko) 실내 환경에서 다수 사용자를 위한 증강현실 콘텐츠 플랫폼 시스템 및 그 운영 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant