KR20210151713A - 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템 - Google Patents

메타버스 기반의 망자에 대한 컨텐츠 구현 시스템 Download PDF

Info

Publication number
KR20210151713A
KR20210151713A KR1020210073678A KR20210073678A KR20210151713A KR 20210151713 A KR20210151713 A KR 20210151713A KR 1020210073678 A KR1020210073678 A KR 1020210073678A KR 20210073678 A KR20210073678 A KR 20210073678A KR 20210151713 A KR20210151713 A KR 20210151713A
Authority
KR
South Korea
Prior art keywords
deceased
content
information
dead
companion animal
Prior art date
Application number
KR1020210073678A
Other languages
English (en)
Inventor
조예원
Original Assignee
(주)문샷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)문샷 filed Critical (주)문샷
Publication of KR20210151713A publication Critical patent/KR20210151713A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템에 관한 것으로서, 고인에 대한 정보인 고인정보 또는 죽은 반려동물에 대한 정보인 반려동물정보를 입력받는 단말부; 사용자에게 착용되고, 고인 또는 죽은 반려동물에 대한 컨텐츠를 출력하는 컨텐츠출력부; 상기 사용자에게 착용되고, 상기 사용자의 조작에 따라 상기 컨텐츠에 대한 조작신호를 생성하는 컨텐츠조작부; 및 상기 단말부에서 입력받은 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 컨텐츠를 생성하고, 생성된 상기 컨텐츠를 상기 컨텐츠출력부로 송신하고, 상기 조작신호에 따라 상기 사용자가 상기 컨텐츠와 상호작용할 수 있도록 상기 컨텐츠출력부를 제어하는 서버부를 포함하고, 상기 컨텐츠는, 메타버스 환경에서 구현된 상기 고인 또는 상기 죽은 반려동물의 캐릭터 또는 음성인 것을 특징으로 한다.
본 발명에 따르면, 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현함으로써 사용자가 고인 또는 죽은 반려동물과 상호작용할 수 있으므로, 사용자가 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있는 효과가 있다.

Description

메타버스 기반의 망자에 대한 컨텐츠 구현 시스템{CONTENT IMPLEMENTATION SYSTEM FOR THE DECEASED BASED ON METAVERSE}
본 발명은 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템에 관한 것으로서, 보다 상세하게는 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템에 관한 것이다.
보통 사람 또는 반려동물이 죽으면 그 시체는 화장을 하거나 묘지를 조성하고, 이와 더불어 고인 또는 죽은 반려동물, 즉, 망자가 죽기전에 갖고 있던 물품들을 정리하게 되는 바, 망자를 그리워하는 사람들은 얼마 남지 않은 망자의 옛 사진 또는 유품을 통해 회상에 잠기며 망자에 대한 그리움을 달래는데 그치고 있다.
그러나 이는 망자의 옛 사진 또는 유품이 온전히 남아있을 때나 가능한 것으로, 시간이 경과할수록 망자의 옛 사진 또는 유품은 훼손되기 마련이고, 이러한 망자의 옛 사진 또는 유품만으로는 망자와 함께 보냈던 추억을 아로새기기엔 부족한 것이 현실이다.
최근, 가상세계를 사용자에게 제공하는 대표적인 서비스로서 메타버스(metaverse)가 각광받고 있다. 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 3차원 가상세계를 의미하며, 이러한 메타버스의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR) 기술이다.
망자와 사별하여 마음의 상처를 안고 살아가는 사람들의 상실감과 슬픔을 해소시키기 위해, 상술한 메타버스 환경을 이용하여 고인 또는 죽은 반려동물과 상호작용할 수 있는 컨텐츠의 개발이 절실히 요구되고 있다.
대한민국 공개특허 제10-2020-0075520호
본 발명의 목적은, 상술한 종래의 문제점을 해결하기 위한 것으로서, 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템을 제공함에 있다.
상기 목적은, 본 발명에 따라, 고인에 대한 정보인 고인정보 또는 죽은 반려동물에 대한 정보인 반려동물정보를 입력받는 단말부; 사용자에게 착용되고, 고인 또는 죽은 반려동물에 대한 컨텐츠를 출력하는 컨텐츠출력부; 상기 사용자에게 착용되고, 상기 사용자의 조작에 따라 상기 컨텐츠에 대한 조작신호를 생성하는 컨텐츠조작부; 및 상기 단말부에서 입력받은 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 컨텐츠를 생성하고, 생성된 상기 컨텐츠를 상기 컨텐츠출력부로 송신하고, 상기 조작신호에 따라 상기 사용자가 상기 컨텐츠와 상호작용할 수 있도록 상기 컨텐츠출력부를 제어하는 서버부를 포함하고, 상기 컨텐츠는, 메타버스 환경에서 구현된 상기 고인 또는 상기 죽은 반려동물의 캐릭터 또는 음성인 것을 특징으로 하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템에 의해 달성된다.
또한, 상기 캐릭터는, 가상현실, 증강현실 및 혼합현실 중 어느 하나의 환경에서 구현될 수 있다.
또한, 상기 음성은, 상기 사용자의 발화 문장에 대응되는 응답 문장을 생성하도록 학습된 인공신경망 모델을 통해 구현될 수 있다.
또한, 상기 고인정보는, 상기 고인의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이, 음색, 발음 및 어조에 대한 정보 중 적어도 어느 하나를 포함하고, 상기 반려동물정보는, 상기 죽은 반려동물의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이 및 음색에 대한 정보 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 서버부는, 상기 단말부, 상기 컨텐츠출력부 및 상기 컨텐츠조작부와 통신하는 통신모듈과, 상기 단말부에서 입력된 상기 고인정보 또는 상기 반려동물정보가 저장되는 저장모듈과, 저장된 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 고인 또는 상기 죽은 반려동물의 캐릭터를 생성하고 생성된 상기 캐릭터를 상기 메타버스 환경에서 구현하는 캐릭터구현모듈과, 저장된 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 고인 또는 상기 죽은 반려동물의 음성을 구현하는 음성구현모듈과, 상기 조작신호에 따라 상기 사용자가 상기 캐릭터와 상호작용할 수 있도록 상기 컨텐츠출력부를 제어하는 제어모듈을 포함할 수 있다.
또한, 상기 메타버스 환경에서 구현된 상기 캐릭터의 동작에 연동되어 동작하는 인형부를 더 포함할 수 있다.
본 발명에 따르면, 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현함으로써 사용자가 고인 또는 죽은 반려동물과 상호작용할 수 있으므로, 사용자가 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있는 효과가 있다.
한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
도 1은 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템을 전체적으로 도시한 것이고,
도 2는 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 구성간 연결을 도시한 것이고,
도 3과 도 4는 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 컨텐츠출력부에서 출력되는 화면을 도시한 것이고,
도 5는 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템을 전체적으로 도시한 것이고,
도 6은 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 구성간 연결을 도시한 것이고,
도 7은 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 제어모듈의 세부 구성을 도시한 것이다.
이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다.
또한, 본 발명의 실시 예를 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
또한, 본 발명의 실시 예의 구성요소를 설명함에 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다.
또한, 본 발명의 실시 예를 설명함에 있어서, 각각의 "부", "모듈" 또는 "단계"는 프로세서 및 메모리를 통해 구현될 수 있다. 프로세서는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신, 및 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, 프로세서는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. 프로세서는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
또한, 메모리는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 메모리는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램 가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들, 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불리며, 각각의 "부", "모듈" 또는 "단계"는 전자 통신 상태에 있는 프로세서와 메모리에 기반한 프로그램 내지 어플리케이션을 통해 구현될 수 있다.
지금부터는 첨부된 도면을 참조하여, 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)에 대해 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템을 전체적으로 도시한 것이고, 도 2는 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 구성간 연결을 도시한 것이고, 도 3과 도 4는 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 컨텐츠출력부에서 출력되는 화면을 도시한 것이다.
도 1 내지 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)은 단말부(110)와, 컨텐츠출력부(120)와, 컨텐츠조작부(130)와, 서버부(140)를 포함할 수 있다.
단말부(110)는 사용자로부터 고인에 대한 정보인 고인정보 또는 죽은 반려동물에 대한 정보인 반려동물정보를 입력받는 것으로서, 후술하는 서버부(140)와 전기적으로 연결될 수 있다.
여기서 단말부(110)는 네트워크 등을 통하여 후술하는 서버부(140)에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서 컴퓨터는 예를 들어, 웹 브라우저(web browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함할 수 있다. 이 밖에, 단말부(110)는 네트워크 등을 통하여 후술하는 서버부(140)에 접속할 수 있는 휴대성과 이동성이 보장되는 무선 통신 장치로 구현될 수 있다. 여기서 무선 통신 장치는 예를 들어 PCS(personal communication system), GSM(global system for mobile communications), PDC(personal digital cellular), PHS(personal handyphone system), PDA(personal digital assistant), IMT(international mobile telecommunication)-2000, CDMA(code division multiple access)-2000, W-CDMA(w-code division multiple access), Wibro(wireless broadband internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(tablet pc) 등과 같은 모든 종류의 핸드헬드(handheld) 기반의 무선 통신 장치를 포함할 수 있다.
보다 상세하게, 단말부(110)는 후술하는 서버부(140)에서 망자, 즉, 고인 또는 죽은 반려동물에 대한 컨텐츠를 생성할 수 있도록, 사용자로부터 고인에 대한 다양한 정보들을 의미하는 고인정보 또는 죽은 반려동물에 대한 다양한 정보들을 의미하는 반려동물정보를 입력받은 후 서버부(140)로 전송할 수 있다.
여기서 고인정보는 사용자로부터 제공받은 고인의 생전 사진 및 동영상 뿐만 아니라, 사용자가 단말부(110)를 통해 입력한 고인의 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등과 같은 다양한 정보들을 포함할 수 있으며, 고인의 동영상 또는 음성 파일 등으로부터 추출된 고인의 음성의 세기(intensity), 음성의 높이(pitch), 음색(timbre), 발음 및 어조 등에 대한 정보들을 포함할 수 있다.
또한, 반려동물정보는 사용자로부터 제공받은 죽은 반려동물의 생전 사진 및 동영상 뿐만 아니라, 사용자가 단말부(110)를 통해 입력한 죽은 반려동물의 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등과 같은 다양한 정보들을 포함할 수 있으며, 죽은 반려동물의 동영상 또는 녹음파일 등으로부터 추출된 죽은 반려동물의 음성의 세기, 음성의 높이, 음색 등에 대한 정보들을 포함할 수 있다.
컨텐츠출력부(120)는 사용자에게 착용되어 고인 또는 죽은 반려동물에 대하여 메타버스 환경에서 구현된 컨텐츠를 출력하는 것으로서, 후술하는 서버부(140)와 전기적으로 연결될 수 있다.
보다 상세하게, 본 발명의 컨텐츠출력부(120)에서 출력되는 컨텐츠는 메타버스 환경에서 구현된 고인 또는 죽은 반려동물의 캐릭터(c) 또는 음성을 의미하는데, 여기서 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 온라인 속 3차원 입체 가상세계에서 캐릭터(c) 내지 아바타의 모습으로 구현된 개인들이 서로 소통하는 등 현실의 활동을 그대로 할 수 있는 플랫폼을 말한다. 이러한 메타버스 환경 구현의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR)이다.
가상현실은 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을 말하고, 증강현실 또는 혼합현실은 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 기술을 말하는데, 본 발명에서의 컨텐츠, 즉, 캐릭터(c) 또는 음성은 가상현실, 증강현실 및 혼합현실 중 어느 하나의 환경에서 구현되어 출력될 수 있다.
컨텐츠출력부(120)는 상술한 가상현실, 증강현실 및 혼합현실 영상을 출력하기 위해 사용자에게 착용되는 것으로, 예를 들면, 사용자의 머리 또는 눈 부분에 장착하여 사용자의 눈 앞에 직접 VR/AR 영상을 출력하는 디스플레이 장치인 헤드마운트 디스플레이(head mounted display, HMD) 등으로 마련될 수 있다. 헤드마운트 디스플레이는 사용자가 현실감 있는 영상을 체험할 수 있도록 지원하는 웨어러블 영상 출력 단말의 일종이며, 주로 헬멧 전면에 디스플레이가 장착되어 VR/AR 등의 영상을 출력할 수 있다.
한편, 메타버스 환경에서 구현되는 캐릭터(c) 또는 음성은 상술한 고인정보와 반려동물정보를 기반으로 구현될 수 있는데, 이에 대해서는 후술하기로 한다.
컨텐츠조작부(130)는 사용자에게 착용되어 사용자의 조작에 따라 컨텐츠에 대한 조작신호를 생성하는 것으로서, 후술하는 서버부(140)와 전기적으로 연결될 수 있다.
보다 상세하게, 컨텐츠조작부(130)는 상술한 가상현실, 증강현실 및 혼합현실에서 구현된 컨텐츠와 상호작용하기 위해 사용자의 손에 착용되는 것으로, 예를 들면 사용자의 모션을 트래킹하고, 물리적인 피드백을 제공하며, 촉감에 대한 피드백을 제공하는 VR/AR글러브(VR/AR gloves)로 마련될 수 있다.
이러한 VR/AR글러브(VR/AR gloves)는 사용자의 손가락, 손, 손목의 모션을 트래킹하여 VR/AR 상에서 구현하고, 각 손가락마다 기설정된 크기의 인장력을 가함으로써 VR/AR내 물체의 경도를 표현하며, 각 손가락에 설치된 진동센서를 통하여 감촉을 표현하는데, 본 발명에서는 사용자가 가상현실, 증강현실 또는 혼합현실 환경에서 캐릭터(c)와 음성으로 구현된 고인 또는 죽은 반려동물과 상호작용하기 위해 이러한 VR/AR글러브를 활용하여 조작신호를 생성하면, 캐릭터(c)와 음성으로 구현된 고인 또는 죽은 반려동물은 조작신호에 따라 반응 내지 행동하게 되고, 사용자는 이를 통해 구현된 고인 또는 죽은 반려동물과 높은 몰입감으로 교감을 할 수 있다.
서버부(140)는 단말부(110)에서 입력받은 고인정보 또는 반려동물정보에 기반하여 컨텐츠를 생성하고, 생성된 컨텐츠를 컨텐츠출력부(120)로 송신하고, 조작신호에 따라 사용자가 컨텐츠와 상호작용할 수 있도록 컨텐츠출력부(120)를 제어하는 것으로서, 단말부(110), 컨텐츠출력부(120) 및 컨텐츠조작부(130)와 전기적으로 연결될 수 있다.
이러한 서버부(140)는 전형적으로 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력장치, 출력장치 및 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치 또는 라우터, 스위치 등과 같은 전자 통신 장치 또는 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템 등)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것으로 마련될 수 있다. 또한, 서버부(140)를 구성하는 프로세서는 MPU(micro processing unit), CPU(central processing unit), 캐쉬메모리(cache memory) 또는 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 서버부(140)는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
서버부(140)는 보다 상세하게, 통신모듈(141)과, 저장모듈(142)과, 캐릭터구현모듈(143)과, 음성구현모듈(144)과, 제어모듈(145)을 포함할 수 있다.
통신모듈(141)은 단말부(110), 컨텐츠출력부(120) 및 컨텐츠조작부(130)와 통신하는 것으로서, 단말부(110)로부터 고인정보와 반려동물정보를 수신하고, 컨텐츠출력부(120)로 컨텐츠를 수신하고, 컨텐츠조작부(130)로부터 조작신호를 수신할 수 있다.
저장모듈(142)은 단말부(110)에서 입력된 후 수신된 고인정보 또는 반려동물정보가 저장되는 것으로서, 상술한 바와 같이 단말부(110)를 통해 사용자로부터 제공받은 고인의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이, 음색, 발음 및 어조에 대한 정보와, 죽은 반려동물의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이 및 음색 등에 대한 정보들이 저장될 수 있다.
캐릭터구현모듈(143)은 저장된 고인정보 또는 반려동물정보에 기반하여 고인 또는 죽은 반려동물의 캐릭터(c)를 생성하고 생성된 캐릭터(c)를 상기 메타버스 환경에서 구현하는 것으로서, 예를 들면, 캐릭터구현모듈(143)은 먼저 사진 또는 동영상에서 나타난 고인의 정면, 배면, 좌측면, 우측면, 평면, 저면 및 사시면을 3D 스캐닝을 하여 고인의 기본 모습을 구축한 후, 사용자로부터 입력된 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등의 상세 정보들을 반영하여 고인의 캐릭터(c)를 구현함과 동시에 캐릭터(c)의 3D 애니메이션(움직임)을 구현할 수 있다.
또한, 캐릭터구현모듈(143)은 먼저 사진 또는 동영상에서 나타난 죽은 반려동물의 정면, 배면, 좌측면, 우측면, 평면, 저면 및 사시면을 3D 스캐닝을 하여 죽은 반려동물의 기본 모습을 구축한 후, 사용자로부터 입력된 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등의 상세 정보들을 반영하여 죽은 반려동물의 캐릭터(c)를 구현함과 동시에 캐릭터(c)의 3D 애니메이션(움직임)을 구현할 수 있다.
한편, 캐릭터구현모듈(143)은 고인정보를 활용하여 다양한 연령대의 고인 또는 죽은 반려동물을 가상현실, 증강현실 또는 혼합현실 환경에서 구현할 수 있으며, 사용자는 컨텐츠조작부(130)를 이용한 조작을 통해 다양한 연령대의 고인 또는 죽은 반려동물을 선택할 수 있다.
음성구현모듈(144)은 저장된 고인정보 또는 반려동물정보에 기반하여 고인 또는 죽은 반려동물의 음성을 구현하는 것으로서, 예를 들면, 저장된 동영상 또는 음성파일로부터 고인의 음성의 세기, 음성의 높이, 음색, 발음 및 어조 등을 추출하여 고인의 음성을 구현하거나, 저장된 동영상 또는 음성파일로부터 죽은 반려동물의 음성의 세기, 음성의 높이, 음색 등을 추출하여 죽은 반려동물의 음성을 구현할 수 있다.
또한, 본 발명에서 구현되는 음성은 사용자의 발화 문장에 대응되는 응답 문장을 생성하도록 학습된 인공신경망 내지 인공지능 모델을 통해 구현될 수 있다.
보다 상세하게, 음성구현모듈(144)은 상술한 고인정보 또는 반려동물정보를 기초로 인공신경망 모델을 통해 학습한 후, 사용자와의 대화를 위한 시나리오를 구성할 수 있다. 사용자의 발화 문장에 대한 사용자입력이 수신되면, 음성구현모듈(144)은 사용자입력에 대한 텍스트 분석을 수행한 후, 이에 대응되는 응답 문장을 생성할 수 있다. 이 때, 사용자입력은 음성 입력 및 텍스트 입력 중 적어도 하나의 형태로 입력될 수 있다. 이 후, 음성구현모듈(144)은 생성된 응답 문장에 고인 또는 죽은 반려동물의 음성을 적용하여 컨텐츠출력부(120)에서 출력되도록 할 수 있다.
한편, 캐릭터구현모듈(143) 또는 음성구현모듈(144)은 고인정보 또는 반려동물정보가 문장 형태, 즉, 비정형 텍스트로 입력되는 경우, 인공신경망을 활용한 텍스트 마이닝(text mining) 방식을 통해 문장 형태의 고인정보 또는 반려동물정보로부터 세부 정보들을 추출할 수 있다.
보다 상세하게, 캐릭터구현모듈(143) 또는 음성구현모듈(144)은 자연어처리(natural language processing, NLP) 방식을 통해 전처리된 문장 형태의 고인정도 또는 반려동물정보에 학습된 Text-CNN(text-convolutional neural network)을 적용함으로써 세부 정보들을 추출할 수 있는데, 이 때, Text-CNN은 임베딩레이어와, 컨볼루션레이어와, 활성화레이어와, 풀링레이어와, 소프트맥스레이어 등의 레이어를 포함할 수 있다.
임베딩레이어(embedding layer)는 분산 표상(distributedsimilarity based representation)을 바탕으로 문장 형태로 입력된 고인정보 또는 반려동물정보에서의 각 단어를 벡터로 변환하는 워드 임베딩(word embedding) 과정을 수행하는 것으로서, 이에 따르면, 한 단어가 N차원의 벡터로 표현되고, M개의 단어를 가진 한 문장은 M×N인 행렬로 표현된다.
컨볼루션레이어(convolution layer)는 합성곱 연산을 수행하여 벡터화된 단어에 대하여 필터를 통해 특징을 추출하는 것으로서, 이 때, 필터를 통해 얻어낸 결과를 activation map이라고 한다.
활성화레이어(activation layer)는 컨볼루션레이어에서 필터를 통해 추출된 activation map을 비선형 값으로 바꾸어주는 것으로서, activation map이 비선형 함수를 모방할 수 있도록 한다. 이러한 활성화레이어는 ReLU(rectifier linear unit) 함수를 이용하여 기울기 소실 문제(vanishing gradient problem)와 학습효과 저해(degradation) 문제를 방지할 수 있다.
ReLU 함수는 입력 데이터의 양수 부분만 통과시키고 그 외의 경우 0으로 바꿔서 출력하는 함수로, 수학적으로 상당히 단순하지만 딥러닝 모델의 학습을 매우 가속시킬 수 있다. ReLU 함수는 입력이 0이하인 경우 경사도가 0이기 때문에 경사 하강법을 통해 계산된 경사 하강법의 경사도의 흐름이 없다는 단점에도 불구하고 연산량이 매우 적다는 장점이 있다.
풀링레이어(pooling layer)는 추출된 activation map을 인위적으로 줄이는 것으로서, 이 때, 풀링레이어는 최대 풀링(max pooling) 기법을 적용할 수 있다. 최대 풀링은 activation map을 X×Y의 크기로 잘라낸 후, 그 안에서 가장 큰 값을 뽑아내는 기법으로, 특징의 값이 큰 값이 다른 특징들을 대표한다는 개념을 기반으로 한다.
상술한 바와 같은 최대 풀링 기법이 적용된 풀링레이어에 따르면, 전체 데이터의 사이즈가 줄어들기 때문에 연산에 들어가는 컴퓨팅 리소스가 대폭적으로 적어 지는 효과가 있으며, 데이터의 크기를 줄이면서 소실이 발생하기 때문에, 오버피팅(overfitting)이 방지되는 효과가 있다.
소프트맥스레이어(softmax output layer)는 소프트맥스 스코어를 생성하는 것으로서, 이러한 소프트맥스 스코어를 통해 최종적으로 시간정보와 공간정보가 각각 출력될 수 있다.
상술한 바와 같은 Text-CNN에 기반한 캐릭터구현모듈(143) 또는 음성구현모듈(144)에 따르면, 문장 형태의 고인정보 또는 반려동물정보로부터 세부 정보를 추출하는 과정을 반복학습함으로써, 추출되는 세부 정보의 정확도를 대폭적으로 향상시킬 수 있는 효과가 있다.
제어모듈(145)은 상술한 통신모듈(141), 저장모듈(142), 캐릭터구현모듈(143) 및 음성구현모듈(144)을 제어하고, 조작신호에 따라 사용자가 캐릭터(c)와 상호작용할 수 있도록 컨텐츠출력부(120)를 제어하는 것으로서, 컨텐츠조작부(130)를 통한 사용자의 조작신호 또는 사용자의 발화 문장에 대한 사용자입력에 따라 가상현실, 증강현실 또는 혼합현실 환경에서 구현된 캐릭터(c)가 적절한 반응 내지 행동을 하도록 컨텐츠출력부(120)를 제어할 수 있다. 이 때, 제어모듈(145)은 사용자의 조작신호에 따라 컨텐츠조작부의 각 손가락마다 기설정된 크기의 인장력을 가하도록 하거나, 각 손가락에 설치된 진동센서를 통하여 감촉을 표현하는 등 사용자에게 적절한 피드백을 제공할 수 있다.
상술한 바와 같은 단말부(110)와, 컨텐츠출력부(120)와, 컨텐츠조작부(130)와, 서버부(140)를 포함하는 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)에 따르면, 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현함으로써 사용자가 고인 또는 죽은 반려동물과 상호작용할 수 있으므로, 사용자가 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있는 효과가 있다.
지금부터는 첨부된 도면을 참조하여, 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(200)에 대해 상세히 설명한다.
도 5는 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템을 전체적으로 도시한 것이고, 도 6은 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 구성간 연결을 도시한 것이고, 도 7은 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템의 제어모듈의 세부 구성을 도시한 것이다.
본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)은 고인 또는 죽은 반려동물의 생전 모습과 음성을 메타버스 환경에서 구현함으로써, 사용자가 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있도록 하는 것이나, 컨텐츠조작부(130)의 촉감에 대한 피드백만으로는 사용자의 상실감과 슬픔을 충분히 해소시키기엔 부족한 면이 있다.
도 5 내지 도 7에 도시된 바와 같이, 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(200)은 단말부(210)와, 컨텐츠출력부(220)와, 컨텐츠조작부(230)와, 서버부(240)와, 인형부(250)를 포함한다.
여기서 단말부(210)와, 컨텐츠출력부(220)와, 컨텐츠조작부(230)는 상술한 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)의 단말부(110)와, 컨텐츠출력부(120)와, 컨텐츠조작부(130)의 구성과 동일한 것이므로 중복 설명은 생략한다.
서버부(240)는 단말부(110)에서 입력받은 고인정보 또는 반려동물정보에 기반하여 컨텐츠를 생성하고, 생성된 컨텐츠를 컨텐츠출력부(120)로 송신하고, 조작신호에 따라 사용자가 컨텐츠와 상호작용할 수 있도록 컨텐츠출력부(120)를 제어하고, 컨텐츠출력부(120)에서 출력되는 캐릭터(c)의 동작에 따라 인형부(250)의 동작을 제어하는 것으로서, 단말부(110), 컨텐츠출력부(120), 컨텐츠조작부(130) 및 인형부(250)와 전기적으로 연결될 수 있다.
서버부(240)는 보다 상세하게, 통신모듈(241)과, 저장모듈(242)과, 캐릭터구현모듈(243)과, 음성구현모듈(244)과, 제어모듈(245)을 포함할 수 있다.
여기서 통신모듈(241)과, 저장모듈(242)과, 캐릭터구현모듈(243)과, 음성구현모듈(244)은 상술한 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템(100)의 통신모듈(141)과, 저장모듈(142)과, 캐릭터구현모듈(143)과, 음성구현모듈(144)의 구성과 동일한 것이므로 중복 설명은 생략한다.
제어모듈(245)은 상술한 통신모듈(241), 저장모듈(242), 캐릭터구현모듈(243) 및 음성구현모듈(244)을 제어하고, 조작신호에 따라 사용자가 캐릭터(c)와 상호작용할 수 있도록 컨텐츠출력부(120)를 제어하고, 컨텐츠출력부(120)에서 출력되는 캐릭터(c)의 동작에 따라 인형부(250)의 동작을 제어하는 것으로서, 컨텐츠조작부(130)를 통한 사용자의 조작신호 또는 사용자의 발화 문장에 대한 사용자입력에 따라 가상현실, 증강현실 또는 혼합현실 환경에서 구현된 캐릭터(c)가 적절한 반응 내지 행동을 하도록 컨텐츠출력부(120)를 제어할 수 있다.
또한, 제어모듈(245)은 캐릭터(c)의 자세에 따라 후술하는 인형부(250)가 적절한 자세를 취하도록 제어할 수 있는데, 제어모듈(245)은 보다 상세하게, 자세정보생성모듈(245a)과, 모터제어신호생성모듈(245b)을 포함할 수 있다.
자세정보생성모듈(245a)은 캐릭터(c)의 자세정보와 캐릭터(c)의 관절에 대한 위치정보를 생성하는 것으로서, 캐릭터(c)생성모듈에서 생성된 캐릭터(c)의 3D 애니메이션(움직임)으로부터 캐릭터(c)의 자세에 대한 정보인 자세정보를 추정하고, 자세정보로부터 캐릭터(c)의 각각의 관절의 위치를 확인한 후, 이에 대응되는 각 관절의 3차원 위치에 대한 정보인 위치정보를 생성할 수 있다.
모터제어신호생성모듈(245b)은 자세정보생성모듈(245a)로부터 입력된 캐릭터(c)의 관절에 대한 위치정보를 이용하여 인형부(250)가 이에 대응되는 자세를 나타낼 수 있도록, 인형부(250)의 각각의 관절에 포함된 모터의 각도를 제어하는 모터제어신호를 생성하여 통신모듈(141)을 통해 인형부(250)로 전송할 수 있다.
인형부(250)는 메타버스 환경에서 구현된 캐릭터(c)의 동작에 연동되어 동작하는 것으로서, 서버부(240)와 전기적으로 연결된다.
이러한 인형부(250)는 사람 또는 반려동물의 형상을 가질 수 있으며, 사용자는 가상현실, 증강현실 또는 혼합현실 환경에서 구현된 고인 또는 죽은 반려동물의 캐릭터(c)와 상호작용함과 동시에 실체가 있는 인형부(250)를 통해, 예를 들면, 실체가 있는 인형부(250)를 만지거나 끌어안음으로써, 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있다.
이 때, 인형부(250)는 예를 들면, 다수의 관절을 가진 휴머노이드(humanoid) 로봇로 마련되어, 각 관절에 포함된 모터를 제어함으로써 특정 자세를 취하도록 할 수 있다. 즉, 제어모듈(245)의 모터제어신호생성모듈(245b)이 가상현실, 증강현실 또는 혼합현실 환경에서 구현된 캐릭터(c)의 자세에 따라 인형부(250)로 모터제어신호를 송신하면, 인형부(250)는 수신된 모터제어신호에 따라 손가락 마디, 손목, 팔꿈치, 어깨 등의 각각의 관절에 포함된 모터를 제어함으로써 메타버스에서 구현된 캐릭터(c)와 동일한 자세 내지 동작을 취하도록 할 수 있다(예를 들면, 사용자를 끌어안는 자세를 취하는 등).
한편, 인형부(250)는 고인 또는 죽은 반려동물의 생전 체온을 구현할 수 있도록, 복수개의 발열부를 포함하여 구성될 수 있다. 이 때, 고인 또는 죽은 반려동물의 체온은 사용자가 입력한 상술한 고인정보 또는 반려동물정보에 기반하여 구현될 수 있다.
한편, 사용자가 컨텐츠를 체험할 때, 인형부(250)는 고인 또는 죽은 반려동물의 생전 체취를 구현할 수 있도록 고인 또는 죽은 반려동물의 유품 중 생전에 입었던 의류를 착용할 수 있도록 마련될 수 있다.
상술한 바와 같은 인형부(250)에 따르면, 실체가 있는 인형부(250)를 통해 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있으므로, 고인 또는 죽은 반려동물에 대한 사용자의 상실감과 슬픔이 보다 효과적으로 해소될 수 있다.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석 되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
그리고 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 본 발명의 일 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템
110 : 단말부
120 : 컨텐츠출력부
130 : 컨텐츠조작부
140 : 서버부
141 : 통신모듈
142 : 저장모듈
143 : 캐릭터구현모듈
144 : 음성구현모듈
145 : 제어모듈
200 : 본 발명의 다른 실시예에 따른 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템
210 : 단말부
220 : 컨텐츠출력부
230 : 컨텐츠조작부
240 : 서버부
241 : 통신모듈
242 : 저장모듈
243 : 캐릭터구현모듈
244 : 음성구현모듈
245 : 제어모듈
245a : 자세정보생성모듈
245b : 모터제어신호생성모듈
250 : 인형부

Claims (6)

  1. 고인에 대한 정보인 고인정보 또는 죽은 반려동물에 대한 정보인 반려동물정보를 입력받는 단말부;
    사용자에게 착용되고, 고인 또는 죽은 반려동물에 대한 컨텐츠를 출력하는 컨텐츠출력부;
    상기 사용자에게 착용되고, 상기 사용자의 조작에 따라 상기 컨텐츠에 대한 조작신호를 생성하는 컨텐츠조작부; 및
    상기 단말부에서 입력받은 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 컨텐츠를 생성하고, 생성된 상기 컨텐츠를 상기 컨텐츠출력부로 송신하고, 상기 조작신호에 따라 상기 사용자가 상기 컨텐츠와 상호작용할 수 있도록 상기 컨텐츠출력부를 제어하는 서버부를 포함하고,
    상기 컨텐츠는,
    메타버스 환경에서 구현된 상기 고인 또는 상기 죽은 반려동물의 캐릭터 또는 음성인 것을 특징으로 하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
  2. 청구항 1에 있어서,
    상기 캐릭터는,
    가상현실, 증강현실 및 혼합현실 중 어느 하나의 환경에서 구현되는 것을 특징으로 하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
  3. 청구항 1에 있어서,
    상기 음성은,
    상기 사용자의 발화 문장에 대응되는 응답 문장을 생성하도록 학습된 인공신경망 모델을 통해 구현되는 것을 특징으로 하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
  4. 청구항 1에 있어서,
    상기 고인정보는,
    상기 고인의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이, 음색, 발음 및 어조에 대한 정보 중 적어도 어느 하나를 포함하고,
    상기 반려동물정보는,
    상기 죽은 반려동물의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이 및 음색에 대한 정보 중 적어도 어느 하나를 포함하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
  5. 청구항 1에 있어서,
    상기 서버부는,
    상기 단말부, 상기 컨텐츠출력부 및 상기 컨텐츠조작부와 통신하는 통신모듈과, 상기 단말부에서 입력된 상기 고인정보 또는 상기 반려동물정보가 저장되는 저장모듈과, 저장된 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 고인 또는 상기 죽은 반려동물의 캐릭터를 생성하고 생성된 상기 캐릭터를 상기 메타버스 환경에서 구현하는 캐릭터구현모듈과, 저장된 상기 고인정보 또는 상기 반려동물정보에 기반하여 상기 고인 또는 상기 죽은 반려동물의 음성을 구현하는 음성구현모듈과, 상기 조작신호에 따라 상기 사용자가 상기 캐릭터와 상호작용할 수 있도록 상기 컨텐츠출력부를 제어하는 제어모듈을 포함하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
  6. 청구항 1에 있어서,
    상기 메타버스 환경에서 구현된 상기 캐릭터의 동작에 연동되어 동작하는 인형부를 더 포함하는 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템.
KR1020210073678A 2020-06-05 2021-06-07 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템 KR20210151713A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200068500 2020-06-05
KR1020200068500 2020-06-05

Publications (1)

Publication Number Publication Date
KR20210151713A true KR20210151713A (ko) 2021-12-14

Family

ID=78902769

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210073678A KR20210151713A (ko) 2020-06-05 2021-06-07 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템

Country Status (1)

Country Link
KR (1) KR20210151713A (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102461333B1 (ko) * 2022-05-03 2022-11-01 (주)몽몽이 장례 절차에 관한 ar, vr, mr, xr을 포함하는 메타버스 구현 시스템
KR102474653B1 (ko) 2022-03-18 2022-12-07 주식회사 클리노믹스 다중오믹스 데이터 기반의 메타버스 온라인 장례 서비스 시스템
KR102531374B1 (ko) * 2022-02-10 2023-05-10 김희은 인공지능 기반 죽은 반려동물의 가상세계 구현 장치
KR102563699B1 (ko) * 2022-08-25 2023-08-03 보잉 자오 메타버스 기반 명품 체험 시스템 및 방법
KR20230115764A (ko) 2022-01-27 2023-08-03 주식회사 지지56코리아 전자지갑 기반 아바타의 이력 관리를 위한 메타버스 시스템
KR20230115768A (ko) 2022-01-27 2023-08-03 주식회사 지지56코리아 아바타 토큰화를 이용한 메타버스 시스템
KR20230130434A (ko) 2022-03-03 2023-09-12 대진대학교 산학협력단 메타버스 내에서 실제 현장을 모니터링하고 정보를 공유할 수 있는 시스템
KR102619389B1 (ko) 2022-11-18 2023-12-29 주식회사 넘버제로 별자리 기반 메타버스 추모관 서비스의 인터페이스 제공 방법, 장치 및 시스템
KR102621308B1 (ko) 2022-11-25 2024-01-09 주식회사 넘버제로 별자리 기반 메타버스 추모관 플랫폼 서비스 제공 방법, 장치 및 시스템
KR102619388B1 (ko) 2022-11-22 2024-01-11 주식회사 넘버제로 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법, 장치 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200075520A (ko) 2018-12-18 2020-06-26 조수영 사이버 추모 서버 및 이를 이용한 사이버 추모 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200075520A (ko) 2018-12-18 2020-06-26 조수영 사이버 추모 서버 및 이를 이용한 사이버 추모 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230115764A (ko) 2022-01-27 2023-08-03 주식회사 지지56코리아 전자지갑 기반 아바타의 이력 관리를 위한 메타버스 시스템
KR20230115768A (ko) 2022-01-27 2023-08-03 주식회사 지지56코리아 아바타 토큰화를 이용한 메타버스 시스템
KR102531374B1 (ko) * 2022-02-10 2023-05-10 김희은 인공지능 기반 죽은 반려동물의 가상세계 구현 장치
KR20230130434A (ko) 2022-03-03 2023-09-12 대진대학교 산학협력단 메타버스 내에서 실제 현장을 모니터링하고 정보를 공유할 수 있는 시스템
KR102474653B1 (ko) 2022-03-18 2022-12-07 주식회사 클리노믹스 다중오믹스 데이터 기반의 메타버스 온라인 장례 서비스 시스템
KR102461333B1 (ko) * 2022-05-03 2022-11-01 (주)몽몽이 장례 절차에 관한 ar, vr, mr, xr을 포함하는 메타버스 구현 시스템
KR102563699B1 (ko) * 2022-08-25 2023-08-03 보잉 자오 메타버스 기반 명품 체험 시스템 및 방법
WO2024043391A1 (ko) * 2022-08-25 2024-02-29 자오보잉 메타버스 기반 명품 체험 시스템 및 방법
KR102619389B1 (ko) 2022-11-18 2023-12-29 주식회사 넘버제로 별자리 기반 메타버스 추모관 서비스의 인터페이스 제공 방법, 장치 및 시스템
KR102619388B1 (ko) 2022-11-22 2024-01-11 주식회사 넘버제로 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법, 장치 및 시스템
KR102621308B1 (ko) 2022-11-25 2024-01-09 주식회사 넘버제로 별자리 기반 메타버스 추모관 플랫폼 서비스 제공 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
KR20210151713A (ko) 메타버스 기반의 망자에 대한 컨텐츠 구현 시스템
JP7437327B2 (ja) 異種入力の補間のための方法およびシステム
JP2019510325A (ja) マルチモーダルデジタル画像を生成する方法及びシステム
US20060184355A1 (en) Behavioural translator for an object
KR20040091331A (ko) 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장내용에 상응하는 아바타 표현 방법 및 시스템
KR102095089B1 (ko) 디지털 에이전트 이동 매니퓰레이터 및 그 동작 방법
US11836840B2 (en) Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
CN114630738B (zh) 用于模拟感测数据和创建感知的系统和方法
Basori Emotion walking for humanoid avatars using brain signals
Hartholt et al. Ubiquitous virtual humans: A multi-platform framework for embodied ai agents in xr
JP2024016167A (ja) マシン相互作用
Kwolek et al. Recognition of JSL fingerspelling using deep convolutional neural networks
US20230260156A1 (en) Methods and systems for interpolation of disparate inputs
Wang et al. Human-Centered Interaction in Virtual Worlds: A New Era of Generative Artificial Intelligence and Metaverse
WO2023284634A1 (zh) 一种数据处理方法及相关设备
KR20230126519A (ko) 메타버스 기반의 학습용 컨텐츠 구현 시스템
JP6562711B2 (ja) ロボット動作生成装置およびプログラム
Chandrasiri et al. Internet communication using real-time facial expression analysis and synthesis
Arias et al. Convolutional neural network applied to the gesticulation control of an interactive social robot with humanoid aspect
López-Colino et al. Full skeleton-based virtual human animation: an improved design for SL avatars
CN111131913A (zh) 基于虚拟现实技术的视频生成方法、装置及存储介质
Arias et al. A ConvNet-based approach applied to the gesticulation control of a social robot
Masabanda et al. Design and Construction of an Anthropomorphic Robotic Head with Gestural Projection
CN117857892B (zh) 基于人工智能的数据处理方法、装置、电子设备、计算机程序产品及计算机可读存储介质
KR102641886B1 (ko) 3d 조형물을 활용한 증강현실 연동 시스템 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal