KR102619388B1 - Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation - Google Patents

Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation Download PDF

Info

Publication number
KR102619388B1
KR102619388B1 KR1020220157207A KR20220157207A KR102619388B1 KR 102619388 B1 KR102619388 B1 KR 102619388B1 KR 1020220157207 A KR1020220157207 A KR 1020220157207A KR 20220157207 A KR20220157207 A KR 20220157207A KR 102619388 B1 KR102619388 B1 KR 102619388B1
Authority
KR
South Korea
Prior art keywords
displayed
virtual space
influencer
information
user
Prior art date
Application number
KR1020220157207A
Other languages
Korean (ko)
Inventor
권수연
Original Assignee
주식회사 넘버제로
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넘버제로 filed Critical 주식회사 넘버제로
Priority to KR1020220157207A priority Critical patent/KR102619388B1/en
Application granted granted Critical
Publication of KR102619388B1 publication Critical patent/KR102619388B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법에 있어서, 제1 사용자가 출력 기기를 착용한 것으로 확인되면, 하늘 또는 우주 공간 상에 별자리들이 표시되어 있는 추모관 서비스의 초기 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 상기 제1 사용자가 조작 기기를 착용하고 있는 경우, 상기 조작 기기를 통해 상기 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 상기 제1 별자리 또는 제1 별이 누구의 추모를 위해 설정되어 있는지 확인하는 단계; 상기 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 상기 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제1 가상 공간에 상기 제1 사용자가 접속되도록, 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 및 상기 조작 기기를 통해 상기 제1 가상 공간 내에서의 이동이 요청되면, 상기 제1 가상 공간 상에서 상기 제1 사용자가 위치하고 있는 지점을 변경하여, 상기 변경된 지점을 중심으로 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계를 포함하는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법이 제공된다.According to one embodiment, in a method of providing an interface for implementing a visual effect according to a connection related to a constellation-based metaverse memorial service performed by a device, when it is confirmed that the first user is wearing an output device, the display is displayed in the sky or outer space. Controlling the initial screen of the memorial service with constellations displayed on the output device to be displayed; When the first user is wearing an operating device and the first constellation or first star is selected on the initial screen through the operating device, the first constellation or first star is set for whose memory. Confirmation steps; If it is confirmed that the first constellation or the first star is set to commemorate the first deceased or the first companion animal, a memorial space for the memorial of the first deceased or the first companion animal is implemented in the metaverse environment. controlling a screen of the first virtual space to be displayed on the output device so that the first user is connected to the first virtual space; And when movement within the first virtual space is requested through the operating device, the point at which the first user is located in the first virtual space is changed, and the screen of the first virtual space is displayed centered on the changed point. A method of providing an interface for implementing visual effects according to access related to a constellation-based metaverse memorial service is provided, including the step of controlling the display to be displayed on the output device.

Description

별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROVIDING INTERFACE THAT IMPLEMENT VISUAL EFFECT DEPENDING ON ACCESS RELATED TO METAVERSE MEMORIAL HALL SERVICE BASED ON CONSTELLATION}Method, device and system for providing an interface for implementing visual effects according to access to constellation-based Metaverse Memorial Hall service {METHOD, DEVICE AND SYSTEM FOR PROVIDING INTERFACE THAT IMPLEMENT VISUAL EFFECT DEPENDING ON ACCESS RELATED TO METAVERSE MEMORIAL HALL SERVICE BASED ON CONSTELLATION}

아래 실시예들은 별자리를 기반으로 메타버스 추모관 서비스와 관련된 접속에 따른 시각적 효과를 구현한 인터페이스를 제공하기 위한 기술에 관한 것이다.The following embodiments relate to technology for providing an interface that implements visual effects according to access related to the metaverse memorial service based on constellations.

보통 사람 또는 반려동물이 죽으면 그 시체는 화장을 하거나 묘지를 조성하고, 이와 더불어 고인 또는 죽은 반려동물, 즉, 망자가 죽기전에 갖고 있던 물품들을 정리하게 되는 바, 망자를 그리워하는 사람들은 얼마 남지 않은 망자의 옛 사진 또는 유품을 통해 회상에 잠기며 망자에 대한 그리움을 달래는데 그치고 있다.Usually, when a person or a pet dies, the body is cremated or a cemetery is created, and along with this, the deceased or dead pet, that is, the items the deceased had before death, are organized, so there are not many people left who miss the deceased. The only way to appease the longing for the dead is by reminiscing about them through old photos or mementos of the dead.

그러나 이는 망자의 옛 사진 또는 유품이 온전히 남아있을 때나 가능한 것으로, 시간이 경과할수록 망자의 옛 사진 또는 유품은 훼손되기 마련이고, 이러한 망자의 옛 사진 또는 유품만으로는 망자와 함께 보냈던 추억을 간직하기엔 부족한 것이 현실이다.However, this is only possible when old photos or mementos of the deceased remain intact. As time passes, old photos or mementos of the deceased are bound to be damaged, and these old photos or mementos of the deceased alone are not enough to preserve the memories spent with the deceased. It's reality.

최근, 가상세계를 사용자에게 제공하는 대표적인 서비스로서 메타버스(metaverse)가 각광받고 있다. 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 3차원 가상세계를 의미하며, 이러한 메타버스의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR) 기술이다.Recently, metaverse has been in the spotlight as a representative service that provides virtual worlds to users. Metaverse is a compound word of meta, meaning processing and abstraction, and universe, meaning the real world, and refers to a three-dimensional virtual world. The core technologies of this metaverse are virtual reality (VR), It is an extended reality (XR) technology that encompasses augmented reality (AR) and mixed reality (MR).

망자와 사별하여 마음의 상처를 안고 살아가는 사람들의 상실감과 슬픔을 해소시키기 위해, 상술한 메타버스 환경을 이용하여 고인 또는 죽은 반려동물과 상호작용할 수 있는 컨텐츠의 개발이 절실히 요구되고 있다.In order to relieve the sense of loss and sadness of people who live with the emotional wounds of bereavement of the deceased, there is an urgent need for the development of content that can interact with the deceased or dead pets using the metaverse environment described above.

따라서, 메타버스 환경에서 고인 또는 죽은 반려동물을 추모하기 위한 추모 공간을 제공하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.Therefore, as the demand to provide a memorial space to commemorate the deceased or dead companion animal in the metaverse environment is increasing, research on related technologies is required.

한국등록특허 제10-2410670호Korean Patent No. 10-2410670 한국공개특허 제10-2021-0151713호Korean Patent Publication No. 10-2021-0151713 한국공개특허 제10-2020-0125054호Korean Patent Publication No. 10-2020-0125054 한국공개특허 제10-2019-0134912호Korean Patent Publication No. 10-2019-0134912

일실시예에 따르면, 제1 사용자가 출력 기기를 착용한 것으로 확인되면, 하늘 또는 우주 공간 상에 별자리들이 표시되어 있는 추모관 서비스의 초기 화면이 출력 기기에서 표시되도록 제어하고, 제1 사용자가 조작 기기를 착용하고 있는 경우, 조작 기기를 통해 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 제1 별자리 또는 제1 별이 누구의 추모를 위해 설정되어 있는지 확인하고, 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제1 가상 공간에 제1 사용자가 접속되도록, 제1 가상 공간의 화면이 출력 기기에서 표시되도록 제어하고, 조작 기기를 통해 제1 가상 공간 내에서의 이동이 요청되면, 제1 가상 공간 상에서 제1 사용자가 위치하고 있는 지점을 변경하여, 변경된 지점을 중심으로 제1 가상 공간의 화면이 출력 기기에서 표시되도록 제어하는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법, 장치 및 시스템을 제공하는 것을 목적으로 한다.According to one embodiment, when it is confirmed that the first user is wearing the output device, the initial screen of the memorial service showing constellations in the sky or outer space is controlled to be displayed on the output device, and the first user controls the operation device If you are wearing it, when the first constellation or first star is selected on the initial screen through the control device, check whose memorial the first constellation or first star is set for, and select the first constellation or first star. If it is confirmed that the memorial space for the first deceased or the first companion animal is set up to commemorate the first deceased or the first companion animal, the first user is in the first virtual space where the memorial space for the first deceased or the first companion animal is implemented in the metaverse environment. Controls the screen of the first virtual space to be displayed on the output device so that it is connected, and when movement within the first virtual space is requested through the operation device, the point where the first user is located in the first virtual space is changed. The purpose is to provide a method, device, and system for providing an interface for implementing visual effects according to access to the constellation-based metaverse memorial service, which controls the screen of the first virtual space to be displayed on the output device centered on the changed point.

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The object of the present invention is not limited to the object mentioned above, and other objects not mentioned can be clearly understood from the description below.

일실시예에 따르면, 장치에 의해 수행되는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법에 있어서, 제1 사용자가 출력 기기를 착용한 것으로 확인되면, 하늘 또는 우주 공간 상에 별자리들이 표시되어 있는 추모관 서비스의 초기 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 상기 제1 사용자가 조작 기기를 착용하고 있는 경우, 상기 조작 기기를 통해 상기 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 상기 제1 별자리 또는 제1 별이 누구의 추모를 위해 설정되어 있는지 확인하는 단계; 상기 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 상기 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제1 가상 공간에 상기 제1 사용자가 접속되도록, 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 및 상기 조작 기기를 통해 상기 제1 가상 공간 내에서의 이동이 요청되면, 상기 제1 가상 공간 상에서 상기 제1 사용자가 위치하고 있는 지점을 변경하여, 상기 변경된 지점을 중심으로 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계를 포함하는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법이 제공된다.According to one embodiment, in a method of providing an interface for implementing a visual effect according to a connection related to a constellation-based metaverse memorial service performed by a device, when it is confirmed that the first user is wearing an output device, the display is displayed in the sky or outer space. Controlling the initial screen of the memorial service with constellations displayed on the output device to be displayed; When the first user is wearing an operating device and the first constellation or first star is selected on the initial screen through the operating device, the first constellation or first star is set for whose memory. Confirmation steps; If it is confirmed that the first constellation or the first star is set to commemorate the first deceased or the first companion animal, a memorial space for the memorial of the first deceased or the first companion animal is implemented in the metaverse environment. controlling a screen of the first virtual space to be displayed on the output device so that the first user is connected to the first virtual space; And when movement within the first virtual space is requested through the operating device, the point at which the first user is located in the first virtual space is changed, and the screen of the first virtual space is displayed centered on the changed point. A method of providing an interface for implementing visual effects according to access related to a constellation-based metaverse memorial service is provided, including the step of controlling the display to be displayed on the output device.

상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는, 상기 제1 별자리 또는 제1 별이 선택된 것으로 확인되면, 상기 초기 화면에서 상기 제1 별자리 또는 제1 별이 위치한 제1 구역을 확대하여, 상기 제1 구역의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 상기 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 상기 제1 가상 공간인 것으로 확인되면, 상기 제1 구역의 화면에 이어서 상기 제1 가상 공간으로 접속하는 접속 영상의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 및 상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계를 포함할 수 있다. The step of controlling the screen of the first virtual space to be displayed on the output device includes, when it is confirmed that the first constellation or the first star is selected, the first zone where the first constellation or the first star is located on the initial screen. enlarging and controlling the screen of the first zone to be displayed on the output device; If it is confirmed that the memorial space for commemorating the first deceased or the first companion animal is the first virtual space, the screen of the access video accessing the first virtual space following the screen of the first zone is displayed on the output device. controlling to be displayed; and controlling the screen of the first virtual space to be displayed on the output device following the screen of the connected video.

상기 제1 구역의 화면에 이어서 상기 제1 가상 공간으로 접속하는 접속 영상의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는, 상기 제1 고인 또는 제1 반려동물이 제1 연령대의 캐릭터로 구현된 제1 아바타의 영상이 제1 구간의 양측 벽면에서 표시되도록 제어하는 단계; 및 상기 제1 고인 또는 제1 반려동물이 상기 제1 연령대 보다 나이가 많은 제2 연령대의 캐릭터로 구현된 제2 아바타의 영상이 상기 제1 구간에 이어서 제2 구간의 양측 벽면에서 표시되도록 제어하는 단계를 포함할 수 있다.The step of controlling the screen of the access video accessing the first virtual space to be displayed on the output device following the screen of the first zone includes the first deceased or the first companion animal being implemented as a character of the first age group. Controlling the image of the first avatar to be displayed on both walls of the first section; And controlling the image of the second avatar, in which the first deceased or the first companion animal is embodied as a character of a second age group older than the first age group, to be displayed on the walls on both sides of the second section following the first section. May include steps.

상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는, 상기 제1 고인 또는 제1 반려동물이 상기 제2 연령대 보다 나이가 많은 제3 연령대의 캐릭터로 구현된 제3 아바타가 상기 제1 가상 공간에서 표시되도록 설정하는 단계; 및 상기 제3 아바타를 통해 상기 제1 사용자가 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 상기 제3 아바타가 상기 제1 가상 공간에서 표시되도록 제어하는 단계를 포함할 수 있다.The step of controlling the screen of the first virtual space to be displayed on the output device following the screen of the access video includes the step of controlling the first deceased or the first companion animal as a character of a third age group older than the second age group. setting the implemented third avatar to be displayed in the first virtual space; And controlling the third avatar to be displayed in the first virtual space so that the first user can feel the experience of encountering the first deceased or the first companion animal through the third avatar. there is.

상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는, 상기 제3 아바타를 통해 상기 제1 사용자가 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계 이후, 상기 조작 기기를 통해 추모 장소가 제1 장소로 선택되고 조우 연도가 제1 연도로 선택되면, 상기 제1 가상 공간이 상기 제1 연도의 상기 제1 장소로 구현되도록 설정하는 단계; 상기 제1 연도를 기준으로 상기 제1 고인 또는 제1 반려동물의 연령대를 제4 연령대로 확인하는 단계; 상기 제4 연령대의 캐릭터로 구현된 제4 아바타가 상기 제1 연도의 상기 제1 장소로 구현된 상기 제1 가상 공간 상에서 표시되도록 설정하는 단계; 및 상기 제1 사용자가 상기 제1 장소에서 상기 제1 연도에 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 상기 제4 아바타가 상기 제1 가상 공간에서 표시되도록 제어하는 단계를 더 포함할 수 있다.The step of controlling the screen of the first virtual space to be displayed on the output device following the screen of the connected video includes the experience of the first user encountering the first deceased or the first companion animal through the third avatar. After the step of controlling the screen of the first virtual space to be displayed on the output device so that one can feel, if the memorial place is selected as the first place and the encounter year is selected as the first year through the operation device, the first setting a virtual space to be implemented as the first location in the first year; Confirming the age group of the first deceased or the first companion animal as a fourth age group based on the first year; Setting a fourth avatar implemented as a character of the fourth age group to be displayed on the first virtual space implemented as the first location in the first year; and controlling the fourth avatar to be displayed in the first virtual space so that the first user can feel the experience of encountering the first deceased or the first companion animal in the first place and in the first year. It may further include.

일실시예에 따르면, 메타버스 환경에서 고인 또는 죽은 반려동물을 추모하기 위한 추모 공간을 제공함으로써, 사용자가 메타버스 환경에서 고인 또는 죽은 반려동물과 상호작용할 수 있으므로, 사용자가 보다 높은 몰입도로 고인 또는 죽은 반려동물과 교감할 수 있는 효과가 있다.According to one embodiment, by providing a memorial space to commemorate the deceased or dead pet in the metaverse environment, the user can interact with the deceased or dead pet in the metaverse environment, so that the user can interact with the deceased or dead pet with a higher level of immersion. It has the effect of allowing you to communicate with dead pets.

한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Meanwhile, the effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 별자리를 기반으로 메타버스 추모관 서비스의 인터페이스를 제공하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 가상 공간 접속 시 시각적인 효과를 제공하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 가상 공간으로 접속하는 접속 영상을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 추모 장소 및 조우 연도에 따른 시각적인 효과를 제공하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 합동 조문을 추천하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 추모관 서비스를 이용하는 사용자들을 위한 제품 개발을 추천하고 제품의 광고를 수행할 인플루언서를 매칭하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 후보 인플루언서의 정보를 기초로 제품의 광고를 수행할 인플루언서를 선정하는 과정을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 장치의 구성의 예시도이다.
1 is a diagram schematically showing the configuration of a system according to an embodiment.
Figure 2 is a flow chart to explain the process of providing an interface for the metaverse memorial service based on constellations according to an embodiment.
Figure 3 is a flowchart for explaining a process for providing visual effects when accessing a virtual space according to an embodiment.
Figure 4 is a diagram for explaining a connection video for accessing a virtual space according to an embodiment.
Figure 5 is a flowchart for explaining the process of providing visual effects according to the memorial location and encounter year according to an embodiment.
Figure 6 is a flowchart for explaining the process of recommending a joint condolence statement according to an embodiment.
Figure 7 is a flow chart for explaining the process of recommending product development for users using the memorial service according to an embodiment and matching influencers who will advertise the product.
FIG. 8 is a diagram illustrating a process of selecting an influencer to advertise a product based on information on a candidate influencer according to an embodiment.
Figure 9 is an exemplary diagram of the configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, various changes can be made to the embodiments, so the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes for the embodiments are included in the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be modified and implemented in various forms. Accordingly, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are for descriptive purposes only and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the embodiments belong. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the present application, should not be interpreted in an ideal or excessively formal sense. No.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, when describing with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiments, if it is determined that detailed descriptions of related known technologies may unnecessarily obscure the gist of the embodiments, the detailed descriptions are omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.Embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, it is a system in which machines learn and make decisions on their own. As artificial intelligence systems are used, their recognition rates improve and they can more accurately understand user preferences, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithmic technology that classifies/learns the characteristics of input data on its own, and elemental technology is a technology that mimics the functions of the human brain such as cognition and judgment by utilizing machine learning algorithms such as deep learning, including linguistic understanding and visual It consists of technical areas such as understanding, reasoning/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology that recognizes and applies/processes human language/characters and includes natural language processing, machine translation, conversation systems, question and answer, and voice recognition/synthesis. Visual understanding is a technology that recognizes and processes objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, spatial understanding, and image improvement. Inferential prediction is a technology that judges information to make logical inferences and predictions, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendations. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology that controls the autonomous driving of vehicles and the movement of robots, and includes motion control (navigation, collision, driving), operation control (behavior control), etc.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.Generally, in order to apply machine learning algorithms to real life, learning is performed using a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 출력 기기(100), 조작 기기(200) 및 장치(300)를 포함할 수 있다.Referring to FIG. 1 , a system according to one embodiment may include an output device 100, an operating device 200, and a device 300.

먼저, 출력 기기(100)는 메타버스 환경으로 구현된 화면을 출력하는 기기로, 장치(300)와 전기적으로 연결될 수 있다.First, the output device 100 is a device that outputs a screen implemented in a metaverse environment and can be electrically connected to the device 300.

여기서, 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실 세계를 의미하는 유니버스(universe)의 합성어로 온라인 속 3차원 입체 가상 세계에서 캐릭터 내지 아바타의 모습으로 구현된 개인들이 서로 소통하여, 현실의 활동을 그대로 할 수 있는 플랫폼을 말한다. 이러한 메타버스 환경은 가상 현실(virtual reality, VR), 증강 현실(augmented reality, AR) 및 혼합 현실(mixed reality, MR)을 아우르는 확장 현실(extended reality, XR)을 포함할 수 있다.Here, metaverse is a compound word of meta, meaning processing and abstraction, and universe, meaning the real world. In an online three-dimensional virtual world, individuals embodied as characters or avatars communicate with each other, It refers to a platform that allows you to carry out activities in the real world. This metaverse environment may include extended reality (XR), which encompasses virtual reality (VR), augmented reality (AR), and mixed reality (MR).

가상 현실은 컴퓨터를 이용하여 현실 세계에 존재하지 않는 가상 공간을 구축한 후 그 가상 공간을 현실처럼 느끼게 하는 기술을 말하고, 증강 현실 또는 혼합 현실은 현실 세계 위에 컴퓨터에 의해 생성된 정보를 덧붙여 표현하는 기술, 즉 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 기술을 말하는데, 본 발명에서의 메타버스 환경은 가상 현실, 증강 현실 및 혼합 현실 중 어느 하나의 환경을 통해 구현될 수 있다.Virtual reality refers to a technology that uses a computer to build a virtual space that does not exist in the real world and then makes the virtual space feel like reality, while augmented reality or mixed reality is a technology that adds computer-generated information to the real world. Technology, that is, technology that allows real-time interaction with users by combining the real world and the virtual world. The metaverse environment in the present invention can be implemented through any one of virtual reality, augmented reality, and mixed reality. You can.

출력 기기(100)는 메타버스 환경으로 구현된 화면의 영상을 출력하기 위해 사용자에게 착용되는 것으로, 예를 들면, 사용자의 머리 또는 눈 부분에 장착하여 사용자의 눈 앞에 직접 VR/AR 영상을 출력하는 디스플레이 장치인 헤드마운트 디스플레이(head mounted display, HMD) 등으로 마련될 수 있다. 헤드마운트 디스플레이는 사용자가 현실감 있는 영상을 체험할 수 있도록 지원하는 웨어러블 영상 출력 단말의 일종이며, 주로 헬멧 전면에 디스플레이가 장착되어 VR/AR 등의 영상을 출력할 수 있다.The output device 100 is worn by the user to output images on the screen implemented in the metaverse environment. For example, it is mounted on the user's head or eyes to output VR/AR images directly in front of the user's eyes. It may be provided as a display device, such as a head mounted display (HMD). A head-mounted display is a type of wearable video output terminal that allows users to experience realistic images. The display is mainly mounted on the front of the helmet and can output images such as VR/AR.

출력 기기(100)는 출력 기기(100)를 착용한 사용자의 머리 움직임을 통해 사용자의 시선을 추적할 수 있으며, 헤드 트렉킹을 통해 사용자의 시선 이동에 따라 영상이 변경되어 표시되도록 처리할 수 있다. 즉, 출력 기기(100)는 사용자 머리의 회전 각도와 속도 등을 수치화하여, 사용자 머리의 움직임과 동일한 방향으로 영상이 변경되도록 처리할 수 있다. 예를 들어, 사용자의 머리가 오른쪽으로 회전하면 메타버스 환경으로 구현된 화면의 영상에서도 오른쪽으로 움직이고, 사용자의 머리가 왼쪽으로 회전하면 메타버스 환경으로 구현된 화면의 영상에서도 왼쪽으로 움직이도록 처리할 수 있다.The output device 100 can track the user's gaze through the head movement of the user wearing the output device 100, and can process the image to be changed and displayed according to the user's gaze movement through head tracking. That is, the output device 100 can quantify the rotation angle and speed of the user's head and process the image so that it changes in the same direction as the movement of the user's head. For example, if the user's head turns to the right, the image on the screen implemented in the metaverse environment will move to the right, and if the user's head rotates to the left, the image on the screen implemented in the metaverse environment will also move to the left. You can.

조작 기기(200)는 사용자에게 착용되어 사용자의 조작에 따라 명령에 대한 조작 신호를 생성하는 기기로, 장치(300)와 전기적으로 연결될 수 있다.The manipulation device 200 is a device worn by the user and generates a manipulation signal for a command according to the user's manipulation, and may be electrically connected to the device 300.

조작 기기(200)는 메타버스 환경으로 구현된 화면 상에서 상호작용하기 위해 사용자의 손에 착용되는 것으로, 예를 들면, 사용자의 모션을 트래킹하고, 물리적인 피드백을 제공하며, 촉감에 대한 피드백을 제공하는 VR/AR글러브(VR/AR gloves)로 마련될 수 있다.The manipulation device 200 is worn on the user's hand to interact on a screen implemented in a metaverse environment, for example, tracking the user's motion, providing physical feedback, and providing tactile feedback. It can be provided with VR/AR gloves.

이러한 VR/AR글러브(VR/AR gloves)는 사용자의 손가락, 손, 손목의 모션을 트래킹하여 VR/AR 상에서 구현하고, 각 손가락마다 기설정된 크기의 인장력을 가함으로써 VR/AR내 물체의 경도를 표현하며, 각 손가락에 설치된 진동센서를 통하여 감촉을 표현하는데, 본 발명에서는 사용자가 메타버스 환경에서 상호작용하기 위해 VR/AR 글러브를 활용하여 조작 신호를 생성하면, 조작 신호를 통해 메타버스 기반의 체험 서비스가 제공될 수 있다.These VR/AR gloves track the motion of the user's fingers, hands, and wrists and implement them in VR/AR, and apply a preset amount of tension to each finger to improve the hardness of objects in VR/AR. The texture is expressed through the vibration sensor installed on each finger. In the present invention, when the user generates a manipulation signal using a VR/AR glove to interact in the metaverse environment, the manipulation signal is used to control the metaverse-based Experience services may be provided.

장치(300)는 장치(300)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(300)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.The device 300 may be its own server owned by a person or organization that provides services using the device 300, a cloud server, or a p2p (peer-to-peer) set of distributed nodes. It may be possible. The device 300 may be configured to perform all or part of the calculation function, storage/reference function, input/output function, and control function of a typical computer.

장치(300)는 출력 기기(100)와 유무선으로 통신하도록 구성될 수 있으며, 출력 기기(100)의 화면에 어느 정보를 표시할 것인지에 대해 제어할 수 있고, 출력 기기(100)의 전체적인 동작을 제어할 수 있다.The device 300 may be configured to communicate wired or wirelessly with the output device 100, can control which information to display on the screen of the output device 100, and controls the overall operation of the output device 100. can do.

장치(300)는 조작 기기(200)와 유무선으로 통신하도록 구성될 수 있으며, 조작 기기(200)로부터 조작 신호를 획득하여 사용자 조작을 인식할 수 있고, 조작 기기(200)의 전체적인 동작을 제어할 수 있다.The device 300 may be configured to communicate wired or wirelessly with the manipulation device 200, can obtain a manipulation signal from the manipulation device 200, recognize user manipulation, and control the overall operation of the manipulation device 200. You can.

한편, 장치(300)는 기계 학습 알고리즘의 수행을 위하여 미리 학습된 다수의 인공 신경망을 포함할 수 있다.Meanwhile, the device 300 may include a plurality of pre-trained artificial neural networks to perform machine learning algorithms.

본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.In the present invention, artificial intelligence (AI) refers to technology that imitates human learning ability, reasoning ability, perception ability, etc. and implements this with a computer, and includes concepts such as machine learning and symbolic logic. may include. Machine Learning (ML) is an algorithmic technology that classifies or learns the characteristics of input data on its own. Artificial intelligence technology is a machine learning algorithm that analyzes input data, learns the results of the analysis, and makes judgments or predictions based on the results of the learning. Additionally, technologies that mimic the functions of the human brain, such as cognition and judgment, using machine learning algorithms can also be understood as the category of artificial intelligence. For example, technical fields such as verbal understanding, visual understanding, reasoning/prediction, knowledge representation, and motion control may be included.

기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.Machine learning can refer to the process of training a neural network model using experience processing data. Machine learning can mean that computer software improves its own data processing capabilities. A neural network model is built by modeling the correlation between data, and the correlation can be expressed by a plurality of parameters. A neural network model extracts and analyzes features from given data to derive correlations between data. Repeating this process to optimize the parameters of the neural network model can be called machine learning. For example, a neural network model can learn the mapping (correlation) between input and output for data given as input-output pairs. Alternatively, a neural network model may learn the relationships by deriving regularities between given data even when only input data is given.

인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.An artificial intelligence learning model or neural network model may be designed to implement the human brain structure on a computer, and may include a plurality of network nodes with weights that simulate neurons of a human neural network. A plurality of network nodes may have a connection relationship with each other by simulating the synaptic activity of neurons in which neurons exchange signals through synapses. In an artificial intelligence learning model, multiple network nodes are located in layers of different depths and can exchange data according to convolutional connection relationships. The artificial intelligence learning model may be, for example, an artificial neural network model (Artificial Neural Network), a convolution neural network (CNN) model, etc. As an example, an artificial intelligence learning model may be machine-learned according to methods such as supervised learning, unsupervised learning, and reinforcement learning. Machine learning algorithms for performing machine learning include Decision Tree, Bayesian Network, Support Vector Machine, Artificial Neural Network, and Ada-boost. , Perceptron, Genetic Programming, Clustering, etc. can be used.

이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공 신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.Among them, CNN is a type of multilayer perceptrons designed to use minimal preprocessing. CNN consists of one or several convolution layers and general artificial neural network layers on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, CNN can fully utilize input data with a two-dimensional structure. Compared to other deep learning structures, CNN shows good performance in both video and audio fields. CNNs can also be trained via standard back propagation. CNNs have the advantage of being easier to train and using fewer parameters than other feedforward artificial neural network techniques.

컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.Convolutional networks are neural networks that contain sets of nodes with bound parameters. The increasing size of available training data and the availability of computational power, combined with algorithmic advances such as piecewise linear unit and dropout training, have led to significant improvements in many computer vision tasks. For extremely large data sets, such as those available for many tasks today, overfitting is not critical, and increasing the size of the network improves test accuracy. Optimal use of computing resources becomes a limiting factor. For this purpose, distributed, scalable implementations of deep neural networks can be used.

일실시예에 따르면, 장치(300)는 별자리를 기반으로 메타버스 환경에서 추모관 서비스를 제공할 수 있다. 여기서, 추모관 서비스는 고인 또는 반려동물의 추모를 위해 별 또는 별자리를 구매하여 하늘 또는 우주 공간에 묻어 추모할 수 있게 해주는 서비스로, 메타버스 환경에서 고인 또는 반려동물을 구현하여 추모할 수 있게 해주는 서비스이다.According to one embodiment, the device 300 may provide a memorial service in a metaverse environment based on constellations. Here, the memorial service is a service that allows you to purchase stars or constellations to commemorate the deceased or a pet and bury them in the sky or outer space. It is a service that allows you to commemorate the deceased or a pet by embodying them in a metaverse environment. am.

장치(300)는 별자리를 표시하고 특정 별 또는 별자리에 매칭된 추모 공간에 접속할 수 있도록, 유저 인터페이스를 제공할 수 있다. 이때, 장치(300)는 하늘 또는 우주 공간 상에 별자리를 표시하여 서비스의 초기 화면을 제공할 수 있고, 서비스를 이용하는데 필요한 각 메뉴와 별자리가 어우러지게 표시되도록 처리할 수 있다. 이와 관련된 자세한 설명은 도 2를 참조하여 후술하기로 한다.The device 300 may display a constellation and provide a user interface to access a memorial space matched to a specific star or constellation. At this time, the device 300 can provide the initial screen of the service by displaying constellations in the sky or outer space, and can process the constellations to be displayed in harmony with each menu required to use the service. A detailed description regarding this will be provided later with reference to FIG. 2 .

장치(300)는 메타버스 환경으로 추모관 서비스를 제공하는데 있어, 다양한 시각적 효과를 구현하기 위한 인터페이스를 제공할 수 있다. 예를 들어, 장치(300)는 특정 별 또는 특정 별자리를 선택하면, 선택된 별 또는 별자리를 통해 추모 장소로 접속할 때, 타임루프와 같이 빨려 들어가는 효과를 적용하여, 추모 장소로 변환되도록 시각적인 효과를 제공할 수 있다. 이때, 추모 장소로 접속하는 과정에서 추모 대상인 고인 또는 반려동물의 일대기가 영상으로 표시될 수 있다. 이와 관련된 자세한 설명은 도 3 내지 도 4를 참조하여 후술하기로 한다.The device 300 may provide an interface for implementing various visual effects when providing memorial services in a metaverse environment. For example, when a specific star or a specific constellation is selected, the device 300 applies a time loop-like sucking effect when accessing a memorial site through the selected star or constellation, creating a visual effect to transform it into a memorial site. can be provided. At this time, in the process of accessing the memorial location, the life story of the deceased or companion animal that is the subject of memorialization may be displayed as a video. A detailed description related to this will be described later with reference to FIGS. 3 and 4.

장치(300)는 메타버스 환경으로 추모관 서비스를 제공하는데 있어, 사용자 맞춤형의 메타버스 환경을 제공할 수 있다. 예를 들어, 장치(300)는 사용자가 추모 장소 및 조우 연도를 선택하면, 선택된 추모 장소 및 조우 연도에 사용자가 고인 또는 반려동물과 조우하는 경험을 느낄 수 있도록, 사용자 맞춤형으로 메타버스 환경을 커스터마이징 할 수 있다. 이와 관련된 자세한 설명은 도 5를 참조하여 후술하기로 한다.The device 300 can provide a user-customized metaverse environment in providing memorial service in a metaverse environment. For example, when the user selects a memorial location and encounter year, the device 300 customizes the metaverse environment so that the user can feel the experience of encountering the deceased or a companion animal at the selected memorial location and encounter year. can do. A detailed description regarding this will be provided later with reference to FIG. 5 .

메타버스 환경으로 구현된 영상에는 추모관 서비스에 사용되는 다양한 메뉴가 아이콘으로 제공될 수 있으며, 예를 들어, 대화 가능, 링크 공유, 사운드 온오프, 화면 회전, 검색, 추모 공간에 입장한 사용자 확인, 즐겨찾기, 홈, 뒤로가기 등의 메뉴가 버튼 형식의 아이콘으로 표시될 수 있다. 버튼 형식의 아이콘이 선택되면, 선택된 아이콘을 통해 해당 메뉴에 대한 명령이 처리될 수 있다.In the video implemented in the metaverse environment, various menus used in the memorial service may be provided as icons, for example, conversation enablement, link sharing, sound on/off, screen rotation, search, confirmation of users entering the memorial space, Menus such as Favorites, Home, and Back can be displayed as button-type icons. When a button-type icon is selected, commands for the corresponding menu can be processed through the selected icon.

도 2는 일실시예에 따른 별자리를 기반으로 메타버스 추모관 서비스의 인터페이스를 제공하는 과정을 설명하기 위한 순서도이다.Figure 2 is a flow chart to explain the process of providing an interface for the metaverse memorial service based on constellations according to an embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치(300)는 제1 사용자가 출력 기기(100)를 착용한 것을 확인할 수 있다. 이때, 장치(300)는 출력 기기(100)에 부착된 센서로부터 감지 신호를 획득하면, 제1 사용자가 출력 기기(100)를 착용한 것으로 확인할 수 있다.Referring to FIG. 2 , first, in step S201, the device 300 may confirm that the first user is wearing the output device 100. At this time, when the device 300 obtains a detection signal from a sensor attached to the output device 100, it can confirm that the first user is wearing the output device 100.

S202 단계에서, 장치(300)는 제1 사용자가 출력 기기(100)를 착용한 것으로 확인되면, 추모관 서비스의 초기 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다. 이때, 초기 화면은 하늘 또는 우주 공간 상에 별자리들이 표시되어 있는 화면이고, 초기 화면 상에 표시되어 있는 별자리들은 고인 또는 반려동물의 추모를 위해 거래된 별 또는 별자리를 포함할 수 있다.In step S202, if it is confirmed that the first user is wearing the output device 100, the device 300 may control the initial screen of the memorial service to be displayed on the output device 100. At this time, the initial screen is a screen in which constellations are displayed in the sky or outer space, and the constellations displayed on the initial screen may include stars or constellations traded in memory of the deceased or a companion animal.

초기 화면은 하늘 또는 우주 공간이 3차원 영상으로 제공될 수 있고, 사용자의 시선 이동에 따라 표시되는 구역이 변경될 수 있다. 이와 관련된 자세한 설명은 도 3을 참조하여 후술하기로 한다.The initial screen may be provided as a 3D image of the sky or outer space, and the displayed area may change depending on the user's gaze movement. A detailed description regarding this will be provided later with reference to FIG. 3 .

장치(300)는 제1 사용자 정보가 확인되면, 제1 사용자 맞춤형의 초기 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다. 이와 관련된 자세한 설명은 도 4를 참조하여 후술하기로 한다.When the first user information is confirmed, the device 300 can control the output device 100 to display an initial screen customized for the first user. A detailed description regarding this will be provided later with reference to FIG. 4 .

장치(300)는 제1 사용자 정보가 확인되지 않으면, 랜덤으로 제공되는 초기 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다. 이때, 장치(300)는 일정 기간 동안 가장 많이 검색되거나 가장 많이 접속되는 순으로 별자리들을 정렬하여, 정렬된 순으로 별자리들이 더 크게 표시되도록 제어할 수 있다.If the first user information is not confirmed, the device 300 may control the output device 100 to display a randomly provided initial screen. At this time, the device 300 can control the constellations to be displayed larger in the sorted order by sorting the constellations in the order in which they are most searched for or accessed during a certain period of time.

S203 단계에서, 장치(300)는 제1 사용자가 조작 기기(200)를 착용하고 있는 경우, 조작 기기(200)를 통해 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 조작 기기(200)로부터 제1 별자리 또는 제1 별에 대한 선택 신호를 획득할 수 있다.In step S203, when the first user is wearing the manipulation device 200 and the first constellation or first star is selected on the initial screen through the manipulation device 200, the device 300 operates the manipulation device 200. A selection signal for the first constellation or first star can be obtained from.

예를 들어, 제1 사용자는 조작 기기(200)를 통해 하늘 또는 우주 공간 상에 표시되어 있는 별자리들 중 어느 하나인 제1 별자리를 선택할 수 있고, 장치(300)는 조작 기기(200)로부터 제1 별자리에 대한 선택 신호를 획득할 수 있다.For example, the first user can select a first constellation, which is one of the constellations displayed in the sky or outer space, through the manipulation device 200, and the device 300 selects the first constellation from the manipulation device 200. 1 You can obtain the selection signal for the constellation.

또한, 제1 사용자는 조작 기기(200)를 통해 하늘 또는 우주 공간 상에 표시되어 있는 별들 중 어느 하나인 제1 별을 선택할 수 있고, 장치(300)는 조작 기기(200)로부터 제1 별에 대한 선택 신호를 획득할 수 있다.In addition, the first user can select a first star, which is one of the stars displayed in the sky or outer space, through the manipulation device 200, and the device 300 selects the first star from the manipulation device 200. A selection signal can be obtained.

S204 단계에서, 장치(300)는 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인할 수 있다.In step S204, the device 300 may confirm that the first constellation or the first star is set to commemorate the first deceased or the first companion animal.

즉, 장치(300)는 조작 기기(200)를 통해 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 제1 별자리 또는 제1 별이 누구의 추모를 위해 설정되어 있는지 확인하여, 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인할 수 있다. 이를 위해, 장치(300)의 데이터베이스에는 별자리 정보와 별 정보가 저장되어 있으며, 별자리 정보 및 별 정보는 추모 대상, 거래 내역, 접속 내역 등에 대한 정보를 포함할 수 있다.That is, when the first constellation or the first star is selected on the initial screen through the operation device 200, the device 300 checks for whose memorial the first constellation or the first star is set, and selects the first constellation for whose memory the first constellation or the first star is selected. Alternatively, it can be confirmed that the first star is set to commemorate the first deceased or the first companion animal. For this purpose, constellation information and star information are stored in the database of the device 300, and the constellation information and star information may include information about memorial objects, transaction details, access details, etc.

예를 들어, 장치(300)는 조작 기기(200)로부터 제1 별자리에 대한 선택 신호를 획득한 경우, 데이터베이스를 조회하여 제1 별자리 정보를 획득하고, 제1 별자리 정보를 기초로, 제1 별자리가 누구의 추모를 위해 설정되어 있는지 확인할 수 있다.For example, when the device 300 obtains a selection signal for the first constellation from the manipulation device 200, the device 300 searches the database to obtain first constellation information, and based on the first constellation information, selects the first constellation You can check whose memorial is set for.

또한, 장치(300)는 조작 기기(200)로부터 제1 별에 대한 선택 신호를 획득한 경우, 데이터베이스를 조회하여 제1 별 정보를 획득하고, 제1 별 정보를 기초로, 제1 별이 누구의 추모를 위해 설정되어 있는지 확인할 수 있다.In addition, when the device 300 obtains a selection signal for the first star from the operating device 200, the device 300 searches the database to obtain first star information, and determines who the first star is based on the first star information. You can check if it is set up to commemorate .

S205 단계에서, 장치(300)는 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간과 대응하는 제1 가상 공간의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.In step S205, if it is confirmed that the first constellation or the first star is set to commemorate the first deceased or the first companion animal, the device 300 creates a memorial space for the memorial of the first deceased or the first companion animal. The screen of the first virtual space corresponding to can be controlled to be displayed on the output device 100.

이를 위해, 별자리 또는 별을 통해 접속할 수 있는 추모 공간 별로 대응하는 가상 공간이 각각 메타버스 환경으로 구현되어 있으며, 제1 가상 공간은 제1 별자리 또는 제1 별을 통해 접속할 수 있는 추모 공간과 대응하여 메타버스 환경으로 구현된 가상의 공간을 의미할 수 있다.For this purpose, a virtual space corresponding to each memorial space accessible through a constellation or star is implemented in a metaverse environment, and the first virtual space corresponds to a memorial space accessible through the first constellation or star. It can refer to a virtual space implemented in a metaverse environment.

장치(300)는 제1 가상 공간의 화면이 제1 사용자가 착용하고 있는 출력 기기(100)에서 표시되도록 제어하여, 제1 가상 공간에 제1 사용자가 접속되도록 처리할 수 있으며, 제1 사용자는 출력 기기(100)에 표시된 제1 가상 공간의 화면을 통해, 제1 가상 공간에 접속한 것과 같은 경험을 느낄 수 있다. 이때, 제1 가상 공간의 화면에는 제1 고인 또는 제1 반려동물을 기반으로 생성된 캐릭터가 표시되어, 메타버스 환경에서 제1 고인 또는 제1 반려동물과 교감할 수 있는 추모관 서비스를 제공할 수 있다.The device 300 can control the screen of the first virtual space to be displayed on the output device 100 worn by the first user, so that the first user is connected to the first virtual space, and the first user Through the screen of the first virtual space displayed on the output device 100, you can feel the same experience as accessing the first virtual space. At this time, a character created based on the first deceased or the first companion animal is displayed on the screen of the first virtual space, providing a memorial service that allows communication with the first deceased or the first companion animal in a metaverse environment. there is.

S206 단계에서, 장치(300)는 조작 기기(200)를 통해 제1 가상 공간 내에서의 이동이 요청되면, 조작 기기(200)로부터 이동 요청 신호를 획득할 수 있다.In step S206, when movement within the first virtual space is requested through the manipulation device 200, the device 300 may obtain a movement request signal from the manipulation device 200.

S207 단계에서, 장치(300)는 이동 요청 신호를 통해, 제1 가상 공간 내에서의 이동이 요청된 것으로 확인되면, 제1 가상 공간 상에서 제1 사용자가 위치하고 있는 지점을 변경하여, 변경된 지점을 중심으로 제1 가상 공간의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.In step S207, when it is confirmed that movement within the first virtual space is requested through the movement request signal, the device 300 changes the point where the first user is located in the first virtual space, and places the changed point as the center. It is possible to control the screen of the first virtual space to be displayed on the output device 100.

예를 들어, 제1 가상 공간에 제1 사용자가 접속하면, 제1 사용자가 제1 가상 공간 내에서 제1 지점에 위치할 수 있으며, 장치(300)는 제1 지점을 중심으로 제1 가상 공간의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.For example, when a first user accesses a first virtual space, the first user may be located at a first point within the first virtual space, and the device 300 may be located in the first virtual space centered on the first point. The screen can be controlled to be displayed on the output device 100.

이후, 제1 가상 공간 내에서의 이동 요청으로, 제1 사용자가 제1 가상 공간 내에서 제2 지점으로 이동한 경우, 장치(300)는 제2 지점을 중심으로 제1 가상 공간의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.Thereafter, when the first user moves to a second point within the first virtual space due to a movement request within the first virtual space, the device 300 outputs the screen of the first virtual space centered on the second point. It can be controlled to be displayed on the device 100.

도 3은 일실시예에 따른 가상 공간 접속 시 시각적인 효과를 제공하는 과정을 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining a process for providing visual effects when accessing a virtual space according to an embodiment.

도 3을 참조하면, 먼저, S301 단계에서, 장치(300)는 초기 화면 상에서 제1 별자리 또는 제1 별이 선택된 것을 확인할 수 있다.Referring to FIG. 3, first, in step S301, the device 300 can confirm that the first constellation or the first star is selected on the initial screen.

예를 들어, 장치(300)는 조작 기기(200)로부터 제1 별자리에 대한 선택 신호를 획득하면, 제1 별자리가 선택된 것으로 확인할 수 있고, 조작 기기(200)로부터 제1 별에 대한 선택 신호를 획득하면, 제1 별이 선택된 것으로 확인할 수 있다.For example, when the device 300 obtains a selection signal for the first constellation from the manipulation device 200, the device 300 may confirm that the first constellation is selected and receive a selection signal for the first star from the manipulation device 200. Once acquired, it can be confirmed that the first star has been selected.

S302 단계에서, 장치(300)는 초기 화면에서 제1 별자리 또는 제1 별이 위치한 제1 구역을 확대하여, 제1 구역의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.In step S302, the device 300 may control the initial screen to enlarge the first zone where the first constellation or the first star is located and display the screen of the first zone on the output device 100.

예를 들어, 장치(300)는 초기 화면 상에서 제1 별자리가 선택된 것으로 확인되면, 초기 화면에서 제1 별자리가 위치한 제1 구역을 확대하여, 제1 구역의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.For example, when it is confirmed that the first constellation is selected on the initial screen, the device 300 enlarges the first zone where the first constellation is located on the initial screen so that the screen of the first zone is displayed on the output device 100. You can control it.

또한, 장치(300)는 초기 화면 상에서 제1 별이 선택된 것으로 확인되면, 초기 화면에서 제1 별이 위치한 제1 구역을 확대하여, 제1 구역의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다.In addition, when it is confirmed that the first star is selected on the initial screen, the device 300 enlarges the first zone where the first star is located on the initial screen and controls the display so that the screen of the first zone is displayed on the output device 100. You can.

S303 단계에서, 장치(300)는 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 제1 가상 공간인 것으로 확인할 수 있다.In step S303, if it is confirmed that the first constellation or the first star is set to commemorate the first deceased or the first companion animal, the device 300 creates a memorial space for the memorial of the first deceased or the first companion animal. It can be confirmed that this is the first virtual space.

예를 들어, 장치(300)는 초기 화면 상에서 제1 별자리가 선택된 경우, 제1 별자리가 제1 고인의 추모를 위해 설정되어 있는 별자리로 확인되면, 제1 별자리를 통해 제1 고인을 위한 추모 공간이 제1 가상 공간인 것으로 확인할 수 있고, 제1 별자리가 제1 반려동물의 추모를 위해 설정되어 있는 별자리로 확인되면, 제1 별자리를 통해 제1 반려동물을 위한 추모 공간이 제1 가상 공간인 것으로 확인할 수 있다.For example, if the first constellation is selected on the initial screen and the first constellation is confirmed as a constellation set for the memorial of the first deceased, the device 300 creates a memorial space for the first deceased through the first constellation. It can be confirmed that this is the first virtual space, and if the first constellation is confirmed to be a constellation set for the memorial of the first companion animal, the memorial space for the first companion animal through the first constellation is the first virtual space. This can be confirmed.

또한, 장치(300)는 초기 화면 상에서 제1 별이 선택된 경우, 제1 별이 제1 고인의 추모를 위해 설정되어 있는 별로 확인되면, 제1 별을 통해 제1 고인을 위한 추모 공간이 제1 가상 공간인 것으로 확인할 수 있고, 제1 별이 제1 반려동물의 추모를 위해 설정되어 있는 별로 확인되면, 제1 별을 통해 제1 반려동물을 위한 추모 공간이 제1 가상 공간인 것으로 확인할 수 있다.In addition, when the first star is selected on the initial screen, the device 300 confirms that the first star is a star set to commemorate the first deceased, and the memorial space for the first deceased is created through the first star. It can be confirmed that it is a virtual space, and if the first star is confirmed to be a star set for the memorial of the first companion animal, it can be confirmed that the memorial space for the first companion animal is the first virtual space through the first star. .

S304 단계에서, 장치(300)는 제1 구역의 화면에 이어서 제1 가상 공간으로 접속하는 접속 영상의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다. 이때, 장치(300)는 제1 가상 공간으로 빨려 들어가는 효과를 적용하여, 제1 가상 공간으로 접속하는 접속 영상이 출력되도록 제어할 수 있다. 이와 관련된 자세한 설명은 도 4를 참조하여 후술하기로 한다.In step S304, the device 300 may control the output device 100 to display a screen of a connection video connecting to the first virtual space following the screen of the first zone. At this time, the device 300 can control the connection image connecting to the first virtual space to be output by applying the effect of being sucked into the first virtual space. A detailed description regarding this will be provided later with reference to FIG. 4 .

S305 단계에서, 장치(300)는 제1 가상 공간으로 접속하는 접속 영상의 화면에 이어서 제1 가상 공간의 화면이 출력 기기(100)에서 표시되도록 제어할 수 있다. 이때, 장치(300)는 제1 가상 공간으로 빨려 들어간 후 제1 가상 공간의 화면이 표시되도록 처리하여, 사용자가 제1 가상 공간으로 접속하는 것과 같은 경험을 느낄 수 있도록, 메타버스 환경으로 구현된 영상을 제공할 수 있다.In step S305, the device 300 may control the output device 100 to display the screen of the first virtual space following the screen of the connection video connecting to the first virtual space. At this time, the device 300 processes the screen of the first virtual space to be displayed after being sucked into the first virtual space, so that the user can feel the same experience as accessing the first virtual space, implemented in a metaverse environment. Video can be provided.

도 4는 일실시예에 따른 가상 공간으로 접속하는 접속 영상을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a connection video for accessing a virtual space according to an embodiment.

먼저, 장치(300)는 추모 공간을 생성할 때, 추모 공간을 생성하고자 하는 사용자의 단말로부터 고인 정보 또는 반려동물 정보를 수신하여 데이터베이스에 저장할 수 있다. 여기서, 고인 정보는 고인의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이, 음색, 발음, 어조 등에 대한 정보를 연령대 별로 포함할 수 있고, 반려동물 정보는 반려동물의 사진, 동영상, 연령, 성별, 외모, 신장, 체중, 성격, 습관, 표정, 음성의 세기, 음성의 높이, 음색 등에 대한 정보를 연령대 별로 포함할 수 있다.First, when creating a memorial space, the device 300 may receive deceased information or companion animal information from the terminal of a user who wishes to create a memorial space and store it in a database. Here, the deceased information may include information about the deceased's photo, video, age, gender, appearance, height, weight, personality, habits, facial expression, voice intensity, voice pitch, timbre, pronunciation, tone, etc. by age group. , Pet information may include information about the pet's photos, videos, age, gender, appearance, height, weight, personality, habits, facial expressions, voice intensity, voice pitch, and timbre, etc., by age group.

장치(300)는 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 제1 가상 공간인 것으로 확인되면, 제1 고인 또는 제1 반려동물이 제n 연령대의 캐릭터로 구현된 제n 아바타를 생성할 수 있다.If the device 300 determines that the memorial space for commemorating the first deceased or the first companion animal is the first virtual space, the device 300 displays the n-th avatar in which the first deceased or the first companion animal is implemented as a character of the n-th age. can be created.

장치(300)는 고인 정보를 기반으로 고인에 대한 아바타를 연령대 별로 생성할 수 있으며, 사진 또는 동영상에서 나타난 고인의 정면, 배면, 좌측면, 우측면, 평면, 저면 및 사시면을 3D 스캐닝을 하여 고인의 기본 모습을 구축한 후, 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등의 상세 정보들을 반영하여 고인의 캐릭터를 구현하고 캐릭터의 3D 애니메이션을 구현하여, 고인에 대한 아바타를 생성할 수 있다.The device 300 can create an avatar for the deceased by age group based on the deceased's information, and 3D scans the front, back, left, right, flat, bottom, and oblique sides of the deceased shown in the photo or video to identify the deceased. After building a basic appearance, you can create an avatar for the deceased by reflecting detailed information such as age, gender, appearance, height, weight, personality, habits, and facial expressions, and implementing 3D animation of the character. You can.

또한, 장치(300)는 반려동물 정보를 기반으로 반려동물에 대한 아바타를 연령대 별로 생성할 수 있으며, 사진 또는 동영상에서 나타난 죽은 반려동물의 정면, 배면, 좌측면, 우측면, 평면, 저면 및 사시면을 3D 스캐닝을 하여 죽은 반려동물의 기본 모습을 구축한 후, 연령, 성별, 외모, 신장, 체중, 성격, 습관 및 표정 등의 상세 정보들을 반영하여 죽은 반려동물의 캐릭터를 구현하고 캐릭터의 3D 애니메이션을 구현하여, 반려동물에 대한 아바타를 생성할 수 있다.In addition, the device 300 can create avatars for pets by age group based on pet information, and can display the front, back, left, right, flat, bottom, and oblique sides of a dead pet shown in a photo or video. After building the basic appearance of the dead pet through 3D scanning, detailed information such as age, gender, appearance, height, weight, personality, habits, and facial expressions are reflected to create the dead pet's character and create 3D animation of the character. By implementing this, you can create an avatar for your pet.

예를 들어, 장치(300)는 제1 고인 또는 제1 반려동물이 제1 연령대의 캐릭터로 구현된 제1 아바타를 생성할 수 있고, 제1 고인 또는 제1 반려동물이 제2 연령대의 캐릭터로 구현된 제2 아바타를 생성할 수 있고, 제1 고인 또는 제1 반려동물이 제3 연령대의 캐릭터로 구현된 제3 아바타를 생성할 수 있다. 여기서, 제1 연령대는 고인 정보 또는 반려동물 정보에 포함된 연령대별 정보 중 가장 낮은 연령대의 정보를 통해 설정될 수 있고, 제2 연령대는 제1 연령대 보다 나이가 많은 연령대로 설정될 수 있고, 제3 연령대는 제2 연령대 보다 나이가 많은 연령대로 설정될 수 있다.For example, the device 300 may generate a first avatar in which the first deceased or the first companion animal is implemented as a character of a first age group, and the first deceased or the first companion animal may be implemented as a character of a second age group. A second avatar may be created, and a third avatar may be created in which the first deceased or the first companion animal is embodied as a character of a third age group. Here, the first age group may be set using the lowest age group information among the age-specific information included in the deceased information or companion animal information, and the second age group may be set as an age group older than the first age group. The 3 age group may be set as an age group older than the second age group.

본 발명에서는 설명의 편의를 위해 제3 연령대가 가장 높은 연령대인 것으로 설정하여 설명하지만, 이에 제한되지 않으며, 고인 또는 반려동물에 따라 제4 연령대, 제5 연령대 등이 가장 높은 연령대로 설정될 수도 있다.In the present invention, for convenience of explanation, the third age group is set as the highest age group, but it is not limited thereto, and the fourth age group, fifth age group, etc. may be set as the highest age group depending on the deceased or the companion animal. .

구체적으로, 장치(300)는 제1 고인의 추모를 위한 추모 공간이 제1 가상 공간인 것으로 확인되면, 데이터베이스를 조회하여 제1 고인 정보를 획득할 수 있다. 이때, 제1 고인 정보는 연령대 별로 구분된 제1-1 고인 정보, 제1-2 고인 정보, 제1-3 고인 정보 등을 포함할 수 있고, 제1-1 고인 정보는 제1 고인이 10대일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있고, 제1-2 고인 정보는 제1 고인이 20대일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있고, 제1-3 고인 정보는 제1 고인이 30대일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있다.Specifically, if it is confirmed that the memorial space for commemorating the first deceased is the first virtual space, the device 300 may query the database to obtain information on the first deceased. At this time, the first deceased information may include 1-1 deceased information, 1-2 deceased information, 1-3 deceased information, etc. classified by age group, and the 1-1 deceased information may include 10 deceased persons. It may include information about photos, videos, etc. when the first deceased was in his or her 20s, and information about the 1st-2nd deceased may include information about photos, videos, etc. when the first deceased was in his 20s, and information about the 1st-3rd deceased may include information about the first deceased when he was in his 20s. 1 May include information about photos, videos, etc. from when the deceased was in his 30s.

이후, 장치(300)는 제1-1 고인 정보를 기초로 제1 고인이 10대 연령대의 캐릭터로 구현된 제1 아바타를 생성할 수 있고, 제1-2 고인 정보를 기초로 제1 고인이 20대 연령대의 캐릭터로 구현된 제2 아바타를 생성할 수 있고, 제1-3 고인 정보를 기초로 제1 고인이 30대 연령대의 캐릭터로 구현된 제3 아바타를 생성할 수 있다.Thereafter, the device 300 may generate a first avatar in which the first deceased is embodied as a character in his teens based on the information on the 1-1 deceased, and the first deceased may create a first avatar based on the information on the 1-2 deceased. A second avatar embodied as a character in their 20s can be created, and a third avatar embodied in the first deceased as a character in their 30s can be created based on information on the first to third deceased.

한편, 장치(300)는 제1 반려동물의 추모를 위한 추모 공간이 제1 가상 공간인 것으로 확인되면, 데이터베이스를 조회하여 제1 반려동물 정보를 획득할 수 있다. 이때, 제1 반려동물 정보는 연령대 별로 구분된 제1-1 반려동물 정보, 제1-2 반려동물 정보, 제1-3 반려동물 정보 등을 포함할 수 있고, 제1-1 반려동물 정보는 제1 반려동물이 1~2살일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있고, 제1-2 반려동물 정보는 제1 반려동물이 3~4살일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있고, 제1-3 반려동물 정보는 제1 반려동물이 5~6살일 때의 사진, 동영상 등에 대한 정보를 포함할 수 있다.Meanwhile, if it is confirmed that the memorial space for commemorating the first companion animal is the first virtual space, the device 300 may query the database to obtain information on the first companion animal. At this time, the first companion animal information may include 1-1 companion animal information, 1-2 companion animal information, and 1-3 companion animal information divided by age group, and the 1-1 companion animal information It may include information about photos, videos, etc. when the first companion animal was 1 to 2 years old, and the first and second companion animal information includes information about photos, videos, etc. when the first companion animal was 3 to 4 years old. The first to third companion animal information may include information about photos, videos, etc. from when the first companion animal was 5 to 6 years old.

이후, 장치(300)는 제1-1 반려동물 정보를 기초로 제1 반려동물이 1~2살 연령대의 캐릭터로 구현된 제1 아바타를 생성할 수 있고, 제1-2 반려동물 정보를 기초로 제1 반려동물이 3~4살 연령대의 캐릭터로 구현된 제2 아바타를 생성할 수 있고, 제1-3 반려동물 정보를 기초로 제1 반려동물이 5~6살 연령대의 캐릭터로 구현된 제3 아바타를 생성할 수 있다.Thereafter, the device 300 may generate a first avatar in which the first companion animal is implemented as a character of 1 to 2 years of age based on the 1-1 companion animal information, and based on the 1-2 companion animal information This allows you to create a second avatar where the first pet is embodied as a character aged 3 to 4 years, and based on the information on the first and third pets, the first pet is implemented as a character aged 5 to 6 years old. A third avatar can be created.

장치(300)는 연령대 별로 캐릭터로 구현된 아바타들이 생성되면, 제1 가상 공간으로 접속하는 접속 영상의 화면이 출력 기기(100)에서 표시되도록 제어할 때, 각 아바타들이 구간 별로 표시되도록 제어할 수 있다.When avatars embodied as characters for each age group are created, the device 300 can control each avatar to be displayed for each section when controlling the screen of the access video accessing the first virtual space to be displayed on the output device 100. there is.

예를 들어, 장치(300)는 제1 아바타, 제2 아바타 및 제3 아바타가 생성된 경우, 도 4의 (a)에 도시된 바와 같이, 제1 아바타의 영상이 제1 구간의 양측 벽면에서 표시되도록 제어하고, 제2 아바타의 영상이 제1 구간에 이어서 제2 구간의 양측 벽면에서 표시되도록 제어할 수 있다.For example, when a first avatar, a second avatar, and a third avatar are created, the device 300 displays the image of the first avatar on the walls on both sides of the first section, as shown in (a) of FIG. 4. It can be controlled to be displayed, and the image of the second avatar can be controlled to be displayed on the walls on both sides of the second section following the first section.

즉, 장치(300)는 제1 가상 공간으로 접속하는 접속 영상의 화면에서, 제1 사용자의 시야에서 가까울수록, 더 어린 연령대의 캐릭터로 구현된 아바타의 영상이 표시되도록 제어할 수 있다.That is, the device 300 can control the image of an avatar embodied as a character of a younger age to be displayed on the screen of the access video connecting to the first virtual space, the closer it is to the first user's field of view.

이후, 장치(300)는 제1 가상 공간으로 빨려 들어가는 효과를 적용하여, 사용자가 제1 가상 공간으로 접속하는 것과 같은 경험을 느낄 수 있도록, 양측 벽면에 표시된 영상이 뒤로 지나갈 수 있으며, 제1 구간이 지나가면, 도 4의 (b)에 도시된 바와 같이, 제1 구간은 없어지고 제2 구간만 남아, 제1 가상 공간으로 접속하는 접속 영상의 화면에서 제2 아바타의 영상만 표시될 수 있다.Afterwards, the device 300 applies the effect of being sucked into the first virtual space, so that the user can feel the same experience as accessing the first virtual space, so that the images displayed on both walls can pass behind, and the first section When this passes, as shown in (b) of FIG. 4, the first section disappears and only the second section remains, and only the image of the second avatar can be displayed on the screen of the connection video connecting to the first virtual space. .

이후, 장치(300)는 접속 영상의 화면에 이어서 제1 가상 공간의 화면이 출력 기기(100)에서 출력되도록 제어할 수 있다. 이때, 장치(300)는 제3 아바타가 제1 가상 공간에서 표시되도록 설정한 후, 제3 아바타를 통해 제1 사용자가 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 제3 아바타가 제1 가상 공간에서 표시되도록 제어할 수 있다.Thereafter, the device 300 can control the output device 100 to output the screen of the first virtual space following the screen of the connected video. At this time, the device 300 sets the third avatar to be displayed in the first virtual space and then displays the third avatar so that the first user can feel the experience of encountering the first deceased or the first companion animal through the third avatar. The avatar can be controlled to be displayed in the first virtual space.

즉, 장치(300)는 제1 가상 공간으로 접속하는 접속 영상의 화면에서, 제1 가상 공간으로 빨려 들어가는 효과를 적용할 때, 점차적으로 더 나이가 들어가는 아바타들의 영상이 순차적으로 표시되도록 제어한 후, 제1 가상 공간으로 접속하게 되면, 가장 연령대가 높아 생전의 최근 모습과 유사한 제3 아바타가 제1 가상 공간에서 표시되도록 제어할 수 있다.That is, when the device 300 applies the effect of being sucked into the first virtual space on the screen of the access video connecting to the first virtual space, the device 300 controls the images of the avatars that gradually become older to be displayed sequentially. , When accessing the first virtual space, the third avatar, which is the oldest and most similar to its most recent appearance when alive, can be controlled to be displayed in the first virtual space.

도 5는 일실시예에 따른 추모 장소 및 조우 연도에 따른 시각적인 효과를 제공하는 과정을 설명하기 위한 순서도이다.Figure 5 is a flowchart for explaining the process of providing visual effects according to the memorial location and encounter year according to an embodiment.

도 5를 참조하면, 먼저, S501 단계에서, 장치(300)는 조작 기기(200)를 통해 추모 장소가 제1 장소로 선택되고 조우 연도가 제1 연도로 선택되면, 조작 기기(200)로부터 제1 장소 및 제1 연도에 대한 선택 신호를 획득할 수 있다.Referring to FIG. 5, first, in step S501, the device 300 is selected from the manipulation device 200 when the memorial site is selected as the first location and the encounter year is selected as the first year. 1 A selection signal for location and first year can be obtained.

예를 들어, 장치(300)는 제1 가상 공간 상에서 추모 장소 선택 메뉴가 선택되면, 제1 가상 공간에 추모 장소 선택을 위한 인터페이스가 표시되도록 제어할 수 있으며, 조작 기기(200)를 통해 추모 장소 선택 인터페이스에서 제1 장소가 선택되면, 제1 장소에 대한 선택 신호를 획득할 수 있다.For example, when the memorial place selection menu is selected in the first virtual space, the device 300 can control the interface for selecting a memorial place to be displayed in the first virtual space, and display the memorial place through the operation device 200. When the first location is selected in the selection interface, a selection signal for the first location can be obtained.

또한, 장치(300)는 제1 가상 공간 상에서 조우 연도 선택 메뉴가 선택되면, 제1 가상 공간에 조우 연도 선택을 위한 인터페이스가 표시되도록 제어할 수 있으며, 조작 기기(200)를 통해 조우 연도 선택 인터페이스에서 제1 연도가 선택되면, 제1 연도에 대한 선택 신호를 획득할 수 있다.In addition, when the encounter year selection menu is selected in the first virtual space, the device 300 can control the interface for selecting the encounter year to be displayed in the first virtual space, and the interface for selecting the encounter year can be displayed through the operating device 200. When the first year is selected, a selection signal for the first year can be obtained.

S502 단계에서, 장치(300)는 조작 기기(200)를 통해 추모 장소가 제1 장소로 선택되고 조우 연도가 제1 연도로 선택되면, 제1 가상 공간이 제1 연도의 제1 장소로 구현되도록 설정할 수 있다. 이를 위해, 장치(300)의 데이터베이스에는 복수의 장소 각각에 대해 3D 모델링을 수행하여 생성된 영상 정보가 연도 별로 구분되어 저장되어 있으며, 장치(300)는 데이터베이스를 조회하여, 제1 연도의 제1 장소에 대해 3D 모델링을 수행하여 생성된 영상 정보를 획득한 후, 획득된 영상 정보를 기반으로 제1 가상 공간이 제1 연도의 제1 장소로 구현되도록 설정할 수 있다.In step S502, when the memorial location is selected as the first location and the encounter year is selected as the first year through the manipulation device 200, the device 300 configures the first virtual space to be implemented as the first location in the first year. You can set it. To this end, the database of the device 300 stores image information generated by performing 3D modeling for each of a plurality of places, divided by year, and the device 300 searches the database to determine the first image of the first year. After obtaining image information generated by performing 3D modeling on a place, the first virtual space can be set to be implemented as the first place in the first year based on the obtained image information.

예를 들어, 장치(300)는 추모 장소가 공원으로 선택되고 조우 연도가 2020년도로 선택되면, 제1 가상 공간이 2020년도의 공원으로 구현되도록 설정할 수 있다.For example, if the memorial location is selected as a park and the encounter year is selected as 2020, the device 300 may set the first virtual space to be implemented as a park in 2020.

S503 단계에서, 장치(300)는 제1 연도를 기준으로 제1 고인 또는 제1 반려동물의 연령대를 제4 연령대로 확인할 수 있다. 여기서, 제4 연령대는 제1 연령대부터 제3 연령대까지의 연령대 중 어느 하나일 수 있으며, 제1 연령대와 제2 연령대 사이의 연령대이거나 제2 연령대와 제3 연령대 사이의 연령대일 수도 있다.In step S503, the device 300 may confirm the age group of the first deceased or the first companion animal as the fourth age group based on the first year. Here, the fourth age group may be any one of the age groups from the first age group to the third age group, may be an age group between the first age group and the second age group, or may be an age group between the second age group and the third age group.

예를 들어, 장치(300)는 제1 연도가 2020년도인 경우, 2020년도를 기준으로 제1 고인이 살아있을 때 나이가 35살로 확인되면, 30대를 제4 연령대로 확인할 수 있다.For example, when the first year is 2020, the device 300 may identify people in their 30s as the fourth age group if the first deceased was confirmed to be 35 years old when he was alive as of 2020.

또한, 장치(300)는 제1 연도가 2020년도인 경우, 2020년도를 기준으로 제1 반려동물이 살아있을 때 나이가 5살로 확인되면, 5~6살 연령대를 제4 연령대로 확인할 수 있다.Additionally, when the first year is 2020, the device 300 can identify the 5-6 year old age group as the fourth age group if the first companion animal is confirmed to be 5 years old when it was alive as of 2020.

장치(300)는 제1 연도를 기준으로 제1 고인 또는 제1 반려동물의 연령대가 제4 연령대로 확인되면, 제4 연령대의 캐릭터로 구현된 제4 아바타를 생성할 수 있다.If the age group of the first deceased or the first companion animal is confirmed to be the fourth age group based on the first year, the device 300 may generate a fourth avatar embodied as a character of the fourth age group.

예를 들어, 장치(300)는 제1 연도를 기준으로 제1 고인의 연령대가 제4 연령대로 확인되면, 제1 고인 정보를 기초로 제1 고인이 제4 연령대일 때의 캐릭터로 구현된 제4 아바타를 생성할 수 있다.For example, if the age group of the first deceased is confirmed to be the fourth age group based on the first year, the device 300 creates a character implemented as a character when the first deceased person was in the fourth age group based on the information on the first deceased person. 4 You can create an avatar.

또한, 장치(300)는 제1 연도를 기준으로 제1 반려동물의 연령대가 제4 연령대로 확인되면, 제1 반려동물 정보를 기초로 제1 반려동물이 제4 연령대일 때의 캐릭터로 구현된 제4 아바타를 생성할 수 있다.In addition, when the age group of the first companion animal is confirmed to be the fourth age group based on the first year, the device 300 displays a character implemented as a character when the first companion animal was in the fourth age group based on the first companion animal information. A fourth avatar can be created.

S504 단계에서, 장치(300)는 제4 아바타가 제1 연도의 제1 장소로 구현된 제1 가상 공간 상에서 표시되도록 설정할 수 있다.In step S504, the device 300 may set the fourth avatar to be displayed in the first virtual space implemented as the first location in the first year.

S505 단계에서, 장치(300)는 제1 사용자가 제1 장소에서 제1 연도에 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 제4 아바타가 제1 가상 공간에서 표시되도록 제어할 수 있다.In step S505, the device 300 controls the fourth avatar to be displayed in the first virtual space so that the first user can feel the experience of encountering the first deceased or the first companion animal in the first year at the first place. can do.

도 6은 일실시예에 따른 합동 조문을 추천하는 과정을 설명하기 위한 순서도이다.Figure 6 is a flowchart for explaining the process of recommending a joint condolence statement according to an embodiment.

도 6을 참조하면, 먼저, S601 단계에서, 장치(300)는 제1 가상 공간에 제1 사용자가 접속되어 있는 상태에서, 제1 가상 공간에 제2 사용자가 추가 접속된 것을 확인할 수 있다.Referring to FIG. 6, first, in step S601, the device 300 may confirm that a second user is additionally connected to the first virtual space while the first user is connected to the first virtual space.

즉, 장치(300)는 제1 가상 공간에 출력 기기(100)를 착용한 제1 사용자가 접속한 상태에서, 제1 가상 공간에 다른 출력 기기(100)를 착용한 제2 사용자가 접속한 것을 확인할 수 있다.That is, the device 300 detects that a first user wearing the output device 100 is connected to the first virtual space and a second user wearing another output device 100 is connected to the first virtual space. You can check it.

장치(300)는 제1 가상 공간에 제1 사용자 및 제2 사용자가 동시에 접속하면, 제1 사용자가 착용한 출력 기기(100)에서 제1 고인 또는 제1 반려동물의 아바타와 함께 제2 사용자의 아바타가 표시되도록 제어하고, 제2 사용자가 착용한 출력 기기(100)에서 제1 고인 또는 제1 반려동물의 아바타와 함께 제1 사용자의 아바타가 표시되도록 제어할 수 있다.When the first user and the second user access the first virtual space at the same time, the device 300 displays the avatar of the first deceased or the first companion animal on the output device 100 worn by the first user. The avatar can be controlled to be displayed, and the output device 100 worn by the second user can be controlled to display the first user's avatar along with the avatar of the first deceased or the first companion animal.

S602 단계에서, 장치(300)는 제1 가상 공간에 제1 사용자 및 제2 사용자가 동시에 접속한 것으로 확인되면, 제1 사용자 및 제2 사용자 간의 대화창이 제1 가상 공간 상에서 표시되도록 제어할 수 있다.In step S602, if it is confirmed that the first user and the second user are simultaneously connected to the first virtual space, the device 300 may control the conversation window between the first user and the second user to be displayed on the first virtual space. .

장치(300)는 제1 사용자가 착용한 출력 기기(100)에서 제2 사용자의 아바타 옆에, 제1 사용자 및 제2 사용자 간의 대화창이 표시되도록 제어하고, 제2 사용자가 착용한 출력 기기(100)에서 제1 사용자의 아바타와 옆에, 제1 사용자 및 제2 사용자 간의 대화창이 표시되도록 제어할 수 있다.The device 300 controls the output device 100 worn by the first user to display a conversation window between the first user and the second user next to the avatar of the second user, and displays the output device 100 worn by the second user. ), a conversation window between the first user and the second user can be controlled to be displayed next to the avatar of the first user.

제1 사용자 및 제2 사용자 간의 대화창에는 제1 사용자가 착용한 조작 기기(200)를 통해 입력된 키워드 정보가 표시될 수 있고, 제2 사용자가 착용한 조작 기기(200)를 통해 입력된 키워드 정보가 표시될 수 있다.Keyword information input through the operating device 200 worn by the first user may be displayed in the conversation window between the first user and the second user, and keyword information input through the operating device 200 worn by the second user. may be displayed.

또한, 제1 사용자 및 제2 사용자 간의 대화창에는 제1 사용자가 착용한 출력 기기(100)에 구비된 스피커를 통해 제1 사용자의 음성이 입력되면 제1 사용자의 음성 인식을 통해 추출된 키워드 정보가 표시될 수 있고, 제2 사용자가 착용한 출력 기기(100)에 구비된 스피커를 통해 제2 사용자의 음성이 입력되면 제2 사용자의 음성 인식을 통해 추출된 키워드 정보가 표시될 수 있다.In addition, in the conversation window between the first user and the second user, when the first user's voice is input through the speaker provided in the output device 100 worn by the first user, keyword information extracted through voice recognition of the first user is displayed. When the second user's voice is input through a speaker provided in the output device 100 worn by the second user, keyword information extracted through voice recognition of the second user may be displayed.

S603 단계에서, 장치(300)는 제1 가상 공간에 제1 사용자 및 제2 사용자가 동시에 접속하고 있는 상태로 확인되면, 제1 사용자의 추모 접속 이력을 기반으로 제1 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제1 리스트를 확인하고, 제2 사용자의 추모 접속 이력을 기반으로 제2 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제2 리스트를 확인할 수 있다.In step S603, if the device 300 determines that the first user and the second user are simultaneously accessing the first virtual space, the first user accesses the memorial service based on the first user's memorial access history. You can check the first list, which is a list of constellations or stars, and check the second list, which is a list of constellations or stars that the second user accessed for memorial purposes, based on the second user's memorial access history.

구체적으로, 장치(300)는 제1 사용자 단말과 출력 기기(100)가 근거리 무선 통신을 통해 연결된 것으로 확인되면, 제1 사용자 단말에 로그인 되어 있는 제1 사용자 계정을 확인할 수 있으며, 확인된 제1 사용자 계정을 이용하여 데이터베이스에서 제1 사용자 정보를 획득할 수 있다. 이를 위해, 장치(300)의 데이터베이스에는 사용자 계정 별로 구분된 사용자 정보가 저장되어 있다. 여기서, 사용자 정보는 사용자 식별번호, 연락처, 사용자의 추모 대상, 사용자가 구매한 별자리 또는 별, 추모 접속 이력 등에 대한 정보를 포함할 수 있다.Specifically, when it is confirmed that the first user terminal and the output device 100 are connected through short-distance wireless communication, the device 300 may check the first user account logged in to the first user terminal, and confirm the first user account logged in to the first user terminal. First user information can be obtained from the database using the user account. For this purpose, user information classified by user account is stored in the database of the device 300. Here, the user information may include information about the user identification number, contact information, the user's memorial object, constellations or stars purchased by the user, memorial access history, etc.

이후, 장치(300)는 제1 사용자 정보를 기초로, 제1 사용자의 추모 접속 이력을 확인할 수 있다. 여기서, 제1 사용자의 추모 접속 이력은 제1 사용자가 별자리 또는 별을 통해 추모 공간으로 접속한 내역이 누적된 정보로, 접속 별자리, 접속 별, 접속일, 접속시간, 종료시간 등을 포함하는 정보가 리스트로 구성될 수 있다.Thereafter, the device 300 may check the memorial access history of the first user based on the first user information. Here, the first user's memorial access history is accumulated information about the first user's access to the memorial space through a constellation or star, and includes information such as access constellation, access star, access date, access time, and end time. It may consist of a list.

이후, 장치(300)는 제1 사용자의 추모 접속 이력을 기반으로, 제1 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제1 리스트를 확인할 수 있다.Thereafter, the device 300 may check the first list, which is a list of constellations or stars that the first user accessed for memorial purposes, based on the first user's memorial access history.

한편, 장치(300)는 제2 사용자 단말과 출력 기기(100)가 근거리 무선 통신을 통해 연결된 것으로 확인되면, 제2 사용자 단말에 로그인 되어 있는 제2 사용자 계정을 확인할 수 있으며, 확인된 제2 사용자 계정을 이용하여 데이터베이스에서 제2 사용자 정보를 획득할 수 있다.Meanwhile, when the device 300 confirms that the second user terminal and the output device 100 are connected through short-distance wireless communication, the device 300 can check the second user account logged in to the second user terminal, and identify the confirmed second user. Second user information can be obtained from the database using the account.

이후, 장치(300)는 제2 사용자 정보를 기초로, 제2 사용자의 추모 접속 이력을 확인할 수 있다. 여기서, 제2 사용자의 추모 접속 이력은 제2 사용자가 별자리 또는 별을 통해 추모 공간으로 접속한 내역이 누적된 정보로, 접속 별자리, 접속 별, 접속일, 접속시간, 종료시간 등을 포함하는 정보가 리스트로 구성될 수 있다.Thereafter, the device 300 may check the memorial access history of the second user based on the second user information. Here, the second user's memorial access history is accumulated information about the second user's access to the memorial space through constellations or stars, and includes information such as access constellation, access star, access date, access time, and end time. It may consist of a list.

이후, 장치(300)는 제2 사용자의 추모 접속 이력을 기반으로, 제2 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제2 리스트를 확인할 수 있다.Thereafter, the device 300 may check the second list, which is a list of constellations or stars that the second user accessed for memorial purposes, based on the second user's memorial access history.

S604 단계에서, 장치(300)는 제1 리스트 및 제2 리스트를 비교할 수 있다.In step S604, the device 300 may compare the first list and the second list.

즉, 장치(300)는 제1 리스트에 포함되어 있는 별자리들과 제2 리스트에 포함되어 있는 별자리들을 비교하여, 중복으로 포함되어 있는 별자리가 있는지 여부를 확인할 수 있고, 제1 리스트에 포함되어 있는 별들과 제2 리스트에 포함되어 있는 별들을 비교하여, 중복으로 포함되어 있는 별이 있는지 여부를 확인할 수 있다.That is, the device 300 can compare the constellations included in the first list and the constellations included in the second list to check whether there are overlapping constellations, and determine whether there are constellations included in the first list. By comparing the stars with the stars included in the second list, it is possible to check whether any stars are included in duplicate.

S605 단계에서, 장치(300)는 제1 리스트 및 제2 리스트를 비교한 결과, 제1 별자리 또는 제1 별을 제외한 나머지 중에서 제2 별자리 또는 제2 별이 중복으로 포함되어 있는 것을 확인할 수 있다.In step S605, the device 300 compares the first list and the second list, and may confirm that the second constellation or the second star is included in duplicate among the remainder excluding the first constellation or the first star.

예를 들어, 장치(300)는 제1 별자리를 통해 제1 가상 공간으로의 접속이 이루어진 경우, 제1 리스트 및 제2 리스트를 비교한 결과, 제1 별자리를 제외한 나머지 중에서 중복으로 포함되어 있는 별자리 또는 별이 있는지 여부를 확인하여, 제2 별자리 또는 제2 별이 중복으로 포함되어 있는 것을 확인할 수 있다.For example, when the device 300 is connected to the first virtual space through the first constellation, as a result of comparing the first list and the second list, the device 300 selects a constellation that is included in duplicate among the rest excluding the first constellation. Or, by checking whether there is a star, it can be confirmed that the second constellation or the second star is included in duplicate.

또한, 장치(300)는 제1 별을 통해 제1 가상 공간으로의 접속이 이루어진 경우, 제1 리스트 및 제2 리스트를 비교한 결과, 제1 별을 제외한 나머지 중에서 중복으로 포함되어 있는 별자리 또는 별이 있는지 여부를 확인하여, 제2 별자리 또는 제2 별이 중복으로 포함되어 있는 것을 확인할 수 있다.In addition, when access to the first virtual space is made through the first star, the device 300 compares the first list and the second list, and as a result, the constellations or stars that are duplicated among the rest excluding the first star are selected. By checking whether there is a second constellation or a second star, it can be confirmed that it is included in duplicate.

S606 단계에서, 장치(300)는 제2 별자리 또는 제2 별이 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것을 확인할 수 있다.In step S606, the device 300 may confirm that the second constellation or the second star is set to commemorate the second deceased or the second companion animal.

예를 들어, 장치(300)는 제1 리스트 및 제2 리스트를 비교한 결과, 제2 별자리가 중복으로 포함되어 있는 것으로 확인되면, 제2 별자리가 누구의 추모를 위해 설정되어 있는지 확인하여, 제2 별자리가 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것을 확인할 수 있다.For example, if the device 300 determines that the second constellation is included in duplicate as a result of comparing the first list and the second list, the device 300 checks whose memorial the second constellation is set for, and determines whose memorial the second constellation is set for. 2 You can see that the constellation is set to commemorate the second deceased or the second pet.

또한, 장치(300)는 제1 리스트 및 제2 리스트를 비교한 결과, 제2 별이 중복으로 포함되어 있는 것으로 확인되면, 제2 별이 누구의 추모를 위해 설정되어 있는지 확인하여, 제2 별이 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것을 확인할 수 있다.In addition, when the device 300 compares the first list and the second list and determines that the second star is included in duplicate, the device 300 checks for whose memorial the second star is set, and determines whose memorial the second star is. You can see that this is set up to commemorate the second deceased or the second pet.

S607 단계에서, 장치(300)는 제2 별자리 또는 제2 별이 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 제2 고인 또는 제2 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제2 가상 공간에 대한 접속을 통해, 제2 고인 또는 제2 반려동물에 대한 합동 조문을 추천하는 알림 메시지가 제1 사용자 및 제2 사용자 간의 대화창에서 표시되도록 제어할 수 있다. 이때, 알림 메시지가 선택되면, 제2 가상 공간으로 접속될 수 있다.In step S607, if it is confirmed that the second constellation or the second star is set for the memorial of the second deceased or the second companion animal, the device 300 creates a memorial space for the memorial of the second deceased or the second companion animal. Through access to the second virtual space implemented in this metaverse environment, a notification message recommending joint condolences for the second deceased or the second companion animal can be controlled to be displayed in the chat window between the first user and the second user. You can. At this time, if the notification message is selected, the user can be connected to the second virtual space.

즉, 장치(300)는 제2 별자리 또는 제2 별이 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 제2 고인 또는 제2 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제2 가상 공간을 확인하고, 제1 사용자 및 제2 사용자가 제2 가상 공간으로 이동하여 제2 고인 또는 제2 반려동물에 대한 합동 조문을 수행할 수 있도록, 이를 추천하는 알림 메시지가 제1 사용자 및 제2 사용자 간의 대화창에서 표시되도록 제어할 수 있다.In other words, if the device 300 determines that the second constellation or the second star is set to commemorate the second deceased or the second companion animal, the memorial space for the second deceased or the second companion animal is set to meta. It is recommended to check the second virtual space implemented in a bus environment and allow the first and second users to move to the second virtual space and perform joint condolences for the second deceased or the second companion animal. A notification message can be controlled to be displayed in a conversation window between the first user and the second user.

장치(300)는 제1 사용자가 착용한 조작 기기(200)를 통해 제1 사용자 및 제2 사용자 간의 대화창에서 합동 조문을 추천하는 알림 메시지가 선택되면, 제1 가상 공간의 화면에서 제2 가상 공간의 화면으로 전환되어, 제2 가상 공간의 화면이 제1 사용자가 착용하고 있는 출력 기기(100)에서 표시되도록 제어할 수 있다. 이를 통해, 제1 사용자가 제1 가상 공간에서 제2 가상 공간으로 이동하여, 제2 가상 공간에 제1 사용자가 접속되도록 처리할 수 있다.When a notification message recommending joint condolences is selected in a conversation window between the first user and the second user through the operation device 200 worn by the first user, the device 300 displays a second virtual space on the screen of the first virtual space. The screen can be controlled to be displayed in the second virtual space on the output device 100 worn by the first user. Through this, the first user can move from the first virtual space to the second virtual space, and the first user can be connected to the second virtual space.

또한, 장치(300)는 제2 사용자가 착용한 조작 기기(200)를 통해 제1 사용자 및 제2 사용자 간의 대화창에서 합동 조문을 추천하는 알림 메시지가 선택되면, 제1 가상 공간의 화면에서 제2 가상 공간의 화면으로 전환되어, 제2 가상 공간의 화면이 제2 사용자가 착용하고 있는 출력 기기(100)에서 표시되도록 제어할 수 있다. 이를 통해, 제2 사용자가 제1 가상 공간에서 제2 가상 공간으로 이동하여, 제2 가상 공간에 제2 사용자가 접속되도록 처리할 수 있다.In addition, when a notification message recommending joint condolences is selected in a conversation window between the first user and the second user through the operating device 200 worn by the second user, the device 300 displays a second message on the screen of the first virtual space. The screen is converted to a virtual space, and the screen of the second virtual space can be controlled to be displayed on the output device 100 worn by the second user. Through this, the second user can move from the first virtual space to the second virtual space, and the second user can be connected to the second virtual space.

도 7은 일실시예에 따른 추모관 서비스를 이용하는 사용자들을 위한 제품 개발을 추천하고 제품의 광고를 수행할 인플루언서를 매칭하는 과정을 설명하기 위한 순서도이다.Figure 7 is a flow chart for explaining the process of recommending product development for users using a memorial service according to an embodiment and matching influencers who will advertise the product.

도 7을 참조하면, 먼저 S701 단계에서, 장치(300)는 추모관 서비스를 이용하는 사용자들이 제1 카테고리의 제품에 관심이 많은 것으로 확인할 수 있다. 여기서, 제1 카테고리는 의류, 화장품, 가구, 가전 등의 제품 카테고리 중 어느 하나일 수 있다.Referring to FIG. 7, first, in step S701, the device 300 may confirm that users using the memorial service are interested in products of the first category. Here, the first category may be any one of product categories such as clothing, cosmetics, furniture, and home appliances.

예를 들어, 장치(300)는 제1 사용자 및 제2 사용자가 추모관 서비스를 이용한 것으로 확인되면, 제1 사용자의 활동 정보 및 제2 사용자의 활동 정보를 수집할 수 있다. 여기서, 활동 정보는 SNS 계정에 업로드된 게시 자료, 콘텐츠 이용 내역, 게시글 조회 내역 등을 포함할 수 있다.For example, if it is confirmed that the first user and the second user used the memorial service, the device 300 may collect the first user's activity information and the second user's activity information. Here, the activity information may include posted data uploaded to the SNS account, content usage history, post view history, etc.

이후, 장치(300)는 제1 사용자의 활동 정보를 기반으로, 제1 사용자가 어느 카테고리의 제품에 관심이 많은지를 예측할 수 있고, 제2 사용자의 활동 정보를 기반으로, 제2 사용자가 어느 카테고리의 제품에 관심이 많은지를 예측할 수 있다.Thereafter, the device 300 may predict which category of product the first user is most interested in, based on the activity information of the first user, and which category the second user will be selected based on the activity information of the second user. You can predict whether there is a lot of interest in the product.

이후, 장치(300)는 각 사용자 별로 어느 카테고리의 제품에 관심이 많은지가 예측되면, 예측된 결과를 이용하여, 사용자들이 어느 카테고리의 제품에 관심이 가장 많은지를 확인할 수 있다.Afterwards, when it is predicted which category of product each user is most interested in, the device 300 can use the predicted result to check which category of product the users are most interested in.

S702 단계에서, 장치(300)는 복수의 관계자 단말로 제1 카테고리의 제품에 대한 개발을 추천하는 알림 메시지를 전송할 수 있다. 이를 위해, 장치(300)는 복수의 관계자 단말과 유무선으로 통신하도록 구성될 수 있다.In step S702, the device 300 may transmit a notification message recommending development of a product in the first category to a plurality of stakeholder terminals. To this end, the device 300 may be configured to communicate wired or wirelessly with a plurality of stakeholder terminals.

복수의 관계자 단말은 제품 생산 및 판매와 관련된 관계자들이 사용하는 단말로, 제품 기획자, 생산자, 판매자 등 다양한 주체들이 관계자로 제품 기획 및 생산에 참여할 수 있으며, 제1 관계자가 사용하는 제1 관계자 단말, 제2 관계자가 사용하는 제2 관계자 단말 등을 포함할 수 있다.Multiple stakeholder terminals are terminals used by stakeholders involved in product production and sales. Various entities such as product planners, producers, and sellers can participate in product planning and production as stakeholders. The first stakeholder terminal is used by the first stakeholder, It may include a second stakeholder terminal used by the second stakeholder, etc.

S703 단계에서, 장치(300)는 복수의 관계자 단말 중 어느 하나인 제1 관계자 단말로부터 개발하고자 하는 제품인 제1 제품의 정보 및 제1 제품의 기획안을 획득할 수 있다. 이때, 제1 제품의 정보는 제1 제품의 명칭, 제1 제품의 카테고리, 제1 제품의 성분 정보 등을 포함할 수 있다. 제1 제품의 기획안은 제1 제품을 어떠한 방식으로 기획하여 생산하고 출시할 것인지에 대한 전략을 포함할 수 있으며, 제1 제품의 생산 수량, 제1 제품의 예상 생산 비용, 제1 제품의 예상 생산일 등을 포함할 수 있다.In step S703, the device 300 may obtain information on the first product, which is the product to be developed, and a plan for the first product from a first stakeholder terminal, which is one of a plurality of stakeholder terminals. At this time, the information on the first product may include the name of the first product, the category of the first product, and ingredient information of the first product. The plan for the first product may include a strategy for how to plan, produce, and release the first product, the production quantity of the first product, the expected production cost of the first product, and the expected production date of the first product. It may include etc.

S704 단계에서, 장치(300)는 제1 제품의 기획안이 채택되어, 제1 제품의 제조가 결정되면, 적어도 하나의 데이터베이스로부터 인플루언서가 수행한 광고 콘텐츠를 획득할 수 있다. 여기서, 적어도 하나의 데이터베이스는 블로그 또는 유튜브가 될 수 있다.In step S704, when the plan for the first product is adopted and manufacturing of the first product is determined, the device 300 may obtain advertising content performed by the influencer from at least one database. Here, at least one database can be a blog or YouTube.

구체적으로, 장치(300)는 블로그 또는 유튜브를 포함하는 적어도 하나의 데이터베이스를 통해 인플루언서가 수행한 광고 콘텐츠를 획득할 수 있다.Specifically, the device 300 may obtain advertising content performed by an influencer through at least one database including a blog or YouTube.

S705 단계에서, 장치(300)는 인플루언서가 수행한 광고 콘텐츠를 기초로, 전체 광고 콘텐츠 중 제1 카테고리의 제품과 관련된 광고 콘텐츠가 차지하는 비율이 기준 비율 이상인 후보 인플루언서의 광고 정보를 획득할 수 있다. 여기서, 기준 비율은 미리 설정된 비율로 실시 예에 따라 달라질 수 있다. 또한, 후보 인플루언서의 광고 정보는 후보 인플루언서의 명칭, 후보 인플루언서의 팔로워, 후보 인플루언서의 팔로워의 정보를 포함하는 후보 인플루언서의 정보를 포함할 수 있고, 후보 인플루언서의 광고 콘텐츠의 개수, 후보 인플루언서의 광고 콘텐츠의 카테고리, 후보 인플루언서의 광고 콘텐츠의 조회수, 댓글수, 공유수를 포함하는 후보 인플루언서가 수행한 광고 콘텐츠의 정보를 포함할 수 있다.In step S705, based on the advertising content performed by the influencer, the device 300 acquires advertising information of a candidate influencer whose ratio of advertising content related to products of the first category among all advertising content is greater than or equal to the reference ratio. can do. Here, the reference ratio is a preset ratio and may vary depending on the embodiment. In addition, the advertising information of the candidate influencer may include information on the candidate influencer, including the name of the candidate influencer, the candidate influencer's followers, and information on the candidate influencer's followers. It may include information on the advertising content performed by the candidate influencer, including the number of advertising content of the candidate influencer, the category of advertising content of the candidate influencer, and the number of views, comments, and shares of the candidate influencer's advertising content. there is.

구체적으로, 장치(300)는 인플루언서가 수행한 광고 콘텐츠를 기초로, 광고 콘텐츠를 인플루언서에 대응하여 분류하고, 광고 콘텐츠의 제품을 분석하여 광고 콘텐츠가 제1 카테고리의 제품과 관련된 광고 콘텐츠인지, 제1 카테고리의 제품과 관련되지 않는 광고 콘텐츠인지 분석할 수 있다. 즉, 장치(300)는 인플루언서가 수행한 광고 콘텐츠를 기초로, 전체 광고 콘텐츠 중 제1 카테고리의 제품과 관련된 광고 콘텐츠가 차지하는 비율을 확인할 수 있고, 해당 비율이 미리 설정한 기준 비율 이상인 후보 인플루언서의 광고 정보를 획득할 수 있다.Specifically, based on the advertising content performed by the influencer, the device 300 classifies the advertising content in response to the influencer, analyzes the products of the advertising content, and determines whether the advertising content is related to the product of the first category. It can be analyzed whether it is content or advertising content that is not related to products in the first category. That is, the device 300 can check the ratio of advertising content related to the product of the first category among the total advertising content based on the advertising content performed by the influencer, and select a candidate whose ratio is greater than or equal to a preset standard ratio. You can obtain advertising information from influencers.

예를 들어, 적어도 하나의 데이터베이스인 유튜브 데이터베이스를 통해 ‘A’ 광고 콘텐츠, ‘B’ 광고 콘텐츠, ‘C' 광고 콘텐츠, ‘D’ 광고 콘텐츠, ‘E’ 광고 콘텐츠, ‘F’ 광고 콘텐츠, ‘G’ 광고 콘텐츠, ‘H’ 광고 콘텐츠, ‘I' 광고 콘텐츠, ‘J’ 광고 콘텐츠를 획득하고, ‘A’ 인플루언서에 대응하는 광고 콘텐츠가 제1 카테고리 제품의 광고 콘텐츠인 ‘A’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘D’ 광고 콘텐츠이고, ‘B’ 인플루언서에 대응하는 광고 콘텐츠가 제2 카테고리 제품의 광고 콘텐츠인 ‘B’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘F’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘I’ 광고 콘텐츠이고, ‘C’ 인플루언서에 대응하는 광고 콘텐츠가 제1 카테고리 제품의 광고 콘텐츠인 ‘C’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘E’ 광고 콘텐츠, 제3 카테고리 제품의 광고 콘텐츠인 ‘G’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘H’ 광고 콘텐츠, 제1 카테고리 제품의 광고 콘텐츠인 ‘J’ 광고 콘텐츠이고, 기준 비율이 75%인 경우, 장치(300)는 적어도 하나의 데이터베이스인 유튜브 데이터베이스를 통해 전체 광고 콘텐츠 중 제1 카테고리의 제품과 관련된 광고 콘텐츠가 차지하는 비율이 75% 이상인 ‘A’ 인플루언서 및 ‘C’ 인플루언서를 후보 인플루언서로 선정할 수 있고, ‘A’ 인플루언서의 광고 정보 및 ‘C’ 인플루언서의 광고 정보를 획득할 수 있다.For example, through at least one database, the YouTube database, 'A' advertising content, 'B' advertising content, 'C' advertising content, 'D' advertising content, 'E' advertising content, 'F' advertising content, ' ‘G’ advertising content, ‘H’ advertising content, ‘I’ advertising content, and ‘J’ advertising content are acquired, and ‘A’ advertising where the advertising content corresponding to the ‘A’ influencer is the advertising content of the first category product Content, 'D' advertising content, which is the advertising content of the first category product, and 'B' advertising content corresponding to the influencer is the advertising content of the second category product, 'B' advertising content, the advertising content of the first category product 'F' advertising content, 'I' advertising content that is advertising content of the first category product, and 'C' advertising content corresponding to the influencer is advertising content of the first category product, 'C' advertising content, first category product. 'E' advertising content, which is advertising content for category products, 'G' advertising content, which is advertising content for third category products, 'H' advertising content, which is advertising content for first category products, and 'J' advertising content which is advertising content for first category products. ' If it is advertising content and the standard ratio is 75%, the device 300 selects 'A' where the advertising content related to the product of the first category accounts for 75% or more of the total advertising content through at least one database, the YouTube database. Influencers and 'C' influencers can be selected as candidate influencers, and advertising information of 'A' influencer and advertising information of 'C' influencer can be obtained.

S706 단계에서, 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서가 수행한 광고 콘텐츠의 정보를 획득할 수 있다.In step S706, the device 300 may obtain information about advertising content performed by the candidate influencer based on the advertising information of the candidate influencer.

구체적으로, 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서의 광고 콘텐츠의 개수, 후보 인플루언서의 광고 콘텐츠의 카테고리, 후보 인플루언서의 광고 콘텐츠의 조회수, 댓글수, 공유수를 포함하는 후보 인플루언서가 수행한 광고 콘텐츠의 정보를 획득할 수 있다.Specifically, based on the advertising information of the candidate influencer, the device 300 includes the number of advertising contents of the candidate influencer, the category of advertising content of the candidate influencer, the number of views and comments of the advertising content of the candidate influencer. Information on advertising content performed by the candidate influencer, including the number and number of shares, can be obtained.

S707 단계에서, 장치(300)는 후보 인플루언서의 광고 정보, 후보 인플루언서가 수행한 광고 콘텐츠의 정보 및 제1 제품의 정보를 기초로, 후보 인플루언서 중 제1 제품의 광고를 수행할 인플루언서를 선정할 수 있다.In step S707, the device 300 performs advertising of the first product among the candidate influencers based on the candidate influencer's advertising information, information on the advertising content performed by the candidate influencer, and information on the first product. You can select an influencer to do this.

구체적으로, 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서의 타겟 정보를 획득하고, 후보 인플루언서가 수행한 광고 콘텐츠의 정보를 기초로, 후보 인플루언서의 콘텐츠 관심 정보를 획득하고, 후보 인플루언서의 타겟 정보, 후보 인플루언서의 콘텐츠 관심 정보, 제1 제품의 정보를 제1 인공 신경망에 적용하여 제1 제품의 광고를 수행할 인플루언서를 선정할 수 있다. 이와 관련한 구체적인 설명은 도 7을 참고하기로 한다.Specifically, the device 300 acquires target information of the candidate influencer based on the advertising information of the candidate influencer, and determines the candidate influencer's target information based on information on advertising content performed by the candidate influencer. Obtain content interest information, and apply the target information of the candidate influencer, the content interest information of the candidate influencer, and the information of the first product to the first artificial neural network to select the influencer who will advertise the first product. can do. For a detailed explanation regarding this, please refer to FIG. 7.

S708 단계에서, 장치(300)는 제1 제품의 광고를 수행할 인플루언서가 선정되어 제1 제품의 광고가 제작되면, 추모관 서비스의 초기 화면이 출력 기기(100)에서 표시될 때, 광고 표시 영역에 제1 제품의 광고가 표시되도록 제어할 수 있다. 이를 위해, 초기 화면에는 일부 영역이 광고 표시 영역으로 설정되어 있다.In step S708, when an influencer to advertise the first product is selected and an advertisement for the first product is produced, the device 300 displays the advertisement when the initial screen of the memorial service is displayed on the output device 100. The area can be controlled to display an advertisement for the first product. For this purpose, some areas of the initial screen are set as advertisement display areas.

도 8은 일실시예에 따른 후보 인플루언서의 정보를 기초로 제품의 광고를 수행할 인플루언서를 선정하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram illustrating a process of selecting an influencer to advertise a product based on information on a candidate influencer according to an embodiment.

도 8을 참조하면, 먼저, S801 단계에서, 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서의 타겟 연령 정보 및 타겟 성별 정보를 포함하는 후보 인플루언서의 타겟 정보를 획득할 수 있다.Referring to FIG. 8, first, in step S801, the device 300 generates target information of the candidate influencer including target age information and target gender information of the candidate influencer based on the advertisement information of the candidate influencer. can be obtained.

구체적으로, 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서의 팔로워 정보를 획득할 수 있고, 후보 인플루언서의 팔로워 정보를 분석하여 후보 인플루언서의 타겟의 연령대가 10대인지, 20대인지, 30대인지, 40대인지, 50인대인지 60대인지, 70대인지, 혹은 후보 인플루언서의 타겟의 연령대가 청소년인지, 청년인지, 중년인지, 장년인지 등을 파악할 수 있고, 파악 결과를 기초로 후보 인플루언서의 타겟 연령 정보를 획득할 수 있다. 장치(300)는 후보 인플루언서의 광고 정보를 기초로, 후보 인플루언서의 팔로워 정보를 획득할 수 있고, 후보 인플루언서의 팔로워 정보를 분석하여 후보 인플루언서의 타겟의 성별이 여성인지, 남성인지를 파악할 수 있고, 파악 결과를 기초로 후보 인플루언서의 타겟 성별 정보를 획득할 수 있다. 또한, 장치(300)는 후보 인플루언서의 타겟 연령 정보와 후보 인플루언서의 타겟 성별 정보를 포함하는 후보 인플루언서의 타겟 정보를 획득할 수 있다.Specifically, the device 300 may obtain follower information of the candidate influencer based on the advertisement information of the candidate influencer, and analyze the follower information of the candidate influencer to determine the target age group of the candidate influencer. Is the person in their teens, 20s, 30s, 40s, 50s, 60s, 70s, or is the target age group of the candidate influencer teenagers, young adults, middle-aged, elderly, etc. can be identified, and the target age information of the candidate influencer can be obtained based on the identification results. The device 300 may acquire follower information of the candidate influencer based on the candidate influencer's advertisement information, and analyze the follower information of the candidate influencer to determine whether the target gender of the candidate influencer is female. , it is possible to determine whether a person is male, and based on the identification results, target gender information of the candidate influencer can be obtained. Additionally, the device 300 may obtain target information on the candidate influencer, including target age information and target gender information on the candidate influencer.

S802 단계에서, 장치(300)는 후보 인플루언서의 광고 콘텐츠 정보를 기초로, 후보 인플루언서의 광고 콘텐츠 정보를 기초로, 광고 콘텐츠의 개수, 광고 콘텐츠의 평균 시청 횟수, 광고 콘텐츠의 평균 공유 횟수, 광고 콘텐츠의 평균 댓글 횟수를 포함하는 후보 인플루언서의 콘텐츠 관심 정보를 획득할 수 있다.In step S802, the device 300 determines the number of advertisement contents, the average number of views of the advertisement content, and the average sharing of the advertisement content, based on the advertisement content information of the candidate influencer. It is possible to obtain content interest information of candidate influencers, including the number of comments and the average number of comments on advertising content.

S803 단계에서, 장치(300)는 후보 인플루언서의 타겟 정보, 후보 인플루언서의 콘텐츠 관심 정보 및 제1 제품의 정보에 기초하여 제1 입력 신호를 생성할 수 있다.In step S803, the device 300 may generate a first input signal based on the candidate influencer's target information, the candidate influencer's content interest information, and the first product information.

구체적으로, 장치(300)는 후보 인플루언서의 타겟 정보, 후보 인플루언서의 콘텐츠 관심 정보 및 제1 제품의 정보를 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 후보 인플루언서의 타겟 정보, 후보 인플루언서의 콘텐츠 관심 정보 및 제1 제품의 정보는 제1 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.Specifically, the device 300 may perform a process of preprocessing the target information of the candidate influencer, the content interest information of the candidate influencer, and the information of the first product. The target information of the preprocessed candidate influencer, the content interest information of the candidate influencer, and the information of the first product can be used as input to the first artificial neural network, or can be used as input through normal processing to remove unnecessary information. can be created.

S804 단계에서, 장치(300)는 제1 입력 신호를 제1 인공 신경망에 적용하여, 제1 출력 신호를 생성할 수 있다.In step S804, the device 300 may generate a first output signal by applying the first input signal to the first artificial neural network.

여기서, 장치(300)는 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들, 트레이닝 제1 카테고리 제품의 정보들, 제1 출력 신호들 및 트레이닝 인플루언서 매칭 정보들을 획득하고, 이에 기초하여 제1 인공 신경망을 미리 학습시킬 수 있다. 장치(300)는 미리 학습된 제1 인공 신경망에 제1 입력 신호를 적용하여 제1 출력 신호를 생성할 수 있다. 이때, 트레이닝 인플루언서 매칭 정보들은 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들 및 트레이닝 제1 카테고리 제품의 정보들에 각각 대응하는 인플루언서 매칭 정보들일 수 있다. 제1 출력 신호들은 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들 및 트레이닝 제1 카테고리 제품의 정보들에 기초하여 생성된 제1 트레이닝 입력 신호들이 제1 인공 신경망에 적용되어 생성된 출력 신호들일 수 있다Here, the device 300 acquires the training influencer's target information, the training influencer's content interest information, training first category product information, first output signals, and training influencer matching information, , Based on this, the first artificial neural network can be trained in advance. The device 300 may generate a first output signal by applying a first input signal to a pre-trained first artificial neural network. At this time, the training influencer matching information may be influencer matching information corresponding to the training influencer's target information, the training influencer's content interest information, and information on the first training category product. The first output signals are first training input signals generated based on the training influencer's target information, the training influencer's content interest information, and the information on the training first category product and are applied to the first artificial neural network. The generated output signals may be

일실시예에 따르면, 장치(300)는 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들, 트레이닝 제1 카테고리 제품의 정보들을 제1 인공 신경망에 적용하여 트레이닝 출력들을 획득할 수 있다. 장치(300)는 트레이닝 출력들과 제1 출력 신호들 및 트레이닝 인플루언서 매칭 정보들에 기초하여 제1 인공 신경망을 학습시킬 수 있다. 장치(300)는 미리 학습된 제1 인공 신경망에 제1 입력 신호를 적용하여 제1 출력 신호를 생성할 수 있다.According to one embodiment, the device 300 obtains training outputs by applying the training influencer's target information, the training influencer's content interest information, and the information of the training first category product to the first artificial neural network. You can. The device 300 may learn the first artificial neural network based on the training outputs, first output signals, and training influencer matching information. The device 300 may generate a first output signal by applying a first input signal to a pre-trained first artificial neural network.

장치(300)는 트레이닝 출력들과 제1 출력 신호들 및 트레이닝 인플루언서 매칭 정보들에 기초하여 제1 인공 신경망을 학습시킬 수 있다. 장치(300)는 트레이닝 출력들에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 인공 신경망 내 노드들의 연결 관계를 최적화하여 제1 인공 신경망을 학습시킬 수 있다. 장치(300)는 학습이 완료된 제1 인공 신경망을 이용하여 인플루언서의 타겟 정보, 인플루언서의 콘텐츠 관심 정보 및 제1 제품의 정보로부터 인플루언서 매칭 정보를 추출할 수 있다. The device 300 may learn the first artificial neural network based on the training outputs, first output signals, and training influencer matching information. The device 300 may learn the first artificial neural network by calculating training errors corresponding to the training outputs and optimizing the connection relationships of nodes in the first artificial neural network to minimize the training errors. The device 300 may extract influencer matching information from the influencer's target information, the influencer's content interest information, and the first product information using the first artificial neural network on which learning has been completed.

장치(300)는 인플루언서 매칭 정보의 추출을 위하여 제1 인공 신경망을 학습시킬 수 있다.The device 300 may train a first artificial neural network to extract influencer matching information.

제1 인공 신경망은 트레이닝 샘플들이 입력되는 제1 입력 레이어와 트레이닝 출력들을 포함하는 제1 출력 레이어를 포함하고, 트레이닝 출력들과 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 레이블들은 인플루언서의 타겟 정보들, 인플루언서의 콘텐츠 관심 정보들 및 제1 제품의 정보들에 기초하여 정의될 수 있다. 제1 인공 신경망은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.The first artificial neural network includes a first input layer into which training samples are input and a first output layer including training outputs, and may be learned based on the difference between the training outputs and labels. Here, the labels may be defined based on the influencer's target information, the influencer's content interest information, and the first product information. The first artificial neural network is connected to a group of a plurality of nodes, and is defined by weights between connected nodes and an activation function that activates the nodes.

장치(300)는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 제1 인공 신경망을 학습시킬 수 있다. 장치(300)는 제1 인공 신경망의 출력들 및 레이블들 의해 설계된 손실 함수(Loss Function)를 이용할 수 있다.The device 300 may learn the first artificial neural network using a gradient descent (GD) technique or a stochastic gradient descent (SGD) technique. The device 300 may use a loss function designed by the outputs and labels of the first artificial neural network.

장치(300)는 미리 정의된 손실 함수를 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 제1 인공 신경망 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The device 300 may calculate the training error using a predefined loss function. The loss function may be predefined with a label, output, and parameter as input variables, where the parameter may be set by weights in the first artificial neural network. For example, the loss function may be designed in the form of MSE (Mean Square Error), entropy, etc., and various techniques or methods may be employed in embodiments in which the loss function is designed.

장치(300)는 역전파(Backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 제1 인공 신경망 내 노드들 사이의 관계들이다. 장치(300)는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 장치(300)는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The device 300 can find weights that affect the training error using a backpropagation technique. Here, the weights are relationships between nodes in the first artificial neural network. Device 300 may use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the device 300 may update the weights of the loss function defined based on the labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 장치(300)는 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들 및 트레이닝 제품 정보들에 기초하여 제1 트레이닝 입력 신호들을 생성할 수 있다. 장치(300)는 제1 트레이닝 입력 신호들로부터 제1 출력 신호들을 생성할 수 있다.According to one embodiment, the device 300 may generate first training input signals based on the training influencer's target information, the training influencer's content interest information, and training product information. Device 300 may generate first output signals from first training input signals.

일실시예에 따르면, 제1 인공 신경망은 트레이닝 인플루언서의 타겟 정보들, 트레이닝 인플루언서의 콘텐츠 관심 정보들, 트레이닝 제품 정보들, 제1 출력 신호들 및 트레이닝 인플루언서 매칭 정보들에 기초하여 미리 학습될 수 있다. 제1 인공 신경망은 제1 출력 신호들 및 트레이닝 인플루언서 매칭 정보들의 차이들에 기초하여 생성된 트레이닝 에러들을 최소화하여 학습될 수 있다.According to one embodiment, the first artificial neural network is based on the training influencer's target information, the training influencer's content interest information, training product information, first output signals, and training influencer matching information. So it can be learned in advance. The first artificial neural network may be learned by minimizing training errors generated based on differences between the first output signals and training influencer matching information.

S805 단계에서, 장치(300)는 제1 출력 신호에 기초하여 제1 제품 및 후보 인플루언서에 대응하는 매칭 정보를 생성할 수 있다. 여기서, 인플루언서 매칭 정보는 후보 인플루언서 및 제1 제품의 매칭 정도로서, 0과 1사이의 실수 값일 수 있다.In step S805, the device 300 may generate matching information corresponding to the first product and the candidate influencer based on the first output signal. Here, the influencer matching information is the degree of matching between the candidate influencer and the first product and may be a real number between 0 and 1.

예를 들어, 장치(300)는 제1 인공 신경망을 통해 'A' 인플루언서에 대응하는 인플루언서 매칭 정보로 0.8, 'C' 인플루언서에 대응하는 인플루언서 매칭 정보로 0.3, 'D' 인플루언서에 대응하는 인플루언서 매칭 정보로 0.5, 'E' 인플루언서에 대응하는 인플루언서 매칭 정보로 0.6을 생성할 수 있다.For example, the device 300 uses the first artificial neural network to generate 0.8 as influencer matching information corresponding to influencer 'A', 0.3 as influencer matching information corresponding to influencer 'C', and ' 0.5 can be generated from the influencer matching information corresponding to the 'D' influencer, and 0.6 can be generated from the influencer matching information corresponding to the 'E' influencer.

S806 단계에서, 장치(300)는 후보 인플루언서 중 제1 제품의 제조사가 생산한 제품을 광고한 이력을 확인하여 광고 횟수에 비례하는 가중치를 매칭 정보에 적용할 수 있다.In step S806, the device 300 may check the history of advertising products produced by the manufacturer of the first product among the candidate influencers and apply a weight proportional to the number of advertisements to the matching information.

예를 들어, 후보 인플루언서가 'A' 인플루언서, 'C' 인플루언서, 'D' 인플루언서, 'E' 인플루언서이고, 제1 제품의 제조사가 'A' 제조사이고, 'A' 제조사에서 생산한 제품을 광고한 횟수가 'A' 인플루언서의 경우 2번, 'C' 인플루언서의 경우 3번, 'D' 인플루언서의 경우 3번, 'E' 인플루언서의 경우 1번인 경우, 장치(300)는 'A' 인플루언서에게 광고 횟수에 비례하는 가중치로 0.2을 적용할 수 있고, 'C' 인플루언서에게 광고 횟수에 비례하는 가중치로 0.3을 적용할 수 있고, 'D' 인플루언서에게 광고 횟수에 비례하는 가중치로 0.3을 적용할 수 있고, 'E' 인플루언서에게 광고 횟수에 비례하는 가중치로 0.1을 적용할 수 있다,For example, the candidate influencers are 'A' influencer, 'C' influencer, 'D' influencer, and 'E' influencer, and the manufacturer of the first product is manufacturer 'A', The number of times products produced by 'A' manufacturer were advertised was 2 times for 'A' influencer, 3 times for 'C' influencer, 3 times for 'D' influencer, and 'E' influencer. In the case of influencer number 1, the device 300 may apply 0.2 as a weight proportional to the number of advertisements to influencer 'A' and 0.3 as a weight proportional to the number of advertisements to influencer 'C'. 0.3 can be applied to the 'D' influencer as a weight proportional to the number of advertisements, and 0.1 can be applied to the 'E' influencer as a weight proportional to the number of advertisements.

S807 단계에서, 장치(300)는 가중치가 적용된 매칭 정보를 이용하여 제1 제품의 광고를 수행할 인플루언서를 선정할 수 있다.In step S807, the device 300 may select an influencer to advertise the first product using weighted matching information.

예를 들어, 'A' 인플루언서에 대응하는 인플루언서 매칭 정보가 0.8, 광고 횟수에 비례하는 가중치가 0.2이고, 'C' 인플루언서에 대응하는 인플루언서 매칭 정보가 0.3, 광고 횟수에 비례하는 가중치가 0.3이고, 'D' 인플루언서에 대응하는 인플루언서 매칭 정보가 0.5, 광고 횟수에 비례하는 가중치가 0.3이고, 'E' 인플루언서에 대응하는 인플루언서 매칭 정보가 0.6, 광고 횟수에 비례하는 가중치가 0.1인 경우, 장치(300)는 'A' 인플루언서에 대응하는 가중치가 적용된 매칭 정보를 1로 생성하고, 'C' 인플루언서에 대응하는 가중치가 적용된 매칭 정보를 0.6로 생성하고, 'D' 인플루언서에 대응하는 가중치가 적용된 매칭 정보를 0.8로 생성하고, 'E' 인플루언서에 대응하는 가중치가 적용된 매칭 정보를 0.7로 생성하여 제1 제품의 광고를 수행할 인플루언서로 'A' 인플루언서를 선정할 수 있다.For example, the influencer matching information corresponding to 'A' influencer is 0.8, the weight proportional to the number of advertisements is 0.2, and the influencer matching information corresponding to 'C' influencer is 0.3, the number of advertisements is 0.2. The weight proportional to is 0.3, the influencer matching information corresponding to the 'D' influencer is 0.5, the weight proportional to the number of advertisements is 0.3, and the influencer matching information corresponding to the 'E' influencer is 0.5. 0.6, when the weight proportional to the number of advertisements is 0.1, the device 300 generates matching information with a weight applied to the 'A' influencer as 1, and the weighted matching information corresponding to the 'C' influencer is applied as 1. Matching information was created as 0.6, weighted matching information corresponding to the 'D' influencer was created as 0.8, and weighted matching information corresponding to the 'E' influencer was created as 0.7 to create the first product. 'A' influencer can be selected as the influencer to carry out the advertisement.

도 9는 일실시예에 따른 장치의 구성의 예시도이다.Figure 9 is an exemplary diagram of the configuration of a device according to an embodiment.

일실시예에 따른 장치(300)는 프로세서(310) 및 메모리(320)를 포함한다. 프로세서(310)는 도 1 내지 도 8을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 8을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(300)를 이용하는 자 또는 단체는 도 1 내지 도 8을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.Device 300 according to one embodiment includes a processor 310 and memory 320. The processor 310 may include at least one device described above with reference to FIGS. 1 to 8 or may perform at least one method described above with reference to FIGS. 1 to 8 . A person or organization using the device 300 may provide services related to some or all of the methods described above with reference to FIGS. 1 to 8 .

메모리(320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 320 may store information related to the methods described above or store a program in which methods described later are implemented. Memory 320 may be volatile memory or non-volatile memory.

프로세서(310)는 프로그램을 실행하고, 장치(300)를 제어할 수 있다. 프로세서(310)에 의하여 실행되는 프로그램의 코드는 메모리(320)에 저장될 수 있다. 장치(300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 310 can execute programs and control the device 300. The code of the program executed by the processor 310 may be stored in the memory 320. The device 300 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown) and can exchange data through wired or wireless communication.

장치(300)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(320)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(310)는 메모리(320)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 학습 장치와 학습된 인공 신경망을 이용하는 장치(300)는 동일할 수도 있고 개별적일 수도 있다.Device 300 may be used to train an artificial neural network or use a trained artificial neural network. Memory 320 may include an artificial neural network that is being trained or has been trained. The processor 310 may learn or execute the artificial neural network algorithm stored in the memory 320. The learning device that trains the artificial neural network and the device 300 that uses the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using one or more general-purpose or special-purpose computers, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법에 있어서,
제1 사용자가 출력 기기를 착용한 것으로 확인되면, 하늘 또는 우주 공간 상에 별자리들이 표시되어 있는 추모관 서비스의 초기 화면이 상기 출력 기기에서 표시되도록 제어하는 단계;
상기 제1 사용자가 조작 기기를 착용하고 있는 경우, 상기 조작 기기를 통해 상기 초기 화면 상에서 제1 별자리 또는 제1 별이 선택되면, 상기 제1 별자리 또는 제1 별이 누구의 추모를 위해 설정되어 있는지 확인하는 단계;
상기 제1 별자리 또는 제1 별이 제1 고인 또는 제1 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 상기 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제1 가상 공간에 상기 제1 사용자가 접속되도록, 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 및
상기 조작 기기를 통해 상기 제1 가상 공간 내에서의 이동이 요청되면, 상기 제1 가상 공간 상에서 상기 제1 사용자가 위치하고 있는 지점을 변경하여, 상기 변경된 지점을 중심으로 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계를 포함하고,
상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는,
상기 제1 가상 공간에 상기 제1 사용자가 접속되어 있는 상태에서, 상기 제1 가상 공간에 제2 사용자가 추가 접속된 것이 확인되면, 상기 제1 사용자 및 상기 제2 사용자 간의 대화창이 상기 제1 가상 공간 상에서 표시되도록 제어하는 단계;
상기 제1 사용자의 추모 접속 이력을 기반으로 상기 제1 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제1 리스트를 확인하고, 상기 제2 사용자의 추모 접속 이력을 기반으로 상기 제2 사용자가 추모를 위해 접속한 별자리들 또는 별들의 리스트인 제2 리스트를 확인하는 단계;
상기 제1 리스트 및 상기 제2 리스트를 비교한 결과, 상기 제1 별자리 또는 제1 별을 제외한 나머지 중에서 제2 별자리 또는 제2 별이 중복으로 포함되어 있는 것으로 확인되면, 상기 제2 별자리 또는 제2 별이 누구의 추모를 위해 설정되어 있는지 확인하는 단계; 및
상기 제2 별자리 또는 제2 별이 제2 고인 또는 제2 반려동물의 추모를 위해 설정되어 있는 것으로 확인되면, 상기 제2 고인 또는 제2 반려동물의 추모를 위한 추모 공간이 메타버스 환경으로 구현되어 있는 제2 가상 공간에 대한 접속을 통해, 상기 제2 고인 또는 제2 반려동물에 대한 합동 조문을 추천하는 알림 메시지가 상기 대화창에서 표시되도록 제어하는 단계를 포함하고,
추모관 서비스를 이용하는 사용자들이 제1 카테고리의 제품에 관심이 많은 것으로 확인되면, 복수의 관계자 단말로 상기 제1 카테고리의 제품에 대한 개발을 추천하는 알림 메시지를 전송하는 단계;
상기 복수의 관계자 단말 중 어느 하나인 제1 관계자 단말로부터 개발하고자 하는 제품인 제1 제품의 정보 및 상기 제1 제품의 기획안을 획득하는 단계;
상기 제1 제품의 제조가 결정되면, 적어도 하나의 데이터베이스로부터 인플루언서가 수행한 광고 콘텐츠를 획득하는 단계;
상기 인플루언서가 수행한 광고 콘텐츠를 기초로, 전체 광고 콘텐츠 중 제1 카테고리의 제품과 관련된 광고 콘텐츠가 차지하는 비율이 미리 설정한 기준 비율 이상인 후보 인플루언서의 광고 정보를 획득하는 단계;
상기 후보 인플루언서의 광고 정보를 기초로, 상기 후보 인플루언서가 수행한 광고 콘텐츠의 정보를 획득하는 단계;
상기 후보 인플루언서의 광고 정보, 상기 후보 인플루언서가 수행한 광고 콘텐츠의 정보 및 상기 제1 제품의 정보를 기초로, 상기 후보 인플루언서 중 상기 제1 제품의 광고를 수행할 인플루언서를 선정하는 단계; 및
상기 제1 제품의 광고가 제작되면, 상기 초기 화면이 상기 출력 기기에서 표시될 때, 미리 설정된 광고 표시 영역에 상기 제1 제품의 광고가 표시되도록 제어하는 단계를 더 포함하고,
상기 후보 인플루언서 중 상기 제1 제품의 광고를 수행할 인플루언서를 선정하는 단계는,
상기 후보 인플루언서의 정보를 기초로, 상기 후보 인플루언서의 타겟 연령 정보 및 타겟 성별 정보를 포함하는 상기 후보 인플루언서의 타겟 정보를 획득하는 단계;
상기 후보 인플루언서의 광고 콘텐츠 정보를 기초로, 상기 광고 콘텐츠의 개수, 상기 광고 콘텐츠의 평균 시청 횟수, 상기 콘텐츠의 광고 평균 공유 횟수, 상기 광고 콘텐츠의 평균 댓글 횟수를 포함하는 상기 후보 인플루언서의 콘텐츠 관심 정보를 획득하는 단계;
상기 후보 인플루언서의 타겟 정보, 상기 후보 인플루언서의 콘텐츠 관심 정보 및 상기 제1 제품의 정보에 기초하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 제1 인공 신경망에 적용하여, 제1 출력 신호를 생성하는 단계;
상기 제1 출력 신호에 기초하여 상기 제1 제품 및 상기 후보 인플루언서에 대응하는 매칭 정보를 생성하는 단계;
상기 후보 인플루언서 중 상기 제1 제품의 제조사가 생산한 제품을 광고한 이력을 확인하여 광고 횟수에 비례하는 가중치를 상기 매칭 정보에 적용하는 단계; 및
상기 가중치가 적용된 매칭 정보를 이용하여 상기 제1 제품의 광고를 수행할 인플루언서를 선정하는 단계를 포함하는,
별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법.
In a method of providing an interface for implementing visual effects according to access to a constellation-based metaverse memorial service performed by a device,
When it is confirmed that the first user is wearing the output device, controlling the output device to display the initial screen of the memorial service, which displays constellations in the sky or outer space;
When the first user is wearing an operating device and the first constellation or first star is selected on the initial screen through the operating device, the first constellation or first star is set for whose memory. Confirmation steps;
If it is confirmed that the first constellation or the first star is set to commemorate the first deceased or the first companion animal, a memorial space for the memorial of the first deceased or the first companion animal is implemented in the metaverse environment. controlling a screen of the first virtual space to be displayed on the output device so that the first user is connected to the first virtual space; and
When movement within the first virtual space is requested through the operating device, the point where the first user is located in the first virtual space is changed, and the screen of the first virtual space is displayed around the changed point. Including controlling the display to be displayed on the output device,
The step of controlling the screen of the first virtual space to be displayed on the output device includes:
While the first user is connected to the first virtual space, if it is confirmed that a second user is additionally connected to the first virtual space, a chat window between the first user and the second user is displayed in the first virtual space. Controlling to be displayed in space;
Based on the memorial access history of the first user, check the first list, which is a list of constellations or stars that the first user accessed for memorial purposes, and based on the memorial access history of the second user, the second user Checking a second list, which is a list of constellations or stars accessed for memorial purposes;
As a result of comparing the first list and the second list, if it is confirmed that the second constellation or second star is included in duplicate among the remainder excluding the first constellation or first star, the second constellation or second star Steps to determine in whose memory the star is set; and
If it is confirmed that the second constellation or second star is set to commemorate the second deceased or the second companion animal, a memorial space for the memorial of the second deceased or the second companion animal is implemented in the metaverse environment. Through access to a second virtual space, controlling a notification message recommending joint condolences for the second deceased or the second companion animal to be displayed in the chat window,
When it is confirmed that users using the memorial service are interested in products of the first category, transmitting a notification message recommending development of the product of the first category to a plurality of stakeholder terminals;
Obtaining information on a first product, which is a product to be developed, and a plan for the first product from a first stakeholder terminal, which is one of the plurality of stakeholder terminals;
When manufacturing of the first product is determined, obtaining advertising content performed by an influencer from at least one database;
Based on the advertising content performed by the influencer, obtaining advertising information of a candidate influencer whose ratio of advertising content related to products of a first category among all advertising content is greater than or equal to a preset standard ratio;
Obtaining information on advertising content performed by the candidate influencer based on the advertising information of the candidate influencer;
An influencer who will perform advertising of the first product among the candidate influencers based on the advertising information of the candidate influencer, the information of advertising content performed by the candidate influencer, and the information of the first product. Step of selecting; and
When the advertisement for the first product is produced, when the initial screen is displayed on the output device, controlling the advertisement for the first product to be displayed in a preset advertisement display area,
The step of selecting an influencer to advertise the first product from among the candidate influencers,
Based on the information on the candidate influencer, obtaining target information on the candidate influencer including target age information and target gender information on the candidate influencer;
Based on the advertising content information of the candidate influencer, the candidate influencer includes the number of advertising content, the average number of views of the advertising content, the average number of sharing of the advertising content, and the average number of comments on the advertising content. Obtaining content interest information;
generating a first input signal based on target information of the candidate influencer, content interest information of the candidate influencer, and information of the first product;
applying the first input signal to a first artificial neural network to generate a first output signal;
generating matching information corresponding to the first product and the candidate influencer based on the first output signal;
Checking the candidate influencer's history of advertising products produced by the manufacturer of the first product and applying a weight proportional to the number of advertisements to the matching information; and
Comprising the step of selecting an influencer to advertise the first product using the weighted matching information,
A method of providing an interface that implements visual effects according to access to the constellation-based metaverse memorial service.
제1항에 있어서,
상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는,
상기 제1 별자리 또는 제1 별이 선택된 것으로 확인되면, 상기 초기 화면에서 상기 제1 별자리 또는 제1 별이 위치한 제1 구역을 확대하여, 상기 제1 구역의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계;
상기 제1 고인 또는 제1 반려동물의 추모를 위한 추모 공간이 상기 제1 가상 공간인 것으로 확인되면, 상기 제1 구역의 화면에 이어서 상기 제1 가상 공간으로 접속하는 접속 영상의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계; 및
상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계를 포함하고,
상기 제1 구역의 화면에 이어서 상기 제1 가상 공간으로 접속하는 접속 영상의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는,
상기 제1 고인 또는 제1 반려동물이 제1 연령대의 캐릭터로 구현된 제1 아바타의 영상이 제1 구간의 양측 벽면에서 표시되도록 제어하는 단계; 및
상기 제1 고인 또는 제1 반려동물이 상기 제1 연령대 보다 나이가 많은 제2 연령대의 캐릭터로 구현된 제2 아바타의 영상이 상기 제1 구간에 이어서 제2 구간의 양측 벽면에서 표시되도록 제어하는 단계를 포함하고,
상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는,
상기 제1 고인 또는 제1 반려동물이 상기 제2 연령대 보다 나이가 많은 제3 연령대의 캐릭터로 구현된 제3 아바타가 상기 제1 가상 공간에서 표시되도록 설정하는 단계; 및
상기 제3 아바타를 통해 상기 제1 사용자가 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 상기 제3 아바타가 상기 제1 가상 공간에서 표시되도록 제어하는 단계를 포함하는,
별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법.
According to paragraph 1,
The step of controlling the screen of the first virtual space to be displayed on the output device includes:
When it is confirmed that the first constellation or the first star is selected, the first zone where the first constellation or the first star is located is enlarged on the initial screen, and the screen of the first zone is controlled to be displayed on the output device. step;
If it is confirmed that the memorial space for commemorating the first deceased or the first companion animal is the first virtual space, the screen of the access video accessing the first virtual space following the screen of the first zone is displayed on the output device. controlling to be displayed; and
A step of controlling the screen of the first virtual space to be displayed on the output device following the screen of the connected video,
The step of controlling the screen of the connection video accessing the first virtual space to be displayed on the output device following the screen of the first zone,
Controlling the image of a first avatar in which the first deceased or the first companion animal is embodied as a character of a first age group to be displayed on both walls of the first section; and
Controlling the image of a second avatar in which the first deceased or the first companion animal is embodied as a character of a second age group older than the first age group to be displayed on both walls of the second section following the first section. Including,
The step of controlling the screen of the first virtual space to be displayed on the output device following the screen of the connected video,
setting a third avatar embodied as a character of a third age group in which the first deceased or the first companion animal is older than the second age group to be displayed in the first virtual space; and
Comprising the step of controlling the third avatar to be displayed in the first virtual space so that the first user can feel the experience of encountering the first deceased or the first companion animal through the third avatar,
A method of providing an interface that implements visual effects according to access to the constellation-based metaverse memorial service.
제2항에 있어서,
상기 접속 영상의 화면에 이어서 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계는,
상기 제3 아바타를 통해 상기 제1 사용자가 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록 상기 제1 가상 공간의 화면이 상기 출력 기기에서 표시되도록 제어하는 단계 이후,
상기 조작 기기를 통해 추모 장소가 제1 장소로 선택되고 조우 연도가 제1 연도로 선택되면, 상기 제1 가상 공간이 상기 제1 연도의 상기 제1 장소로 구현되도록 설정하는 단계;
상기 제1 연도를 기준으로 상기 제1 고인 또는 제1 반려동물의 연령대를 제4 연령대로 확인하는 단계;
상기 제4 연령대의 캐릭터로 구현된 제4 아바타가 상기 제1 연도의 상기 제1 장소로 구현된 상기 제1 가상 공간 상에서 표시되도록 설정하는 단계; 및
상기 제1 사용자가 상기 제1 장소에서 상기 제1 연도에 상기 제1 고인 또는 제1 반려동물과 조우하는 경험을 느낄 수 있도록, 상기 제4 아바타가 상기 제1 가상 공간에서 표시되도록 제어하는 단계를 더 포함하는,
별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법.
According to paragraph 2,
The step of controlling the screen of the first virtual space to be displayed on the output device following the screen of the connected video,
After controlling the screen of the first virtual space to be displayed on the output device so that the first user can feel the experience of encountering the first deceased or the first companion animal through the third avatar,
When a memorial site is selected as a first location and an encounter year is selected as a first year through the operation device, setting the first virtual space to be implemented as the first location in the first year;
Confirming the age group of the first deceased or the first companion animal as a fourth age group based on the first year;
Setting a fourth avatar implemented as a character of the fourth age group to be displayed on the first virtual space implemented as the first location in the first year; and
Controlling the fourth avatar to be displayed in the first virtual space so that the first user can feel the experience of encountering the first deceased or the first companion animal in the first place and the first year. Including more,
A method of providing an interface that implements visual effects according to access to the constellation-based metaverse memorial service.
KR1020220157207A 2022-11-22 2022-11-22 Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation KR102619388B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220157207A KR102619388B1 (en) 2022-11-22 2022-11-22 Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220157207A KR102619388B1 (en) 2022-11-22 2022-11-22 Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation

Publications (1)

Publication Number Publication Date
KR102619388B1 true KR102619388B1 (en) 2024-01-11

Family

ID=89533574

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220157207A KR102619388B1 (en) 2022-11-22 2022-11-22 Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation

Country Status (1)

Country Link
KR (1) KR102619388B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134912A (en) 2018-05-11 2019-12-05 (주)코아텍 Virtual reality memorial system based on cloud and method of providing virtual reality
KR20200125054A (en) 2019-04-25 2020-11-04 김정기 Cyber Memorial System and Method Using Virtual Space and Record Media Recorded Program for Realizing The Same
KR20210073080A (en) * 2019-12-10 2021-06-18 홍익대학교세종캠퍼스산학협력단 System and method for performing constellation game using virtual reality
KR20210151713A (en) 2020-06-05 2021-12-14 (주)문샷 Content implementation system for the deceased based on metaverse
KR102410670B1 (en) 2021-12-31 2022-06-22 주식회사 메타버즈 Method of Providing Cyber Memorial Service Using Virtual Space for Memorial Service

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190134912A (en) 2018-05-11 2019-12-05 (주)코아텍 Virtual reality memorial system based on cloud and method of providing virtual reality
KR20200125054A (en) 2019-04-25 2020-11-04 김정기 Cyber Memorial System and Method Using Virtual Space and Record Media Recorded Program for Realizing The Same
KR20210073080A (en) * 2019-12-10 2021-06-18 홍익대학교세종캠퍼스산학협력단 System and method for performing constellation game using virtual reality
KR20210151713A (en) 2020-06-05 2021-12-14 (주)문샷 Content implementation system for the deceased based on metaverse
KR102410670B1 (en) 2021-12-31 2022-06-22 주식회사 메타버즈 Method of Providing Cyber Memorial Service Using Virtual Space for Memorial Service

Similar Documents

Publication Publication Date Title
Li et al. A survey of data-driven and knowledge-aware explainable ai
KR102407595B1 (en) Method, device and system for providing winery experience service based on metaverse
KR102404511B1 (en) Method, device and system for recommending customized product information based on artificial intelligence
KR102490009B1 (en) Method, device and system for providing platform service for purchasing and selling product linked to influencer based on artificial intelligence
KR102533442B1 (en) Product planning and marketing strategy derivation method, device and system for online sales based on artificial intelligence model
Kaur et al. Artificial Intelligence and deep learning for decision makers: a growth hacker's guide to cutting edge technologies
KR102546871B1 (en) Method, device and system for recommending order information through pattern analysis of order history regarding distribustion of food materials and subsidiary materials for business to business based on artificial intelligence model
WO2021127225A1 (en) Methods and systems for defining emotional machines
KR102552856B1 (en) Method, device and system for automating creation of content template and extracting keyword for platform service that provide content related to commerce
KR102633435B1 (en) Methods and systems that leverage ai deep learning algorithms to analyze foot traffic and recommend efficient ways to utilize space
KR102530527B1 (en) Method, device and system for providing restaurant recommendation service based on health information
KR102463875B1 (en) Method, device and system for providing personalized psychotherapy content using big data
KR102447426B1 (en) Method, device and system for recommending lifestyle guide information analyzing personal color and timeline based behavioral data for hyper personalization
KR102619388B1 (en) Method, device and system for providing interface that implement visual effect depending on access related to metaverse memorial hall service based on constellation
KR102474974B1 (en) Method, device and system for analyzing brand based on artificial intelligence
Murala et al. Artificial intelligence in the development of metaverse
KR102619389B1 (en) Method, device and system for providing interface of metaverse memorial hall service based on constellation
KR102621308B1 (en) Method, device and system for providing platform service of metaverse memorial hall based on constellation
KR102321408B1 (en) Method, apparatus and system for providing personalized memo pad service
Abu et al. Approaches Of Deep Learning In Persuading The Contemporary Society For The Adoption Of New Trend Of AI Systems: A Review
Uddin et al. Deep Learning, Reinforcement Learning, and the Rise of Intelligent Systems
KR102607063B1 (en) Method, device and system for providing video editing automation solution based on video processing using artificial intelligence model
KR102596930B1 (en) Method, device and system for automating creation of homepage production information using artificial intelligence model
KR102618066B1 (en) Method, device and system for strengthening military security based on natural language process and image compare in soldier based community application
KR102593868B1 (en) Methods and systems for providing nail and toenail care information and operating expert matching platform services

Legal Events

Date Code Title Description
N231 Notification of change of applicant
GRNT Written decision to grant