KR102215736B1 - Display method of character avatar created for service provision in virtual reality space - Google Patents

Display method of character avatar created for service provision in virtual reality space Download PDF

Info

Publication number
KR102215736B1
KR102215736B1 KR1020200016678A KR20200016678A KR102215736B1 KR 102215736 B1 KR102215736 B1 KR 102215736B1 KR 1020200016678 A KR1020200016678 A KR 1020200016678A KR 20200016678 A KR20200016678 A KR 20200016678A KR 102215736 B1 KR102215736 B1 KR 102215736B1
Authority
KR
South Korea
Prior art keywords
user
user terminal
virtual space
avatar
character avatar
Prior art date
Application number
KR1020200016678A
Other languages
Korean (ko)
Other versions
KR20200097225A (en
Inventor
류경희
Original Assignee
(주)코딩앤플레이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코딩앤플레이 filed Critical (주)코딩앤플레이
Priority to KR1020200016678A priority Critical patent/KR102215736B1/en
Publication of KR20200097225A publication Critical patent/KR20200097225A/en
Application granted granted Critical
Publication of KR102215736B1 publication Critical patent/KR102215736B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

사용자 단말, 판매자 단말 및 서비스 서버를 포함하는 시스템에 의해 동작하는 가상 현실 공간을 이용한 전시장 플랫폼의 아바타 생성 방법이 개시된다. 본 개시의 일 실시예에 따른 아바타 생성 방법은, 상기 서비스 서버는, 상기 판매자 단말로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 상기 사용자 단말로 제공하는 단계; 상기 서비스 서버는, 상기 사용자 단말 및 상기 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 요청에 대응되는 캐릭터 아바타를 생성는 단계; 상기 생성된 캐릭터 아바타를 상기 가상 공간에 배치하는 단계; 및 상기 캐릭터 아바타를 학습 시키기 위한 사용자 명령이 입력되면, 상기 사용자 명령을 바탕으로 상기 캐릭터 아바타를 학습시키는 단계; 를 포함한다.Disclosed is a method of generating an avatar for an exhibition hall platform using a virtual reality space operated by a system including a user terminal, a seller terminal, and a service server. A method for generating an avatar according to an embodiment of the present disclosure may include, at the service server, generating a virtual space based on data received from the seller terminal and providing the virtual space to the user terminal; The service server receiving a request for generating a character avatar from at least one of the user terminal and the seller terminal and generating a character avatar corresponding to the request; Placing the generated character avatar in the virtual space; And when a user command for learning the character avatar is input, learning the character avatar based on the user command. Includes.

Figure 112020014553790-pat00001
Figure 112020014553790-pat00001

Description

가상 현실 공간에서 서비스 제공을 위해 생성된 캐릭터 아바타의 표시 방법{DISPLAY METHOD OF CHARACTER AVATAR CREATED FOR SERVICE PROVISION IN VIRTUAL REALITY SPACE}In a virtual   real   space   service   provision   created   character   avatar's   display  

본 발명은 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템에 관한 것이다. The present invention relates to a character generation and learning system for providing a service in a virtual reality space.

가상현실(Virtual Reality)은 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 기술이다. Virtual Reality is a technology that enables humans to experience real life in a virtual world created with computers.

한편, 가상현실(VR·virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR:augmented reality)을 혼합한 기술은 혼합현실(MR:mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여 주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. MR은 AR과 VR을 혼합해 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요하다.On the other hand, a technology that combines virtual reality (VR) and augmented reality (AR), a technology that adds virtual information to the real world, is called mixed reality (MR). VR, AR, and MR all have something in common in that they are technologies that enable people to recognize reality by realizing a reality that does not exist. However, there is a difference in that AR is a method of adding virtual information to real reality, and in VR, all fictional situations are presented. MR mixes AR and VR to provide a mixture of real and virtual information in a real background, and a technology that can process large amounts of data is required.

가상현실의 체험에는 HMD(Head Mount Display)가 일반적으로 이용되는데, 이는 VR 체험을 위해 사용자가 머리에 장착하는 디스플레이 디바이스로, 사용자의 시선을 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재될 수 있다.HMD (Head Mount Display) is generally used for virtual reality experience, which is a display device that the user mounts on the head for VR experience. It blocks the user's gaze from the outside and then shows the virtual world to the user's perspective. Do it. A microphone, stereo speaker and other sensors can be mounted on the face so that the display is in front of the eyes.

본 발명이 해결하고자 하는 과제는 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 제공하는 것이다.The problem to be solved by the present invention is to provide a character creation and learning system for providing services in a virtual reality space.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 사용자 단말, 판매자 단말 및 서비스 서버를 포함하는 시스템에 의해 동작하는 가상 현실 공간을 이용한 전시장 플랫폼의 아바타 생성 방법은, 상기 서비스 서버는, 상기 판매자 단말로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 상기 사용자 단말로 제공하는 단계; 상기 서비스 서버는, 상기 사용자 단말 및 상기 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 요청에 대응되는 캐릭터 아바타를 생성는 단계; 상기 생성된 캐릭터 아바타를 상기 가상 공간에 배치하는 단계; 및 상기 캐릭터 아바타를 학습 시키기 위한 사용자 명령이 입력되면, 상기 사용자 명령을 바탕으로 상기 캐릭터 아바타를 학습시키는 단계; 를 포함한다.A method for generating an avatar of an exhibition hall platform using a virtual reality space operated by a system including a user terminal, a seller terminal, and a service server according to an embodiment of the present disclosure for solving the above-described problem, the service server Creating a virtual space based on the data received from the seller terminal and providing it to the user terminal; The service server receiving a request for generating a character avatar from at least one of the user terminal and the seller terminal and generating a character avatar corresponding to the request; Placing the generated character avatar in the virtual space; And when a user command for learning the character avatar is input, learning the character avatar based on the user command. Includes.

이때, 상기 학습 시키는 단계는, 상기 사용자 단말 또는 상기 판매자 단말로 상기 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 상기 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 상기 사용자 단말 또는 상기 판매자 단말로부터 수신하면, 상기 수신된 카테고리 정보를 바탕으로 상기 캐릭터 아바타를 학습시킬 수 있다.In this case, in the learning step, category information for learning the character avatar is transmitted to the user terminal or the seller terminal, and category information for at least one of the transmitted category information is transmitted from the user terminal or the seller terminal. Upon receipt, the character avatar may be trained based on the received category information.

이때, 상기 캐릭터 아바타가 상기 판매자 단말에 의해 생성된 캐릭터 아바타인 경우, 상기 캐릭터 아바타는 상기 생성된 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 데이터를 학습하고, 상기 아바타 생성 방법은, 상기 서비스 서버가, 복수의 사용자 단말에 대응되는 복수의 캐릭터 아바타로부터 상기 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 요청 정보를 획득하는 단계; 상기 서비스 서버가, 상기 획득된 요청 정보에 대응되는 답변 정보를 획득하는 단계; 및 상기 서비스 서버가, 상기 요정 청보 및 답변 정보를 바탕으로 어느 하나의 사용자 단말에 대응되는 사용자 아바타에게 추천 서비스를 제공하는 단계;를 포함할 수 있다.In this case, when the character avatar is a character avatar generated by the seller terminal, the character avatar learns data on the generated virtual space and services provided in the virtual space, and the avatar generation method includes the service Obtaining, by a server, request information for the virtual space and services provided in the virtual space from a plurality of character avatars corresponding to a plurality of user terminals; Obtaining, by the service server, response information corresponding to the obtained request information; And providing, by the service server, a recommendation service to a user avatar corresponding to any one user terminal based on the fairy request and answer information.

이때, 상기 아바타 생성 방법은, 상기 서비스 서버가, 상기 사용자 단말로부터 수신된 사용자의 개인 정보, 사용자의 관심 분야 정보, 사용자의 검색 히스토리 정보, 상기 사용자 단말의 상태 정보, 상기 사용자 단말의 사용 히스토리 정보 중 적어도 하나의 정보를 수신하는 단계; 상기 서비스 서버가, 상기 수신된 적어도 하나의 정보를 바탕으로, 상기 캐릭터 아바타를 학습시키는 단계;를 더 포함할 수 있다.In this case, the avatar generation method includes: the service server, the user's personal information received from the user terminal, the user's field of interest information, the user's search history information, the state information of the user terminal, the usage history information of the user terminal Receiving at least one of the information; The service server may further include learning the character avatar based on the received at least one piece of information.

이때, 상기 아바타 생성 방법은, 상기 서비스 서버는, 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 단말로부터 학습된 상기 사용자 단말의 캐릭터 아바타 구입 요청을 수신하는 단계; 상기 서비스 서버는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 구입 요청에 대응되는 단말에 상기 캐릭터 아바타를 판매하는 단계; 를 포함하고, 상기 캐릭터 아바타 구입 요청 및 판매는 상기 가상 공간 내에서 제공될 수 있다.In this case, the avatar generation method includes: receiving, at the service server, a request to purchase a character avatar from the user terminal learned from at least one of a plurality of user terminals or a plurality of seller terminals; The service server, upon receiving a command for selling the character avatar from the user terminal, selling the character avatar to a terminal corresponding to the purchase request; Including, the character avatar purchase request and sale may be provided within the virtual space.

이때, 상기 캐릭터 아바타를 판매하는 단계는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 캐릭터 아바타에 저장된 상기 사용자 단말의 사용자에 대한 개인 정보를 삭제하는 단계;를 더 포함할 수 있다.In this case, the selling of the character avatar may further include, upon receiving a command for selling the character avatar from the user terminal, deleting personal information of the user of the user terminal stored in the character avatar; I can.

이때, 상기 아바타 생성 방법은, 상기 사용자 단말로부터 상기 가상 공간으로의 접근이 요청되면, 상기 가상 공간 및 상기 가상 공간에 배치된 상기 판매자 단말의 캐릭터 아바타를 상기 사용자 단말로 제공하는 단계; 및 상기 사용자 단말에 대응되는 캐릭터 아바타가 존재하면, 상기 캐릭터 아바타를 상기 가상공간에 배치하여 상기 사용자 단말로 제공하는 단계;를 포함하고, 상기 사용자 단말 이외의 다른 사용자 단말로부터 상기 서비스 서버로부터 생성된 가상 공간에 접근하기 위한 요청을 수신하면, 상기 다른 사용자 단말에 대응되는 사용자 아바타를 상기 가상 공간에 표시하여 제공할 수 있다.In this case, the method of generating an avatar includes: when a request for access to the virtual space is requested from the user terminal, providing the virtual space and a character avatar of the seller terminal disposed in the virtual space to the user terminal; And if there is a character avatar corresponding to the user terminal, disposing the character avatar in the virtual space and providing the character avatar to the user terminal; and generated from the service server from a user terminal other than the user terminal. Upon receiving a request to access the virtual space, a user avatar corresponding to the other user terminal may be displayed and provided in the virtual space.

이때, 상기 제공하는 단계는, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 밖인 경우, 상기 생성된 가상 공간을 제공하고, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자 단말 주변 영상을 수신하여 제공할 수 있다.In this case, the providing step includes providing the created virtual space when the user's view transmitted from the user terminal is outside a preset range, and when the user’s view transmitted from the user terminal is within a preset range, the It is possible to receive and provide an image around the user terminal.

한편, 상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 서비스 서버는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 제1 항의 방법을 수행한다.Meanwhile, a service server according to an embodiment of the present disclosure for solving the above-described problem includes: a memory for storing one or more instructions; And a processor that executes the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform the method of claim 1.

. 한편, 상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 컴퓨터 프로그램은. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.. On the other hand, the computer program according to an embodiment of the present disclosure for solving the above-described problem. It is combined with a computer, which is hardware, and stored in a computer-readable recording medium to perform the method of claim 1.

개시된 실시예에 따른, 가상 현실 동간에서 다양한 캐릭터를 이용하여 효과적으로 다양한 서비스를 제공할 수 있는 플랫폼을 구축할 수 있다.According to the disclosed embodiment, it is possible to construct a platform capable of effectively providing various services by using various characters in a virtual reality building.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 개시의 일 실시예에 따른 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 캐릭터 생성 및 학습 시스템의 동작을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시예에 따른 가상 공간을 구축하고, 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4 및 도 5는 본 개시의 일 실시예에 따른 가상 공간을 생성하기 위한 방법을 설명하기 위한 예시도이다.
도 6은 본 개시의 일 실시예에 따른 서비스 추천 방법을 설명하기 위한 예시도이다.
도 7은 본 개시의 일 실시예에 따른 복수의 사용자가 동일한 가상 공간을 사용하는 것을 설명하기 위한 예시도이다.
도 8은 본 개시의 일 실시예에 따른 캐릭터 아바타 판매를 설명하기 위한 예시도이다.
도 9은 본 개시의 일 실시예에 따른 가상 공간 표시 방법을 설명하기 위한 예시도이다.
도 10는 일 실시 예에 따른 장치의 구성도이다.
1 is a diagram illustrating a character creation and learning system for providing a service in a virtual reality space according to an embodiment of the present disclosure.
2 is a diagram illustrating an operation of a character generation and learning system according to an embodiment of the present disclosure.
3 is a diagram for explaining a method of constructing a virtual space and providing a service according to an embodiment of the present disclosure.
4 and 5 are exemplary diagrams for explaining a method for generating a virtual space according to an embodiment of the present disclosure.
6 is an exemplary diagram illustrating a service recommendation method according to an embodiment of the present disclosure.
7 is an exemplary diagram for explaining that a plurality of users use the same virtual space according to an embodiment of the present disclosure.
8 is an exemplary diagram for explaining selling a character avatar according to an embodiment of the present disclosure.
9 is an exemplary diagram for describing a method of displaying a virtual space according to an exemplary embodiment of the present disclosure.
10 is a block diagram of an apparatus according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, It is provided to fully inform the technician of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and “and/or” includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "unit" or "module" used in the specification refers to a hardware component such as software, FPGA or ASIC, and the "unit" or "module" performs certain roles. However, "unit" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example, "sub" or "module" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, It includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Components and functions provided within "sub" or "module" may be combined into a smaller number of components and "sub" or "modules" or into additional components and "sub" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to all kinds of hardware devices including at least one processor, and may be understood as encompassing a software configuration operating in a corresponding hardware device according to embodiments. For example, the computer may be understood as including all of a smartphone, a tablet PC, a desktop, a laptop, and a user client and an application running on each device, but is not limited thereto.

본 명세서에서, 인공지능 모델이란 기계학습을 이용하여 학습된 모델을 포함하는, 인공지능 시스템을 구현할 수 있도록 설계된 모든 종류의 모델을 포함한다. In the present specification, the artificial intelligence model includes all types of models designed to implement an artificial intelligence system, including a model learned using machine learning.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each of the steps described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed by different devices according to embodiments.

도 1은 본 개시의 일 실시예에 따른 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 도시한 도면이다.1 is a diagram illustrating a character creation and learning system for providing a service in a virtual reality space according to an embodiment of the present disclosure.

도 1에 도시된 구성요소들은 예시로써 도시된 것이며, 개시된 실시 예에 따른 시스템의 구성요소들은 이에 제한되지 않는다. 또한, 도 1에 도시되지 않은 구성요소들이 도 1에 도시된 시스템에 더 추가될 수 있으며, 도 1에 도시된 일부 구성요소가 도 1에 도시된 시스템으로부터 생략될 수도 있다.The components shown in FIG. 1 are shown as examples, and components of the system according to the disclosed embodiment are not limited thereto. Also, components not shown in FIG. 1 may be added to the system shown in FIG. 1, and some components shown in FIG. 1 may be omitted from the system shown in FIG. 1.

일 실시 예에서, 캐릭터 생성 및 학습 시스템은, 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)을 포함할 수 있다. 본 개시에서는 하나의 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)의 동작에 대하여 개시하나, 복수의 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)에 대하여도 동일한 기술적 사상이 적용될 수 있음은 자명하다.In one embodiment, the character creation and learning system may include a user terminal 110, a service server 120, and a seller terminal 130. In the present disclosure, the operation of one user terminal 110, service server 120, and seller terminal 130 is disclosed, but with respect to a plurality of user terminals 110, service server 120, and seller terminal 130 It is obvious that the same technical idea can be applied.

사용자 단말(110)은 가상 공간 제공을 위한 추가 장치를 포함할 수 있다. 일 실시예로, 사용자 단말(110)은 HMD(Head Mount Display)를 포함할 수 있다. 하지만 사용자 단말(110)에 포함된 출력장치는 HMD에 제한되는 것은 아니고, 다양한 형태의 출력장치가 가상현실을 제공하는 데 이용될 수 있다.The user terminal 110 may include an additional device for providing a virtual space. In one embodiment, the user terminal 110 may include a Head Mount Display (HMD). However, the output device included in the user terminal 110 is not limited to the HMD, and various types of output devices may be used to provide virtual reality.

일 실시 예에서, 사용자 단말(110)은 가상 공간을 처리 및 재생하기 위한 처리장치를 내장할 수도 있고, 외부의 처리장치와 연결되어, 처리장치로부터 수신되는 정보를 디스플레이를 이용하여 출력할 수도 있다. 외부의 처리장치는 사용자 단말(110)일 수도 있고, 서비스 서버(120)와 연결된 컴퓨팅 장치일 수도 있다. 실시 예에 따라서, 사용자 단말(110)은 서비스 서버(120)로부터 수신되는 정보에 기초하여 가상현실 영상을 출력할 수도 있다.In one embodiment, the user terminal 110 may have a built-in processing device for processing and reproducing a virtual space, or may be connected to an external processing device to output information received from the processing device using a display. . The external processing device may be the user terminal 110 or a computing device connected to the service server 120. According to an embodiment, the user terminal 110 may output a virtual reality image based on information received from the service server 120.

일 실시 예에서, 서비스 서버(120)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치일 수 있다. 실시 예에 따라서, 서비스 서버(120)는 클라우드 서버를 의미할 수도 있다. 일 실시예로, 서비스 서버(120)는 플랫폼과 혼용되어 사용될 수 있다.In an embodiment, the service server 120 may be a computing device including at least one processor. Depending on the embodiment, the service server 120 may mean a cloud server. In one embodiment, the service server 120 may be used interchangeably with a platform.

*일 실시 예에서, 서비스 서버(120)는 복수의 사용자 단말(110)과 연결되고, 복수의 가상현실 장비들 각각에 컨텐츠를 전송할 수 있으며, 각각의 사용자 단말(110)은 서비스 서버(120)로부터 수신된 컨텐츠에 기초하여 가상 공간을 출력한다. * In one embodiment, the service server 120 is connected to a plurality of user terminals 110 and can transmit content to each of a plurality of virtual reality equipment, and each user terminal 110 is a service server 120 A virtual space is output based on the content received from.

도 2는 본 개시의 일 실시예에 따른 캐릭터 생성 및 학습 시스템의 동작을 설명하기 위한 도면이다.2 is a diagram illustrating an operation of a character generation and learning system according to an embodiment of the present disclosure.

먼저, 서비스 서버(120)은 판매자 단말(130)로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 사용자 단말(110)로 제공할 수 있다(S210). 가상 공간을 생성하는 방법에 대하여는 도 3 및 도 4에서 구체적으로 살펴본다.First, the service server 120 may create a virtual space based on data received from the seller terminal 130 and provide it to the user terminal 110 (S210). A method of creating a virtual space will be described in detail with reference to FIGS. 3 and 4.

서비스 서버(120)는 사용자 단말 및 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 캐릭터 아바타를 생성할 수 있다(S220). 이때 생성되는 캐릭터 아바타는 기본적인 기능만을 포함하는 캐릭터 아바타로, 사용자 명령에 따라 새로운 기능들을 학습 시킬 수 있다.The service server 120 may generate a character avatar by receiving a request for generating a character avatar from at least one of a user terminal and a seller terminal (S220). The character avatar generated at this time is a character avatar including only basic functions, and new functions may be learned according to a user command.

서비스 서버(120)는 생성된 캐릭터 아바타를 가상 공간에 배치할 수 있다(S230). 일 실시예로, 캐릭터 아바타가 판매자 단말(130)의 요청으로부터 생성된 경우, 서비스 서버(120)는 판매자 단말(130)로부터 배치된 캐릭터 아바타의 위치 정보 및 이동 반경 정보를 수신하여 캐릭터 아바타를 배치할 수 있다. 즉, 판매자 단말(130)에 대응되는 캐릭터 아바타는 사용자 단말(110)의 사용자에게 정보를 제공하거나 서비스를 제공하기 위한 경우가 많으므로, 특정 위치 및 특정 이동 반경을 가지도록 설정될 수 있다.The service server 120 may place the generated character avatar in the virtual space (S230). In one embodiment, when the character avatar is generated from the request of the seller terminal 130, the service server 120 receives the location information and the moving radius information of the character avatar placed from the seller terminal 130 and places the character avatar. can do. That is, since the character avatar corresponding to the seller terminal 130 is often used to provide information or services to the user of the user terminal 110, it may be set to have a specific location and a specific moving radius.

또 다른 실시예로, 캐릭터 아바타가 사용자 단말(110)의 요청으로부터 생성된 경우, 서비스 서버(120)는 가상 공간 상의 사용자의 시야에서 기 설정된 범위 이내에 캐릭터 아바타를 배치할 수 있다. 즉, 사용자 단말(110)에 대응되는 캐릭터 아바타는 사용자의 편의를 위한 캐릭터 아바타인 경우가 많으므로, 사용자 근처에 배치할 수 있다.In another embodiment, when the character avatar is generated from the request of the user terminal 110, the service server 120 may place the character avatar within a preset range in the user's field of view in the virtual space. That is, since the character avatar corresponding to the user terminal 110 is often a character avatar for the user's convenience, it may be placed near the user.

서비스 서버(120)는 캐릭터 아바타를 학습시키기 위한 사용자 명령이 입력되면, 사용자 명령을 바탕으로 캐릭터 아바타를 학습 시킬 수 있다(S240)When a user command for learning a character avatar is input, the service server 120 may learn a character avatar based on the user command (S240).

일 실시예로, 서비스 서버(120)는 사용자 단말(110) 또는 판매자 단말(120)로 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 사용자 단말(110) 또는 판매자 단말(130)로부터 수신하면, 수신된 카테고리 정보를 바탕으로 캐릭터 아바타를 학습시킬 수 있다.In one embodiment, the service server 120 transmits category information for learning a character avatar to the user terminal 110 or the seller terminal 120, and transmits category information for at least one of the transmitted category information to the user terminal ( 110) or the seller terminal 130, it is possible to learn a character avatar based on the received category information.

이때, 카테고리 정보는, 캐릭터 아바타를 학습시키기 위한 다양한 카테고리에 대한 정보일 수 있다. 일 실시예로, 카테고리 정보는, 어학 카테고리, 스포츠 카테고리, 쇼핑 카테고리, 교육 카테고리 등 다양한 카테고리에 대한 정보일 수 있다. 이러한 카테고리 정보는 카테고리 정보를 세분화한 세부 카테고리 정보를 더 포함할 수 있다. 예를 들어 어학 카테고리의 세부 카테고리는 한국어, 일본어, 중국어, 영어 등 언어의 종류를 구성하는 제1 세부 카테고리, 번역, 쓰기, 읽기, 말하기, 듣기 등 언어에 대한 행위를 나타내는 제2 세부 카테고리, 각각의 카테고리의 학습의 정도를 결정하는 제3 세부 카테고리 등으로 구성될 수 있다. In this case, the category information may be information on various categories for learning a character avatar. In an embodiment, the category information may be information on various categories, such as a language category, a sports category, a shopping category, and an education category. The category information may further include detailed category information obtained by subdividing the category information. For example, the subcategory of the language category is a first subcategory that constitutes the type of language such as Korean, Japanese, Chinese, and English, and a second subcategory that expresses behaviors related to language such as translation, writing, reading, speaking, and listening. It may be composed of a third subcategory that determines the degree of learning of the category of.

특히 제3 세부 카테고리는 예를 들어, 영어 번역 카테고리에 대한 학습의 정도와 관련된 카테고리로, 초급자 수준의 번역, 중급자 수준의 번역, 고급자 수준의 번역 등 번역 수준을 결정하기 위한 세부 카테고리일 수 있다. 일반적으로, 학습의 정도가 높은 캐릭터 아바타는 학습의 정도가 낮은 캐릭터 아바타보다 많은 리소스(데이터 량, 비용 등)를 필요로 한다. 따라서, 가용한 리소스 양에 따라 카테고리를 분류하여 사용자 선택에 따라 캐릭터 아바타를 학습 시킬 수 있다.In particular, the third subcategory is, for example, a category related to the degree of learning about the English translation category, and may be a subcategory for determining the level of translation such as beginner level translation, intermediate level translation, and advanced level translation. In general, a character avatar with a high degree of learning requires more resources (data amount, cost, etc.) than a character avatar with a low degree of learning. Accordingly, it is possible to classify categories according to the amount of available resources and learn character avatars according to user selection.

사용자는 서비스 서버(120)로부터 제공된 카테고리 정보 중 적어도 하나를 선택하여 캐릭터 아바타를 학습 시킬 수 있다. 이때, 캐릭터 아바타를 학습 시키는 과정은 기 저장된 학습 모듈을 전송하는 방식으로 구성될 수도 있다. 그러나, 캐릭터 아바타를 학습 시키는 과정은 인공 지능 모델을 통해 구현될 수도 있다.The user may select at least one of category information provided from the service server 120 to learn a character avatar. In this case, the process of learning the character avatar may be configured by transmitting a previously stored learning module. However, the process of learning a character avatar may be implemented through an artificial intelligence model.

한편, 서비스 서버(120)는 학습된 캐릭터 아바타를 지속적으로 학습시킬 수 있다. 구체적으로, 서비스 서버(120)는 캐릭터 아바타에 학습된 카테고리 정보와 관련된 데이터가 입력되면, 캐릭터 아바타를 업데이트 할 수 있다. 이때, 업데이트를 위한 데이터는 사용자 단말(110) 또는 판매자 단말(13)로부터 제공 받을 수 있다. 다만, 이에 한정되는 것은 아니고, 서비스 서버(120)가 업데이트될 데이터를 선별하여 캐릭터 아바타를 학습 시킬 수도 있다. 예를 들어, 학습된 카테고리 정보에 대응되는 데이터를 다양한 방법을 통해 수신하면, 서비스 서버(120)는 수신한 데이터를 바탕으로 캐릭터 아바타를 업데이트 할 수 있다.Meanwhile, the service server 120 may continuously learn the learned character avatar. Specifically, the service server 120 may update the character avatar when data related to the learned category information is input to the character avatar. At this time, data for the update may be provided from the user terminal 110 or the seller terminal 13. However, the present invention is not limited thereto, and the service server 120 may select data to be updated to learn a character avatar. For example, when data corresponding to the learned category information is received through various methods, the service server 120 may update the character avatar based on the received data.

일 실시예로, 캐릭터 아바타가 초급자 수준의 영어(중국어, 일본어 등 다양한 언어의 경우 또한 같다) 번역을 학습한 상태인 경우를 가정한다. 사용자 단말(110) 또는 판매자 단말(130)은 영어 번역 학습을 위한 다양한 영어(및 그의 번역 데이터)를 서비스 서버(120)로 제공하고, 서비스 서버(120)는 제공된 데이터를 이용하여 캐릭터 아바타를 학습시킬 수 있다. 처음에는 초급자 수준의 영어 번역이 가능했던 캐릭터 아바타는, 지속적인 학습을 통해 영어 번역의 수준을 높여갈 수 있다. As an example, it is assumed that the character avatar has learned translation of beginner level English (the same applies to various languages such as Chinese and Japanese). The user terminal 110 or the seller terminal 130 provides various English (and its translation data) for learning English translation to the service server 120, and the service server 120 learns a character avatar using the provided data. I can make it. Character avatars, which were initially capable of English translation at the beginner level, can raise the level of English translation through continuous learning.

나아가, 단말이 제공한 데이터를 이용하여 학습이 수행되므로, 단말의 사용자에게 개인화된 캐릭터 아바타가 획득될 수 있다. 즉, 단말로부터 제공받은 데이터는 단말의 사용자가 관심 있거나, 자주 사용하는 단어 또는 문장등과 관련된 데이터일 수 있다. 따라서, 학습된 캐릭터 데이터는 사용자의 관심 분야를 더욱 잘 번역할 수 있게되며 개인화된 캐릭터 아바타가 생성될 수 있는 효과가 존재한다. 예를 들어, 단말의 사용자가 자신의 관심 분야인 스포츠 분야에 대한 데이터를 지속적으로 제공하여 캐릭터 아바타를 학습시킨 경우, 캐릭터 아바타는 다른 분야에 대한 번역의 품질보다 스포츠 분야에서의 번역의 품질이 더 높을 것이다. Furthermore, since learning is performed using data provided by the terminal, a personalized character avatar can be obtained for the user of the terminal. That is, the data provided from the terminal may be data related to words or sentences that the user of the terminal is interested in or frequently used. Accordingly, the learned character data can better translate the user's field of interest, and there is an effect that a personalized character avatar can be created. For example, when a user of a terminal continuously provides data on a sports field, which is a field of interest, to learn a character avatar, the character avatar has a higher quality of translation in the sports field than in the other field. Will be high.

나아가, 처음부터 원어민 수준의 영어 번역을 학습한 캐릭터 아바타와 비교할 때, 사용자가 필요한 분야에 대한 번역 능력만을 향상 시킴으로써 학습을 위한 데이터의 양을 줄이고, 캐릭터 아바타의 용량을 줄일 수 있는 효과가 존재한다.Furthermore, when compared with a character avatar that has learned English translation at the level of a native speaker from the beginning, there is an effect of reducing the amount of data for learning and reducing the capacity of the character avatar by improving only the translation ability for the field required by the user. .

한편, 상술한 실시예에서는, 사용자 단말(110) 또는 판매자 단말(130)이 카테고리 정보를 전송하여 서비스 서버(120)가 캐릭터 아바타를 학습 시키는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 본 개시에 따른 일 실시예로, 서비스 서버(120)는 사용자 단말(110) 또는 판매자 단말(130)로부터 단말의 사용자 정보를 수신하고, 수신된 사용자 정보를 바탕으로 캐릭터 아바타를 학습 시킬 수 있음은 물론이다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은 일정 정보, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.)Meanwhile, in the above-described embodiment, it has been described that the user terminal 110 or the seller terminal 130 transmits category information so that the service server 120 learns the character avatar, but the present invention is not limited thereto. In an embodiment according to the present disclosure, the service server 120 may receive user information of the terminal from the user terminal 110 or the seller terminal 130, and learn a character avatar based on the received user information. Of course. At this time, the user information refers to the user's biometric information collected through the terminal, the usage history record of the terminal collected through the terminal (the usage history record includes schedule information, type of application used, usage time, website address accessed, and access time). , Alarm setting time, terminal usage time and distribution, etc. may be at least one of all user commands through the terminal.)

즉, 캐릭터 아바타는 각각의 단말의 개인적인 사용 양태에 따라 학습되어 개인화된 캐릭터 아바타로 활용될 수 있다.That is, the character avatar may be learned according to the personal usage of each terminal and used as a personalized character avatar.

한편, 상술한 다양한 학습은 인공 지능 시스템을 통해 구현될 수 있다. 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.Meanwhile, the above-described various learning can be implemented through an artificial intelligence system. The artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike the existing rule-based smart system, the machine learns, judges, and becomes smarter. As artificial intelligence systems are used, their recognition rate improves and users' tastes can be understood more accurately, and existing rule-based smart systems are gradually being replaced by deep learning-based artificial intelligence systems.

인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.Artificial intelligence technology consists of machine learning (deep learning) and component technologies using machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies/learns the features of input data by itself, and element technology is a technology that simulates functions such as cognition and judgment of the human brain using machine learning algorithms such as deep learning. It consists of technical fields such as understanding, reasoning/prediction, knowledge expression, and motion control.

구체적으로, 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Specifically, deep learning is a machine learning algorithm that attempts a high level of abstraction (summarizing key contents or functions in a large amount of data or complex data) through a combination of several nonlinear transformation methods. Is defined as a set of Deep learning can be seen as a branch of machine learning that teaches computers how people think in a large framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is any data, it is represented in a form that can be understood by a computer (for example, in the case of an image, pixel information is expressed as a column vector, etc.) and a lot of research (how to do better) to apply it to learning. How to create representation techniques and how to create models to learn them) is in progress. As a result of these efforts, various deep learning techniques have been developed. Examples of deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Networks (RNN), and Deep Belief Networks (DBN). have.

심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Deep Neural Networks (DNNs) are artificial neural networks (ANNs) composed of a plurality of hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다. In this case, the structure of the deep neural network may be composed of a perceptron. Perceptron consists of several inputs, one processor, and one output. The processor multiplies several input values by a weight, and then sums all the input values multiplied by the weight. Then, the processor substitutes the summed value into the activation function and outputs one output value. If a specific value is desired as an output value of the activation function, the weight multiplied by each input value can be modified, and the output value can be recalculated using the modified weight. At this time, each perceptron may use a different activation function. Also, each perceptron accepts the outputs from the previous layer as inputs, and then uses the activation function to get the outputs. The obtained output is passed to the input of the next layer. Through the above-described process, several output values can be finally obtained.

개시된 일 실시예에 따르면, 서비스 서버(120)는 가상 공간을 사용하는 사용자의 다양한 사용자 정보를 사용자 단말(110) 또는 판매자 단말(130)로부터 수집하여, 딥러닝에 활용되는 가중치를 설정하는데 사용할 수 있다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.) 예를 들어, 캐릭터 아바타를 학습시키기 위한 인공 지능 모델은 상술한 다양한 사용자 정보에 기초하여 캐릭터 아바타를 보완하는 정보를 수집할 수 있으며, 이에 기초하여 각각의 가중치를 재설정할 수 있다.According to the disclosed embodiment, the service server 120 may collect various user information of a user using a virtual space from the user terminal 110 or the seller terminal 130 and use it to set weights used for deep learning. have. At this time, the user information refers to the user's biometric information collected through the terminal, the usage history record of the terminal collected through the terminal (the usage history record is the type of application used, the usage time, the website address accessed, the access time, and the alarm It may be at least one of all user commands through the terminal, such as setting time, terminal usage time, and distribution.) For example, an artificial intelligence model for learning a character avatar complements the character avatar based on the above-described various user information. Information may be collected, and each weight may be reset based on this.

딥 러닝 기법에 대한 설명으로 다시 돌아가면, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다.Returning to the description of deep learning techniques, convolutional deep neural networks (CNNs) are a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and a general artificial neural network layer on top of it, and additionally utilizes weights and pooling layers. Thanks to this structure, the convolutional neural network can fully utilize the input data of the two-dimensional structure. Also, convolutional neural networks can be trained through standard inverse forwarding. Convolutional neural networks are more easily trained than other feed-forward artificial neural networks, and have the advantage of using fewer parameters. The convolutional neural network extracts features from the input image by alternately performing convolution and subsampling on the input image.

합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 층(Fully Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다. The convolutional neural network includes several convolution layers, several subsampling layers (subsampling layers, lacal pooling layers, and Max-Pooling layers), and fully connected layers. The convolution layer is a layer that performs convolution on an input image. In addition, the subsampling layer is a layer that locally extracts a maximum value for an input image and maps it to a 2D image. The local area is enlarged and subsampling is performed.

합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층에서는 총 20개의 28×28 크기의 맵이 생성된다. In the convolutional layer, information such as a kernel size, the number of kernels to be used (that is, the number of maps to be generated), and a weight table to be applied during a convolution operation is required. For example, take a case where the size of the input image is 32×32, the size of the kernel is 5×5, and the number of kernels to be used is 20. In this case, if a 5×5 kernel is applied to an input image having a size of 32×32, it is impossible to apply a kernel to each of two pixels at the top, bottom, left, and right of the input image. This is because when convolution is performed after placing the kernel on the input image, the resulting value of'-8' is determined as the value of the pixel corresponding to the center element of the kernel among the pixels of the input image included in the kernel. to be. Accordingly, when convolution is performed by applying a kernel of a size of 5×5 to an input image of size of 32×32, a map of size of 28×28 is generated. Previously, since it was assumed that the number of kernels to be used is a total of 20, a total of 20 maps with a size of 28×28 are generated in the first convolutional layer.

서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다.The subsampling layer needs information on the size of the kernel to be subsampled and information on whether to select the maximum or minimum value among values in the kernel region.

딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Returning to the description of the deep learning technique, a Reccurent Neural Network (RNN) refers to a neural network in which the connection between units constituting an artificial neural network constitutes a directed cycle. Unlike the forward neural network, the recurrent neural network can utilize the memory inside the neural network to process arbitrary inputs.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다. Deep Belief Networks (DBN) is a generative graphical model used in machine learning, and in deep learning, it means a deep neural network composed of multiple layers of latent variables. The feature is that there is a connection between layers, but there is no connection between units within a layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다. The deep trust neural network can be used for prior learning due to its generative model, and after learning initial weights through prior learning, it can fine-tune the weights through backpropagation or other discrimination algorithms. This characteristic is very useful when there is little training data, because the smaller the training data, the stronger the initial value of the weight has on the resulting model. The pre-learned weight initial value is closer to the optimal weight compared to the arbitrarily set weight initial value, which makes it possible to improve the performance and speed of the fine-tuning step.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 이하에서 설명되는 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The above-described artificial intelligence and its learning method are described for illustration purposes, and the artificial intelligence and its learning method used in the embodiments described below are not limited. For example, all kinds of artificial intelligence technologies and learning methods thereof that a person skilled in the art can apply to solve the same problem may be used to implement the system according to the disclosed embodiment.

도 3은 본 개시의 일 실시예에 따른 가상 공간을 구축하고, 서비스를 제공하는 방법을 설명하기 위한 도면이다. 3 is a diagram for explaining a method of constructing a virtual space and providing a service according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 서비스 서버(120)의 구체적인 동작에 대하여 살펴본다. 서비스 서버(120)는 판매자 단말(130)로부터 가상 공간 구축을 위한 데이터 및 생성될 가상 공간에 적용될 서비스에 대한 정보를 전송 받을 수 있다(S310). As shown in FIG. 3, a detailed operation of the service server 120 will be described. The service server 120 may receive data for building a virtual space and information on a service to be applied to the virtual space to be created from the seller terminal 130 (S310).

구체적으로, 판매자 단말(130)은 사용자 단말(110)에 제공하기 위한 가상 공간에 대한 데이터를 서비스 서버(120)에 전송하여 서비스 서버(120)에 가상 공간을 생성하는 작업을 요청할 수 있다. 이때, 생성될 가상 공간은 다양한 종류의 가상 공간일 수 있다. Specifically, the seller terminal 130 may transmit data on the virtual space to be provided to the user terminal 110 to the service server 120 to request the service server 120 to create a virtual space. In this case, the virtual space to be created may be various types of virtual spaces.

일 실시예로, 생성될 가상 공간은 모델 하우스에 대응되는 가상 공간일 수 있다. In an embodiment, the virtual space to be created may be a virtual space corresponding to the model house.

또 다른 실시예로, 생성될 가상 공간은 쇼핑몰에 대응되는 가상 공간일 수 있다. In another embodiment, the virtual space to be created may be a virtual space corresponding to a shopping mall.

또 다른 실시예로, 생성될 가상 공간은 각종 전시회에 대응되는 가상 공간일 수 있다. In another embodiment, the virtual space to be created may be a virtual space corresponding to various exhibitions.

또 다른 실시예로, 생성될 가상 공간은 복수의 사용자에 대응되는 복수의 사용자 아바타의 협업 공간일 수 있다. In another embodiment, the virtual space to be created may be a cooperative space of a plurality of user avatars corresponding to a plurality of users.

또 다른 실시예로, 생성될 가상 공간은 컨텐츠 제공을 위한 가상 공간일 수 있다.In another embodiment, the virtual space to be created may be a virtual space for providing content.

서비스 서버(120)는 판매자 단말(130)로부터 수신한 데이터를 변환하여 가상 공간을 생성할 수 있다(S320).The service server 120 may generate a virtual space by converting the data received from the seller terminal 130 (S320).

이후 서비스 서버(120)는 생성된 가상 공간의 일 영역에 서비스에 대한 정보에 대응되는 서비스를 매핑할 수 있다(S330).Thereafter, the service server 120 may map a service corresponding to information on the service to a region of the created virtual space (S330).

구체적으로, 판매자 단말(130)은 단순히 가상 공간을 생성하는 것을 목적으로 하기 보다는 가상 공간 내에서 다양한 서비스를 제공하는 것을 목적으로 할 수 있다. 따라서, 판매자 단말(130)는 생성된 가상 공간에 다양한 서비스를 매핑하기 위한 서비스 정보를 서비스 서버(120)로 전송하고, 서비스 서버(120)는 생성된 가상 공간에 서비스를 매핑할 수 있다.Specifically, the seller terminal 130 may aim to provide various services within a virtual space rather than simply for the purpose of creating a virtual space. Accordingly, the seller terminal 130 transmits service information for mapping various services to the created virtual space to the service server 120, and the service server 120 may map the service to the created virtual space.

일 실시예로, 생성된 가상 공간이 모델 하우스에 대응되는 가상 공간인 경우, 매핑된 서비스는, 모델하우스에 대한 정보(가격 정보, 시공사 및 분양사 정보)를 안내하기 위한 컨텐츠 서비스 또는 빌트인된 가구에 대한 서비스, 환경에 어울리는 인테리어 추천 서비스 등일 수 있다. In one embodiment, when the created virtual space is a virtual space corresponding to a model house, the mapped service is a content service for guiding information on the model house (price information, construction company and sales company information) or built-in furniture. It may be a service for Korea, an interior recommendation service suitable for the environment, and the like.

또 다른 실시예로, 생성된 가상 공간이 쇼핑몰에 대응되는 가상 공간인 경우, 매핑된 서비스는 쇼핑몰에서 판매하는 상품의 제품 정보, 가격 정보, 재고 정보, 피팅 정보 등에 대한 서비스일 수 있다. 나아가, 매핑된 서비스는 사용자 단말(110)이 등록한 사용자 아바타가 사용자 체형 정보를 포함하는 경우, 사용자가 쇼핑몰의 제품을 착용했을 때의 예상 모습을 제공하는 서비스일 수도 있다. In another embodiment, when the generated virtual space is a virtual space corresponding to a shopping mall, the mapped service may be a service for product information, price information, inventory information, fitting information, etc. of products sold in the shopping mall. Further, the mapped service may be a service that provides an expected appearance when the user wears a shopping mall product when the user avatar registered by the user terminal 110 includes user body shape information.

또 다른 실시예로, 생성된 가상 공간이 각종 전시회에 대응되는 가상 공간인 경우, 매핑된 서비스는, 전시회에 전시될 작품에 대한 컨텐츠 서비스일 수 있다. 이 경우, 서비스 서버(120)는 전시될 작품을 가상 공간 내에서 구현하여 사용자가 직접 전시회에 참석하지 않고도 전시회를 관람할 수 있게 도와줄 수 있다. 나아가, 매핑된 서비스는 전시될 작품에 대한 정보를 제공하는 서비스일 수 있다. 비디오, 오디오, 텍스트 증 다양한 방법으로 작품에 대한 정보를 전달함으로써, 사용자가 직접 전시회를 방문하는 것 보다 더 나은 서비스를 제공할 수 있는 효과가 존재한다.In another embodiment, when the generated virtual space is a virtual space corresponding to various exhibitions, the mapped service may be a content service for works to be displayed in the exhibition. In this case, the service server 120 may help the user to view the exhibition without directly attending the exhibition by implementing the work to be displayed in a virtual space. Furthermore, the mapped service may be a service that provides information on an artwork to be displayed. Video, audio, text enhancement There is an effect that users can provide better services than visiting an exhibition directly by delivering information about the work in various ways.

또 다른 실시예로, 생성된 가상 공간은 복수의 사용자에 대응되는 복수의 사용자 아바타의 협업 공간일 수 있다. 이때, 매핑된 서비스는, 복수의 사용자가 협업하기 위한 자료 전송 서비스, 자료에 대한 각종 뷰어를 제공하는 뷰어 서비스, 정보를 공유하기 위한 채팅 서비스, 정보를 편집 및 수정하기 위한 문서 작업 서비스 등일 수 있다.In another embodiment, the generated virtual space may be a cooperative space of a plurality of user avatars corresponding to a plurality of users. In this case, the mapped service may be a data transmission service for a plurality of users to cooperate, a viewer service that provides various viewers for data, a chat service for sharing information, a document work service for editing and modifying information, and the like. .

또 다른 실시예로, 생성된 가상 공간은 컨텐츠 제공을 위한 가상 공간일 수 있다. 이때, 매핑된 서비스는 컨텐츠를 제공 하기 위한 서비스 일 수 있다.In another embodiment, the generated virtual space may be a virtual space for providing content. In this case, the mapped service may be a service for providing content.

한편, 서비스 서버(120)는 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S340).Meanwhile, when an access to the virtual space is requested from the user terminal 110, the service server 120 may provide the created virtual space to the user terminal 110 (S340).

이때, 후술하는 바와 같이, 사용자 단말(110)은 자신의 캐릭터 아바타를 생성된 가상 공간에 함께 표시할 수 있다. 또는 다른 사용자 단말에 대응되는 사용자 아바타를 생성된 가상 공간에 표시할 수 있음은 물론이다.In this case, as will be described later, the user terminal 110 may display its own character avatar together in the created virtual space. Or, of course, a user avatar corresponding to another user terminal can be displayed in the created virtual space.

서비스 서버(120)는 사용자 단말(110)로부터 매핑된 서비스를 요청하는 사용자 명령이 전송되면, 서비스 서버(120)는 요청된 서비스를 사용자 단말(110)로 제공할 수 있다(3250). 이때, 상술한 다양한 서비스가 다양한 방법을 통해 제공될 수 있다.When the service server 120 transmits a user command requesting a mapped service from the user terminal 110, the service server 120 may provide the requested service to the user terminal 110 (3250 ). In this case, the various services described above may be provided through various methods.

도 4는 본 개시의 일 실시예에 따른 가상 공간을 생성하기 위한 방법을 설명하기 위한 예시도이다.4 is an exemplary diagram illustrating a method for creating a virtual space according to an embodiment of the present disclosure.

서비스 서버(120)는 판매자 단말(130)로부터 2D 육면도 데이터를 수신할 수 있다(S410). 서비스 서버(120)는 수신한 2D 육면도를 3D 가상 공간으로 변환할 수 있다(S420). 일 실시예로, 서비스 서버(120)가 수신하는 가상 공간 구축을 위한 데이터는 2D 육면도일 수 있다. 서비스 서버(120)는 수신한 2D 육면도를 변환하여 3D 가상 공간을 생성할 수 있다. 이때, 2D 육면도의 각각의 면은 필요에 따라 벽지 무늬, 컨텐츠 정보, 액자 등의 요소를 포함할 수 있다. 한편, 본 개시에서는 육면도에 대해 언급하고 있으나, 가상 공간이 직육면체의 형상이 아닌 경우, 그에 맞는 다양한 2D 도면을 가상 공간 구축을 위한 데이터로 사용할 수 있음은 물론이다. 예를 들어, 3D 공간이 원뿔형인 경우, 서비스 서버(120)는 원뿔의 전개도에 대한 데이터를 수신할 수 있을 것이다.The service server 120 may receive 2D 6-view data from the seller terminal 130 (S410). The service server 120 may convert the received 2D six-dimensional view into a 3D virtual space (S420). In an embodiment, data for building a virtual space received by the service server 120 may be a 2D six-dimensional view. The service server 120 may generate a 3D virtual space by converting the received 2D six-dimensional view. In this case, each side of the 2D six-view view may include elements such as wallpaper pattern, content information, and frame as needed. Meanwhile, although the present disclosure refers to a six-sided view, when the virtual space is not a rectangular parallelepiped shape, it goes without saying that various 2D drawings corresponding thereto can be used as data for constructing the virtual space. For example, when the 3D space is a conical shape, the service server 120 may receive data on the expanded view of the cone.

또 다른 실시예로, 구현되는 가상 공간은 4D의 가상 공간(예를 들어, 4차원 초입방체 등)일 수 있음은 물론이다. 서비스 서버(120)는 4D 가상 공간 구축을 위해 3D 전개도를 수신할 수 있음은 물론이다. 예를 들어, 도 5의 좌측에 도시된 바와 같이, 서비스 서버(120)는 3D 가상도의 각각의 대응되는 면을 맞붙혀 4D 공간을 생성할 수 있다. 즉, 서비스 서버(120)는 도 5의 좌측 전개도에서 동일한 숫자를 가지는 면을 맞붙혀 도 5의 우측 가상 공간을 생성할 수 있다.As another embodiment, it goes without saying that the implemented virtual space may be a 4D virtual space (eg, a 4D supercube). It goes without saying that the service server 120 can receive a 3D development view to build a 4D virtual space. For example, as shown on the left side of FIG. 5, the service server 120 may create a 4D space by attaching each corresponding surface of the 3D virtual diagram. That is, the service server 120 may create the right virtual space of FIG. 5 by attaching faces having the same number in the left development view of FIG. 5.

서비스 서버(120)는 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S430).When an access to the virtual space is requested from the user terminal 110, the service server 120 may provide the created virtual space to the user terminal 110 (S430).

한편, 생성된 가상 공간은 공간 내부에 다양한 오브젝트가 배치될 수 있다. 따라서, 서비스 서버(120)가 수신하는 가상 공간 구축을 위한 데이터는 객체 오브젝트에 대한 데이터를 포함할 수 있다. 구체적으로, 서비스 서버(120)는 판매자 단말(130)로부터 객체 오브젝트 정보 및 객체 오브젝트의 위치 정보를 수신할 수 있다.Meanwhile, in the generated virtual space, various objects may be arranged inside the space. Accordingly, data for building a virtual space received by the service server 120 may include data on an object object. Specifically, the service server 120 may receive object object information and location information of the object object from the seller terminal 130.

서비스 서버(120)는 객체 오브젝트 정보에 대응되는 객체 오브젝트를 객체 오브젝트의 위치 정보에 대응하는 위치에 배치할 수 있다. 예를 들어, 객체 오브젝트가 옷장이고 객체 오브젝트의 위치가 안방인 경우, 서비스 서버(120)는 옷장을 가상 공간의 안방에 위치하는 장소에 배치할 수 있다. 또 다른 예로, 객체 오브젝트가 현관문이고, 객체 오브젝트의 위치가 신발장과 외부 사이인 경우, 서비스 서버(120)는 신발장과 외부 사이에 현관문을 배치할 수 있다.The service server 120 may place an object object corresponding to the object object information at a location corresponding to the location information of the object object. For example, when the object object is a closet and the location of the object object is the home, the service server 120 may arrange the closet in a place located in the home of the virtual space. As another example, when the object object is a front door and the location of the object object is between the shoe cabinet and the outside, the service server 120 may arrange the front door between the shoe cabinet and the outside.

서비스 서버(120)는 사용자 단말(110)로부터 객체 오브젝트에 대한 사용자 인터랙션을 수신할 수 있다. 사용자 인터랙션은 사용자 제스쳐, 사용자 단말(110)을 통한 입력 등 다양할 수 있다.The service server 120 may receive a user interaction for an object object from the user terminal 110. User interaction may be various, such as a user gesture or input through the user terminal 110.

이때, 객체 오브젝트에 매핑된 또 다른 가상 공간이 존재하면, 서비스 서버(120)는 매핑된 또 다른 가상 공간에 대응되는 가상 공간을 사용자 단말로 제공할 수 있다. 예를 들어, 객체 오브젝트가 옷장인 경우, 매핑된 또 다른 가상 공간은 옷장 내부를 나타내는 가상 공간일 수 있다. 또는, 객체 오브젝트가 현관문인 경우, 매핑된 또 다른 가상 공간은 외부를 나타내는 가상 공간일 수 있다.In this case, if another virtual space mapped to the object object exists, the service server 120 may provide a virtual space corresponding to another mapped virtual space to the user terminal. For example, when the object object is a closet, another mapped virtual space may be a virtual space representing the interior of the closet. Alternatively, when the object object is a front door, another mapped virtual space may be a virtual space representing the outside.

한편, 가상 공간에 배치된 객체 오브젝트는 다양한 서비스와도 매핑될 수 있음은 물론이다. 예를 들어, 객체 오브젝트가 옷장인 경우, 옷장에 매핑된 서비스는 옷장 내부의 옷의 목록을 제공하는 서비스일 수 있다. 또는, 객체 오브젝트가 현관문인 경우, 현관문에 매핑된 서비스는 가상 공간을 종료하기 위한 로그아웃 서비스 일 수 있다.Meanwhile, it goes without saying that the object objects arranged in the virtual space can also be mapped with various services. For example, when the object object is a closet, the service mapped to the closet may be a service that provides a list of clothes inside the closet. Alternatively, when the object object is a front door, the service mapped to the front door may be a logout service for terminating the virtual space.

도 6은 본 개시의 일 실시예에 따른 서비스 추천 방법을 설명하기 위한 예시도이다.6 is an exemplary diagram illustrating a service recommendation method according to an embodiment of the present disclosure.

서비스 서버(120)는 복수의 사용자 단말에 대응되는 복수의 캐릭터 아바타로부터 가상 공간 및 가상 공간에서 제공된 서비스에 대한 요청 정보를 획득할 수 있다(S610). 이때, 요청 정보란, 사용자 단말(110)이 판매자 단말(130)로 서비스를 요청한 모든 정보를 의미할 수 있다. The service server 120 may obtain request information for a virtual space and a service provided in the virtual space from a plurality of character avatars corresponding to a plurality of user terminals (S610). In this case, the request information may mean all information for which the user terminal 110 requests a service from the seller terminal 130.

서비스 서버(120)는 획득된 요청 정보에 대한 답변 정보를 획득할 수 있다(S620). 즉, 서비스 서버(120)는 요청 정보 및 요청 정보에 대한 답변 정보를 획득하여, 사용자가 사용한 서비스, 질문, 불만 사항 등의 분포와 관련된 정보 및 이에 대한 답변 정보를 획득할 수 있다. 나아가, 서비스 서버(120)는 제공된 답변에 대한 피드백 정보를 추가로 획득할 수 있다. 일 실시예로, 서비스 서버(120)는 제공된 답변에 대한 피드백을 사용자 단말(110)로 직접 요청할 수도 있고, 답변 후 사용자 단말(110)의 서비스 이용 빈도를 분석하여 획득할 수도 있다.The service server 120 may acquire response information for the acquired request information (S620). That is, the service server 120 may obtain the request information and response information to the request information, and obtain information related to the distribution of services, questions, complaints, etc. used by the user, and response information thereto. Furthermore, the service server 120 may additionally acquire feedback information on the provided answer. In one embodiment, the service server 120 may directly request feedback on the provided answer to the user terminal 110 or may obtain the response by analyzing the frequency of service use of the user terminal 110 after the response.

서비스 서버(120)는 획득된 요청 정보 및 답변 정보를 바탕으로 어느 하나의 사용자 단말에 대응되는 사용자 아바타에 대한 추천 서비스를 제공할 수 있다(S630). 구체적으로, 서비스 서버(120)는 추천 서비스를 제공한 사용자 단말(110)로부터 사용자 단말(110)의 사용자 정보를 획득하고, 획득된 사용자 단말(110)의 사용 정보 및 획득된 요청 정보 및 답변 정보를 바탕으로 추천 서비스를 제공할 수 있다. 즉, 서비스 서버(120)는 사용자 단말(110)의 사용자 정보를 바탕으로, 사용자가 관심 있어할만한 서비스를 제공할 수 있다.The service server 120 may provide a recommendation service for a user avatar corresponding to any one user terminal based on the acquired request information and response information (S630). Specifically, the service server 120 acquires user information of the user terminal 110 from the user terminal 110 that provided the recommended service, and obtains usage information of the user terminal 110 and obtained request information and response information. Recommendation service can be provided based on. That is, the service server 120 may provide a service that is of interest to the user based on user information of the user terminal 110.

도 7은 본 개시의 일 실시예에 따른 복수의 사용자가 동일한 가상 공간을 사용하는 것을 설명하기 위한 예시도이다.7 is an exemplary diagram for explaining that a plurality of users use the same virtual space according to an embodiment of the present disclosure.

먼저, 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 서비스 서버(120)는 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S710).First, when access to a virtual space is requested from the user terminal 110, the service server 120 may provide the created virtual space to the user terminal 110 (S710).

서비스 서버(120)는 사용자 단말(110)이 온라인 모드인지 여부를 판단할 수 있다(S720). 즉, 사용자가 가상 공간만을 제공 받고 싶어하는 경우에는 가상 공간만을 제공하고, 다른 사용자와 인터랙션 하고 싶은 경우에는 다른 사용자의 사용자 아바타를 표시할 수 있으며, 서비스 서버(120)는 사용자 단말(110)이 온라인 모드인지, 오프라인 모드인지 여부에 따라 이를 판단할 수 있다.The service server 120 may determine whether the user terminal 110 is in an online mode (S720). That is, when the user wants to receive only the virtual space, only the virtual space is provided, and when the user wants to interact with another user, the user avatar of the other user can be displayed, and the service server 120 provides the user terminal 110 online. This can be determined according to whether the mode is the mode or the offline mode.

사용자 단말(110)이 온라인 모드(S720-Y)인 경우, 서비스 서버(120)는 가상 공간에 접근하는 다른 사용자 단말이 존재하면, 다른 사용자 단말에 대응되는 사용자 아바타를 가상 공간에 표시하여 제공할 수 있다(S730)When the user terminal 110 is in the online mode (S720-Y), the service server 120 displays and provides a user avatar corresponding to the other user terminal in the virtual space if there is another user terminal accessing the virtual space. Can be (S730)

나아가, 판매자 단말(130)가 제공하는 캐릭터 아바타가 존재하는 경우, 서비스 서버(120)는 제공된 캐릭터 아바타를 가상 공간에 표시하여 제공할 수 있다(S750).Furthermore, when there is a character avatar provided by the seller terminal 130, the service server 120 may display and provide the provided character avatar in a virtual space (S750).

*이때, 캐릭터 아바타는 판매자 단말(130)에서 제공된 캐릭터 아바타 또는 사용자 단말(110)에서 제공된 캐릭터 아바타일 수 있다. 캐릭터 아바타는 특정 목적에 따라 다양한 인터랙션을 출력할 수 있다.* In this case, the character avatar may be a character avatar provided from the seller terminal 130 or a character avatar provided from the user terminal 110. The character avatar can output various interactions according to a specific purpose.

도 8은 본 개시의 일 실시예에 따른 캐릭터 아바타 판매를 설명하기 위한 예시도이다.8 is an exemplary diagram for explaining selling a character avatar according to an embodiment of the present disclosure.

서비스 서버(120)는 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 사용자 단말로부터 학습된 캐릭터 아바타의 구입 요청을 수신할 수 있다(S810).The service server 120 may receive a purchase request for a learned character avatar from at least one user terminal among a plurality of user terminals or a plurality of seller terminals (S810).

서비스 서버(120)는 구입 요청에 대응되는 단말로부터 캐릭터 아바타 판매 명령을 수신하면, 구입 요청에 대응되는 단말에게 캐릭터 아바타를 판매할 수 있다(S820).The service server 120 may sell the character avatar to the terminal corresponding to the purchase request when receiving a command to sell the character avatar from the terminal corresponding to the purchase request (S820).

상술한 다양한 방법을 통해 학습된 캐릭터 아바타는, 학습 방법 및 학습 내용에 따라 다양한 형태로 구현될 수 있다. 따라서 특정 사용자가 학습시킨 캐릭터 아바타는 특정 사용자만의 것으로서 희소성이 존재할 수 있다. 따라서, 서비스 서버(120)는 복수의 단말들에 대응되는 복수의 캐릭터 아바타를 구매하거나, 판매하기 위한 가상 공간을 제공할 수 있다.The character avatar learned through the various methods described above may be implemented in various forms according to the learning method and learning content. Therefore, a character avatar learned by a specific user may be scarce as only a specific user. Accordingly, the service server 120 may provide a virtual space for purchasing or selling a plurality of character avatars corresponding to a plurality of terminals.

이때, 판매하고자 하는 캐릭터 아바타는 특정 사용자에게 개인화 되어 있으며, 따라서, 사용자의 개인 정보를 포함하고 있는 경우가 있을 수 있다. 따라서, 서비스 서버(120)는 판매될 캐릭터 아바타에 저장된 사용자의 개인 정보를 삭제하고 판매 절차를 진행할 수 있다.In this case, the character avatar to be sold is personalized to a specific user, and thus, there may be a case that includes the user's personal information. Accordingly, the service server 120 may delete the user's personal information stored in the character avatar to be sold and proceed with the sales procedure.

일 실시예로, 서비스 서버(120)는 판매자의 개인 정보를 삭제하는 것 뿐만 아니라, 판매자의 개인 정보와 관련된 학습 내용을 함께 삭제 할 수 있음은 물론이다.In one embodiment, the service server 120 not only deletes the seller's personal information, but also deletes learning contents related to the seller's personal information.

도 9은 본 개시의 일 실시예에 따른 가상 공간 표시 방법을 설명하기 위한 예시도이다.9 is an exemplary diagram for describing a method of displaying a virtual space according to an exemplary embodiment of the present disclosure.

서비스 서버(120)는 사용자 단말(110)로부터 사용자의 시야 정보를 수신할 수 있다(S910). 이때, 시야 정보는 사용자의 초점 거리에 대한 정보일 수 있다. 사용자 단말(110)이 사용자의 초점거리를 인식하는 방법은 제한되지 않으며, 예를 들어 사용자 단말(110)은 사용자의 초점거리를 인식하기 위하여 사용자(10)의 눈 쪽을 향하는 적어도 하나의 센서 장비를 포함할 수 있다.The service server 120 may receive the user's field of view information from the user terminal 110 (S910). In this case, the field of view information may be information on a focal length of the user. The method for the user terminal 110 to recognize the user's focal length is not limited, for example, the user terminal 110 is at least one sensor device facing the user's 10 eye to recognize the user's focal length. It may include.

서비스 서버(120)는 수신된 시야 정보가 기 설정된 범위 내인지 여부를 판단할 수 있다(S920).The service server 120 may determine whether the received field of view information is within a preset range (S920).

기 설정된 범위 내인 경우(S920-Y), 서비스 서버(120)는 사용자 단말의 주변 영상을 사용자 단말(110)로 전송할 수 있다(S930). 즉, 서비스 서버(120)는 사용자 단말(110)로부터 수신한 초첨거리가 짧은 경우, 가상 공간이 아닌 현실 세계를 탐색하기 위한 것이라고 판단하고, 사용자 단말의 주변 영상을 사용자 단말(110)로 전송할 수 있다. 다만, 사용자 단말(110)의 주변 영상을 사용자 단말로 제공하지 않고, 제공 중인 가상 공간을 제거하는 방법으로 사용자가 현실 세계를 탐색하게 할 수도 있다. 또는, 서비스 서버(120)는 초점 거리를 바탕으로, 사용자의 초점 거리에 대응되는 영역에 대하여만 사용자 단말(110)주변의 영상을 표시하고, 나머지 영역은 가상 공간을 표시할 수 도 있다.If it is within a preset range (S920-Y), the service server 120 may transmit the surrounding image of the user terminal to the user terminal 110 (S930). That is, when the focal length received from the user terminal 110 is short, the service server 120 determines that it is to search the real world rather than a virtual space, and transmits the surrounding image of the user terminal to the user terminal 110. have. However, without providing the surrounding image of the user terminal 110 to the user terminal, the user may be able to search the real world by removing the virtual space being provided. Alternatively, the service server 120 may display an image around the user terminal 110 only for an area corresponding to the focal length of the user based on the focal length, and may display a virtual space for the remaining area.

한편, 서비스 서버(120)는 사용자 단말(110)의 주변 영상을 사용자 단말로 제공하기 위한 별도의 가이드 오브젝트를 가상 공간에 표시할 수 있다. 즉, 서비스 서버(120)는 가상 공간 상에 초점 거리에 따른 가이드 오브젝트를 표시하고, 사용자가 가이드 오브젝트를 응시하여 초점 거리가 기 설정된 범위 내로 변경되면, 사용자 단말(100)의 주변 영상을 제공할 수 있다. 즉, 사용자가 아무런 오브젝트 없이 초점 거리를 변화시키는 것은 상당한 노력이 필요하므로, 서비스 서버(120)는 초점 거리 조절을 위한 가이드 오브젝트를 가상 공간 상에 배치할 수 있다. Meanwhile, the service server 120 may display a separate guide object for providing the surrounding image of the user terminal 110 to the user terminal in a virtual space. That is, the service server 120 displays a guide object according to the focal length in a virtual space, and when the user gazes at the guide object and the focal length is changed within a preset range, the service server 120 may provide an image around the user terminal 100 I can. That is, since it requires considerable effort for the user to change the focal length without any object, the service server 120 may arrange a guide object for adjusting the focal length on the virtual space.

또 다른 실시예로, 서비스 서버(120)는 복수개의 가이드 오브젝트를 가상 공간에 배치하고, 각각의 가이드 오브젝트 별로 각각의 서비스를 매핑할 수도 있음은 물론이다. 즉, 서비스 서버(120)는 사용자의 초점 거리에 따라 다양한 서비스를 제공할 수도 있다. In another embodiment, it goes without saying that the service server 120 may arrange a plurality of guide objects in a virtual space and map each service for each guide object. That is, the service server 120 may provide various services according to the focal length of the user.

기 설정된 범위 내가 아닌 경우(S920-N), 서비스 서버(120)는 생성된 가상 공간을 사용자 단말(110)로 제공할 수 있다(S940).If it is not within the preset range (S920-N), the service server 120 may provide the created virtual space to the user terminal 110 (S940).

한편, 본 개시에 따른 가상 공간의 표시 방법 및 표시된 가상 공간을 이용하는 방법은 다양할 수 있다.Meanwhile, a method of displaying a virtual space and a method of using the displayed virtual space according to the present disclosure may be various.

일 실시 예에서, 사용자 단말(110)는 가상 공간과 주변 영상을 혼합 또는 중첩하여 표시할 수도 있고, 구간을 구분하여 표시할 수도 있으며, 상황에 따라 교차하여 표시할 수도 있고, 그 방법은 제한되지 않는다.In one embodiment, the user terminal 110 may display the virtual space and the surrounding image by mixing or overlapping, or displaying a section by dividing it, or crossing it according to a situation, and the method is not limited. Does not.

일 실시 예에서, 화면 간의 여백 및 화면이 표시되지 않은 영역에는 실제 주변 영상이 촬영되어 표시될 수 있다. In an embodiment, an actual surrounding image may be photographed and displayed in a space between screens and an area where the screen is not displayed.

일 실시 예에서, 사용자의 시선이 기 설정된 각도 이상 이동하는 경우, 사용자의 시선 내에 실제 주변 영상이 표시되고, 사용자의 시선 바깥에 가상 공간이 표시될 수 있다. 마찬가지로, 사용자의 시선이 다시 기 설정된 각도 이상 이동하는 경우, 사용자의 시선 내에 가상 공간이 표시되고, 사용자의 시선 바깥에 실제 주변 영상이 표시될 수 있다.In an embodiment, when the user's gaze moves more than a preset angle, an actual surrounding image may be displayed within the user's gaze, and a virtual space may be displayed outside the user's gaze. Likewise, when the user's gaze again moves more than a preset angle, a virtual space may be displayed within the user's gaze, and an actual surrounding image may be displayed outside the user's gaze.

본 실시 예에서, 사용자의 시선 바깥에 실제로 영상이 표시될 수도 있으나, 사용자의 시선 바깥에 영상을 표시하는 것은 불필요하거나, 디스플레이의 한계상 불가능할 수 있으므로, 사용자의 시선 바깥에 영상을 표시한다는 것은 사용자가 시선을 해당 방향으로 돌리는 경우 해당 영상을 표시할 수 있도록 렌더링 또는 로드하여 두는 개념을 포함할 수 있다.In this embodiment, an image may be actually displayed outside the user's gaze, but it is unnecessary or impossible to display the image outside the user's gaze, so displaying an image outside the user's gaze means that the user It may include the concept of rendering or loading the image so that the image can be displayed when the visual line of sight is turned in a corresponding direction.

일 실시 예에서, 사용자의 시선이 이동함에 따라 사용자 단말(110)가 인식하는 사용자의 시선이 이동하는 속도에 상한이 설정될 수 있다. 즉, 사용자의 시선이 기 설정된 속도 이상의 속도로 이동하는 경우, 사용자 단말(110)가 인식하는 사용자의 시선이 이동하는 속도가 이를 따라오지 못하므로, 사용자는 사용자 단말(110)가 인식하는 시선 바깥의 영상을 시청할 수 있다. 즉, 사용자는 시선의 이동이 실제 시선의 이동을 따라올 때까지, 시선의 바깥에 표시되는 실제 주변 영상을 시청할 수 있다. 따라서, 사용자는 시선을 기 설정된 상한속도 이상으로 빠르게 이동시킴으로써, 실제 주변 영상을 확인할 수 있다.In an embodiment, an upper limit may be set to a speed at which the user's gaze recognized by the user terminal 110 moves as the user's gaze moves. That is, when the user's gaze moves at a speed greater than or equal to a preset speed, the speed at which the user's gaze recognized by the user terminal 110 moves does not follow it. You can watch the video. That is, the user can view the actual surrounding image displayed outside the line of sight until the movement of the line of sight follows the movement of the actual line of sight. Therefore, the user can check the actual surrounding image by moving the gaze rapidly above the preset upper limit speed.

다른 실시 예에서, 사용자 단말(110)는 주변 상황을 인식하여 가상공간 또는 실제 주변 영상의 표시를 제어할 수 있다.In another embodiment, the user terminal 110 may control the display of a virtual space or an actual surrounding image by recognizing a surrounding situation.

예를 들어, 사용자 단말(110)는 사용자의 주변에 앉은 친구가 사용자를 부르는 소리가 감지되는 경우, 해당 방향에 실제 주변 영상을 표시할 수 있다. For example, when the user terminal 110 detects the sound of a friend sitting around the user calling the user, the user terminal 110 may display an actual surrounding image in a corresponding direction.

마찬가지로, 사용자 단말(110)는 다른 사람이나 객체가 사용자에게 접근하는 경우, 사용자가 외부 객체와 충돌위험이 있는 경우, 사용자가 특정 방향으로 손을 뻗는 것이 감지되는 경우 등에 있어서, 사용자 단말(110)는 해당 객체나 동작이 인식된 방향에 실제 주변 영상을 표시할 수 있다.Similarly, the user terminal 110 is the user terminal 110 when another person or object approaches the user, when the user has a risk of collision with an external object, when it is detected that the user reaches out in a specific direction. May display an actual surrounding image in the direction in which the corresponding object or motion is recognized.

일 실시 예에서, 사용자 단말(110)는 가상 공간에서 화면이 표시되지 않은 일 지점에 광고 객체를 표시할 수 있다. 다른 실시 예에서, 광고 객체는 화면과 중첩되어 표시되거나, 가상 공간내에서 화면보다 앞쪽 공간에 표시될 수도 있다. In an embodiment, the user terminal 110 may display an advertisement object at a point in the virtual space where the screen is not displayed. In another embodiment, the advertisement object may be displayed by overlapping the screen, or may be displayed in a space in front of the screen in the virtual space.

또한, 사용자 단말(110)는 가상 공간에 표시되는 화면들(310 내지 330)중 적어도 하나에 광고 영상을 표시할 수도 있다.In addition, the user terminal 110 may display an advertisement image on at least one of the screens 310 to 330 displayed in the virtual space.

일 실시 예에서, 사용자 단말(110)는 사용자의 시선방향에 광고 영상 또는 광고 객체를 표시할 수도 있다. 이 경우, 사용자가 광고 객체를 기 설정된 시간 이상 주시하거나, 광고 객체를 선택하는 등 광고 객체와 소정의 인터렉션을 함에 따라 광고 객체가 사용자의 시선방향에서 사라지도록 할 수 있으며, 이에 제한되지 않는다.In an embodiment, the user terminal 110 may display an advertisement image or advertisement object in the user's gaze direction. In this case, the advertisement object may disappear from the user's gaze direction as the user observes the advertisement object for more than a preset time or performs a predetermined interaction with the advertisement object, such as selecting the advertisement object, but is not limited thereto.

도 10는 일 실시 예에 따른 장치의 구성도이다.10 is a block diagram of an apparatus according to an exemplary embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus) for transmitting and receiving signals with other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 방법을 수행한다.The processor 102 according to an embodiment performs the method described with reference to FIGS. 1 to 9 by executing one or more instructions stored in the memory 104.

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. Meanwhile, the processor 102 temporarily and/or permanently stores a signal (or data) processed inside the processor 102, a RAM (Random Access Memory, not shown) and a ROM (Read-Only Memory). , Not shown) may further include. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, RAM, and ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102. Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a computer that is hardware. Components of the present invention may be implemented as software programming or software elements, and similarly, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming elements, including C, C++ , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those of ordinary skill in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You can understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

110: 사용자 단말
120: 서비스 서버
130: 판매자 단말
110: user terminal
120: service server
130: seller terminal

Claims (1)

사용자 단말, 판매자 단말 및 서비스 서버를 포함하는 시스템에 의해 동작하는 가상 현실 공간을 이용한 전시장 플랫폼의 아바타 생성 방법에 있어서,
상기 서비스 서버는, 상기 판매자 단말로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 상기 사용자 단말로 제공하는 단계;
상기 서비스 서버는, 상기 사용자 단말 및 상기 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 요청에 대응되는 캐릭터 아바타를 생성하는 단계;
상기 생성된 캐릭터 아바타를 상기 가상 공간에 배치하는 단계; 및
상기 캐릭터 아바타를 학습 시키기 위한 사용자 명령이 입력되면, 상기 사용자 명령을 바탕으로 상기 캐릭터 아바타를 학습시키는 단계; 를 포함하고,
상기 학습 시키는 단계는,
상기 사용자 단말 또는 상기 판매자 단말로 상기 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 상기 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 상기 사용자 단말 또는 상기 판매자 단말로부터 수신하면, 상기 수신된 카테고리 정보를 바탕으로 상기 캐릭터 아바타를 학습시키는 단계;를 포함하고,
상기 캐릭터 아바타가 상기 사용자 단말에 의해 생성된 캐릭터 아바타인 경우
상기 아바타 생성 방법은,
상기 서비스 서버가, 상기 사용자 단말로부터 수신된 사용자의 개인 정보, 사용자의 관심 분야 정보, 사용자의 검색 히스토리 정보, 상기 사용자 단말의 상태 정보 및 상기 사용자 단말의 사용 히스토리 정보를 수신하는 단계; 및
상기 서비스 서버가, 상기 수신된 적어도 하나의 정보를 바탕으로, 상기 캐릭터 아바타를 학습시키는 단계;를 더 포함하고,
상기 아바타 생성 방법은,
상기 서비스 서버는, 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 단말로부터 학습된 상기 사용자 단말의 캐릭터 아바타 구입 요청을 수신하는 단계;
상기 서비스 서버는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 구입 요청에 대응되는 단말에 상기 캐릭터 아바타를 판매하는 단계; 를 포함하고,
상기 캐릭터 아바타를 판매하는 단계는,
상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 캐릭터 아바타에 저장된 상기 사용자 단말의 사용자에 대한 개인 정보 및 상기 개인 정보와 관련된 학습 내용을 삭제하는 단계; 를 더 포함하고,
상기 제공하는 단계는,
상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 밖인 경우, 상기 생성된 가상 공간을 제공하고, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자 단말의 주변 영상을 수신하여 제공하는 단계; 를 더 포함하고,
상기 사용자 단말의 주변 영상을 수신하여 제공하는 단계는,
상기 가상 공간 상에 주변 영상을 사용자 단말로 제공하기 위한 가이드 오브젝트를 표시하는 단계;
상기 사용자가 상기 가이드 오브젝트를 응시하여 상기 사용자의 초점거리가 변경되면, 상기 사용자의 초점거리를 바탕으로 상기 사용자의 시야를 판단하는 단계; 및
상기 사용자의 초점거리에 대응되는 상기 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자의 초점거리에 대응되는 영역에 대하여만 상기 사용자 단말 주변의 영상을 표시하고, 나머지 영역에 대하여는 상기 가상 공간을 표시하는 단계;를 포함하고,
상기 제공하는 단계는,
상기 사용자의 시선의 이동 속도를 판단하는 단계; 및
상기 이동 속도가 기 설정된 속도 이상인 경우, 주변 영상을 표시하는 단계; 를 더 포함하고,
상기 사용자 단말은, 상기 가상 공간 제공을 위하여 HMD(Head mounted Display)로 구현되는 것을 특징으로 하고,
상기 아바타 생성 방법은,
상기 사용자 단말로부터 상기 가상 공간으로의 접근이 요청되면, 상기 가상 공간 및 상기 가상 공간에 배치된 상기 판매자 단말의 캐릭터 아바타를 상기 사용자 단말로 제공하는 단계; 및
상기 사용자 단말에 대응되는 캐릭터 아바타가 존재하면, 상기 캐릭터 아바타를 상기 가상공간에 배치하여 상기 사용자 단말로 제공하는 단계;를 포함하고,
상기 사용자 단말 이외의 다른 사용자 단말로부터 상기 서비스 서버로부터 생성된 가상 공간에 접근하기 위한 요청을 수신하면, 상기 다른 사용자 단말에 대응되는 사용자 아바타를 상기 가상 공간에 표시하여 제공하는 것을 특징으로 하는 아바타 생성 방법.

In the method of generating an avatar for an exhibition hall platform using a virtual reality space operated by a system including a user terminal, a seller terminal, and a service server,
The service server generating a virtual space based on data received from the seller terminal and providing the virtual space to the user terminal;
The service server, receiving a request for generating a character avatar from at least one of the user terminal and the seller terminal, and generating a character avatar corresponding to the request;
Placing the generated character avatar in the virtual space; And
When a user command for learning the character avatar is input, learning the character avatar based on the user command; Including,
The step of learning,
When category information for learning the character avatar is transmitted to the user terminal or the seller terminal, and category information for at least one of the transmitted category information is received from the user terminal or the seller terminal, the received category information Including; learning the character avatar based on,
When the character avatar is a character avatar generated by the user terminal
The avatar generation method,
Receiving, by the service server, user's personal information, user's interest field information, user's search history information, status information of the user terminal, and usage history information of the user terminal received from the user terminal; And
Further comprising, by the service server, learning the character avatar based on the received at least one piece of information,
The avatar generation method,
The service server includes: receiving a request to purchase a character avatar of the user terminal learned from at least one of a plurality of user terminals or a plurality of seller terminals;
The service server, upon receiving a command for selling the character avatar from the user terminal, selling the character avatar to a terminal corresponding to the purchase request; Including,
Selling the character avatar,
Upon receiving an instruction for selling the character avatar from the user terminal, deleting personal information about the user of the user terminal stored in the character avatar and learning contents related to the personal information; Including more,
The providing step,
When the user's view transmitted from the user terminal is outside a preset range, the created virtual space is provided, and when the user’s view transmitted from the user terminal is within a preset range, the surrounding image of the user terminal is received. Providing; Including more,
The step of receiving and providing the surrounding image of the user terminal,
Displaying a guide object for providing a surrounding image to a user terminal on the virtual space;
Determining the user's field of view based on the user's focal length when the user gazes at the guide object and the user's focal length is changed; And
When the user's field of view corresponding to the user's focal length is within a preset range, the image around the user terminal is displayed only for the area corresponding to the user's focal length, and the virtual space is displayed for the remaining areas. Including;
The providing step,
Determining a moving speed of the user's gaze; And
When the moving speed is greater than or equal to a preset speed, displaying a surrounding image; Including more,
The user terminal is characterized in that it is implemented as a head mounted display (HMD) to provide the virtual space,
The avatar generation method,
When access to the virtual space is requested from the user terminal, providing the virtual space and a character avatar of the seller terminal disposed in the virtual space to the user terminal; And
If a character avatar corresponding to the user terminal exists, placing the character avatar in the virtual space and providing the character avatar to the user terminal; Including,
When a request for accessing a virtual space created from the service server is received from a user terminal other than the user terminal, a user avatar corresponding to the other user terminal is displayed and provided in the virtual space. Way.

KR1020200016678A 2020-02-11 2020-02-11 Display method of character avatar created for service provision in virtual reality space KR102215736B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200016678A KR102215736B1 (en) 2020-02-11 2020-02-11 Display method of character avatar created for service provision in virtual reality space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200016678A KR102215736B1 (en) 2020-02-11 2020-02-11 Display method of character avatar created for service provision in virtual reality space

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190014577A Division KR102080878B1 (en) 2019-02-07 2019-02-07 Character creation and learning system for service provision in virtual reality space

Publications (2)

Publication Number Publication Date
KR20200097225A KR20200097225A (en) 2020-08-18
KR102215736B1 true KR102215736B1 (en) 2021-02-16

Family

ID=72291831

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200016678A KR102215736B1 (en) 2020-02-11 2020-02-11 Display method of character avatar created for service provision in virtual reality space

Country Status (1)

Country Link
KR (1) KR102215736B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351298B1 (en) * 2021-04-25 2022-01-17 주식회사 헤이아이엠 System for providing ontact-omnibus type learning platform service using gamification
KR102610299B1 (en) * 2022-05-27 2023-12-06 주식회사 피치솔루션 Method and apparatus for providing virtual reality service that can provide reliability of user avatars in virtual relity space
KR102552915B1 (en) * 2023-01-25 2023-07-07 주식회사 메타뮤 Method and system for providing advertisement service using virtual model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369640B1 (en) 2000-03-03 2003-01-29 신유진 Exhibition system in three dimensional virtual reality space and method thereof
JP2012008638A (en) 2010-06-22 2012-01-12 Toyota Home Kk Sales system and computer program for the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030031685A (en) * 2001-10-15 2003-04-23 (주)에이치인포메이션 System and method for providing artificial intellect avatar linked shopping-mall and storage media for having program source thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369640B1 (en) 2000-03-03 2003-01-29 신유진 Exhibition system in three dimensional virtual reality space and method thereof
JP2012008638A (en) 2010-06-22 2012-01-12 Toyota Home Kk Sales system and computer program for the same

Also Published As

Publication number Publication date
KR20200097225A (en) 2020-08-18

Similar Documents

Publication Publication Date Title
CN110850983B (en) Virtual object control method and device in video live broadcast and storage medium
KR102215736B1 (en) Display method of character avatar created for service provision in virtual reality space
US10586391B2 (en) Interactive virtual reality platforms
JP7101315B2 (en) Systems and methods for converting image data into natural language descriptions
KR102050799B1 (en) Venue platform construction system using virtual reality space
US10984602B1 (en) Facial expression tracking during augmented and virtual reality sessions
AU2017240823B2 (en) Virtual reality platform for retail environment simulation
KR102122563B1 (en) Shopping mall platform construction system using virtual reality space
KR20210110620A (en) Interaction methods, devices, electronic devices and storage media
US11210827B2 (en) Electronic device providing text-related image and method for operating the same
KR102122564B1 (en) Exhibition platform construction system using virtual reality space created based on object location information
KR102122565B1 (en) Virtual reality exhibition platform building system that can be entered based on access authority
KR102215729B1 (en) Service provision program by user avatar applied to virtual reality space
KR102215735B1 (en) Character selling and purchasing device for service provision in virtual reality space
JP7278307B2 (en) Computer program, server device, terminal device and display method
KR20220012285A (en) Commercial system based on light field display system
Li et al. Predicting user visual attention in virtual reality with a deep learning model
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
KR102080878B1 (en) Character creation and learning system for service provision in virtual reality space
Chang et al. Disentangling audio content and emotion with adaptive instance normalization for expressive facial animation synthesis
KR102059017B1 (en) Control method, apparatus and system for knowledge sharing platform
JP7381581B2 (en) machine interaction
KR101977258B1 (en) Method for analysing feedback of virtual reality image
KR102162356B1 (en) Method for controlling of image based on biometric information
KR102071199B1 (en) Control method, device and system of knowledge sharing platform for 2d / 3d design result management

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant