KR102080878B1 - Character creation and learning system for service provision in virtual reality space - Google Patents

Character creation and learning system for service provision in virtual reality space Download PDF

Info

Publication number
KR102080878B1
KR102080878B1 KR1020190014577A KR20190014577A KR102080878B1 KR 102080878 B1 KR102080878 B1 KR 102080878B1 KR 1020190014577 A KR1020190014577 A KR 1020190014577A KR 20190014577 A KR20190014577 A KR 20190014577A KR 102080878 B1 KR102080878 B1 KR 102080878B1
Authority
KR
South Korea
Prior art keywords
user
user terminal
avatar
virtual space
service server
Prior art date
Application number
KR1020190014577A
Other languages
Korean (ko)
Inventor
류경희
Original Assignee
류경희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 류경희 filed Critical 류경희
Priority to KR1020190014577A priority Critical patent/KR102080878B1/en
Application granted granted Critical
Publication of KR102080878B1 publication Critical patent/KR102080878B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

Disclosed is a method for creating an avatar for an exhibition platform using a virtual reality space operated by a system including a user terminal, a seller terminal and a service server. According to an embodiment of the present invention, the avatar creation method includes: a step in which the service server creates a virtual space based on data received from the seller terminal to provide the space to the user terminal; a step in which the service server receives a request for the creation of a character avatar from at least one of the user terminal and the seller terminal to create a character avatar responding to the request; a step in which the created character avatar is placed in the virtual space; and a step in which when a user command for instructing the character avatar is inputted, the character avatar is instructed based on the user command.

Description

가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템 {CHARACTER CREATION AND LEARNING SYSTEM FOR SERVICE PROVISION IN VIRTUAL REALITY SPACE}Character creation and learning system for providing services in virtual reality space {CHARACTER CREATION AND LEARNING SYSTEM FOR SERVICE PROVISION IN VIRTUAL REALITY SPACE}

본 발명은 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템에 관한 것이다. The present invention relates to a character generation and learning system for providing a service in a virtual reality space.

가상현실(Virtual Reality)은 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 기술이다. Virtual Reality is a technology that allows people to have a realistic experience in a virtual world made of computers.

한편, 가상현실(VR·virtual reality)과 현실 세계에 가상정보를 더해 보여주는 기술인 증강현실(AR:augmented reality)을 혼합한 기술은 혼합현실(MR:mixed reality)이라고 한다. VR과 AR, MR은 모두 실제로 존재하지 않은 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여 주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. MR은 AR과 VR을 혼합해 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요하다.Meanwhile, a technology that combines virtual reality (VR) and augmented reality (AR), a technology that adds virtual information to the real world, is called mixed reality (MR). VR, AR, and MR are all common in that they are technologies that realize reality that does not exist so that people can recognize it. AR differs from the fact that virtual information is added to real reality and VR is presented in a fictional situation. MR provides a mixture of AR and VR to provide a mixture of real and virtual information on a realistic background, requiring a technology that can process large amounts of data.

가상현실의 체험에는 HMD(Head Mount Display)가 일반적으로 이용되는데, 이는 VR 체험을 위해 사용자가 머리에 장착하는 디스플레이 디바이스로, 사용자의 시선을 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재될 수 있다.HMD (Head Mount Display) is generally used for the experience of virtual reality, which is a display device mounted on the user's head for the VR experience, and serves to show the virtual world to the user's vision after blocking the user's eyes from the outside. Do it. It can be equipped with a microphone, stereo speakers and other sensors in the form of a face that faces the display in front of you.

본 발명이 해결하고자 하는 과제는 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 제공하는 것이다.An object of the present invention is to provide a character generation and learning system for providing a service in a virtual reality space.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 사용자 단말, 판매자 단말 및 서비스 서버를 포함하는 시스템에 의해 동작하는 가상 현실 공간을 이용한 전시장 플랫폼의 아바타 생성 방법은, 상기 서비스 서버는, 상기 판매자 단말로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 상기 사용자 단말로 제공하는 단계; 상기 서비스 서버는, 상기 사용자 단말 및 상기 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 요청에 대응되는 캐릭터 아바타를 생성는 단계; 상기 생성된 캐릭터 아바타를 상기 가상 공간에 배치하는 단계; 및 상기 캐릭터 아바타를 학습 시키기 위한 사용자 명령이 입력되면, 상기 사용자 명령을 바탕으로 상기 캐릭터 아바타를 학습시키는 단계; 를 포함한다.The avatar generating method of the exhibition hall platform using a virtual reality space operated by a system including a user terminal, a seller terminal and a service server according to an embodiment of the present disclosure for solving the above problems, the service server, the Generating a virtual space based on data received from a seller terminal and providing the virtual space to the user terminal; The service server generating a character avatar corresponding to the request by generating a character avatar request from at least one of the user terminal and the seller terminal; Disposing the generated character avatar in the virtual space; And when a user command for learning the character avatar is input, training the character avatar based on the user command; It includes.

이때, 상기 학습 시키는 단계는, 상기 사용자 단말 또는 상기 판매자 단말로 상기 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 상기 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 상기 사용자 단말 또는 상기 판매자 단말로부터 수신하면, 상기 수신된 카테고리 정보를 바탕으로 상기 캐릭터 아바타를 학습시킬 수 있다.In this case, the training may include transmitting category information for learning the character avatar to the user terminal or the seller terminal, and category information for at least one of the transmitted category information from the user terminal or the seller terminal. Upon reception, the character avatar can be trained based on the received category information.

이때, 상기 캐릭터 아바타가 상기 판매자 단말에 의해 생성된 캐릭터 아바타인 경우, 상기 캐릭터 아바타는 상기 생성된 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 데이터를 학습하고, 상기 아바타 생성 방법은, 상기 서비스 서버가, 복수의 사용자 단말에 대응되는 복수의 캐릭터 아바타로부터 상기 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 요청 정보를 획득하는 단계; 상기 서비스 서버가, 상기 획득된 요청 정보에 대응되는 답변 정보를 획득하는 단계; 및 상기 서비스 서버가, 상기 요정 청보 및 답변 정보를 바탕으로 어느 하나의 사용자 단말에 대응되는 사용자 아바타에게 추천 서비스를 제공하는 단계;를 포함할 수 있다.In this case, when the character avatar is a character avatar generated by the seller terminal, the character avatar learns data about the generated virtual space and a service provided in the virtual space, and the avatar generating method includes the service. Obtaining, by the server, request information for the virtual space and the services provided in the virtual space from a plurality of character avatars corresponding to a plurality of user terminals; Acquiring, by the service server, answer information corresponding to the obtained request information; And providing, by the service server, a recommendation service to a user avatar corresponding to any one user terminal based on the fairy hearing and answer information.

이때, 상기 아바타 생성 방법은, 상기 서비스 서버가, 상기 사용자 단말로부터 수신된 사용자의 개인 정보, 사용자의 관심 분야 정보, 사용자의 검색 히스토리 정보, 상기 사용자 단말의 상태 정보, 상기 사용자 단말의 사용 히스토리 정보 중 적어도 하나의 정보를 수신하는 단계; 상기 서비스 서버가, 상기 수신된 적어도 하나의 정보를 바탕으로, 상기 캐릭터 아바타를 학습시키는 단계;를 더 포함할 수 있다.In this case, the avatar generation method, the service server, the user's personal information received from the user terminal, the user's interest field information, the user's search history information, the state information of the user terminal, the usage history information of the user terminal Receiving at least one of the information; And learning, by the service server, the character avatar based on the at least one received information.

이때, 상기 아바타 생성 방법은, 상기 서비스 서버는, 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 단말로부터 학습된 상기 사용자 단말의 캐릭터 아바타 구입 요청을 수신하는 단계; 상기 서비스 서버는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 구입 요청에 대응되는 단말에 상기 캐릭터 아바타를 판매하는 단계; 를 포함하고, 상기 캐릭터 아바타 구입 요청 및 판매는 상기 가상 공간 내에서 제공될 수 있다.In this case, the avatar generation method, the service server, receiving a character avatar purchase request of the user terminal learned from at least one of a plurality of user terminals or a plurality of seller terminals; The service server, when receiving a command for selling the character avatar from the user terminal, selling the character avatar to a terminal corresponding to the purchase request; The character avatar purchase request and sale may be provided in the virtual space.

이때, 상기 캐릭터 아바타를 판매하는 단계는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 캐릭터 아바타에 저장된 상기 사용자 단말의 사용자에 대한 개인 정보를 삭제하는 단계;를 더 포함할 수 있다.In this case, the selling of the character avatar may further include deleting personal information of the user of the user terminal stored in the character avatar when receiving a command for selling the character avatar from the user terminal. Can be.

이때, 상기 아바타 생성 방법은, 상기 사용자 단말로부터 상기 가상 공간으로의 접근이 요청되면, 상기 가상 공간 및 상기 가상 공간에 배치된 상기 판매자 단말의 캐릭터 아바타를 상기 사용자 단말로 제공하는 단계; 및 상기 사용자 단말에 대응되는 캐릭터 아바타가 존재하면, 상기 캐릭터 아바타를 상기 가상공간에 배치하여 상기 사용자 단말로 제공하는 단계;를 포함하고, 상기 사용자 단말 이외의 다른 사용자 단말로부터 상기 서비스 서버로부터 생성된 가상 공간에 접근하기 위한 요청을 수신하면, 상기 다른 사용자 단말에 대응되는 사용자 아바타를 상기 가상 공간에 표시하여 제공할 수 있다.In this case, the avatar generating method may further include providing a character avatar of the virtual space and the seller terminal disposed in the virtual space to the user terminal when an access to the virtual space is requested from the user terminal; And if the character avatar corresponding to the user terminal exists, placing the character avatar in the virtual space and providing the character avatar to the user terminal, wherein the character avatar is generated from the service server from a user terminal other than the user terminal. When receiving a request for access to the virtual space, a user avatar corresponding to the other user terminal may be displayed and provided in the virtual space.

이때, 상기 제공하는 단계는, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 밖인 경우, 상기 생성된 가상 공간을 제공하고, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자 단말 주변 영상을 수신하여 제공할 수 있다.In this case, the providing may include providing the generated virtual space when the visual field of the user transmitted from the user terminal is outside a preset range, and when the visual field of the user transmitted from the user terminal is within a preset range. The surrounding image of the user terminal may be received and provided.

한편, 상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 서비스 서버는, 하나 이상의 인스트럭션을 저장하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고, 상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써, 제1 항의 방법을 수행한다.On the other hand, the service server according to an embodiment of the present disclosure for solving the above problems, the memory for storing one or more instructions; And a processor that executes the one or more instructions stored in the memory, wherein the processor executes the one or more instructions to perform the method of claim 1.

. 한편, 상술한 과제를 해결하기 위한 본 개시의 일 실시예에 따른 컴퓨터 프로그램은. 하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된다.. On the other hand, a computer program according to an embodiment of the present disclosure for solving the above problems. Combined with a computer, which is hardware, it is stored on a computer-readable recording medium for carrying out the method of claim 1.

개시된 실시예에 따른, 가상 현실 동간에서 다양한 캐릭터를 이용하여 효과적으로 다양한 서비스를 제공할 수 있는 플랫폼을 구축할 수 있다.According to the disclosed embodiment, it is possible to build a platform that can effectively provide various services using various characters in virtual reality.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 개시의 일 실시예에 따른 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 도시한 도면이다.
도 2는 본 개시의 일 실시예에 따른 캐릭터 생성 및 학습 시스템의 동작을 설명하기 위한 도면이다.
도 3은 본 개시의 일 실시예에 따른 가상 공간을 구축하고, 서비스를 제공하는 방법을 설명하기 위한 도면이다.
도 4 및 도 5는 본 개시의 일 실시예에 따른 가상 공간을 생성하기 위한 방법을 설명하기 위한 예시도이다.
도 6은 본 개시의 일 실시예에 따른 서비스 추천 방법을 설명하기 위한 예시도이다.
도 7은 본 개시의 일 실시예에 따른 복수의 사용자가 동일한 가상 공간을 사용하는 것을 설명하기 위한 예시도이다.
도 8은 본 개시의 일 실시예에 따른 캐릭터 아바타 판매를 설명하기 위한 예시도이다.
도 9은 본 개시의 일 실시예에 따른 가상 공간 표시 방법을 설명하기 위한 예시도이다.
도 10는 일 실시 예에 따른 장치의 구성도이다.
1 is a diagram illustrating a character generation and learning system for providing a service in a virtual reality space according to one embodiment of the present disclosure.
2 is a view for explaining the operation of the character generation and learning system according to an embodiment of the present disclosure.
FIG. 3 is a diagram for describing a method of building a virtual space and providing a service according to an embodiment of the present disclosure.
4 and 5 are exemplary diagrams for describing a method for creating a virtual space according to an embodiment of the present disclosure.
6 is an exemplary view for explaining a service recommendation method according to an embodiment of the present disclosure.
7 is an exemplary diagram for describing a plurality of users using the same virtual space according to an embodiment of the present disclosure.
8 is an exemplary view for explaining a character avatar sale according to an embodiment of the present disclosure.
9 is an exemplary view for explaining a virtual space display method according to an embodiment of the present disclosure.
10 is a block diagram of an apparatus according to an embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below but may be embodied in various different forms, only the present embodiments are intended to complete the disclosure of the present invention, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the invention, which is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and / or “comprising” does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.The term "part" or "module" as used herein refers to a hardware component such as software, FPGA or ASIC, and the "part" or "module" plays certain roles. However, "part" or "module" is not meant to be limited to software or hardware. The “unit” or “module” may be configured to be in an addressable storage medium or may be configured to play one or more processors. Thus, as an example, a "part" or "module" may include components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. Functions provided within components and "parts" or "modules" may be combined into smaller numbers of components and "parts" or "modules" or into additional components and "parts" or "modules". Can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms " below ", " beneath ", " lower ", " above ", " upper " It can be used to easily describe a component and its correlation with other components. Spatially relative terms are to be understood as including terms in different directions of components in use or operation in addition to the directions shown in the figures. For example, when flipping a component shown in the drawing, a component described as "below" or "beneath" of another component may be placed "above" the other component. Can be. Thus, the exemplary term "below" can encompass both an orientation of above and below. Components may be oriented in other directions as well, so spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In the present specification, a computer refers to any kind of hardware device including at least one processor, and according to an embodiment, it may be understood as a meaning encompassing a software configuration that operates on the hardware device. For example, a computer may be understood as including, but not limited to, a smartphone, a tablet PC, a desktop, a notebook, and a user client and an application running on each device.

본 명세서에서, 인공지능 모델이란 기계학습을 이용하여 학습된 모델을 포함하는, 인공지능 시스템을 구현할 수 있도록 설계된 모든 종류의 모델을 포함한다. In this specification, the AI model includes all kinds of models designed to implement an AI system, including a model trained using machine learning.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention;

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described herein is described as being performed by a computer, but the subject of each step is not limited thereto, and at least some of the steps may be performed in different devices according to embodiments.

도 1은 본 개시의 일 실시예에 따른 가상 현실 공간에서 서비스 제공을 위한 캐릭터 생성 및 학습 시스템을 도시한 도면이다.1 is a diagram illustrating a character generation and learning system for providing a service in a virtual reality space according to one embodiment of the present disclosure.

도 1에 도시된 구성요소들은 예시로써 도시된 것이며, 개시된 실시 예에 따른 시스템의 구성요소들은 이에 제한되지 않는다. 또한, 도 1에 도시되지 않은 구성요소들이 도 1에 도시된 시스템에 더 추가될 수 있으며, 도 1에 도시된 일부 구성요소가 도 1에 도시된 시스템으로부터 생략될 수도 있다.The components shown in FIG. 1 are shown by way of example, and the components of the system according to the disclosed embodiments are not limited thereto. In addition, components not shown in FIG. 1 may be further added to the system shown in FIG. 1, and some components shown in FIG. 1 may be omitted from the system shown in FIG. 1.

일 실시 예에서, 캐릭터 생성 및 학습 시스템은, 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)을 포함할 수 있다. 본 개시에서는 하나의 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)의 동작에 대하여 개시하나, 복수의 사용자 단말(110), 서비스 서버(120) 및 판매자 단말(130)에 대하여도 동일한 기술적 사상이 적용될 수 있음은 자명하다.In an embodiment, the character generation and learning system may include a user terminal 110, a service server 120, and a seller terminal 130. In the present disclosure, an operation of one user terminal 110, a service server 120, and a seller terminal 130 is disclosed. However, the plurality of user terminals 110, the service server 120, and a seller terminal 130 are described. Obviously, the same technical idea may be applied.

사용자 단말(110)은 가상 공간 제공을 위한 추가 장치를 포함할 수 있다. 일 실시예로, 사용자 단말(110)은 HMD(Head Mount Display)를 포함할 수 있다. 하지만 사용자 단말(110)에 포함된 출력장치는 HMD에 제한되는 것은 아니고, 다양한 형태의 출력장치가 가상현실을 제공하는 데 이용될 수 있다.The user terminal 110 may include an additional device for providing a virtual space. In one embodiment, the user terminal 110 may include a head mount display (HMD). However, the output device included in the user terminal 110 is not limited to the HMD, and various types of output devices may be used to provide virtual reality.

일 실시 예에서, 사용자 단말(110)은 가상 공간을 처리 및 재생하기 위한 처리장치를 내장할 수도 있고, 외부의 처리장치와 연결되어, 처리장치로부터 수신되는 정보를 디스플레이를 이용하여 출력할 수도 있다. 외부의 처리장치는 사용자 단말(110)일 수도 있고, 서비스 서버(120)와 연결된 컴퓨팅 장치일 수도 있다. 실시 예에 따라서, 사용자 단말(110)은 서비스 서버(120)로부터 수신되는 정보에 기초하여 가상현실 영상을 출력할 수도 있다.In an embodiment, the user terminal 110 may have a built-in processing device for processing and reproducing a virtual space, or may be connected to an external processing device to output information received from the processing device using a display. . The external processing device may be the user terminal 110 or a computing device connected to the service server 120. According to an embodiment, the user terminal 110 may output the virtual reality image based on the information received from the service server 120.

일 실시 예에서, 서비스 서버(120)는 적어도 하나의 프로세서를 포함하는 컴퓨팅 장치일 수 있다. 실시 예에 따라서, 서비스 서버(120)는 클라우드 서버를 의미할 수도 있다. 일 실시예로, 서비스 서버(120)는 플랫폼과 혼용되어 사용될 수 있다.In one embodiment, the service server 120 may be a computing device including at least one processor. According to an embodiment, the service server 120 may mean a cloud server. In one embodiment, the service server 120 may be used interchangeably with the platform.

일 실시 예에서, 서비스 서버(120)는 복수의 사용자 단말(110)과 연결되고, 복수의 가상현실 장비들 각각에 컨텐츠를 전송할 수 있으며, 각각의 사용자 단말(110)은 서비스 서버(120)로부터 수신된 컨텐츠에 기초하여 가상 공간을 출력한다. In an embodiment, the service server 120 is connected to the plurality of user terminals 110 and transmits content to each of the plurality of virtual reality devices, each user terminal 110 from the service server 120 The virtual space is output based on the received content.

도 2는 본 개시의 일 실시예에 따른 캐릭터 생성 및 학습 시스템의 동작을 설명하기 위한 도면이다.2 is a view for explaining the operation of the character generation and learning system according to an embodiment of the present disclosure.

먼저, 서비스 서버(120)은 판매자 단말(130)로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 사용자 단말(110)로 제공할 수 있다(S210). 가상 공간을 생성하는 방법에 대하여는 도 3 및 도 4에서 구체적으로 살펴본다.First, the service server 120 may generate a virtual space based on the data received from the seller terminal 130 and provide the virtual space to the user terminal 110 (S210). A method of generating a virtual space will be described in detail with reference to FIGS. 3 and 4.

서비스 서버(120)는 사용자 단말 및 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 캐릭터 아바타를 생성할 수 있다(S220). 이때 생성되는 캐릭터 아바타는 기본적인 기능만을 포함하는 캐릭터 아바타로, 사용자 명령에 따라 새로운 기능들을 학습 시킬 수 있다.The service server 120 may generate a character avatar by receiving a request for generating a character avatar from at least one of a user terminal and a seller terminal (S220). In this case, the generated character avatar is a character avatar including only basic functions, and may learn new functions according to a user command.

서비스 서버(120)는 생성된 캐릭터 아바타를 가상 공간에 배치할 수 있다(S230). 일 실시예로, 캐릭터 아바타가 판매자 단말(130)의 요청으로부터 생성된 경우, 서비스 서버(120)는 판매자 단말(130)로부터 배치된 캐릭터 아바타의 위치 정보 및 이동 반경 정보를 수신하여 캐릭터 아바타를 배치할 수 있다. 즉, 판매자 단말(130)에 대응되는 캐릭터 아바타는 사용자 단말(110)의 사용자에게 정보를 제공하거나 서비스를 제공하기 위한 경우가 많으므로, 특정 위치 및 특정 이동 반경을 가지도록 설정될 수 있다.The service server 120 may arrange the generated character avatar in the virtual space (S230). In one embodiment, when the character avatar is generated from the request of the seller terminal 130, the service server 120 receives the position information and moving radius information of the character avatar disposed from the seller terminal 130 to arrange the character avatar. can do. That is, the character avatar corresponding to the seller terminal 130 is often provided to provide information or service to the user of the user terminal 110, and thus may be set to have a specific location and a specific moving radius.

또 다른 실시예로, 캐릭터 아바타가 사용자 단말(110)의 요청으로부터 생성된 경우, 서비스 서버(120)는 가상 공간 상의 사용자의 시야에서 기 설정된 범위 이내에 캐릭터 아바타를 배치할 수 있다. 즉, 사용자 단말(110)에 대응되는 캐릭터 아바타는 사용자의 편의를 위한 캐릭터 아바타인 경우가 많으므로, 사용자 근처에 배치할 수 있다.In another embodiment, when the character avatar is generated from the request of the user terminal 110, the service server 120 may arrange the character avatar within a preset range in the field of view of the user in the virtual space. That is, since the character avatar corresponding to the user terminal 110 is often a character avatar for the convenience of the user, the character avatar may be disposed near the user.

서비스 서버(120)는 캐릭터 아바타를 학습시키기 위한 사용자 명령이 입력되면, 사용자 명령을 바탕으로 캐릭터 아바타를 학습 시킬 수 있다(S240)If a user command for learning the character avatar is input, the service server 120 may learn the character avatar based on the user command (S240).

일 실시예로, 서비스 서버(120)는 사용자 단말(110) 또는 판매자 단말(120)로 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 사용자 단말(110) 또는 판매자 단말(130)로부터 수신하면, 수신된 카테고리 정보를 바탕으로 캐릭터 아바타를 학습시킬 수 있다.In one embodiment, the service server 120 transmits the category information for learning the character avatar to the user terminal 110 or the seller terminal 120, the category information for at least one of the transmitted category information to the user terminal ( If received from 110 or the seller terminal 130, it is possible to learn the character avatar based on the received category information.

이때, 카테고리 정보는, 캐릭터 아바타를 학습시키기 위한 다양한 카테고리에 대한 정보일 수 있다. 일 실시예로, 카테고리 정보는, 어학 카테고리, 스포츠 카테고리, 쇼핑 카테고리, 교육 카테고리 등 다양한 카테고리에 대한 정보일 수 있다. 이러한 카테고리 정보는 카테고리 정보를 세분화한 세부 카테고리 정보를 더 포함할 수 있다. 예를 들어 어학 카테고리의 세부 카테고리는 한국어, 일본어, 중국어, 영어 등 언어의 종류를 구성하는 제1 세부 카테고리, 번역, 쓰기, 읽기, 말하기, 듣기 등 언어에 대한 행위를 나타내는 제2 세부 카테고리, 각각의 카테고리의 학습의 정도를 결정하는 제3 세부 카테고리 등으로 구성될 수 있다. In this case, the category information may be information on various categories for learning the character avatar. In one embodiment, the category information may be information on various categories such as language category, sports category, shopping category, and education category. The category information may further include detailed category information obtained by subdividing the category information. For example, the sub-categories of the language category are the first sub-category constituting the kind of language such as Korean, Japanese, Chinese, and English, and the second sub-category representing the acts on the language such as translation, writing, reading, speaking, and listening, respectively. The third subcategory may be configured to determine the degree of learning of the category.

특히 제3 세부 카테고리는 예를 들어, 영어 번역 카테고리에 대한 학습의 정도와 관련된 카테고리로, 초급자 수준의 번역, 중급자 수준의 번역, 고급자 수준의 번역 등 번역 수준을 결정하기 위한 세부 카테고리일 수 있다. 일반적으로, 학습의 정도가 높은 캐릭터 아바타는 학습의 정도가 낮은 캐릭터 아바타보다 많은 리소스(데이터 량, 비용 등)를 필요로 한다. 따라서, 가용한 리소스 양에 따라 카테고리를 분류하여 사용자 선택에 따라 캐릭터 아바타를 학습 시킬 수 있다.In particular, the third subcategory is, for example, a category related to the degree of learning about the English translation category, and may be a subcategory for determining a translation level such as beginner level translation, intermediate level translation, and advanced level translation. In general, a character avatar with a high degree of learning requires more resources (amount of data, cost, etc.) than a character avatar with a low degree of learning. Therefore, the category is classified according to the amount of available resources and the character avatar can be trained according to the user's selection.

사용자는 서비스 서버(120)로부터 제공된 카테고리 정보 중 적어도 하나를 선택하여 캐릭터 아바타를 학습 시킬 수 있다. 이때, 캐릭터 아바타를 학습 시키는 과정은 기 저장된 학습 모듈을 전송하는 방식으로 구성될 수도 있다. 그러나, 캐릭터 아바타를 학습 시키는 과정은 인공 지능 모델을 통해 구현될 수도 있다.The user may select at least one of the category information provided from the service server 120 to learn the character avatar. In this case, the process of learning the character avatar may be configured by transmitting a pre-stored learning module. However, the process of learning the character avatar may be implemented through an artificial intelligence model.

한편, 서비스 서버(120)는 학습된 캐릭터 아바타를 지속적으로 학습시킬 수 있다. 구체적으로, 서비스 서버(120)는 캐릭터 아바타에 학습된 카테고리 정보와 관련된 데이터가 입력되면, 캐릭터 아바타를 업데이트 할 수 있다. 이때, 업데이트를 위한 데이터는 사용자 단말(110) 또는 판매자 단말(13)로부터 제공 받을 수 있다. 다만, 이에 한정되는 것은 아니고, 서비스 서버(120)가 업데이트될 데이터를 선별하여 캐릭터 아바타를 학습 시킬 수도 있다. 예를 들어, 학습된 카테고리 정보에 대응되는 데이터를 다양한 방법을 통해 수신하면, 서비스 서버(120)는 수신한 데이터를 바탕으로 캐릭터 아바타를 업데이트 할 수 있다.Meanwhile, the service server 120 may continuously learn the learned character avatar. In detail, the service server 120 may update the character avatar when data related to the learned category information is input to the character avatar. In this case, the data for updating may be provided from the user terminal 110 or the seller terminal 13. However, the present invention is not limited thereto, and the service server 120 may select the data to be updated to train the character avatar. For example, when data corresponding to the learned category information is received through various methods, the service server 120 may update the character avatar based on the received data.

일 실시예로, 캐릭터 아바타가 초급자 수준의 영어(중국어, 일본어 등 다양한 언어의 경우 또한 같다) 번역을 학습한 상태인 경우를 가정한다. 사용자 단말(110) 또는 판매자 단말(130)은 영어 번역 학습을 위한 다양한 영어(및 그의 번역 데이터)를 서비스 서버(120)로 제공하고, 서비스 서버(120)는 제공된 데이터를 이용하여 캐릭터 아바타를 학습시킬 수 있다. 처음에는 초급자 수준의 영어 번역이 가능했던 캐릭터 아바타는, 지속적인 학습을 통해 영어 번역의 수준을 높여갈 수 있다. As an example, it is assumed that the character avatar is in a state of learning a beginner level translation of English (also in the case of various languages such as Chinese and Japanese). The user terminal 110 or the seller terminal 130 provides a variety of English (and its translation data) to the service server 120 for learning English translation, the service server 120 learns the character avatar using the provided data You can. Character avatars, which were initially available for beginner level English translation, can be improved through continuous learning.

나아가, 단말이 제공한 데이터를 이용하여 학습이 수행되므로, 단말의 사용자에게 개인화된 캐릭터 아바타가 획득될 수 있다. 즉, 단말로부터 제공받은 데이터는 단말의 사용자가 관심 있거나, 자주 사용하는 단어 또는 문장등과 관련된 데이터일 수 있다. 따라서, 학습된 캐릭터 데이터는 사용자의 관심 분야를 더욱 잘 번역할 수 있게되며 개인화된 캐릭터 아바타가 생성될 수 있는 효과가 존재한다. 예를 들어, 단말의 사용자가 자신의 관심 분야인 스포츠 분야에 대한 데이터를 지속적으로 제공하여 캐릭터 아바타를 학습시킨 경우, 캐릭터 아바타는 다른 분야에 대한 번역의 품질보다 스포츠 분야에서의 번역의 품질이 더 높을 것이다. Furthermore, since the learning is performed using data provided by the terminal, a character avatar personalized to the user of the terminal may be obtained. That is, the data provided from the terminal may be data related to a word or a sentence that the user of the terminal is interested in or frequently used. Thus, the learned character data can translate the user's field of interest better and there is an effect that a personalized character avatar can be generated. For example, if the user of the terminal has continuously provided data on the sports field of his / her interests to learn the character avatar, the character avatar has a higher quality of translation in the sports field than the quality of the translation to other fields. Will be high.

나아가, 처음부터 원어민 수준의 영어 번역을 학습한 캐릭터 아바타와 비교할 때, 사용자가 필요한 분야에 대한 번역 능력만을 향상 시킴으로써 학습을 위한 데이터의 양을 줄이고, 캐릭터 아바타의 용량을 줄일 수 있는 효과가 존재한다.Furthermore, when comparing native English-language translation with a character avatar who has learned from the beginning, there is an effect of reducing the amount of data for learning and the capacity of the character avatar by improving only the translation ability for the required field. .

한편, 상술한 실시예에서는, 사용자 단말(110) 또는 판매자 단말(130)이 카테고리 정보를 전송하여 서비스 서버(120)가 캐릭터 아바타를 학습 시키는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 본 개시에 따른 일 실시예로, 서비스 서버(120)는 사용자 단말(110) 또는 판매자 단말(130)로부터 단말의 사용자 정보를 수신하고, 수신된 사용자 정보를 바탕으로 캐릭터 아바타를 학습 시킬 수 있음은 물론이다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은 일정 정보, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.)Meanwhile, in the above-described embodiment, the user terminal 110 or the seller terminal 130 transmits the category information so that the service server 120 learns the character avatar, but is not limited thereto. According to an embodiment of the present disclosure, the service server 120 may receive user information of the terminal from the user terminal 110 or the seller terminal 130, and learn the character avatar based on the received user information. Of course. In this case, the user information includes biometric information of the user collected through the terminal and usage history records of the terminal collected through the terminal (the usage history record includes schedule information, types of applications used, usage time, website address, and access time). At least one of all user commands through the terminal, such as an alarm setting time, a terminal use time, and a distribution.

즉, 캐릭터 아바타는 각각의 단말의 개인적인 사용 양태에 따라 학습되어 개인화된 캐릭터 아바타로 활용될 수 있다.That is, the character avatar may be learned and used as a personalized character avatar according to the personal use aspect of each terminal.

한편, 상술한 다양한 학습은 인공 지능 시스템을 통해 구현될 수 있다. 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 Rule 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.Meanwhile, the above-described various learning may be implemented through an artificial intelligence system. Artificial Intelligence (AI) system is a computer system that implements human-level intelligence, and unlike conventional rule-based smart systems, machines learn, judge, and become smart. As the AI system is used, the recognition rate is improved and the user's taste can be understood more accurately, and the existing Rule-based smart system is gradually replaced by the deep learning-based AI system.

인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.AI technology is composed of elementary technology that utilizes machine learning (deep learning) and machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies / learns characteristics of input data by itself, and element technology is a technology that simulates the functions of human brain cognition and judgment by using machine learning algorithms such as deep learning. It consists of technical fields such as understanding, reasoning / prediction, knowledge representation and motion control.

구체적으로, 딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다. Specifically, deep learning is a machine learning algorithm that attempts a high level of abstraction (summarizing key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformations. It is defined as a set of. Deep learning can be seen as a field of machine learning that teaches computers how people think in a large framework.

어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다. When there is any data, it is represented in a form that can be understood by a computer (for example, in the case of an image, the pixel information is represented by a column vector), and a lot of research is performed to apply it to learning. How to create expression techniques and how to build models to learn them). As a result of these efforts, various deep learning techniques have been developed. Deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Reccurent Neural Networks (RNN), and Deep Belief Networks (DBN). have.

심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Deep Neural Networks (DNNs) are artificial neural networks (ANNs) made up of a plurality of hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다. At this time, the structure of the deep neural network may be composed of a perceptron (perceptron). A perceptron consists of several inputs, one processor, and one output. The processor multiplies a plurality of input values by each weight, and then adds the weighted input values together. The processor then substitutes the sum of the values into the activation function and outputs one output value. If a specific value is desired as an output value of the activation function, the weight multiplied by each input value may be modified, and the output value may be recalculated using the modified weight. At this time, each perceptron may use a different activation function. Each perceptron also accepts the output from the previous layer as input, then uses the activation function to get the output. The obtained output is passed to the input of the next layer. Through the above process, several output values can be finally obtained.

개시된 일 실시예에 따르면, 서비스 서버(120)는 가상 공간을 사용하는 사용자의 다양한 사용자 정보를 사용자 단말(110) 또는 판매자 단말(130)로부터 수집하여, 딥러닝에 활용되는 가중치를 설정하는데 사용할 수 있다. 이때, 사용자 정보란, 단말을 통해 수집된 사용자의 생체 정보, 단말을 통해 수집된 단말의 사용 히스토리 기록(사용 히스토리 기록은, 사용한 어플리케이션의 종류, 사용 시간, 접속한 웹사이트 주소, 접속 시간, 알람 설정 시간, 단말 사용 시간 및 분포 등 단말을 통한 모든 사용자 명령 중 적어도 하나일 수 있다.) 예를 들어, 캐릭터 아바타를 학습시키기 위한 인공 지능 모델은 상술한 다양한 사용자 정보에 기초하여 캐릭터 아바타를 보완하는 정보를 수집할 수 있으며, 이에 기초하여 각각의 가중치를 재설정할 수 있다.According to an embodiment of the present disclosure, the service server 120 may collect various user information of a user who uses a virtual space from the user terminal 110 or the seller terminal 130 and use it to set weights used for deep learning. have. In this case, the user information is a user's biometric information collected through the terminal, the usage history record of the terminal collected through the terminal (use history record is the type of the application used, the usage time, the website address, the access time, the alarm It may be at least one of all user commands through the terminal, such as a set time, a terminal use time, and a distribution.) For example, an artificial intelligence model for learning a character avatar may be used to supplement the character avatar based on the above-described various user information. The information may be collected, and the respective weights may be reset based on the information.

딥 러닝 기법에 대한 설명으로 다시 돌아가면, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다. 합성곱 신경망은 입력 영상에 대하여 합성곱과 서브샘플링을 번갈아 수행함으로써 입력 영상으로부터 특징을 추출한다.Returning to the deep learning technique, Convolutional deep Neural Networks (CNN) is a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and a general artificial neural network layer on top of them, and further utilizes weights and pooling layers. This structure allows the multiplicative neural network to fully utilize the input data of the two-dimensional structure. In addition, convolutional neural networks can be trained through standard backtransmission. The multiplicative neural network is more easily trained than other feedforward neural network techniques and has the advantage of using fewer parameters. The convolutional neural network extracts features from the input image by performing alternating convolutional and subsampling on the input image.

합성곱 신경망은 여러 개의 합성곱 계층(Convolution layer), 여러 개의 서브샘플링 계층(Subsampling layer, Lacal pooling layer, Max-Pooling layer), 완전 연결 층(Fully Connected layer)을 포함한다. 합성곱 계층은 입력 영상(Input Image)에 대해 합성곱을 수행하는 계층이다. 그리고 서브샘플링 계층은 입력 영상에 대해 지역적으로 최대값을 추출하여 2차원 영상으로 매핑하는 계층으로, 국소적인 영역을 더 크게 하고, 서브샘플링을 수행한다. The convolutional neural network includes a plurality of convolution layers, a plurality of subsampling layers, a lacal pooling layer, a max-pooling layer, and a fully connected layer. The convolution product layer is a layer that performs a convolution product on an input image. The subsampling layer is a layer that locally extracts the maximum value of the input image and maps it to the 2D image. The subsampling layer enlarges the local region and performs subsampling.

합성곱 계층에서는 커널의 크기(kernel size), 사용할 커널의 개수(즉, 생성할 맵의 개수), 및 합성곱 연산 시에 적용할 가중치 테이블 등의 정보가 필요하다. 예를 들어, 입력 영상의 크기가 32×32이고, 커널의 크기가 5×5이고, 사용할 커널의 개수가 20개인 경우를 예로 들자. 이 경우, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하면, 입력 영상의 위, 아래, 왼쪽, 오른쪽에서 각각 2개의 픽셀(pixel)에는 커널을 적용하는 것이 불가능하다. 입력 영상의 위에 커널을 배치한 후 합성곱을 수행하면, 그 결과 값인 '-8'은 커널에 포함된 입력 영상의 픽셀들 중에서 커널의 중심요소(center element)에 대응하는 픽셀의 값으로 결정되기 때문이다. 따라서, 32×32 크기의 입력 영상에 5×5 크기의 커널을 적용하여 합성곱을 수행하면 28×28 크기의 맵(map)이 생성된다. 앞서, 사용할 커널의 개수가 총 20개인 경우를 가정하였으므로, 첫 번째 합성곱 계층에서는 총 20개의 28×28 크기의 맵이 생성된다. In the product multiplication layer, information such as kernel size, the number of kernels to be used (that is, the number of maps to be generated), and a weight table to be applied when performing a product multiplication are needed. For example, assume that the size of the input image is 32 × 32, the size of the kernel is 5 × 5, and the number of kernels to be used is 20. In this case, if a 5 × 5 kernel is applied to an input image having a size of 32 × 32, it is impossible to apply the kernel to two pixels at the top, bottom, left, and right sides of the input image. When the kernel is placed on the input image and then the result is composite, the resulting value of '-8' is determined as the pixel value corresponding to the center element of the kernel among the pixels of the input image included in the kernel. to be. Therefore, when a composite product is performed by applying a 5 × 5 kernel to a 32 × 32 input image, a 28 × 28 map is generated. Since it is assumed that the total number of kernels to be used is 20 in total, 20 maps of 28 × 28 sizes are generated in the first convolutional layer.

서브샘플링 계층에서는 서브샘플링할 커널의 크기에 대한 정보, 커널 영역 내의 값들 중 최대값을 선택할 것인지 최소값을 선택할 것인지에 대한 정보가 필요하다.In the subsampling layer, information on the size of the kernel to be subsampled and information on whether to select the maximum value or the minimum value among the values in the kernel region are needed.

딥 러닝 기법에 대한 설명으로 다시 돌아가면, 순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Returning to the deep learning technique, a cyclic neural network (RNN) refers to a neural network in which connections between units forming an artificial neural network form a directed cycle. The cyclic neural network, unlike the front neural network, can utilize the memory inside the neural network to process arbitrary input.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다. Deep Belief Networks (DBN) is a generic graphical model used in machine learning. In deep learning, deep Belief Networks (DBN) is a deep neural network composed of multiple layers of latent variables. There is a connection between layers, but there is no connection between units within a layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다. Deep trust neural networks can be used for preliminary learning due to the nature of the generation model, and after the initial weights are learned through prior learning, the weights can be fine-tuned through back propagation or other discrimination algorithms. This characteristic is very useful when the training data is small, because the smaller the training data, the greater the influence of the initial value of the weight on the resulting model. The pre-learned weight initial value is closer to the optimal weight than the arbitrarily set weight initial value, which enables the performance and speed improvement of the fine tuning step.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 이하에서 설명되는 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.Details of the above-described artificial intelligence and its learning method are described for the purpose of illustration, and the artificial intelligence used in the embodiments described below and its learning method are not limited. For example, all kinds of artificial intelligence techniques and learning methods that can be applied by those skilled in the art to solve the same problem may be utilized to implement a system according to the disclosed embodiments.

도 3은 본 개시의 일 실시예에 따른 가상 공간을 구축하고, 서비스를 제공하는 방법을 설명하기 위한 도면이다. FIG. 3 is a diagram for describing a method of building a virtual space and providing a service according to an embodiment of the present disclosure.

도 3에 도시된 바와 같이, 서비스 서버(120)의 구체적인 동작에 대하여 살펴본다. 서비스 서버(120)는 판매자 단말(130)로부터 가상 공간 구축을 위한 데이터 및 생성될 가상 공간에 적용될 서비스에 대한 정보를 전송 받을 수 있다(S310). As shown in FIG. 3, a detailed operation of the service server 120 will be described. The service server 120 may receive data for building a virtual space and information on a service to be applied to the virtual space to be generated from the seller terminal 130 (S310).

구체적으로, 판매자 단말(130)은 사용자 단말(110)에 제공하기 위한 가상 공간에 대한 데이터를 서비스 서버(120)에 전송하여 서비스 서버(120)에 가상 공간을 생성하는 작업을 요청할 수 있다. 이때, 생성될 가상 공간은 다양한 종류의 가상 공간일 수 있다. In detail, the seller terminal 130 may request the service server 120 to generate a virtual space by transmitting data about the virtual space to be provided to the user terminal 110 to the service server 120. In this case, the virtual space to be created may be various kinds of virtual spaces.

일 실시예로, 생성될 가상 공간은 모델 하우스에 대응되는 가상 공간일 수 있다. In one embodiment, the virtual space to be created may be a virtual space corresponding to the model house.

또 다른 실시예로, 생성될 가상 공간은 쇼핑몰에 대응되는 가상 공간일 수 있다. In another embodiment, the virtual space to be created may be a virtual space corresponding to a shopping mall.

또 다른 실시예로, 생성될 가상 공간은 각종 전시회에 대응되는 가상 공간일 수 있다. In another embodiment, the virtual space to be created may be a virtual space corresponding to various exhibitions.

또 다른 실시예로, 생성될 가상 공간은 복수의 사용자에 대응되는 복수의 사용자 아바타의 협업 공간일 수 있다. In another embodiment, the virtual space to be created may be a collaboration space of a plurality of user avatars corresponding to the plurality of users.

또 다른 실시예로, 생성될 가상 공간은 컨텐츠 제공을 위한 가상 공간일 수 있다.In another embodiment, the virtual space to be created may be a virtual space for providing content.

서비스 서버(120)는 판매자 단말(130)로부터 수신한 데이터를 변환하여 가상 공간을 생성할 수 있다(S320).The service server 120 may generate a virtual space by converting the data received from the seller terminal 130 (S320).

이후 서비스 서버(120)는 생성된 가상 공간의 일 영역에 서비스에 대한 정보에 대응되는 서비스를 매핑할 수 있다(S330).Thereafter, the service server 120 may map a service corresponding to the information about the service to one region of the created virtual space (S330).

구체적으로, 판매자 단말(130)은 단순히 가상 공간을 생성하는 것을 목적으로 하기 보다는 가상 공간 내에서 다양한 서비스를 제공하는 것을 목적으로 할 수 있다. 따라서, 판매자 단말(130)는 생성된 가상 공간에 다양한 서비스를 매핑하기 위한 서비스 정보를 서비스 서버(120)로 전송하고, 서비스 서버(120)는 생성된 가상 공간에 서비스를 매핑할 수 있다.Specifically, the seller terminal 130 may be aimed at providing various services in the virtual space, rather than simply creating a virtual space. Accordingly, the seller terminal 130 may transmit service information for mapping various services to the created virtual space to the service server 120, and the service server 120 may map the service to the created virtual space.

일 실시예로, 생성된 가상 공간이 모델 하우스에 대응되는 가상 공간인 경우, 매핑된 서비스는, 모델하우스에 대한 정보(가격 정보, 시공사 및 분양사 정보)를 안내하기 위한 컨텐츠 서비스 또는 빌트인된 가구에 대한 서비스, 환경에 어울리는 인테리어 추천 서비스 등일 수 있다. In one embodiment, if the created virtual space is a virtual space corresponding to the model house, the mapped service is provided to a content service or built-in furniture for guiding information (price information, contractor and sales company information) about the model house. Service, interior recommendation service suitable for the environment.

또 다른 실시예로, 생성된 가상 공간이 쇼핑몰에 대응되는 가상 공간인 경우, 매핑된 서비스는 쇼핑몰에서 판매하는 상품의 제품 정보, 가격 정보, 재고 정보, 피팅 정보 등에 대한 서비스일 수 있다. 나아가, 매핑된 서비스는 사용자 단말(110)이 등록한 사용자 아바타가 사용자 체형 정보를 포함하는 경우, 사용자가 쇼핑몰의 제품을 착용했을 때의 예상 모습을 제공하는 서비스일 수도 있다. In another embodiment, when the generated virtual space is a virtual space corresponding to a shopping mall, the mapped service may be a service for product information, price information, inventory information, fitting information, and the like, of a product sold in the shopping mall. Further, the mapped service may be a service that provides an expected appearance when the user wears a product of a shopping mall when the user avatar registered by the user terminal 110 includes user body type information.

또 다른 실시예로, 생성된 가상 공간이 각종 전시회에 대응되는 가상 공간인 경우, 매핑된 서비스는, 전시회에 전시될 작품에 대한 컨텐츠 서비스일 수 있다. 이 경우, 서비스 서버(120)는 전시될 작품을 가상 공간 내에서 구현하여 사용자가 직접 전시회에 참석하지 않고도 전시회를 관람할 수 있게 도와줄 수 있다. 나아가, 매핑된 서비스는 전시될 작품에 대한 정보를 제공하는 서비스일 수 있다. 비디오, 오디오, 텍스트 증 다양한 방법으로 작품에 대한 정보를 전달함으로써, 사용자가 직접 전시회를 방문하는 것 보다 더 나은 서비스를 제공할 수 있는 효과가 존재한다.In another embodiment, when the generated virtual space is a virtual space corresponding to various exhibitions, the mapped service may be a content service for a work to be displayed at the exhibition. In this case, the service server 120 may implement a work to be displayed in the virtual space to help the user to view the exhibition without attending the exhibition directly. In addition, the mapped service may be a service that provides information on a work to be displayed. Video, audio, text increase By transmitting information about the work in various ways, there is an effect that the user can provide a better service than visiting the exhibition in person.

또 다른 실시예로, 생성된 가상 공간은 복수의 사용자에 대응되는 복수의 사용자 아바타의 협업 공간일 수 있다. 이때, 매핑된 서비스는, 복수의 사용자가 협업하기 위한 자료 전송 서비스, 자료에 대한 각종 뷰어를 제공하는 뷰어 서비스, 정보를 공유하기 위한 채팅 서비스, 정보를 편집 및 수정하기 위한 문서 작업 서비스 등일 수 있다.In another embodiment, the generated virtual space may be a collaboration space of a plurality of user avatars corresponding to the plurality of users. In this case, the mapped service may be a data transmission service for cooperating a plurality of users, a viewer service providing various viewers for the material, a chat service for sharing information, a document work service for editing and modifying information, and the like. .

또 다른 실시예로, 생성된 가상 공간은 컨텐츠 제공을 위한 가상 공간일 수 있다. 이때, 매핑된 서비스는 컨텐츠를 제공 하기 위한 서비스 일 수 있다.In another embodiment, the generated virtual space may be a virtual space for providing content. In this case, the mapped service may be a service for providing content.

한편, 서비스 서버(120)는 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S340).On the other hand, if the service server 120 is requested to access the virtual space from the user terminal 110, it may provide the created virtual space to the user terminal 110 (S340).

이때, 후술하는 바와 같이, 사용자 단말(110)은 자신의 캐릭터 아바타를 생성된 가상 공간에 함께 표시할 수 있다. 또는 다른 사용자 단말에 대응되는 사용자 아바타를 생성된 가상 공간에 표시할 수 있음은 물론이다.In this case, as described below, the user terminal 110 may display its character avatar together in the generated virtual space. Alternatively, a user avatar corresponding to another user terminal may be displayed in the generated virtual space.

서비스 서버(120)는 사용자 단말(110)로부터 매핑된 서비스를 요청하는 사용자 명령이 전송되면, 서비스 서버(120)는 요청된 서비스를 사용자 단말(110)로 제공할 수 있다(3250). 이때, 상술한 다양한 서비스가 다양한 방법을 통해 제공될 수 있다.If the service server 120 transmits a user command for requesting a mapped service from the user terminal 110, the service server 120 may provide the requested service to the user terminal 110 (3250). In this case, the above-described various services may be provided through various methods.

도 4는 본 개시의 일 실시예에 따른 가상 공간을 생성하기 위한 방법을 설명하기 위한 예시도이다.4 is an exemplary diagram for describing a method for creating a virtual space according to an embodiment of the present disclosure.

서비스 서버(120)는 판매자 단말(130)로부터 2D 육면도 데이터를 수신할 수 있다(S410). 서비스 서버(120)는 수신한 2D 육면도를 3D 가상 공간으로 변환할 수 있다(S420). 일 실시예로, 서비스 서버(120)가 수신하는 가상 공간 구축을 위한 데이터는 2D 육면도일 수 있다. 서비스 서버(120)는 수신한 2D 육면도를 변환하여 3D 가상 공간을 생성할 수 있다. 이때, 2D 육면도의 각각의 면은 필요에 따라 벽지 무늬, 컨텐츠 정보, 액자 등의 요소를 포함할 수 있다. 한편, 본 개시에서는 육면도에 대해 언급하고 있으나, 가상 공간이 직육면체의 형상이 아닌 경우, 그에 맞는 다양한 2D 도면을 가상 공간 구축을 위한 데이터로 사용할 수 있음은 물론이다. 예를 들어, 3D 공간이 원뿔형인 경우, 서비스 서버(120)는 원뿔의 전개도에 대한 데이터를 수신할 수 있을 것이다.The service server 120 may receive 2D hexadecimal data from the seller terminal 130 (S410). The service server 120 may convert the received 2D hexahedron into a 3D virtual space (S420). In one embodiment, the data for building the virtual space received by the service server 120 may be a 2D hexadecimal view. The service server 120 may generate the 3D virtual space by converting the received 2D hexahedron. At this time, each surface of the 2D hexahedron may include elements such as a wallpaper pattern, content information, and a picture frame as necessary. On the other hand, although the disclosure refers to the hexahedron, if the virtual space is not the shape of a rectangular parallelepiped, various 2D drawings that can be used as data for the construction of the virtual space, of course. For example, if the 3D space is conical, the service server 120 may receive data about the development of the cone.

또 다른 실시예로, 구현되는 가상 공간은 4D의 가상 공간(예를 들어, 4차원 초입방체 등)일 수 있음은 물론이다. 서비스 서버(120)는 4D 가상 공간 구축을 위해 3D 전개도를 수신할 수 있음은 물론이다. 예를 들어, 도 5의 좌측에 도시된 바와 같이, 서비스 서버(120)는 3D 가상도의 각각의 대응되는 면을 맞붙혀 4D 공간을 생성할 수 있다. 즉, 서비스 서버(120)는 도 5의 좌측 전개도에서 동일한 숫자를 가지는 면을 맞붙혀 도 5의 우측 가상 공간을 생성할 수 있다.In another embodiment, the virtual space to be implemented may be a 4D virtual space (for example, a four-dimensional hypercube or the like). Of course, the service server 120 may receive a 3D development view for building a 4D virtual space. For example, as shown on the left side of FIG. 5, the service server 120 may create a 4D space by pasting each corresponding surface of the 3D virtual diagram. That is, the service server 120 may generate the right virtual space of FIG. 5 by pasting the surfaces having the same number in the left exploded view of FIG. 5.

서비스 서버(120)는 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S430).If the service server 120 is requested to access the virtual space from the user terminal 110, the service server 120 may provide the generated virtual space to the user terminal 110 (S430).

한편, 생성된 가상 공간은 공간 내부에 다양한 오브젝트가 배치될 수 있다. 따라서, 서비스 서버(120)가 수신하는 가상 공간 구축을 위한 데이터는 객체 오브젝트에 대한 데이터를 포함할 수 있다. 구체적으로, 서비스 서버(120)는 판매자 단말(130)로부터 객체 오브젝트 정보 및 객체 오브젝트의 위치 정보를 수신할 수 있다.Meanwhile, in the generated virtual space, various objects may be disposed in the space. Therefore, the data for building the virtual space received by the service server 120 may include data about the object object. In detail, the service server 120 may receive object object information and location information of the object object from the seller terminal 130.

서비스 서버(120)는 객체 오브젝트 정보에 대응되는 객체 오브젝트를 객체 오브젝트의 위치 정보에 대응하는 위치에 배치할 수 있다. 예를 들어, 객체 오브젝트가 옷장이고 객체 오브젝트의 위치가 안방인 경우, 서비스 서버(120)는 옷장을 가상 공간의 안방에 위치하는 장소에 배치할 수 있다. 또 다른 예로, 객체 오브젝트가 현관문이고, 객체 오브젝트의 위치가 신발장과 외부 사이인 경우, 서비스 서버(120)는 신발장과 외부 사이에 현관문을 배치할 수 있다.The service server 120 may arrange the object object corresponding to the object object information at a position corresponding to the position information of the object object. For example, if the object object is a wardrobe and the location of the object object is a room, the service server 120 may arrange the wardrobe in a place located in the inside of the virtual space. As another example, when the object object is the front door and the location of the object object is between the shoe box and the outside, the service server 120 may arrange the front door between the shoe box and the outside.

서비스 서버(120)는 사용자 단말(110)로부터 객체 오브젝트에 대한 사용자 인터랙션을 수신할 수 있다. 사용자 인터랙션은 사용자 제스쳐, 사용자 단말(110)을 통한 입력 등 다양할 수 있다.The service server 120 may receive a user interaction with respect to the object object from the user terminal 110. The user interaction may be various, such as a user gesture and an input through the user terminal 110.

이때, 객체 오브젝트에 매핑된 또 다른 가상 공간이 존재하면, 서비스 서버(120)는 매핑된 또 다른 가상 공간에 대응되는 가상 공간을 사용자 단말로 제공할 수 있다. 예를 들어, 객체 오브젝트가 옷장인 경우, 매핑된 또 다른 가상 공간은 옷장 내부를 나타내는 가상 공간일 수 있다. 또는, 객체 오브젝트가 현관문인 경우, 매핑된 또 다른 가상 공간은 외부를 나타내는 가상 공간일 수 있다.In this case, if another virtual space mapped to the object object exists, the service server 120 may provide a virtual space corresponding to the mapped another virtual space to the user terminal. For example, if the object object is a closet, another mapped virtual space may be a virtual space representing the inside of the closet. Alternatively, when the object is the front door, another mapped virtual space may be a virtual space representing the outside.

한편, 가상 공간에 배치된 객체 오브젝트는 다양한 서비스와도 매핑될 수 있음은 물론이다. 예를 들어, 객체 오브젝트가 옷장인 경우, 옷장에 매핑된 서비스는 옷장 내부의 옷의 목록을 제공하는 서비스일 수 있다. 또는, 객체 오브젝트가 현관문인 경우, 현관문에 매핑된 서비스는 가상 공간을 종료하기 위한 로그아웃 서비스 일 수 있다.On the other hand, the object object disposed in the virtual space can be mapped to various services, of course. For example, if the object object is a closet, the service mapped to the closet may be a service that provides a list of clothes in the closet. Alternatively, when the object object is the front door, the service mapped to the front door may be a logout service for ending the virtual space.

도 6은 본 개시의 일 실시예에 따른 서비스 추천 방법을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a service recommendation method according to an embodiment of the present disclosure.

서비스 서버(120)는 복수의 사용자 단말에 대응되는 복수의 캐릭터 아바타로부터 가상 공간 및 가상 공간에서 제공된 서비스에 대한 요청 정보를 획득할 수 있다(S610). 이때, 요청 정보란, 사용자 단말(110)이 판매자 단말(130)로 서비스를 요청한 모든 정보를 의미할 수 있다. The service server 120 may obtain request information for a service provided in the virtual space and the virtual space from the plurality of character avatars corresponding to the plurality of user terminals (S610). In this case, the request information may refer to all information that the user terminal 110 requests a service from the seller terminal 130.

서비스 서버(120)는 획득된 요청 정보에 대한 답변 정보를 획득할 수 있다(S620). 즉, 서비스 서버(120)는 요청 정보 및 요청 정보에 대한 답변 정보를 획득하여, 사용자가 사용한 서비스, 질문, 불만 사항 등의 분포와 관련된 정보 및 이에 대한 답변 정보를 획득할 수 있다. 나아가, 서비스 서버(120)는 제공된 답변에 대한 피드백 정보를 추가로 획득할 수 있다. 일 실시예로, 서비스 서버(120)는 제공된 답변에 대한 피드백을 사용자 단말(110)로 직접 요청할 수도 있고, 답변 후 사용자 단말(110)의 서비스 이용 빈도를 분석하여 획득할 수도 있다.The service server 120 may obtain response information to the obtained request information (S620). That is, the service server 120 may obtain the request information and the response information about the request information, and may obtain information related to the distribution of the service, question, complaint, etc. used by the user, and the response information. Furthermore, the service server 120 may further obtain feedback information on the provided answer. In one embodiment, the service server 120 may directly request feedback on the provided answer to the user terminal 110, or may obtain and analyze the frequency of service use of the user terminal 110 after the answer.

서비스 서버(120)는 획득된 요청 정보 및 답변 정보를 바탕으로 어느 하나의 사용자 단말에 대응되는 사용자 아바타에 대한 추천 서비스를 제공할 수 있다(S630). 구체적으로, 서비스 서버(120)는 추천 서비스를 제공한 사용자 단말(110)로부터 사용자 단말(110)의 사용자 정보를 획득하고, 획득된 사용자 단말(110)의 사용 정보 및 획득된 요청 정보 및 답변 정보를 바탕으로 추천 서비스를 제공할 수 있다. 즉, 서비스 서버(120)는 사용자 단말(110)의 사용자 정보를 바탕으로, 사용자가 관심 있어할만한 서비스를 제공할 수 있다.The service server 120 may provide a recommendation service for a user avatar corresponding to any one user terminal based on the obtained request information and response information (S630). In detail, the service server 120 obtains user information of the user terminal 110 from the user terminal 110 that provides the recommended service, and obtains usage information and obtained request information and response information of the user terminal 110. Based on the recommendation service can be provided. That is, the service server 120 may provide a service that may be of interest to the user based on the user information of the user terminal 110.

도 7은 본 개시의 일 실시예에 따른 복수의 사용자가 동일한 가상 공간을 사용하는 것을 설명하기 위한 예시도이다.7 is an exemplary diagram for describing a plurality of users using the same virtual space according to an embodiment of the present disclosure.

먼저, 사용자 단말(110)로부터 가상 공간으로의 접근이 요청되면, 서비스 서버(120)는 사용자 단말(110)에 생성된 가상 공간을 제공할 수 있다(S710).First, when access to the virtual space is requested from the user terminal 110, the service server 120 may provide the created virtual space to the user terminal 110 (S710).

서비스 서버(120)는 사용자 단말(110)이 온라인 모드인지 여부를 판단할 수 있다(S720). 즉, 사용자가 가상 공간만을 제공 받고 싶어하는 경우에는 가상 공간만을 제공하고, 다른 사용자와 인터랙션 하고 싶은 경우에는 다른 사용자의 사용자 아바타를 표시할 수 있으며, 서비스 서버(120)는 사용자 단말(110)이 온라인 모드인지, 오프라인 모드인지 여부에 따라 이를 판단할 수 있다.The service server 120 may determine whether the user terminal 110 is in an online mode (S720). That is, when the user wants to be provided with only the virtual space, only the virtual space may be provided, and when the user wants to interact with another user, the user avatar of the other user may be displayed, and the service server 120 may display the user terminal 110 online. This can be determined depending on whether the mode is in the offline mode.

사용자 단말(110)이 온라인 모드(S720-Y)인 경우, 서비스 서버(120)는 가상 공간에 접근하는 다른 사용자 단말이 존재하면, 다른 사용자 단말에 대응되는 사용자 아바타를 가상 공간에 표시하여 제공할 수 있다(S730)When the user terminal 110 is in the online mode (S720-Y), if there is another user terminal accessing the virtual space, the service server 120 may display and provide a user avatar corresponding to the other user terminal in the virtual space. It can be (S730)

나아가, 판매자 단말(130)가 제공하는 캐릭터 아바타가 존재하는 경우, 서비스 서버(120)는 제공된 캐릭터 아바타를 가상 공간에 표시하여 제공할 수 있다(S750).Furthermore, if there is a character avatar provided by the seller terminal 130, the service server 120 may display the provided character avatar in a virtual space and provide the generated character avatar (S750).

이때, 캐릭터 아바타는 판매자 단말(130)에서 제공된 캐릭터 아바타 또는 사용자 단말(110)에서 제공된 캐릭터 아바타일 수 있다. 캐릭터 아바타는 특정 목적에 따라 다양한 인터랙션을 출력할 수 있다.In this case, the character avatar may be a character avatar provided by the seller terminal 130 or a character avatar provided by the user terminal 110. The character avatar may output various interactions according to a specific purpose.

도 8은 본 개시의 일 실시예에 따른 캐릭터 아바타 판매를 설명하기 위한 예시도이다.8 is an exemplary view for explaining a character avatar sale according to an embodiment of the present disclosure.

서비스 서버(120)는 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 사용자 단말로부터 학습된 캐릭터 아바타의 구입 요청을 수신할 수 있다(S810).The service server 120 may receive a purchase request of a learned character avatar from at least one user terminal among a plurality of user terminals or a plurality of seller terminals (S810).

서비스 서버(120)는 구입 요청에 대응되는 단말로부터 캐릭터 아바타 판매 명령을 수신하면, 구입 요청에 대응되는 단말에게 캐릭터 아바타를 판매할 수 있다(S820).When the service server 120 receives the character avatar sale command from the terminal corresponding to the purchase request, the service server 120 may sell the character avatar to the terminal corresponding to the purchase request (S820).

상술한 다양한 방법을 통해 학습된 캐릭터 아바타는, 학습 방법 및 학습 내용에 따라 다양한 형태로 구현될 수 있다. 따라서 특정 사용자가 학습시킨 캐릭터 아바타는 특정 사용자만의 것으로서 희소성이 존재할 수 있다. 따라서, 서비스 서버(120)는 복수의 단말들에 대응되는 복수의 캐릭터 아바타를 구매하거나, 판매하기 위한 가상 공간을 제공할 수 있다.Character avatars learned through the various methods described above may be implemented in various forms according to the learning method and the learning content. Therefore, the character avatar learned by a specific user may exist only as the specific user. Accordingly, the service server 120 may provide a virtual space for purchasing or selling a plurality of character avatars corresponding to the plurality of terminals.

이때, 판매하고자 하는 캐릭터 아바타는 특정 사용자에게 개인화 되어 있으며, 따라서, 사용자의 개인 정보를 포함하고 있는 경우가 있을 수 있다. 따라서, 서비스 서버(120)는 판매될 캐릭터 아바타에 저장된 사용자의 개인 정보를 삭제하고 판매 절차를 진행할 수 있다.At this time, the character avatar to be sold is personalized to a specific user, and thus may include personal information of the user. Therefore, the service server 120 may delete the user's personal information stored in the character avatar to be sold and proceed with the selling procedure.

일 실시예로, 서비스 서버(120)는 판매자의 개인 정보를 삭제하는 것 뿐만 아니라, 판매자의 개인 정보와 관련된 학습 내용을 함께 삭제 할 수 있음은 물론이다.In an embodiment, the service server 120 may delete not only the personal information of the seller, but also the learning content related to the personal information of the seller.

도 9은 본 개시의 일 실시예에 따른 가상 공간 표시 방법을 설명하기 위한 예시도이다.9 is an exemplary view for explaining a virtual space display method according to an embodiment of the present disclosure.

서비스 서버(120)는 사용자 단말(110)로부터 사용자의 시야 정보를 수신할 수 있다(S910). 이때, 시야 정보는 사용자의 초점 거리에 대한 정보일 수 있다. 사용자 단말(110)이 사용자의 초점거리를 인식하는 방법은 제한되지 않으며, 예를 들어 사용자 단말(110)은 사용자의 초점거리를 인식하기 위하여 사용자(10)의 눈 쪽을 향하는 적어도 하나의 센서 장비를 포함할 수 있다.The service server 120 may receive the visual field information of the user from the user terminal 110 (S910). In this case, the visual field information may be information about a focal length of the user. The manner in which the user terminal 110 recognizes the focal length of the user is not limited. For example, the user terminal 110 may include at least one sensor device facing the eye of the user 10 to recognize the focal length of the user. It may include.

서비스 서버(120)는 수신된 시야 정보가 기 설정된 범위 내인지 여부를 판단할 수 있다(S920).The service server 120 may determine whether the received view information is within a preset range (S920).

기 설정된 범위 내인 경우(S920-Y), 서비스 서버(120)는 사용자 단말의 주변 영상을 사용자 단말(110)로 전송할 수 있다(S930). 즉, 서비스 서버(120)는 사용자 단말(110)로부터 수신한 초첨거리가 짧은 경우, 가상 공간이 아닌 현실 세계를 탐색하기 위한 것이라고 판단하고, 사용자 단말의 주변 영상을 사용자 단말(110)로 전송할 수 있다. 다만, 사용자 단말(110)의 주변 영상을 사용자 단말로 제공하지 않고, 제공 중인 가상 공간을 제거하는 방법으로 사용자가 현실 세계를 탐색하게 할 수도 있다. 또는, 서비스 서버(120)는 초점 거리를 바탕으로, 사용자의 초점 거리에 대응되는 영역에 대하여만 사용자 단말(110)주변의 영상을 표시하고, 나머지 영역은 가상 공간을 표시할 수 도 있다.If it is within the preset range (S920-Y), the service server 120 may transmit the surrounding image of the user terminal to the user terminal 110 (S930). That is, the service server 120 may determine that the short distance is received from the user terminal 110 to search the real world, not the virtual space, and transmit the surrounding image of the user terminal to the user terminal 110. have. However, instead of providing the surrounding image of the user terminal 110 to the user terminal, the user may allow the user to search the real world by removing the provided virtual space. Alternatively, the service server 120 may display an image around the user terminal 110 only in an area corresponding to the focal length of the user based on the focal length, and display the virtual space in the remaining areas.

한편, 서비스 서버(120)는 사용자 단말(110)의 주변 영상을 사용자 단말로 제공하기 위한 별도의 가이드 오브젝트를 가상 공간에 표시할 수 있다. 즉, 서비스 서버(120)는 가상 공간 상에 초점 거리에 따른 가이드 오브젝트를 표시하고, 사용자가 가이드 오브젝트를 응시하여 초점 거리가 기 설정된 범위 내로 변경되면, 사용자 단말(100)의 주변 영상을 제공할 수 있다. 즉, 사용자가 아무런 오브젝트 없이 초점 거리를 변화시키는 것은 상당한 노력이 필요하므로, 서비스 서버(120)는 초점 거리 조절을 위한 가이드 오브젝트를 가상 공간 상에 배치할 수 있다. Meanwhile, the service server 120 may display a separate guide object for providing the surrounding image of the user terminal 110 to the user terminal in the virtual space. That is, the service server 120 displays the guide object according to the focal length on the virtual space, and when the user gazes at the guide object and the focal length is changed within a preset range, the service server 120 may provide the surrounding image of the user terminal 100. Can be. That is, since the user needs considerable effort to change the focal length without any object, the service server 120 may place a guide object for adjusting the focal length in the virtual space.

또 다른 실시예로, 서비스 서버(120)는 복수개의 가이드 오브젝트를 가상 공간에 배치하고, 각각의 가이드 오브젝트 별로 각각의 서비스를 매핑할 수도 있음은 물론이다. 즉, 서비스 서버(120)는 사용자의 초점 거리에 따라 다양한 서비스를 제공할 수도 있다. In another embodiment, the service server 120 may arrange a plurality of guide objects in a virtual space, and may map each service for each guide object. That is, the service server 120 may provide various services according to the focal length of the user.

기 설정된 범위 내가 아닌 경우(S920-N), 서비스 서버(120)는 생성된 가상 공간을 사용자 단말(110)로 제공할 수 있다(S940).If not within the preset range (S920-N), the service server 120 may provide the created virtual space to the user terminal 110 (S940).

한편, 본 개시에 따른 가상 공간의 표시 방법 및 표시된 가상 공간을 이용하는 방법은 다양할 수 있다.Meanwhile, the method of displaying the virtual space and the method of using the displayed virtual space according to the present disclosure may vary.

일 실시 예에서, 사용자 단말(110)는 가상 공간과 주변 영상을 혼합 또는 중첩하여 표시할 수도 있고, 구간을 구분하여 표시할 수도 있으며, 상황에 따라 교차하여 표시할 수도 있고, 그 방법은 제한되지 않는다.In an embodiment, the user terminal 110 may display the virtual space and the surrounding image by mixing or overlapping them, displaying the sections separately, displaying the sections alternately depending on the situation, and the method is not limited thereto. Do not.

일 실시 예에서, 화면 간의 여백 및 화면이 표시되지 않은 영역에는 실제 주변 영상이 촬영되어 표시될 수 있다. According to an embodiment of the present disclosure, the actual surrounding image may be photographed and displayed in the margin between the screen and the region where the screen is not displayed.

일 실시 예에서, 사용자의 시선이 기 설정된 각도 이상 이동하는 경우, 사용자의 시선 내에 실제 주변 영상이 표시되고, 사용자의 시선 바깥에 가상 공간이 표시될 수 있다. 마찬가지로, 사용자의 시선이 다시 기 설정된 각도 이상 이동하는 경우, 사용자의 시선 내에 가상 공간이 표시되고, 사용자의 시선 바깥에 실제 주변 영상이 표시될 수 있다.According to an embodiment of the present disclosure, when the user's gaze moves more than a preset angle, the actual surrounding image may be displayed within the user's gaze, and the virtual space may be displayed outside the user's gaze. Similarly, when the gaze of the user moves over a preset angle, the virtual space may be displayed within the gaze of the user, and the actual surrounding image may be displayed outside the gaze of the user.

본 실시 예에서, 사용자의 시선 바깥에 실제로 영상이 표시될 수도 있으나, 사용자의 시선 바깥에 영상을 표시하는 것은 불필요하거나, 디스플레이의 한계상 불가능할 수 있으므로, 사용자의 시선 바깥에 영상을 표시한다는 것은 사용자가 시선을 해당 방향으로 돌리는 경우 해당 영상을 표시할 수 있도록 렌더링 또는 로드하여 두는 개념을 포함할 수 있다.In the present embodiment, the image may actually be displayed outside the user's line of sight, but displaying the image outside the line of sight of the user may be unnecessary or impossible due to limitations of the display. When the gaze is turned in the corresponding direction, the concept may be rendered or loaded to display the corresponding image.

일 실시 예에서, 사용자의 시선이 이동함에 따라 사용자 단말(110)가 인식하는 사용자의 시선이 이동하는 속도에 상한이 설정될 수 있다. 즉, 사용자의 시선이 기 설정된 속도 이상의 속도로 이동하는 경우, 사용자 단말(110)가 인식하는 사용자의 시선이 이동하는 속도가 이를 따라오지 못하므로, 사용자는 사용자 단말(110)가 인식하는 시선 바깥의 영상을 시청할 수 있다. 즉, 사용자는 시선의 이동이 실제 시선의 이동을 따라올 때까지, 시선의 바깥에 표시되는 실제 주변 영상을 시청할 수 있다. 따라서, 사용자는 시선을 기 설정된 상한속도 이상으로 빠르게 이동시킴으로써, 실제 주변 영상을 확인할 수 있다.According to an embodiment of the present disclosure, an upper limit may be set on the speed at which the gaze of the user recognized by the user terminal 110 moves as the gaze of the user moves. That is, when the user's eyes move at a speed higher than or equal to a preset speed, the speed at which the eyes of the user recognized by the user terminal 110 move does not follow this, so that the user is outside the gaze recognized by the user terminal 110. You can watch the video. That is, the user may watch the actual surrounding image displayed outside of the gaze until the movement of the gaze follows the movement of the gaze. Therefore, the user can check the actual surrounding image by moving the gaze faster than the preset upper limit speed.

다른 실시 예에서, 사용자 단말(110)는 주변 상황을 인식하여 가상공간 또는 실제 주변 영상의 표시를 제어할 수 있다.In another embodiment, the user terminal 110 may recognize the surrounding situation and control the display of the virtual space or the actual surrounding image.

예를 들어, 사용자 단말(110)는 사용자의 주변에 앉은 친구가 사용자를 부르는 소리가 감지되는 경우, 해당 방향에 실제 주변 영상을 표시할 수 있다. For example, the user terminal 110 may display the actual surrounding image in a corresponding direction when a sound of a friend sitting near the user calling the user is detected.

마찬가지로, 사용자 단말(110)는 다른 사람이나 객체가 사용자에게 접근하는 경우, 사용자가 외부 객체와 충돌위험이 있는 경우, 사용자가 특정 방향으로 손을 뻗는 것이 감지되는 경우 등에 있어서, 사용자 단말(110)는 해당 객체나 동작이 인식된 방향에 실제 주변 영상을 표시할 수 있다.Similarly, when the user terminal 110 approaches the user, when the user is in danger of colliding with an external object, when the user is detected that the user reaches out in a specific direction, the user terminal 110, etc. May display the actual surrounding image in the direction in which the object or motion is recognized.

일 실시 예에서, 사용자 단말(110)는 가상 공간에서 화면이 표시되지 않은 일 지점에 광고 객체를 표시할 수 있다. 다른 실시 예에서, 광고 객체는 화면과 중첩되어 표시되거나, 가상 공간내에서 화면보다 앞쪽 공간에 표시될 수도 있다. In an embodiment, the user terminal 110 may display an advertisement object at a point where a screen is not displayed in the virtual space. In another embodiment, the advertisement object may be displayed overlapping with the screen or may be displayed in a space ahead of the screen in the virtual space.

또한, 사용자 단말(110)는 가상 공간에 표시되는 화면들(310 내지 330)중 적어도 하나에 광고 영상을 표시할 수도 있다.In addition, the user terminal 110 may display an advertisement image on at least one of the screens 310 to 330 displayed in the virtual space.

일 실시 예에서, 사용자 단말(110)는 사용자의 시선방향에 광고 영상 또는 광고 객체를 표시할 수도 있다. 이 경우, 사용자가 광고 객체를 기 설정된 시간 이상 주시하거나, 광고 객체를 선택하는 등 광고 객체와 소정의 인터렉션을 함에 따라 광고 객체가 사용자의 시선방향에서 사라지도록 할 수 있으며, 이에 제한되지 않는다.In an embodiment, the user terminal 110 may display an advertisement image or an advertisement object in the user's gaze direction. In this case, as the user observes the advertisement object for a predetermined time or selects the advertisement object, the advertisement object may disappear from the user's line of sight as the user interacts with the advertisement object.

도 10는 일 실시 예에 따른 장치의 구성도이다.10 is a block diagram of an apparatus according to an embodiment.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include a connection passage (eg, a bus, etc.) that transmits and receives signals with one or more cores (not shown) and graphics processing unit (not shown) and / or other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 9와 관련하여 설명된 방법을 수행한다.The processor 102 according to one embodiment executes one or more instructions stored in the memory 104 to perform the method described in connection with FIGS. 1-9.

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. Meanwhile, the processor 102 may include random access memory (RAM) and read-only memory (ROM) for temporarily and / or permanently storing a signal (or data) processed in the processor 102. , Not shown) may be further included. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processor, a RAM, and a ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102. Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. The software module may be a random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be embodied as a program (or an application) and stored in a medium for execution in combination with a computer which is hardware. The components of the present invention may be implemented in software programming or software elements, and similarly, embodiments include C, C ++, including various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. It may be implemented in a programming or scripting language such as Java, assembler, or the like. Functional aspects may be implemented in algorithms running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may realize the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

110: 사용자 단말
120: 서비스 서버
130: 판매자 단말
110: user terminal
120: service server
130: seller terminal

Claims (10)

사용자 단말, 판매자 단말 및 서비스 서버를 포함하는 시스템에 의해 동작하는 가상 현실 공간을 이용한 전시장 플랫폼의 아바타 생성 방법에 있어서,
상기 서비스 서버는, 상기 판매자 단말로부터 수신한 데이터를 바탕으로 가상 공간을 생성하여 상기 사용자 단말로 제공하는 단계;
상기 서비스 서버는, 상기 사용자 단말 및 상기 판매자 단말 중 적어도 하나의 단말로부터 캐릭터 아바타 생성을 요청 받아 요청에 대응되는 캐릭터 아바타를 생성하는 단계;
상기 생성된 캐릭터 아바타를 상기 가상 공간에 배치하는 단계; 및
상기 캐릭터 아바타를 학습 시키기 위한 사용자 명령이 입력되면, 상기 사용자 명령을 바탕으로 상기 캐릭터 아바타를 학습시키는 단계; 를 포함하고,
상기 학습 시키는 단계는,
상기 사용자 단말 또는 상기 판매자 단말로 상기 캐릭터 아바타를 학습시키기 위한 카테고리 정보를 전송하고, 상기 전송된 카테고리 정보 중 적어도 하나에 대한 카테고리 정보를 상기 사용자 단말 또는 상기 판매자 단말로부터 수신하면, 상기 수신된 카테고리 정보를 바탕으로 상기 캐릭터 아바타를 학습시키는 단계;를 포함하고,
상기 캐릭터 아바타가 상기 사용자 단말에 의해 생성된 캐릭터 아바타인 경우
상기 아바타 생성 방법은,
상기 서비스 서버가, 상기 사용자 단말로부터 수신된 사용자의 개인 정보, 사용자의 관심 분야 정보, 사용자의 검색 히스토리 정보, 상기 사용자 단말의 상태 정보 및 상기 사용자 단말의 사용 히스토리 정보를 수신하는 단계; 및
상기 서비스 서버가, 상기 수신된 적어도 하나의 정보를 바탕으로, 상기 캐릭터 아바타를 학습시키는 단계;를 더 포함하고,
상기 아바타 생성 방법은,
상기 서비스 서버는, 복수의 사용자 단말 또는 복수의 판매자 단말 중 적어도 하나의 단말로부터 학습된 상기 사용자 단말의 캐릭터 아바타 구입 요청을 수신하는 단계;
상기 서비스 서버는, 상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 구입 요청에 대응되는 단말에 상기 캐릭터 아바타를 판매하는 단계; 를 포함하고,
상기 캐릭터 아바타를 판매하는 단계는,
상기 사용자 단말로부터 상기 캐릭터 아바타를 판매하기 위한 명령을 수신하면, 상기 캐릭터 아바타에 저장된 상기 사용자 단말의 사용자에 대한 개인 정보 및 상기 개인 정보와 관련된 학습 내용을 삭제하는 단계; 를 더 포함하고,
상기 제공하는 단계는,
상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 밖인 경우, 상기 생성된 가상 공간을 제공하고, 상기 사용자 단말로부터 전송된 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자 단말의 주변 영상을 수신하여 제공하는 단계; 를 더 포함하고,
상기 사용자 단말의 주변 영상을 수신하여 제공하는 단계는,
상기 가상 공간 상에 주변 영상을 사용자 단말로 제공하기 위한 가이드 오브젝트를 표시하는 단계;
상기 사용자가 상기 가이드 오브젝트를 응시하여 상기 사용자의 초점거리가 변경되면, 상기 사용자의 초점거리를 바탕으로 상기 사용자의 시야를 판단하는 단계; 및
상기 사용자의 초점거리에 대응되는 상기 사용자의 시야가 기 설정된 범위 내인 경우, 상기 사용자의 초점거리에 대응되는 영역에 대하여만 상기 사용자 단말 주변의 영상을 표시하고, 나머지 영역에 대하여는 상기 가상 공간을 표시하는 단계;를 포함하고,
상기 제공하는 단계는,
상기 사용자의 시선의 이동 속도를 판단하는 단계; 및
상기 이동 속도가 기 설정된 속도 이상인 경우, 주변 영상을 표시하는 단계; 를 더 포함하고,
상기 사용자 단말은, 상기 가상 공간 제공을 위하여 HMD(Head mounted Display)로 구현되는 것을 특징으로 하는 것을 특징으로 하는 아바타 생성 방법.
In the avatar generating method of the exhibition hall platform using a virtual reality space operated by a system comprising a user terminal, a seller terminal and a service server,
The service server, generating a virtual space based on the data received from the seller terminal to provide to the user terminal;
The service server generating a character avatar corresponding to the request by generating a character avatar request from at least one of the user terminal and the seller terminal;
Disposing the generated character avatar in the virtual space; And
If a user command for learning the character avatar is input, training the character avatar based on the user command; Including,
The learning step,
When the category information for learning the character avatar is transmitted to the user terminal or the seller terminal, and category information about at least one of the transmitted category information is received from the user terminal or the seller terminal, the received category information Learning the character avatar based on the;
When the character avatar is a character avatar generated by the user terminal
The avatar generation method,
Receiving, by the service server, user's personal information, user's interest field information, user's search history information, status information of the user terminal and usage history information of the user terminal received from the user terminal; And
And learning, by the service server, the character avatar based on the received at least one information.
The avatar generation method,
The service server may include receiving a character avatar purchase request of the user terminal learned from at least one of a plurality of user terminals or a plurality of seller terminals;
The service server, when receiving a command for selling the character avatar from the user terminal, selling the character avatar to a terminal corresponding to the purchase request; Including,
Selling the character avatar,
When receiving a command for selling the character avatar from the user terminal, deleting personal information about the user of the user terminal stored in the character avatar and learning contents related to the personal information; More,
The providing step,
When the field of view of the user transmitted from the user terminal is out of a preset range, the generated virtual space is provided, and when the field of view of the user transmitted from the user terminal is within a preset range, the surrounding image of the user terminal is received. Providing; More,
Receiving and providing the surrounding image of the user terminal,
Displaying a guide object for providing a peripheral image to the user terminal in the virtual space;
If the user gazes at the guide object and the focal length of the user changes, determining the user's field of view based on the focal length of the user; And
When the user's field of view corresponding to the focal length of the user is within a preset range, an image around the user terminal is displayed only in an area corresponding to the focal length of the user, and the virtual space is displayed for the remaining areas. Comprising;
The providing step,
Determining a moving speed of the user's gaze; And
Displaying a surrounding image when the moving speed is greater than or equal to a preset speed; More,
The user terminal is an avatar generation method, characterized in that implemented in the head mounted display (HMD) to provide the virtual space.
삭제delete 제1항에 있어서,
상기 캐릭터 아바타가 상기 판매자 단말에 의해 생성된 캐릭터 아바타인 경우, 상기 캐릭터 아바타는 상기 생성된 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 데이터를 학습하고,
상기 아바타 생성 방법은,
상기 서비스 서버가, 복수의 사용자 단말에 대응되는 복수의 캐릭터 아바타로부터 상기 가상 공간 및 상기 가상 공간에서 제공되는 서비스에 대한 요청 정보를 획득하는 단계;
상기 서비스 서버가, 상기 획득된 요청 정보에 대응되는 답변 정보를 획득하는 단계; 및
상기 서비스 서버가, 상기 요청 정보 및 답변 정보를 바탕으로 어느 하나의 사용자 단말에 대응되는 사용자 아바타에게 추천 서비스를 제공하는 단계; 를 포함하는 아바타 생성 방법.
The method of claim 1,
When the character avatar is a character avatar generated by the seller terminal, the character avatar learns data about the generated virtual space and services provided in the virtual space,
The avatar generation method,
Obtaining, by the service server, request information for the virtual space and a service provided in the virtual space from a plurality of character avatars corresponding to a plurality of user terminals;
Acquiring, by the service server, answer information corresponding to the obtained request information; And
Providing, by the service server, a recommendation service to a user avatar corresponding to any one user terminal based on the request information and response information; Avatar generation method comprising a.
삭제delete 제1항에 있어서,
상기 캐릭터 아바타 구입 요청 및 판매는 상기 가상 공간 내에서 제공되는 것을 특징으로 하는 아바타 생성 방법.
The method of claim 1,
The character avatar purchase request and sale are provided in the virtual space.
삭제delete 제1항에 있어서,
상기 아바타 생성 방법은,
상기 사용자 단말로부터 상기 가상 공간으로의 접근이 요청되면, 상기 가상 공간 및 상기 가상 공간에 배치된 상기 판매자 단말의 캐릭터 아바타를 상기 사용자 단말로 제공하는 단계; 및
상기 사용자 단말에 대응되는 캐릭터 아바타가 존재하면, 상기 캐릭터 아바타를 상기 가상공간에 배치하여 상기 사용자 단말로 제공하는 단계;를 포함하고,
상기 사용자 단말 이외의 다른 사용자 단말로부터 상기 서비스 서버로부터 생성된 가상 공간에 접근하기 위한 요청을 수신하면, 상기 다른 사용자 단말에 대응되는 사용자 아바타를 상기 가상 공간에 표시하여 제공하는 것을 특징으로 하는 아바타 생성 방법.
The method of claim 1,
The avatar generation method,
If the user terminal requests access to the virtual space, providing the virtual terminal and a character avatar of the seller terminal disposed in the virtual space to the user terminal; And
If the character avatar corresponding to the user terminal exists, placing the character avatar in the virtual space and providing the character avatar to the user terminal;
When receiving a request for access to the virtual space generated from the service server from a user terminal other than the user terminal, generating an avatar by displaying a user avatar corresponding to the other user terminal in the virtual space Way.
삭제delete 서비스 서버에 있어서,
하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
In the service server,
Memory for storing one or more instructions; And
A processor for executing the one or more instructions stored in the memory;
The processor executes the one or more instructions,
An apparatus for carrying out the method of claim 1.
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
A computer program, coupled with a computer, which is hardware, stored on a recording medium readable by a computer to perform the method of claim 1.
KR1020190014577A 2019-02-07 2019-02-07 Character creation and learning system for service provision in virtual reality space KR102080878B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190014577A KR102080878B1 (en) 2019-02-07 2019-02-07 Character creation and learning system for service provision in virtual reality space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190014577A KR102080878B1 (en) 2019-02-07 2019-02-07 Character creation and learning system for service provision in virtual reality space

Related Child Applications (3)

Application Number Title Priority Date Filing Date
KR1020200016678A Division KR102215736B1 (en) 2020-02-11 2020-02-11 Display method of character avatar created for service provision in virtual reality space
KR1020200016677A Division KR102215735B1 (en) 2020-02-11 2020-02-11 Character selling and purchasing device for service provision in virtual reality space
KR1020200016676A Division KR102215729B1 (en) 2020-02-11 2020-02-11 Service provision program by user avatar applied to virtual reality space

Publications (1)

Publication Number Publication Date
KR102080878B1 true KR102080878B1 (en) 2020-02-24

Family

ID=69637168

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190014577A KR102080878B1 (en) 2019-02-07 2019-02-07 Character creation and learning system for service provision in virtual reality space

Country Status (1)

Country Link
KR (1) KR102080878B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102219367B1 (en) 2020-07-01 2021-02-24 주식회사 씨몬 Method, apparatus, and system of online virtual 3d exhibition

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369640B1 (en) * 2000-03-03 2003-01-29 신유진 Exhibition system in three dimensional virtual reality space and method thereof
KR20030031685A (en) * 2001-10-15 2003-04-23 (주)에이치인포메이션 System and method for providing artificial intellect avatar linked shopping-mall and storage media for having program source thereof
KR20030069316A (en) * 2002-02-19 2003-08-27 라바테크 주식회사 Cyber Assistant Offering Method Using Virtual Character and System Thereof
JP2012008638A (en) * 2010-06-22 2012-01-12 Toyota Home Kk Sales system and computer program for the same
KR20160090198A (en) * 2015-01-21 2016-07-29 한국전자통신연구원 Exhibition guide apparatus, exhibition display apparatus, mobile terminal and method for guiding exhibition
KR101775559B1 (en) * 2017-01-06 2017-09-07 주식회사 피노텍 Virtual counseling system and method using display
KR20180107625A (en) * 2017-03-22 2018-10-02 주식회사 투윈글로벌 Virtual Contents Joint Participation Service System

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369640B1 (en) * 2000-03-03 2003-01-29 신유진 Exhibition system in three dimensional virtual reality space and method thereof
KR20030031685A (en) * 2001-10-15 2003-04-23 (주)에이치인포메이션 System and method for providing artificial intellect avatar linked shopping-mall and storage media for having program source thereof
KR20030069316A (en) * 2002-02-19 2003-08-27 라바테크 주식회사 Cyber Assistant Offering Method Using Virtual Character and System Thereof
JP2012008638A (en) * 2010-06-22 2012-01-12 Toyota Home Kk Sales system and computer program for the same
KR20160090198A (en) * 2015-01-21 2016-07-29 한국전자통신연구원 Exhibition guide apparatus, exhibition display apparatus, mobile terminal and method for guiding exhibition
KR101775559B1 (en) * 2017-01-06 2017-09-07 주식회사 피노텍 Virtual counseling system and method using display
KR20180107625A (en) * 2017-03-22 2018-10-02 주식회사 투윈글로벌 Virtual Contents Joint Participation Service System

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102219367B1 (en) 2020-07-01 2021-02-24 주식회사 씨몬 Method, apparatus, and system of online virtual 3d exhibition

Similar Documents

Publication Publication Date Title
KR102050799B1 (en) Venue platform construction system using virtual reality space
US11281709B2 (en) System and method for converting image data into a natural language description
US10586391B2 (en) Interactive virtual reality platforms
US10950020B2 (en) Real-time AR content management and intelligent data analysis system
KR102122563B1 (en) Shopping mall platform construction system using virtual reality space
US20190294255A1 (en) Unified virtual reality platform
US10984602B1 (en) Facial expression tracking during augmented and virtual reality sessions
KR102215736B1 (en) Display method of character avatar created for service provision in virtual reality space
US20190251622A1 (en) Virtual reality platform for retail environment simulation
KR102122564B1 (en) Exhibition platform construction system using virtual reality space created based on object location information
KR102122565B1 (en) Virtual reality exhibition platform building system that can be entered based on access authority
KR20190089451A (en) Electronic device for providing image related with text and operation method thereof
KR20220012285A (en) Commercial system based on light field display system
KR102215729B1 (en) Service provision program by user avatar applied to virtual reality space
KR102215735B1 (en) Character selling and purchasing device for service provision in virtual reality space
KR20220129989A (en) Avatar-based interaction service method and apparatus
CN112990043A (en) Service interaction method and device, electronic equipment and storage medium
KR102080878B1 (en) Character creation and learning system for service provision in virtual reality space
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
KR102071198B1 (en) Control method, device and system of knowledge sharing platform for managing character, programming file and programming instruction
KR102071197B1 (en) Control method, device and system of knowledge sharing platform for content management of coding education game
KR102059017B1 (en) Control method, apparatus and system for knowledge sharing platform
KR101977258B1 (en) Method for analysing feedback of virtual reality image
Horst et al. The shared view paradigm in asymmetric virtual reality setups
KR102162356B1 (en) Method for controlling of image based on biometric information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant