KR102193630B1 - Real time VR service device, method and system through avatar - Google Patents

Real time VR service device, method and system through avatar Download PDF

Info

Publication number
KR102193630B1
KR102193630B1 KR1020190083097A KR20190083097A KR102193630B1 KR 102193630 B1 KR102193630 B1 KR 102193630B1 KR 1020190083097 A KR1020190083097 A KR 1020190083097A KR 20190083097 A KR20190083097 A KR 20190083097A KR 102193630 B1 KR102193630 B1 KR 102193630B1
Authority
KR
South Korea
Prior art keywords
avatar
client
client device
management server
application management
Prior art date
Application number
KR1020190083097A
Other languages
Korean (ko)
Inventor
김성룡
Original Assignee
김성룡
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김성룡 filed Critical 김성룡
Priority to KR1020190083097A priority Critical patent/KR102193630B1/en
Priority to PCT/KR2020/008978 priority patent/WO2021006648A1/en
Priority to US17/626,028 priority patent/US11847297B2/en
Application granted granted Critical
Publication of KR102193630B1 publication Critical patent/KR102193630B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23299

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Operations Research (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The present invention relates to a method for providing a real-time VR service. The method includes: a step in which a client device registers a client profile on an application management server, wherein the client profile includes information on a VR video to be requested by the client device; a step in which avatar devices register avatar profiles on the application management server, wherein the avatar profiles include information on a VR video to be requested in relation to the avatar device; a step in which the application management server searches for an avatar profile matching the client profile in at least one piece of information by comparison between the client profile and the avatar profiles and provides a first searching result for the client device; a step in which the application management server receives the input of the client device selecting a specific avatar device in the first searching result; a step in which the application management server performs matching between the client device and the specific avatar device; and a step in which the client device receives a VR video from the matched avatar device.

Description

아바타를 통한 실시간 VR 서비스 장치, 방법 및 시스템{Real time VR service device, method and system through avatar}Real time VR service device, method and system through avatar}

본 명세서는 클라이언트가 원하는 VR(Virtual Reality) 영상을 실시간으로 전송해 줄 아바타 기기를 매칭해주고, 매칭된 아바타 기기를 통해 VR 영상을 실시간으로 제공받는 방법 및 이를 위한 장치, 방법 및 시스템을 제안한다. The present specification proposes a method of matching an avatar device that will transmit a virtual reality (VR) image desired by a client in real time and receiving a VR image in real time through the matched avatar device, and an apparatus, method, and system for the same.

최근 각 통신사마다 5G(5th Generation)를 활용한 다양한 기능과 서비스를 내놓고 있다. 그 결과, 그동안 통신 속도의 한계 때문에 이뤄지지 못했던 빅데이터 연결 등이 가능해져 전 세계 어느 곳에 있던 딜레이 없는 방송이 가능함은 물론 원격 조정 등도 가능해졌다. 더구나 세계적으로 앞다퉈 차세대 통신 기술들을 도입하고 있는 추세이며, 가상 원격 화상 회의인 텔레프레젠스(Telepresence) 등 신기술들로 시공간을 뛰어넘으려는 시도가 이어지고 있다.Recently, each telecommunications company is offering various functions and services using 5G (5th Generation). As a result, it became possible to connect to big data, which was not possible due to the limitation of communication speed, so that it is possible to broadcast without delay anywhere in the world as well as remote control. Moreover, there is a trend of introducing next-generation communication technologies worldwide, and attempts to transcend time and space with new technologies such as Telepresence, a virtual remote video conferencing, are continuing.

따라서, 업계에서는 국내 5G를 통한 통신과 360도 VR 등의 서비스는 향후 10년간 지금의 수십 배 이상 성장 가능하다고 예측하고 있으며, 더불어 생활기반 플랫폼 서비스와 여행 서비스는 지금 시장 안정화 단계에 있어 매년 그 수요와 매출이 급상승하고 있다. 최근에는 지방 자치 단체와 관공서는 물론 일반 기업들까지 VR 등을 활용한 신규 서비스와 연계한 새로운 비즈니스 사업을 발굴하려고 하는 실정이다.Therefore, the industry predicts that domestic 5G communications and services such as 360-degree VR can grow dozens of times over the next 10 years. In addition, life-based platform services and travel services are currently in the stabilization stage of the market, so they are in demand every year. And sales are soaring. In recent years, local governments and governments as well as general companies are trying to discover new business projects in connection with new services using VR.

본 명세서에서는 더욱 빨라진 통신 속도를 기반으로 클라이언트가 원하는 VR 영상을 실시간으로 제공받거나 제공해 줄 수 있는 서비스 장치, 방법 및 시스템을 제안하고자 함이 목적이다.An object of the present specification is to propose a service apparatus, method, and system capable of receiving or providing a VR image desired by a client in real time based on a faster communication speed.

본 명세서에서는 보다 현장감 있는 리얼 아바타 서비스(REAL AVATAR SERVICE; RAS)를 제공한다. 여기서 RAS는, 클라이언트가 경험하고자 하는 현장을 멀리 떨어진 아바타가 대신하여 수행/이루어주는 서비스를 일컫는다. RAS는 기본적으로 클라이언트가 자신이 경험하고자 하는 일들을 등록하고, 등록된 일을 대신하여 수행하는 리얼 아바타와 매칭/연결시켜주는 서비스를 제공하며, 매칭된 리얼 아바타는 초고속 통신 기반으로 VR 영상을 클라이언트에 실시간으로 전송하게 된다. In the present specification, a more realistic real avatar service (REAL AVATAR SERVICE; RAS) is provided. Here, RAS refers to a service performed/performed by an avatar far away from the site that the client wants to experience. RAS basically provides a service that registers the tasks that the client wants to experience and matches/connects with a real avatar that performs on behalf of the registered task, and the matched real avatar provides a VR video to the client based on high-speed communication. In real time.

본 발명의 일 실시예에 따르면, 실시간 VR 서비스 제공 방법에 있어서, 클라이언트 기기가 어플리케이션 관리 서버에 클라이언트 프로필을 등록하는 단계로서, 상기 클라이언트 프로필에는 상기 클라이언트 기기가 의뢰하고자 하는 VR 영상에 관한 정보가 포함됨; 복수의 아바타 기기들이 상기 어플리케이션 관리 서버에 아바타 프로필들을 등록하는 단계로서, 상기 아바타 프로필들에는 상기 아바타 기기가 의뢰받고자 하는 VR 영상에 관한 정보가 포함됨; 상기 어플리케이션 관리 서버가 상기 클라이언트 프로필과 상기 아바타 프로필들을 상호 비교하여 상기 클라이언트 프로필과 적어도 하나의 정보가 매칭되는 아바타 프로필을 서칭하고, 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계; 상기 어플리케이션 관리 서버가 상기 제1 서칭 결과 내에서 특정 아바타 기기를 선택하는 상기 클라이언트 기기의 입력을 수신하는 단계; 상기 어플리케이션 관리 서버가 상기 클라이언트 기기와 상기 특정 아바타 기기를 상호 매칭시키는 단계; 및 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 VR 영상을 수신하는 단계; 를 포함할 수 있다. According to an embodiment of the present invention, in a method for providing a real-time VR service, the step of registering a client profile in an application management server by a client device, wherein the client profile includes information on a VR image that the client device wants to request. ; Registering avatar profiles in the application management server by a plurality of avatar devices, wherein the avatar profiles include information on a VR image requested by the avatar device; Searching, by the application management server, an avatar profile matching the client profile and at least one piece of information by comparing the client profile with the avatar profiles, and providing a first search result to the client device; Receiving, by the application management server, an input of the client device for selecting a specific avatar device from within the first search result; Matching, by the application management server, the client device and the specific avatar device; And receiving, by the client device, a VR image from the matched avatar device. It may include.

또한, 상기 VR 영상에 관한 정보로서, 상기 클라이언트 프로필은, 의뢰하고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및/또는 촬영 의뢰 비용에 관한 정보를 포함하고, 상기 아바타 프로필은, 의뢰받고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및/또는 촬영 의뢰 비용에 관한 정보를 포함할 수 있다.In addition, as information about the VR image, the client profile includes information on a shooting location, a shooting time, a language used, and/or a shooting request cost of the VR image to be requested, and the avatar profile is to be requested. It may include information on the shooting location of the VR image, the shooting time, the language used, and/or the shooting request cost.

또한, 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 상기 VR 영상을 수신하는 단계는, 상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 촬영 시간 및 촬영 위치에서 촬영된 VR 영상을 상기 아바타 기기로부터 수신하는 단계; 를 포함할 수 있다.In addition, the step of receiving, by the client device, the VR image from the matched avatar device may include: receiving, from the avatar device, a VR image captured at a shooting time and a shooting location registered in the client profile by the client device; It may include.

또한, 상기 VR 영상은, 상기 아바타 기기로부터 실시간으로 상기 클라이언트 기기로 전송되거나, 상기 아바타 기기 또는 상기 어플리케이션 관리 서버에 저장된 뒤 기설정된 시간 후에 상기 클라이언트 기기로 전송될 수 있다.In addition, the VR image may be transmitted from the avatar device to the client device in real time, or stored in the avatar device or the application management server and then transmitted to the client device after a preset time.

또한, 상기 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계는, 상기 제1 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션관리 서버는, 상기 복수의 아바타 기기들 중 상기 클라이언트 기기와 프로필 정보 매칭 정도가 높은 아바타 기기일수록 상위에 랭크하여 상기 클라이언트에 제공하는 단계; 를 포함할 수 있다.In addition, the providing of the first search result to the client device may include, when a plurality of avatar devices are included in the first search result, the application management server includes the client device and a profile among the plurality of avatar devices. Providing an avatar device with a higher information matching degree to a higher rank and providing it to the client; It may include.

또한, 상기 VR 영상을 수신하는 단계는, 상기 어플리케이션 관리 서버가 상기 클라이언트 기기 및 상기 매칭된 아바타 기기간의 실시간 음성 채팅 또는 문자 채팅 기능을 제공하는 단계; 를 포함할 수 있다.In addition, the receiving of the VR image may include providing, by the application management server, a real-time voice chat or text chat function between the client device and the matched avatar device; It may include.

또한, 상기 실시간 음성 채팅 또는 문자 채팅 기능을 제공하는 단계는, 상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 사용 언어와, 상기 매칭된 아바타 기기가 상기 아바타 프로필에 등록한 사용 언어가 다른 경우, 상기 어플리케이션 관리 서버가 각 기기의 사용 언어에 맞게 자동 번역하여 상기 음성 채팅 또는 상기 문자 채팅 기능을 제공하는 단계일 수 있다.In addition, the providing of the real-time voice chat or text chat function may include, when a language registered by the client device in the client profile and a language used by the matched avatar device registered in the avatar profile are different, the application management server A may be a step of providing the voice chat or text chat function by automatically translating according to the language used of each device.

또한, 상기 실시간 VR 서비스 제공 방법은, 상기 클라이언트 기기가 현재 의뢰하고 싶은 VR 영상의 촬영 위치를 검색하는 단계; 및 상기 촬영 위치에 위치한 아바타 기기를 서칭한 제2 서칭 결과를 상기 클라이언트 기기에 제공하는 단계; 를 더 포함할 수 있다.In addition, the method for providing a real-time VR service includes: searching for a photographing location of a VR image that the client device currently requests; And providing a second search result of searching for an avatar device located at the photographing location to the client device. It may further include.

또한, 상기 제2 서칭 결과는, 상기 촬영 위치로부터 기설정된 거리 내에 위치한 적어도 하나의 아바타 기기 정보, 상기 적어도 하나의 아바타 기기의 현재 위치 정보 및/또는 상기 적어도 하나의 아바타 기기의 아바타 프로필 정보를 포함할 수 있다.In addition, the second search result includes information on at least one avatar device located within a preset distance from the shooting location, information on the current location of the at least one avatar device, and/or information on the avatar profile of the at least one avatar device. can do.

또한, 상기 실시간 VR 서비스 제공 방법은, 상기 제2 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션 관리 서버가 상기 클라이언트 기기로부터 상기 복수의 아바타 기기들 중 특정 아바타 기기를 선택하는 선택 입력을 수신하고, 상기 선택된 특정 아바타 기기와 상기 클라이언트 기기를 매칭시키는 단계; 및 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 VR 영상을 수신하는 단계; 를 더 포함할 수 있다.In the real-time VR service providing method, when a plurality of avatar devices are included in the second search result, the application management server receives a selection input from the client device to select a specific avatar device from among the plurality of avatar devices. Receiving and matching the selected specific avatar device with the client device; And receiving, by the client device, a VR image from the matched avatar device. It may further include.

본 발명의 일 실시예에 따르면, 클라이언트는 자신이 직접 가지 않더라도 자신이 경험하고자 하는 특정 지역(특히, 원거리)에 있는 경치, 사물, 전시품 등과 같은 다양한 환경을 보다 현장감 있게 VR 영상을 통해 간접 체험할 수 있다는 효과를 갖는다.According to an embodiment of the present invention, even if the client does not go directly, the client can experience indirectly through VR images in a more realistic way of various environments such as scenery, objects, exhibits, etc. in a specific area (particularly, a distance) that the client wants to experience. It has the effect of being able to.

또한, 본 발명의 일 실시예에 따르면, 클라이언트는 아바타와 실시간으로 통신이 가능하므로, 클라이언트가 보다 적극적이고 유연하게 자신이 원하는 경험을 아바타를 통해 체험할 수 있다는 효과를 갖는다. In addition, according to an embodiment of the present invention, since the client can communicate with the avatar in real time, the client can more actively and flexibly experience a desired experience through the avatar.

또한, 본 발명의 일 실시예에 따르면, VR 여행/체험과 같은 기존에 없던 새로운 VR 서비스의 도출이 가능하므로, 새로운 직업 창출 등과 같은 경제적 효과가 발생한다.In addition, according to an embodiment of the present invention, since it is possible to derive new VR services such as VR travel/experience, which does not exist, economic effects such as creation of new jobs are generated.

도 1은 본 발명의 일 실시예에 따른 리얼 아바타를 통한 실시간 VR 서비스 방법을 예시한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템을 예시한 블록도이다.
도 3 및 4는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템이 구현된 실시예를 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 위치 기반 실시간 VR 영상 제공 시스템을 예시한 도면이다.
1 is a flow chart illustrating a real-time VR service method through a real avatar according to an embodiment of the present invention.
2 is a block diagram illustrating a real-time VR service system according to an embodiment of the present invention.
3 and 4 are diagrams illustrating an embodiment in which a real-time VR service system according to an embodiment of the present invention is implemented.
5 is a diagram illustrating a location-based real-time VR image providing system according to an embodiment of the present invention.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technology to be described below may be modified in various ways and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology to be described below with respect to a specific embodiment, and it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as 1st, 2nd, A, B, etc. may be used to describe various components, but the components are not limited by the above terms, only for the purpose of distinguishing one component from other components. Is only used. For example, without departing from the scope of the rights of the technology described below, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of the terms used in the present specification, expressions in the singular should be understood as including plural expressions unless clearly interpreted differently in context, and terms such as "includes" are specified features, numbers, steps, actions, and components. It is to be understood that the presence or addition of one or more other features or numbers, step-acting components, parts or combinations thereof is not meant to imply the presence of, parts, or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to the detailed description of the drawings, it is intended to clarify that the division of the constituent parts in the present specification is merely divided by the main function that each constituent part is responsible for. That is, two or more constituent parts to be described below may be combined into one constituent part, or one constituent part may be divided into two or more according to more subdivided functions. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to its own main function, and some of the main functions of each constituent unit are different. It goes without saying that it may be performed exclusively by.

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or operation method, each of the processes constituting the method may occur differently from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as the specified order, may be performed substantially simultaneously, or may be performed in the reverse order.

본 명세서는 기본적으로 리얼 아바타/동행/조언 서비스(REAL AVATAR/ACCOMPANY/ADVICE SERVICE; RAS) 시스템을 제안한다. RAS는 아바타가 클라이언트를 대신하여 클라이언트가 경험하고자 하는 일들을 수행/체험하며, 타인과 동행하는 서비스를 일컫는다. 본 서비스는 다양한 사람들이 서로 소통하는 플랫폼을 지향하며, 이에 따라 본 서비스를 통해 다양한 영상 정보물들이 공유되고 소통될 수 있다. 본 발명에 따를 때, 5G와 같은 초고속 통신 서비스를 활용한 실시간 VR과 위치기반 서비스를 활용해 클라이언트가 경험하고자 하는 것(예를 들어, 원거리 여행지로의 여행, 전시회 관람, 해외 콘서트 관람, 수업 참석 등)을 의뢰하면, 아바타가 클라이언트를 대신하여 이를 경험하고, 경험 상황을 VR 영상으로 실시간 방송/전송해줄 수 있다. 이는, 텔레익지스턴스(Teleexistence)라는 기술 분야로도 불리며, VR 기기 및 초고속 이동 통신과 결합되어 새로운 서비스 상품의 창출이 가능하다. 이렇게 창출된 서비스 상품을 통해 클라이언트는 원격지에 있는 사물 또는 사람이 마치 근처에 있는 것 같은 현장감을 느낄 수 있으며, 아바타와의 실시간 통신/커뮤니케이션을 통해 직접적으로 체험 환경을 구축할 수 있다. This specification basically proposes a real avatar/accompaniment/advice service (REAL AVATAR/ACCOMPANY/ADVICE SERVICE; RAS) system. RAS refers to a service in which the avatar performs/experiences the tasks the client wants to experience on behalf of the client, and accompanies others. This service aims to be a platform through which various people can communicate with each other, and accordingly, various video information can be shared and communicated through this service. In accordance with the present invention, what the client wants to experience using real-time VR and location-based services using high-speed communication services such as 5G (e.g., travel to a distant destination, visit an exhibition, visit an overseas concert, attend a class Etc.), the avatar can experience this on behalf of the client and broadcast/transmit the experience situation in real time as a VR image. This is also referred to as a technical field called teleexistence, and it is possible to create new service products by combining with VR devices and high-speed mobile communication. Through the service product created in this way, the client can feel the presence of a remote object or person as if they are nearby, and can directly build an experience environment through real-time communication/communication with an avatar.

예를 들어, 투병 생활 중이나 킬리만자로에 오르는 것이 소원인 아이, 베트남에 있으나 한국에서 열리는 특정 가수 공연에 가고 싶어 하는 아이, 죽기 전 북한에 있는 자신의 고향을 보고 싶어하는 90세 할아버지, 영등포 타임스퀘어에서 열리고 있는 할인 쇼핑 행사에서 직접 눈으로 보고 상품을 구입하고 싶으나 육아로 방문할 시간이 부족한 주부, 출장 중이나 딸의 기념 행사에 참석하고 싶어하는 아빠 등과 같이 자신이 직접 경험하고 싶으나 시간적/공간적/현실적 한계로 불가능한 경우가 있을 수 있다. 이와 같은 한계를 갖는 이들이 클라이언트가 되어 직접 경험하고자 하는 일들을 본 서비스 시스템을 통해 직접 의뢰할 수 있으며, 본 서비스 시스템은 해당 의뢰를 수행할 아바타와 클라이언트를 매칭시켜줄 수 있다. 매칭된 아바타는 클라이언트가 의뢰한 일들을 대신 수행함으로써 클라이언트를 만족시킬 수 있으며, 클라이언트는 이에 대한 일정 비용을 아바타에 지불할 수 있다. For example, a child who is struggling with illness or wishes to climb Kilimanjaro, a child in Vietnam but wants to go to a certain singer performance in South Korea, a 90-year-old grandfather who wants to see his hometown in North Korea before he dies, and is held at Times Square in Yeongdeungpo. At a discount shopping event, a housewife who wants to see and purchase products with their own eyes but does not have time to visit for child care, a father who wants to attend a business trip or a commemorative event for her daughter, etc. There may be cases. Those with such limitations can become clients and directly request things they want to experience directly through the service system, and the service system can match an avatar to perform the request with a client. The matched avatar can satisfy the client by performing tasks requested by the client instead, and the client can pay a certain cost to the avatar.

이러한 본 서비스 시스템의 구현 방법 및 다양한 실시예는 이하에서 각 도면을 참조하여 이하에서 구체적으로 후술한다.The implementation method and various embodiments of the present service system will be described later in detail with reference to each drawing.

도 1은 본 발명의 일 실시예에 따른 리얼 아바타를 통한 실시간 VR 서비스 방법을 간략히 예시한 순서도이다. 본 순서도에서 각 단계의 순서는 변경될 수 있으며, 적어도 하나의 단계가 새롭게 부가되거나 삭제될 수 있다. 또한, 본 순서도에서 클라이언트 기기는 VR 영상을 의뢰한 클라이언트의 기기를 의미하며, 아바타 기기는 의뢰받은 VR 영상을 클라이언트 기기에 실시간으로 제공/전송하는 아바타의 기기를 의미한다. 본 명세서의 실시간 VR 서비스는 특정 어플리케이션을 통해 구현될 수 있으며, 본 명세서의 클라이언트 기기 및 아바타 기기는 이러한 특정 어플리케이션/프로그램(이하, 어플리케이션으로 통칭)이 설치된 전자 기기에 해당할 수 있다. 1 is a flowchart briefly illustrating a real-time VR service method through a real avatar according to an embodiment of the present invention. In this flowchart, the order of each step may be changed, and at least one step may be newly added or deleted. In addition, in this flow chart, the client device refers to a device of a client requesting a VR image, and the avatar device refers to a device of an avatar that provides/transmits the requested VR image to the client device in real time. The real-time VR service of the present specification may be implemented through a specific application, and the client device and the avatar device of the present specification may correspond to electronic devices in which such a specific application/program (hereinafter, collectively referred to as an application) is installed.

도 1을 참조하면, 우선, 클라이언트 기기(101) 및/또는 아바타 기기(102)는 프로필을 등록할 수 있다(S101). 여기서, 프로필은 아바타 매칭/연결을 위해 요구되는 기본적인 정보로서, 클라이언트의 경우 의뢰하고자 하는 VR 영상의 컨텐츠 종류, 촬영 위치, 촬영 시간, 촬영 의뢰 비용, 관심사, 하고 싶은 일, 해야 할 일, 일정 및/또는 사용 언어 등의 정보를 포함할 수 있으며, 아바타의 경우 의뢰받고자 하는 VR 영상의 컨텐츠 종류, 촬영 위치, 촬영 시간, 촬영 의뢰 비용, 관심사, 하고 싶은 일, 해야 할 일, 일정 및/또는 사용 언어 등의 정보 등을 포함할 수 있다. 이러한 프로필은 실시간 VR 서비스를 관리/운용하는 어플리케이션 관리 서버(103)에 등록될 수 있다. 이렇게 등록된 프로필은 공개 여부 설정이 가능하며, 공개를 설정한 경우 어플리케이션을 통해 타인에게 공개될 수 있다. Referring to FIG. 1, first, the client device 101 and/or the avatar device 102 may register a profile (S101). Here, the profile is basic information required for avatar matching/connection. In the case of a client, the content type of the VR video to be requested, the shooting location, the shooting time, the shooting request cost, the interests, the work to do, the to-do, the schedule, and / Or it may include information such as the language used, and in the case of an avatar, the content type of the VR video to be requested, the shooting location, the shooting time, the shooting request cost, interests, what to do, what to do, the schedule and/or use Information such as language may be included. Such a profile may be registered in the application management server 103 that manages/operates a real-time VR service. The registered profile can be set to be disclosed or not, and if it is set to be disclosed, it can be disclosed to others through an application.

다음으로, 등록된 프로필을 기반으로 클라이언트 기기(101) 및 아바타 기기(102)간 매칭이 수행될 수 있다(S102). 예를 들어, 어플리케이션 관리 서버(103)는 클라이언트 기기(101)가 등록한 프로필(예를 들어, 장소/시간/해야 할 일/하고 싶은 일)과 아바타 기기(102)가 등록한 프로필(예를 들어, 장소/시간/해야 할 일/하고 싶은 일)을 상호 비교하여 서로 매칭 정도가 높은 기기들을 매칭/연결시킬 수 있다(S103). 이때, 매칭되는 조건/카테고리별로 매칭 정도가 다르게 평가될 수 있다(즉, 매칭되는 조건/카테고리 별로 우선 순위가 상이). 예를 들어, 어플리케이션 관리 서버(103)는 클라이언트 기기와 아바타 기기 매칭 시, 클라이언트 기기 프로필의 하고 싶은 일(또는 해야 할 일)과 아바타 기기 프로필의 해야 할 일(또는 하고 싶은 일)간 매칭 여부를 판단할 수 있으며, 매칭 시 매칭 정도가 가장 높은 걸로 평가할 수 있다. Next, matching may be performed between the client device 101 and the avatar device 102 based on the registered profile (S102). For example, the application management server 103 has a profile registered by the client device 101 (eg, place/time/to do/wanted to do) and a profile registered by the avatar device 102 (eg, Place/time/to do/want to do) may be compared with each other to match/connect devices with high matching degree to each other (S103). In this case, the degree of matching may be evaluated differently for each matched condition/category (ie, priority is different for each matched condition/category). For example, when matching the client device and the avatar device, the application management server 103 determines whether to match the to-do (or to-do) of the client device profile and the to-do (or to-do) of the avatar device profile. It can be judged, and when matching, it can be evaluated as having the highest matching degree.

이때, 어플리케이션 관리 서버(103)는 복수의 아바타 기기(102)를 매칭/연결 후보군으로서 클라이언트 기기(101)에 제공할 수 있으며, 매칭되는 조건이 많은(또는 매칭 정도가 높은) 아바타 기기(102)일수록 상위에 랭크되어 간단한 프로필 요약 정보와 함께 클라이언트 기기(101)에 제공될 수 있다. 클라이언트는 제공된 프로필 요약 정보를 바탕으로 복수의 아바타 기기(102)들 중 매칭/연결하고자 하는 아바타 기기(102)를 선택함으로써 매칭/연결이 성사/완료될 수 있다. In this case, the application management server 103 may provide the plurality of avatar devices 102 as matching/connection candidate groups to the client device 101, and the avatar device 102 having many matching conditions (or high matching degree) The higher the rank, the higher the rank and may be provided to the client device 101 together with simple profile summary information. The client selects the avatar device 102 to be matched/connected from among the plurality of avatar devices 102 based on the provided profile summary information, so that the matching/connection may be established/completed.

마지막으로, 이렇게 서로 매칭된 클라이언트 기기(101)와 아바타 기기(102)는 미리 약속한 체험 시간에 서로 연결될 수 있으며, 클라이언트 기기(101)는 아바타 기기(102)로부터 실시간으로 의뢰한 VR 영상을 제공받게 된다(S103). 이를 위해, 어플리케이션 관리 서버(103)는 체험 시간을 상호 협의하는 기능을 어플리케이션을 통해 양 기기에 제공할 수 있으며, VR 영상의 실시간 촬영/표시/방송 기능 역시 해당 어플리케이션을 통해 양 기기에 제공할 수 있다. Finally, the client device 101 and the avatar device 102 matched with each other may be connected to each other at a predetermined experience time, and the client device 101 provides a VR image requested in real time from the avatar device 102. It is received (S103). To this end, the application management server 103 may provide a function of mutually negotiating the experience time to both devices through an application, and a real-time shooting/display/broadcasting function of a VR image may also be provided to both devices through the application. have.

또한, 본 순서도에는 도시하지 않았으나, S103 단계에서 역으로 클라이언트 기기(101)에서 촬영된 영상이 매칭된 아바타 기기(102)로 전송되는 실시예도 존재할 수 있다. 이러한 실시예를 통해, 시각 장애인과의 동행 서비스, 여성 안심 귀갓길 동행 서비스 등과 같은 동행 서비스가 도출될 수 있다. In addition, although not shown in the flowchart, there may be an embodiment in which the image captured by the client device 101 is transmitted to the matched avatar device 102 in step S103. Through this embodiment, a companion service such as a companion service with a visually impaired person and a female safe return home companion service may be derived.

예를 들어, 시각 장애인인 클라이언트가 클라이언트 기기(101)를 통해 자신의 프로필을 등록할 수 있으며, 이때 프로필의 하고 싶은 일로서 ‘동행/여행’을 등록할 수 있다. 어플리케이션 관리 서버(103)는 클라이언트 기기(101)의 프로필을 기반으로 특정 아바타 기기(102)와 매칭을 수행할 수 있다(즉, S101~S102 단계 수행). 매칭된 아바타 기기(102)는 클라이언트 기기(101)가 촬영한 영상을 실시간으로 제공받음과 동시에 클라이언트 기기(101)와의 실시간 대화/채팅 기능을 제공받을 수 있다. 이를 통해, 아바타는 클라이언트가 함께 여행/동행하는 느낌을 받을 수 있다. 특히, 아바타는 클라이언트의 시점에서 촬영된 영상을 실시간으로 공유 받으면서 실시간 채팅 기능을 통해 동행길/여행길에 클라이언트에 위협이 될만한 위험/장애물은 없는지 등에 대해 알려줄 수 있으며, 이외에도 여행지에 관한 다양한 정보도 클라이언트에게 제공할 수 있다. For example, a visually impaired client may register his or her own profile through the client device 101, and at this time, he or she may register “accompaniment/travel” as a desired task in the profile. The application management server 103 may perform matching with a specific avatar device 102 based on the profile of the client device 101 (ie, performing steps S101 to S102). The matched avatar device 102 may receive an image captured by the client device 101 in real time and at the same time receive a real-time chat/chat function with the client device 101. Through this, the avatar can feel the client traveling/accompaniing. In particular, the avatar can inform you of dangers/obstacles that may threaten the client on the road/trip through a real-time chat function while receiving the video taken from the client's perspective in real time.In addition, various information about the destination is also available. Can be provided to clients.

이와 유사하게, 예를 들어, 늦은 시각 귀가하는 여성 클라이언트가 클라이언트 기기(101)를 통해 자신의 프로필을 등록할 수 있으며, 이때 프로필의 해야 할 일(또는 하고 싶은 일)로서 ‘늦은 귀가’를 등록할 수 있다. 어플리케이션 관리 서버(103)는 클라이언트 기기(101)의 프로필을 기반으로 특정 아바타 기기(102)와 매칭을 수행할 수 있다(즉, S101~S102 단계 수행). 매칭된 아바타 기기(102)는 클라이언트 기기(101)가 촬영한 영상을 실시간으로 제공받음과 동시에 클라이언트 기기(101)와의 실시간 대화/채팅 기능을 제공받을 수 있다. 이를 통해, 아바타는 클라이언트가 함께 귀가하는 느낌을 받을 수 있다. 특히, 아바타는 클라이언트의 시점에서 촬영된 영상을 실시간으로 공유 받으면서 실시간 채팅 기능을 통해 귀갓길에 클라이언트에 위협이 될만한 위험/사람은 없는지 등에 대해 알려줄 수 있으며, 이외에도 귀갓길에 관한 길/교통 정보 등에 대해서도 클라이언트에 제공할 수 있다. Similarly, for example, a female client returning home late at a time can register her profile through the client device 101, and at this time, register'late homecoming' as a to-do (or want to do) in the profile. can do. The application management server 103 may perform matching with a specific avatar device 102 based on the profile of the client device 101 (ie, performing steps S101 to S102). The matched avatar device 102 may receive an image captured by the client device 101 in real time and at the same time receive a real-time chat/chat function with the client device 101. Through this, the avatar can feel the client return home together. In particular, the avatar can inform the client of whether there are any dangers/persons that may threaten the client through a real-time chat function while receiving the video taken from the client's perspective in real time. Can be provided.

도 2는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템을 예시한 블록도이다.2 is a block diagram illustrating a real-time VR service system according to an embodiment of the present invention.

도 2를 참조하면, 실시간 VR 서비스 시스템은 클라이언트 기기(101), 아바타 기기(102) 및 어플리케이션 관리 서버(103)를 포함할 수 있다. 어플리케이션 관리 서버(103)는 전체 실시간 VR 서비스 시스템을 관리/총괄/운용하는 기기/서버에 해당할 수 있으며, 클라이언트 기기(101) 및 아바타 기기(102)와 통신을 수행하고 이들을 관리/제어할 수 있다. 어플리케이션 관리 서버(103), 클라이언트 기기(101) 및 아바타 기기(102)는 본 명세서에서 기술하는 다양한 기능/방법을 수행하기 위한 적어도 하나의 구성/유닛을 포함할 수 있다.Referring to FIG. 2, a real-time VR service system may include a client device 101, an avatar device 102, and an application management server 103. The application management server 103 may correspond to a device/server that manages/generates/operates the entire real-time VR service system, and communicates with the client device 101 and the avatar device 102 and manages/controls them. have. The application management server 103, the client device 101, and the avatar device 102 may include at least one component/unit for performing various functions/methods described herein.

예를 들어, 어플리케이션 관리 서버(103)/클라이언트 기기(101)/아바타 기기(102)는 프로세서(201), 메모리 유닛(202), VR 디스플레이 유닛(203), 통신 유닛(204), 및/또는 광각 카메라 유닛(205)을 포함할 수 있다. 이하에서는 각 구성/유닛에 대해 설명하며, 이하의 설명은 어플리케이션 관리 서버(103), 클라이언트 기기(101) 및 아바타 기기(102)에 공통적으로 적용될 수 있다.For example, the application management server 103/client device 101/avatar device 102 is a processor 201, a memory unit 202, a VR display unit 203, a communication unit 204, and/or It may include a wide-angle camera unit 205. Hereinafter, each component/unit will be described, and the following description may be commonly applied to the application management server 103, the client device 101, and the avatar device 102.

프로세서(201)는, 본 명세서에서 제안된 기능, 과정 및/또는 방법을 구현할 수 있으며, 각 기기에 포함된 적어도 하나의 다른 유닛/구성과 통신을 수행할 수 있다. 따라서, 프로세서(201)는 각 기기와 동일시되어 설명될 수 있다. The processor 201 may implement the functions, processes and/or methods proposed in the present specification, and may perform communication with at least one other unit/configuration included in each device. Accordingly, the processor 201 may be described by being identified with each device.

메모리 유닛(202)은 다양한 정보/데이터/프로그램/어플리케이션/영상/이미지을 저장할 수 있다. 메모리 유닛(202)은 저장한 정보/데이터/영상/이미지를 프로세서(202)로 전송하거나 프로세서(201)로부터 수신할 수 있다. 또한, 메모리 유닛(202)에 저장된 프로그램/어플리케이션은 프로세서(202)에 의해 실행/수행될 수 있다. 특히, 본 발명에 따른 메모리 유닛(202)은 실시간 VR 서비스 시스템을 구현하기 위해 디자인된 어플리케이션을 저장할 수 있으며, 프로세서(201)에 의해 해당 어플리케이션이 실행될 수 있다. 메모리 유닛(202)은 프로세서(201) 내부 또는 외부에 있을 수 있다.The memory unit 202 may store various types of information/data/programs/applications/images/images. The memory unit 202 may transmit the stored information/data/image/image to the processor 202 or may receive it from the processor 201. Also, a program/application stored in the memory unit 202 may be executed/executed by the processor 202. In particular, the memory unit 202 according to the present invention may store an application designed to implement a real-time VR service system, and the application may be executed by the processor 201. The memory unit 202 may be inside or outside the processor 201.

VR 디스플레이 유닛(203)은 이미지/영상/화면을 출력/디스플레이할 수 있다. 예를 들어, VR 디스플레이 유닛(203)은 HMD(Head Mounted Display)에 해당할 수 있다. 또한, VR 디스플레이 유닛(203)은 적어도 하나의 터치/압력/근접/모션/카메라 센서를 포함하여 사용자의 터치 입력을 센싱할 수 있으며, VR 디스플레이 유닛(203)이 HMD인 경우 사용자 입력으로서 적어도 하나의 방향/자이로/각도/가속도 센서를 구비하여 사용자의 헤드/시선 방향/각도를 센싱할 수 있다. 사용자의 시선 추적/센싱 시, 현재 5G(5th Generation) 망의 미약으로 사용자가 보는 곳만 선명하게 보이고 나머지는 흐릿하게 처리하는 시선 추적 기술이 사용될 수 있으며, 로우 데이터를 사용하여 일반 4G LTE(Long-Term Evolution) 망에서도 시선 추적/센싱이 가능하다.The VR display unit 203 may output/display an image/video/screen. For example, the VR display unit 203 may correspond to a Head Mounted Display (HMD). In addition, the VR display unit 203 may include at least one touch/pressure/proximity/motion/camera sensor to sense a user's touch input. When the VR display unit 203 is an HMD, at least one It is equipped with a direction / gyro / angle / acceleration sensor of the user's head / gaze direction / angle can be sensed. When tracking/sensing the user's gaze, gaze tracking technology that only shows the user's view clearly and blurs the rest due to the weakness of the current 5G (5th Generation) network can be used. In Term Evolution) network, gaze tracking/sensing is possible.

VR 디스플레이 유닛(203)은 센싱한 결과를 프로세서로 전송할 수 있다. 특히, 본 명세서의 VR 디스플레이 유닛(203)은 통신 유닛(204)을 통해 실시간으로 전송받은 다양한 VR 이미지/영상/화면을 실시간으로 디스플레이할 수 있다.The VR display unit 203 may transmit the sensing result to the processor. In particular, the VR display unit 203 of the present specification may display various VR images/videos/screens transmitted in real time through the communication unit 204 in real time.

통신 유닛(204)은 프로세서(201)와 연결되어, 내부/외부 기기/서버와 유/무선 신호를 송신 및/또는 수신할 수 있다. The communication unit 204 is connected to the processor 201 and may transmit and/or receive an internal/external device/server and a wired/wireless signal.

광각 카메라 유닛(205)은 적어도 하나의 (광각) 카메라 센서(예를 들어, 360도 카메라 (센서))를 이용하여 이미지/영상/화면을 입력/획득/인식/센싱할 수 있다. 특히, 본 발명에 따른 광각 카메라 유닛(205)의 경우, 광각의 이미지/영상/화면을 실시간으로 촬영/획득/인식/센싱할 수 있으며, 이렇게 촬영/획득/인식/센싱된 영상은 VR 영상으로서 통신 유닛(204)을 통해 클라이언트 기기(101)로 실시간으로 전송될 수 있다. 다만, 본 명세서에서 광각 카메라 유닛은 앞서 예시한 360도 카메라에 한정되는 것은 아니며, 360도 미만의 촬영각을 갖는 카메라 유닛을 모두 의미/포함한다. 따라서, 360도 카메라를 소유하지 않은 일반인도 아바타가 될 수 있으며, 이때 클라이언트 기기에 제공되는 영상은 일반 2D 영상일 수 있다. The wide-angle camera unit 205 may input/acquire/recognize/sens an image/video/screen using at least one (wide-angle) camera sensor (eg, a 360-degree camera (sensor)). In particular, in the case of the wide-angle camera unit 205 according to the present invention, a wide-angle image/video/screen can be photographed/acquired/recognized/sensed in real time, and the photographed/acquired/recognized/sensed image is a VR image. It can be transmitted in real time to the client device 101 through the communication unit 204. However, in the present specification, the wide-angle camera unit is not limited to the 360-degree camera exemplified above, and all camera units having a photographing angle of less than 360 degrees are meant/included. Accordingly, a general person who does not own a 360-degree camera may become an avatar, and in this case, the image provided to the client device may be a general 2D image.

도 3 및 4는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템이 구현된 실시예를 예시한 도면이다. 보다 상세하게는, 도 3은 실시간 VR 서비스를 제공하는 아바타 기기, 도 4는 실시간 VR 서비스를 제공받는 클라이언트 기기를 각각 예시한 도면이다.3 and 4 are diagrams illustrating an embodiment in which a real-time VR service system according to an embodiment of the present invention is implemented. In more detail, FIG. 3 is a diagram illustrating an avatar device providing a real-time VR service, and FIG. 4 is a diagram illustrating a client device receiving a real-time VR service.

도 3을 참조하면, 도 1에 따라 매칭된 아바타 기기(301)는 클라이언트 기기가 의뢰한 장소를 광각 카메라 유닛을 통해 촬영하여 이를 클라이언트 기기로 전송할 수 있다. 이때, 아바타 기기(301)는 촬영한 VR 영상(302)을 클라이언트 기기와 약속한 시간에 실시간으로 전송하거나, 저장해두었다가 추후 약속한 시간에 전송해줄 수 있다. Referring to FIG. 3, the avatar device 301 matched according to FIG. 1 may photograph a place requested by the client device through a wide-angle camera unit and transmit the photographed image to the client device. In this case, the avatar device 301 may transmit the captured VR image 302 in real time at a time promised to the client device, or may store the captured VR image 302 at a time promised to the client device and transmit it at a later time.

아바타 기기(301)는 실시간 VR 서비스 시스템의 구현(특히, 아바타 기기의 구현)을 위해 고용되었거나 업으로 하는 근로자에 의해 클라이언트가 의뢰한 특정 장소로 및/또는 특정 시간에 옮겨지거나, 이동이 자동화된 로봇 기기로 구현되어 약속 시간에 특정 장소로 직접 이동할 수도 있다. 후자의 경우, 아바타 기기(301)는 도 2에 도시한 구성/유닛 외에도, 이동을 위한 적어도 하나의 엔진/모터가 구비된 이동/비행 유닛을 더 구비할 수 있다. The avatar device 301 is moved to a specific place requested by the client and/or at a specific time by a worker hired or engaged in a real-time VR service system (especially, an avatar device), or the movement is automated. It is implemented as a robotic device and can be moved directly to a specific place at an appointment. In the latter case, in addition to the configuration/unit shown in FIG. 2, the avatar device 301 may further include a movement/flight unit equipped with at least one engine/motor for movement.

도 4를 참조하면, 클라이언트 기기(401)는 도 3과 같이 아바타 기기(301)의 광각 카메라 유닛을 통해 촬영된 영상을 VR 영상으로 제공받을 수 있다. 360도 이미지(402)를 제공받는 경우, 클라이언트는 클라이언트 기기(401)의 각도/방향(VR 디스플레이 유닛이 HMD인 경우, HMD를 착용한 머리의 각도/방향) 또는 클라이언트의 시선 각도/방향/위치를 조절함으로써 원하는 각도/방향의 VR 영상(403)을 직접 체험할 수 있다. Referring to FIG. 4, the client device 401 may receive an image captured through the wide-angle camera unit of the avatar device 301 as a VR image as shown in FIG. 3. When receiving the 360-degree image 402, the client is the angle/direction of the client device 401 (if the VR display unit is an HMD, the angle/direction of the head wearing the HMD) or the gaze angle/direction/position of the client By adjusting, you can directly experience the VR image 403 of a desired angle/direction.

추가로, 클라이언트 기기(401)는 표시 중인 VR 영상(403) 중 인식된 특정 객체에 대한 정보를 검색하여 클라이언트에 제공할 수도 있다. 예를 들어, 클라이언트 기기(401)는 표시 VR 영상(403) 중 인식된 특정 이미지/텍스트를 자동으로 검색하여(예를 들어, 어플리케이션 또는 포털 사이트에서 제공하는 이미지/텍스트 검색 기능을 이용) 검색 결과를 클라이언트에 제공할 수도 있다. In addition, the client device 401 may search for information on a recognized specific object among the VR image 403 being displayed and provide it to the client. For example, the client device 401 automatically searches for a specific image/text recognized among the displayed VR images 403 (for example, using an image/text search function provided by an application or portal site), and the search result Can also be provided to the client.

이때, 클라이언트는 아바타 기기(301)가 제공하는 VR 영상을 체험하면서 아바타 또는 아바타 기기(301)와 실시간 커뮤니케이션을 수행할 수 있다. 예를 들어, 근로자가 아바타 기기(301)를 통해 실시간 VR 영상을 촬영하여 제공 중인 경우, 어플리케이션 관리 서버는 어플리케이션을 통한 음성/문자 채팅 기능을 제공하여 아바타와 클라이언트간의 실시간 커뮤니케이션 기능을 제공할 수 있다. 이를 통해, 클라이언트는 적극적으로 자신이 체험하고자 하는 환경을 적극적으로 아바타에게 요청(예를 들어, 앞에 보이는 가게로 들어가 주세요. 산에 등산해주세요. 정면에 있는 작품에 조금 더 가까이 다가가 주세요. 등)할 수 있으며, 아바타는 클라이언트의 요청을 적극적으로 수용하여 클라이언트가 경험하고자 하는 환경을 조성해줄 수 있다. 이러한 커뮤니케이션 기능을 통해, 클라이언트는 자신이 체험하고자 하는 환경을 적극적으로 조성하여 만족도를 더 높일 수 있다는 효과가 발생한다. In this case, the client may perform real-time communication with the avatar or the avatar device 301 while experiencing the VR image provided by the avatar device 301. For example, when a worker is shooting and providing a real-time VR image through the avatar device 301, the application management server may provide a voice/text chat function through the application to provide a real-time communication function between the avatar and the client. . Through this, the client actively asks the avatar about the environment they want to experience (for example, please go to the shop in front of you. Climb the mountain. Get closer to the artwork in front, etc.) The avatar can actively accept the client's request and create an environment that the client wants to experience. Through this communication function, the effect is that clients can increase their satisfaction by actively creating the environment they want to experience.

또한, 아바타는 현재 체험하고 있는 현장에 대한 느낌/소감 등을 커뮤니케이션 기능을 통해 직접 설명해줄 수 있으며, 현장에 대한 지식/배경/뉴스 등에 관한 부가적인 정보도 함께 클라이언트에 제공해줄 수 있다. In addition, the avatar can directly explain the feelings/impressions of the field being experienced through the communication function, and can provide additional information about the field knowledge/background/news, etc. to the client.

만일, 클라이언트와 아바타간의 사용 언어가 상이할 경우, 어플리케이션 관리 서버는 자동 번역 기능도 제공할 수 있다. 이 경우, 어플리케이션 관리 서버는 사전에 메모리 유닛에 저장되어 있는 자동 번역 어플리케이션 또는 실시간 인터넷 검색을 통해 자동 번역 기능을 실시간으로 양측에 제공할 수 있다. If the language used between the client and the avatar is different, the application management server may also provide an automatic translation function. In this case, the application management server may provide the automatic translation function to both sides in real time through an automatic translation application stored in the memory unit in advance or a real-time Internet search.

이러한 클라이언트 기기(401)와 아바타 기기(301)간의 매칭/연결은, 1:1 매칭이 기본이나, 실시예에 따라 1:N 또는 N:1 매칭/연결도 가능하다. 이 역시, 앞서 상술한 바와 같이 클라이언트/아바타 기기가(401, 301) 등록한 프로필을 기반으로 어플리케이션 관리 서버에 의해 수행될 수 있다. The matching/connection between the client device 401 and the avatar device 301 is based on 1:1 matching, but a 1:N or N:1 matching/connection is also possible according to an embodiment. This can also be performed by the application management server based on the profile registered by the client/avatar device (401, 301) as described above.

클라이언트는 VR 영상을 제공받은 후, VR 영상을 제공한 아바타를 평가할 수 있다. 예를 들어, 클라이언트는 어플리케이션을 통해 해당 아바타에 대한 평가 점수를 매길 수 있으며, 이는 어플리케이션 관리 서버에 저장되어 관리될 수 있다. 어플리케이션 관리 서버는 실시예에 따라 어플리케이션을 통해 클라이언트 기기와 매칭 가능성이 높은 아바타 기기(301)를 추천하는 기능을 제공할 수 있다. 이 경우 추천하는 아바타 기기(301)에 대한 평균 평가 점수도 함께 제공될 수 있으며, 점수가 높을수록 추천되는 빈도도 높을 수 있다. After receiving the VR image, the client may evaluate the avatar that provided the VR image. For example, a client may score an evaluation score for a corresponding avatar through an application, which may be stored and managed in an application management server. The application management server may provide a function of recommending an avatar device 301 having a high possibility of matching with a client device through an application according to an embodiment. In this case, an average evaluation score for the recommended avatar device 301 may also be provided, and the higher the score, the higher the frequency of recommendation.

이상으로, 등록된 프로필 기반으로 클라이언트 기기(401)와 아바타 기기(301)간의 매칭/연결을 수행하는 방식을 제공하는 실시간 VR 서비스 시스템에 대해서 상술하였다. 그러나, 이외에도 본 명세서의 실시간 VR 서비스 시스템은 아바타 기기(301)의 위치를 기반으로 한 실시간 매칭/연결 방식의 제공도 가능한데, 이에 대해서는 도 5를 참조하여 이하에서 후술한다.In the above, a real-time VR service system that provides a method of performing matching/connection between the client device 401 and the avatar device 301 based on the registered profile has been described above. However, in addition to this, the real-time VR service system of the present specification can also provide a real-time matching/connection method based on the location of the avatar device 301, which will be described later with reference to FIG. 5.

도 5는 본 발명의 일 실시예에 따른 위치 기반 실시간 VR 영상 제공 시스템을 예시한 도면이다.5 is a diagram illustrating a location-based real-time VR image providing system according to an embodiment of the present invention.

도 5를 참조하면, 클라이언트 기기(401)는 자신이 현재 경험/체험하고자 하는 장소에 대해 직접 실시간으로 검색할 수 있다. 이 경우, 어플리케이션 관리 서버는 해당 지역에서 현재 VR 영상을 실시간 제공/송출/방송 중인 적어도 하나의 아바타 기기에 대한 정보를 클라이언트 기기에 제공할 수 있다. 예를 들어, 클라이언트가 프랑스, 파리 지역을 검색한 경우, 어플리케이션 관리 서버는 도 5에 도시한 바와 같이, 현재 프랑스 파리 지역에서 VR 영상을 송출/방송/제공 중인 아바타 기기들의 위치를 지도에 표시할 수 있다. 이때, 어플리케이션 관리 서버는 각 아바타 기기에 대한 간략한 정보(예를 들어, 프로필 요약 정보, 평균 평가 점수 등)에 대한 정보도 함께 클라이언트 기기(401)에 제공할 수 있다. 이때, 검색되는 아바타 기기는 클라이언트 기기(401)가 검색한 장소에 위치한 아바타 기기들 중 자신의 위치 정보 및 VR 서비스 공유에 대해 사전에 동의한 아바타 기기에 해당할 수 있다. 이러한 아바타 기기는 근로자, 관광객, 여행 가이드가 휴대하는 전자 기기이거나, 특정 지역에 위치한 CCTV 또는 대중 교통에 설치되어 있는 블랙박스/CCTV 및/또는 드론 등에 해당할 수 있다. Referring to FIG. 5, the client device 401 may directly search in real time for a current experience/place to be experienced. In this case, the application management server may provide information on at least one avatar device that is currently providing/transmitting/broadcasting VR images in a corresponding region to the client device. For example, when a client searches for France and Paris, the application management server displays the locations of avatar devices that are currently transmitting/broadcasting/providing VR images in Paris, France, as shown in FIG. I can. In this case, the application management server may also provide information about brief information about each avatar device (eg, profile summary information, average evaluation score, etc.) to the client device 401 together. In this case, the searched avatar device may correspond to an avatar device that has previously agreed to share its location information and VR service among avatar devices located in a place searched by the client device 401. Such avatar devices may be electronic devices carried by workers, tourists, and tour guides, or may correspond to CCTVs located in specific areas or black boxes/CCTVs and/or drones installed in public transport.

클라이언트는 각 아바타 기기에 대해 제공된 정보를 바탕으로 체험을 의뢰하고자 하는 아바타 기기(301-1)를 선택할 수 있으며, 이 경우 선택된 아바타 기기(301-1)와의 매칭/연결이 완료될 수 있다. 예를 들어, 도 5와 도시된 바와 같이, 클라이언트는 프랑스 파리 지도 상에 표시된 아바타 기기 중 어느 하나를 선택할 수 있으며, 이에 대해 “동행하시겠습니까?”라는 안내 문구가 표시될 수 있다. 만일, 해당 아바타 기기(301-1)를 통한 체험을 의뢰하고자 하는 경우, 클라이언트는 표시된 안내 문구 내의 ‘YES’ 버튼을 터치할 수 있으며, 그 결과 해당 아바타 기기(301-1)와 매칭/연결이 성사될 수 있다. The client may select the avatar device 301-1 to which the experience is requested based on the information provided for each avatar device, and in this case, matching/connection with the selected avatar device 301-1 may be completed. For example, as illustrated in FIG. 5, the client may select any one of the avatar devices displayed on the Paris map, France, and a guide phrase “Would you like to accompany you?” may be displayed for this. If, in the case of requesting an experience through the corresponding avatar device 301-1, the client may touch the'YES' button in the displayed guidance text, and as a result, matching/connection with the corresponding avatar device 301-1 It can be done.

이렇게 매칭이 성사된 아바타 기기(301-1)는 현재 촬영 중인 VR 영상을 실시간으로 클라이언트 기기(401)에 전송/제공하게 된다. In this way, the avatar device 301-1, which has successfully matched, transmits/provides the VR image currently being photographed to the client device 401 in real time.

본 실시예에서도 역시, 앞서 상술한 실시예와 마찬가지로, VR 영상 제공 중다양한 추가적인 기능(앞서 상술한 커뮤니케이션 기능, 자동 번역 기능 등)이 제공될 수 있음은 물론이다. It goes without saying that in this embodiment, as in the above-described embodiment, various additional functions (communication function, automatic translation function, etc. described above) may be provided during VR image provision.

이하에서는 상술한 실시예들 외에도, 실시간 VR 서비스 시스템(특히, 어플리케이션 관리 서버)에서 제공할 수 있는 다양한 추가 기능을 나열한 것이다. 나열된 기능들 중 적어도 하나의 기능은 주로 어플리케이션 관리 서버에 의해 제공될 수 있으며, 클라이언트 기기 및/또는 아바타 기기에서 각 기능이 수행될 수 있다:In addition to the above-described embodiments, various additional functions that can be provided by a real-time VR service system (especially, an application management server) are listed below. At least one of the listed functions may be mainly provided by an application management server, and each function may be performed by a client device and/or an avatar device:

1. 로그인 기능1. Login function

- 개별 로그인 기능 및 회원 가입 기능-Individual login function and membership registration function

- 기존 이메일을 통한 간편 로그인 가능-Simple login through existing email

2. 개인 페이지 제공 기능2. Personal page provision function

- 개인 페이지 설정을 통한 프로필 활성화 기능-Profile activation function through personal page setting

- 개인의 정보 동의 등 일반적인 형태의 동의 후 본 서비스 실행 가능-This service can be executed after general form of consent such as personal information consent

- 개인의 프로필 및 주거 정보지 및 관심 사항 등 등록 기능-Registration function such as personal profile, housing information sheet, and interests

3. 아바타 설정 기능3. Avatar setting function

- 개인 아바타 설정 및 꾸미기 기능 -Personal avatar setting and decoration function

- 프로필 내 설정된 아바타 표시 기능 -Avatar display function set in profile

4. 주제 설정 기능4. Subject setting function

- 여러 카테고리 중 본인의 관심 주제 설정 및 등록 기능-Ability to set and register subjects of interest among various categories

5. 주제 찾기 기능5. Topic search function

- 세부 카테고리로 관심 주제 찾아 들어가는 검색 기능 -Search function to find topics of interest in detailed categories

6. 체험 대행 비용 결제 기능6. Experiential agency fee payment function

- 초반 15초 광고를 보고 진행 -Proceed by watching the advertisement in the first 15 seconds

- 중간 중간 팝업 광고 기능 혹은 AR 광고 진행 기능-Intermediate pop-up advertisement function or AR advertisement processing function

- 개인 결제 시스템 기능-Personal payment system function

- 적립금 결제 기능(예를 들어, 클라이언트 기기/계정이 적립금을 결제하고, 체험 대행 시 해당 적립금은 대행 비용만큼 차감되고, 차감된 비용은 아바타 기기/계정으로 적립)-Point payment function (e.g., the client device/account pays for the reserve, and when performing an experience agency, the reserve is deducted by the agency cost, and the deducted cost is credited to the avatar device/account)

- 이용 빈도/횟수에 따른 각 계정의 마일리지 적립 방식 -How to accumulate mileage for each account according to the frequency/frequency of use

- 카드/현금 결제 기능-Card/cash payment function

7. 저장 기능7. Save function

- 어플리케이션 관리 서버를 활용한 개인 영상 저장 기능, 클라이언트 기기 및 아바타 기기 동시 혹은 개별 저장 기능 -Personal video storage function using application management server, simultaneous or individual storage function for client devices and avatar devices

- 서버 문제 해결을 위해 클라우드에 영상을 저장하여 일정 기간동안 다운 가능하도록 설정, 저장된 영상 활용해 가공 콘텐츠 추가 제작 가능 -To solve server problems, save the video in the cloud and set it to download for a certain period of time, and use the saved video to create additional processed content.

- 통합 클라우드를 활용하여 영상 저장 및 개별 저장 기능 병행 가능-Video storage and individual storage functions can be combined using the integrated cloud

8. 광각 카메라 기능(특히, 아바타 기기의 경우)8. Wide-angle camera function (especially for avatar devices)

- 다양한 웨어러블 기기(예를 들어, 스마트 와치, 링크 플로우 넥형 스마트 웨어러블 기기등)를 통한 VR 카메라 연동 기능. -VR camera interlocking function through various wearable devices (eg, smart watch, link flow neck type smart wearable device, etc.).

- 이외에 다양한 카메라 연동하여 카메라 확장 범위 확대 가능-In addition, various cameras can be linked to expand the camera's extended range

9. 영상 모드 VR9. Video mode VR

- VR 일반 모드 및 고글 착용 모드 선택 가능-VR normal mode and goggles wearing mode selectable

10. 영상 모드 일반 10. Video Mode General

- 일반 2D 영상 통화 기능 -General 2D video call function

11. 위치 서비스 기능11. Location service function

- 위치 노출에 동의한 아바타 기기의 위치를 클라이언트 기기가 확인할 수 있게 함. 위치를 보고 자신이 원하는 장소와 가까운 아바타 기기를 찾아서 클라이언트 기기와 매칭-Allows the client device to check the location of the avatar device that has consented to the location exposure. View the location, find an avatar device close to the place you want, and match it with the client device

12. 추천 기능 12. Recommended function

- 아바타/클라이언트 기기의 주요 일정 혹은 여행지 계획 등을 각 기기에게 리마인드 시켜줌-Remind each device of the main itinerary or travel destination plan of the avatar/client device

13. 쪽지/댓글 대화 기능 13. Message/comment conversation function

- 클라이언트 기기 및 아바타 기기간 쪽지/댓글을 통한 대화 기능-Chat function through message/comment between client device and avatar device

14. 개인 페이지 내 사진/영상 업로드 기능 14. Photo/video upload function in personal page

- 개인 페이지 내에 개별 사진을 올릴 수 있도록 하여 자신을 PR 혹은 관심사를 드러낼 수 있도록 하는 기능 -A function that allows you to post individual photos on your personal page to reveal your PR or interests

15. 할 일 및 하고 싶은 일간 매칭 기능15. To-do and daily matching function

- 클라이언트 기기의 프로필 내 하고 싶은 일과 아바타 기기의 프로필 내 해야 할 일간에 매칭을 수행, 타 사용자들이 이를 볼 수 있으며 세부 검색고 가능-Matching is performed between the tasks you want to do in the profile of the client device and the days you need to do in the profile of the avatar device, so that other users can view them and perform detailed searches.

16. 관심사 구성 기능16. Interest composition function

- 여행, 의료, 복지, 자동차, 기타 등과 같은 자신의 관심사 설정 기능. 클라이언트 기기에 아바타 기기 추천 시, 우선 순위 혹은 자동 추천 시스템과 연동 가능-Ability to set your own interests such as travel, medical care, welfare, car, etc. When recommending avatar devices to client devices, it can be linked with priority or automatic recommendation system

상술한 실시간 VR 서비스 시스템의 가장 큰 차이점은, 기존 VR을 활용한 여행 및 탐방 프로그램들은 녹화된 영상을 사용하지만 본 서비스는 실시간으로 VR 영상의 전송이 가능하다는 점이 다르다고 할 수 있다. 녹화 영상을 만들기 위해서는 사전 촬영과 편집 등을 거치며 많은 시간이 소요되며 지난 시기의 영상을 플레이한다는 점에서 시의성이 떨어지며 직접 현장을 체험한다는 체험성이 떨어진다는 단점이 있다. 또한 기타 그래픽을 이용한 VR 컨텐츠들은 제작 기간이 길고 만드는데 비용이 많이 든다. 하지만 본 서비스는 실시간으로 의뢰자가 원하는 영상들을 볼 수 있기에 실제의 리얼 타임 현장감을 느낄 수 있으며 촬영 및 편집 그리고 비싼 그래픽 제작비용 등이 발생하지 않아 서비스 면에서도 저비용으로 운영이 가능하다는 점이 가장 큰 장점이라 할 수 있다.The biggest difference between the above-described real-time VR service system is that travel and exploration programs using existing VR use recorded images, but this service can transmit VR images in real time. To make a recorded video, it takes a lot of time to go through pre-shooting and editing, and there is a disadvantage in that the timeliness is poor and the experience of experiencing the site directly is inferior in that the video from the past period is played. Also, VR contents using other graphics have a long production period and are expensive to create. However, the biggest advantage of this service is that it is possible to operate at a low cost in terms of service as it does not incur real-time realism because it allows the client to view the videos they want in real time. can do.

본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The embodiment according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention is one or more ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.

또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above, and is stored in a recording medium that can be read through various computer means. Can be recorded. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium is a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical medium such as a compact disk read only memory (CD-ROM), a digital video disk (DVD), and a floppy disk. Magnetic-Optical Media such as a floptical disk, and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instructions may include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

아울러, 본 발명에 따른 장치나 단말은 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Server Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다.In addition, the device or terminal according to the present invention may be driven by a command that causes one or more processors to perform the functions and processes described above. For example, such instructions may include interpreted instructions such as script instructions such as JavaScript or ECMAScript instructions, executable code, or other instructions stored in a computer-readable medium. Furthermore, the device according to the present invention may be implemented in a distributed manner over a network, such as a server farm, or may be implemented in a single computer device.

또한, 본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.In addition, a computer program (also known as a program, software, software application, script or code) mounted on the device according to the present invention and executing the method according to the present invention includes a compiled or interpreted language or a priori or procedural language. It can be written in any form of programming language, and can be deployed in any form, including standalone programs, modules, components, subroutines, or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. A program may be in a single file provided to the requested program, or in multiple interactive files (e.g., files that store one or more modules, subprograms, or portions of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored within a markup language document). A computer program may be deployed to run on a single computer or multiple computers located at one site or distributed across a plurality of sites and interconnected by a communication network.

설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 또한, 본 발명은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.For convenience of explanation, each drawing has been described separately, but it is also possible to design a new embodiment by merging the embodiments described in each drawing. In addition, the present invention is not limitedly applicable to the configuration and method of the embodiments described as described above, but the above-described embodiments are configured by selectively combining all or part of each embodiment so that various modifications can be made. It could be.

또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments have been illustrated and described above, the present specification is not limited to the specific embodiments described above, and without departing from the subject matter claimed in the claims, those having ordinary knowledge in the technical field to which the specification belongs. Various modifications are possible by the person, as well as these modifications should not be individually understood from the technical idea or perspective of the present specification.

101: 클라이언트 기기
102: 아바타 기기
103: 어플리케이션 관리 서버
101: client device
102: avatar device
103: application management server

Claims (10)

비행 유닛을 통해 이동이 자동화된 로봇 기기로 구현되어 약속 시간에 특정 장소로 직접 이동하는 아바타 기기를 이용한 실시간 VR(Virtual Reality) 서비스 제공 방법에 있어서,
HMD 형태로 구현된 VR 디스플레이 유닛을 포함하는 클라이언트 기기가 의뢰하고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및 촬영 의뢰 비용에 관한 정보들 중 적어도 하나를 포함하는 클라이언트 프로필을 어플리케이션 관리 서버에 등록하는 단계;
아바타 기기가 의뢰받고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및 촬영 의뢰 비용에 관한 정보들 중 적어도 하나를 포함하는 아바타 프로필들을 상기 어플리케이션 관리 서버에 등록하는 단계;
상기 어플리케이션 관리 서버가 상기 클라이언트 프로필과 상기 아바타 프로필들을 상호 비교하여 상기 클라이언트 프로필과 적어도 하나의 정보가 매칭되는 아바타 프로필을 서칭하고, 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계;
상기 어플리케이션 관리 서버가 상기 제1 서칭 결과 내에서 특정 아바타 기기를 선택하는 상기 클라이언트 기기의 입력을 수신하는 단계;
상기 어플리케이션 관리 서버가 상기 클라이언트 기기와 상기 특정 아바타 기기를 상호 매칭시키는 단계;
상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 촬영 시간 및 촬영 위치에서 촬영된 VR 영상을 매칭된 아바타 기기로부터 수신하는 단계; 및
상기 클라이언트 기기가 사용자의 머리의 각도 및 방향에 대응하는 상기 VR 영상을 표시하는 단계를 포함하고,
상기 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계는,
상기 제1 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션관리 서버는, 상기 복수의 아바타 기기들 중 상기 클라이언트 기기와 프로필 정보 매칭 정도가 높은 아바타 기기일수록 상위에 랭크하여 상기 클라이언트에 제공하는 단계를 포함하고,
상기 VR 영상은 상기 아바타 기기가 360도 카메라 센서를 이용하여 생성한 360도 이미지인 실시간 VR 서비스 제공 방법.
In a method for providing a real-time VR (Virtual Reality) service using an avatar device that is implemented as a robot device that is moved through a flight unit and moves directly to a specific place at an appointment time,
A client profile including at least one of information on a shooting location, a shooting time, a language used, and a shooting request cost of a VR image requested by a client device including a VR display unit implemented in the form of an HMD is sent to the application management server. Registering;
Registering avatar profiles including at least one of information on a shooting location, a shooting time, a language used, and a shooting request cost of a VR image requested by the avatar device in the application management server;
Searching, by the application management server, an avatar profile matching the client profile and at least one piece of information by comparing the client profile with the avatar profiles, and providing a first search result to the client device;
Receiving, by the application management server, an input of the client device for selecting a specific avatar device from within the first search result;
Matching, by the application management server, the client device and the specific avatar device;
Receiving, by the client device, a VR image captured at a shooting time and a shooting location registered in the client profile from a matched avatar device; And
Displaying, by the client device, the VR image corresponding to the angle and direction of the user's head,
Providing the first search result to the client device,
When a plurality of avatar devices are included in the first search result, the application management server ranks and provides the avatar devices with higher profile information matching degree among the plurality of avatar devices to the client. Including steps,
The VR image is a 360-degree image generated by the avatar device using a 360-degree camera sensor.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190083097A 2019-07-10 2019-07-10 Real time VR service device, method and system through avatar KR102193630B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190083097A KR102193630B1 (en) 2019-07-10 2019-07-10 Real time VR service device, method and system through avatar
PCT/KR2020/008978 WO2021006648A1 (en) 2019-07-10 2020-07-09 Method of providing real-time vr service through avatar
US17/626,028 US11847297B2 (en) 2019-07-10 2020-07-09 Method of providing real-time VR service through avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190083097A KR102193630B1 (en) 2019-07-10 2019-07-10 Real time VR service device, method and system through avatar

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200175362A Division KR20210007930A (en) 2020-12-15 2020-12-15 Real time VR service device, method and system through avatar

Publications (1)

Publication Number Publication Date
KR102193630B1 true KR102193630B1 (en) 2020-12-21

Family

ID=74090517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190083097A KR102193630B1 (en) 2019-07-10 2019-07-10 Real time VR service device, method and system through avatar

Country Status (1)

Country Link
KR (1) KR102193630B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030086326A (en) * 2001-03-27 2003-11-07 가부시키가이샤 니콘 Method for mediating digital data
JP2004054877A (en) * 2002-07-22 2004-02-19 Santekku Keiso:Kk Picture mediating system
KR20130082718A (en) * 2011-12-15 2013-07-22 (주)에스디시스템 System and method for providing avatar service

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030086326A (en) * 2001-03-27 2003-11-07 가부시키가이샤 니콘 Method for mediating digital data
JP2004054877A (en) * 2002-07-22 2004-02-19 Santekku Keiso:Kk Picture mediating system
KR20130082718A (en) * 2011-12-15 2013-07-22 (주)에스디시스템 System and method for providing avatar service

Similar Documents

Publication Publication Date Title
US20190187949A1 (en) Non-transitory computer readable medium with program, information processing method, and information processing terminal
US9535945B2 (en) Intent based search results associated with a modular search object framework
US20200021734A1 (en) System for publishing digital images
KR20190101492A (en) Suggested items for use with embedded applications in chat conversations
US11657336B2 (en) Location-based activity computer systems
US9830388B2 (en) Modular search object framework
CN112214971A (en) Processing method and device for online document bulletin, electronic equipment and storage medium
TWI617930B (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
US20150317319A1 (en) Enhanced search results associated with a modular search object framework
JP2020509456A (en) Information pushing method and device
US11568615B2 (en) Collaborative on-demand experiences
JP2020091897A (en) Information display terminal, information transmission method, and computer program
CN113806306B (en) Media file processing method, device, equipment, readable storage medium and product
US20150341541A1 (en) Methods and systems of remote acquisition of digital images or models
US11847297B2 (en) Method of providing real-time VR service through avatar
KR102193630B1 (en) Real time VR service device, method and system through avatar
KR20210007931A (en) Real time VR service method through robot avatar
KR20210007930A (en) Real time VR service device, method and system through avatar
JP7130719B2 (en) Computer program, method and server device
US20240212264A1 (en) Program, information processing method, and information processing system
US12002073B2 (en) Information display terminal, information transmission method, and computer program
JP7281012B1 (en) Program, information processing method and information processing system
KR20200020431A (en) Server for managing of natural park tour service
US10733637B1 (en) Dynamic placement of advertisements for presentation in an electronic device
KR102174569B1 (en) Method for providing augmented reality based information

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant