KR102193630B1 - Real time VR service device, method and system through avatar - Google Patents
Real time VR service device, method and system through avatar Download PDFInfo
- Publication number
- KR102193630B1 KR102193630B1 KR1020190083097A KR20190083097A KR102193630B1 KR 102193630 B1 KR102193630 B1 KR 102193630B1 KR 1020190083097 A KR1020190083097 A KR 1020190083097A KR 20190083097 A KR20190083097 A KR 20190083097A KR 102193630 B1 KR102193630 B1 KR 102193630B1
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- client
- client device
- management server
- application management
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000006870 function Effects 0.000 description 67
- 238000004891 communication Methods 0.000 description 19
- 239000000470 constituent Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013515 script Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/43615—Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H04N5/23299—
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Operations Research (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
본 명세서는 클라이언트가 원하는 VR(Virtual Reality) 영상을 실시간으로 전송해 줄 아바타 기기를 매칭해주고, 매칭된 아바타 기기를 통해 VR 영상을 실시간으로 제공받는 방법 및 이를 위한 장치, 방법 및 시스템을 제안한다. The present specification proposes a method of matching an avatar device that will transmit a virtual reality (VR) image desired by a client in real time and receiving a VR image in real time through the matched avatar device, and an apparatus, method, and system for the same.
최근 각 통신사마다 5G(5th Generation)를 활용한 다양한 기능과 서비스를 내놓고 있다. 그 결과, 그동안 통신 속도의 한계 때문에 이뤄지지 못했던 빅데이터 연결 등이 가능해져 전 세계 어느 곳에 있던 딜레이 없는 방송이 가능함은 물론 원격 조정 등도 가능해졌다. 더구나 세계적으로 앞다퉈 차세대 통신 기술들을 도입하고 있는 추세이며, 가상 원격 화상 회의인 텔레프레젠스(Telepresence) 등 신기술들로 시공간을 뛰어넘으려는 시도가 이어지고 있다.Recently, each telecommunications company is offering various functions and services using 5G (5th Generation). As a result, it became possible to connect to big data, which was not possible due to the limitation of communication speed, so that it is possible to broadcast without delay anywhere in the world as well as remote control. Moreover, there is a trend of introducing next-generation communication technologies worldwide, and attempts to transcend time and space with new technologies such as Telepresence, a virtual remote video conferencing, are continuing.
따라서, 업계에서는 국내 5G를 통한 통신과 360도 VR 등의 서비스는 향후 10년간 지금의 수십 배 이상 성장 가능하다고 예측하고 있으며, 더불어 생활기반 플랫폼 서비스와 여행 서비스는 지금 시장 안정화 단계에 있어 매년 그 수요와 매출이 급상승하고 있다. 최근에는 지방 자치 단체와 관공서는 물론 일반 기업들까지 VR 등을 활용한 신규 서비스와 연계한 새로운 비즈니스 사업을 발굴하려고 하는 실정이다.Therefore, the industry predicts that domestic 5G communications and services such as 360-degree VR can grow dozens of times over the next 10 years. In addition, life-based platform services and travel services are currently in the stabilization stage of the market, so they are in demand every year. And sales are soaring. In recent years, local governments and governments as well as general companies are trying to discover new business projects in connection with new services using VR.
본 명세서에서는 더욱 빨라진 통신 속도를 기반으로 클라이언트가 원하는 VR 영상을 실시간으로 제공받거나 제공해 줄 수 있는 서비스 장치, 방법 및 시스템을 제안하고자 함이 목적이다.An object of the present specification is to propose a service apparatus, method, and system capable of receiving or providing a VR image desired by a client in real time based on a faster communication speed.
본 명세서에서는 보다 현장감 있는 리얼 아바타 서비스(REAL AVATAR SERVICE; RAS)를 제공한다. 여기서 RAS는, 클라이언트가 경험하고자 하는 현장을 멀리 떨어진 아바타가 대신하여 수행/이루어주는 서비스를 일컫는다. RAS는 기본적으로 클라이언트가 자신이 경험하고자 하는 일들을 등록하고, 등록된 일을 대신하여 수행하는 리얼 아바타와 매칭/연결시켜주는 서비스를 제공하며, 매칭된 리얼 아바타는 초고속 통신 기반으로 VR 영상을 클라이언트에 실시간으로 전송하게 된다. In the present specification, a more realistic real avatar service (REAL AVATAR SERVICE; RAS) is provided. Here, RAS refers to a service performed/performed by an avatar far away from the site that the client wants to experience. RAS basically provides a service that registers the tasks that the client wants to experience and matches/connects with a real avatar that performs on behalf of the registered task, and the matched real avatar provides a VR video to the client based on high-speed communication. In real time.
본 발명의 일 실시예에 따르면, 실시간 VR 서비스 제공 방법에 있어서, 클라이언트 기기가 어플리케이션 관리 서버에 클라이언트 프로필을 등록하는 단계로서, 상기 클라이언트 프로필에는 상기 클라이언트 기기가 의뢰하고자 하는 VR 영상에 관한 정보가 포함됨; 복수의 아바타 기기들이 상기 어플리케이션 관리 서버에 아바타 프로필들을 등록하는 단계로서, 상기 아바타 프로필들에는 상기 아바타 기기가 의뢰받고자 하는 VR 영상에 관한 정보가 포함됨; 상기 어플리케이션 관리 서버가 상기 클라이언트 프로필과 상기 아바타 프로필들을 상호 비교하여 상기 클라이언트 프로필과 적어도 하나의 정보가 매칭되는 아바타 프로필을 서칭하고, 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계; 상기 어플리케이션 관리 서버가 상기 제1 서칭 결과 내에서 특정 아바타 기기를 선택하는 상기 클라이언트 기기의 입력을 수신하는 단계; 상기 어플리케이션 관리 서버가 상기 클라이언트 기기와 상기 특정 아바타 기기를 상호 매칭시키는 단계; 및 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 VR 영상을 수신하는 단계; 를 포함할 수 있다. According to an embodiment of the present invention, in a method for providing a real-time VR service, the step of registering a client profile in an application management server by a client device, wherein the client profile includes information on a VR image that the client device wants to request. ; Registering avatar profiles in the application management server by a plurality of avatar devices, wherein the avatar profiles include information on a VR image requested by the avatar device; Searching, by the application management server, an avatar profile matching the client profile and at least one piece of information by comparing the client profile with the avatar profiles, and providing a first search result to the client device; Receiving, by the application management server, an input of the client device for selecting a specific avatar device from within the first search result; Matching, by the application management server, the client device and the specific avatar device; And receiving, by the client device, a VR image from the matched avatar device. It may include.
또한, 상기 VR 영상에 관한 정보로서, 상기 클라이언트 프로필은, 의뢰하고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및/또는 촬영 의뢰 비용에 관한 정보를 포함하고, 상기 아바타 프로필은, 의뢰받고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및/또는 촬영 의뢰 비용에 관한 정보를 포함할 수 있다.In addition, as information about the VR image, the client profile includes information on a shooting location, a shooting time, a language used, and/or a shooting request cost of the VR image to be requested, and the avatar profile is to be requested. It may include information on the shooting location of the VR image, the shooting time, the language used, and/or the shooting request cost.
또한, 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 상기 VR 영상을 수신하는 단계는, 상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 촬영 시간 및 촬영 위치에서 촬영된 VR 영상을 상기 아바타 기기로부터 수신하는 단계; 를 포함할 수 있다.In addition, the step of receiving, by the client device, the VR image from the matched avatar device may include: receiving, from the avatar device, a VR image captured at a shooting time and a shooting location registered in the client profile by the client device; It may include.
또한, 상기 VR 영상은, 상기 아바타 기기로부터 실시간으로 상기 클라이언트 기기로 전송되거나, 상기 아바타 기기 또는 상기 어플리케이션 관리 서버에 저장된 뒤 기설정된 시간 후에 상기 클라이언트 기기로 전송될 수 있다.In addition, the VR image may be transmitted from the avatar device to the client device in real time, or stored in the avatar device or the application management server and then transmitted to the client device after a preset time.
또한, 상기 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계는, 상기 제1 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션관리 서버는, 상기 복수의 아바타 기기들 중 상기 클라이언트 기기와 프로필 정보 매칭 정도가 높은 아바타 기기일수록 상위에 랭크하여 상기 클라이언트에 제공하는 단계; 를 포함할 수 있다.In addition, the providing of the first search result to the client device may include, when a plurality of avatar devices are included in the first search result, the application management server includes the client device and a profile among the plurality of avatar devices. Providing an avatar device with a higher information matching degree to a higher rank and providing it to the client; It may include.
또한, 상기 VR 영상을 수신하는 단계는, 상기 어플리케이션 관리 서버가 상기 클라이언트 기기 및 상기 매칭된 아바타 기기간의 실시간 음성 채팅 또는 문자 채팅 기능을 제공하는 단계; 를 포함할 수 있다.In addition, the receiving of the VR image may include providing, by the application management server, a real-time voice chat or text chat function between the client device and the matched avatar device; It may include.
또한, 상기 실시간 음성 채팅 또는 문자 채팅 기능을 제공하는 단계는, 상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 사용 언어와, 상기 매칭된 아바타 기기가 상기 아바타 프로필에 등록한 사용 언어가 다른 경우, 상기 어플리케이션 관리 서버가 각 기기의 사용 언어에 맞게 자동 번역하여 상기 음성 채팅 또는 상기 문자 채팅 기능을 제공하는 단계일 수 있다.In addition, the providing of the real-time voice chat or text chat function may include, when a language registered by the client device in the client profile and a language used by the matched avatar device registered in the avatar profile are different, the application management server A may be a step of providing the voice chat or text chat function by automatically translating according to the language used of each device.
또한, 상기 실시간 VR 서비스 제공 방법은, 상기 클라이언트 기기가 현재 의뢰하고 싶은 VR 영상의 촬영 위치를 검색하는 단계; 및 상기 촬영 위치에 위치한 아바타 기기를 서칭한 제2 서칭 결과를 상기 클라이언트 기기에 제공하는 단계; 를 더 포함할 수 있다.In addition, the method for providing a real-time VR service includes: searching for a photographing location of a VR image that the client device currently requests; And providing a second search result of searching for an avatar device located at the photographing location to the client device. It may further include.
또한, 상기 제2 서칭 결과는, 상기 촬영 위치로부터 기설정된 거리 내에 위치한 적어도 하나의 아바타 기기 정보, 상기 적어도 하나의 아바타 기기의 현재 위치 정보 및/또는 상기 적어도 하나의 아바타 기기의 아바타 프로필 정보를 포함할 수 있다.In addition, the second search result includes information on at least one avatar device located within a preset distance from the shooting location, information on the current location of the at least one avatar device, and/or information on the avatar profile of the at least one avatar device. can do.
또한, 상기 실시간 VR 서비스 제공 방법은, 상기 제2 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션 관리 서버가 상기 클라이언트 기기로부터 상기 복수의 아바타 기기들 중 특정 아바타 기기를 선택하는 선택 입력을 수신하고, 상기 선택된 특정 아바타 기기와 상기 클라이언트 기기를 매칭시키는 단계; 및 상기 클라이언트 기기가 상기 매칭된 아바타 기기로부터 VR 영상을 수신하는 단계; 를 더 포함할 수 있다.In the real-time VR service providing method, when a plurality of avatar devices are included in the second search result, the application management server receives a selection input from the client device to select a specific avatar device from among the plurality of avatar devices. Receiving and matching the selected specific avatar device with the client device; And receiving, by the client device, a VR image from the matched avatar device. It may further include.
본 발명의 일 실시예에 따르면, 클라이언트는 자신이 직접 가지 않더라도 자신이 경험하고자 하는 특정 지역(특히, 원거리)에 있는 경치, 사물, 전시품 등과 같은 다양한 환경을 보다 현장감 있게 VR 영상을 통해 간접 체험할 수 있다는 효과를 갖는다.According to an embodiment of the present invention, even if the client does not go directly, the client can experience indirectly through VR images in a more realistic way of various environments such as scenery, objects, exhibits, etc. in a specific area (particularly, a distance) that the client wants to experience. It has the effect of being able to.
또한, 본 발명의 일 실시예에 따르면, 클라이언트는 아바타와 실시간으로 통신이 가능하므로, 클라이언트가 보다 적극적이고 유연하게 자신이 원하는 경험을 아바타를 통해 체험할 수 있다는 효과를 갖는다. In addition, according to an embodiment of the present invention, since the client can communicate with the avatar in real time, the client can more actively and flexibly experience a desired experience through the avatar.
또한, 본 발명의 일 실시예에 따르면, VR 여행/체험과 같은 기존에 없던 새로운 VR 서비스의 도출이 가능하므로, 새로운 직업 창출 등과 같은 경제적 효과가 발생한다.In addition, according to an embodiment of the present invention, since it is possible to derive new VR services such as VR travel/experience, which does not exist, economic effects such as creation of new jobs are generated.
도 1은 본 발명의 일 실시예에 따른 리얼 아바타를 통한 실시간 VR 서비스 방법을 예시한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템을 예시한 블록도이다.
도 3 및 4는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템이 구현된 실시예를 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 위치 기반 실시간 VR 영상 제공 시스템을 예시한 도면이다.1 is a flow chart illustrating a real-time VR service method through a real avatar according to an embodiment of the present invention.
2 is a block diagram illustrating a real-time VR service system according to an embodiment of the present invention.
3 and 4 are diagrams illustrating an embodiment in which a real-time VR service system according to an embodiment of the present invention is implemented.
5 is a diagram illustrating a location-based real-time VR image providing system according to an embodiment of the present invention.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technology to be described below may be modified in various ways and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology to be described below with respect to a specific embodiment, and it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as 1st, 2nd, A, B, etc. may be used to describe various components, but the components are not limited by the above terms, only for the purpose of distinguishing one component from other components. Is only used. For example, without departing from the scope of the rights of the technology described below, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설시된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms of the terms used in the present specification, expressions in the singular should be understood as including plural expressions unless clearly interpreted differently in context, and terms such as "includes" are specified features, numbers, steps, actions, and components. It is to be understood that the presence or addition of one or more other features or numbers, step-acting components, parts or combinations thereof is not meant to imply the presence of, parts, or combinations thereof.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to the detailed description of the drawings, it is intended to clarify that the division of the constituent parts in the present specification is merely divided by the main function that each constituent part is responsible for. That is, two or more constituent parts to be described below may be combined into one constituent part, or one constituent part may be divided into two or more according to more subdivided functions. In addition, each of the constituent units to be described below may additionally perform some or all of the functions of other constituent units in addition to its own main function, and some of the main functions of each constituent unit are different. It goes without saying that it may be performed exclusively by.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing the method or operation method, each of the processes constituting the method may occur differently from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as the specified order, may be performed substantially simultaneously, or may be performed in the reverse order.
본 명세서는 기본적으로 리얼 아바타/동행/조언 서비스(REAL AVATAR/ACCOMPANY/ADVICE SERVICE; RAS) 시스템을 제안한다. RAS는 아바타가 클라이언트를 대신하여 클라이언트가 경험하고자 하는 일들을 수행/체험하며, 타인과 동행하는 서비스를 일컫는다. 본 서비스는 다양한 사람들이 서로 소통하는 플랫폼을 지향하며, 이에 따라 본 서비스를 통해 다양한 영상 정보물들이 공유되고 소통될 수 있다. 본 발명에 따를 때, 5G와 같은 초고속 통신 서비스를 활용한 실시간 VR과 위치기반 서비스를 활용해 클라이언트가 경험하고자 하는 것(예를 들어, 원거리 여행지로의 여행, 전시회 관람, 해외 콘서트 관람, 수업 참석 등)을 의뢰하면, 아바타가 클라이언트를 대신하여 이를 경험하고, 경험 상황을 VR 영상으로 실시간 방송/전송해줄 수 있다. 이는, 텔레익지스턴스(Teleexistence)라는 기술 분야로도 불리며, VR 기기 및 초고속 이동 통신과 결합되어 새로운 서비스 상품의 창출이 가능하다. 이렇게 창출된 서비스 상품을 통해 클라이언트는 원격지에 있는 사물 또는 사람이 마치 근처에 있는 것 같은 현장감을 느낄 수 있으며, 아바타와의 실시간 통신/커뮤니케이션을 통해 직접적으로 체험 환경을 구축할 수 있다. This specification basically proposes a real avatar/accompaniment/advice service (REAL AVATAR/ACCOMPANY/ADVICE SERVICE; RAS) system. RAS refers to a service in which the avatar performs/experiences the tasks the client wants to experience on behalf of the client, and accompanies others. This service aims to be a platform through which various people can communicate with each other, and accordingly, various video information can be shared and communicated through this service. In accordance with the present invention, what the client wants to experience using real-time VR and location-based services using high-speed communication services such as 5G (e.g., travel to a distant destination, visit an exhibition, visit an overseas concert, attend a class Etc.), the avatar can experience this on behalf of the client and broadcast/transmit the experience situation in real time as a VR image. This is also referred to as a technical field called teleexistence, and it is possible to create new service products by combining with VR devices and high-speed mobile communication. Through the service product created in this way, the client can feel the presence of a remote object or person as if they are nearby, and can directly build an experience environment through real-time communication/communication with an avatar.
예를 들어, 투병 생활 중이나 킬리만자로에 오르는 것이 소원인 아이, 베트남에 있으나 한국에서 열리는 특정 가수 공연에 가고 싶어 하는 아이, 죽기 전 북한에 있는 자신의 고향을 보고 싶어하는 90세 할아버지, 영등포 타임스퀘어에서 열리고 있는 할인 쇼핑 행사에서 직접 눈으로 보고 상품을 구입하고 싶으나 육아로 방문할 시간이 부족한 주부, 출장 중이나 딸의 기념 행사에 참석하고 싶어하는 아빠 등과 같이 자신이 직접 경험하고 싶으나 시간적/공간적/현실적 한계로 불가능한 경우가 있을 수 있다. 이와 같은 한계를 갖는 이들이 클라이언트가 되어 직접 경험하고자 하는 일들을 본 서비스 시스템을 통해 직접 의뢰할 수 있으며, 본 서비스 시스템은 해당 의뢰를 수행할 아바타와 클라이언트를 매칭시켜줄 수 있다. 매칭된 아바타는 클라이언트가 의뢰한 일들을 대신 수행함으로써 클라이언트를 만족시킬 수 있으며, 클라이언트는 이에 대한 일정 비용을 아바타에 지불할 수 있다. For example, a child who is struggling with illness or wishes to climb Kilimanjaro, a child in Vietnam but wants to go to a certain singer performance in South Korea, a 90-year-old grandfather who wants to see his hometown in North Korea before he dies, and is held at Times Square in Yeongdeungpo. At a discount shopping event, a housewife who wants to see and purchase products with their own eyes but does not have time to visit for child care, a father who wants to attend a business trip or a commemorative event for her daughter, etc. There may be cases. Those with such limitations can become clients and directly request things they want to experience directly through the service system, and the service system can match an avatar to perform the request with a client. The matched avatar can satisfy the client by performing tasks requested by the client instead, and the client can pay a certain cost to the avatar.
이러한 본 서비스 시스템의 구현 방법 및 다양한 실시예는 이하에서 각 도면을 참조하여 이하에서 구체적으로 후술한다.The implementation method and various embodiments of the present service system will be described later in detail with reference to each drawing.
도 1은 본 발명의 일 실시예에 따른 리얼 아바타를 통한 실시간 VR 서비스 방법을 간략히 예시한 순서도이다. 본 순서도에서 각 단계의 순서는 변경될 수 있으며, 적어도 하나의 단계가 새롭게 부가되거나 삭제될 수 있다. 또한, 본 순서도에서 클라이언트 기기는 VR 영상을 의뢰한 클라이언트의 기기를 의미하며, 아바타 기기는 의뢰받은 VR 영상을 클라이언트 기기에 실시간으로 제공/전송하는 아바타의 기기를 의미한다. 본 명세서의 실시간 VR 서비스는 특정 어플리케이션을 통해 구현될 수 있으며, 본 명세서의 클라이언트 기기 및 아바타 기기는 이러한 특정 어플리케이션/프로그램(이하, 어플리케이션으로 통칭)이 설치된 전자 기기에 해당할 수 있다. 1 is a flowchart briefly illustrating a real-time VR service method through a real avatar according to an embodiment of the present invention. In this flowchart, the order of each step may be changed, and at least one step may be newly added or deleted. In addition, in this flow chart, the client device refers to a device of a client requesting a VR image, and the avatar device refers to a device of an avatar that provides/transmits the requested VR image to the client device in real time. The real-time VR service of the present specification may be implemented through a specific application, and the client device and the avatar device of the present specification may correspond to electronic devices in which such a specific application/program (hereinafter, collectively referred to as an application) is installed.
도 1을 참조하면, 우선, 클라이언트 기기(101) 및/또는 아바타 기기(102)는 프로필을 등록할 수 있다(S101). 여기서, 프로필은 아바타 매칭/연결을 위해 요구되는 기본적인 정보로서, 클라이언트의 경우 의뢰하고자 하는 VR 영상의 컨텐츠 종류, 촬영 위치, 촬영 시간, 촬영 의뢰 비용, 관심사, 하고 싶은 일, 해야 할 일, 일정 및/또는 사용 언어 등의 정보를 포함할 수 있으며, 아바타의 경우 의뢰받고자 하는 VR 영상의 컨텐츠 종류, 촬영 위치, 촬영 시간, 촬영 의뢰 비용, 관심사, 하고 싶은 일, 해야 할 일, 일정 및/또는 사용 언어 등의 정보 등을 포함할 수 있다. 이러한 프로필은 실시간 VR 서비스를 관리/운용하는 어플리케이션 관리 서버(103)에 등록될 수 있다. 이렇게 등록된 프로필은 공개 여부 설정이 가능하며, 공개를 설정한 경우 어플리케이션을 통해 타인에게 공개될 수 있다. Referring to FIG. 1, first, the
다음으로, 등록된 프로필을 기반으로 클라이언트 기기(101) 및 아바타 기기(102)간 매칭이 수행될 수 있다(S102). 예를 들어, 어플리케이션 관리 서버(103)는 클라이언트 기기(101)가 등록한 프로필(예를 들어, 장소/시간/해야 할 일/하고 싶은 일)과 아바타 기기(102)가 등록한 프로필(예를 들어, 장소/시간/해야 할 일/하고 싶은 일)을 상호 비교하여 서로 매칭 정도가 높은 기기들을 매칭/연결시킬 수 있다(S103). 이때, 매칭되는 조건/카테고리별로 매칭 정도가 다르게 평가될 수 있다(즉, 매칭되는 조건/카테고리 별로 우선 순위가 상이). 예를 들어, 어플리케이션 관리 서버(103)는 클라이언트 기기와 아바타 기기 매칭 시, 클라이언트 기기 프로필의 하고 싶은 일(또는 해야 할 일)과 아바타 기기 프로필의 해야 할 일(또는 하고 싶은 일)간 매칭 여부를 판단할 수 있으며, 매칭 시 매칭 정도가 가장 높은 걸로 평가할 수 있다. Next, matching may be performed between the
이때, 어플리케이션 관리 서버(103)는 복수의 아바타 기기(102)를 매칭/연결 후보군으로서 클라이언트 기기(101)에 제공할 수 있으며, 매칭되는 조건이 많은(또는 매칭 정도가 높은) 아바타 기기(102)일수록 상위에 랭크되어 간단한 프로필 요약 정보와 함께 클라이언트 기기(101)에 제공될 수 있다. 클라이언트는 제공된 프로필 요약 정보를 바탕으로 복수의 아바타 기기(102)들 중 매칭/연결하고자 하는 아바타 기기(102)를 선택함으로써 매칭/연결이 성사/완료될 수 있다. In this case, the
마지막으로, 이렇게 서로 매칭된 클라이언트 기기(101)와 아바타 기기(102)는 미리 약속한 체험 시간에 서로 연결될 수 있으며, 클라이언트 기기(101)는 아바타 기기(102)로부터 실시간으로 의뢰한 VR 영상을 제공받게 된다(S103). 이를 위해, 어플리케이션 관리 서버(103)는 체험 시간을 상호 협의하는 기능을 어플리케이션을 통해 양 기기에 제공할 수 있으며, VR 영상의 실시간 촬영/표시/방송 기능 역시 해당 어플리케이션을 통해 양 기기에 제공할 수 있다. Finally, the
또한, 본 순서도에는 도시하지 않았으나, S103 단계에서 역으로 클라이언트 기기(101)에서 촬영된 영상이 매칭된 아바타 기기(102)로 전송되는 실시예도 존재할 수 있다. 이러한 실시예를 통해, 시각 장애인과의 동행 서비스, 여성 안심 귀갓길 동행 서비스 등과 같은 동행 서비스가 도출될 수 있다. In addition, although not shown in the flowchart, there may be an embodiment in which the image captured by the
예를 들어, 시각 장애인인 클라이언트가 클라이언트 기기(101)를 통해 자신의 프로필을 등록할 수 있으며, 이때 프로필의 하고 싶은 일로서 ‘동행/여행’을 등록할 수 있다. 어플리케이션 관리 서버(103)는 클라이언트 기기(101)의 프로필을 기반으로 특정 아바타 기기(102)와 매칭을 수행할 수 있다(즉, S101~S102 단계 수행). 매칭된 아바타 기기(102)는 클라이언트 기기(101)가 촬영한 영상을 실시간으로 제공받음과 동시에 클라이언트 기기(101)와의 실시간 대화/채팅 기능을 제공받을 수 있다. 이를 통해, 아바타는 클라이언트가 함께 여행/동행하는 느낌을 받을 수 있다. 특히, 아바타는 클라이언트의 시점에서 촬영된 영상을 실시간으로 공유 받으면서 실시간 채팅 기능을 통해 동행길/여행길에 클라이언트에 위협이 될만한 위험/장애물은 없는지 등에 대해 알려줄 수 있으며, 이외에도 여행지에 관한 다양한 정보도 클라이언트에게 제공할 수 있다. For example, a visually impaired client may register his or her own profile through the
이와 유사하게, 예를 들어, 늦은 시각 귀가하는 여성 클라이언트가 클라이언트 기기(101)를 통해 자신의 프로필을 등록할 수 있으며, 이때 프로필의 해야 할 일(또는 하고 싶은 일)로서 ‘늦은 귀가’를 등록할 수 있다. 어플리케이션 관리 서버(103)는 클라이언트 기기(101)의 프로필을 기반으로 특정 아바타 기기(102)와 매칭을 수행할 수 있다(즉, S101~S102 단계 수행). 매칭된 아바타 기기(102)는 클라이언트 기기(101)가 촬영한 영상을 실시간으로 제공받음과 동시에 클라이언트 기기(101)와의 실시간 대화/채팅 기능을 제공받을 수 있다. 이를 통해, 아바타는 클라이언트가 함께 귀가하는 느낌을 받을 수 있다. 특히, 아바타는 클라이언트의 시점에서 촬영된 영상을 실시간으로 공유 받으면서 실시간 채팅 기능을 통해 귀갓길에 클라이언트에 위협이 될만한 위험/사람은 없는지 등에 대해 알려줄 수 있으며, 이외에도 귀갓길에 관한 길/교통 정보 등에 대해서도 클라이언트에 제공할 수 있다. Similarly, for example, a female client returning home late at a time can register her profile through the
도 2는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템을 예시한 블록도이다.2 is a block diagram illustrating a real-time VR service system according to an embodiment of the present invention.
도 2를 참조하면, 실시간 VR 서비스 시스템은 클라이언트 기기(101), 아바타 기기(102) 및 어플리케이션 관리 서버(103)를 포함할 수 있다. 어플리케이션 관리 서버(103)는 전체 실시간 VR 서비스 시스템을 관리/총괄/운용하는 기기/서버에 해당할 수 있으며, 클라이언트 기기(101) 및 아바타 기기(102)와 통신을 수행하고 이들을 관리/제어할 수 있다. 어플리케이션 관리 서버(103), 클라이언트 기기(101) 및 아바타 기기(102)는 본 명세서에서 기술하는 다양한 기능/방법을 수행하기 위한 적어도 하나의 구성/유닛을 포함할 수 있다.Referring to FIG. 2, a real-time VR service system may include a
예를 들어, 어플리케이션 관리 서버(103)/클라이언트 기기(101)/아바타 기기(102)는 프로세서(201), 메모리 유닛(202), VR 디스플레이 유닛(203), 통신 유닛(204), 및/또는 광각 카메라 유닛(205)을 포함할 수 있다. 이하에서는 각 구성/유닛에 대해 설명하며, 이하의 설명은 어플리케이션 관리 서버(103), 클라이언트 기기(101) 및 아바타 기기(102)에 공통적으로 적용될 수 있다.For example, the
프로세서(201)는, 본 명세서에서 제안된 기능, 과정 및/또는 방법을 구현할 수 있으며, 각 기기에 포함된 적어도 하나의 다른 유닛/구성과 통신을 수행할 수 있다. 따라서, 프로세서(201)는 각 기기와 동일시되어 설명될 수 있다. The
메모리 유닛(202)은 다양한 정보/데이터/프로그램/어플리케이션/영상/이미지을 저장할 수 있다. 메모리 유닛(202)은 저장한 정보/데이터/영상/이미지를 프로세서(202)로 전송하거나 프로세서(201)로부터 수신할 수 있다. 또한, 메모리 유닛(202)에 저장된 프로그램/어플리케이션은 프로세서(202)에 의해 실행/수행될 수 있다. 특히, 본 발명에 따른 메모리 유닛(202)은 실시간 VR 서비스 시스템을 구현하기 위해 디자인된 어플리케이션을 저장할 수 있으며, 프로세서(201)에 의해 해당 어플리케이션이 실행될 수 있다. 메모리 유닛(202)은 프로세서(201) 내부 또는 외부에 있을 수 있다.The
VR 디스플레이 유닛(203)은 이미지/영상/화면을 출력/디스플레이할 수 있다. 예를 들어, VR 디스플레이 유닛(203)은 HMD(Head Mounted Display)에 해당할 수 있다. 또한, VR 디스플레이 유닛(203)은 적어도 하나의 터치/압력/근접/모션/카메라 센서를 포함하여 사용자의 터치 입력을 센싱할 수 있으며, VR 디스플레이 유닛(203)이 HMD인 경우 사용자 입력으로서 적어도 하나의 방향/자이로/각도/가속도 센서를 구비하여 사용자의 헤드/시선 방향/각도를 센싱할 수 있다. 사용자의 시선 추적/센싱 시, 현재 5G(5th Generation) 망의 미약으로 사용자가 보는 곳만 선명하게 보이고 나머지는 흐릿하게 처리하는 시선 추적 기술이 사용될 수 있으며, 로우 데이터를 사용하여 일반 4G LTE(Long-Term Evolution) 망에서도 시선 추적/센싱이 가능하다.The
VR 디스플레이 유닛(203)은 센싱한 결과를 프로세서로 전송할 수 있다. 특히, 본 명세서의 VR 디스플레이 유닛(203)은 통신 유닛(204)을 통해 실시간으로 전송받은 다양한 VR 이미지/영상/화면을 실시간으로 디스플레이할 수 있다.The
통신 유닛(204)은 프로세서(201)와 연결되어, 내부/외부 기기/서버와 유/무선 신호를 송신 및/또는 수신할 수 있다. The
광각 카메라 유닛(205)은 적어도 하나의 (광각) 카메라 센서(예를 들어, 360도 카메라 (센서))를 이용하여 이미지/영상/화면을 입력/획득/인식/센싱할 수 있다. 특히, 본 발명에 따른 광각 카메라 유닛(205)의 경우, 광각의 이미지/영상/화면을 실시간으로 촬영/획득/인식/센싱할 수 있으며, 이렇게 촬영/획득/인식/센싱된 영상은 VR 영상으로서 통신 유닛(204)을 통해 클라이언트 기기(101)로 실시간으로 전송될 수 있다. 다만, 본 명세서에서 광각 카메라 유닛은 앞서 예시한 360도 카메라에 한정되는 것은 아니며, 360도 미만의 촬영각을 갖는 카메라 유닛을 모두 의미/포함한다. 따라서, 360도 카메라를 소유하지 않은 일반인도 아바타가 될 수 있으며, 이때 클라이언트 기기에 제공되는 영상은 일반 2D 영상일 수 있다. The wide-
도 3 및 4는 본 발명의 일 실시예에 따른 실시간 VR 서비스 시스템이 구현된 실시예를 예시한 도면이다. 보다 상세하게는, 도 3은 실시간 VR 서비스를 제공하는 아바타 기기, 도 4는 실시간 VR 서비스를 제공받는 클라이언트 기기를 각각 예시한 도면이다.3 and 4 are diagrams illustrating an embodiment in which a real-time VR service system according to an embodiment of the present invention is implemented. In more detail, FIG. 3 is a diagram illustrating an avatar device providing a real-time VR service, and FIG. 4 is a diagram illustrating a client device receiving a real-time VR service.
도 3을 참조하면, 도 1에 따라 매칭된 아바타 기기(301)는 클라이언트 기기가 의뢰한 장소를 광각 카메라 유닛을 통해 촬영하여 이를 클라이언트 기기로 전송할 수 있다. 이때, 아바타 기기(301)는 촬영한 VR 영상(302)을 클라이언트 기기와 약속한 시간에 실시간으로 전송하거나, 저장해두었다가 추후 약속한 시간에 전송해줄 수 있다. Referring to FIG. 3, the
아바타 기기(301)는 실시간 VR 서비스 시스템의 구현(특히, 아바타 기기의 구현)을 위해 고용되었거나 업으로 하는 근로자에 의해 클라이언트가 의뢰한 특정 장소로 및/또는 특정 시간에 옮겨지거나, 이동이 자동화된 로봇 기기로 구현되어 약속 시간에 특정 장소로 직접 이동할 수도 있다. 후자의 경우, 아바타 기기(301)는 도 2에 도시한 구성/유닛 외에도, 이동을 위한 적어도 하나의 엔진/모터가 구비된 이동/비행 유닛을 더 구비할 수 있다. The
도 4를 참조하면, 클라이언트 기기(401)는 도 3과 같이 아바타 기기(301)의 광각 카메라 유닛을 통해 촬영된 영상을 VR 영상으로 제공받을 수 있다. 360도 이미지(402)를 제공받는 경우, 클라이언트는 클라이언트 기기(401)의 각도/방향(VR 디스플레이 유닛이 HMD인 경우, HMD를 착용한 머리의 각도/방향) 또는 클라이언트의 시선 각도/방향/위치를 조절함으로써 원하는 각도/방향의 VR 영상(403)을 직접 체험할 수 있다. Referring to FIG. 4, the
추가로, 클라이언트 기기(401)는 표시 중인 VR 영상(403) 중 인식된 특정 객체에 대한 정보를 검색하여 클라이언트에 제공할 수도 있다. 예를 들어, 클라이언트 기기(401)는 표시 VR 영상(403) 중 인식된 특정 이미지/텍스트를 자동으로 검색하여(예를 들어, 어플리케이션 또는 포털 사이트에서 제공하는 이미지/텍스트 검색 기능을 이용) 검색 결과를 클라이언트에 제공할 수도 있다. In addition, the
이때, 클라이언트는 아바타 기기(301)가 제공하는 VR 영상을 체험하면서 아바타 또는 아바타 기기(301)와 실시간 커뮤니케이션을 수행할 수 있다. 예를 들어, 근로자가 아바타 기기(301)를 통해 실시간 VR 영상을 촬영하여 제공 중인 경우, 어플리케이션 관리 서버는 어플리케이션을 통한 음성/문자 채팅 기능을 제공하여 아바타와 클라이언트간의 실시간 커뮤니케이션 기능을 제공할 수 있다. 이를 통해, 클라이언트는 적극적으로 자신이 체험하고자 하는 환경을 적극적으로 아바타에게 요청(예를 들어, 앞에 보이는 가게로 들어가 주세요. 산에 등산해주세요. 정면에 있는 작품에 조금 더 가까이 다가가 주세요. 등)할 수 있으며, 아바타는 클라이언트의 요청을 적극적으로 수용하여 클라이언트가 경험하고자 하는 환경을 조성해줄 수 있다. 이러한 커뮤니케이션 기능을 통해, 클라이언트는 자신이 체험하고자 하는 환경을 적극적으로 조성하여 만족도를 더 높일 수 있다는 효과가 발생한다. In this case, the client may perform real-time communication with the avatar or the
또한, 아바타는 현재 체험하고 있는 현장에 대한 느낌/소감 등을 커뮤니케이션 기능을 통해 직접 설명해줄 수 있으며, 현장에 대한 지식/배경/뉴스 등에 관한 부가적인 정보도 함께 클라이언트에 제공해줄 수 있다. In addition, the avatar can directly explain the feelings/impressions of the field being experienced through the communication function, and can provide additional information about the field knowledge/background/news, etc. to the client.
만일, 클라이언트와 아바타간의 사용 언어가 상이할 경우, 어플리케이션 관리 서버는 자동 번역 기능도 제공할 수 있다. 이 경우, 어플리케이션 관리 서버는 사전에 메모리 유닛에 저장되어 있는 자동 번역 어플리케이션 또는 실시간 인터넷 검색을 통해 자동 번역 기능을 실시간으로 양측에 제공할 수 있다. If the language used between the client and the avatar is different, the application management server may also provide an automatic translation function. In this case, the application management server may provide the automatic translation function to both sides in real time through an automatic translation application stored in the memory unit in advance or a real-time Internet search.
이러한 클라이언트 기기(401)와 아바타 기기(301)간의 매칭/연결은, 1:1 매칭이 기본이나, 실시예에 따라 1:N 또는 N:1 매칭/연결도 가능하다. 이 역시, 앞서 상술한 바와 같이 클라이언트/아바타 기기가(401, 301) 등록한 프로필을 기반으로 어플리케이션 관리 서버에 의해 수행될 수 있다. The matching/connection between the
클라이언트는 VR 영상을 제공받은 후, VR 영상을 제공한 아바타를 평가할 수 있다. 예를 들어, 클라이언트는 어플리케이션을 통해 해당 아바타에 대한 평가 점수를 매길 수 있으며, 이는 어플리케이션 관리 서버에 저장되어 관리될 수 있다. 어플리케이션 관리 서버는 실시예에 따라 어플리케이션을 통해 클라이언트 기기와 매칭 가능성이 높은 아바타 기기(301)를 추천하는 기능을 제공할 수 있다. 이 경우 추천하는 아바타 기기(301)에 대한 평균 평가 점수도 함께 제공될 수 있으며, 점수가 높을수록 추천되는 빈도도 높을 수 있다. After receiving the VR image, the client may evaluate the avatar that provided the VR image. For example, a client may score an evaluation score for a corresponding avatar through an application, which may be stored and managed in an application management server. The application management server may provide a function of recommending an
이상으로, 등록된 프로필 기반으로 클라이언트 기기(401)와 아바타 기기(301)간의 매칭/연결을 수행하는 방식을 제공하는 실시간 VR 서비스 시스템에 대해서 상술하였다. 그러나, 이외에도 본 명세서의 실시간 VR 서비스 시스템은 아바타 기기(301)의 위치를 기반으로 한 실시간 매칭/연결 방식의 제공도 가능한데, 이에 대해서는 도 5를 참조하여 이하에서 후술한다.In the above, a real-time VR service system that provides a method of performing matching/connection between the
도 5는 본 발명의 일 실시예에 따른 위치 기반 실시간 VR 영상 제공 시스템을 예시한 도면이다.5 is a diagram illustrating a location-based real-time VR image providing system according to an embodiment of the present invention.
도 5를 참조하면, 클라이언트 기기(401)는 자신이 현재 경험/체험하고자 하는 장소에 대해 직접 실시간으로 검색할 수 있다. 이 경우, 어플리케이션 관리 서버는 해당 지역에서 현재 VR 영상을 실시간 제공/송출/방송 중인 적어도 하나의 아바타 기기에 대한 정보를 클라이언트 기기에 제공할 수 있다. 예를 들어, 클라이언트가 프랑스, 파리 지역을 검색한 경우, 어플리케이션 관리 서버는 도 5에 도시한 바와 같이, 현재 프랑스 파리 지역에서 VR 영상을 송출/방송/제공 중인 아바타 기기들의 위치를 지도에 표시할 수 있다. 이때, 어플리케이션 관리 서버는 각 아바타 기기에 대한 간략한 정보(예를 들어, 프로필 요약 정보, 평균 평가 점수 등)에 대한 정보도 함께 클라이언트 기기(401)에 제공할 수 있다. 이때, 검색되는 아바타 기기는 클라이언트 기기(401)가 검색한 장소에 위치한 아바타 기기들 중 자신의 위치 정보 및 VR 서비스 공유에 대해 사전에 동의한 아바타 기기에 해당할 수 있다. 이러한 아바타 기기는 근로자, 관광객, 여행 가이드가 휴대하는 전자 기기이거나, 특정 지역에 위치한 CCTV 또는 대중 교통에 설치되어 있는 블랙박스/CCTV 및/또는 드론 등에 해당할 수 있다. Referring to FIG. 5, the
클라이언트는 각 아바타 기기에 대해 제공된 정보를 바탕으로 체험을 의뢰하고자 하는 아바타 기기(301-1)를 선택할 수 있으며, 이 경우 선택된 아바타 기기(301-1)와의 매칭/연결이 완료될 수 있다. 예를 들어, 도 5와 도시된 바와 같이, 클라이언트는 프랑스 파리 지도 상에 표시된 아바타 기기 중 어느 하나를 선택할 수 있으며, 이에 대해 “동행하시겠습니까?”라는 안내 문구가 표시될 수 있다. 만일, 해당 아바타 기기(301-1)를 통한 체험을 의뢰하고자 하는 경우, 클라이언트는 표시된 안내 문구 내의 ‘YES’ 버튼을 터치할 수 있으며, 그 결과 해당 아바타 기기(301-1)와 매칭/연결이 성사될 수 있다. The client may select the avatar device 301-1 to which the experience is requested based on the information provided for each avatar device, and in this case, matching/connection with the selected avatar device 301-1 may be completed. For example, as illustrated in FIG. 5, the client may select any one of the avatar devices displayed on the Paris map, France, and a guide phrase “Would you like to accompany you?” may be displayed for this. If, in the case of requesting an experience through the corresponding avatar device 301-1, the client may touch the'YES' button in the displayed guidance text, and as a result, matching/connection with the corresponding avatar device 301-1 It can be done.
이렇게 매칭이 성사된 아바타 기기(301-1)는 현재 촬영 중인 VR 영상을 실시간으로 클라이언트 기기(401)에 전송/제공하게 된다. In this way, the avatar device 301-1, which has successfully matched, transmits/provides the VR image currently being photographed to the
본 실시예에서도 역시, 앞서 상술한 실시예와 마찬가지로, VR 영상 제공 중다양한 추가적인 기능(앞서 상술한 커뮤니케이션 기능, 자동 번역 기능 등)이 제공될 수 있음은 물론이다. It goes without saying that in this embodiment, as in the above-described embodiment, various additional functions (communication function, automatic translation function, etc. described above) may be provided during VR image provision.
이하에서는 상술한 실시예들 외에도, 실시간 VR 서비스 시스템(특히, 어플리케이션 관리 서버)에서 제공할 수 있는 다양한 추가 기능을 나열한 것이다. 나열된 기능들 중 적어도 하나의 기능은 주로 어플리케이션 관리 서버에 의해 제공될 수 있으며, 클라이언트 기기 및/또는 아바타 기기에서 각 기능이 수행될 수 있다:In addition to the above-described embodiments, various additional functions that can be provided by a real-time VR service system (especially, an application management server) are listed below. At least one of the listed functions may be mainly provided by an application management server, and each function may be performed by a client device and/or an avatar device:
1. 로그인 기능1. Login function
- 개별 로그인 기능 및 회원 가입 기능-Individual login function and membership registration function
- 기존 이메일을 통한 간편 로그인 가능-Simple login through existing email
2. 개인 페이지 제공 기능2. Personal page provision function
- 개인 페이지 설정을 통한 프로필 활성화 기능-Profile activation function through personal page setting
- 개인의 정보 동의 등 일반적인 형태의 동의 후 본 서비스 실행 가능-This service can be executed after general form of consent such as personal information consent
- 개인의 프로필 및 주거 정보지 및 관심 사항 등 등록 기능-Registration function such as personal profile, housing information sheet, and interests
3. 아바타 설정 기능3. Avatar setting function
- 개인 아바타 설정 및 꾸미기 기능 -Personal avatar setting and decoration function
- 프로필 내 설정된 아바타 표시 기능 -Avatar display function set in profile
4. 주제 설정 기능4. Subject setting function
- 여러 카테고리 중 본인의 관심 주제 설정 및 등록 기능-Ability to set and register subjects of interest among various categories
5. 주제 찾기 기능5. Topic search function
- 세부 카테고리로 관심 주제 찾아 들어가는 검색 기능 -Search function to find topics of interest in detailed categories
6. 체험 대행 비용 결제 기능6. Experiential agency fee payment function
- 초반 15초 광고를 보고 진행 -Proceed by watching the advertisement in the first 15 seconds
- 중간 중간 팝업 광고 기능 혹은 AR 광고 진행 기능-Intermediate pop-up advertisement function or AR advertisement processing function
- 개인 결제 시스템 기능-Personal payment system function
- 적립금 결제 기능(예를 들어, 클라이언트 기기/계정이 적립금을 결제하고, 체험 대행 시 해당 적립금은 대행 비용만큼 차감되고, 차감된 비용은 아바타 기기/계정으로 적립)-Point payment function (e.g., the client device/account pays for the reserve, and when performing an experience agency, the reserve is deducted by the agency cost, and the deducted cost is credited to the avatar device/account)
- 이용 빈도/횟수에 따른 각 계정의 마일리지 적립 방식 -How to accumulate mileage for each account according to the frequency/frequency of use
- 카드/현금 결제 기능-Card/cash payment function
7. 저장 기능7. Save function
- 어플리케이션 관리 서버를 활용한 개인 영상 저장 기능, 클라이언트 기기 및 아바타 기기 동시 혹은 개별 저장 기능 -Personal video storage function using application management server, simultaneous or individual storage function for client devices and avatar devices
- 서버 문제 해결을 위해 클라우드에 영상을 저장하여 일정 기간동안 다운 가능하도록 설정, 저장된 영상 활용해 가공 콘텐츠 추가 제작 가능 -To solve server problems, save the video in the cloud and set it to download for a certain period of time, and use the saved video to create additional processed content.
- 통합 클라우드를 활용하여 영상 저장 및 개별 저장 기능 병행 가능-Video storage and individual storage functions can be combined using the integrated cloud
8. 광각 카메라 기능(특히, 아바타 기기의 경우)8. Wide-angle camera function (especially for avatar devices)
- 다양한 웨어러블 기기(예를 들어, 스마트 와치, 링크 플로우 넥형 스마트 웨어러블 기기등)를 통한 VR 카메라 연동 기능. -VR camera interlocking function through various wearable devices (eg, smart watch, link flow neck type smart wearable device, etc.).
- 이외에 다양한 카메라 연동하여 카메라 확장 범위 확대 가능-In addition, various cameras can be linked to expand the camera's extended range
9. 영상 모드 VR9. Video mode VR
- VR 일반 모드 및 고글 착용 모드 선택 가능-VR normal mode and goggles wearing mode selectable
10. 영상 모드 일반 10. Video Mode General
- 일반 2D 영상 통화 기능 -General 2D video call function
11. 위치 서비스 기능11. Location service function
- 위치 노출에 동의한 아바타 기기의 위치를 클라이언트 기기가 확인할 수 있게 함. 위치를 보고 자신이 원하는 장소와 가까운 아바타 기기를 찾아서 클라이언트 기기와 매칭-Allows the client device to check the location of the avatar device that has consented to the location exposure. View the location, find an avatar device close to the place you want, and match it with the client device
12. 추천 기능 12. Recommended function
- 아바타/클라이언트 기기의 주요 일정 혹은 여행지 계획 등을 각 기기에게 리마인드 시켜줌-Remind each device of the main itinerary or travel destination plan of the avatar/client device
13. 쪽지/댓글 대화 기능 13. Message/comment conversation function
- 클라이언트 기기 및 아바타 기기간 쪽지/댓글을 통한 대화 기능-Chat function through message/comment between client device and avatar device
14. 개인 페이지 내 사진/영상 업로드 기능 14. Photo/video upload function in personal page
- 개인 페이지 내에 개별 사진을 올릴 수 있도록 하여 자신을 PR 혹은 관심사를 드러낼 수 있도록 하는 기능 -A function that allows you to post individual photos on your personal page to reveal your PR or interests
15. 할 일 및 하고 싶은 일간 매칭 기능15. To-do and daily matching function
- 클라이언트 기기의 프로필 내 하고 싶은 일과 아바타 기기의 프로필 내 해야 할 일간에 매칭을 수행, 타 사용자들이 이를 볼 수 있으며 세부 검색고 가능-Matching is performed between the tasks you want to do in the profile of the client device and the days you need to do in the profile of the avatar device, so that other users can view them and perform detailed searches.
16. 관심사 구성 기능16. Interest composition function
- 여행, 의료, 복지, 자동차, 기타 등과 같은 자신의 관심사 설정 기능. 클라이언트 기기에 아바타 기기 추천 시, 우선 순위 혹은 자동 추천 시스템과 연동 가능-Ability to set your own interests such as travel, medical care, welfare, car, etc. When recommending avatar devices to client devices, it can be linked with priority or automatic recommendation system
상술한 실시간 VR 서비스 시스템의 가장 큰 차이점은, 기존 VR을 활용한 여행 및 탐방 프로그램들은 녹화된 영상을 사용하지만 본 서비스는 실시간으로 VR 영상의 전송이 가능하다는 점이 다르다고 할 수 있다. 녹화 영상을 만들기 위해서는 사전 촬영과 편집 등을 거치며 많은 시간이 소요되며 지난 시기의 영상을 플레이한다는 점에서 시의성이 떨어지며 직접 현장을 체험한다는 체험성이 떨어진다는 단점이 있다. 또한 기타 그래픽을 이용한 VR 컨텐츠들은 제작 기간이 길고 만드는데 비용이 많이 든다. 하지만 본 서비스는 실시간으로 의뢰자가 원하는 영상들을 볼 수 있기에 실제의 리얼 타임 현장감을 느낄 수 있으며 촬영 및 편집 그리고 비싼 그래픽 제작비용 등이 발생하지 않아 서비스 면에서도 저비용으로 운영이 가능하다는 점이 가장 큰 장점이라 할 수 있다.The biggest difference between the above-described real-time VR service system is that travel and exploration programs using existing VR use recorded images, but this service can transmit VR images in real time. To make a recorded video, it takes a lot of time to go through pre-shooting and editing, and there is a disadvantage in that the timeliness is poor and the experience of experiencing the site directly is inferior in that the video from the past period is played. Also, VR contents using other graphics have a long production period and are expensive to create. However, the biggest advantage of this service is that it is possible to operate at a low cost in terms of service as it does not incur real-time realism because it allows the client to view the videos they want in real time. can do.
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.The embodiment according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of implementation by hardware, an embodiment of the present invention is one or more ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs ( field programmable gate arrays), processors, controllers, microcontrollers, microprocessors, etc.
또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of implementation by firmware or software, an embodiment of the present invention is implemented in the form of modules, procedures, functions, etc. that perform the functions or operations described above, and is stored in a recording medium that can be read through various computer means. Can be recorded. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium is a magnetic medium such as a hard disk, a floppy disk, and a magnetic tape, an optical medium such as a compact disk read only memory (CD-ROM), a digital video disk (DVD), and a floppy disk. Magnetic-Optical Media such as a floptical disk, and a hardware device specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instructions may include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. Such a hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
아울러, 본 발명에 따른 장치나 단말은 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Server Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다.In addition, the device or terminal according to the present invention may be driven by a command that causes one or more processors to perform the functions and processes described above. For example, such instructions may include interpreted instructions such as script instructions such as JavaScript or ECMAScript instructions, executable code, or other instructions stored in a computer-readable medium. Furthermore, the device according to the present invention may be implemented in a distributed manner over a network, such as a server farm, or may be implemented in a single computer device.
또한, 본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.In addition, a computer program (also known as a program, software, software application, script or code) mounted on the device according to the present invention and executing the method according to the present invention includes a compiled or interpreted language or a priori or procedural language. It can be written in any form of programming language, and can be deployed in any form, including standalone programs, modules, components, subroutines, or other units suitable for use in a computer environment. Computer programs do not necessarily correspond to files in the file system. A program may be in a single file provided to the requested program, or in multiple interactive files (e.g., files that store one or more modules, subprograms, or portions of code), or part of a file that holds other programs or data. (Eg, one or more scripts stored within a markup language document). A computer program may be deployed to run on a single computer or multiple computers located at one site or distributed across a plurality of sites and interconnected by a communication network.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 또한, 본 발명은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.For convenience of explanation, each drawing has been described separately, but it is also possible to design a new embodiment by merging the embodiments described in each drawing. In addition, the present invention is not limitedly applicable to the configuration and method of the embodiments described as described above, but the above-described embodiments are configured by selectively combining all or part of each embodiment so that various modifications can be made. It could be.
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments have been illustrated and described above, the present specification is not limited to the specific embodiments described above, and without departing from the subject matter claimed in the claims, those having ordinary knowledge in the technical field to which the specification belongs. Various modifications are possible by the person, as well as these modifications should not be individually understood from the technical idea or perspective of the present specification.
101: 클라이언트 기기
102: 아바타 기기
103: 어플리케이션 관리 서버 101: client device
102: avatar device
103: application management server
Claims (10)
HMD 형태로 구현된 VR 디스플레이 유닛을 포함하는 클라이언트 기기가 의뢰하고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및 촬영 의뢰 비용에 관한 정보들 중 적어도 하나를 포함하는 클라이언트 프로필을 어플리케이션 관리 서버에 등록하는 단계;
아바타 기기가 의뢰받고자 하는 VR 영상의 촬영 위치, 촬영 시간, 사용 언어, 및 촬영 의뢰 비용에 관한 정보들 중 적어도 하나를 포함하는 아바타 프로필들을 상기 어플리케이션 관리 서버에 등록하는 단계;
상기 어플리케이션 관리 서버가 상기 클라이언트 프로필과 상기 아바타 프로필들을 상호 비교하여 상기 클라이언트 프로필과 적어도 하나의 정보가 매칭되는 아바타 프로필을 서칭하고, 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계;
상기 어플리케이션 관리 서버가 상기 제1 서칭 결과 내에서 특정 아바타 기기를 선택하는 상기 클라이언트 기기의 입력을 수신하는 단계;
상기 어플리케이션 관리 서버가 상기 클라이언트 기기와 상기 특정 아바타 기기를 상호 매칭시키는 단계;
상기 클라이언트 기기가 상기 클라이언트 프로필에 등록한 촬영 시간 및 촬영 위치에서 촬영된 VR 영상을 매칭된 아바타 기기로부터 수신하는 단계; 및
상기 클라이언트 기기가 사용자의 머리의 각도 및 방향에 대응하는 상기 VR 영상을 표시하는 단계를 포함하고,
상기 제1 서칭 결과를 상기 클라이언트 기기에 제공하는 단계는,
상기 제1 서칭 결과에 복수의 아바타 기기들이 포함된 경우, 상기 어플리케이션관리 서버는, 상기 복수의 아바타 기기들 중 상기 클라이언트 기기와 프로필 정보 매칭 정도가 높은 아바타 기기일수록 상위에 랭크하여 상기 클라이언트에 제공하는 단계를 포함하고,
상기 VR 영상은 상기 아바타 기기가 360도 카메라 센서를 이용하여 생성한 360도 이미지인 실시간 VR 서비스 제공 방법.In a method for providing a real-time VR (Virtual Reality) service using an avatar device that is implemented as a robot device that is moved through a flight unit and moves directly to a specific place at an appointment time,
A client profile including at least one of information on a shooting location, a shooting time, a language used, and a shooting request cost of a VR image requested by a client device including a VR display unit implemented in the form of an HMD is sent to the application management server. Registering;
Registering avatar profiles including at least one of information on a shooting location, a shooting time, a language used, and a shooting request cost of a VR image requested by the avatar device in the application management server;
Searching, by the application management server, an avatar profile matching the client profile and at least one piece of information by comparing the client profile with the avatar profiles, and providing a first search result to the client device;
Receiving, by the application management server, an input of the client device for selecting a specific avatar device from within the first search result;
Matching, by the application management server, the client device and the specific avatar device;
Receiving, by the client device, a VR image captured at a shooting time and a shooting location registered in the client profile from a matched avatar device; And
Displaying, by the client device, the VR image corresponding to the angle and direction of the user's head,
Providing the first search result to the client device,
When a plurality of avatar devices are included in the first search result, the application management server ranks and provides the avatar devices with higher profile information matching degree among the plurality of avatar devices to the client. Including steps,
The VR image is a 360-degree image generated by the avatar device using a 360-degree camera sensor.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190083097A KR102193630B1 (en) | 2019-07-10 | 2019-07-10 | Real time VR service device, method and system through avatar |
PCT/KR2020/008978 WO2021006648A1 (en) | 2019-07-10 | 2020-07-09 | Method of providing real-time vr service through avatar |
US17/626,028 US11847297B2 (en) | 2019-07-10 | 2020-07-09 | Method of providing real-time VR service through avatar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190083097A KR102193630B1 (en) | 2019-07-10 | 2019-07-10 | Real time VR service device, method and system through avatar |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200175362A Division KR20210007930A (en) | 2020-12-15 | 2020-12-15 | Real time VR service device, method and system through avatar |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102193630B1 true KR102193630B1 (en) | 2020-12-21 |
Family
ID=74090517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190083097A KR102193630B1 (en) | 2019-07-10 | 2019-07-10 | Real time VR service device, method and system through avatar |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102193630B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030086326A (en) * | 2001-03-27 | 2003-11-07 | 가부시키가이샤 니콘 | Method for mediating digital data |
JP2004054877A (en) * | 2002-07-22 | 2004-02-19 | Santekku Keiso:Kk | Picture mediating system |
KR20130082718A (en) * | 2011-12-15 | 2013-07-22 | (주)에스디시스템 | System and method for providing avatar service |
-
2019
- 2019-07-10 KR KR1020190083097A patent/KR102193630B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030086326A (en) * | 2001-03-27 | 2003-11-07 | 가부시키가이샤 니콘 | Method for mediating digital data |
JP2004054877A (en) * | 2002-07-22 | 2004-02-19 | Santekku Keiso:Kk | Picture mediating system |
KR20130082718A (en) * | 2011-12-15 | 2013-07-22 | (주)에스디시스템 | System and method for providing avatar service |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190187949A1 (en) | Non-transitory computer readable medium with program, information processing method, and information processing terminal | |
US9535945B2 (en) | Intent based search results associated with a modular search object framework | |
US20200021734A1 (en) | System for publishing digital images | |
KR20190101492A (en) | Suggested items for use with embedded applications in chat conversations | |
US11657336B2 (en) | Location-based activity computer systems | |
US9830388B2 (en) | Modular search object framework | |
CN112214971A (en) | Processing method and device for online document bulletin, electronic equipment and storage medium | |
TWI617930B (en) | Method and system for sorting a search result with space objects, and a computer-readable storage device | |
US20150317319A1 (en) | Enhanced search results associated with a modular search object framework | |
JP2020509456A (en) | Information pushing method and device | |
US11568615B2 (en) | Collaborative on-demand experiences | |
JP2020091897A (en) | Information display terminal, information transmission method, and computer program | |
CN113806306B (en) | Media file processing method, device, equipment, readable storage medium and product | |
US20150341541A1 (en) | Methods and systems of remote acquisition of digital images or models | |
US11847297B2 (en) | Method of providing real-time VR service through avatar | |
KR102193630B1 (en) | Real time VR service device, method and system through avatar | |
KR20210007931A (en) | Real time VR service method through robot avatar | |
KR20210007930A (en) | Real time VR service device, method and system through avatar | |
JP7130719B2 (en) | Computer program, method and server device | |
US20240212264A1 (en) | Program, information processing method, and information processing system | |
US12002073B2 (en) | Information display terminal, information transmission method, and computer program | |
JP7281012B1 (en) | Program, information processing method and information processing system | |
KR20200020431A (en) | Server for managing of natural park tour service | |
US10733637B1 (en) | Dynamic placement of advertisements for presentation in an electronic device | |
KR102174569B1 (en) | Method for providing augmented reality based information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |