KR20180129605A - Method for providing content service and system thereof - Google Patents
Method for providing content service and system thereof Download PDFInfo
- Publication number
- KR20180129605A KR20180129605A KR1020170174082A KR20170174082A KR20180129605A KR 20180129605 A KR20180129605 A KR 20180129605A KR 1020170174082 A KR1020170174082 A KR 1020170174082A KR 20170174082 A KR20170174082 A KR 20170174082A KR 20180129605 A KR20180129605 A KR 20180129605A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- data
- server
- motion
- video data
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/231—Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Abstract
Description
본 발명의 개념에 따른 실시 예는 콘텐츠 제공 서비스 방법에 관한 것으로, 특히 콘텐츠 획득 장치에 의해 생성된 콘텐츠를, 사용자의 설정에 따라, VOD (video-on-demand) 스트리밍(streaming)을 위해 데이터베이스에 저장하거나 콘텐츠 실행 장치로 라이브 스트리밍(live streaming) 할 수 있는 방법과 그 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a content providing service method, and more particularly, to a content providing service method, in which content generated by a content obtaining apparatus is stored in a database for video-on-demand (VOD) streaming, And to a system and method for enabling live streaming to a content execution device.
현재, 가상공간 내의 콘텐츠는 인간의 시각적인 정보와 청각적인 정보에 의하여 전달된다. 현재의 IT 기반의 휴대용 장치는 3차원 그래픽 기술의 발전과 가상현실 기술을 통해 다양한 콘텐츠를 지원하고 있다.Currently, content in virtual space is conveyed by human visual and auditory information. Current IT-based portable devices support various contents through development of 3D graphic technology and virtual reality technology.
본 발명이 이루고자 하는 기술적인 과제는, 콘텐츠 획득 장치에 의해 생성된 콘텐츠를, 사용자의 설정에 따라, VOD 스트리밍을 위해 데이터베이스에 저장하거나 콘텐츠 실행 장치로 라이브 스트리밍할 수 있는 방법과 시스템을 제공하는 것이다.SUMMARY OF THE INVENTION A technical problem to be solved by the present invention is to provide a method and system capable of storing contents created by a content acquisition apparatus in a database for VOD streaming or live streaming to a content execution apparatus according to a user's setting .
본 발명이 이루고자 하는 기술적인 과제는, 콘텐츠 획득 장치에 포함된 구성 요소들 중에서 적어도 하나를 상기 콘텐츠 획득 장치의 사용자 및/또는 상기 콘텐츠 실행 장치의 사용자가 제어(또는 조절)할 수 있는 방법과 시스템을 제공하는 것이다.The technical problem to be solved by the present invention is to provide a method and system in which at least one of the components included in the content obtaining apparatus can be controlled (or adjusted) by a user of the content obtaining apparatus and / .
본 발명에 따른 콘텐츠 획득 장치, 서버, 및 콘텐츠 실행 장치를 이용하여 콘텐츠 제공 서비스 방법은, 상기 콘텐츠 획득 장치의 카메라를 이용하여 비디오 데이터를 생성하고, 상기 콘텐츠 획득 장치의 센서들을 이용하여 상기 콘텐츠 획득 장치의 각속도와 가속도를 측정하여 움직임 데이터를 생성하고, 상기 비디오 데이터와 상기 움직임 데이터를 동기시켜 콘텐츠를 생성하는 단계; 상기 서버가 메모리로부터 제1설정 신호를 읽어오는 단계; 상기 제1설정 신호가 VOD 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 데이터베이스에 저장하고, 상기 제1설정 신호가 라이브 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하는 단계; 및 상기 콘텐츠 실행 장치가 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터와 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 HMD (head mounted device)로 전송하고, 움직임 시뮬레이터의 움직임을 제어하기 위해 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 단계를 포함한다.A content providing service method using a content obtaining apparatus, a server, and a content executing apparatus according to the present invention includes the steps of: generating video data using a camera of the content obtaining apparatus; Generating motion data by measuring angular velocity and acceleration of the device, and generating a content by synchronizing the video data and the motion data; The server reading a first setting signal from a memory; When the first setting signal indicates VOD streaming, the server receives the content transmitted from the content obtaining apparatus and stores the received content in a database, and when the first setting signal instructs live streaming, Receiving the content transmitted from the device and live streaming the content to the content executing device; And a motion simulator for separating the video data and the motion data from the content in which the content execution apparatus is live streamed, transmitting the video data to an HMD (head mounted device) To the motion simulator.
본 발명의 실시 예에 따른, 콘텐츠 획득 장치, 서버, 및 콘텐츠 실행 장치를 이용하여 콘텐츠 제공 서비스 방법은 상기 콘텐츠 획득 장치를 이용하여 콘텐츠 전송 모드를 설정하는 단계; 상기 콘텐츠 획득 장치의 카메라를 이용하여 비디오 데이터를 생성하고, 상기 콘텐츠 획득 장치의 센서들을 이용하여 상기 콘텐츠 획득 장치의 각속도와 가속도를 측정하여 움직임 데이터를 생성하고, 상기 콘텐츠 전송 모드를 포함하는 모드 정보, 상기 비디오 데이터, 및 상기 움직임 데이터를 포함하는 콘텐츠를 생성하는 단계; 상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하는 단계; 상기 서버가 상기 모드 정보를 판단하는 단계; 상기 모드 정보가 VOD 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠를 수신하여 데이터베이스에 저장하고, 상기 모드 정보가 라이브 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠를 바이패스하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하는 단계; 및 상기 콘텐츠 실행 장치가 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터와 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 HMD(head mounted device)로 전송하고, 움직임 시뮬레이터의 움직임을 제어하기 위해 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 단계를 포함한다.According to an embodiment of the present invention, a content providing service method using a content obtaining apparatus, a server, and a content executing apparatus includes: setting a content transfer mode using the content obtaining apparatus; Generating motion data by measuring angular velocity and acceleration of the content acquisition apparatus using sensors of the content acquisition apparatus, generating mode data including the content transfer mode, , Generating the video data, and the content including the motion data; The server receiving the content transmitted from the content acquiring device; Determining the mode information by the server; When the mode information indicates VOD streaming, the server receives the content and stores the content in a database. When the mode information indicates live streaming, the server bypasses the content and performs live streaming to the content execution device step; And a motion simulator for separating the video data and the motion data from the content in which the content execution apparatus is live streamed, transmitting the video data to an HMD (head mounted device) To the motion simulator.
본 발명의 실시 예에 따른 방법은 콘텐츠 획득 장치에 의해 생성된 콘텐츠를, 사용자의 설정에 따라, VOD 스트리밍을 위해 데이터베이스에 저장하거나 콘텐츠 실행 장치로 라이브 스트리밍할 수 있는 효과가 있다. 따라서 콘텐츠 실행 장치의 사용자는 실감 있는 콘텐츠를 즐길 수 있다.The method according to the embodiment of the present invention is effective in that the content generated by the content obtaining apparatus can be stored in the database for VOD streaming or can be live streamed to the content executing apparatus according to the setting of the user. Therefore, the user of the content executing apparatus can enjoy realistic contents.
본 발명의 실시 예에 따른 방법은 상기 콘텐츠 획득 장치에 포함된 구성 요소들 중에서 적어도 하나를 상기 콘텐츠 획득 장치의 사용자 및/또는 상기 콘텐츠 실행 장치의 사용자가 제어(또는 조절)할 수 있는 효과가 있다.The method according to the embodiment of the present invention has the effect that at least one of the components included in the content obtaining apparatus can be controlled (or adjusted) by the user of the content obtaining apparatus and / or the user of the content executing apparatus .
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 데이터 제공 서비스 시스템의 블록도이다.
도 2는 콘텐츠 공개 여부, 콘텐츠 전송 모드, 및 허용 사용자를 설정하는 방법의 실시 예이다.
도 3은 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다.
도 4는 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다.
도 5는 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to more fully understand the drawings recited in the detailed description of the present invention, a detailed description of each drawing is provided.
1 is a block diagram of a data providing service system according to an embodiment of the present invention.
Fig. 2 is an embodiment of a method for setting whether content is to be publicized, a content transmission mode, and an allowed user.
3 is a data flow for explaining the operation of the data providing service system shown in Fig.
4 is a data flow for explaining the operation of the data providing service system shown in FIG.
5 is a data flow for explaining the operation of the data providing service system shown in FIG.
도 1은 본 발명의 실시 예에 따른 데이터 제공 서비스 시스템의 블록도이다. 도 1을 참조하면, 데이터(2D 콘텐츠 또는 3D 콘텐츠) 제공 서비스 시스템(100)은 콘텐츠 획득 장치(200), 서버(400), 데이터베이스(500), 및 복수의 콘텐츠 실행 장치들(700과 800)을 포함한다. 실시 예들에 따라, 데이터 제공 서비스 시스템(100)은 장치(900)를 더 포함할 수 있다. 장치(900)는 디스플레이 및/또는 스피커를 포함하는 장치(예컨대, 스마트폰)를 의미할 수 있다.1 is a block diagram of a data providing service system according to an embodiment of the present invention. 1, a data (2D content or 3D content) providing
데이터 제공 서비스 시스템(100)은 가상현실(virtual reality(VR)) 서비스를 제공할 수 있는 가상현실 서비스 시스템, 체험 서비스 제공 시스템, 또는 원격 제어 시스템으로 구현될 수 있으나 본 발명의 기술적 사상이 이에 한정되는 것은 아니다.The data providing
콘텐츠 획득 장치(200)는 다양한 데이터(또는 다양한 콘텐츠)를 획득할 수 있는 장치를 총칭하는 것으로서, 스마트폰, 웨어러블 컴퓨터, 사물 인터넷 (Internet of Things(IoT)) 장치, 드론(drone), 캠코더(camcoder), 액션 카메라 (action camera or action-cam), 스포츠 액션 캠코더(sports action camcorder), 또는 자동차 등으로 구현될 수 있다. 본 명세서에서, 콘텐츠(contents)는 비디오 신호, 오디오 신호, 및/또는 움직임 신호(예컨대, 가속도와 각속도를 포함)를 포함할 수 있다. 신호는 아날로그 신호 또는 디지털 신호를 의미할 수 있다.The
콘텐츠 획득 장치(200)는 카메라(210), 마이크(220), 가속도 센서(230), 각속도 센서(240), 메모리(245), 프로세서(250), 액추에이터(255), 및 무선 송수신기 (260)를 포함할 수 있다.The
카메라(210)는 정지영상(still image) 또는 동영상(moving image)과 같은 비디오 신호(VS)를 생성하고, 비디오 신호(VS)를 프로세서(250)로 출력할 수 있다. 카메라(210)는 CMOS 이미지 센서로 구현될 수 있다. 카메라(210)는 컬러 정보 (color information)와 깊이 정보(depth information)를 생성할 수 있는 CMOS 이미지 센서로 구현될 수 있다. 카메라(210)는 3차원 이미지 또는 스테레오 스코픽 (stereoscopic) 이미지와 같은 비디오 신호(VS)를 생성할 수 있는 적어도 하나의 카메라로 구현될 수 있다.The
예컨대, 카메라(210)의 작동(예컨대, 녹화 또는 촬영 방향)은 콘텐츠 획득 장치(200)의 사용자의 조작에 의해 콘텐츠 획득 장치(200)에서 생성된 제어 신호 또는 콘텐츠 실행 장치(700 또는 800)의 사용자의 조작에 의해 콘텐츠 실행 장치 (700 또는 800)에서 생성된 제어 신호를 처리하는 프로세서(250)에 의해 제어될 수 있다.For example, the operation of the camera 210 (e.g., recording or photographing direction) may be controlled by a control signal generated by the
마이크(220)는 마이크로폰이라고도 하고, 오디오 신호(AS)를 생성하고, 오디오 신호(AS)를 프로세서(250)로 출력할 수 있다. 실시 예들에 따라, 마이크(220)는 콘텐츠 획득 장치(200)에 배치(또는 설치)될 수도 있고 배치되지 않을 수도 있다. The
예컨대, 마이크(220)의 작동(예컨대, 온 또는 오프)은 콘텐츠 획득 장치 (200)의 사용자의 조작에 의해 콘텐츠 획득 장치(200)에서 생성된 제어 신호 또는 콘텐츠 실행 장치(700 또는 800)의 사용자의 조작에 의해 콘텐츠 실행 장치(700 또는 800)에서 생성된 제어 신호를 처리하는 프로세서(250)에 의해 제어될 수 있다.For example, the operation of the microphone 220 (e.g., on or off) may be controlled by a control signal generated by the
가속도 센서(230)는 움직이는 콘텐츠 획득 장치(200)의 가속도(ACS)를 측정하는 장치로서, 가속도(ACS)를 시간에 대해 1번 적분하면 속도(또는 속도 정보)가 획득되고, 상기 속도를 시간에 대해 1번 더 적분하면 변위(또는 변위 정보)가 획득된다. 가속도 센서(230)로서 3축 가속도 센서가 사용될 수 있으나 이에 한정되는 것은 아니다.The
예컨대, 가속도 센서(230)의 작동(예컨대, 온 또는 오프)은 콘텐츠 획득 장치(200)의 사용자의 조작에 의해 콘텐츠 획득 장치(200)에서 생성된 제어 신호 또는 콘텐츠 실행 장치(700 또는 800)의 사용자의 조작에 의해 콘텐츠 실행 장치(700 또는 800)에서 생성된 제어 신호를 처리하는 프로세서(250)에 의해 제어될 수 있다.For example, the operation of the acceleration sensor 230 (e.g., on or off) may be controlled by a control signal generated by the
각속도 센서(240)는 움직이는 콘텐츠 획득 장치(200)의 각속도(AGS)를 측정하는 장치로서, 상기 각속도를 시간에 대해 1번 적분하면 각도(또는 각도 정보)가 획득되고, 상기 각속도를 시간에 대해 미분하면 각가속도가 얻어지고, 관성모멘트와 결합하여 회전력(또는 토크(torque))이 획득된다. 각속도 센서(240)는 자이로 (gyro) 센서로 구현될 수 있으나 이에 한정되는 것은 아니다. 움직임 신호(또는 움직임 데이터)는 가속도(ACS)와 각속도(AGS)와 관련된 신호(또는 데이터)이다.The
예컨대, 각속도 센서(240)의 작동(예컨대, 온 또는 오프)은 콘텐츠 획득 장치(200)의 사용자의 조작에 의해 콘텐츠 획득 장치(200)에서 생성된 제어 신호 또는 콘텐츠 실행 장치(700 또는 800)의 사용자의 조작에 의해 콘텐츠 실행 장치(700 또는 800)에서 생성된 제어 신호를 처리하는 프로세서(250)에 의해 제어될 수 있다.For example, the operation of the angular velocity sensor 240 (e.g., on or off) may be controlled by a control signal generated by the
비록, 도 1에서는 가속도 센서(230)와 각속도 센서(240)가 별개의 센서들로 예시적으로 도시되어 있으나, 가속도 센서(230)와 각속도 센서(240)는 하나의 하드웨어 칩(또는 모듈)으로 구현될 수 있다.Although the
메모리(245)는 콘텐츠 획득 장치(200)의 작동에 필요한 데이터 및/또는 펌웨어(또는 애플리케이션 프로그램)를 저장할 수 있다. 메모리(245)는 DRAM과 같은 휘발성 메모리와, 플래시 메모리와 같은 불휘발성 메모리를 총칭한다.The
예컨대, 도 2에 도시된 바와 같이, 콘텐츠 획득 장치(200)의 사용자는, 메모리(245)에 저장된 펌웨어 (또는 애플리케이션 프로그램)을 이용하여, '콘텐츠의 공개' 여부, '콘텐츠 전송 모드', 및 '허용 사용자'를 설정할 수 있다. 실시 예에 따라, '콘텐츠의 공개' 여부, '콘텐츠 전송 모드', 및 '허용 사용자'는 콘텐츠 획득 장치(200)와 무선 통신할 수 있는 스마트폰을 이용하여 설정될 수 있다.2, the user of the
메모리(245)에는 제어 정책, 예컨대 콘텐츠 획득 장치(200)의 사용자의 조작에 따라 콘텐츠 획득 장치(200)에서 생성된 제어 신호와 콘텐츠 실행 장치(700 또는 800)의 사용자의 조작에 따라 콘텐츠 실행 장치(700 또는 800)에서 생성된 제어 신호 중에서 어떤 제어 신호를 먼저 처리할지에 대한 정보(또는 데이터)가 저장될 수 있다.The
프로세서(250)는 각 구성 요소(210, 220, 230, 240, 245, 255, 및 260)의 작동을 제어할 수 있고, 메모리(245)에 저장된 OS(operating system)와 펌웨어 (또는 애플리케이션 프로그램)을 실행할 수 있다. 프로세서(250)는 CPU(central processing unit), MCU(micro control unit), GPU(Graphics Processing Unit), GPGPU(General-Purpose computing on Graphics Processing Units), 또는 애플리케이션 프로세서 (application processor(AP))를 의미할 수 있다.The
프로세서(250)는 비디오 신호(VS)와 움직임 신호를 서로 동기시켜 동기된 신호들을 생성할 수 있다. 또한, 프로세서(250)는 비디오 신호(VS), 오디오 신호 (AS), 및 움직임 신호를 서로 동기시켜 동기된 신호들을 생성할 수 있다.
예컨대, 프로세서(250)는 프레임(frame) 단위로 비디오 신호(VS)와 움직임 신호(또는 비디오 신호(VS), 오디오 신호(AS), 및 움직임 신호)의 동기를 맞추어 동기화된 패킷을 생성하고, 동기화된 패킷을 제1통신 네트워크(300)를 통해 서버 (400)로 전송할 수 있다. 프로세서(250)는 동기 정보를 포함하는 동기화된 패킷을 생성할 수 있다.For example, the
동기화된 패킷은 비디오 신호(VS)에 관련된 비디오 데이터(VD)와, 움직임 신호에 관련된 움직임 데이터(MD)를 포함할 수 있다. 또한, 동기화된 패킷은 비디오 신호(VS)에 관련된 비디오 데이터(VD), 오디오 신호(AS)에 관련된 오디오 데이터 (AD), 및 움직임 신호에 관련된 움직임 데이터(MD)를 포함할 수 있다. 동기화된 패킷은 콘텐츠(CNT)를 의미할 수 있다.The synchronized packet may include video data VD associated with the video signal VS and motion data MD associated with the motion signal. The synchronized packet may also include video data VD associated with the video signal VS, audio data AD associated with the audio signal AS, and motion data MD associated with the motion signal. A synchronized packet can mean content (CNT).
다른 예로서, 프로세서(250)는 비디오 신호(VS)의 메타데이터(metadata)를 삽입할 수 있는 레이어(layer)에 타임스탬프(timestamp)를 삽입하여 비디오 신호 (VS)와 움직임 신호(또는 비디오 신호(VS), 오디오 신호(AS), 및 움직임 신호)를 포함하는 신호들(또는 패킷)을 생성할 수 있다.As another example, the
즉, 콘텐츠 획득 장치(200)는 시간적으로 서로 동기된 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT), 또는 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD)를 포함하는 콘텐츠(CNT)를 생성하고, 동기 정보를 포함하는 콘텐츠(CNT)를 제1통신 네트워크(300)를 통해 서버(400)로 전송할 수 있다.That is, the
액추에이터(255)는, 프로세서(250)의 제어에 따라, 콘텐츠 획득 장치(200)에 포함된 대상(object)에 움직임을 주는 기기를 총칭한다. 예컨대, 액추에이터(255)는 DC 모터(또는 AC 모터)와 같은 전기식 액추에이터, 유압 실린더 또는 유압 모터와 같은 유압식 액추에이터, 및/또는 공기압 실린더 또는 공기압 모터와 같은 공기압식 액추에이터로 구현될 수 있다.The
액추에이터(255)에 의해 움직이는 대상은 다양할 수 있다. 예컨대, 콘텐츠 획득 장치(200)가 드론일 때, 액추에이터(255)에 의해 제어되는 대상은 프로펠러, 로터(rotor), 또는 카메라를 흔들리지 않도록 잡아주는 짐벌(gimbal)일 수 있다. 콘텐츠 획득 장치(200)가 자동차일 때, 액추에이터(255)에 의해 제어되는 대상은 핸들 또는 변속기일 수 있다.The object to be moved by the
프로세서(250)는, 메모리(245)에 저장된 제어 정책을 참조하여, 콘텐츠 획득 장치(200)에서 생성된 제어 신호 또는 콘텐츠 실행 장치(700 또는 800)에서 생성된 제어 신호에 따라 액추에이터(255)의 작동을 제어할 수 있다.The
무선 송수신기(260)는 프로세서(250)로부터 출력된 콘텐츠(CNT) 또는 프로세서(250)의 제어에 따라 생성된 콘텐츠(CNT)를 제1통신 네트워크(300)로 출력할 수 있다. 즉, 콘텐츠 획득 장치(200)는 추가적인 전처리(pre-process)를 위한 하드웨어 또는 소프트웨어를 포함하지 않으므로 콘텐츠(CNT)가 생성되면 바로 서버(400)로 전송할 수 있다.The
비디오 데이터(VD)는 비디오 신호(VS)에 대응되는 신호 또는 비디오 신호 (VS)를 처리(예컨대, 인코딩 또는 변조)하여 생성된 신호를 총칭하고, 움직임 데이터(MD)는 가속도(ACS)와 각속도(AGS)에 대응되는 신호 또는 가속도(ACS)와 각속도 (AGS)를 처리(예컨대, 인코딩 또는 변조)하여 생성된 신호를 총칭하고, 오디오 데이터(AD)는 오디오 신호(AS)에 대응되는 신호 또는 오디오 신호(AS)를 처리(예컨대, 인코딩 또는 변조)하여 생성된 신호를 총칭한다.The video data VD collectively refers to signals generated by processing (e.g., encoding or modulating) a signal corresponding to the video signal VS or a video signal VS, and the motion data MD includes acceleration ACS and angular velocity (For example, encoding or modulating) a signal or an acceleration ACS and an angular speed AGS corresponding to the AGS of the audio signal AS and the audio data AD is a signal corresponding to the audio signal AS, And generically refers to signals generated by processing (e.g., encoding or modulating) the audio signal AS.
실시 예에 따라, 움직임 데이터(MD)는 가속도(ACS)와 각속도(AGS)에 대응되는 신호, 및/또는 가속도(ACS)와 각속도(AGS)를 처리(예컨대, 인코딩 또는 변조)하여 생성된 신호뿐만 아니라, 가속도(ACS)와 각속도(AGS) 각각을 미분 또는 적분하여 생성된 신호를 포함할 수 있다. 콘텐츠(CNT)는 패킷 형태로 전송될 수 있다.According to an embodiment, the motion data MD may be generated by processing signals (e.g., encoding or modulating) signals corresponding to acceleration ACS and angular velocity AGS and / or acceleration ACS and angular velocity AGS In addition, it may include signals generated by differentiating or integrating acceleration (ACS) and angular velocity (AGS), respectively. Content (CNT) may be transmitted in packet form.
콘텐츠 획득 장치(200)는 제1통신 네트워크(300)를 통해 서버(400)와 통신(예컨대, 무선 통신)할 수 있다. 각 통신 네트워크(300과 600)는 블루투스, Wi-Fi, 셀룰러 시스템, 무선 LAN, 또는 위성 통신을 지원할 수 있다. 셀룰러 시스템은 W-CDMA, LTETM(long term evolution), 또는 LTE-A(LTE-advanced)일 수 있으나 이에 한정되는 것은 아니다.The
서버(400)는, 제1설정 신호에 따라, 콘텐츠 획득 장치(200)로부터 전송된 콘텐츠(CNT)를 수신하여 VOD(Video On Demand) 스트리밍을 위해 데이터베이스(500)에 저장하거나 라이브 스트리밍(live streaming)을 위해 복수의 콘텐츠 실행 장치들 (700과 800) 중에서 적어도 하나로 전송할 수 있다.The
라이브 스트리밍은 VOD 스트리밍과 달리 비디오와 오디오를 포함하는 멀티미디어 디지털 정보를 다운로드 없이 실시간으로 인코딩하면서 재생하는 기법을 의미한다. VOD 스트리밍은 콘텐츠 실행 장치(700 또는 800)의 사용자의 요청에 따라 데이터베이스(500)에 저장된 콘텐츠를 제2통신 네트워크(600)를 통해 전송하는 것을 의미한다.Unlike VOD streaming, live streaming refers to a technique of reproducing multimedia digital information including video and audio while real-time encoding without downloading. VOD streaming means that contents stored in the
VOD 스트리밍 서버와 라이브 스트리밍 서버의 기능을 수행할 수 있는 서버 (400)는 프로세서(410), 메모리(420), 제1송수신기(430), 선택기(440), 및 제2송수신기(450)를 포함할 수 있다.The
프로세서(410)는 서버(400)의 작동들(예컨대, 콘텐츠 공개 여부, 콘텐츠 전송 모드(예컨대, VOD 스트리밍을 위한 VOD 스트리밍 모드, 라이브 스트리밍을 위한 라이브 스트리밍 모드, 및 상기 VOD 스트리밍 모드와 상기 라이브 스트리밍 모드가 혼합된 혼합 모드, 및 허용 사용자 등)을 제어(또는 설정)할 수 있다. 프로세서 (410)는 각 구성 요소(420, 430, 440, 및 450)의 작동을 제어할 수 있다. 프로세서 (410)는 CPU, MCU, GPU, GPGPU, 또는 AP로 구현될 수 있으나 이에 한정되는 것은 아니다.
메모리(420)는 서버(400)의 작동에 필요한 데이터와 서버(400)에 의해 실행된 펌웨어(또는 프로그램)를 저장할 수 있는 기록 매체의 실시 예이다. 메모리 (420)는 휘발성 메모리와 불휘발성 메모리를 총칭하고, 상기 휘발성 메모리는 캐시 메모리, RAM (random access memory), DRAM(dynamic RAM), 및/또는 SRAM (static RAM)을 포함하고, 상기 불휘발성 메모리는 플래시 메모리를 포함한다.The
제1송수신기(430)는 제1통신 네트워크(300)를 통해 수신된 비디오 데이터 (VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT)를 수신하고 콘텐츠(CNT)를 선택기(440)로 전송한다. 제1송수신기(430)는 프로세서(410)로부터 출력된 신호들을 제1통신 네트워크(300)로 전송할 수 있다.The
선택기(440)는, 프로세서(410)의 제어에 따라, 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT)를 데이터베이스(500)와 제2통신 네트워크(600) 중에서 어느 하나로 전송할 수 있다. 비록, 도 1에서는 선택기(440)가 프로세서 (410)의 외부에 도시되어 있으나, 실시 예들에 따라 선택기(440)는 프로세서(410) 내부에 구현될 수 있다. 또한, 선택기(440)는 하드웨어로 구현될 수도 있고, 프로세서(410)에서 실행될 수 있는 펌웨어 또는 소프트웨어로 구현될 수 있다.The
프로세서(410)는, 제1설정 신호에 기초하여, 선택기(440)의 작동을 제어할 수 있다. 데이터베이스(500)는 VOD 스트리밍을 위한 콘텐츠(CNT=CNT1)를 수신하여 저장할 수 있다.The
또한, 서버(400)의 프로세서(410)의 제어에 따라 데이터베이스(500)는 도 1에 예시적으로 도시된 데이터(또는 정보)를 테이블 또는 룩업 테이블의 형태로 저장할 수 있다.Also, under the control of the
예컨대, 데이터베이스(500)는 사용자(USER), 콘텐츠 획득 장치(200)의 장치 ID(DEVICE), 콘텐츠 공개 여부, 콘텐츠 전송 모드, 및 해당 콘텐츠에 접근할 수 있는 사용자(ALL 또는 FUSER1)에 대한 정보를 저장할 수 있다. 실시 예들에 따라, 서버(400)는 사용자(USER), 콘텐츠 획득 장치(200)의 장치 ID(DEVICE), 콘텐츠 공개 여부, 콘텐츠 전송 모드, 및 해당 콘텐츠에 접근할 수 있는 사용자(ALL 또는 FUSER1)를 메모리(420)에 저장할 수도 있다.For example, the
제2송수신기(450)는, 프로세서(410)의 제어에 따라, VOD 스트리밍을 위한 콘텐츠(CNT=CNT1) 또는 라이브 스트리밍을 위한 콘텐츠(CNT=CNT2)를 제2통신 네트워크(600)를 통해 해당 콘텐츠 실행장치(700 및/또는 800)로 전송할 수 있다.The
제1콘텐츠 실행 장치(700)는 PC(710), 헤드 마운티드 디스플레이(Head Mounted Display(HDM); 720), 움직임 시뮬레이터(motion simulator; 730), 및 스피커(740)를 포함한다. 제2콘텐츠 실행 장치(800)는 PC(810), 헤드 마운티드 디스플레이(820), 움직임 시뮬레이터(830), 및 스피커(840)를 포함한다.The first
각 움직인 시뮬레이터(730과 830)는 로봇, 가상현실 체험 장치, 또는 엑서게임(exergame)을 위한 장치일 수 있다. 가상현실 체험 장치는 3차원(three-dimensional(3D)), 4D, 5D, 6D, 7D, 8D, 9D, 또는 XD 가상현실 체험장치로 구현될 수 있다. 해당 PC(710 또는 810)는 3D, 4D, 5D, 6D, 7D, 8D, 9D, 또는 XD를 위한 콘텐츠를 실행할 수 있다.Each of the moving
PC(710 또는 810)는 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT1 또는 CNT2)로부터 비디오 데이터(VD)와 움직임 데이터(MD)를 분리(예컨대, 디코딩시에 분리)하고, 비디오 데이터(VD)를 해당 HMD(720 또는 820)로 전송하고, 움직임 데이터(MD)를 해당 움직임 시뮬레이터(730 또는 830)로 전송한다. 분리된 비디오 데이터(VD)와 분리된 움직임 데이터(MD)는 서로 동기된(또는 시간적으로 동기된) 데이터이다. PC(710 또는 810)는 콘텐츠 실행 장치(700 또는 800)를 제어하는 다양한 이름으로 불릴 수 있는 컨트롤러를 총칭한다.The
실시 예에 따라, PC(710 또는 810)는 비디오 데이터(VD), 오디오 데이터 (AD), 및 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT1 또는 CNT2)로부터 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD)를 분리(예컨대, 디코딩 시에 분리)하고, 비디오 데이터(VD)를 해당 HMD(720 또는 820)로 전송하고, 움직임 데이터(MD)를 해당 움직임 시뮬레이터(730 또는 830)로 전송하고, 오디오 데이터 (AD)를 해당 스피커(740 또는 840)으로 전송한다. 분리된 비디오 데이터(VD), 분리된 오디오 데이터(AD), 및 분리된 움직임 데이터(MD)는 서로 동기된(또는 시간적으로 동기된) 데이터이다.According to the embodiment, the
해당 HMD(720 또는 820)는 비디오 데이터(VD)에 기초하여 영상(예컨대, 가상현실)을 디스플레이할 수 있다. 해당 움직임 시뮬레이터(730 또는 830)는 움직임 데이터(MD)에 기초하여 콘텐츠 획득 장치(200)의 움직임(예컨대, 롤(roll), 피치 (pitch), 및 요(yaw))을 그대로 재현할 수 있다. 해당 스피커(740과 40)는 오디오 데이터(AD)에 기초하여 해당 오디오를 출력할 수 있다.The
해당 움직임 시뮬레이터(730 또는 830)는 콘텐츠 획득 장치(200)에 의해 생성된 가속도(ACS)와 각속도(AGS), 가속도(ACS)와 각속도(AGS) 중에서 적어도 하나에 관련된 적분값, 및/또는 가속도(ACS)와 각속도(AGS) 중에서 적어도 하나에 관련된 미분값을 이용하여 콘텐츠 획득 장치(200)의 움직임(예컨대, 롤(roll), 피치 (pitch), 및 요(yaw))을 그대로 재현할 수 있다.The
콘텐츠 획득 장치(200)의 카메라(210)에 의해 촬영된 영상(예컨대, 2D 영상 또는 3D 영상)에 해당하는 영상(예컨대, 2D 영상 또는 3D 영상)은 해당 HMD(720 또는 820)에서 디스플레이되고, 콘텐츠 획득 장치(200)의 센서들(230과 240)로부터 측정된 가속도(ACS)와 각속도(AGS)는 해당 움직임 시뮬레이터(730 또는 830)에 반영되고, 마이크(220)에 의해 획득된 오디오는 해당 스피커(740과 840)를 통해 출력될 수 있다.An image (for example, a 2D image or a 3D image) corresponding to an image (for example, a 2D image or a 3D image) photographed by the
해당 콘텐츠 실행 장치(700 또는 800)는 콘텐츠 획득 장치(200)에 의해 획득된 비디오, 오디오, 및 움직임을 그대로 반영할 수 있는 효과가 있다.The
도 2는 콘텐츠 공개 여부, 콘텐츠 전송 모드, 및 허용 사용자를 설정하는 방법의 실시 예이다. 콘텐츠 획득 장치(200)의 프로세서(250)에 의해 실행되는 펌웨어(또는 애플리케이션 프로그램)은 도 2에 도시된 그래픽 사용자 인터페이스( graphical user interface(GUI); 251)를 사용자(또는 콘텐츠 획득 장치(200)와 통신할 수 있는 스마트폰)에게 제공할 수 있다.Fig. 2 is an embodiment of a method for setting whether content is to be publicized, a content transmission mode, and an allowed user. The firmware (or application program) executed by the
GUI(251)는 "콘텐츠 공개(콘텐츠 보안)" 여부를 입력하기 위한 버튼들(253-1과 253-2), "콘텐츠 전송 모드"를 입력하기 위한 버튼들(255-1~255-3), 및 해당 콘텐츠를 VOD 스트리밍(또는 VOD 스트리밍 서비스) 또는 라이브 스트리밍(또는 라이브 스트리밍 서비스)을 통해 실행할 수 있는 적어도 하나의 "허용 사용자"를 입력할 수 있는 입력창(257-1과 257-2)을 포함한다. 허용 사용자에 대한 식별정보는 해당 콘텐츠 실행장치(700 또는 800)를 사용하는 사용자를 유일무이하게 식별할 수 있는 식별정보(예컨대, 상기 사용자의 스마트폰 전화번호 또는 전자메일 주소 등)일 수 있다.The
비록 도 2에서는 GUI(251)가 도시되어 있으나, 콘텐츠 전송 모드를 결정하는 제1설정 신호와 콘텐츠 공개 여부를 결정하는 제2설정 신호를 생성하는 방법은 다양하게 변경될 수 있다. 각 설정 신호는 복수의 비트들을 포함하는 데이터를 의미할 수 있다.Although the
따라서, 본 발명의 개념에 따른 콘텐츠 획득 장치(200) 또는 콘텐츠 획득 장치(200)와 통신할 수 있는 스마트폰은 제1설정 신호와 제2설정 신호를 생성할 수 있는 하드웨어 또는 소프트웨어를 포함할 수 있다.Thus, a smartphone capable of communicating with
도 3은 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다. 도 1부터 도 3을 참조하면, 콘텐츠 획득 장치(200)의 사용자는 콘텐츠 획득 장치(200)의 디스플레이 장치 또는 콘텐츠 획득 장치(200)와 통신할 수 있는 스마트폰의 디스플레이 장치에서 디스플레이되는 버튼들(253-1과 253-2) 중에서 어느 하나를 이용하여 콘텐츠 공개 여부를 선택한다(S110).3 is a data flow for explaining the operation of the data providing service system shown in Fig. 1 to 3, the user of the
버튼(253-1)은 공개(또는 비보안)을 선택하기 위한 버튼이고, 버튼(253-1)이 선택되면 해당 콘텐츠는 원하는 사용자에게 제한 없이 스트리밍(예컨대, VOD 스트리밍 또는 라이브 스트리밍)될 수 있다. 버튼(253-2)은 비공개(또는 보안)를 선택하기 위한 버튼이고, 버튼(253-2)이 선택되면 해당 콘텐츠는 허용 사용자로 서버 (400)에 등록된 사용자에게만 스트리밍(예컨대, VOD 스트리밍 또는 라이브 스트리밍) 될 수 있다.The button 253-1 is a button for selecting an open (or non-secure) button. When the button 253-1 is selected, the content can be streamed (for example, VOD streaming or live streaming) without limitation to a desired user. When the button 253-2 is selected, the content is permitted to be streamed only to a user registered in the
해당 버튼(253-1 또는 253-2)이 선택됨에 따라, 프로세서(250)는 콘텐츠 공개 여부를 지시하는 제2설정 신호를 생성하고, 상기 제2설정 신호는 구성 요소들 (260, 300, 및 430)을 통해 프로세서(410)로 전송되고(S112), 프로세서(410)는 상기 제2설정 신호를 메모리(420) 및/또는 데이터베이스(500)에 저장한다(S114). 콘텐츠 획득 장치(200)의 장치 ID(DEVICE)는 프로세서(410)로 전송되고, 프로세서 (410)는 장치 ID(DEVICE)를 메모리(420) 및/또는 데이터베이스(500)에 저장한다.As the button 253-1 or 253-2 is selected, the
콘텐츠 획득 장치(200)의 사용자는 버튼들(255-1, 255-2, 및 255-3) 중에서 어느 하나를 이용하여 콘텐츠 전송 모드를 선택한다(S120).The user of the
버튼(255-1)은 VOD 스트리밍(또는 VOD 서비스)을 선택하기 위한 버튼이고, 버튼(255-1)이 선택되면 해당 콘텐츠는 서버(400)에 의해 VOD 스트리밍을 위해 데이터베이스(500)에 저장된다. 버튼(255-2)은 라이브 스트리밍(또는 라이브 서비스)을 선택하기 위한 버튼이고, 버튼(255-2)이 선택되면 해당 콘텐츠는 서버(400)에 의해 해당 콘텐츠 실행 장치(700 및/또는 800)로 라이브 스트리밍될 수 있다. 즉, 서버(400)는 상기 해당 콘텐츠를 바이패스(bypass) 한다. VOD 스트리밍을 위한 콘텐츠는 오프라인(offline) 콘텐츠라 할 수 있고, 라이브 스트리밍을 위한 콘텐츠는 온라인(online) 콘텐츠라 할 수 있다. 바이패스는 해당 콘텐츠를 데이터베이스 (500)에 저장하지 않고 실시간으로 해당 콘텐츠 실행 장치(700 및/또는 800)로 전송하는 것을 의미한다.The button 255-1 is a button for selecting the VOD streaming (or the VOD service). When the button 255-1 is selected, the content is stored in the
버튼(255-3)은 라이브 스트리밍(또는 라이브 서비스)과 동시에 VOD 스트리밍(또는 VOD 서비스)을 선택하기 위한 버튼이고, 버튼(255-3)이 선택되면 해당 콘텐츠는 해당 콘텐츠 실행 장치(700 및/또는 800)로 라이브 스트리밍되는 동시에(또는 병렬적으로) 서버(400)에 의해 데이터베이스(500)에 저장된다.Button 255-3 is a button for selecting VOD streaming (or VOD service) at the same time as live streaming (or live service). When the button 255-3 is selected, the corresponding content is displayed on the corresponding
해당 버튼(255-1, 255-2, 또는 255-3)이 선택됨에 따라, 프로세서(250)는 콘텐츠 전송 모드를 지시하는 제1설정 신호를 생성하고, 상기 제1설정 신호는 구성 요소들(260, 300, 및 430)을 통해 프로세서(410)로 전송되고(S122), 프로세서(410)는 상기 제1설정 신호를 메모리(420) 및/또는 데이터베이스(500)에 저장한다 (S124).As the buttons 255-1, 255-2, or 255-3 are selected, the
콘텐츠 획득 장치(200)의 사용자는 입력창들(257-1과 257-2) 각각에 허용 사용자를 입력한다(S126). 적어도 한 명의 허용 사용자가 입력되면, 프로세서(250)는 입력된 허용 사용자(FUSER)를 구성 요소들(260, 300, 및 430)을 통해 프로세서 (410)로 전송하고(S127), 프로세서(410)는 허용 사용자(FUSER)를 메모리(420) 및/또는 데이터베이스(500)에 저장한다(S128).The user of the
콘텐츠 획득 장치(200)는 카메라(210)에 의해 촬영된 비디오 신호(AS)를 이용하여 비디오 데이터(VD)를 생성하고(S130), 콘텐츠 획득 장치(200)는 센서들(230과 240)에 의해 측정된 값들(ACS와 AGS)을 이용하여 움직임 데이터(MD)를 생성한다 (S140). 실시 예에 따라, 콘텐츠 획득 장치(200)는 움직임 데이터(MD) 뿐만 아니라 마이크(220)로부터 획득된 오디오 신호(AS)를 이용하여 오디오 데이터(AD)를 더 생성할 수 있다(S140).The
콘텐츠 획득 장치(200)의 프로세서(250)는 콘텐츠(CNT)를 생성할 수 있다 (S142). 콘텐츠(CNT)는 시간적으로 서로 동기된 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하거나, 시간적으로 서로 동기된 비디오 데이터(VD), 오디오 데이터 (AD), 및 움직임 데이터(MD)를 포함한다(S142).The
서버(400)에 콘텐츠(CNT)가 수신되면, 서버(400)의 프로세서(410)는 메모리 (420) 또는 데이터베이스(500)를 검색하여, 장치 ID(DEVICE)의 사용자(USER)가 설정한 제1설정 신호를 읽어와서, 콘텐츠 전송 모드가 VOD 스트리밍을 위한 모드(VOD 스트리밍 모드) 인지 라이브 스트리밍을 위한 모드(라이브 스트리밍 모드) 인지, 또는 혼합 모드 인지를 판단한다(S150).The
콘텐츠 획득 장치(200)의 사용자가 제1사용자(USER=USER1)이고, 콘텐츠 획득 장치(200)의 장치 ID(DEVICE)가 DEVICE1이고, 제1설정 신호에 해당하는 콘텐츠 전송 모드가 VOD 스트리밍 모드(VOD STREAMING)이고, 콘텐츠 획득 장치(200)가 콘텐츠(CNT=CNT1)를 생성하고, 제2설정 신호에 해당하는 콘텐츠 공개 여부가 "모든 사용자(ALL)"에게 "공개"라고 가정한다.When the user of the
이 경우, 서버(400)의 프로세서(410)는 VOD 스트리밍을 지시하는 제1설정 신호에 기초하여 선택 신호(SEL)를 생성하고, 선택 신호(SEL)를 선택기(440)로 출력한다. 선택기(440)는, 선택 신호(SEL)에 응답하여, 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT=CNT1)를 수신하여 데이터베이스(500)에 저장한다(S160).In this case, the
콘텐츠 획득 장치(200)의 사용자가 제2사용자(USER=USER2)이고, 콘텐츠 획득장치(200)의 장치 ID(DEVICE)가 DEVICE2이고, 제1설정 신호에 해당하는 콘텐츠 전송 모드가 라이브 스트리밍 모드(LIVE STREAMING)이고, 허용 사용자가 콘텐츠 실행 장치(700)를 사용하는 사용자(FUSER1)이고, 콘텐츠 획득 장치(200)가 콘텐츠 (CNT=CNT2)를 생성하고, 제2설정 신호에 해당하는 콘텐츠 공개 여부가 FUSER1를 제외한 모든 사용자에게 "비공개"라고 가정한다.If the user of the
이 경우, 서버(400)의 프로세서(410)는 라이브 스트리밍을 지시하는 제1설정 신호에 기초하여 선택 신호(SEL)를 생성하고, 선택 신호(SEL)를 선택기(440)로 출력한다. 선택기(440)는, 선택 신호(SEL)에 응답하여, 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT=CNT2)를 콘텐츠 실행 장치(700)로 전송(또는 바이패스)하기 위해 제2송수신기(450)로 전송한다(S170).In this case, the
허용 사용자(FUSER1)에 해당하는 콘텐츠 실행 장치(700)만이 서버(700)로부터 전송된 콘텐츠(CNT)를 수신하여 실행할 수 있다. 예컨대, 콘텐츠 실행 장치(700)의 PC(710)는 콘텐츠(CNT)에 포함된 허용 사용자(FUSER1)에 대한 정보와 콘텐츠 실행 장치(700)의 사용자 정보를 비교하고, 이들이 일치하므로 콘텐츠(CNT)를 실행할 수 있다.Only the
그러나 허용 사용자(FUSER1)에 해당하지 않는 사용자의 콘텐츠 실행 장치 (800)는 서버(700)로부터 전송된 콘텐츠(CNT)를 수신할 수는 있으나 콘텐츠 실행 장치(800)는 콘텐츠(CNT)를 실행할 수는 없다. 예컨대, 콘텐츠 실행 장치(800)의 PC(810)는 콘텐츠(CNT)에 포함된 허용 사용자(FUSER1)에 대한 정보와 콘텐츠 실행 장치(800)의 사용자 정보를 비교하고, 이들이 일치하지 않으므로 콘텐츠(CNT)를 실행할 수 없다.However, the
예컨대, 서버(400)는 DRM(Digital rights management)이 적용된 콘텐츠(CNT)를 제2통신 네트워크(600)로 전송할 수 있다. 따라서, 허용 사용자(FUSER1)에 해당하는 콘텐츠 실행 장치(700)만이 DRM을 이용하여 콘텐츠(CNT)를 실행할 수 있다.For example, the
허용 사용자(FUSER1)에 해당하는 콘텐츠 실행 장치(700)의 PC(710)는 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT2)를 처리(예컨대, 복조 또는 디코딩)하여 콘텐츠(CNT=CNT2)로부터 비디오 데이터(VD)와 움직임 데이터 (MD) 각각을 분리할 수 있다(S180).The
PC(710)는 비디오 데이터(VD)를 HMD(720)로 전송하고(S185), 움직임 데이터 (MD)를 움직임 시뮬레이터(730)로 전송한다(S190). HMD(720)로 전송되는 비디오 데이터(VD)와 움직임 시뮬레이터(730)로 전송되는 움직임 데이터(MD)는 콘텐츠 (CNT=CNT2)에 포함된 시간 정보에 따라 서로 동기된 데이터이다.The
콘텐츠(CNT=CNT2)가 오디오 데이터(AD)를 더 포함할 때, 콘텐츠 실행 장치 (700)의 PC(710)는 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT2)를 처리(예컨대, 복조 또는 디코딩)하여 콘텐츠 (CNT=CNT2)로부터 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD) 각각을 분리할 수 있다.The
PC(710)는 비디오 데이터(VD)를 HMD(720)로 전송하고, 움직임 데이터(MD)를 움직임 시뮬레이터(730)로 전송하고, 오디오 데이터(AD)를 스피커(740)로 전송한다. HMD(720)로 전송되는 비디오 데이터(VD), 움직임 시뮬레이터(730)로 전송되는 움직임 데이터(MD), 및 스피커(740)로 전송되는 오디오 데이터(AD)는 콘텐츠 (CNT=CNT2)에 포함된 시간 정보에 따라 서로 동기된 데이터이다.The
허용 사용자(FUSER1)에 해당하는 콘텐츠 실행 장치(700)의 사용자가 PC(710) 또는 시뮬레이터(730)를 조작함에 함에 따라, PC(710) 또는 시뮬레이터(730)가 콘텐츠 획득 장치(200)의 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어하기 위한 제어 신호(CTRL1-1)를 생성하면, 제어 신호(CTRL1-1)는 제2통신 네트워크(600)를 통해 서버(400)로 전송되고(S192), 제어 신호(CTRL1-1)는 제1통신 네트워크(300)를 통해 콘텐츠 획득 장치(200)로 전송된다(S194).The user of the
콘텐츠 획득 장치(200)의 프로세서(250)는 제어 신호(CTRL1-1)에 따라 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어할 수 있다(S196). The
예컨대, 카메라(210)는, 제어 신호(CTRL1-1)에 따라 작동하는 프로세서(250)의 제어에 따라, 촬영 방향을 변경할 수도 있다(S196). 콘텐츠 획득 장치(200)가 드론일 때, 액추에이터(255)는, 제어 신호(CTRL1-1)에 따라 작동하는 프로세서 (250)의 제어에 따라, 상기 드론의 진행 방향과 속도를 제어하기 위해 프로펠러 또는 로터를 제어할 수 있다(S196).For example, the
도 4는 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다. 도 1부터 도 4를 참조하면, 제1콘텐츠 실행 장치(700)의 제1사용자는 서버(400)에 허용 사용자로서 등록된 사용자(FUSER1)이고, 제2콘텐츠 실행 장치(800)의 제2사용자는 서버(400)에 허용 사용자로서 등록되지 않은 사용자라고 가정한다.4 is a data flow for explaining the operation of the data providing service system shown in FIG. 1 to 4, a first user of the first
제1콘텐츠 실행 장치(700)와 서버(400)가 제2통신 네트워크(600)를 통해 서로 접속된 상태에서, 제1사용자가 제1사용자 정보를 제1콘텐츠 실행 장치(700)의 PC(710)로 입력하면, PC(710)는 상기 제1사용자 정보를 서버(400)로 전송한다 (S171). 서버(400)의 프로세서(410)는 상기 제1사용자 정보에 기초하여 메모리 (420) 또는 데이터베이스(500)를 검색하고, 상기 제1사용자가 등록된 사용자 (FUSER1)인지를 판단한다(S173). 상기 제1사용자가 등록된 사용자(FUSER1)일 때, 서버(400)의 프로세서(410)는 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠 (CNT=CNT2)를 라이브 스트리밍하기 위해 실시간으로 제1콘텐츠 실행 장치(700)로 전송한다(S170).The first user transmits the first user information to the
즉, 서버(400)는 콘텐츠(CNT=CNT2)를 어떤 콘텐츠 실행 장치로 라이브 스트리밍 할지를 메모리(420) 또는 데이터베이스(500)에 저장된 콘텐츠 공개 여부, 콘텐츠 전송 모드, 및 허용 사용자를 참조하여 판단하고, 판단 결과에 따라 콘텐츠 (CNT=CNT2)를 판단된 콘텐츠 실행 장치로 실시간으로 전송한다(S170).In other words, the
제2콘텐츠 실행 장치(800)와 서버(400)가 제2통신 네트워크(600)를 통해 서로 접속된 상태에서, 제2사용자가 제2사용자 정보를 제2콘텐츠 실행 장치(800)의 PC(810)로 입력하면, PC(810)는 상기 제2사용자 정보를 서버(400)로 전송한다.The second user transmits the second user information to the
서버(400)에 의해 제2사용자가 VOD 스트리밍 받을 수 있는 사용자로 인증되면, 상기 제2사용자는 PC(810)를 이용하여 서버(400)에 의해 액세스 가능한 데이터베이스(500)로부터 콘텐츠를 검색하고, VOD 스트리밍 받을 콘텐츠(CNT=CNT1)를 선택한다(S210). 서버(400)의 프로세서 (410)는 데이터베이스(500)로부터 콘텐츠 (CNT=CNT1)를 검색하고(S220), 콘텐츠 (CNT=CNT1)를 스트리밍한다(S230).When the second user is authenticated as a user who can receive VOD streaming by the
콘텐츠 실행 장치(800)의 PC(810)는 비디오 데이터(VD)와 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT1)를 처리(예컨대, 복조 또는 디코딩)하여 콘텐츠 (CNT=CNT1)로부터 비디오 데이터(VD)와 움직임 데이터(MD) 각각을 분리할 수 있다 (S240).The
PC(810)는 비디오 데이터(VD)를 HMD(820)로 전송하고(S250), 움직임 데이터 (MD)를 움직임 시뮬레이터(830)로 전송한다(S260). HMD(820)로 전송되는 비디오 데이터(VD)와 움직임 시뮬레이터(830)로 전송되는 움직임 데이터(MD)는 콘텐츠 (CNT=CNT1)에 포함된 시간 정보에 따라 서로 동기된 데이터이다.The
콘텐츠(CNT=CNT1)가 오디오 데이터(AD)를 더 포함할 때, 콘텐츠 실행 장치 (800)의 PC(810)는 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT1)를 처리(예컨대, 복조 또는 디코딩)하여 콘텐츠 (CNT=CNT1)로부터 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD) 각각을 분리할 수 있다.The
PC(810)는 비디오 데이터(VD)를 HMD(820)로 전송하고, 움직임 데이터(MD)를 움직임 시뮬레이터(830)로 전송하고, 오디오 데이터(AD)를 스피커(840)로 전송한다. HMD(820)로 전송되는 비디오 데이터(VD), 움직임 시뮬레이터(830)로 전송되는 움직임 데이터(MD), 및 스피커(840)로 전송되는 오디오 데이터(AD)는 콘텐츠 (CNT=CNT1)에 포함된 시간 정보에 따라 서로 동기된 데이터이다.The
허용 사용자(FUSER1)에 해당하는 콘텐츠 실행 장치(700)의 사용자가 PC(710) 또는 시뮬레이터(730)를 조작함에 함에 따라, PC(710) 또는 시뮬레이터(730)가 콘텐츠 획득 장치(200)의 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어하기 위한 제어 신호(CTRL1-2)를 생성하면, 제어 신호(CTRL1-2)는 제2통신 네트워크(600)를 통해 서버(400)로 전송되고(S262), 제어 신호(CTRL1-2)는 제1통신 네트워크(300)를 통해 콘텐츠 획득 장치(200)로 전송된다(S264).The user of the
콘텐츠 획득 장치(200)의 프로세서(250)는 제어 신호(CTRL1-2)에 따라 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어할 수 있다(S266). The
예컨대, 카메라(210)는, 제어 신호(CTRL1-2)에 따라 작동하는 프로세서(250)의 제어에 따라, 촬영 방향을 변경할 수도 있다(S266). 콘텐츠 획득 장치(200)가 드론일 때, 액추에이터(255)는, 제어 신호(CTRL1-2)에 따라 작동하는 프로세서 (250)의 제어에 따라, 상기 드론의 진행 방향과 속도를 제어하기 위해 프로펠러 또는 로터를 제어할 수 있다(S266).For example, the
도 3과 도 4를 참조하면, 콘텐츠 획득 장치(200)의 사용자의 조작에 따라 콘텐츠 획득 장치(200)에서 생성된 제어 신호와 콘텐츠 실행 장치(700)로부터 전송된 제어 신호(CTRL1-1 또는 CTRL1-2)가 서로 상충될 때(예컨대, 콘텐츠 획득 장치 (200)를 왼쪽으로 이동(또는 회전)시키려는 콘텐츠 획득 장치(200)의 사용자의 의도와 콘텐츠 획득 장치(200)를 오른쪽으로 이동(또는 회전)시키려는 콘텐츠 실행 장치(700)의 사용자의 의도가 상충할 때), 프로세서(250)는 메모리(245)에 저장된 제어 정책을 참조하여 어떤 제어 신호를 먼저 처리할지를 결정할 수 있다.3 and 4, a control signal generated by the
예컨대, 상기 제어 정책이 콘텐츠 획득 장치(200)의 사용자의 의도에 따른 제어 신호에 우선순위를 부여했을 때, 프로세서(250)는 콘텐츠 획득 장치(200)의 사용자의 의도에 따른 제어 신호에 따라 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어할 수 있다.For example, when the control policy assigns a priority to the control signal according to the intention of the user of the
그러나 상기 제어 정책이 콘텐츠 실행 장치(700)로부터 전송된 제어 신호 (CTRL1-1 또는 CTRL1-2)에 우선순위를 부여했을 때, 프로세서(250)는 제어 신호 (CTRL1-1 또는 CTRL1-2)에 따라 구성 요소들(210, 220, 230, 240, 및 255) 중에서 적어도 하나를 제어할 수 있다.However, when the control policy assigns priority to the control signals CTRL1-1 or CTRL1-2 transmitted from the
시뮬레이터를 포함하지 않는 장치(900), 예컨대 스마트폰은 서버(400)와 통신할 수 있는 제2통신 네트워크(600)를 통해 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 수신하고, 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 재생할 수 있다.A
도 5는 도 1에 도시된 데이터 제공 서비스 시스템의 작동을 설명하기 위한 데이터 플로우이다.5 is a data flow for explaining the operation of the data providing service system shown in FIG.
도 1, 도 2, 및 도 5를 참조하면, 콘텐츠 획득 장치(200)의 사용자는 콘텐츠 전송 모드를 설정한다(S310). 설정된 콘텐츠 전송 모드는 VOD 스트리밍 모드, 라이브 스트리밍 모드, 및 혼합 모드 중에서 어느 하나이다.1, 2, and 5, the user of the
콘텐츠 획득 장치(200)는 카메라(210)에 의해 촬영된 비디오 신호(AS)를 이용하여 비디오 데이터(VD)를 생성하고(S320), 콘텐츠 획득 장치(200)는 센서들(230과 240)에 의해 측정된 값들(ACS와 AGS)을 이용하여 움직임 데이터(MD)를 생성한다 (S330). 실시 예에 따라, 콘텐츠 획득 장치(200)는 움직임 데이터(MD) 뿐만 아니라 마이크(220)로부터 획득된 오디오 신호(AS)를 이용하여 오디오 데이터(AD)를 더 생성할 수 있다(S340).The
콘텐츠 획득 장치(200)의 프로세서(250)는 사용자에 의해 설정된 콘텐츠 전송 모드에 대한 모드 정보(CTM)를 포함하는 콘텐츠(CNT)를 생성하고, 콘텐츠(CNT)를 서버(400)로 전송할 수 있다(S350).The
콘텐츠(CNT)는 시간적으로 서로 동기된 비디오 데이터(VD)와 움직임 데이터 (MD)를 포함하거나, 시간적으로 서로 동기된 비디오 데이터(VD), 오디오 데이터 (AD), 및 움직임 데이터(MD)를 포함한다.The content CNT includes the video data VD and the motion data MD synchronized with each other or includes the video data VD synchronized in time with each other, the audio data AD, and the motion data MD do.
콘텐츠(CNT)가 서버(400)에 수신되면, 서버(400)의 프로세서(410)는 모드 정보(CTM)를 해석한다(S355). 모드 정보(CTM)가 VOD 스트리밍을 나타낼 때(S357의 YES), 서버(400)는 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT)를 수신하여 데이터베이스(500)에 저장한다(S360).When the content CNT is received by the
모드 정보(CTM)가 라이브 스트리밍을 나타낼 때(S357의 NO), 서버(400)는 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT)를 바이패스하여(즉, 데이터베이스(500)에 저장하지 않고) 제2통신 네트워크(600)로 전송한다(S365). 즉, 서버 (400)는 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT)를 해당 콘텐츠 실행 장치(700)로 라이브 스트리밍한다(S365).When the mode information CTM indicates live streaming (NO in S357), the
모드 정보(CTM)가 라이브 스트리밍과 VOD 스트리밍을 포함하는 혼합 모드를 나타낼 때(S357의 NO), 서버(400)는 콘텐츠 획득 장치(200)로부터 전송되는 콘텐츠(CNT)를 데이터베이스(500)에 저장하면서 이와 병렬적으로 콘텐츠(CNT)를 제2통신 네트워크(600)로 전송한다.When the mode information CTM indicates a mixed mode including live streaming and VOD streaming (NO in S357), the
콘텐츠(CNT)가 오디오 데이터(AD)를 더 포함할 때, 콘텐츠 실행 장치(700)의 PC(710)는 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD)를 포함하는 콘텐츠(CNT=CNT2)를 수신하여 처리(예컨대, 복조 또는 디코딩)하고 콘텐츠(CNT)로부터 비디오 데이터(VD), 오디오 데이터(AD), 및 움직임 데이터(MD) 각각을 분리할 수 있다(S370).When the content CNT further includes the audio data AD, the
PC(710)는 비디오 데이터(VD)를 HMD(720)로 전송하고(S375), 오디오 데이터 (AD)를 스피커(740)로 전송하고(S380), 움직임 데이터(MD)를 움직임 시뮬레이터 (730)로 전송한다(S385). HMD(720)로 전송되는 비디오 데이터(VD), 움직임 시뮬레이터(730)로 전송되는 움직임 데이터(MD), 및 스피커(740)로 전송되는 오디오 데이터(AD)는 콘텐츠 (CNT)에 포함된 시간 정보에 따라 서로 동기된 데이터이다.The
장치(900)는 스마트폰, 태블릿 PC, 또는 모바일 인터넷 장치(Moblie Internet Device)로 구현될 수 있다. 장치(900)의 사용자가 제1콘텐츠 실행 장치 (700)의 제1사용자와 관련된 사람(보호자, 친구, 또는 지인 등)일 때, 장치(900)의 사용자가 장치(900)의 고유번호(예컨대, 전화번호 또는 IP 주소)를 서버(400)에 등록하면, 서버(400)는 콘텐츠(CNT=CNT2)를 제1콘텐츠 실행 장치(700)로 라이브 스트리밍 하면서 장치(900)로 콘텐츠(CNT=CNT2)에 포함된 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 전송할 수 있다. 따라서 움직임 시뮬레이터(730)를 이용할 수 없는 장치(900)의 사용자는 제1콘텐츠 실행 장치(700)의 제1사용자가 체험하는 콘텐츠(CNT=CNT2) 중에서 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 체험할 수 있다.The
또한, 장치(900)의 사용자가 제2콘텐츠 실행 장치(800)의 제2사용자와 관련된 사람(보호자, 친구, 또는 지인 등)일 때, 장치(900)의 사용자가 장치(900)의 고유번호(예컨대, 전화번호 또는 IP 주소)를 서버(400)에 등록하면, 서버(400)는 콘텐츠(CNT=CNT1)를 제2콘텐츠 실행 장치(800)로 VOD 스트리밍 하면서 장치(900)로 콘텐츠(CNT=CNT1)에 포함된 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 전송할 수 있다. 따라서 움직임 시뮬레이터(830)를 이용할 수 없는 장치(900)의 사용자는 제2콘텐츠 실행 장치 (800)의 제2사용자가 체험하는 콘텐츠(CNT=CNT1) 중에서 비디오 데이터(VD) 및/또는 오디오 데이터(AD)를 체험할 수 있다.Further, when the user of the
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100: 데이터(또는 콘텐츠) 제공 서비스 시스템
200: 콘텐츠 획득 장치
300: 제1통신 네트워크
40: 서버
500: 데이터베이스
600: 제2통신 네트워크
700: 제1콘텐츠 실행 장치
710, 810: PC
720, 820: 헤드 마운티드 디스플레이
730, 830: 움직임 시뮬레이터
740, 840: 스피커
800: 제2콘텐츠 실행 장치100: Data (or contents) providing service system
200: Content acquisition device
300: first communication network
40: Server
500: Database
600: second communication network
700: first content execution device
710, 810: PC
720, 820: Head-mounted display
730, 830: Motion simulator
740, 840: Speaker
800: second content execution device
Claims (10)
상기 콘텐츠 획득 장치의 카메라를 이용하여 비디오 데이터를 생성하고, 상기 콘텐츠 획득 장치의 센서들을 이용하여 상기 콘텐츠 획득 장치의 각속도와 가속도를 측정하여 움직임 데이터를 생성하고, 상기 비디오 데이터와 상기 움직임 데이터를 동기시켜 콘텐츠를 생성하는 단계;
상기 서버가 메모리로부터 제1설정 신호를 읽어오는 단계;
상기 제1설정 신호가 VOD 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 데이터베이스에 저장하고, 상기 제1설정 신호가 라이브 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하는 단계; 및
상기 콘텐츠 실행 장치가 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터와 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 HMD(head mounted device)로 전송하고, 움직임 시뮬레이터의 움직임을 제어하기 위해 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 단계를 포함하는 콘텐츠를 제공하는 서비스 방법.A service method for providing a content using a content acquisition device, a server, and a content execution device,
Generating video data by using the camera of the content acquiring device, generating motion data by measuring the angular velocity and acceleration of the content acquiring device using sensors of the content acquiring device, synchronizing the video data and the motion data with each other Generating content based on the content;
The server reading a first setting signal from a memory;
When the first setting signal indicates VOD streaming, the server receives the content transmitted from the content obtaining apparatus and stores the received content in a database, and when the first setting signal instructs live streaming, Receiving the content transmitted from the device and live streaming the content to the content executing device; And
Wherein the content execution apparatus separates the video data and the motion data from the content to be streamed live, transmits the video data to a head mounted device (HMD), and transmits the motion data to the motion And transmitting the content to a simulator.
상기 콘텐츠 획득 장치가 상기 제1설정 신호를 생성하고, 상기 제1설정 신호를 상기 서버로 전송하는 단계; 및
상기 서버가 상기 제1설정 신호를 상기 메모리에 저장하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.The method according to claim 1,
The content acquisition apparatus generating the first setting signal and transmitting the first setting signal to the server; And
And the server storing the first setting signal in the memory.
상기 콘텐츠 획득 장치의 마이크를 이용하여 오디오 데이터를 생성하고, 상기 비디오 데이터, 상기 오디오 데이터, 및 상기 움직임 데이터를 동기시켜 상기 콘텐츠를 생성하는 단계; 및
상기 콘텐츠 실행 장치가 상기 서버로부터 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터, 상기 오디오 데이터, 및 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 상기 HMD로 전송하고, 상기 오디오 데이터를 스피커로 전송하고, 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.The method according to claim 1,
Generating audio data using a microphone of the content acquisition device, generating the content by synchronizing the video data, the audio data, and the motion data; And
The content execution apparatus separates the video data, the audio data, and the motion data from the content that is live streamed from the server, transmits the video data to the HMD, transmits the audio data to the speaker, And transmitting the motion data to the motion simulator.
상기 서버가 상기 비디오 데이터, 상기 오디오 데이터, 및 상기 움직임 데이터를 포함하는 상기 콘텐츠를 상기 콘텐츠 획득 장치로부터 수신하는 단계; 및
상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하면서 상기 콘텐츠에 포함된 상기 비디오 데이터와 상기 오디오 데이터를 스마트폰으로 전송하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.The method of claim 3,
The server receiving the content including the video data, the audio data, and the motion data from the content acquiring device; And
Further comprising the step of the server receiving the content transmitted from the content acquiring device and live streaming to the content executing device and transmitting the video data and the audio data included in the content to the smartphone Service method.
상기 서버가 상기 콘텐츠 실행 장치로부터 제어 신호를 수신하고, 상기 제어 신호를 상기 콘텐츠 획득 장치로 전송하는 단계; 및
상기 콘텐츠 획득 장치가 상기 제어 신호에 기초하여 상기 콘텐츠 획득 장치에 포함된 액추에이터를 제어하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.The method according to claim 1,
The server receiving a control signal from the content executing apparatus and transmitting the control signal to the content obtaining apparatus; And
And the content acquisition device controls an actuator included in the content acquisition device based on the control signal.
상기 콘텐츠 획득 장치가, 제어 정책에 따라, 상기 콘텐츠 획득 장치의 사용자의 입력에 따라 생성된 제어 신호와 상기 콘텐츠 실행 장치로부터 전송된 상기 제어 신호 중에서 어느 제어 신호를 먼저 수행할지를 결정하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.6. The method of claim 5,
The content acquisition apparatus further includes a step of determining, in accordance with a control policy, which control signal is to be executed first from the control signal generated in accordance with the input of the user of the content acquisition apparatus and the control signal transmitted from the content execution apparatus Service content.
상기 콘텐츠 획득 장치를 이용하여 콘텐츠 전송 모드를 설정하는 단계;
상기 콘텐츠 획득 장치의 카메라를 이용하여 비디오 데이터를 생성하고, 상기 콘텐츠 획득 장치의 센서들을 이용하여 상기 콘텐츠 획득 장치의 각속도와 가속도를 측정하여 움직임 데이터를 생성하고, 상기 콘텐츠 전송 모드를 포함하는 모드 정보, 상기 비디오 데이터, 및 상기 움직임 데이터를 포함하는 콘텐츠를 생성하는 단계;
상기 서버가 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하는 단계;
상기 서버가 상기 모드 정보를 판단하는 단계;
상기 모드 정보가 VOD 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠를 수신하여 데이터베이스에 저장하고, 상기 모드 정보가 라이브 스트리밍을 지시할 때 상기 서버가 상기 콘텐츠를 바이패스하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하는 단계; 및
상기 콘텐츠 실행 장치가 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터와 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 HMD(head mounted device)로 전송하고, 움직임 시뮬레이터의 움직임을 제어하기 위해 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 단계를 포함하는 콘콘텐츠를 제공하는 서비스 방법.A service method for providing a content using a content acquisition device, a server, and a content execution device,
Setting a content transmission mode using the content acquisition device;
Generating motion data by measuring angular velocity and acceleration of the content acquisition apparatus using sensors of the content acquisition apparatus, generating mode data including the content transfer mode, , Generating the video data, and the content including the motion data;
The server receiving the content transmitted from the content acquiring device;
Determining the mode information by the server;
When the mode information indicates VOD streaming, the server receives the content and stores the content in a database. When the mode information indicates live streaming, the server bypasses the content and performs live streaming to the content execution device step; And
Wherein the content execution apparatus separates the video data and the motion data from the content to be streamed live, transmits the video data to a head mounted device (HMD), and transmits the motion data to the motion And transmitting the content to a simulator.
상기 서버가 상기 콘텐츠 실행 장치로부터 제어 신호를 수신하고, 상기 제어 신호를 상기 콘텐츠 획득 장치로 전송하는 단계; 및
상기 콘텐츠 획득 장치가 상기 제어 신호에 기초하여 상기 콘텐츠 획득 장치에 포함된 액추에이터를 제어하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.8. The method of claim 7,
The server receiving a control signal from the content executing apparatus and transmitting the control signal to the content obtaining apparatus; And
And the content acquisition device controls an actuator included in the content acquisition device based on the control signal.
상기 콘텐츠 획득 장치가, 제어 정책에 따라, 상기 콘텐츠 획득 장치의 사용자의 입력에 따라 생성된 제어 신호와 상기 콘텐츠 실행 장치로부터 전송된 상기 제어 신호 중에서 어느 제어 신호를 먼저 수행할지를 결정하는 단계를 더 포함하는 콘텐츠를 제공하는 서비스 방법.9. The method of claim 8,
The content acquisition apparatus further includes a step of determining, in accordance with a control policy, which control signal is to be executed first from the control signal generated in accordance with the input of the user of the content acquisition apparatus and the control signal transmitted from the content execution apparatus Service content.
HMD(head mounted device)와 움직임 시뮬레이터를 포함하는 콘텐츠 실행 장치; 및
제1통신 네트워크를 통해 상기 콘텐츠 획득 장치와 데이터를 주고받고 제2통신 네트워크를 통해 상기 콘텐츠 실행 장치와 데이터를 주고받는 서버를 포함하고,
상기 콘텐츠 획득 장치는 상기 카메라를 이용하여 비디오 데이터를 생성하고, 상기 센서들을 이용하여 상기 콘텐츠 획득 장치의 각속도와 가속도를 측정하여 움직임 데이터를 생성하고, 상기 비디오 데이터와 상기 움직임 데이터를 동기시켜 콘텐츠를 생성하고, 상기 콘텐츠를 상기 제1통신 네트워크를 통해 상기 서버로 전송하고,
상기 서버는 메모리로부터 설정 신호를 읽어오고, 읽혀진 상기 제1설정 신호가 VOD 스트리밍을 지시할 때 상기 콘텐츠 획득 장치로부터 전송된 상기 콘텐츠를 수신하여 데이터베이스에 저장하고, 상기 제1설정 신호가 라이브 스트리밍을 지시할 때 상기 콘텐츠 획득 장치로부터 전송되는 상기 콘텐츠를 수신하여 상기 콘텐츠 실행 장치로 라이브 스트리밍하고,
상기 콘텐츠 실행 장치는 라이브 스트리밍되는 상기 콘텐츠로부터 상기 비디오 데이터와 상기 움직임 데이터를 분리하고, 상기 비디오 데이터를 상기 HMD로 전송하고, 상기 움직임 시뮬레이터의 움직임을 제어하기 위해 상기 움직임 데이터를 상기 움직임 시뮬레이터로 전송하는 콘텐츠를 제공하는 서비스 시스템.A content acquiring device including a camera, sensors, and an actuator;
A content execution device including an HMD (head mounted device) and a motion simulator; And
And a server for exchanging data with the content acquiring device via a first communication network and exchanging data with the content executing device through a second communication network,
Wherein the content acquisition apparatus generates video data using the camera, generates motion data by measuring the angular velocity and acceleration of the content acquisition apparatus using the sensors, synchronizes the video data and the motion data, And transmit the content to the server via the first communication network,
The server reads a setting signal from the memory, receives the content transmitted from the content acquiring device when the read first setting signal indicates VOD streaming, stores the received content in a database, and the first setting signal performs live streaming Receiving the content transmitted from the content acquiring device when instructed and live streaming the content to the content executing device,
Wherein the content execution device separates the video data and the motion data from the live streamed content and transmits the video data to the HMD and transmits the motion data to the motion simulator to control the motion of the motion simulator Service system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/986,805 US20180343473A1 (en) | 2017-05-26 | 2018-05-22 | Method for providing content service and system thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170065032 | 2017-05-26 | ||
KR1020170065032 | 2017-05-26 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190077733A Division KR20190080851A (en) | 2017-05-26 | 2019-06-28 | Method for providing content service and system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180129605A true KR20180129605A (en) | 2018-12-05 |
KR101996442B1 KR101996442B1 (en) | 2019-07-04 |
Family
ID=64744318
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170174082A KR101996442B1 (en) | 2017-05-26 | 2017-12-18 | Method for providing content service and system thereof |
KR1020190077733A KR20190080851A (en) | 2017-05-26 | 2019-06-28 | Method for providing content service and system thereof |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190077733A KR20190080851A (en) | 2017-05-26 | 2019-06-28 | Method for providing content service and system thereof |
Country Status (1)
Country | Link |
---|---|
KR (2) | KR101996442B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100479365B1 (en) | 2000-12-20 | 2005-03-28 | 에이알비전 (주) | method for making simulator program and simulator system using the method |
KR20090041057A (en) * | 2007-10-23 | 2009-04-28 | 전자부품연구원 | Appratus providing svc video contents and method thereof |
KR20130053504A (en) * | 2011-11-14 | 2013-05-24 | 전주대학교 산학협력단 | System and method for realizing 4d effects for home media service |
KR20170011194A (en) * | 2015-07-21 | 2017-02-02 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR101739485B1 (en) * | 2015-12-04 | 2017-05-24 | 주식회사 이제갬 | Virtual experience system |
-
2017
- 2017-12-18 KR KR1020170174082A patent/KR101996442B1/en active IP Right Grant
-
2019
- 2019-06-28 KR KR1020190077733A patent/KR20190080851A/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100479365B1 (en) | 2000-12-20 | 2005-03-28 | 에이알비전 (주) | method for making simulator program and simulator system using the method |
KR20090041057A (en) * | 2007-10-23 | 2009-04-28 | 전자부품연구원 | Appratus providing svc video contents and method thereof |
KR20130053504A (en) * | 2011-11-14 | 2013-05-24 | 전주대학교 산학협력단 | System and method for realizing 4d effects for home media service |
KR20170011194A (en) * | 2015-07-21 | 2017-02-02 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR101739485B1 (en) * | 2015-12-04 | 2017-05-24 | 주식회사 이제갬 | Virtual experience system |
Also Published As
Publication number | Publication date |
---|---|
KR20190080851A (en) | 2019-07-08 |
KR101996442B1 (en) | 2019-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109874021B (en) | Live broadcast interaction method, device and system | |
US11089266B2 (en) | Communication processing method, terminal, and storage medium | |
EP2882179B1 (en) | Information processing device, information processing method, and program | |
WO2018038485A1 (en) | Method and system for controlling virtual reality attraction | |
US9392315B1 (en) | Remote display graphics | |
US10437055B2 (en) | Master device, slave device, and control method therefor | |
US11743590B2 (en) | Communication terminal, image communication system, and method for displaying image | |
KR20150133496A (en) | Method of transmitting video to receiver including head-mounted display through network and transmitter, relay server and receiver for the same | |
JP6782812B2 (en) | How to control virtual reality devices and virtual reality devices | |
US20180336069A1 (en) | Systems and methods for a hardware agnostic virtual experience | |
US11818492B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
US11736802B2 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
US20180343473A1 (en) | Method for providing content service and system thereof | |
US20180137661A1 (en) | Picture processing method, sending method, processing apparatus and sending apparatus | |
KR101996442B1 (en) | Method for providing content service and system thereof | |
JP2023540535A (en) | Facial animation control by automatic generation of facial action units using text and audio | |
JP6807744B2 (en) | Image display method and equipment | |
JP5813542B2 (en) | Image communication system, AR (Augmented Reality) video generation device, and program | |
US11128623B2 (en) | Service providing system, service delivery system, service providing method, and non-transitory recording medium | |
US11076010B2 (en) | Service providing system, service delivery system, service providing method, and non-transitory recording medium | |
KR20210001382A (en) | Service method for providing virtual reality(vr) data to user and and system thereof | |
KR20210001381A (en) | Method for providing simulation data for experience and computer program performing the method | |
JP2018088605A (en) | Information processing unit, display control unit, control method, and program | |
EP4142292A1 (en) | Image content transmitting method and device using edge computing service | |
US11108772B2 (en) | Service providing system, service delivery system, service providing method, and non-transitory recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |