JP2018033107A - Video distribution device and distribution method - Google Patents

Video distribution device and distribution method Download PDF

Info

Publication number
JP2018033107A
JP2018033107A JP2016166131A JP2016166131A JP2018033107A JP 2018033107 A JP2018033107 A JP 2018033107A JP 2016166131 A JP2016166131 A JP 2016166131A JP 2016166131 A JP2016166131 A JP 2016166131A JP 2018033107 A JP2018033107 A JP 2018033107A
Authority
JP
Japan
Prior art keywords
user terminal
data
motion data
video data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016166131A
Other languages
Japanese (ja)
Inventor
隆二 藤本
Ryuji Fujimoto
隆二 藤本
直人 横内
Naoto Yokouchi
直人 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Holo Co Ltd
Original Assignee
Holo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Holo Co Ltd filed Critical Holo Co Ltd
Priority to JP2016166131A priority Critical patent/JP2018033107A/en
Publication of JP2018033107A publication Critical patent/JP2018033107A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize compression of data capacity when enabling to view a space or a subject located therein from different direction, in distribution of video.SOLUTION: Based on one or more than one video data received from a photographic camera 210 capturing 3D space of distribution object or one or more than one subjects located therein, a distribution device 220 recognizes one or more than one subjects in 3D space, respectively, as 3D objects, and transmits to a user terminal 230. Thereafter, a 3D object with motion is detected, and motion data indicating the difference is generated. The distribution device 220 transmits the generated motion data to the user terminal 230, where the 3D object being held is moved based on the received motion data, and displayed on a display screen, as a video in the gaze direction, along with other 3D or 2D object with no motion in a period corresponding to the motion data.SELECTED DRAWING: Figure 2

Description

本発明は、動画の配信装置及び配信方法に関し、より詳細には、VR動画、AR動画等の配信装置及び配信方法に関する。   The present invention relates to a moving image distribution apparatus and distribution method, and more particularly to a distribution apparatus and distribution method for VR moving images, AR moving images, and the like.

通信速度の高速化に伴い、動画の利用がさまざまな場面で増えている。中でも180°、360°など、拡がりのある空間を仮想的に作り出すバーチャルリアリティ(VR)技術を用いた動画に大きな注目が集まっている。   With the increase in communication speed, the use of video is increasing in various situations. In particular, a great deal of attention has been focused on moving images using virtual reality (VR) technology that virtually creates a wide space such as 180 ° and 360 °.

図1に、VR動画の配信システムの一例を示す。配信システム100は、360°カメラ110と、360°カメラ110の各カメラで撮影された各映像データを結合ないしステッチするためのステッチサーバ120と、ステッチサーバ120によるステッチで正距円筒図法により生成された360°の情報を有する360°映像データをエンコードするエンコードサーバ130と、エンコードサーバ130から360°映像データを受信して表示画面上にユーザー又は視聴者(viewer)の視線方向の映像を表示する携帯端末140とを備える。   FIG. 1 shows an example of a VR moving image distribution system. The distribution system 100 is generated by equirectangular projection by stitching by the stitch server 120 and stitch server 120 for combining or stitching each video data shot by each camera of the 360 ° camera 110 and 360 ° camera 110. Encoding server 130 that encodes 360 ° video data having 360 ° information, and 360 ° video data received from encoding server 130, and displaying the video in the viewing direction of the user or viewer on the display screen. A portable terminal 140.

360°カメラ110は、たとえば、魚眼レンズ搭載のカメラを複数組み合わせてリグに固定することによって構成することができる。全方位360°の全天球の視野、又は少なくともある平面上における360°の視野を提供するようにすることができる。図示では、4つの一眼ミラーレス又はアクションカメラを所定平面上で90°ずつ異なる角度で配置して360°カメラ110を構成している。あらかじめ360°が撮影できるように複数のカメラを搭載したものも存在する。   The 360 ° camera 110 can be configured by, for example, combining a plurality of fisheye lens mounted cameras and fixing them to the rig. A 360-degree omnidirectional field of view, or at least a 360-degree field of view on a plane may be provided. In the figure, a 360 ° camera 110 is configured by arranging four single-lens mirrorless or action cameras at different angles by 90 ° on a predetermined plane. There are some cameras equipped with a plurality of cameras so that 360 degrees can be photographed in advance.

ステッチサーバ120は、フレームごとに360°カメラ110から受信した4つの映像データを正距円筒図法に座標変換し、再生可能な360°映像データを生成する。   The stitch server 120 coordinates the four video data received from the 360 ° camera 110 for each frame into an equirectangular projection to generate reproducible 360 ° video data.

エンコードサーバ130は、画質、配信ビットレートなどに応じた処理を360°映像データに対して行う。   The encoding server 130 performs processing on 360 ° video data according to image quality, distribution bit rate, and the like.

動画視聴者の携帯端末140は、視聴者の視線方向を判定し、360°映像データの当該視線方向に対応する部分を表示画面上に表示する。動画表示用の専用のビューワーをスマートフォン、タブレットなどの携帯端末にインストールし、当該ビューワーにて動画を再生することができる。視聴者の視線方向は、携帯端末140が有するジャイロ・センサによる検知によって判定可能である。   The mobile terminal 140 of the video viewer determines the viewer's line-of-sight direction, and displays the portion of the 360 ° video data corresponding to the line-of-sight direction on the display screen. A dedicated viewer for displaying a moving image can be installed on a mobile terminal such as a smartphone or a tablet, and the moving image can be played back by the viewer. The viewing direction of the viewer can be determined by detection by a gyro sensor included in the mobile terminal 140.

たとえば、このようなVR技術により動画のリアルタイム配信を行うと、視聴者は視線方向を所望の方向に適宜変えて、あたかもその場にいるかのような体験をすることができる。   For example, when a moving image is distributed in real time by using such VR technology, the viewer can appropriately change the direction of the line of sight to a desired direction and experience as if they were on the spot.

しかしながら、VR動画の配信は、従来の視野が単一方向の動画配信と比較して、大幅にデータ容量が増大することから、ビューワーにおける処理負担が大きいという問題がある。この問題は、携帯端末に限らず、ユーザー又は視聴者の端末がPCなどである場合にも生じるものの、スマートフォンなどの携帯端末であると顕著であり、さらにストリーミングなどによるリアルタイム配信であると一層顕著となる。   However, the distribution of VR moving images has a problem that the processing load on the viewer is large because the data capacity is significantly increased as compared with the moving image distribution in which the conventional visual field is unidirectional. This problem occurs not only when the terminal is a mobile terminal but also when the user or viewer's terminal is a PC or the like. However, the problem is remarkable when the terminal is a mobile terminal such as a smartphone. It becomes.

また、視聴者に体験させる空間全体を仮想的に作り出すVR技術のほか、たとえば背景等の空間の周辺については携帯端末140により撮影し、又は予め映像を用意し、当該空間内の被写体(たとえば、遠隔地にいる人物等)を仮想的に作り出して重ね合わせる拡張現実(AR)技術についても、180°、360°など異なる角度からその被写体を閲覧可能とするためにはデータ容量の増大という同様の問題が生じる。   In addition to the VR technology that virtually creates the entire space for the viewer to experience, for example, the surroundings of the space such as the background are photographed by the mobile terminal 140 or a video is prepared in advance, and the subject in the space (for example, As for augmented reality (AR) technology that virtually creates and superimposes a person at a remote location, etc., in order to be able to view the subject from different angles such as 180 ° and 360 °, the same increase in data capacity is required. Problems arise.

本発明は、このような問題点に鑑みてなされたものであり、その目的は、動画の配信装置及び配信方法において、空間又はその中に位置する被写体の異なる方向からの視聴を可能とする際のデータ容量の圧縮を実現することにある。   The present invention has been made in view of such problems, and an object of the present invention is to enable viewing of a space or a subject located therein from different directions in a moving image distribution apparatus and distribution method. It is to realize the compression of the data capacity.

このような目的を達成するために、本発明の第1の態様は、動画の配信方法であって、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、前記モーションデータを前記ユーザー端末に送信するステップとを含み、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。   In order to achieve such an object, according to a first aspect of the present invention, there is provided a moving image distribution method from a shooting camera having one or more stereo cameras for shooting one or more subjects to be distributed. Receiving video data; recognizing one or more 3D objects respectively corresponding to the one or more subjects based on the video data; and transmitting the one or more 3D objects to a user terminal Detecting a moving 3D object based on video data from the photographing camera, generating motion data indicating the movement, and transmitting the motion data to the user terminal, Corresponding to the motion data in the user terminal after the motion data is received That updates the 3D object, characterized in that it is displayed on the display screen of the user terminal.

また、本発明の第2の態様は、第1の態様において、更新された3Dオブジェクトは、他のオブジェクトとともに前記表示画面に表示されることを特徴とする。   According to a second aspect of the present invention, in the first aspect, the updated 3D object is displayed on the display screen together with other objects.

また、本発明の第3の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末に送信された3Dオブジェクトであって、前記モーションデータに対応する期間に動きのなかった3Dオブジェクトであることを特徴とする。   According to a third aspect of the present invention, in the second aspect, the other object is a 3D object transmitted to the user terminal, and the 3D object has not moved during a period corresponding to the motion data. It is characterized by being.

また、本発明の第4の態様は、第2の態様において、前記映像データから測定される深度が所定の閾値以上の被写体は2Dオブジェクトとして認識され、前記他のオブジェクトは、前記ユーザー端末に送信された前記2Dオブジェクトであることを特徴とする。   According to a fourth aspect of the present invention, in the second aspect, a subject whose depth measured from the video data is a predetermined threshold or more is recognized as a 2D object, and the other object is transmitted to the user terminal. It is the 2D object made.

また、本発明の第5の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末にあらかじめ記憶されている2D又は3Dオブジェクトであることを特徴とする。   According to a fifth aspect of the present invention, in the second aspect, the other object is a 2D or 3D object stored in advance in the user terminal.

また、本発明の第6の態様は、第2の態様において、前記他のオブジェクトは、前記ユーザー端末においてリアルタイムに撮影されるデータであることを特徴とする。   According to a sixth aspect of the present invention, in the second aspect, the other object is data photographed in real time on the user terminal.

また、本発明の第7の態様は、第1から第6のいずれかの態様において、前記1又は複数の3Dオブジェクトの認識は、前記撮影カメラからの第1のフレームの映像データに基づいて行い、前記モーションデータの生成は、前記第1のフレームの後の第2のフレームと前記第1のフレームとの間の動きに基づいて行うことを特徴とする。   According to a seventh aspect of the present invention, in any one of the first to sixth aspects, the one or more 3D objects are recognized based on video data of the first frame from the photographing camera. The motion data is generated based on a motion between a second frame after the first frame and the first frame.

また、本発明の第8の態様は、第1から第7のいずれかの態様において、前記映像データは、前記撮影カメラから送信されるライブ映像のデータであることを特徴とする。   According to an eighth aspect of the present invention, in any one of the first to seventh aspects, the video data is live video data transmitted from the photographing camera.

また、本発明の第9の態様は、第1から第8のいずれかの態様において、前記撮影カメラは、異なる方向に向けて配置された複数のステレオカメラを有することを特徴とする。   According to a ninth aspect of the present invention, in any one of the first to eighth aspects, the photographing camera includes a plurality of stereo cameras arranged in different directions.

また、本発明の第10の態様は、第9の態様において、各ステレオカメラからの映像データから認識された各3Dオブジェクトをステッチングするステップをさらに含むことを特徴とする。   According to a tenth aspect of the present invention, in the ninth aspect, the method further includes a step of stitching each 3D object recognized from video data from each stereo camera.

また、本発明の第11の態様は、第1から第10のいずれかの態様において、前記撮影カメラは、周囲の360°の撮影を行うことができることを特徴とする。   An eleventh aspect of the present invention is characterized in that, in any one of the first to tenth aspects, the photographing camera is capable of photographing the surrounding 360 °.

また、本発明の第12の態様は、第11の態様において、前記ユーザー端末は携帯端末であり、前記携帯端末が有するジャイロ・センサによる検知によって判定された視聴者の視線方向を受信するステップと、前記携帯端末に送信するモーションデータを前記視線方向に対応するモーションデータに制限するステップとをさらに含むことを特徴とする。   According to a twelfth aspect of the present invention, in the eleventh aspect, the user terminal is a portable terminal, and the viewer's line-of-sight direction determined by detection by a gyro sensor included in the portable terminal is received. Limiting the motion data transmitted to the mobile terminal to motion data corresponding to the line-of-sight direction.

また、本発明の第13の態様は、第1から第10のいずれかの態様において、前記撮影カメラは、被写体を360°から撮影することができることを特徴とする。   According to a thirteenth aspect of the present invention, in any one of the first to tenth aspects, the photographing camera can photograph a subject from 360 °.

また、本発明の第14の態様は、コンピュータに、動画の配信方法を実行させるためのプログラムであって、前記配信方法は、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、前記モーションデータを前記ユーザー端末に送信するステップとを含み、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。   According to a fourteenth aspect of the present invention, there is provided a program for causing a computer to execute a moving image distribution method, wherein the distribution method captures one or a plurality of subjects to be distributed. Receiving video data from a photographic camera having a camera; recognizing one or more 3D objects respectively corresponding to the one or more subjects based on the video data; and the one or more 3D objects Transmitting to the user terminal, detecting a moving 3D object based on the video data from the photographing camera, generating motion data indicating the movement, and transmitting the motion data to the user terminal And after the motion data is received, the user end Update the 3D object corresponding to the motion data, characterized in that it is displayed on the display screen of the user terminal in.

また、本発明の第15の態様は、配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信する受信部と、前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識する処理部と、前記1又は複数の3Dオブジェクトをユーザー端末に送信する送信部とを備え、前記処理部は、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成し、前記送信部は、前記モーションデータを前記ユーザー端末に送信し、前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする。   According to a fifteenth aspect of the present invention, based on the video data, a receiving unit that captures one or a plurality of subjects to be distributed and receives video data from a photographing camera having one or more stereo cameras, A processing unit for recognizing one or a plurality of 3D objects respectively corresponding to the one or a plurality of subjects; and a transmission unit for transmitting the one or a plurality of 3D objects to a user terminal. 3D object with motion is detected based on the video data from, and motion data indicating the motion is generated, and the transmission unit transmits the motion data to the user terminal, and the motion data is received. Later, a 3D object corresponding to the motion data is updated in the user terminal to display a table of the user terminal. Characterized in that it is displayed on the screen.

本発明の一態様によれば、1又は複数のステレオカメラを有する撮影カメラからの映像データに基づいて被写体の3Dオブジェクトを認識し、これをユーザー端末に保持させておき、当該3Dオブジェクトの動きを示すモーションデータによりユーザー端末において当該3Dオブジェクトの動きを反映させることによって、動画配信におけるデータ容量の圧縮が可能となる。   According to one aspect of the present invention, a 3D object of a subject is recognized based on video data from a photographing camera having one or a plurality of stereo cameras, and this is held in a user terminal, and the movement of the 3D object is determined. By reflecting the motion of the 3D object in the user terminal by the motion data shown, the data capacity can be compressed in moving image distribution.

従来のVR動画の配信システムの一例を示す図である。It is a figure which shows an example of the delivery system of the conventional VR moving image. 本発明にかかる動画の配信装置の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the moving image delivery apparatus concerning this invention. 本発明の一実施形態における、周囲を被写体とする撮影カメラの一例を示す図である。It is a figure which shows an example of the imaging | photography camera which makes the circumference | surroundings a subject in one Embodiment of this invention. 複数の方向にステレオカメラを有する場合の撮影可能範囲を示す図である。It is a figure which shows the imaging | photography possible range in the case of having a stereo camera in several directions. 本発明の一実施形態における、撮影装置における処理を示す流れ図である。It is a flowchart which shows the process in an imaging device in one Embodiment of this invention. 本発明の一実施形態における、ユーザー端末における処理を示す流れ図である。It is a flowchart which shows the process in a user terminal in one Embodiment of this invention. ユーザー端末において、受信した複数のオブジェクトデータを表示画面にレンダリングする一例を示す図である。It is a figure which shows an example which renders several received object data on a display screen in a user terminal. 本発明の別実施形態における、被写体を周囲から撮影する撮影カメラの一例を示す図である。It is a figure which shows an example of the imaging | photography camera which image | photographs a to-be-photographed object from another around in another embodiment of this invention. 本発明のさらに実施形態における、被写体を周囲から撮影する撮影カメラの一例を示す図である。It is a figure which shows an example of the imaging | photography camera which image | photographs a to-be-photographed object from the periphery in further embodiment of this invention.

以下、図面を参照して本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(本発明の概要)
図2に、本発明にかかる動画の配信装置を示す。配信装置220は、配信対象の3D空間又はその中に位置する1又は複数の被写体を撮影する撮影カメラ210から受信する1又は複数の映像データに基づいて、当該3D空間内の1又は複数の被写体をそれぞれ3Dオブジェクトとして認識する。さらに、必要に応じて認識された1又は複数の3Dオブジェクトをそれぞれ別の層のデータとしていわば断層化した後、動きのある3Dオブジェクトを検出して、その差分を示すモーションデータを生成する。
(Outline of the present invention)
FIG. 2 shows a moving image distribution apparatus according to the present invention. The distribution device 220 uses the one or more subjects in the 3D space based on one or more video data received from the imaging camera 210 that captures the 3D space to be delivered or one or more subjects located in the 3D space. Are recognized as 3D objects. Furthermore, one or a plurality of 3D objects recognized as necessary are cut into slices as data of different layers, and then a moving 3D object is detected and motion data indicating the difference is generated.

1又は複数の3Dオブジェクトの認識は、撮影カメラ210からの第1のフレームの映像データに基づいて行い、モーションデータの生成は、第1のフレームの後の第2のフレームと第1のフレームとの間の動きに基づいて行うことができる。あるいは、複数フレームの映像データを用いて3Dオブジェクトの認識を行うこともできる。   The recognition of one or a plurality of 3D objects is performed based on the video data of the first frame from the photographing camera 210, and the generation of motion data is performed by using the second frame and the first frame after the first frame. Can be done based on the movement between. Alternatively, a 3D object can be recognized using video data of a plurality of frames.

各3Dオブジェクトデータは、配信装置220のメモリ、ハードディスクなどの記憶部221に記憶することができるとともに、スマートフォン、タブレット等の携帯端末を含むユーザー端末230に送信される。受信された3Dオブジェクトは、ユーザー端末230において一定期間、そのメモリ、ハードディスクなどの記憶部(図示せず)に記憶される。   Each 3D object data can be stored in the storage unit 221 such as a memory or a hard disk of the distribution device 220, and is transmitted to the user terminal 230 including a mobile terminal such as a smartphone or a tablet. The received 3D object is stored in a storage unit (not shown) such as a memory or a hard disk in the user terminal 230 for a certain period.

配信装置220は、生成したモーションデータをユーザー端末230に送信し、ユーザー端末230においては、受信したモーションデータに基づいて保持している3Dオブジェクトデータを動かし、上記モーションデータに対応する期間に動きのない他の3Dオブジェクト又は2Dオブジェクトとともにある視線方向の映像として表示画面に表示する。   The distribution device 220 transmits the generated motion data to the user terminal 230, and the user terminal 230 moves the 3D object data held based on the received motion data, and moves in a period corresponding to the motion data. It is displayed on the display screen as an image in a certain line of sight along with other 3D objects or 2D objects that are not present.

このように、撮影対象の空間内の被写体を3Dオブジェクトとして認識し、そのデータをあらかじめユーザー端末230に保持させておくことによって、配信装置220からユーザー端末230への送信データを、被写体の動きを示すモーションデータとすることが可能となり、データ容量の大きな圧縮が実現される。特にライブ映像の配信の際には、かくつきの抑えられた高画質の動画配信ができ、ユーザー体験を改善する。   In this way, by recognizing a subject in the space to be imaged as a 3D object and holding the data in the user terminal 230 in advance, the transmission data from the distribution device 220 to the user terminal 230 is converted into the movement of the subject. It is possible to obtain motion data as shown, and compression with a large data capacity is realized. Especially in the case of live video distribution, it can deliver high-quality video with reduced clutter, improving the user experience.

ここで3Dオブジェクトとは、3D空間内の一部を表す3Dデータを意味し、たとえば、撮影対象の空間内に立つ人、ビル、雲などの被写体が対象となる。一定の閾値を定めて、後述する深度がそれ以上の被写体については3Dオブジェクト化を行わずに、疑似的に2Dデータで表わされる2Dオブジェクトとして認識してもよい。たとえば、空、壁などの背景が対象となる。   Here, the 3D object means 3D data representing a part of the 3D space. For example, a subject such as a person, a building, or a cloud standing in the space to be imaged is targeted. A fixed threshold value may be set, and a subject having a depth greater than that described below may be recognized as a 2D object represented by 2D data in a pseudo manner without being converted into a 3D object. For example, backgrounds such as sky and walls are targeted.

また、一部の被写体又は背景について、3Dオブジェクトとして又は2Dオブジェクトとしてあらかじめデータを配信装置220又はユーザー端末230に記憶しておくことも可能である。また、ユーザー端末230においてリアルタイムに撮影する背景等のデータを用いることもできる。本発明による動画配信は、動画を構成する全体のみならず、一部のみにも適用可能であることに留意されたい。   Moreover, it is also possible to store data in advance in the distribution device 220 or the user terminal 230 as a 3D object or a 2D object for some subjects or backgrounds. Further, data such as a background photographed in real time in the user terminal 230 can also be used. It should be noted that the moving image distribution according to the present invention can be applied not only to the entire moving image but also to only a part thereof.

また、上述の説明及び後述の説明において、各処理は、コンピュータに所定のプログラムを実行させることにより実現することができ、コンピュータは単一のサーバとすることも、複数のサーバとすることもでき、またプログラムについても同様に複数のプログラムにより所要の機能が実現されるようにすることができる。コンピュータとしては、通信インターフェースなどのデータ送受信のための通信部と、CPU、GPUなどの処理部と、メモリ、ハードディスクなどの記憶部とを備えるものが挙げられる。   In the above description and the description below, each process can be realized by causing a computer to execute a predetermined program, and the computer can be a single server or a plurality of servers. Similarly, a program can realize a required function by a plurality of programs. Examples of the computer include a computer including a communication unit such as a communication interface for data transmission / reception, a processing unit such as a CPU and a GPU, and a storage unit such as a memory and a hard disk.

(撮影カメラの周囲が被写体の実施形態)
図3に、本発明の一実施形態における、周囲の被写体を撮影するための撮影カメラを示す。撮影カメラ310は、第1の方向から第6の方向につき、それぞれ右カメラ及び左カメラを有するステレオカメラを備える。各ステレオカメラは、左右のカメラの視差の幅に基づいて被写体320の各点までの奥行き方向の距離を測定することができ、被写体320を、三次元的に表す3Dオブジェクトとしてデータ化することができる。被写体320までの距離が遠いとき、すなわち深度が深いときは、視差の幅が小さいため3Dオブジェクト化を行うことなく、単に2Dオブジェクトとして認識すれば十分であることも少なくない。
(Embodiment in which the periphery of the shooting camera is the subject)
FIG. 3 shows a photographing camera for photographing a surrounding subject in one embodiment of the present invention. The photographing camera 310 includes a stereo camera having a right camera and a left camera in each of the first to sixth directions. Each stereo camera can measure the distance in the depth direction to each point of the subject 320 based on the parallax width of the left and right cameras, and the subject 320 can be converted into data as a 3D object that is three-dimensionally represented. it can. When the distance to the subject 320 is long, that is, when the depth is deep, it is often sufficient to simply recognize the object as a 2D object without performing a 3D object because the parallax width is small.

図4に示すように、複数の方向にステレオカメラを備えている場合、被写体320を3Dオブジェクトとして認識することのできる角度が大きくなる。各ステレオカメラの前面に沿った直線は、各ステレオカメラが画角180°である場合の撮影可能範囲を示すものである。ここでは、第1から第6の方向にそれぞれステレオカメラを配置したが、第1の方向のみ、第1から第4の方向など、さまざまな配置が考えられる。   As shown in FIG. 4, when a stereo camera is provided in a plurality of directions, the angle at which the subject 320 can be recognized as a 3D object is increased. A straight line along the front surface of each stereo camera indicates a shootable range when each stereo camera has an angle of view of 180 °. Here, the stereo cameras are arranged in the first to sixth directions, but various arrangements such as only the first direction and the first to fourth directions are conceivable.

撮影カメラ310の各ステレオカメラから送信される映像データに基づいて(S501)、配信装置220は、1又は複数の被写体に対応する1又は複数の3Dオブジェクトの認識を行う(S502)。3Dオブジェクト化に用いる映像データは、単一フレームの映像データとしてもよいし、複数フレームの映像データを用いて行ってもよい。   Based on the video data transmitted from each stereo camera of the photographing camera 310 (S501), the distribution apparatus 220 recognizes one or more 3D objects corresponding to one or more subjects (S502). Video data used for 3D object conversion may be single-frame video data or a plurality of frames of video data.

ステレオカメラが複数配置されている場合には、ここで、3Dオブジェクトデータのステッチングを行う(S503)。各ステレオカメラの映像データから認識された3Dオブジェクトを、被写体の同一箇所に対応する点をコンタクトポイントとして繋ぎ合わせ、ユーザー端末230における再生に用いる3Dオブジェクトが生成される。ステッチングは、3Dオブジェクトごとに行い、被写体が2Dオブジェクトとして認識される場合には、従来技術のように、正距円筒図法に座標変換して繋ぎ合わせることができる。   If a plurality of stereo cameras are arranged, the 3D object data is stitched here (S503). A 3D object recognized from video data of each stereo camera is connected as a contact point to a point corresponding to the same part of the subject, and a 3D object used for reproduction on the user terminal 230 is generated. Stitching is performed for each 3D object, and when a subject is recognized as a 2D object, it can be connected by coordinate transformation to an equirectangular projection as in the prior art.

認識された各オブジェクトは、必要に応じてそれぞれ別の層ーのデータとして、ユーザー端末230に送信される(S504)。ユーザー端末230への送信データは、配信装置220とユーザー端末230との間の通信環境に応じて画質、ビットレートの変更等の最適化を行うことができる。ユーザー端末230においては、層ごとに各オブジェクトを記憶することができる。   Each recognized object is transmitted to the user terminal 230 as data of a different layer as needed (S504). Transmission data to the user terminal 230 can be optimized such as changing the image quality and bit rate according to the communication environment between the distribution device 220 and the user terminal 230. In the user terminal 230, each object can be stored for each layer.

配信装置220は、連続的に又は断続的に撮影対象の3D空間又はその中に位置する被写体の3Dオブジェクト化を行い、各3Dオブジェクトをトラッキングして一定の閾値以上の動きのあるオブジェクトを検出して当該動きを示すモーションデータを生成し(S505)、ユーザー端末230に送信する(S506)。動きとしては、移動、回転ないし傾き、変形などが挙げられる。3Dオブジェクトは、たとえば頂点データにより表現することができ、モーションデータは、各頂点に対して行う計算を規定するものとすることができる。   The distribution device 220 continuously or intermittently converts a 3D space to be imaged or a subject located in the 3D space into a 3D object, tracks each 3D object, and detects an object that moves beyond a certain threshold. Motion data indicating the motion is generated (S505) and transmitted to the user terminal 230 (S506). Examples of the movement include movement, rotation, tilt, and deformation. The 3D object can be expressed by, for example, vertex data, and the motion data can specify a calculation to be performed on each vertex.

ユーザー端末230においては、各オブジェクトのデータを受信し(S601)、その後受信するモーションデータに応じて対応する3Dオブジェクトを動かし、当該オブジェクトを更新する(S602)。更新されたオブジェクトデータにより上書きしてもよいし、別個のデータとして保持してもよい。動きがあり、更新されたオブジェクトとその他のオブジェクトとをともにユーザー端末230の表示画面に表示する処理をフレームごとに続けることによって、動画の配信を行うことができる。また、ユーザー端末230にあらかじめ記憶されている背景、被写体の周囲の空間等を表す3D又は2Dのオブジェクトデータを同時に表示することもできる。この際、各データを合成してから表示を行ってもよい(S603)。   The user terminal 230 receives the data of each object (S601), moves the corresponding 3D object in accordance with the received motion data, and updates the object (S602). The updated object data may be overwritten or may be held as separate data. The moving image can be distributed by continuing the process of displaying both the updated object and the other object on the display screen of the user terminal 230 for each frame. It is also possible to simultaneously display 3D or 2D object data representing the background, the space around the subject, etc. stored in advance in the user terminal 230. At this time, the respective data may be combined and displayed (S603).

専用のビューワーをインストールして表示を行うこともできるが、本実施形態にかかる配信方法を用いれば、3Dオブジェクトをあらかじめユーザー端末230に保持させておくことでユーザー端末230において処理すべきデータ容量を抑制し、処理能力の高くないウェブブラウザ上で汎用のビューワーにより再生することが可能となる(S604)。スマートフォン、タブレットなどの端末にインストールされるアプリ上での動画再生ではなく、ウェブブラウザ上での再生が望まれる場面も少なくない。   Although a dedicated viewer can be installed and displayed, if the distribution method according to the present embodiment is used, the data capacity to be processed in the user terminal 230 can be increased by holding the 3D object in the user terminal 230 in advance. It is possible to suppress the content and reproduce it by a general-purpose viewer on a web browser having a low processing capacity (S604). In many cases, it is desirable to play on a web browser instead of playing a video on an application installed on a terminal such as a smartphone or tablet.

図7は、ユーザー端末230において、受信した複数のオブジェクトを表示画面にレンダリングする一例の様子を示している。第1の3Dオブジェクト741及び第2の3Dオブジェクト742があらかじめユーザー端末730に記憶されており、第2のオブジェクト742における動きを示すモーションデータ743が配信サーバ720からユーザー端末730に対して送信される。ユーザー端末730では、モーションデータ743に従って第2のオブジェクト742を更新し、各オブジェクトを合成して再生する。配信サーバ720は、クラウド上のインスタンスとしてもよい。   FIG. 7 shows an example of rendering a plurality of received objects on the display screen in the user terminal 230. The first 3D object 741 and the second 3D object 742 are stored in the user terminal 730 in advance, and motion data 743 indicating the movement of the second object 742 is transmitted from the distribution server 720 to the user terminal 730. . In the user terminal 730, the second object 742 is updated according to the motion data 743, and each object is synthesized and reproduced. The distribution server 720 may be an instance on the cloud.

図3に示す撮影カメラ310を用いると、360°の動画配信が可能となるところ、ユーザー端末230は、視聴者の視線方向を判定し、当該視線方向に対応する部分を表示画面上に表示することができる。視聴者の視線方向は、ユーザー端末230が有するジャイロ・センサによる検知、表示画面上の視聴者によるドラッグなどによって判定可能である。   When the video camera 310 shown in FIG. 3 is used, 360 ° video distribution is possible, and the user terminal 230 determines the viewing direction of the viewer and displays a portion corresponding to the viewing direction on the display screen. be able to. The viewing direction of the viewer can be determined by detection by a gyro sensor included in the user terminal 230, dragging by the viewer on the display screen, or the like.

視聴者の視線方向を示すデータを連続的又は断続的にユーザー端末230から配信装置220に送信すれば、配信装置220からユーザー端末230に送信されるモーションデータを当該視線方向の動画再生に必要となるデータに限定することができ、さらなるデータ容量の圧縮が可能である。加えて、視聴者の視線方向をユーザー端末230又は配信装置220において予測することによって、配信装置220からユーザー端末230に対するデータ送信を高速化することができる。   If data indicating the viewer's line-of-sight direction is transmitted continuously or intermittently from the user terminal 230 to the distribution device 220, motion data transmitted from the distribution device 220 to the user terminal 230 is necessary for moving image reproduction in the line-of-sight direction. Can be limited to the data, and further data capacity compression is possible. In addition, by predicting the viewing direction of the viewer at the user terminal 230 or the distribution device 220, data transmission from the distribution device 220 to the user terminal 230 can be accelerated.

ユーザー端末230、730は、PCなどのコンピュータ一般も含まれるが、スマートフォン、タブレット、二眼HMDなどの携帯端末である場合に、本発明はデータ容量を大幅に圧縮してVR動画、AR動画などのリッチな動画に対するユーザー体験を大きく改善する。ユーザー端末230、730がさらにICを有するコンタクトレンズのように著しく小型化ないし軽量化し、実装可能なデータ処理能力も限られてしまう場面においても、本発明によれば、動画配信が可能となる。   The user terminals 230 and 730 include general computers such as PCs. However, when the user terminals 230 and 730 are portable terminals such as smartphones, tablets, and twin-lens HMDs, the present invention significantly compresses the data capacity to provide VR videos, AR videos, and the like. Greatly improve the user experience for rich videos. Even in a situation where the user terminals 230 and 730 are remarkably reduced in size or weight, such as a contact lens having an IC, and the data processing capability that can be mounted is limited, it is possible to distribute moving images.

(撮影カメラが被写体の周囲に配置された実施形態)
図8に、本発明の別実施形態における、被写体の周囲に配置された撮影カメラを示す。撮影カメラ810は、第1の方向から第4の方向につき、それぞれ右カメラ及び左カメラを有するステレオカメラを備える。各ステレオカメラは、左右のカメラの視差の幅に基づいて被写体820の各点までの奥行き方向の距離を測定することができ、被写体820を、三次元的に表す3Dオブジェクトとしてデータ化することができる。被写体820までの距離が遠いとき、すなわち深度が深いときは、視差の幅が小さくなるため、3Dオブジェクト化を行うことなく、単に2Dオブジェクトとして認識してもよい。
(Embodiment in which the photographing camera is arranged around the subject)
FIG. 8 shows a photographing camera arranged around a subject in another embodiment of the present invention. The photographing camera 810 includes a stereo camera having a right camera and a left camera in each of the first direction to the fourth direction. Each stereo camera can measure the distance in the depth direction to each point of the subject 820 based on the parallax width of the left and right cameras, and the subject 820 can be converted into data as a 3D object that is three-dimensionally represented. it can. When the distance to the subject 820 is long, that is, when the depth is deep, the width of the parallax is small, so that the object may be simply recognized as a 2D object without performing the 3D object.

各ステレオカメラの前面に沿った直線は、各ステレオカメラが画角180°である場合の撮影可能範囲を示すものである。ここでは、第1から第4の方向にそれぞれステレオカメラを配置したが、第1の方向のみ、第1から第6の方向など、さまざまな配置が考えられる。   A straight line along the front surface of each stereo camera indicates a shootable range when each stereo camera has an angle of view of 180 °. Here, the stereo cameras are arranged in the first to fourth directions, but various arrangements such as only the first direction and the first to sixth directions are conceivable.

図3に示した実施形態と配信装置220における処理は基本的に同じであるが、視線方向については、処理が異なる場合がある。ユーザー端末230がGPSなどの位置センサを有する場合、ユーザー端末230の位置情報に応じて第1の方向に向けられたステレオカメラから第2の方向に向けられたステレオカメラに視点を切り替えることができる。また、ユーザー端末230の表示画面上で視聴者が手動でステレオカメラを選択してもよい。ユーザー端末230が有するジャイロ・センサにより視線方向を検知して、いずれのステレオカメラからいずれの方向を見た動画を配信するかを定めることもできる。   The processing in the embodiment shown in FIG. 3 and the distribution device 220 are basically the same, but the processing may be different for the line-of-sight direction. When the user terminal 230 has a position sensor such as GPS, the viewpoint can be switched from a stereo camera directed in the first direction to a stereo camera directed in the second direction according to the position information of the user terminal 230. . Further, the viewer may manually select the stereo camera on the display screen of the user terminal 230. It is also possible to detect the direction of the line of sight by a gyro sensor of the user terminal 230 and determine which direction of moving image to be distributed from which stereo camera.

なお、図8では、被写体820を囲む4方向のそれぞれにステレオカメラを1台ずつ配置しているが、図9に示すように、各方向に向けられたステレオカメラを複数台並べて配置してもよい。   In FIG. 8, one stereo camera is arranged in each of the four directions surrounding the subject 820. However, as shown in FIG. 9, a plurality of stereo cameras directed in each direction may be arranged side by side. Good.

また、各ステレオカメラは、ユーザー端末230が有するジャイロ・センサにより視線方向を検知して、当該視線方向に向けて回転させることもできる。   Moreover, each stereo camera can also detect the gaze direction with the gyro sensor which the user terminal 230 has, and can also be rotated toward the said gaze direction.

ユーザー端末230の位置及び向きの少なくとも一方を連続的又は断続的に配信装置220において受信して、配信装置220からユーザー端末230に送信されるモーションデータを当該位置及び向きの少なくとも一方における動画再生に必要となるデータに限定することができ、さらなるデータ容量の圧縮が可能である。視聴者によってステレオカメラが選択された場合も同様である。   At least one of the position and orientation of the user terminal 230 is received by the distribution device 220 continuously or intermittently, and the motion data transmitted from the distribution device 220 to the user terminal 230 is used for moving image reproduction at at least one of the position and orientation. The data can be limited to the necessary data, and further data capacity compression is possible. The same applies when a stereo camera is selected by the viewer.

(スキン)
ここまでは、撮影カメラからの映像データを解析して、3Dオブジェクトを認識することを説明してきたが、より詳細には、3Dオブジェクトは、形を表すボーンと、当該ボーン上に描画されるスキンとに大別することができる。いずれに対しても、上述したようにあらかじめユーザー端末にオブジェクトデータを保持させ、それに対するモーションデータによって動きを表して更新することで、動画再生が可能となる。スキンに対するCGによる補正も行うことがある。
(skin)
Up to this point, it has been described that video data from a shooting camera is analyzed to recognize a 3D object. More specifically, a 3D object includes a bone representing a shape and a skin drawn on the bone. And can be broadly divided. In either case, as described above, the object data is held in the user terminal in advance, and the motion data can be reproduced by representing the motion by the motion data and updating it. The skin may be corrected by CG.

スキンに対するモーションデータとしては、色(RGB)、座標位置(x軸、y軸、z軸)などが挙げられる。   The motion data for the skin includes color (RGB), coordinate position (x axis, y axis, z axis), and the like.

(その他)
ユーザー端末に表示される1又は複数のオブジェクトに対して、ユーザーのコメント、実況中継・解説のコメントなどの文字をオブジェクトとして重ね合わせて再生してもよい。
(Other)
Characters such as user comments and live broadcast / commentary comments may be superimposed on one or more objects displayed on the user terminal as objects and reproduced.

また、音声を全方位又は一部の方位について立体的に収録して、配信装置から当該音響データを映像とタイミングを合わせてユーザー端末に配信することも可能である。   It is also possible to record the audio three-dimensionally in all directions or a part of the directions and distribute the acoustic data from the distribution device to the user terminal in time with the video.

100 配信システム
110 撮影カメラ
120 ステッチサーバ
130 エンコードサーバ
140 携帯端末
210 撮影カメラ
220 配信装置
221 記憶装置
230 ユーザー端末
310 撮影カメラ
320 被写体
720 配信サーバ
730 携帯端末
741 第1のオブジェクト
742 第2のオブジェクト
743 モーションデータ
810 撮影カメラ
820 被写体
DESCRIPTION OF SYMBOLS 100 Distribution system 110 Shooting camera 120 Stitch server 130 Encoding server 140 Portable terminal 210 Shooting camera 220 Distribution device 221 Storage device 230 User terminal 310 Shooting camera 320 Subject 720 Distribution server 730 Portable terminal 741 First object 742 Second object 743 Motion Data 810 Camera 820 Subject

Claims (15)

動画の配信方法であって、
配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、
前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、
前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、
前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、
前記モーションデータを前記ユーザー端末に送信するステップと
を含み、
前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする配信方法。
A video delivery method,
Receiving video data from a photographic camera having one or more stereo cameras that shoot one or more subjects to be distributed;
Recognizing one or more 3D objects respectively corresponding to the one or more subjects based on the video data;
Transmitting the one or more 3D objects to a user terminal;
Detecting a moving 3D object based on video data from the photographing camera and generating motion data indicating the movement;
Transmitting the motion data to the user terminal,
After the motion data is received, the 3D object corresponding to the motion data is updated on the user terminal and displayed on the display screen of the user terminal.
更新された3Dオブジェクトは、他のオブジェクトとともに前記表示画面に表示されることを特徴とする請求項1記載の配信方法。   The distribution method according to claim 1, wherein the updated 3D object is displayed on the display screen together with other objects. 前記他のオブジェクトは、前記ユーザー端末に送信された3Dオブジェクトであって、前記モーションデータに対応する期間に動きのなかった3Dオブジェクトであることを特徴とする請求項2に記載の配信方法。   The delivery method according to claim 2, wherein the other object is a 3D object transmitted to the user terminal and has not moved during a period corresponding to the motion data. 前記映像データから測定される深度が所定の閾値以上の被写体は2Dオブジェクトとして認識され、
前記他のオブジェクトは、前記ユーザー端末に送信された前記2Dオブジェクトであることを特徴とする請求項2に記載の配信方法。
A subject whose depth measured from the video data is a predetermined threshold or more is recognized as a 2D object,
The delivery method according to claim 2, wherein the other object is the 2D object transmitted to the user terminal.
前記他のオブジェクトは、前記ユーザー端末にあらかじめ記憶されている2D又は3Dオブジェクトであることを特徴とする請求項2に記載の配信方法。   The delivery method according to claim 2, wherein the other object is a 2D or 3D object stored in advance in the user terminal. 前記他のオブジェクトは、前記ユーザー端末においてリアルタイムに撮影されるデータであることを特徴とする請求項2に記載の配信方法。   The distribution method according to claim 2, wherein the other object is data captured in real time at the user terminal. 前記1又は複数の3Dオブジェクトの認識は、前記撮影カメラからの第1のフレームの映像データに基づいて行い、
前記モーションデータの生成は、前記第1のフレームの後の第2のフレームと前記第1のフレームとの間の動きに基づいて行うことを特徴とする請求項1から6のいずれかに記載の配信方法。
The recognition of the one or more 3D objects is performed based on video data of a first frame from the photographing camera,
The generation of the motion data is performed based on a motion between a second frame after the first frame and the first frame. Delivery method.
前記映像データは、前記撮影カメラから送信されるライブ映像のデータであることを特徴とする請求項1から7のいずれかに記載の配信方法。   The distribution method according to claim 1, wherein the video data is live video data transmitted from the photographing camera. 前記撮影カメラは、異なる方向に向けて配置された複数のステレオカメラを有することを特徴とする請求項1から8のいずれかに記載の配信方法。   The distribution method according to claim 1, wherein the photographing camera has a plurality of stereo cameras arranged in different directions. 各ステレオカメラからの映像データから認識された各3Dオブジェクトをステッチングするステップをさらに含むことを特徴とする請求項9に記載の配信方法。   The distribution method according to claim 9, further comprising a step of stitching each 3D object recognized from video data from each stereo camera. 前記撮影カメラは、周囲の360°の撮影を行うことができることを特徴とする請求項1から10のいずれかに記載の配信方法。   The distribution method according to claim 1, wherein the photographing camera is capable of photographing a surrounding 360 °. 前記ユーザー端末は携帯端末であり、
前記携帯端末が有するジャイロ・センサによる検知によって判定された視聴者の視線方向を受信するステップと、
前記携帯端末に送信するモーションデータを前記視線方向に対応するモーションデータに制限するステップとをさらに含むことを特徴とする請求項11に記載の配信方法。
The user terminal is a mobile terminal;
Receiving a viewer's line-of-sight direction determined by detection by a gyro sensor of the mobile terminal;
The distribution method according to claim 11, further comprising: limiting motion data to be transmitted to the mobile terminal to motion data corresponding to the line-of-sight direction.
前記撮影カメラは、被写体を360°から撮影することができることを特徴とする請求項1から10のいずれかに記載の配信方法。   The distribution method according to claim 1, wherein the photographing camera can photograph a subject from 360 °. コンピュータに、動画の配信方法を実行させるためのプログラムであって、前記配信方法は、
配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信するステップと、
前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識するステップと、
前記1又は複数の3Dオブジェクトをユーザー端末に送信するステップと、
前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成するステップと、
前記モーションデータを前記ユーザー端末に送信するステップと
を含み、
前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とするプログラム。
A program for causing a computer to execute a video distribution method, wherein the distribution method includes:
Receiving video data from a photographic camera having one or more stereo cameras that shoot one or more subjects to be distributed;
Recognizing one or more 3D objects respectively corresponding to the one or more subjects based on the video data;
Transmitting the one or more 3D objects to a user terminal;
Detecting a moving 3D object based on video data from the photographing camera and generating motion data indicating the movement;
Transmitting the motion data to the user terminal,
After the motion data is received, the 3D object corresponding to the motion data is updated on the user terminal and displayed on the display screen of the user terminal.
動画の配信装置であって、
配信対象の1又は複数の被写体を撮影する、1又は複数のステレオカメラを有する撮影カメラから映像データを受信する受信部と、
前記映像データに基づいて、前記1又は複数の被写体にそれぞれ対応する1又は複数の3Dオブジェクトを認識する処理部と、
前記1又は複数の3Dオブジェクトをユーザー端末に送信する送信部と
を備え、
前記処理部は、前記撮影カメラからの映像データに基づいて、動きのある3Dオブジェクトを検出し、当該動きを示すモーションデータを生成し、
前記送信部は、前記モーションデータを前記ユーザー端末に送信し、
前記モーションデータが受信された後に、前記ユーザー端末において前記モーションデータに対応する3Dオブジェクトを更新して前記ユーザー端末の表示画面に表示されることを特徴とする配信装置。
A video distribution device,
A receiver that receives one or more subjects to be distributed and receives video data from a shooting camera having one or more stereo cameras;
A processing unit that recognizes one or more 3D objects respectively corresponding to the one or more subjects based on the video data;
A transmission unit that transmits the one or more 3D objects to a user terminal,
The processing unit detects a moving 3D object based on video data from the shooting camera, generates motion data indicating the movement,
The transmission unit transmits the motion data to the user terminal,
After the motion data is received, the 3D object corresponding to the motion data is updated on the user terminal and displayed on the display screen of the user terminal.
JP2016166131A 2016-08-26 2016-08-26 Video distribution device and distribution method Pending JP2018033107A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016166131A JP2018033107A (en) 2016-08-26 2016-08-26 Video distribution device and distribution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016166131A JP2018033107A (en) 2016-08-26 2016-08-26 Video distribution device and distribution method

Publications (1)

Publication Number Publication Date
JP2018033107A true JP2018033107A (en) 2018-03-01

Family

ID=61303749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016166131A Pending JP2018033107A (en) 2016-08-26 2016-08-26 Video distribution device and distribution method

Country Status (1)

Country Link
JP (1) JP2018033107A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049286A (en) * 2018-05-29 2020-04-02 株式会社コロプラ Game program, method, and information processing device
JP2020072804A (en) * 2019-09-25 2020-05-14 株式会社コロプラ Game program, method, and information processing device
WO2021107708A1 (en) * 2019-11-29 2021-06-03 주식회사 알파서클 Device and method for broadcasting virtual reality images input from plurality of cameras in real time
US20210345013A1 (en) * 2018-10-18 2021-11-04 Hangzhou Hikvision Digital Technology Co., Ltd. Video Playing Method and Apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049286A (en) * 2018-05-29 2020-04-02 株式会社コロプラ Game program, method, and information processing device
JP7349348B2 (en) 2018-05-29 2023-09-22 株式会社コロプラ Character control program, method, and information processing device
US20210345013A1 (en) * 2018-10-18 2021-11-04 Hangzhou Hikvision Digital Technology Co., Ltd. Video Playing Method and Apparatus
US11800199B2 (en) * 2018-10-18 2023-10-24 Hangzhou Hikvision Digital Technology Co., Ltd. Video playing method and apparatus
JP2020072804A (en) * 2019-09-25 2020-05-14 株式会社コロプラ Game program, method, and information processing device
WO2021107708A1 (en) * 2019-11-29 2021-06-03 주식회사 알파서클 Device and method for broadcasting virtual reality images input from plurality of cameras in real time
KR20210067155A (en) * 2019-11-29 2021-06-08 주식회사 알파서클 Apparaturs and method for real-time broardcasting of vr video filmed by several camera
KR102295265B1 (en) 2019-11-29 2021-08-30 주식회사 알파서클 Apparaturs and method for real-time broardcasting of vr video filmed by several camera

Similar Documents

Publication Publication Date Title
CN110544280B (en) AR system and method
EP3198866B1 (en) Reconstruction of three-dimensional video
CN107636534B (en) Method and system for image processing
EP3007038B1 (en) Interaction with three-dimensional video
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
CN110636276B (en) Video shooting method and device, storage medium and electronic equipment
US11048099B2 (en) Communication system generating a floating image of a remote venue
US10764493B2 (en) Display method and electronic device
WO2018121401A1 (en) Splicing method for panoramic video images, and panoramic camera
JP2018033107A (en) Video distribution device and distribution method
EP3526639A1 (en) Display of visual data with a virtual reality headset
US11430178B2 (en) Three-dimensional video processing
JP2022051978A (en) Image processing device, image processing method, and program
CN107426522B (en) Video method and system based on virtual reality equipment
WO2019097639A1 (en) Information processing device and image generation method
JP5200141B2 (en) Video presentation system, video presentation method, program, and recording medium
Ramachandrappa Panoramic 360◦ videos in virtual reality using two lenses and a mobile phone
KR101947799B1 (en) 360 degrees Fisheye Rendering Method for Virtual Reality Contents Service
JP2005064681A (en) Image pick-up/display device, image pick-up/display system, video image forming method, program of the method and recording medium having the program recorded thereon
CN117729320A (en) Image display method, device and storage medium
JP2013223133A (en) Guiding device, guiding method, and guiding program
KR20120008329A (en) A method and device for display of electronic device using fish-eye lens and head tracking ,and mobile device using the same

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170217