JP6970143B2 - Distribution server, distribution method and program - Google Patents
Distribution server, distribution method and program Download PDFInfo
- Publication number
- JP6970143B2 JP6970143B2 JP2019116711A JP2019116711A JP6970143B2 JP 6970143 B2 JP6970143 B2 JP 6970143B2 JP 2019116711 A JP2019116711 A JP 2019116711A JP 2019116711 A JP2019116711 A JP 2019116711A JP 6970143 B2 JP6970143 B2 JP 6970143B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- client
- request
- panoramic image
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000002716 delivery method Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 description 20
- 230000006854 communication Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Description
本発明は、配信サーバ、配信方法及びプログラムに関する。 The present invention relates to a distribution server, a distribution method and a program.
近年、上下左右の全方位360度の映像を撮影可能なカメラが知られており、このようなカメラで撮影された映像はパノラマ映像(又は、「パノラマ動画」や「360度パノラマ映像」、「VR(Virtual Reality)映像」、「VR動画」等とも称される。)として視聴可能である。 In recent years, cameras capable of shooting 360-degree images in all directions of up, down, left, and right have been known, and the images taken by such cameras are panoramic images (or "panoramic moving images", "360-degree panoramic images", and ". It can be viewed as "VR (Virtual Reality) video", "VR video", etc.).
また、例えば、映像配信サーバがパノラマ映像を端末にストリーミング配信等することで、当該端末でパノラマ映像を視聴することも行われている。しかしながら、パノラマ映像では配信に要するデータ量が大きくなる場合が多かった。これに対して、端末に表示される範囲(以降、「視野範囲」とも表す。)を通常の画質で配信し、端末に表示されない範囲は低画質で配信することで、パノラマ映像の配信に要するデータ量を削減する技術が知られている(例えば特許文献1参照)。 Further, for example, a video distribution server may stream a panoramic video to a terminal so that the panoramic video can be viewed on the terminal. However, in panoramic images, the amount of data required for distribution is often large. On the other hand, the range displayed on the terminal (hereinafter, also referred to as "field of view range") is delivered with normal image quality, and the range not displayed on the terminal is delivered with low image quality, which is required for the delivery of panoramic video. A technique for reducing the amount of data is known (see, for example, Patent Document 1).
また、映像配信サーバが映像を端末(クライアント)にストリーミング配信等するためのプロトコルとして、HLS(HTTP Live Streaming)が知られている。HLSでは、カメラで撮影した映像と音声とをMPEG−2 TS(Transport Stream)形式の複数のセグメントファイルに分割した上で映像配信サーバに格納すると共に、各セグメントファイルの所在や再生時間、再生順序等を記録したプレイリストファイルを生成して所定の場所に設置する。クライアントは、当該プレイリストファイルを映像配信サーバから取得することで、所望のセグメントファイルの取得及び再生を行うことができる。 Further, HLS (HTTP Live Streaming) is known as a protocol for a video distribution server to stream video to a terminal (client). In HLS, the video and audio taken by the camera are divided into multiple segment files in MPEG-2 TS (Transport Stream) format and stored in the video distribution server, and the location, playback time, and playback order of each segment file are stored. Generate a playlist file that records etc. and install it in the specified location. The client can acquire and play a desired segment file by acquiring the playlist file from the video distribution server.
ここで、例えば、コンサートやスポーツ競技等では、複数のカメラをそれぞれ複数の地点に設置等した上で、これらの複数のカメラのそれぞれでパノラマ映像を撮影することが行われている。このとき、ユーザは、複数のカメラのそれぞれで撮影されたパノラマ映像を切り替えて端末に表示させることができるのが一般的である。 Here, for example, in a concert, a sports competition, or the like, a plurality of cameras are installed at a plurality of points, and then a panoramic image is taken by each of the plurality of cameras. At this time, the user can generally switch the panoramic image taken by each of the plurality of cameras and display it on the terminal.
しかしながら、HLSでパノラマ映像が配信されている場合、端末に表示させるパノラマ映像を切り替える都度(つまり、端末に表示させるパノラマ映像のカメラを切り替える都度)、切り替え後のカメラに対応するプレイリストファイルを取得する必要がある。このため、パノラマ映像の再生に遅延が発生する場合がある。 However, when the panoramic video is distributed by HLS, the playlist file corresponding to the camera after switching is acquired every time the panoramic video displayed on the terminal is switched (that is, each time the camera of the panoramic video displayed on the terminal is switched). There is a need to. Therefore, the reproduction of the panoramic image may be delayed.
本発明の実施形態は、上記の点に鑑みてなされたもので、複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することを目的とする。 The embodiment of the present invention has been made in view of the above points, and an object of the present invention is to prevent the occurrence of a reproduction delay due to switching of panoramic images taken by a plurality of cameras.
上記目的を達成するため、本発明の実施形態に係る配信サーバは、HTTP Live Streamingによって複数のカメラの各々で撮影されたパノラマ映像をクライアントに配信する配信サーバであって、前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手段と、前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手段と、を有し、前記映像配信手段は、前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする。 In order to achieve the above object, the distribution server according to the embodiment of the present invention is a distribution server that distributes a panoramic image taken by each of a plurality of cameras by HTTP Live Streaming to a client, and is a camera that identifies the camera. Upon receiving the first request including the identification information from the client, the transmission means for transmitting the playlist for reproducing the panoramic image taken by each of the plurality of cameras to the client, and the playlist are described. When transmitted to the client, the video distribution means includes a video distribution means for delivering the panoramic image taken by the camera identified by the camera identification information included in the first request to the client, and the video distribution means is the first. Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the client receives a panoramic image taken by the camera identified by the camera identification information included in the second request. It is characterized by delivering to.
複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することができる。 It is possible to prevent the occurrence of playback delay due to switching of panoramic images taken by a plurality of cameras.
以下、本発明の実施形態(以降、「本実施形態」とも表す。)について説明する。本実施形態では、複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することができる映像配信システム1について説明する。
Hereinafter, an embodiment of the present invention (hereinafter, also referred to as “the present embodiment”) will be described. In the present embodiment, a
<従来技術の説明>
まず、本実施形態に係る映像配信システム1の説明に必要な従来技術等について説明する。
<Explanation of conventional technology>
First, the prior art and the like necessary for explaining the
(パノラマ映像)
上述したように、パノラマ映像は、「パノラマ動画」や「360度パノラマ映像」、「VR映像」、「VR動画」等とも称される。パノラマ映像は、例えば、図1に示すように、全天周投影球で表現される。全天周投影球で表現されるパノラマ映像では、全天周投影球の中心を観測位置として、この観測位置にある疑似的なカメラが所定の画角で撮影した範囲が視野範囲(つまり、端末に表示される範囲)となる。また、全天周投影球で表現されるパノラマ映像は、垂直角度θが0〜π、水平角度φが0〜2πの正距円筒図法で表現することができる。このとき、例えば、上記の特許文献1に記載されている技術では、正距円筒図法で表現されたパノラマ映像の視野範囲を含む部分領域データを「高解像度タイル」、パノラマ映像全体を圧縮したデータを「低解像度タイル」として端末に配信する。言い換えれば、視野範囲を含む部分領域は高ビットレートの高解像度タイルとして、パノラマ映像全体はビットレートを下げた低ビットレートの低解像度タイルとして端末に配信する。
(Panorama video)
As described above, the panoramic image is also referred to as "panoramic image", "360 degree panoramic image", "VR image", "VR image" and the like. The panoramic image is represented by an all-sky projection sphere, for example, as shown in FIG. In a panoramic image expressed by an all-sky projection sphere, the center of the all-sky projection sphere is set as the observation position, and the range taken by the pseudo camera at this observation position at a predetermined angle of view is the field of view (that is, the terminal). The range displayed in). Further, the panoramic image represented by the stereographic projection sphere can be represented by an equirectangular projection in which the vertical angle θ is 0 to π and the horizontal angle φ is 0 to 2π. At this time, for example, in the technique described in
これにより、パノラマ映像の配信に要するデータ量を削減させることができると共に、視野範囲では高画質な映像が視聴可能であり、かつ、視野範囲を移動させた場合であっても映像が途切れることなく視聴可能とさせることができる。なお、圧縮とは、画像サイズの縮小を意味するものとする。 As a result, the amount of data required for distribution of the panoramic image can be reduced, high-quality images can be viewed in the field of view, and the image is not interrupted even when the field of view is moved. It can be made viewable. Note that compression means reduction of the image size.
本実施形態に係る映像配信システム1でも、上記の特許文献1に記載されている技術を利用し、高解像度タイルと低解像度タイルとを端末(クライアント)に配信することで、このクライアント上でパノラマ映像を再生するものとする。
The
(HLS)
上述したように、HLSとは、配信サーバが映像をクライアントにストリーミング配信等するためのプロトコルである。例えば、図2に示すように、カメラから出力された映像信号がエンコードされてエンコード映像が作成され、配信サーバは、このエンコード映像を複数のセグメントファイルに分割すると共に、プレイリストファイルを生成して所定の場所に設置(格納)する。なお、セグメントファイルは「.ts」形式(つまり、MPEG−2 トランスポートストリーム形式)のファイルであり、プレイリストファイルは「.m3u8」形式のファイルである。図2では、一例として、エンコード映像が「TS−00.ts」〜「TS−NN.ts」に分割された場合を示している。
(HLS)
As described above, HLS is a protocol for a distribution server to stream a video to a client. For example, as shown in FIG. 2, the video signal output from the camera is encoded to create an encoded video, and the distribution server divides the encoded video into a plurality of segment files and generates a playlist file. Install (store) in the specified place. The segment file is a file in the ".ts" format (that is, the MPEG-2 transport stream format), and the playlist file is a file in the ".m3u8" format. FIG. 2 shows, as an example, a case where the encoded video is divided into “TS-00.ts” to “TS-NN.ts”.
このとき、HLSでは、クライアントはプレイリストファイルを配信サーバから取得することで、所望のセグメントファイルの取得及び再生を行うことができるようになる。 At this time, in HLS, the client can acquire and play a desired segment file by acquiring the playlist file from the distribution server.
(HLSによるパノラマ映像配信)
HLSによりパノラマ映像を配信する場合、配信サーバでは、所定の時間単位tc毎に、低解像度タイルと、所定の複数の視野範囲毎の高解像度タイルとをセグメントファイルとして格納している。例えば、図3に示すように、tc毎の低解像度タイルLT、第1の視野範囲におけるtc毎の高解像度タイルHT1、第2の視野範囲におけるtc毎の高解像度タイルHT2、第3の視野範囲におけるtc毎の高解像度タイルHT3等が格納されている。ここで、図3に示す例では、第1の視野範囲は視野範囲の左上の座標が(0,0)となる範囲、第2の視野範囲は視野範囲の左上の座標が(Sx,0)となる範囲、第3の視野範囲は視野範囲の左上の座標が(2Sx,0)となる範囲である。Sxは予め決められた水平角度(x軸方向)のシフト量である。
(Panorama video distribution by HLS)
When serving panoramic image by HLS, the distribution server for each predetermined time unit t c, are stored low resolution tiles, the high resolution tiles each predetermined plurality of visual field range as a segment file. For example, as shown in FIG. 3, the low-resolution tile LT per t c, high resolution tiles each t c in the first field range HT1, high resolution tiles each t c in the second field of view HT2, third high-resolution tiles HT3 like for each t c is stored in the field of view. Here, in the example shown in FIG. 3, the first visual field range has the upper left coordinate of the visual field range (0, 0), and the second visual field range has the upper left coordinate of the visual field range (S x , 0). ), The third visual field range is the range in which the upper left coordinate of the visual field range is (2S x , 0). S x is a predetermined horizontal angle (x-axis direction) shift amount.
なお、垂直角度(y軸方向)のシフト量Syも予め決められ、高解像度タイルは、p=0,・・・,P、q=0,・・・,Qとして、一般に、視野範囲の左上の座標が(p×Sx,q×Sy)である範囲毎に格納されている。以降では、M=P×Qとして、tc毎に、M個の視野範囲それぞれの高解像度タイルが格納されるものとする。 The shift amount S y of the vertical angle (y-axis direction) is also determined in advance, and the high-resolution tiles are generally set to p = 0, ..., P, q = 0, ..., Q, and are generally in the field of view. It is stored for each range in which the upper left coordinate is (p × S x , q × S y). Hereinafter, it is assumed that M = P × Q, and M high-resolution tiles for each field of view range are stored for each t c.
このように、パノラマ映像では、tc毎の低解像度タイルと、予め決められた複数の視野範囲におけるtc毎の高解像度タイルとがセグメントファイルとして配信サーバに格納されている。 Thus, in the panoramic image, the low-resolution tile for each t c, and the high resolution tiles each t c at a plurality of visual field range determined in advance is stored in the distribution server as a segment file.
そして、パノラマ映像を再生する際には、クライアントは、プレイリストを配信サーバから取得することで、低解像度タイルと所望の視野範囲の高解像度タイルとを取得することができる。これにより、クライアントは、当該低解像度タイルと当該高解像度タイルとを用いて、パノラマ映像を再生することができる。 Then, when playing back the panoramic video, the client can acquire the low-resolution tile and the high-resolution tile in the desired viewing range by acquiring the playlist from the distribution server. This allows the client to reproduce the panoramic image using the low resolution tile and the high resolution tile.
例えば、クライアントの視野範囲が3tc毎に水平角度にSx分だけ移動した場合、図3に示すように、当該クライアントには、最初の3tc間ではLT1〜LT3とHT1−1〜HT1−3とがそれぞれ順に配信され、次の3tc間ではLT4〜LT6とHT2−4〜HT2−6とがそれぞれ順に配信され、更に次の3tc間ではLT7〜LT9とHT3−7〜HT3−9とがそれぞれ順に配信される。 For example, if the viewing range of the client is moved by Sx minutes to a horizontal angle every 3t c , the client will be given LT1-LT3 and HT1-1-1 to HT1- between the first 3t c , as shown in FIG. 3 and 3 are delivered in order, LT4 to LT6 and HT2-4 to HT2-6 are delivered in order between the next 3t c , and LT7 to LT9 and HT3-7 to HT3-9 are further delivered between the next 3t c. And are delivered in order.
なお、tcは任意に設定されるが、例えば、0.5[秒]程度とすることが考えられる。また、Sx及びSyはパノラマ映像の画素数等に応じて任意に設定されるが、例えば、正距円筒図法で表現されたパノラマ映像が4000×2000画素である場合にはSx=100、Sy=50等とすることが考えられる。Sx及びSyが大きいほど配信サーバで保持する高解像度タイル数を削減することができるが、視野範囲を切り替えた場合の滑らかさが低下する(つまり、ユーザの視聴品質が低下する。)。一方で、Sx及びSyが小さいほど配信サーバで保持する高解像度タイル数は増加するが、視野範囲を切り替えた場合の滑らかさが向上する(つまり、ユーザの視聴品質が向上する。)。 Although t c is arbitrarily set, it may be set to about 0.5 [seconds], for example. Further, S x and S y are arbitrarily set according to the number of pixels of the panoramic image and the like. For example, when the panoramic image expressed by the equirectangular projection has 4000 × 2000 pixels, S x = 100. , S y = 50 and the like. The larger S x and S y , the smaller the number of high-resolution tiles held by the distribution server, but the smoothness when the field of view is switched is reduced (that is, the viewing quality of the user is reduced). On the other hand, as S x and S y are smaller, the number of high-resolution tiles held by the distribution server increases, but the smoothness when the field of view is switched is improved (that is, the viewing quality of the user is improved).
(複数のカメラが存在する場合におけるHLSによるパノラマ映像配信)
例えば、コンサートやスポーツ競技等では、複数のカメラをそれぞれ複数の地点に設置等した上で、これらの複数のカメラのそれぞれでパノラマ映像を撮影することが行われている。このとき、クライアントでは、これら複数のカメラのそれぞれで撮影されたパノラマ映像を切り替え可能に表示することができるのが一般的である。
(Panorama video distribution by HLS when there are multiple cameras)
For example, in concerts, sports competitions, etc., a plurality of cameras are installed at a plurality of points, and then a panoramic image is taken by each of the plurality of cameras. At this time, it is general that the client can switchably display the panoramic images taken by each of the plurality of cameras.
このとき、HLSによりパノラマ映像を配信する場合、配信サーバには、カメラ毎に、プレイリストとセグメントファイルとが格納される。例えば、図4に示すように、カメラ1〜カメラNのN台のカメラが存在する場合、配信サーバには、カメラ1で撮影されたパノラマ映像(つまり、カメラ1の映像信号がエンコードされたエンコード映像)を示すカメラ1コンテンツ、カメラ2で撮影されたパノラマ映像を示すカメラ2コンテンツ、・・・、カメラNで撮影されたパノラマ映像を示すカメラNコンテンツが格納される。すなわち、配信サーバには、カメラ毎に、このカメラで撮影されたパノラマ映像を再生するためのプレイリスト及びセグメントファイルが格納されている。
At this time, when the panoramic video is distributed by HLS, the playlist and the segment file are stored in the distribution server for each camera. For example, as shown in FIG. 4, when there are N cameras of
したがって、図4に示すように、クライアントは、カメラ1で撮影されたパノラマ映像を再生する際には、カメラ1コンテンツ用のプレイリストを取得して、カメラ1コンテンツの低解像度タイル(LT:Low-resolution Tile)とカメラ1コンテンツの高解像度タイル(HT:High-resolution Tile)とを取得する。同様に、クライアントは、カメラNで撮影されたパノラマ映像を再生する際には、カメラNコンテンツ用のプレイリストを取得して、カメラNコンテンツの低解像度タイルとカメラNコンテンツの高解像度タイルとを取得する。
Therefore, as shown in FIG. 4, when playing back the panoramic image taken by the
すなわち、クライアントは、再生するパノラマ映像のカメラを切り替える都度、このカメラに対応するプレイリストファイルを取得する必要がある。このため、クライアントは、再生するパノラマ映像のカメラを切り替える都度、配信サーバと通信を行う必要があり、パノラマ映像の再生に遅延が発生する場合がある。 That is, the client needs to acquire the playlist file corresponding to this camera each time the camera of the panoramic image to be reproduced is switched. Therefore, the client needs to communicate with the distribution server each time the camera of the panoramic image to be reproduced is switched, which may cause a delay in the reproduction of the panoramic image.
そこで、以降で説明する本実施形態に係る映像配信システム1では、クライアントで再生するパノラマ映像のカメラを切り替えた場合における通信(プレイリスト取得のための通信)を無くすことで、パノラマ映像の再生に遅延が発生することを防止する。
Therefore, in the
<映像配信システム1の全体構成>
本実施形態に係る映像配信システム1の全体構成について、図5を参照しながら説明する。図5は、本実施形態に係る映像配信システム1の全体構成の一例を示す図である。
<Overall configuration of
The overall configuration of the
図5に示すように、本実施形態に係る映像配信システム1には、配信サーバ10と、クライアント20と、複数のカメラ30と、エンコード装置40とが含まれる。カメラ30とエンコード装置40との間、エンコード装置40と配信サーバ10との間、及び配信サーバ10とクライアント20との間は任意の通信ネットワークを介して通信可能に接続されている。
As shown in FIG. 5, the
配信サーバ10は、HLSによりパノラマ映像をクライアント20に配信するコンピュータ又はコンピュータシステムである。このとき、配信サーバ10は、複数のカメラ30でそれぞれ撮影されたパノラマ映像のうち、クライアント20が所望するカメラ30で撮影されたパノラマ映像を当該クライアント20に配信する。
The
クライアント20は、HLSによりパノラマ映像を配信サーバ10から受信(取得)して、このパノラマ映像を再生するコンピュータである。クライアント20は、複数のカメラ30の中から1つ以上のカメラ30を選択して、選択したカメラ30のパノラマ映像を再生することができる(つまり、クライアント20では再生するパノラマ映像のカメラ30を切り替えることができる。)。
The
なお、クライアント20としては、例えば、PC(パーソナルコンピュータ)、スマートフォン、タブレット端末、ヘッドマウントディスプレイ(HMD:Head Mounted Display)、ウェアラブルデバイス、ゲーム機器等を用いることが可能である。
As the
カメラ30は、所定の地点又は位置に設置等されている撮像装置である。したがって、複数のカメラ30は、複数の地点又は位置にそれぞれ設置等されている。なお、以降では、カメラ30の総数をN(ただし、Nは2以上の整数)として、複数のカメラ30の各々を区別する場合には、「カメラ301」、「カメラ302」、・・・、「カメラ30N」等と表す。
The
エンコード装置40は、カメラ30の映像信号をエンコードしてエンコード映像を作成するコンピュータである。エンコード装置40で作成されたエンコード映像は、配信サーバ10に送信される。
The
ここで、本実施形態に係る配信サーバ10は、配信処理部110と、記憶部120とを有する。配信処理部110は、配信サーバ10にインストールされた1以上のプログラムが、CPU(Central Processing Unit)等のプロセッサに実行させる処理により実現される。また、記憶部120は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置を用いて実現可能である。なお、記憶部120は、配信サーバ10と通信ネットワークを介して接続される記憶装置等を用いて実現されていてもよい。
Here, the
配信処理部110は、クライアント20からの要求に応じて、該当のカメラ30のコンテンツ(つまり、低解像度タイル及び高解像度タイル)を当該クライアント20に配信する。
The
記憶部120には、複数のカメラ30で撮影されたパノラマ映像を示す映像コンテンツが記憶されている。ここで、映像コンテンツには、全てのカメラ30のコンテンツで共通のプレイリストと、各カメラ30のコンテンツ(つまり、「カメラ1コンテンツ」、「カメラ2コンテンツ」、・・・、「カメラNコンテンツ」)とが含まれる。また、各カメラ30のコンテンツには、セグメントファイルとして、tc毎の低解像度タイルと、予め決められた複数の視野範囲におけるtc毎の高解像度タイルとが含まれる。なお、n=1,・・・,Nとして、カメラnコンテンツは、カメラ30nで撮影されたパノラマ映像を示すコンテンツである。
The
このように、本実施形態に係る配信サーバ10の記憶部120には、カメラ30n(n=1,・・・,N)のカメラnコンテンツで共通のプレイリストと、カメラ30n(n=1,・・・,N)のカメラnコンテンツ(低解像度タイル及び高解像度タイル)とが記憶されている。このため、クライアント20はプレイリストを1度取得した後は、カメラ30を切り替えたとしも、再度プレイリストを取得する必要がなくなり、プレイリスト取得のための通信を削減することができる。なお、映像コンテンツのデータ構成の詳細については後述する。
As described above, in the
また、本実施形態に係るクライアント20は、視聴処理部210を有する。視聴処理部210は、クライアント20にインストールされた1以上のプログラムが、CPU等のプロセッサに実行させる処理により実現される。
Further, the
視聴処理部210は、配信サーバ10に対して各種要求(例えば、映像の配信要求等)を送信すると共に、該当のカメラ30のコンテンツ(低解像度タイル及び高解像度タイル)を配信サーバ10から受信して、当該コンテンツによってパノラマ映像を再生する。
The
なお、図1に示す映像配信システム1の全体構成は一例であって、他の構成であってもよい。例えば、エンコード装置40は配信サーバ10と一体となっていてもよい。この場合、映像信号は、配信サーバ10でエンコードされる。
The overall configuration of the
<映像コンテンツのデータ構成>
次に、本実施形態に係る配信サーバ10の記憶部120に記憶されている映像コンテンツのデータ構成について説明する。
<Data structure of video content>
Next, the data structure of the video content stored in the
(実施例1)
実施例1における映像コンテンツのデータ構成について、図6を参照しながら説明する。図6は、映像コンテンツのデータ構成の一例を説明するための図(その1)である。
(Example 1)
The data structure of the video content in the first embodiment will be described with reference to FIG. FIG. 6 is a diagram (No. 1) for explaining an example of the data structure of the video content.
図6に示すように、実施例1では、コンテンツフォルダの直下にプレイリスト(これを「Content.m3u8」とも表す。)と、Confフォルダと、Mediaフォルダとが配置される。また、Confフォルダ内には、メタデータリスト(これを「Play.ini」とも表す。)と、配置情報(これを「Rendering.ini」とも表す。)とが配置されている。 As shown in FIG. 6, in the first embodiment, a playlist (also referred to as “Conent.m3u8”), a Conf folder, and a Media folder are arranged directly under the content folder. Further, in the Conf folder, a metadata list (also referred to as "Play.ini") and placement information (this is also referred to as "Rendering.ini") are arranged.
一方で、Mediaフォルダ内には、カメラ1コンテンツが格納される各フォルダ(0フォルダ、1フォルダ、2フォルダ、・・・、Mフォルダ)、カメラ2コンテンツが格納される各フォルダ(M+1フォルダ、M+2フォルダ、・・・、2M+1フォルダ)、・・・、カメラNコンテンツが格納される各フォルダとが配置される。
On the other hand, in the Media folder, each folder in which the
ここで、i=1,・・・,M−1として、n(i+1)−1フォルダには、カメラ30nの第iの視野範囲の高解像度タイルが配置されている。具体的には、例えば、0フォルダには、カメラ301の第1の視野範囲におけるtc毎の高解像度タイルが配置されている。図6に示す例では、最初のtc間における当該高解像度タイル「0.ts」、次のtc間における当該高解像度タイル「1.ts」、更に次のtc間における当該高解像度タイル「2.ts」等が配置されている。同様に、1フォルダには、カメラ302の第2の視野範囲におけるtc毎の高解像度タイルが配置されている。
Here, i = 1, · · ·, as M-1, the n (i + 1) -1 folder, high resolution tiles of the field-of-view range of the
一方で、i=Mとして、n(M+1)−1フォルダには、カメラ30nのtc毎の低解像度タイルが配置されている。具体的には、例えば、Mフォルダには、カメラ301のtc毎の低解像度タイルが配置されている。図6に示す例では、最初のtc間における低解像度タイル「0.ts」、次のtc間における低解像度タイル「1.ts」、更に次のtc間における低解像度タイル「2.ts」等が配置されている。また、n(M+1)−1フォルダには、メディア用のプレイリスト(これを「LT.m3u8」とも表す。)も配置されている。
On the other hand, with i = M, low resolution tiles for each t c of the camera 30 n are arranged in the n (M + 1) -1 folder. Specifically, for example, the M folder, a low-
このように、実施例1における映像コンテンツでは、Mediaフォルダ内に、カメラ30毎のコンテンツが格納されている。
As described above, in the video content of the first embodiment, the content for each
なお、Content.m3u8で表されるプレイリストをメディア用のプレイリストと区別するため、以降では、「コンテンツ用プレイリスト」とも表す、コンテンツ用プレイリストには、例えば、通信セッション情報、セグメントファイルを送信するための必須情報等が記述されている。 In addition, Content. In order to distinguish the playlist represented by m3u8 from the playlist for media, the playlist for content, which is also referred to as a "playlist for content" hereafter, is used to transmit, for example, communication session information and a segment file. Required information etc. are described.
一方で、メディア用のプレイリスト(LT.m3u8)は「メディア用プレイリスト」とも表す。メディア用プレイリストには、例えば、各セグメントファイルの長さ(再生時間)等が記述されている。 On the other hand, a playlist for media (LT.m3u8) is also referred to as a "playlist for media". For example, the length (playback time) of each segment file is described in the playlist for media.
また、メタデータリストには、コーデックに関する情報、各タイルのサイズの情報、カメラ30の台数情報等が記述されている。より具体的には、メタデータリストには、カメラ30の台数情報と、カメラ30毎のコーデックに関する情報やカメラ30毎のタイルのサイズの情報等が記述されている。
Further, the metadata list describes information about the codec, information on the size of each tile, information on the number of
更に、配置情報には、高解像度タイルの配置に関する情報(つまり、高解像度タイル毎の視野範囲の座標に関する情報)等が記述されている。より具体的には、配置情報には、カメラ30毎の高解像度タイルの配置に関する情報等が記述されている。
Further, in the arrangement information, information regarding the arrangement of the high-resolution tiles (that is, information regarding the coordinates of the visual field range for each high-resolution tile) and the like are described. More specifically, in the arrangement information, information regarding the arrangement of high-resolution tiles for each
(実施例2)
実施例2における映像コンテンツのデータ構成について、図7を参照しながら説明する。図7は、映像コンテンツのデータ構成の一例を説明するための図(その2)である。
(Example 2)
The data structure of the video content in the second embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram (No. 2) for explaining an example of the data structure of the video content.
図7に示すように、実施例2では、コンテンツフォルダの直下にコンテンツ用プレイリストと、Confフォルダと、カメラ30毎のMediaフォルダ(つまり、Media_1フォルダ、Media_2フォルダ、・・・、Media_Nフォルダ)とが配置されている。Confフォルダ内には、実施例1と同様に、メタデータリストと、配置情報とが配置されている。 As shown in FIG. 7, in the second embodiment, a playlist for contents, a Conf folder, and a Media folder for each camera 30 (that is, a Media_1 folder, a Media_2 folder, ..., a Media_N folder) are provided directly under the content folder. Is placed. In the Conf folder, the metadata list and the arrangement information are arranged as in the first embodiment.
n=1,・・・,Nとして、Media_nフォルダ内には、カメラnコンテンツが格納される。すなわち、Media_nフォルダには0フォルダ、1フォルダ、・・・、Mフォルダがそれぞれ配置されており、i=0,・・・,M−1として、iフォルダには、カメラ30nの第i+1の視野範囲の高解像度タイルが配置されている。具体的には、例えば、Media_1フォルダの0フォルダには、カメラ301の第1の視野範囲におけるtc毎の高解像度タイルが配置されている。図7に示す例では、最初のtc間における当該高解像度タイル「0.ts」、次のtc間における当該高解像度タイル「1.ts」、更に次のtc間における当該高解像度タイル「2.ts」等が配置されている。同様に、Media_1フォルダの1フォルダには、カメラ301の第2の視野範囲におけるtc毎の高解像度タイルが配置されている。
As n = 1, ..., N, the camera n contents are stored in the Media_n folder. That is,
一方で、Media_nフォルダのMフォルダには、カメラ30nのtc毎の低解像度タイルが配置されている。具体的には、例えば、Media_1フォルダのMフォルダには、カメラ301のtc毎の低解像度タイルが配置されている。図7に示す例では、最初のtc間における低解像度タイル「0.ts」、次のtc間における低解像度タイル「1.ts」、更に次のtc間における低解像度タイル「2.ts」等が配置されている。また、Mフォルダには、メディア用のプレイリストも配置されている。
On the other hand, low resolution tiles for each t c of the camera 30 n are arranged in the M folder of the Media_n folder. Specifically, for example, the M folder Media_1 folder, low-
このように、実施例2における映像コンテンツでは、コンテンツフォルダ直下に、カメラ30毎のMediaフォルダが配置されており、それぞれのMediaフォルダ内に該当のカメラ30のコンテンツが格納されている。
As described above, in the video content of the second embodiment, the media folder for each
<パノラマ映像配信処理>
次に、本実施形態に係るパノラマ映像配信処理について、図8を参照しながら説明する。図8は、本実施形態に係るパノラマ映像配信処理の一例を示すシーケンス図である。なお、以降では、カメラ30を特定する情報をカメラ番号として、カメラ番号n=1のカメラ301をデフォルトのカメラ30とする。そして、クライアント20でパノラマ映像を再生する際には、デフォルトのカメラ301のパノラマ映像が最初に再生されるものとする。
<Panorama video distribution processing>
Next, the panoramic video distribution process according to the present embodiment will be described with reference to FIG. FIG. 8 is a sequence diagram showing an example of the panoramic video distribution process according to the present embodiment. In the following, the information that identifies the
まず、クライアント20の視聴処理部210は、パノラマ映像の再生を開始すると、映像の配信要求を配信サーバ10に送信する(ステップS101)。ここで、当該映像の配信要求には、デフォルトのカメラ301のカメラ番号n=1が含まれる。また、当該映像の配信要求には、現在時刻又はユーザによって指定された時刻も含まれる。以降では、現在時刻又はユーザによって指定された時刻を「再生時刻」とも表す。なお、例えば、ライブ配信等の場合には再生時刻として現在時刻が含まれる場合が多く、オンデマンド配信等の場合には再生時刻としてユーザによって指定された時刻が含まれる場合が多い。
First, when the
本実施形態では、上記のステップS101で送信される要求を「映像の配信要求」としたが、この要求は、例えば、「映像の配信開始要求」等と称されてもよい。 In the present embodiment, the request transmitted in step S101 is referred to as a "video distribution request", but this request may be referred to as, for example, a "video distribution start request".
次に、配信サーバ10及びクライアント20は、プレイリスト取得に関する通信処理(すなわち、コンテンツ用プレイリストやメディア用プレイリスト等を配信サーバ10からクライアント20に送信する処理)を行う(ステップS102)。これにより、クライアント20は、コンテンツ用プレイリストやメディア用プレイリスト等を取得することができる。このプレイリスト取得に関する通信処理の詳細については後述する。
Next, the
次に、配信サーバ10の配信処理部110は、カメラ1コンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻に対応する低解像度タイルと、デフォルトの視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS103)。なお、再生時刻に対応する低解像度タイル及び高解像度タイルとは、例えば、当該低解像度タイル及び当該高解像度タイルの再生時間に再生時刻が含まれるタイルのことである。
Next, the
そして、配信サーバ10の配信処理部110は、上記のステップS103で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS104)。
Then, the
クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、これらの低解像度タイル及び高解像度タイルを合成する(ステップS105)。すなわち、視聴処理部210は、例えば、上記のステップS102で取得した配置情報に基づいて、当該低解像度タイルの該当の領域に当該高解像度タイルを重畳させることで、これらの低解像度タイル及び高解像度タイルを合成する。これにより、視野範囲が高解像度で、かつ、視野範囲以外の領域は低解像度のパノラマ映像が作成される。
Upon receiving the low-resolution tile and the high-resolution tile, the
そして、クライアント20の視聴処理部210は、上記のステップS105で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS106)。視聴処理部210は、例えば、メタデータリストに記述されているコーデックに関する情報に従ってパノラマ映像を再生する。
Then, the
以降のステップS107〜ステップS111では、カメラ30nのパノラマ映像を再生している場合に、クライアント20の視野範囲が変更されたときの処理について説明する。クライアント20では、例えば、ジャイロセンサ等により視線方向の変更が検出されることで、この視線方向の変更に応じて視野範囲も変更される。ただし、視線方向の変更は、ジャイロセンサ等によって検出される場合に限られず、例えば、クライアント20のタッチパネルをユーザの指で操作すること等によって視線方向が変更されてもよい。
Subsequent steps S107 to S111 describe processing when the field of view of the
クライアント20の視聴処理部210は、変更後の視線方向を示す視線方向情報を配信サーバ10に送信する(ステップS107)。なお、このとき、視聴処理部210は、再生時刻もあわせて配信サーバ10に送信してもよい。
The
配信サーバ10の配信処理部110は、視線方向情報を受信すると、カメラnコンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻(つまり、現在時刻又はユーザによって指定された時刻)に対応する低解像度タイルと、当該視線方向情報が示す視線方向の視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS108)。なお、視野範囲は、例えば、パノラマ映像を全天周投影球で表現した場合に、観測位置にある疑似的なカメラを視線方向に向けて撮影した範囲として特定される。
When the
そして、配信サーバ10の配信処理部110は、上記のステップS108で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS109)。
Then, the
クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、上記のステップS105と同様に、これらの低解像度タイル及び高解像度タイルを合成する(ステップS110)。
Upon receiving the low-resolution tile and the high-resolution tile, the
そして、クライアント20の視聴処理部210は、上記のステップS110で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS111)。
Then, the
以降のステップS112〜ステップS116では、クライアント20で再生するパノラマ映像を切り替えた場合(つまり、カメラ30を切り替えた場合)の処理について説明する。クライアント20のユーザは、所定の操作(例えば、カメラ切り替えボタンを押下する等)を行うことで、当該クライアント20で再生するパノラマ映像を切り替えることができる。一例として、カメラ番号n=kのカメラ30kで撮影されたパノラマ映像に切り替える場合について説明する。
Subsequent steps S112 to S116 describe processing when the panoramic image to be reproduced by the
クライアント20の視聴処理部210は、カメラ番号n=kのカメラ30kで撮影されたパノラマ映像に切り替える操作が行われると、映像の配信要求を配信サーバ10に送信する(ステップS112)。ここで、当該映像の配信要求には、カメラ番号n=kが含まれる。なお、このとき、視聴処理部210は、再生時刻もあわせて配信サーバ10に送信してもよい。本実施形態では、このステップS112で送信される要求を「映像の配信要求」としたが、この要求は、例えば、「カメラの切替要求」や「パノラマ映像の切替要求」等と称されてもよい。
When the operation of switching to the panoramic image captured by the camera 30 k with the camera number n = k is performed, the
配信サーバ10の配信処理部110は、カメラkコンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻に対応する低解像度タイルと、デフォルトの視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS113)。
The
そして、配信サーバ10の配信処理部110は、上記のステップS113で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS114)。
Then, the
クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、上記のステップS105と同様に、これらの低解像度タイル及び高解像度タイルを合成する(ステップS115)。
Upon receiving the low-resolution tile and the high-resolution tile, the
そして、クライアント20の視聴処理部210は、上記のステップS115で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS116)。
Then, the
このように、本実施形態に係る映像配信システム1では、クライアント20で再生するパノラマ映像を撮影するカメラ30が切り替わった場合であっても、上記のステップS102でプレイリストを一度取得していれば、再度プレイリストを取得する必要がない。このため、再度プレイリスト取得に関する通信処理を行う必要がないため、パノラマ映像の再生遅延を防止することが可能となる。
As described above, in the
なお、本実施形態では、カメラ30kに切り替えた後のパノラマ映像の視野範囲は、当該カメラ30kのデフォルトの視野範囲であるものとした(上記のステップS113)が、これに限られない。例えば、切り替え後の視野範囲を特定するための座標を、切り替え前の視野範囲を特定するための座標と同一としてもよい。
In the present embodiment, a panoramic field of view of the image after switching the
また、例えば、切り替え前の視野範囲内に或る対象(例えば、コンサートであれば或る特定の歌手、スポーツであれば或る特定の選手等)が含まれている場合に、同一の対象が含まれる範囲を切り替え後の視野範囲としてもよい。これにより、ユーザは、複数のカメラ30を切り替えることで、例えば、異なる角度や異なる位置等から撮影された同一の対象を視聴することが可能となる。
Further, for example, when a certain object (for example, a specific singer in the case of a concert, a specific player in the case of sports, etc.) is included in the visual field range before switching, the same object is included. The included range may be used as the viewing range after switching. As a result, the user can view the same object shot from different angles, different positions, or the like by switching the plurality of
また、例えば、パノラマ映像の再生時刻や内容に応じて、カメラ30毎に着目する視野範囲を予め指定されていてもよい。具体的には、例えば、再生時刻が「0:00」〜「5:00」の間は、カメラ301に切り替わったときは視野範囲1、カメラ302に切り替わったときは視野範囲3、カメラ303に切り替わったときは視野範囲2等と予め設定することが考えられる。同様に、例えば、パノラマ映像の内容(コンテンツ)が「コンサート」の場合に、カメラ301に切り替わったときは視野範囲2、カメラ302に切り替わったときは視野範囲2、カメラ303に切り替わったときは視野範囲1等とする一方で、パノラマ映像の内容が「スポーツ」である場合に、カメラ301に切り替わったときは視野範囲1、カメラ302に切り替わったときは視野範囲1、カメラ303に切り替わったときは視野範囲3等と予め設定することが考えられる。これにより、パノラマ映像の再生時刻や内容に応じて、切り替え後のカメラ30で指定された視野範囲を視聴することが可能となる。
Further, for example, the field of view range to be focused on may be specified in advance for each
ここで、上記のステップS102におけるプレイリスト取得に関する通信処理の詳細について、図9を参照しながら説明する。図9は、本実施形態に係るプレイリスト取得に関する通信処理の一例を示すシーケンス図である。 Here, the details of the communication process related to the playlist acquisition in the above step S102 will be described with reference to FIG. 9. FIG. 9 is a sequence diagram showing an example of communication processing related to playlist acquisition according to the present embodiment.
まず、クライアント20の視聴処理部210は、Master Playlist要求を配信サーバ10に送信する(ステップS201)。なお、Master Playlist要求とは、コンテンツ用プレイリストを取得するための要求である。
First, the
配信サーバ10の配信処理部110は、Master Playlist要求を受信すると、コンテンツ用プレイリストを記憶部120から読み出す(ステップS202)。
Upon receiving the Master Playlist request, the
そして、配信サーバ10の配信処理部110は、上記のステップS202で読み出したコンテンツ用プレイリスト(つまり、Content.m3u8)をクライアント20に送信する(ステップS203)。これにより、クライアント20は、コンテンツ用プレイリストを取得することができる。
Then, the
クライアント20の配信処理部110は、コンテンツ用プレイリストを受信すると、Media Playlist要求を配信サーバ10に送信する(ステップS204)。なお、Media Playlist要求とは、メディア用プレイリスト等を取得するための要求である。
Upon receiving the content playlist, the
配信サーバ10の配信処理部110は、Media Playlist要求を受信すると、メディア用プレイリスト(つまり、LT.m3u8)と、メタデータリスト(つまり、Play.ini)と、配置情報(つまり、Rendering.ini)とを記憶部120から読み出す(ステップS205)。
Upon receiving the Media Playlist request, the
そして、配信サーバ10の配信処理部110は、上記のステップS205で読み出したメディア用プレイリストとメタデータリストと配置情報とをクライアント20に送信する(ステップS206)。これにより、クライアント20は、メディア用プレイリストとメタデータリストと配置情報とを取得することができる。
Then, the
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更、組み合わせ等が可能である。 The present invention is not limited to the above-described embodiment disclosed specifically, and various modifications, changes, combinations, and the like can be made without departing from the scope of claims.
1 映像配信システム
10 配信サーバ
20 クライアント
30 カメラ
40 エンコード装置
110 配信処理部
120 記憶部
210 視聴処理部
1
Claims (7)
前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手段と、
前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手段と、を有し、
前記映像配信手段は、
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする配信サーバ。 A distribution server that distributes panoramic images taken by each of multiple cameras by HTTP Live Streaming to clients.
When a first request including camera identification information for identifying the camera is received from the client, a transmission means for transmitting a playlist for reproducing a panoramic image taken by each of the plurality of cameras to the client is used. ,
When the playlist is transmitted to the client, it has a video distribution means for distributing a panoramic image taken by a camera identified by the camera identification information included in the first request to the client.
The video distribution means is
Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the panoramic image taken by the camera identified by the camera identification information included in the second request is displayed. A distribution server characterized in that it distributes to the client.
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信した場合、前記プレイリストを前記クライアントに送信しない、ことを特徴とする請求項1に記載の配信サーバ。 The transmission means is
The delivery according to claim 1, wherein when the second request including the camera identification information different from the camera identification information included in the first request is received, the playlist is not transmitted to the client. server.
前記第2の要求は、前記カメラの切り替え要求である、ことを特徴とする請求項1又は2に記載の配信サーバ。 The first request is a request to start distribution of a panoramic image taken by a camera set as a default among the plurality of cameras.
The distribution server according to claim 1 or 2, wherein the second request is a camera switching request.
前記映像配信手段は、
前記カメラ識別情報で識別されるカメラで撮影されたパノラマ映像のセグメントファイルを前記クライアントに配信する、ことを特徴とする請求項1乃至3の何れか一項に記載の配信サーバ。 Each camera has a storage means for storing the contents of the panoramic image taken by the camera as a segment file.
The video distribution means is
The distribution server according to any one of claims 1 to 3, wherein a segment file of a panoramic image taken by a camera identified by the camera identification information is distributed to the client.
前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手順と、
前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手順と、を実行し、
前記映像配信手順は、
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする配信方法。 A computer that delivers panoramic video taken by each of multiple cameras by HTTP Live Streaming to the client,
When a first request including camera identification information for identifying the camera is received from the client, a transmission procedure for transmitting a playlist for playing a panoramic image taken by each of the plurality of cameras to the client is provided. ,
When the playlist is transmitted to the client, a video distribution procedure of distributing a panoramic image taken by a camera identified by the camera identification information included in the first request to the client is executed.
The video distribution procedure is
Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the panoramic image taken by the camera identified by the camera identification information included in the second request is displayed. A delivery method characterized by delivering to the client.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019116711A JP6970143B2 (en) | 2019-06-24 | 2019-06-24 | Distribution server, distribution method and program |
JP2021176118A JP7319340B2 (en) | 2019-06-24 | 2021-10-28 | Distribution server, distribution method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019116711A JP6970143B2 (en) | 2019-06-24 | 2019-06-24 | Distribution server, distribution method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021176118A Division JP7319340B2 (en) | 2019-06-24 | 2021-10-28 | Distribution server, distribution method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021002811A JP2021002811A (en) | 2021-01-07 |
JP6970143B2 true JP6970143B2 (en) | 2021-11-24 |
Family
ID=73994368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019116711A Active JP6970143B2 (en) | 2019-06-24 | 2019-06-24 | Distribution server, distribution method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6970143B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017123503A (en) * | 2016-01-04 | 2017-07-13 | 日本電信電話株式会社 | Video distribution apparatus, video distribution method and computer program |
JP6669403B2 (en) * | 2016-06-03 | 2020-03-18 | キヤノン株式会社 | Communication device, communication control method, and communication system |
JP6987567B2 (en) * | 2017-08-07 | 2022-01-05 | 日本放送協会 | Distribution device, receiver and program |
-
2019
- 2019-06-24 JP JP2019116711A patent/JP6970143B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021002811A (en) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3459252B1 (en) | Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback | |
US10880522B2 (en) | Hybrid media viewing application including a region of interest within a wide field of view | |
JP5920708B2 (en) | Multi-view video stream viewing system and method | |
JP6309749B2 (en) | Image data reproducing apparatus and image data generating apparatus | |
JP2015187797A (en) | Image data generation device and image data reproduction device | |
JP2007150747A (en) | Receiving apparatus and main line image distribution apparatus | |
US20210076081A1 (en) | Video transmission method, client, and server | |
JP6541309B2 (en) | Transmission apparatus, transmission method, and program | |
WO2021199559A1 (en) | Video distribution device, video distribution method, and video distribution program | |
KR20210019017A (en) | Content processing method and device | |
JP5915604B2 (en) | Information processing apparatus, program, and information processing method | |
JP2017123503A (en) | Video distribution apparatus, video distribution method and computer program | |
US9491447B2 (en) | System for providing complex-dimensional content service using complex 2D-3D content file, method for providing said service, and complex-dimensional content file therefor | |
JP6970143B2 (en) | Distribution server, distribution method and program | |
JP6987567B2 (en) | Distribution device, receiver and program | |
JP7319340B2 (en) | Distribution server, distribution method and program | |
JP5940999B2 (en) | VIDEO REPRODUCTION DEVICE, VIDEO DISTRIBUTION DEVICE, VIDEO REPRODUCTION METHOD, VIDEO DISTRIBUTION METHOD, AND PROGRAM | |
JP7083361B2 (en) | Image processing equipment and systems | |
JP5850012B2 (en) | Information processing apparatus, program, and communication system | |
WO2022065040A1 (en) | Information processing device, information processing method, and information processing system | |
JP6473469B2 (en) | Video distribution system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210928 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6970143 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |