JP6970143B2 - Distribution server, distribution method and program - Google Patents

Distribution server, distribution method and program Download PDF

Info

Publication number
JP6970143B2
JP6970143B2 JP2019116711A JP2019116711A JP6970143B2 JP 6970143 B2 JP6970143 B2 JP 6970143B2 JP 2019116711 A JP2019116711 A JP 2019116711A JP 2019116711 A JP2019116711 A JP 2019116711A JP 6970143 B2 JP6970143 B2 JP 6970143B2
Authority
JP
Japan
Prior art keywords
camera
client
request
panoramic image
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019116711A
Other languages
Japanese (ja)
Other versions
JP2021002811A (en
Inventor
洋平 川崎
翔平 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT TechnoCross Corp
Original Assignee
NTT TechnoCross Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT TechnoCross Corp filed Critical NTT TechnoCross Corp
Priority to JP2019116711A priority Critical patent/JP6970143B2/en
Publication of JP2021002811A publication Critical patent/JP2021002811A/en
Priority to JP2021176118A priority patent/JP7319340B2/en
Application granted granted Critical
Publication of JP6970143B2 publication Critical patent/JP6970143B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、配信サーバ、配信方法及びプログラムに関する。 The present invention relates to a distribution server, a distribution method and a program.

近年、上下左右の全方位360度の映像を撮影可能なカメラが知られており、このようなカメラで撮影された映像はパノラマ映像(又は、「パノラマ動画」や「360度パノラマ映像」、「VR(Virtual Reality)映像」、「VR動画」等とも称される。)として視聴可能である。 In recent years, cameras capable of shooting 360-degree images in all directions of up, down, left, and right have been known, and the images taken by such cameras are panoramic images (or "panoramic moving images", "360-degree panoramic images", and ". It can be viewed as "VR (Virtual Reality) video", "VR video", etc.).

また、例えば、映像配信サーバがパノラマ映像を端末にストリーミング配信等することで、当該端末でパノラマ映像を視聴することも行われている。しかしながら、パノラマ映像では配信に要するデータ量が大きくなる場合が多かった。これに対して、端末に表示される範囲(以降、「視野範囲」とも表す。)を通常の画質で配信し、端末に表示されない範囲は低画質で配信することで、パノラマ映像の配信に要するデータ量を削減する技術が知られている(例えば特許文献1参照)。 Further, for example, a video distribution server may stream a panoramic video to a terminal so that the panoramic video can be viewed on the terminal. However, in panoramic images, the amount of data required for distribution is often large. On the other hand, the range displayed on the terminal (hereinafter, also referred to as "field of view range") is delivered with normal image quality, and the range not displayed on the terminal is delivered with low image quality, which is required for the delivery of panoramic video. A technique for reducing the amount of data is known (see, for example, Patent Document 1).

また、映像配信サーバが映像を端末(クライアント)にストリーミング配信等するためのプロトコルとして、HLS(HTTP Live Streaming)が知られている。HLSでは、カメラで撮影した映像と音声とをMPEG−2 TS(Transport Stream)形式の複数のセグメントファイルに分割した上で映像配信サーバに格納すると共に、各セグメントファイルの所在や再生時間、再生順序等を記録したプレイリストファイルを生成して所定の場所に設置する。クライアントは、当該プレイリストファイルを映像配信サーバから取得することで、所望のセグメントファイルの取得及び再生を行うことができる。 Further, HLS (HTTP Live Streaming) is known as a protocol for a video distribution server to stream video to a terminal (client). In HLS, the video and audio taken by the camera are divided into multiple segment files in MPEG-2 TS (Transport Stream) format and stored in the video distribution server, and the location, playback time, and playback order of each segment file are stored. Generate a playlist file that records etc. and install it in the specified location. The client can acquire and play a desired segment file by acquiring the playlist file from the video distribution server.

特開2016−15705号公報Japanese Unexamined Patent Publication No. 2016-15705

ここで、例えば、コンサートやスポーツ競技等では、複数のカメラをそれぞれ複数の地点に設置等した上で、これらの複数のカメラのそれぞれでパノラマ映像を撮影することが行われている。このとき、ユーザは、複数のカメラのそれぞれで撮影されたパノラマ映像を切り替えて端末に表示させることができるのが一般的である。 Here, for example, in a concert, a sports competition, or the like, a plurality of cameras are installed at a plurality of points, and then a panoramic image is taken by each of the plurality of cameras. At this time, the user can generally switch the panoramic image taken by each of the plurality of cameras and display it on the terminal.

しかしながら、HLSでパノラマ映像が配信されている場合、端末に表示させるパノラマ映像を切り替える都度(つまり、端末に表示させるパノラマ映像のカメラを切り替える都度)、切り替え後のカメラに対応するプレイリストファイルを取得する必要がある。このため、パノラマ映像の再生に遅延が発生する場合がある。 However, when the panoramic video is distributed by HLS, the playlist file corresponding to the camera after switching is acquired every time the panoramic video displayed on the terminal is switched (that is, each time the camera of the panoramic video displayed on the terminal is switched). There is a need to. Therefore, the reproduction of the panoramic image may be delayed.

本発明の実施形態は、上記の点に鑑みてなされたもので、複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することを目的とする。 The embodiment of the present invention has been made in view of the above points, and an object of the present invention is to prevent the occurrence of a reproduction delay due to switching of panoramic images taken by a plurality of cameras.

上記目的を達成するため、本発明の実施形態に係る配信サーバは、HTTP Live Streamingによって複数のカメラの各々で撮影されたパノラマ映像をクライアントに配信する配信サーバであって、前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手段と、前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手段と、を有し、前記映像配信手段は、前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする。 In order to achieve the above object, the distribution server according to the embodiment of the present invention is a distribution server that distributes a panoramic image taken by each of a plurality of cameras by HTTP Live Streaming to a client, and is a camera that identifies the camera. Upon receiving the first request including the identification information from the client, the transmission means for transmitting the playlist for reproducing the panoramic image taken by each of the plurality of cameras to the client, and the playlist are described. When transmitted to the client, the video distribution means includes a video distribution means for delivering the panoramic image taken by the camera identified by the camera identification information included in the first request to the client, and the video distribution means is the first. Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the client receives a panoramic image taken by the camera identified by the camera identification information included in the second request. It is characterized by delivering to.

複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することができる。 It is possible to prevent the occurrence of playback delay due to switching of panoramic images taken by a plurality of cameras.

パノラマ映像の一例を説明するための図である。It is a figure for demonstrating an example of a panoramic image. HLSを説明するための図である。It is a figure for demonstrating HLS. HLSによるパノラマ映像配信の一例を説明するための図である。It is a figure for demonstrating an example of panoramic video distribution by HLS. 複数のカメラが存在する場合にカメラを切り替えた際のパノラマ映像配信の一例を説明するための図である。It is a figure for demonstrating an example of panoramic image distribution at the time of switching a camera when there are a plurality of cameras. 本実施形態に係る映像配信システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the video distribution system which concerns on this embodiment. 映像コンテンツのデータ構成の一例を説明するための図(その1)である。It is a figure (the 1) for demonstrating an example of the data structure of a video content. 映像コンテンツのデータ構成の一例を説明するための図(その2)である。It is a figure (the 2) for demonstrating an example of the data structure of a video content. 本実施形態に係るパノラマ映像配信処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the panoramic video distribution processing which concerns on this embodiment. 本実施形態に係るプレイリスト取得に関する通信処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the communication processing which concerns on the playlist acquisition which concerns on this embodiment.

以下、本発明の実施形態(以降、「本実施形態」とも表す。)について説明する。本実施形態では、複数のカメラでそれぞれ撮影されたパノラマ映像の切り替えに伴う再生遅延の発生を防止することができる映像配信システム1について説明する。 Hereinafter, an embodiment of the present invention (hereinafter, also referred to as “the present embodiment”) will be described. In the present embodiment, a video distribution system 1 that can prevent the occurrence of playback delay due to switching of panoramic video shot by a plurality of cameras will be described.

<従来技術の説明>
まず、本実施形態に係る映像配信システム1の説明に必要な従来技術等について説明する。
<Explanation of conventional technology>
First, the prior art and the like necessary for explaining the video distribution system 1 according to the present embodiment will be described.

(パノラマ映像)
上述したように、パノラマ映像は、「パノラマ動画」や「360度パノラマ映像」、「VR映像」、「VR動画」等とも称される。パノラマ映像は、例えば、図1に示すように、全天周投影球で表現される。全天周投影球で表現されるパノラマ映像では、全天周投影球の中心を観測位置として、この観測位置にある疑似的なカメラが所定の画角で撮影した範囲が視野範囲(つまり、端末に表示される範囲)となる。また、全天周投影球で表現されるパノラマ映像は、垂直角度θが0〜π、水平角度φが0〜2πの正距円筒図法で表現することができる。このとき、例えば、上記の特許文献1に記載されている技術では、正距円筒図法で表現されたパノラマ映像の視野範囲を含む部分領域データを「高解像度タイル」、パノラマ映像全体を圧縮したデータを「低解像度タイル」として端末に配信する。言い換えれば、視野範囲を含む部分領域は高ビットレートの高解像度タイルとして、パノラマ映像全体はビットレートを下げた低ビットレートの低解像度タイルとして端末に配信する。
(Panorama video)
As described above, the panoramic image is also referred to as "panoramic image", "360 degree panoramic image", "VR image", "VR image" and the like. The panoramic image is represented by an all-sky projection sphere, for example, as shown in FIG. In a panoramic image expressed by an all-sky projection sphere, the center of the all-sky projection sphere is set as the observation position, and the range taken by the pseudo camera at this observation position at a predetermined angle of view is the field of view (that is, the terminal). The range displayed in). Further, the panoramic image represented by the stereographic projection sphere can be represented by an equirectangular projection in which the vertical angle θ is 0 to π and the horizontal angle φ is 0 to 2π. At this time, for example, in the technique described in Patent Document 1 above, the partial area data including the visual field range of the panoramic image expressed by the equirectangular projection is "high resolution tile", and the entire panoramic image is compressed. Is delivered to the terminal as a "low resolution tile". In other words, the partial area including the visual field range is delivered to the terminal as a high-resolution tile with a high bit rate, and the entire panoramic image is delivered to the terminal as a low-resolution tile with a low bit rate.

これにより、パノラマ映像の配信に要するデータ量を削減させることができると共に、視野範囲では高画質な映像が視聴可能であり、かつ、視野範囲を移動させた場合であっても映像が途切れることなく視聴可能とさせることができる。なお、圧縮とは、画像サイズの縮小を意味するものとする。 As a result, the amount of data required for distribution of the panoramic image can be reduced, high-quality images can be viewed in the field of view, and the image is not interrupted even when the field of view is moved. It can be made viewable. Note that compression means reduction of the image size.

本実施形態に係る映像配信システム1でも、上記の特許文献1に記載されている技術を利用し、高解像度タイルと低解像度タイルとを端末(クライアント)に配信することで、このクライアント上でパノラマ映像を再生するものとする。 The video distribution system 1 according to the present embodiment also uses the technique described in the above-mentioned Patent Document 1 to distribute high-resolution tiles and low-resolution tiles to a terminal (client), thereby performing a panorama on the client. The video shall be played.

(HLS)
上述したように、HLSとは、配信サーバが映像をクライアントにストリーミング配信等するためのプロトコルである。例えば、図2に示すように、カメラから出力された映像信号がエンコードされてエンコード映像が作成され、配信サーバは、このエンコード映像を複数のセグメントファイルに分割すると共に、プレイリストファイルを生成して所定の場所に設置(格納)する。なお、セグメントファイルは「.ts」形式(つまり、MPEG−2 トランスポートストリーム形式)のファイルであり、プレイリストファイルは「.m3u8」形式のファイルである。図2では、一例として、エンコード映像が「TS−00.ts」〜「TS−NN.ts」に分割された場合を示している。
(HLS)
As described above, HLS is a protocol for a distribution server to stream a video to a client. For example, as shown in FIG. 2, the video signal output from the camera is encoded to create an encoded video, and the distribution server divides the encoded video into a plurality of segment files and generates a playlist file. Install (store) in the specified place. The segment file is a file in the ".ts" format (that is, the MPEG-2 transport stream format), and the playlist file is a file in the ".m3u8" format. FIG. 2 shows, as an example, a case where the encoded video is divided into “TS-00.ts” to “TS-NN.ts”.

このとき、HLSでは、クライアントはプレイリストファイルを配信サーバから取得することで、所望のセグメントファイルの取得及び再生を行うことができるようになる。 At this time, in HLS, the client can acquire and play a desired segment file by acquiring the playlist file from the distribution server.

(HLSによるパノラマ映像配信)
HLSによりパノラマ映像を配信する場合、配信サーバでは、所定の時間単位t毎に、低解像度タイルと、所定の複数の視野範囲毎の高解像度タイルとをセグメントファイルとして格納している。例えば、図3に示すように、t毎の低解像度タイルLT、第1の視野範囲におけるt毎の高解像度タイルHT1、第2の視野範囲におけるt毎の高解像度タイルHT2、第3の視野範囲におけるt毎の高解像度タイルHT3等が格納されている。ここで、図3に示す例では、第1の視野範囲は視野範囲の左上の座標が(0,0)となる範囲、第2の視野範囲は視野範囲の左上の座標が(S,0)となる範囲、第3の視野範囲は視野範囲の左上の座標が(2S,0)となる範囲である。Sは予め決められた水平角度(x軸方向)のシフト量である。
(Panorama video distribution by HLS)
When serving panoramic image by HLS, the distribution server for each predetermined time unit t c, are stored low resolution tiles, the high resolution tiles each predetermined plurality of visual field range as a segment file. For example, as shown in FIG. 3, the low-resolution tile LT per t c, high resolution tiles each t c in the first field range HT1, high resolution tiles each t c in the second field of view HT2, third high-resolution tiles HT3 like for each t c is stored in the field of view. Here, in the example shown in FIG. 3, the first visual field range has the upper left coordinate of the visual field range (0, 0), and the second visual field range has the upper left coordinate of the visual field range (S x , 0). ), The third visual field range is the range in which the upper left coordinate of the visual field range is (2S x , 0). S x is a predetermined horizontal angle (x-axis direction) shift amount.

なお、垂直角度(y軸方向)のシフト量Sも予め決められ、高解像度タイルは、p=0,・・・,P、q=0,・・・,Qとして、一般に、視野範囲の左上の座標が(p×S,q×S)である範囲毎に格納されている。以降では、M=P×Qとして、t毎に、M個の視野範囲それぞれの高解像度タイルが格納されるものとする。 The shift amount S y of the vertical angle (y-axis direction) is also determined in advance, and the high-resolution tiles are generally set to p = 0, ..., P, q = 0, ..., Q, and are generally in the field of view. It is stored for each range in which the upper left coordinate is (p × S x , q × S y). Hereinafter, it is assumed that M = P × Q, and M high-resolution tiles for each field of view range are stored for each t c.

このように、パノラマ映像では、t毎の低解像度タイルと、予め決められた複数の視野範囲におけるt毎の高解像度タイルとがセグメントファイルとして配信サーバに格納されている。 Thus, in the panoramic image, the low-resolution tile for each t c, and the high resolution tiles each t c at a plurality of visual field range determined in advance is stored in the distribution server as a segment file.

そして、パノラマ映像を再生する際には、クライアントは、プレイリストを配信サーバから取得することで、低解像度タイルと所望の視野範囲の高解像度タイルとを取得することができる。これにより、クライアントは、当該低解像度タイルと当該高解像度タイルとを用いて、パノラマ映像を再生することができる。 Then, when playing back the panoramic video, the client can acquire the low-resolution tile and the high-resolution tile in the desired viewing range by acquiring the playlist from the distribution server. This allows the client to reproduce the panoramic image using the low resolution tile and the high resolution tile.

例えば、クライアントの視野範囲が3t毎に水平角度にS分だけ移動した場合、図3に示すように、当該クライアントには、最初の3t間ではLT1〜LT3とHT1−1〜HT1−3とがそれぞれ順に配信され、次の3t間ではLT4〜LT6とHT2−4〜HT2−6とがそれぞれ順に配信され、更に次の3t間ではLT7〜LT9とHT3−7〜HT3−9とがそれぞれ順に配信される。 For example, if the viewing range of the client is moved by Sx minutes to a horizontal angle every 3t c , the client will be given LT1-LT3 and HT1-1-1 to HT1- between the first 3t c , as shown in FIG. 3 and 3 are delivered in order, LT4 to LT6 and HT2-4 to HT2-6 are delivered in order between the next 3t c , and LT7 to LT9 and HT3-7 to HT3-9 are further delivered between the next 3t c. And are delivered in order.

なお、tは任意に設定されるが、例えば、0.5[秒]程度とすることが考えられる。また、S及びSはパノラマ映像の画素数等に応じて任意に設定されるが、例えば、正距円筒図法で表現されたパノラマ映像が4000×2000画素である場合にはS=100、S=50等とすることが考えられる。S及びSが大きいほど配信サーバで保持する高解像度タイル数を削減することができるが、視野範囲を切り替えた場合の滑らかさが低下する(つまり、ユーザの視聴品質が低下する。)。一方で、S及びSが小さいほど配信サーバで保持する高解像度タイル数は増加するが、視野範囲を切り替えた場合の滑らかさが向上する(つまり、ユーザの視聴品質が向上する。)。 Although t c is arbitrarily set, it may be set to about 0.5 [seconds], for example. Further, S x and S y are arbitrarily set according to the number of pixels of the panoramic image and the like. For example, when the panoramic image expressed by the equirectangular projection has 4000 × 2000 pixels, S x = 100. , S y = 50 and the like. The larger S x and S y , the smaller the number of high-resolution tiles held by the distribution server, but the smoothness when the field of view is switched is reduced (that is, the viewing quality of the user is reduced). On the other hand, as S x and S y are smaller, the number of high-resolution tiles held by the distribution server increases, but the smoothness when the field of view is switched is improved (that is, the viewing quality of the user is improved).

(複数のカメラが存在する場合におけるHLSによるパノラマ映像配信)
例えば、コンサートやスポーツ競技等では、複数のカメラをそれぞれ複数の地点に設置等した上で、これらの複数のカメラのそれぞれでパノラマ映像を撮影することが行われている。このとき、クライアントでは、これら複数のカメラのそれぞれで撮影されたパノラマ映像を切り替え可能に表示することができるのが一般的である。
(Panorama video distribution by HLS when there are multiple cameras)
For example, in concerts, sports competitions, etc., a plurality of cameras are installed at a plurality of points, and then a panoramic image is taken by each of the plurality of cameras. At this time, it is general that the client can switchably display the panoramic images taken by each of the plurality of cameras.

このとき、HLSによりパノラマ映像を配信する場合、配信サーバには、カメラ毎に、プレイリストとセグメントファイルとが格納される。例えば、図4に示すように、カメラ1〜カメラNのN台のカメラが存在する場合、配信サーバには、カメラ1で撮影されたパノラマ映像(つまり、カメラ1の映像信号がエンコードされたエンコード映像)を示すカメラ1コンテンツ、カメラ2で撮影されたパノラマ映像を示すカメラ2コンテンツ、・・・、カメラNで撮影されたパノラマ映像を示すカメラNコンテンツが格納される。すなわち、配信サーバには、カメラ毎に、このカメラで撮影されたパノラマ映像を再生するためのプレイリスト及びセグメントファイルが格納されている。 At this time, when the panoramic video is distributed by HLS, the playlist and the segment file are stored in the distribution server for each camera. For example, as shown in FIG. 4, when there are N cameras of cameras 1 to N, the distribution server has a panoramic image taken by the camera 1 (that is, an encoding in which the image signal of the camera 1 is encoded). The camera 1 content indicating the image), the camera 2 content indicating the panoramic image taken by the camera 2, ..., The camera N content indicating the panoramic image taken by the camera N are stored. That is, the distribution server stores a playlist and a segment file for reproducing the panoramic image taken by this camera for each camera.

したがって、図4に示すように、クライアントは、カメラ1で撮影されたパノラマ映像を再生する際には、カメラ1コンテンツ用のプレイリストを取得して、カメラ1コンテンツの低解像度タイル(LT:Low-resolution Tile)とカメラ1コンテンツの高解像度タイル(HT:High-resolution Tile)とを取得する。同様に、クライアントは、カメラNで撮影されたパノラマ映像を再生する際には、カメラNコンテンツ用のプレイリストを取得して、カメラNコンテンツの低解像度タイルとカメラNコンテンツの高解像度タイルとを取得する。 Therefore, as shown in FIG. 4, when playing back the panoramic image taken by the camera 1, the client acquires the playlist for the camera 1 content and the low resolution tile (LT: Low) of the camera 1 content. -resolution Tile) and high-resolution tile (HT: High-resolution Tile) of camera 1 content are acquired. Similarly, when the client reproduces the panoramic image shot by the camera N, the client acquires a playlist for the camera N content and sets the low resolution tile of the camera N content and the high resolution tile of the camera N content. get.

すなわち、クライアントは、再生するパノラマ映像のカメラを切り替える都度、このカメラに対応するプレイリストファイルを取得する必要がある。このため、クライアントは、再生するパノラマ映像のカメラを切り替える都度、配信サーバと通信を行う必要があり、パノラマ映像の再生に遅延が発生する場合がある。 That is, the client needs to acquire the playlist file corresponding to this camera each time the camera of the panoramic image to be reproduced is switched. Therefore, the client needs to communicate with the distribution server each time the camera of the panoramic image to be reproduced is switched, which may cause a delay in the reproduction of the panoramic image.

そこで、以降で説明する本実施形態に係る映像配信システム1では、クライアントで再生するパノラマ映像のカメラを切り替えた場合における通信(プレイリスト取得のための通信)を無くすことで、パノラマ映像の再生に遅延が発生することを防止する。 Therefore, in the video distribution system 1 according to the present embodiment described below, the communication (communication for acquiring a playlist) when the camera of the panoramic image to be reproduced by the client is switched is eliminated, so that the panoramic image can be reproduced. Prevent delays from occurring.

<映像配信システム1の全体構成>
本実施形態に係る映像配信システム1の全体構成について、図5を参照しながら説明する。図5は、本実施形態に係る映像配信システム1の全体構成の一例を示す図である。
<Overall configuration of video distribution system 1>
The overall configuration of the video distribution system 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a diagram showing an example of the overall configuration of the video distribution system 1 according to the present embodiment.

図5に示すように、本実施形態に係る映像配信システム1には、配信サーバ10と、クライアント20と、複数のカメラ30と、エンコード装置40とが含まれる。カメラ30とエンコード装置40との間、エンコード装置40と配信サーバ10との間、及び配信サーバ10とクライアント20との間は任意の通信ネットワークを介して通信可能に接続されている。 As shown in FIG. 5, the video distribution system 1 according to the present embodiment includes a distribution server 10, a client 20, a plurality of cameras 30, and an encoding device 40. Communication is possible between the camera 30 and the encoding device 40, between the encoding device 40 and the distribution server 10, and between the distribution server 10 and the client 20 via an arbitrary communication network.

配信サーバ10は、HLSによりパノラマ映像をクライアント20に配信するコンピュータ又はコンピュータシステムである。このとき、配信サーバ10は、複数のカメラ30でそれぞれ撮影されたパノラマ映像のうち、クライアント20が所望するカメラ30で撮影されたパノラマ映像を当該クライアント20に配信する。 The distribution server 10 is a computer or a computer system that distributes a panoramic image to the client 20 by HLS. At this time, the distribution server 10 distributes the panoramic image captured by the camera 30 desired by the client 20 to the client 20 among the panoramic images captured by the plurality of cameras 30 respectively.

クライアント20は、HLSによりパノラマ映像を配信サーバ10から受信(取得)して、このパノラマ映像を再生するコンピュータである。クライアント20は、複数のカメラ30の中から1つ以上のカメラ30を選択して、選択したカメラ30のパノラマ映像を再生することができる(つまり、クライアント20では再生するパノラマ映像のカメラ30を切り替えることができる。)。 The client 20 is a computer that receives (acquires) a panoramic image from the distribution server 10 by HLS and reproduces the panoramic image. The client 20 can select one or more cameras 30 from the plurality of cameras 30 and reproduce the panoramic image of the selected camera 30 (that is, the client 20 switches the camera 30 of the panoramic image to be reproduced. be able to.).

なお、クライアント20としては、例えば、PC(パーソナルコンピュータ)、スマートフォン、タブレット端末、ヘッドマウントディスプレイ(HMD:Head Mounted Display)、ウェアラブルデバイス、ゲーム機器等を用いることが可能である。 As the client 20, for example, a PC (personal computer), a smartphone, a tablet terminal, a head mounted display (HMD: Head Mounted Display), a wearable device, a game device, or the like can be used.

カメラ30は、所定の地点又は位置に設置等されている撮像装置である。したがって、複数のカメラ30は、複数の地点又は位置にそれぞれ設置等されている。なお、以降では、カメラ30の総数をN(ただし、Nは2以上の整数)として、複数のカメラ30の各々を区別する場合には、「カメラ30」、「カメラ30」、・・・、「カメラ30」等と表す。 The camera 30 is an image pickup device installed at a predetermined point or position. Therefore, the plurality of cameras 30 are installed at a plurality of points or positions, respectively. In the following, when the total number of cameras 30 is N (where N is an integer of 2 or more) and each of the plurality of cameras 30 is distinguished, "camera 30 1 ", "camera 30 2 ", ... -Represented as "camera 30 N " or the like.

エンコード装置40は、カメラ30の映像信号をエンコードしてエンコード映像を作成するコンピュータである。エンコード装置40で作成されたエンコード映像は、配信サーバ10に送信される。 The encoding device 40 is a computer that encodes the video signal of the camera 30 to create an encoded video. The encoded video created by the encoding device 40 is transmitted to the distribution server 10.

ここで、本実施形態に係る配信サーバ10は、配信処理部110と、記憶部120とを有する。配信処理部110は、配信サーバ10にインストールされた1以上のプログラムが、CPU(Central Processing Unit)等のプロセッサに実行させる処理により実現される。また、記憶部120は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置を用いて実現可能である。なお、記憶部120は、配信サーバ10と通信ネットワークを介して接続される記憶装置等を用いて実現されていてもよい。 Here, the distribution server 10 according to the present embodiment has a distribution processing unit 110 and a storage unit 120. The distribution processing unit 110 is realized by processing one or more programs installed in the distribution server 10 to be executed by a processor such as a CPU (Central Processing Unit). Further, the storage unit 120 can be realized by using an auxiliary storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), for example. The storage unit 120 may be realized by using a storage device or the like connected to the distribution server 10 via a communication network.

配信処理部110は、クライアント20からの要求に応じて、該当のカメラ30のコンテンツ(つまり、低解像度タイル及び高解像度タイル)を当該クライアント20に配信する。 The distribution processing unit 110 distributes the contents of the corresponding camera 30 (that is, low-resolution tiles and high-resolution tiles) to the client 20 in response to a request from the client 20.

記憶部120には、複数のカメラ30で撮影されたパノラマ映像を示す映像コンテンツが記憶されている。ここで、映像コンテンツには、全てのカメラ30のコンテンツで共通のプレイリストと、各カメラ30のコンテンツ(つまり、「カメラ1コンテンツ」、「カメラ2コンテンツ」、・・・、「カメラNコンテンツ」)とが含まれる。また、各カメラ30のコンテンツには、セグメントファイルとして、t毎の低解像度タイルと、予め決められた複数の視野範囲におけるt毎の高解像度タイルとが含まれる。なお、n=1,・・・,Nとして、カメラnコンテンツは、カメラ30で撮影されたパノラマ映像を示すコンテンツである。 The storage unit 120 stores video content showing a panoramic image taken by a plurality of cameras 30. Here, the video content includes a playlist common to all camera 30 content and content of each camera 30 (that is, "camera 1 content", "camera 2 content", ..., "Camera N content". ) And is included. Further, the content of each camera 30, as a segment files, low resolution tile for each t c, includes a high-resolution tile for each t c at a plurality of visual field range determined in advance. It should be noted that the camera n content is content indicating a panoramic image taken by the camera 30 n, where n = 1, ..., N.

このように、本実施形態に係る配信サーバ10の記憶部120には、カメラ30(n=1,・・・,N)のカメラnコンテンツで共通のプレイリストと、カメラ30(n=1,・・・,N)のカメラnコンテンツ(低解像度タイル及び高解像度タイル)とが記憶されている。このため、クライアント20はプレイリストを1度取得した後は、カメラ30を切り替えたとしも、再度プレイリストを取得する必要がなくなり、プレイリスト取得のための通信を削減することができる。なお、映像コンテンツのデータ構成の詳細については後述する。 As described above, in the storage unit 120 of the distribution server 10 according to the present embodiment, the playlist common to the camera n contents of the camera 30 n (n = 1, ..., N) and the camera 30 n (n =). The camera n contents (low resolution tiles and high resolution tiles) of 1, ..., N) are stored. Therefore, even if the client 20 switches the camera 30 after acquiring the playlist once, it is not necessary to acquire the playlist again, and the communication for acquiring the playlist can be reduced. The details of the data structure of the video content will be described later.

また、本実施形態に係るクライアント20は、視聴処理部210を有する。視聴処理部210は、クライアント20にインストールされた1以上のプログラムが、CPU等のプロセッサに実行させる処理により実現される。 Further, the client 20 according to the present embodiment has a viewing processing unit 210. The viewing processing unit 210 is realized by processing one or more programs installed in the client 20 to be executed by a processor such as a CPU.

視聴処理部210は、配信サーバ10に対して各種要求(例えば、映像の配信要求等)を送信すると共に、該当のカメラ30のコンテンツ(低解像度タイル及び高解像度タイル)を配信サーバ10から受信して、当該コンテンツによってパノラマ映像を再生する。 The viewing processing unit 210 transmits various requests (for example, a video distribution request, etc.) to the distribution server 10, and receives the contents (low-resolution tiles and high-resolution tiles) of the corresponding camera 30 from the distribution server 10. Then, the panoramic image is reproduced by the content.

なお、図1に示す映像配信システム1の全体構成は一例であって、他の構成であってもよい。例えば、エンコード装置40は配信サーバ10と一体となっていてもよい。この場合、映像信号は、配信サーバ10でエンコードされる。 The overall configuration of the video distribution system 1 shown in FIG. 1 is an example, and may be another configuration. For example, the encoding device 40 may be integrated with the distribution server 10. In this case, the video signal is encoded by the distribution server 10.

<映像コンテンツのデータ構成>
次に、本実施形態に係る配信サーバ10の記憶部120に記憶されている映像コンテンツのデータ構成について説明する。
<Data structure of video content>
Next, the data structure of the video content stored in the storage unit 120 of the distribution server 10 according to the present embodiment will be described.

(実施例1)
実施例1における映像コンテンツのデータ構成について、図6を参照しながら説明する。図6は、映像コンテンツのデータ構成の一例を説明するための図(その1)である。
(Example 1)
The data structure of the video content in the first embodiment will be described with reference to FIG. FIG. 6 is a diagram (No. 1) for explaining an example of the data structure of the video content.

図6に示すように、実施例1では、コンテンツフォルダの直下にプレイリスト(これを「Content.m3u8」とも表す。)と、Confフォルダと、Mediaフォルダとが配置される。また、Confフォルダ内には、メタデータリスト(これを「Play.ini」とも表す。)と、配置情報(これを「Rendering.ini」とも表す。)とが配置されている。 As shown in FIG. 6, in the first embodiment, a playlist (also referred to as “Conent.m3u8”), a Conf folder, and a Media folder are arranged directly under the content folder. Further, in the Conf folder, a metadata list (also referred to as "Play.ini") and placement information (this is also referred to as "Rendering.ini") are arranged.

一方で、Mediaフォルダ内には、カメラ1コンテンツが格納される各フォルダ(0フォルダ、1フォルダ、2フォルダ、・・・、Mフォルダ)、カメラ2コンテンツが格納される各フォルダ(M+1フォルダ、M+2フォルダ、・・・、2M+1フォルダ)、・・・、カメラNコンテンツが格納される各フォルダとが配置される。 On the other hand, in the Media folder, each folder in which the camera 1 content is stored (0 folder, 1 folder, 2 folder, ..., M folder) and each folder in which the camera 2 content is stored (M + 1 folder, M + 2). Folders, ..., 2M + 1 folders), ..., Each folder in which camera N contents are stored are arranged.

ここで、i=1,・・・,M−1として、n(i+1)−1フォルダには、カメラ30の第iの視野範囲の高解像度タイルが配置されている。具体的には、例えば、0フォルダには、カメラ30の第1の視野範囲におけるt毎の高解像度タイルが配置されている。図6に示す例では、最初のt間における当該高解像度タイル「0.ts」、次のt間における当該高解像度タイル「1.ts」、更に次のt間における当該高解像度タイル「2.ts」等が配置されている。同様に、1フォルダには、カメラ30の第2の視野範囲におけるt毎の高解像度タイルが配置されている。 Here, i = 1, · · ·, as M-1, the n (i + 1) -1 folder, high resolution tiles of the field-of-view range of the i camera 30 n are arranged. Specifically, for example, 0 to the folder, the high resolution tiles each t c in the first field of view of the camera 30 1 is disposed. In the example shown in FIG. 6, the high resolution tiles between the first of the high-resolution tile between t c "0.ts", the high resolution tiles between the next t c "1.ts", further the next t c "2.ts" and the like are arranged. Similarly, the 1 folder, high resolution tiles each t c in the second field of view of the camera 30 2 is disposed.

一方で、i=Mとして、n(M+1)−1フォルダには、カメラ30のt毎の低解像度タイルが配置されている。具体的には、例えば、Mフォルダには、カメラ30のt毎の低解像度タイルが配置されている。図6に示す例では、最初のt間における低解像度タイル「0.ts」、次のt間における低解像度タイル「1.ts」、更に次のt間における低解像度タイル「2.ts」等が配置されている。また、n(M+1)−1フォルダには、メディア用のプレイリスト(これを「LT.m3u8」とも表す。)も配置されている。 On the other hand, with i = M, low resolution tiles for each t c of the camera 30 n are arranged in the n (M + 1) -1 folder. Specifically, for example, the M folder, a low-resolution tile camera 30 each of t c are arranged. In the example shown in FIG. 6, the low-resolution tiles between the first t c "0.ts" low resolution tile "1.ts" between the next t c, further low-resolution tile between the next t c "2. "ts" etc. are arranged. A playlist for media (also referred to as "LT.m3u8") is also arranged in the n (M + 1) -1 folder.

このように、実施例1における映像コンテンツでは、Mediaフォルダ内に、カメラ30毎のコンテンツが格納されている。 As described above, in the video content of the first embodiment, the content for each camera 30 is stored in the Media folder.

なお、Content.m3u8で表されるプレイリストをメディア用のプレイリストと区別するため、以降では、「コンテンツ用プレイリスト」とも表す、コンテンツ用プレイリストには、例えば、通信セッション情報、セグメントファイルを送信するための必須情報等が記述されている。 In addition, Content. In order to distinguish the playlist represented by m3u8 from the playlist for media, the playlist for content, which is also referred to as a "playlist for content" hereafter, is used to transmit, for example, communication session information and a segment file. Required information etc. are described.

一方で、メディア用のプレイリスト(LT.m3u8)は「メディア用プレイリスト」とも表す。メディア用プレイリストには、例えば、各セグメントファイルの長さ(再生時間)等が記述されている。 On the other hand, a playlist for media (LT.m3u8) is also referred to as a "playlist for media". For example, the length (playback time) of each segment file is described in the playlist for media.

また、メタデータリストには、コーデックに関する情報、各タイルのサイズの情報、カメラ30の台数情報等が記述されている。より具体的には、メタデータリストには、カメラ30の台数情報と、カメラ30毎のコーデックに関する情報やカメラ30毎のタイルのサイズの情報等が記述されている。 Further, the metadata list describes information about the codec, information on the size of each tile, information on the number of cameras 30, and the like. More specifically, the metadata list describes information on the number of cameras 30, information on the codec for each camera 30, information on the tile size for each camera 30, and the like.

更に、配置情報には、高解像度タイルの配置に関する情報(つまり、高解像度タイル毎の視野範囲の座標に関する情報)等が記述されている。より具体的には、配置情報には、カメラ30毎の高解像度タイルの配置に関する情報等が記述されている。 Further, in the arrangement information, information regarding the arrangement of the high-resolution tiles (that is, information regarding the coordinates of the visual field range for each high-resolution tile) and the like are described. More specifically, in the arrangement information, information regarding the arrangement of high-resolution tiles for each camera 30 and the like are described.

(実施例2)
実施例2における映像コンテンツのデータ構成について、図7を参照しながら説明する。図7は、映像コンテンツのデータ構成の一例を説明するための図(その2)である。
(Example 2)
The data structure of the video content in the second embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram (No. 2) for explaining an example of the data structure of the video content.

図7に示すように、実施例2では、コンテンツフォルダの直下にコンテンツ用プレイリストと、Confフォルダと、カメラ30毎のMediaフォルダ(つまり、Media_1フォルダ、Media_2フォルダ、・・・、Media_Nフォルダ)とが配置されている。Confフォルダ内には、実施例1と同様に、メタデータリストと、配置情報とが配置されている。 As shown in FIG. 7, in the second embodiment, a playlist for contents, a Conf folder, and a Media folder for each camera 30 (that is, a Media_1 folder, a Media_2 folder, ..., a Media_N folder) are provided directly under the content folder. Is placed. In the Conf folder, the metadata list and the arrangement information are arranged as in the first embodiment.

n=1,・・・,Nとして、Media_nフォルダ内には、カメラnコンテンツが格納される。すなわち、Media_nフォルダには0フォルダ、1フォルダ、・・・、Mフォルダがそれぞれ配置されており、i=0,・・・,M−1として、iフォルダには、カメラ30の第i+1の視野範囲の高解像度タイルが配置されている。具体的には、例えば、Media_1フォルダの0フォルダには、カメラ30の第1の視野範囲におけるt毎の高解像度タイルが配置されている。図7に示す例では、最初のt間における当該高解像度タイル「0.ts」、次のt間における当該高解像度タイル「1.ts」、更に次のt間における当該高解像度タイル「2.ts」等が配置されている。同様に、Media_1フォルダの1フォルダには、カメラ30の第2の視野範囲におけるt毎の高解像度タイルが配置されている。 As n = 1, ..., N, the camera n contents are stored in the Media_n folder. That is, Media_n folder 0 folders, 1 folder, · · ·, M folder are arranged respectively, i = 0, · · ·, as M-1, the i folder, the camera 30 n of the i + 1 High resolution tiles in the field of view are arranged. Specifically, for example, to 0 folder Media_1 folder, high resolution tiles each t c in the first field of view of the camera 30 1 is disposed. In the example shown in FIG. 7, the high resolution tiles between the first of the high-resolution tile between t c "0.ts", the high resolution tiles between the next t c "1.ts", further the next t c "2.ts" and the like are arranged. Similarly, the 1 folder Media_1 folder, high resolution tiles each t c in the second field of view of the camera 30 1 is disposed.

一方で、Media_nフォルダのMフォルダには、カメラ30のt毎の低解像度タイルが配置されている。具体的には、例えば、Media_1フォルダのMフォルダには、カメラ30のt毎の低解像度タイルが配置されている。図7に示す例では、最初のt間における低解像度タイル「0.ts」、次のt間における低解像度タイル「1.ts」、更に次のt間における低解像度タイル「2.ts」等が配置されている。また、Mフォルダには、メディア用のプレイリストも配置されている。 On the other hand, low resolution tiles for each t c of the camera 30 n are arranged in the M folder of the Media_n folder. Specifically, for example, the M folder Media_1 folder, low-resolution tile camera 30 each of t c are arranged. In the example shown in FIG. 7, the low-resolution tiles between the first t c "0.ts" low resolution tile "1.ts" between the next t c, low resolution tile "2 further between the next t c. "ts" etc. are arranged. A playlist for media is also arranged in the M folder.

このように、実施例2における映像コンテンツでは、コンテンツフォルダ直下に、カメラ30毎のMediaフォルダが配置されており、それぞれのMediaフォルダ内に該当のカメラ30のコンテンツが格納されている。 As described above, in the video content of the second embodiment, the media folder for each camera 30 is arranged directly under the content folder, and the content of the corresponding camera 30 is stored in each media folder.

<パノラマ映像配信処理>
次に、本実施形態に係るパノラマ映像配信処理について、図8を参照しながら説明する。図8は、本実施形態に係るパノラマ映像配信処理の一例を示すシーケンス図である。なお、以降では、カメラ30を特定する情報をカメラ番号として、カメラ番号n=1のカメラ30をデフォルトのカメラ30とする。そして、クライアント20でパノラマ映像を再生する際には、デフォルトのカメラ30のパノラマ映像が最初に再生されるものとする。
<Panorama video distribution processing>
Next, the panoramic video distribution process according to the present embodiment will be described with reference to FIG. FIG. 8 is a sequence diagram showing an example of the panoramic video distribution process according to the present embodiment. In the following, the information that identifies the camera 30 will be used as the camera number, and the camera 30 1 with the camera number n = 1 will be used as the default camera 30. Then, when displaying a panoramic image on the client 20 is assumed to default camera 30 1 panorama image is first reproduced.

まず、クライアント20の視聴処理部210は、パノラマ映像の再生を開始すると、映像の配信要求を配信サーバ10に送信する(ステップS101)。ここで、当該映像の配信要求には、デフォルトのカメラ30のカメラ番号n=1が含まれる。また、当該映像の配信要求には、現在時刻又はユーザによって指定された時刻も含まれる。以降では、現在時刻又はユーザによって指定された時刻を「再生時刻」とも表す。なお、例えば、ライブ配信等の場合には再生時刻として現在時刻が含まれる場合が多く、オンデマンド配信等の場合には再生時刻としてユーザによって指定された時刻が含まれる場合が多い。 First, when the viewing processing unit 210 of the client 20 starts playing the panoramic video, the video distribution request is transmitted to the distribution server 10 (step S101). Here, the distribution request of the video include the camera ID n = 1 the default camera 30 1. In addition, the distribution request of the video includes the current time or the time specified by the user. Hereinafter, the current time or the time specified by the user is also referred to as a “playback time”. For example, in the case of live distribution or the like, the current time is often included as the reproduction time, and in the case of on-demand distribution or the like, the time specified by the user is often included as the reproduction time.

本実施形態では、上記のステップS101で送信される要求を「映像の配信要求」としたが、この要求は、例えば、「映像の配信開始要求」等と称されてもよい。 In the present embodiment, the request transmitted in step S101 is referred to as a "video distribution request", but this request may be referred to as, for example, a "video distribution start request".

次に、配信サーバ10及びクライアント20は、プレイリスト取得に関する通信処理(すなわち、コンテンツ用プレイリストやメディア用プレイリスト等を配信サーバ10からクライアント20に送信する処理)を行う(ステップS102)。これにより、クライアント20は、コンテンツ用プレイリストやメディア用プレイリスト等を取得することができる。このプレイリスト取得に関する通信処理の詳細については後述する。 Next, the distribution server 10 and the client 20 perform a communication process related to playlist acquisition (that is, a process of transmitting a content playlist, a media playlist, or the like from the distribution server 10 to the client 20) (step S102). As a result, the client 20 can acquire playlists for contents, playlists for media, and the like. The details of the communication process related to the playlist acquisition will be described later.

次に、配信サーバ10の配信処理部110は、カメラ1コンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻に対応する低解像度タイルと、デフォルトの視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS103)。なお、再生時刻に対応する低解像度タイル及び高解像度タイルとは、例えば、当該低解像度タイル及び当該高解像度タイルの再生時間に再生時刻が含まれるタイルのことである。 Next, the distribution processing unit 110 of the distribution server 10 has a low-resolution tile corresponding to the reproduction time and a high-resolution tile corresponding to the reproduction time in the default viewing range among the low-resolution tiles and the high-resolution tiles of the camera 1 content. Is read from the storage unit 120 (step S103). The low-resolution tile and the high-resolution tile corresponding to the reproduction time are, for example, tiles in which the reproduction time includes the reproduction time of the low-resolution tile and the high-resolution tile.

そして、配信サーバ10の配信処理部110は、上記のステップS103で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS104)。 Then, the distribution processing unit 110 of the distribution server 10 distributes (transmits) the low-resolution tile and the high-resolution tile read in the above step S103 to the client 20 (step S104).

クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、これらの低解像度タイル及び高解像度タイルを合成する(ステップS105)。すなわち、視聴処理部210は、例えば、上記のステップS102で取得した配置情報に基づいて、当該低解像度タイルの該当の領域に当該高解像度タイルを重畳させることで、これらの低解像度タイル及び高解像度タイルを合成する。これにより、視野範囲が高解像度で、かつ、視野範囲以外の領域は低解像度のパノラマ映像が作成される。 Upon receiving the low-resolution tile and the high-resolution tile, the viewing processing unit 210 of the client 20 synthesizes the low-resolution tile and the high-resolution tile (step S105). That is, the viewing processing unit 210 superimposes the high-resolution tile on the corresponding area of the low-resolution tile based on the arrangement information acquired in step S102 above, so that the low-resolution tile and the high-resolution tile are superimposed. Synthesize tiles. As a result, a panoramic image having a high-resolution visual field range and a low-resolution panoramic image is created in an area other than the visual field range.

そして、クライアント20の視聴処理部210は、上記のステップS105で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS106)。視聴処理部210は、例えば、メタデータリストに記述されているコーデックに関する情報に従ってパノラマ映像を再生する。 Then, the viewing processing unit 210 of the client 20 reproduces the panoramic image created by synthesizing the low-resolution tile and the high-resolution tile in step S105 above (step S106). The viewing processing unit 210 reproduces the panoramic video according to, for example, the information regarding the codec described in the metadata list.

以降のステップS107〜ステップS111では、カメラ30のパノラマ映像を再生している場合に、クライアント20の視野範囲が変更されたときの処理について説明する。クライアント20では、例えば、ジャイロセンサ等により視線方向の変更が検出されることで、この視線方向の変更に応じて視野範囲も変更される。ただし、視線方向の変更は、ジャイロセンサ等によって検出される場合に限られず、例えば、クライアント20のタッチパネルをユーザの指で操作すること等によって視線方向が変更されてもよい。 Subsequent steps S107 to S111 describe processing when the field of view of the client 20 is changed when the panoramic image of the camera 30 n is being reproduced. In the client 20, for example, a change in the line-of-sight direction is detected by a gyro sensor or the like, and the visual field range is also changed according to the change in the line-of-sight direction. However, the change in the line-of-sight direction is not limited to the case where it is detected by a gyro sensor or the like, and the line-of-sight direction may be changed by, for example, operating the touch panel of the client 20 with a user's finger.

クライアント20の視聴処理部210は、変更後の視線方向を示す視線方向情報を配信サーバ10に送信する(ステップS107)。なお、このとき、視聴処理部210は、再生時刻もあわせて配信サーバ10に送信してもよい。 The viewing processing unit 210 of the client 20 transmits the line-of-sight direction information indicating the changed line-of-sight direction to the distribution server 10 (step S107). At this time, the viewing processing unit 210 may also transmit the reproduction time to the distribution server 10.

配信サーバ10の配信処理部110は、視線方向情報を受信すると、カメラnコンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻(つまり、現在時刻又はユーザによって指定された時刻)に対応する低解像度タイルと、当該視線方向情報が示す視線方向の視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS108)。なお、視野範囲は、例えば、パノラマ映像を全天周投影球で表現した場合に、観測位置にある疑似的なカメラを視線方向に向けて撮影した範囲として特定される。 When the distribution processing unit 110 of the distribution server 10 receives the line-of-sight direction information, the low resolution tile and the high resolution tile of the camera n content correspond to the playback time (that is, the current time or the time specified by the user). The resolution tile and the high-resolution tile corresponding to the reproduction time in the visual field range in the line-of-sight direction indicated by the line-of-sight direction information are read out from the storage unit 120 (step S108). The visual field range is specified as, for example, a range taken by a pseudo camera at the observation position toward the line-of-sight direction when the panoramic image is represented by an all-sky projection sphere.

そして、配信サーバ10の配信処理部110は、上記のステップS108で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS109)。 Then, the distribution processing unit 110 of the distribution server 10 distributes (transmits) the low-resolution tiles and high-resolution tiles read in step S108 to the client 20 (step S109).

クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、上記のステップS105と同様に、これらの低解像度タイル及び高解像度タイルを合成する(ステップS110)。 Upon receiving the low-resolution tile and the high-resolution tile, the viewing processing unit 210 of the client 20 synthesizes the low-resolution tile and the high-resolution tile in the same manner as in step S105 above (step S110).

そして、クライアント20の視聴処理部210は、上記のステップS110で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS111)。 Then, the viewing processing unit 210 of the client 20 reproduces the panoramic image created by synthesizing the low-resolution tile and the high-resolution tile in step S110 above (step S111).

以降のステップS112〜ステップS116では、クライアント20で再生するパノラマ映像を切り替えた場合(つまり、カメラ30を切り替えた場合)の処理について説明する。クライアント20のユーザは、所定の操作(例えば、カメラ切り替えボタンを押下する等)を行うことで、当該クライアント20で再生するパノラマ映像を切り替えることができる。一例として、カメラ番号n=kのカメラ30で撮影されたパノラマ映像に切り替える場合について説明する。 Subsequent steps S112 to S116 describe processing when the panoramic image to be reproduced by the client 20 is switched (that is, when the camera 30 is switched). The user of the client 20 can switch the panoramic image to be reproduced by the client 20 by performing a predetermined operation (for example, pressing the camera switching button). As an example, a case of switching to a panoramic image taken by a camera 30 k with a camera number n = k will be described.

クライアント20の視聴処理部210は、カメラ番号n=kのカメラ30で撮影されたパノラマ映像に切り替える操作が行われると、映像の配信要求を配信サーバ10に送信する(ステップS112)。ここで、当該映像の配信要求には、カメラ番号n=kが含まれる。なお、このとき、視聴処理部210は、再生時刻もあわせて配信サーバ10に送信してもよい。本実施形態では、このステップS112で送信される要求を「映像の配信要求」としたが、この要求は、例えば、「カメラの切替要求」や「パノラマ映像の切替要求」等と称されてもよい。 When the operation of switching to the panoramic image captured by the camera 30 k with the camera number n = k is performed, the viewing processing unit 210 of the client 20 transmits the image distribution request to the distribution server 10 (step S112). Here, the distribution request for the video includes the camera number n = k. At this time, the viewing processing unit 210 may also transmit the reproduction time to the distribution server 10. In the present embodiment, the request transmitted in step S112 is referred to as a "video distribution request", but this request may be referred to as, for example, a "camera switching request" or a "panoramic video switching request". good.

配信サーバ10の配信処理部110は、カメラkコンテンツの低解像度タイル及び高解像度タイルのうち、再生時刻に対応する低解像度タイルと、デフォルトの視野範囲における再生時刻に対応する高解像度タイルとを記憶部120から読み出す(ステップS113)。 The distribution processing unit 110 of the distribution server 10 stores low-resolution tiles corresponding to the reproduction time and high-resolution tiles corresponding to the reproduction time in the default viewing range among the low-resolution tiles and high-resolution tiles of the camera k-content. Read from unit 120 (step S113).

そして、配信サーバ10の配信処理部110は、上記のステップS113で読み出した低解像度タイル及び高解像度タイルをクライアント20に配信(送信)する(ステップS114)。 Then, the distribution processing unit 110 of the distribution server 10 distributes (transmits) the low-resolution tiles and high-resolution tiles read in step S113 to the client 20 (step S114).

クライアント20の視聴処理部210は、低解像度タイル及び高解像度タイルを受信すると、上記のステップS105と同様に、これらの低解像度タイル及び高解像度タイルを合成する(ステップS115)。 Upon receiving the low-resolution tile and the high-resolution tile, the viewing processing unit 210 of the client 20 synthesizes the low-resolution tile and the high-resolution tile in the same manner as in step S105 above (step S115).

そして、クライアント20の視聴処理部210は、上記のステップS115で低解像度タイル及び高解像度タイルを合成することで作成されたパノラマ映像を再生する(ステップS116)。 Then, the viewing processing unit 210 of the client 20 reproduces the panoramic image created by synthesizing the low-resolution tile and the high-resolution tile in step S115 above (step S116).

このように、本実施形態に係る映像配信システム1では、クライアント20で再生するパノラマ映像を撮影するカメラ30が切り替わった場合であっても、上記のステップS102でプレイリストを一度取得していれば、再度プレイリストを取得する必要がない。このため、再度プレイリスト取得に関する通信処理を行う必要がないため、パノラマ映像の再生遅延を防止することが可能となる。 As described above, in the video distribution system 1 according to the present embodiment, even if the camera 30 for shooting the panoramic video to be reproduced by the client 20 is switched, if the playlist is once acquired in step S102 above. , No need to get the playlist again. Therefore, since it is not necessary to perform the communication process related to the playlist acquisition again, it is possible to prevent the reproduction delay of the panoramic video.

なお、本実施形態では、カメラ30に切り替えた後のパノラマ映像の視野範囲は、当該カメラ30のデフォルトの視野範囲であるものとした(上記のステップS113)が、これに限られない。例えば、切り替え後の視野範囲を特定するための座標を、切り替え前の視野範囲を特定するための座標と同一としてもよい。 In the present embodiment, a panoramic field of view of the image after switching the camera 30 k was assumed to be a default field of view of the camera 30 k (above step S113) is not limited thereto. For example, the coordinates for specifying the visual field range after switching may be the same as the coordinates for specifying the visual field range before switching.

また、例えば、切り替え前の視野範囲内に或る対象(例えば、コンサートであれば或る特定の歌手、スポーツであれば或る特定の選手等)が含まれている場合に、同一の対象が含まれる範囲を切り替え後の視野範囲としてもよい。これにより、ユーザは、複数のカメラ30を切り替えることで、例えば、異なる角度や異なる位置等から撮影された同一の対象を視聴することが可能となる。 Further, for example, when a certain object (for example, a specific singer in the case of a concert, a specific player in the case of sports, etc.) is included in the visual field range before switching, the same object is included. The included range may be used as the viewing range after switching. As a result, the user can view the same object shot from different angles, different positions, or the like by switching the plurality of cameras 30.

また、例えば、パノラマ映像の再生時刻や内容に応じて、カメラ30毎に着目する視野範囲を予め指定されていてもよい。具体的には、例えば、再生時刻が「0:00」〜「5:00」の間は、カメラ30に切り替わったときは視野範囲1、カメラ30に切り替わったときは視野範囲3、カメラ30に切り替わったときは視野範囲2等と予め設定することが考えられる。同様に、例えば、パノラマ映像の内容(コンテンツ)が「コンサート」の場合に、カメラ30に切り替わったときは視野範囲2、カメラ30に切り替わったときは視野範囲2、カメラ30に切り替わったときは視野範囲1等とする一方で、パノラマ映像の内容が「スポーツ」である場合に、カメラ30に切り替わったときは視野範囲1、カメラ30に切り替わったときは視野範囲1、カメラ30に切り替わったときは視野範囲3等と予め設定することが考えられる。これにより、パノラマ映像の再生時刻や内容に応じて、切り替え後のカメラ30で指定された視野範囲を視聴することが可能となる。 Further, for example, the field of view range to be focused on may be specified in advance for each camera 30 according to the reproduction time and contents of the panoramic image. Specifically, for example, during reproduction time is "0:00" - "5:00" is field of view 1 when switching to camera 30 1, field of view 3 when switched to the camera 30 2, a camera When switching to 30 3 , it is conceivable to set the field of view range 2 or the like in advance. Similarly, for example, when the contents of the panoramic image (content) is "concert", when switching the camera 30 1 is viewing range 2, when switching the camera 30 2 is switched to the viewing range 2, the camera 30 3 while the field-of-view range 1 and the like when, when the contents of the panoramic image is "sports", the field of view range 1 when switching field-of-view range 1, to the camera 30 2 when he switched to the camera 30 1, camera 30 When it is switched to 3 , it is conceivable to set the field of view range 3 or the like in advance. This makes it possible to view the viewing range designated by the camera 30 after switching according to the reproduction time and contents of the panoramic image.

ここで、上記のステップS102におけるプレイリスト取得に関する通信処理の詳細について、図9を参照しながら説明する。図9は、本実施形態に係るプレイリスト取得に関する通信処理の一例を示すシーケンス図である。 Here, the details of the communication process related to the playlist acquisition in the above step S102 will be described with reference to FIG. 9. FIG. 9 is a sequence diagram showing an example of communication processing related to playlist acquisition according to the present embodiment.

まず、クライアント20の視聴処理部210は、Master Playlist要求を配信サーバ10に送信する(ステップS201)。なお、Master Playlist要求とは、コンテンツ用プレイリストを取得するための要求である。 First, the viewing processing unit 210 of the client 20 transmits a Master Playlist request to the distribution server 10 (step S201). The Master Playlist request is a request for acquiring a playlist for contents.

配信サーバ10の配信処理部110は、Master Playlist要求を受信すると、コンテンツ用プレイリストを記憶部120から読み出す(ステップS202)。 Upon receiving the Master Playlist request, the distribution processing unit 110 of the distribution server 10 reads out the playlist for contents from the storage unit 120 (step S202).

そして、配信サーバ10の配信処理部110は、上記のステップS202で読み出したコンテンツ用プレイリスト(つまり、Content.m3u8)をクライアント20に送信する(ステップS203)。これにより、クライアント20は、コンテンツ用プレイリストを取得することができる。 Then, the distribution processing unit 110 of the distribution server 10 transmits the content playlist (that is, Content.m3u8) read in step S202 to the client 20 (step S203). As a result, the client 20 can acquire the playlist for the content.

クライアント20の配信処理部110は、コンテンツ用プレイリストを受信すると、Media Playlist要求を配信サーバ10に送信する(ステップS204)。なお、Media Playlist要求とは、メディア用プレイリスト等を取得するための要求である。 Upon receiving the content playlist, the distribution processing unit 110 of the client 20 transmits a Media Playlist request to the distribution server 10 (step S204). The Media Playlist request is a request for acquiring a playlist for media and the like.

配信サーバ10の配信処理部110は、Media Playlist要求を受信すると、メディア用プレイリスト(つまり、LT.m3u8)と、メタデータリスト(つまり、Play.ini)と、配置情報(つまり、Rendering.ini)とを記憶部120から読み出す(ステップS205)。 Upon receiving the Media Playlist request, the distribution processing unit 110 of the distribution server 10 receives a media playlist (that is, LT.m3u8), a metadata list (that is, Play.ini), and placement information (that is, Rendering.ini). ) And from the storage unit 120 (step S205).

そして、配信サーバ10の配信処理部110は、上記のステップS205で読み出したメディア用プレイリストとメタデータリストと配置情報とをクライアント20に送信する(ステップS206)。これにより、クライアント20は、メディア用プレイリストとメタデータリストと配置情報とを取得することができる。 Then, the distribution processing unit 110 of the distribution server 10 transmits the media playlist, the metadata list, and the arrangement information read in step S205 to the client 20 (step S206). As a result, the client 20 can acquire the playlist for media, the metadata list, and the arrangement information.

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更、組み合わせ等が可能である。 The present invention is not limited to the above-described embodiment disclosed specifically, and various modifications, changes, combinations, and the like can be made without departing from the scope of claims.

1 映像配信システム
10 配信サーバ
20 クライアント
30 カメラ
40 エンコード装置
110 配信処理部
120 記憶部
210 視聴処理部
1 Video distribution system 10 Distribution server 20 Client 30 Camera 40 Encoding device 110 Distribution processing unit 120 Storage unit 210 Viewing processing unit

Claims (7)

HTTP Live Streamingによって複数のカメラの各々で撮影されたパノラマ映像をクライアントに配信する配信サーバであって、
前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手段と、
前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手段と、を有し、
前記映像配信手段は、
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする配信サーバ。
A distribution server that distributes panoramic images taken by each of multiple cameras by HTTP Live Streaming to clients.
When a first request including camera identification information for identifying the camera is received from the client, a transmission means for transmitting a playlist for reproducing a panoramic image taken by each of the plurality of cameras to the client is used. ,
When the playlist is transmitted to the client, it has a video distribution means for distributing a panoramic image taken by a camera identified by the camera identification information included in the first request to the client.
The video distribution means is
Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the panoramic image taken by the camera identified by the camera identification information included in the second request is displayed. A distribution server characterized in that it distributes to the client.
前記送信手段は、
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信した場合、前記プレイリストを前記クライアントに送信しない、ことを特徴とする請求項1に記載の配信サーバ。
The transmission means is
The delivery according to claim 1, wherein when the second request including the camera identification information different from the camera identification information included in the first request is received, the playlist is not transmitted to the client. server.
前記第1の要求は、前記複数のカメラのうち、デフォルトとして設定されているカメラで撮影されたパノラマ映像の配信開始要求であり、
前記第2の要求は、前記カメラの切り替え要求である、ことを特徴とする請求項1又は2に記載の配信サーバ。
The first request is a request to start distribution of a panoramic image taken by a camera set as a default among the plurality of cameras.
The distribution server according to claim 1 or 2, wherein the second request is a camera switching request.
前記カメラ毎に、該カメラで撮影されたパノラマ映像のコンテンツをセグメントファイルとして記憶する記憶手段を有し、
前記映像配信手段は、
前記カメラ識別情報で識別されるカメラで撮影されたパノラマ映像のセグメントファイルを前記クライアントに配信する、ことを特徴とする請求項1乃至3の何れか一項に記載の配信サーバ。
Each camera has a storage means for storing the contents of the panoramic image taken by the camera as a segment file.
The video distribution means is
The distribution server according to any one of claims 1 to 3, wherein a segment file of a panoramic image taken by a camera identified by the camera identification information is distributed to the client.
前記セグメントファイルには、所定の時間幅のパノラマ映像を低解像度に圧縮したデータを示す低解像度データと、前記時間幅の前記パノラマ映像に含まれる所定の画像領域を示す高解像度データとが含まれる、ことを特徴とする請求項4に記載の配信サーバ。 The segment file includes low-resolution data indicating data obtained by compressing a panoramic image having a predetermined time width to a low resolution, and high-resolution data indicating a predetermined image area included in the panoramic image having the time width. The distribution server according to claim 4, wherein the distribution server is characterized by the above. HTTP Live Streamingによって複数のカメラの各々で撮影されたパノラマ映像をクライアントに配信するコンピュータが、
前記カメラを識別するカメラ識別情報が含まれる第1の要求を前記クライアントから受信すると、前記複数のカメラの各々で撮影されたパノラマ映像を再生するためのプレイリストを前記クライアントに送信する送信手順と、
前記プレイリストを前記クライアントに送信すると、前記第1の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する映像配信手順と、を実行し、
前記映像配信手順は、
前記第1の要求に含まれるカメラ識別情報と異なるカメラ識別情報が含まれる第2の要求を受信すると、前記第2の要求に含まれるカメラ識別情報で識別されるカメラで撮影されたパノラマ映像を前記クライアントに配信する、ことを特徴とする配信方法。
A computer that delivers panoramic video taken by each of multiple cameras by HTTP Live Streaming to the client,
When a first request including camera identification information for identifying the camera is received from the client, a transmission procedure for transmitting a playlist for playing a panoramic image taken by each of the plurality of cameras to the client is provided. ,
When the playlist is transmitted to the client, a video distribution procedure of distributing a panoramic image taken by a camera identified by the camera identification information included in the first request to the client is executed.
The video distribution procedure is
Upon receiving the second request including the camera identification information different from the camera identification information included in the first request, the panoramic image taken by the camera identified by the camera identification information included in the second request is displayed. A delivery method characterized by delivering to the client.
コンピュータを、請求項1乃至5の何れか一項に記載の配信サーバにおける各手段として機能させるためのプログラム。 A program for making a computer function as each means in the distribution server according to any one of claims 1 to 5.
JP2019116711A 2019-06-24 2019-06-24 Distribution server, distribution method and program Active JP6970143B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019116711A JP6970143B2 (en) 2019-06-24 2019-06-24 Distribution server, distribution method and program
JP2021176118A JP7319340B2 (en) 2019-06-24 2021-10-28 Distribution server, distribution method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116711A JP6970143B2 (en) 2019-06-24 2019-06-24 Distribution server, distribution method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021176118A Division JP7319340B2 (en) 2019-06-24 2021-10-28 Distribution server, distribution method and program

Publications (2)

Publication Number Publication Date
JP2021002811A JP2021002811A (en) 2021-01-07
JP6970143B2 true JP6970143B2 (en) 2021-11-24

Family

ID=73994368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116711A Active JP6970143B2 (en) 2019-06-24 2019-06-24 Distribution server, distribution method and program

Country Status (1)

Country Link
JP (1) JP6970143B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123503A (en) * 2016-01-04 2017-07-13 日本電信電話株式会社 Video distribution apparatus, video distribution method and computer program
JP6669403B2 (en) * 2016-06-03 2020-03-18 キヤノン株式会社 Communication device, communication control method, and communication system
JP6987567B2 (en) * 2017-08-07 2022-01-05 日本放送協会 Distribution device, receiver and program

Also Published As

Publication number Publication date
JP2021002811A (en) 2021-01-07

Similar Documents

Publication Publication Date Title
EP3459252B1 (en) Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
US10880522B2 (en) Hybrid media viewing application including a region of interest within a wide field of view
JP5920708B2 (en) Multi-view video stream viewing system and method
JP6309749B2 (en) Image data reproducing apparatus and image data generating apparatus
JP2015187797A (en) Image data generation device and image data reproduction device
JP2007150747A (en) Receiving apparatus and main line image distribution apparatus
US20210076081A1 (en) Video transmission method, client, and server
JP6541309B2 (en) Transmission apparatus, transmission method, and program
WO2021199559A1 (en) Video distribution device, video distribution method, and video distribution program
KR20210019017A (en) Content processing method and device
JP5915604B2 (en) Information processing apparatus, program, and information processing method
JP2017123503A (en) Video distribution apparatus, video distribution method and computer program
US9491447B2 (en) System for providing complex-dimensional content service using complex 2D-3D content file, method for providing said service, and complex-dimensional content file therefor
JP6970143B2 (en) Distribution server, distribution method and program
JP6987567B2 (en) Distribution device, receiver and program
JP7319340B2 (en) Distribution server, distribution method and program
JP5940999B2 (en) VIDEO REPRODUCTION DEVICE, VIDEO DISTRIBUTION DEVICE, VIDEO REPRODUCTION METHOD, VIDEO DISTRIBUTION METHOD, AND PROGRAM
JP7083361B2 (en) Image processing equipment and systems
JP5850012B2 (en) Information processing apparatus, program, and communication system
WO2022065040A1 (en) Information processing device, information processing method, and information processing system
JP6473469B2 (en) Video distribution system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211028

R150 Certificate of patent or registration of utility model

Ref document number: 6970143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250