JP7462842B2 - VIDEO DELIVERY DEVICE, PROGRAM, VIDEO DELIVERY SYSTEM, AND VIDEO DELIVERY METHOD - Google Patents
VIDEO DELIVERY DEVICE, PROGRAM, VIDEO DELIVERY SYSTEM, AND VIDEO DELIVERY METHOD Download PDFInfo
- Publication number
- JP7462842B2 JP7462842B2 JP2023531207A JP2023531207A JP7462842B2 JP 7462842 B2 JP7462842 B2 JP 7462842B2 JP 2023531207 A JP2023531207 A JP 2023531207A JP 2023531207 A JP2023531207 A JP 2023531207A JP 7462842 B2 JP7462842 B2 JP 7462842B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- images
- video
- image
- encoded data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002716 delivery method Methods 0.000 title 1
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000015572 biosynthetic process Effects 0.000 claims description 57
- 238000003786 synthesis reaction Methods 0.000 claims description 57
- 239000002131 composite material Substances 0.000 claims description 47
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000000926 separation method Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 9
- 238000000034 method Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 29
- 238000013500 data storage Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2365—Multiplexing of several video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本開示は、映像配信装置、ユーザ端末、プログラム、映像配信システム及び映像配信方法に関する。 The present disclosure relates to a video distribution device, a user terminal, a program, a video distribution system, and a video distribution method.
複数のカメラで撮像された映像から、ユーザが選択した映像を見ることのできる映像配信システムが、従来から使用されている。
例えば、特許文献1には、映像配信装置において、ユーザが見たい映像データのカメラ位置の指定を受け付けて、そのカメラ位置において撮像された映像データをエンコードして、ユーザの端末に送信し、ユーザ端末において、そのデータをデコードして所望の映像を表示するシステムが記載されている。
2. Description of the Related Art Video distribution systems that allow a user to view a video selected from videos captured by a plurality of cameras have been used in the past.
For example, Patent Document 1 describes a system in which a video distribution device accepts a specification of the camera position for the video data that a user wishes to view, encodes the video data captured at that camera position, and transmits it to the user's terminal, where the data is decoded and the desired video is displayed.
しかしながら、従来の映像配信システムは、ユーザが指定したカメラ位置における映像データをエンコードして配信するため、最大で、ユーザ数だけエンコードを行う必要がある。このため、ユーザ数が多くなると、その処理負荷が非常に大きくなる。 However, conventional video distribution systems encode and distribute video data from a camera position specified by the user, so they need to encode as many video data as there are users. As a result, the processing load becomes very large when the number of users increases.
そこで、本開示の一又は複数の態様は、ユーザ数が多くなっても、処理負荷が大きくならないように、ユーザが選択した映像を配信できるようにすることを目的とする。Therefore, one or more aspects of the present disclosure aim to enable the delivery of video selected by a user without increasing the processing load, even when the number of users is large.
本開示の一態様に係る映像配信装置は、複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部と、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、前記エンコードデータを配信する配信部と、を備え、前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成することを特徴とする。 A video distribution device according to one embodiment of the present disclosure includes an acquisition unit that acquires multiple videos captured by multiple imaging devices, a synthesis unit that generates a synthetic image by synthesizing two or more images from multiple images for each time period contained in each of the multiple videos, an encoding unit that generates encoded data by encoding the synthetic image, and a distribution unit that distributes the encoded data , wherein the synthesis unit divides the multiple images into two or more groups and synthesizes the two or more images contained in each of the two or more groups .
本開示の第1の態様に係るプログラムは、コンピュータを、複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部、前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部、及び、前記エンコードデータを配信する配信部、として機能させ、前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成することを特徴とする。 A program relating to a first aspect of the present disclosure causes a computer to function as an acquisition unit that acquires multiple videos captured by multiple imaging devices, a synthesis unit that generates a synthetic image by synthesizing two or more images from multiple images for each time included in each of the multiple videos, an encoding unit that generates encoded data by encoding the synthetic image, and a distribution unit that distributes the encoded data , wherein the synthesis unit divides the multiple images into two or more groups and synthesizes the two or more images included in each of the two or more groups .
本開示の第1の態様に係る映像配信システムは、映像配信装置及びユーザ端末を備える映像配信システムであって、前記映像配信装置は、複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部と、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、前記エンコードデータを配信する配信部と、を備え、前記ユーザ端末は、前記エンコードデータを受信する受信部と、前記エンコードデータをデコードすることで、前記合成画像を取得するデコード部と、前記合成画像から前記二以上の画像を分離する分離部と、表示する映像の選択の入力を受け付ける入力部と、前記二以上の画像の中から、選択された映像の画像を表示する表示部と、を備え、前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成することを特徴とする。 A video distribution system according to a first aspect of the present disclosure is a video distribution system including a video distribution device and a user terminal, wherein the video distribution device includes an acquisition unit that acquires a plurality of videos captured by each of a plurality of imaging devices, a synthesis unit that generates a synthetic image by synthesizing two or more images from a plurality of images for each time included in each of the plurality of videos, an encoding unit that generates encoded data by encoding the synthetic image, and a distribution unit that distributes the encoded data, and the user terminal includes a receiving unit that receives the encoded data, a decoding unit that acquires the synthetic image by decoding the encoded data, a separation unit that separates the two or more images from the synthetic image, an input unit that accepts input of a selection of a video to be displayed, and a display unit that displays an image of a video selected from the two or more images , and the synthesis unit divides the plurality of images into two or more groups and synthesizes the two or more images included in each of the two or more groups .
本開示の第2の態様に係る映像配信システムは、映像配信装置及びユーザ端末を備える映像配信システムであって、前記映像配信装置は、複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部と、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、前記エンコードデータを配信する配信部と、を備え、前記ユーザ端末は、前記エンコードデータを受信する受信部と、前記エンコードデータをデコードすることで、前記合成画像を取得するデコード部と、表示する映像の位置の選択の入力を受け付ける入力部と、前記合成画像から、前記位置に対応する画像を取り出す選択部と、前記取り出された画像を表示する表示部と、を備え、前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成することを特徴とする。 A video distribution system according to a second aspect of the present disclosure is a video distribution system including a video distribution device and a user terminal, wherein the video distribution device includes an acquisition unit that acquires multiple videos captured by each of multiple imaging devices, a synthesis unit that generates a synthetic image by synthesizing two or more images from multiple images for each time included in each of the multiple videos, an encoding unit that generates encoded data by encoding the synthetic image, and a distribution unit that distributes the encoded data, and the user terminal includes a receiving unit that receives the encoded data, a decoding unit that obtains the synthetic image by decoding the encoded data, an input unit that accepts input for selecting a position of the video to be displayed, a selection unit that extracts an image corresponding to the position from the synthetic image, and a display unit that displays the extracted image , and the synthesis unit divides the multiple images into two or more groups and synthesizes the two or more images included in each of the two or more groups .
本開示の一態様に係る映像配信方法は、取得部が、複数の撮像装置のそれぞれで撮像された複数の映像を取得し、合成部が、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成し、エンコード部が、前記合成画像をエンコードすることで、エンコードデータを生成し、配信部が、前記エンコードデータを配信し、前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成することを特徴とする。 A video distribution method according to one aspect of the present disclosure is characterized in that an acquisition unit acquires multiple videos captured by multiple imaging devices, a synthesis unit generates a synthetic image by synthesizing two or more images from multiple images for each time period contained in each of the multiple videos, an encoding unit generates encoded data by encoding the synthetic image, a distribution unit distributes the encoded data , and the synthesis unit divides the multiple images into two or more groups and synthesizes the two or more images contained in each of the two or more groups .
本開示の一又は複数の態様によれば、ユーザ数が多くなっても、処理負荷が大きくならないように、ユーザが選択した映像を配信することができる。 According to one or more aspects of the present disclosure, even if the number of users increases, video selected by the user can be delivered without increasing the processing load.
実施の形態1.
図1は、実施の形態1に係る映像配信システム100の構成を概略的に示すブロック図である。
映像配信システム100は、映像配信装置110と、ユーザ端末130A~130Dとを備える。
なお、ユーザ端末130A~130Dは、映像を見る機能に関して同様に構成されているため、ユーザ端末130A~130Dの各々を特に区別する必要がない場合には、ユーザ端末130A~130Dの何れか一つをユーザ端末130という。
Embodiment 1.
FIG. 1 is a block diagram illustrating a schematic configuration of a
The
In addition, since the
映像配信システム100では、映像配信装置110は、複数の撮像装置としての複数のカメラ101A~101Lで撮像された映像データを取得して、ユーザ端末130にユーザが見る映像を含む配信データを配信する。
映像配信装置110は、複数のカメラ101A~101Lの各々と、ユーザ端末130と、通信を行うことができるようにされている。例えば、図1では、映像配信装置110は、複数のカメラ101A~101Lの各々と無線で接続されているが、有線で接続されていてもよい。同様に、映像配信装置110は、ユーザ端末130と無線で接続されているが、有線で接続されていてもよい。
なお、複数のカメラ101A~101Lの数については、二以上であればよい。また、複数のカメラ101A~101Lの各々を特に区別する必要がない場合には、複数のカメラ101A~101Lの何れか一つをカメラ101という。
In the
The
The number of
図2は、実施の形態1における映像配信装置110及びユーザ端末130の構成を概略的に示すブロック図である。
映像配信装置110は、映像取得部111と、映像合成部112と、エンコード部113と、エンコードデータ記憶部114と、映像配信部115と、通信部116とを備える。
FIG. 2 is a block diagram showing a schematic configuration of the
The
映像取得部111は、複数のカメラ101A~101Lのそれぞれで撮像された複数の映像を取得する取得部である。
具体的には、映像取得部111は、複数のカメラ101A~101Lの各々から、複数のカメラ101A~101Lの各々で撮像された映像を示す映像データを受信する。
図3は、複数のカメラ101A~101Lからの映像データの一例を説明するための概略図である。
図3に示されているように、例えば、カメラ101Aからは、時刻t=1pに対応する画像A001、時刻t=2pに対応する画像A002、時刻t=3pに対応する画像A003、・・・を含む映像データが送られてくる。
The
Specifically, the
FIG. 3 is a schematic diagram for explaining an example of video data from the
As shown in FIG. 3, for example,
図2に戻り、映像合成部112は、複数のカメラ101A~101Lから送られてきた複数の映像データのそれぞれで示される、時刻毎の複数の画像に対して合成処理を行う。ここでは、映像合成部112は、その複数の画像における二以上の画像を合成する。ここで、複数の画像は、複数のカメラ101A~101Lから送られてきた複数の映像データのそれぞれから抽出されたものである。言い換えると、複数の画像に含まれている一つの画像を撮像したカメラ101は、その複数の画像に含まれている他の全ての画像を撮像したカメラ101と異なっている。Returning to FIG. 2, the
図4は、映像合成部112が行う合成処理の一例を説明するための概略図である。
ここでは、図3に示されているように、複数のカメラ101A~101Lから、その各々で撮像された映像データが取得されているものとする。
図4に示されているように、映像合成部112は、複数のカメラ101A~101Lのそれぞれから得られる複数の画像を、カメラ101A~101Dからの映像データで示される画像からなる第1のグループ、カメラ101E~101Hからの映像データで示される画像からなる第2のグループ、及び、カメラ101I~101Lからの映像データで示される画像からなる第3のグループに分けて、グループ毎に、同じ時刻に対応する画像を合成する。
言い換えると、映像合成部112は、複数のカメラ101A~101Lのそれぞれから取得される複数の映像データのそれぞれで示される複数の画像を複数のグループに分けて、複数のグループの各々に含まれる二以上の画像を合成する。
FIG. 4 is a schematic diagram for explaining an example of the synthesis process performed by the
It is assumed here that, as shown in FIG. 3, video data captured by each of a plurality of
As shown in FIG. 4, the
In other words, the
図5(A)~(F)は、映像合成部112による画像の合成例を示す概略図である。
ここでは、図5(A)に示されているシーンを、四台のカメラ101A~101Dで撮像するものとする。
5A to 5F are schematic diagrams showing examples of image synthesis by the
Here, it is assumed that the scene shown in FIG. 5A is captured by four
図5(B)~(E)で示されている画像Im1~Im4は、それぞれ、同時刻において、四台のカメラ101A~101Dで撮像された画像を示している。
図5(F)に示されているように、映像合成部112は、画像Im1~Im4を横方向に連結することで、合成を行い、一つの合成画像を生成する。
Images Im1 to Im4 shown in FIGS. 5(B) to (E) respectively indicate images captured by the four
As shown in FIG. 5(F), the
図2に戻り、エンコード部113は、映像合成部112で合成された合成画像をエンコードすることで、エンコードデータを生成する。
ここでは、エンコード部113は、映像合成部112で合成された合成画像を、予め定められた期間毎にエンコードすることで、エンコードデータを生成する。
図6は、エンコード部113が行うエンコードの一例を説明するための概略図である。
ここでも、図3に示されているように、複数のカメラ101A~101Lから、その各々で撮像された映像データが取得されているものとする。
図6に示されているように、エンコード部113は、時刻t=1p~時刻t=6pの合成画像をエンコードすることで、エンコードデータを生成する。図6に示されているように、ここでは、エンコードデータは、図4で説明したグループ毎に生成される。
Returning to FIG. 2, the
Here, the
FIG. 6 is a schematic diagram for explaining an example of encoding performed by the
Here, too, it is assumed that video data captured by each of a plurality of
As shown in Fig. 6, the
図2に戻り、エンコードデータ記憶部114は、エンコード部113で生成されたエンコードデータを記憶する。Returning to Figure 2, the encoded
映像配信部115は、エンコードデータを配信する配信部である。
ここでは、映像配信部115は、少なくともユーザが見る映像の画像を含むエンコードデータをエンコードデータ記憶部114から読み出し、そのエンコードデータを配信データとして、通信部116にユーザ端末130へ送信させる。
The
Here, the
例えば、映像配信部115は、ユーザ端末130が、ユーザ端末130において見られている映像の位置を示す位置情報を、通信部116を介して受け取り、その位置情報で示される位置に対応する画像を含むエンコードデータをエンコードデータ記憶部114から読み出す。For example, the
通信部116は、ユーザ端末130と通信を行う。
例えば、通信部116は、配信データをユーザ端末130に送信し、ユーザ端末130から位置情報を受信する。
The
For example, the
以上に記載された映像合成部112、エンコード部113及び映像配信部115は、例えば、図7に示されているように、メモリ10と、メモリ10に格納されているプログラムを実行するCPU(Central Processing Unit)等のプロセッサ11とを備えるコンピュータ12により実現することができる。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。The
なお、エンコードデータ記憶部114は、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等の記憶装置により実現することができる。
また、映像取得部111及び通信部116は、無線通信を行う無線通信インターフェースにより実現することができる。なお、映像取得部111及び通信部116は、一つの無線通信インターフェースにより実現されてもよく、別々の無線通信インターフェースにより実現されてもよい。
The encoded
The
図2に戻り、ユーザ端末130は、通信部131と、デコード部132と、映像分離部133と、映像記憶部134と、映像選択部135と、入力部136と、映像表示部137とを備える。Returning to Figure 2, the
通信部131は、映像配信装置110と通信を行う。
例えば、通信部131は、映像配信装置110からの配信データを受信する受信部として機能する。また、通信部131は、位置情報を映像配信装置110に送信する送信部として機能する。
The
For example, the
デコード部132は、通信部131を介して、映像配信装置110から配信データを受け取り、受け取った配信データをデコードする。これにより、デコード部132は、合成画像を取得することができる。The
映像分離部133は、デコード部132で取得された合成画像から二以上の画像を分離する。
実施の形態1では、映像分離部133は、デコード部132で取得された合成画像を分離することで、カメラ101毎の画像を生成する。ここで、ユーザ端末130は、映像配信装置110から、配信データにおいて、どの位置の画像がどの位置のカメラ101に対応するかの情報である位置設定情報を予め取得しておくことで、分離された画像がどの位置のカメラ101の画像であるかを識別することができる。また、配信データに、合成画像の位置と、カメラ101との位置とを識別するための識別情報が含まれていてもよい。
The
In the first embodiment, the
映像記憶部134は、映像分離部133で分離された画像を記憶する。
The
映像選択部135は、入力部136を介して、ユーザから表示する映像の選択の入力を受け付ける。
例えば、映像選択部135は、入力部136を介して、ユーザからカメラ位置の選択を受け付け、選択されたカメラ位置の画像を映像記憶部134から順次読み出して映像表示部137に送ることで、映像表示部137に、選択されたカメラ位置の映像を表示させる。
For example, the
また、映像選択部135は、ユーザにより選択されたカメラ位置を示す位置情報を生成し、通信部131を介して、その位置情報を映像配信装置110に送る。
In addition, the
入力部136は、ユーザからの指示の入力を受け付ける。例えば、入力部136は、ユーザからカメラ101の位置を示すカメラ位置の選択の入力を受け付ける。これにより、入力部136は、表示する映像の選択の入力を受け付けることができる。The
映像表示部137は、映像選択部135から送られてくる画像を順次表示することにより、映像を表示する表示部である。これにより、映像表示部137は、ユーザが選択した映像の画像を順次表示することで、ユーザが選択した映像を表示することができる。The
以上に記載されたユーザ端末130のデコード部132、映像分離部133、映像記憶部134及び映像選択部135は、例えば、図7に示されているように、メモリ10と、メモリ10に格納されているプログラムを実行するCPU等のプロセッサ11とを備えるコンピュータ12により実現することができる。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。The
なお、映像記憶部134は、揮発性又は不揮発性のメモリにより実現することができる。
また、通信部131は、無線通信を行う無線通信インターフェースにより実現することができる。
入力部136は、ユーザからの入力を受け付ける入力装置により実現することができる。
映像表示部137は、ディスプレイにより実現することができる。
なお、入力部136及び映像表示部137は、タッチパネルにより実現されてもよい。
The
The
The
The
The
図8は、映像配信装置110での処理を示すフローチャートである。
まず、映像取得部111は、複数のカメラ101A~101Lのそれぞれから、複数のカメラ101A~101Lのそれぞれで撮像された映像を示す映像データを受信する(S10)。受信された映像データは、映像合成部112に与えられる。
FIG. 8 is a flowchart showing the processing in the
First, the
映像合成部112は、複数のカメラ101A~101Lから送られてきた複数の映像データのそれぞれで示される同じ時刻に対応する複数の画像に対して合成処理を行う(S11)。例えば、映像合成部112は、複数のカメラ101A~101Lから取得される複数の映像データで示される複数の画像を複数のグループに分けて、複数のグループの各々において、同じ時刻に対応する二以上の画像を合成する。ここで合成された合成画像は、エンコード部113に与えられる。The
エンコード部113は、映像合成部112で合成された合成画像を、予め定められた期間毎にエンコードすることで、エンコードデータを生成する(S12)。エンコードデータは、エンコードデータ記憶部114に記憶される。The
映像配信部115は、少なくともユーザが見る映像の画像を含むエンコードデータをエンコードデータ記憶部114から読み出し、そのエンコードデータを配信データとして、通信部116を介してユーザ端末130に送る(S13)。The
以上のようにして、少なくともユーザが見る映像の画像を含むエンコードデータがユーザ端末130に配信される。
In this manner, encoded data including at least the video image to be viewed by the user is delivered to the
図9は、ユーザ端末130での処理を示すフローチャートである。
まず、通信部131は、映像配信装置110からの配信データを受信する(S20)。受信された配信データは、デコード部132に与えられる。
FIG. 9 is a flowchart showing the processing in the
First, the
デコード部132は、通信部131から配信データを受け取り、受け取った配信データをデコードする(S21)。これにより、デコード部132は、合成画像を取得し、その合成画像を映像分離部133に与える。The
映像分離部133は、デコード部132で取得された合成画像を分離することで、カメラ101毎の画像を生成する(S22)。ここで分離された画像は、映像記憶部134に記憶される。The
映像選択部135は、入力部136を介して、ユーザにより選択されたカメラ位置の画像を映像記憶部134から順次読み出して映像表示部137に送ることで、映像表示部137に、選択されたカメラ位置の映像を表示させる(S23)。
以上により、ユーザは、ユーザ自身が選択したカメラの映像を見ることができる。
The
In this way, the user can view the video from the camera selected by the user himself.
図10(A)~(C)並びに図11(A)及び(B)は、ユーザ端末130での処理を説明するための概略図である。
例えば、通信部131は、図10(A)に示されているような、カメラ101A~101Dで撮像された画像が合成され、時刻t=1p~時刻t=6pまでの期間の合成画像がエンコードされた配信データを取得する。
10(A) to (C) and 11(A) and (B) are schematic diagrams for explaining the processing in the
For example, the
デコード部132が、その配信データをデコードすることで、図10(B)に示されているような、合成画像が取得される。The
映像分離部133が、その合成画像をカメラ101A~101D毎に分離することで、図10(C)に示されているように、カメラ101A~101D毎の画像が取得される。The
このような場合において、第1のユーザが図10(C)の破線L1で示されているように、時刻t=1p~時刻t=3pにおいてカメラ101Aの位置、時刻t=4pにおいてカメラ101Bの位置、時刻t=5pにおいてカメラ101Cの位置、及び、時刻t=6pにおいてカメラ101Bの位置を選択した場合には、図11(A)に示されているように、第1のユーザが使用しているユーザ端末130Aでは、第1のユーザの選択に応じた画像を含む映像が表示される。In such a case, if the first user selects the position of
一方、第2のユーザが、その第2のユーザが使用しているユーザ端末130Bにおいて、図10(C)の破線L2で示されているように、時刻t=1p~時刻t=6pにおいてカメラ101Dの位置を選択した場合には、図11(B)に示されているように、第2のユーザの選択に応じた画像を含む映像が表示される。On the other hand, when a second user selects the position of
以上のような場合でも、映像配信装置110は、第1のユーザが使用しているユーザ端末130A及び第2のユーザが使用しているユーザ端末130Bに、図10(A)に示されているような配信データを送信すればよいため、ユーザ毎にエンコードデータを生成する必要がなくなる。
また、ユーザが配信データに含まれている合成画像の範囲内で位置を変更しても、映像配信装置110は、配信データを変更する必要がなく、映像配信装置110の処理負荷が軽減される。
Even in the above case, the
Furthermore, even if the user changes his/her position within the range of the composite image included in the distribution data, the
なお、図10に示した例では、ユーザが見ている映像の画像が含まれているグループの合成画像から生成された配信データのみが送信されている例を示したが、実施の形態1は、このような例に限定されるものではない。
例えば、図12(A)及び(B)並びに図13(A)及び(B)は、配信データの変形例を説明するための概略図である。
In the example shown in FIG. 10, only the distribution data generated from the composite image of the group that includes the image of the video that the user is viewing is transmitted, but the first embodiment is not limited to this example.
For example, FIGS. 12A and 12B and FIGS. 13A and 13B are schematic diagrams for explaining modified examples of distribution data.
図12(A)に示されているように、一つのユーザ端末130に、カメラ101E~101Hで撮像された画像のグループから生成されたエンコードデータと、カメラ101I~101Lで撮像された画像のグループから生成されたエンコードデータとを、配信データとして送信するようにしてもよい。As shown in FIG. 12(A), encoded data generated from a group of images captured by
言い換えると、映像配信部115は、ユーザ端末130で見られている映像に含まれている画像を含む第1のグループに対応するエンコードデータと、ユーザ端末130で見られている映像に含まれている画像を含まない第2のグループに対応するエンコードデータとを通信部116にユーザ端末130へ送信させてもよい。ここで、第2のグループは、第1のグループに含まれている画像からなる映像を見ているユーザが映像を切り替える可能性の高いグループであることが望ましい。In other words, the
このような場合、ユーザ端末130のデコード部132は、それぞれの配信データをデコードすることで、図12(B)に示されているように、カメラ101E~101Hで撮像された画像の合成画像と、カメラ101I~101Lで撮像された画像の合成画像とを取得することができる。In such a case, the
そして、映像分離部133が、それぞれの合成画像を分離することで、図13(A)に示されているように、カメラ101E~101Lで撮像された画像が取得される。
この場合において、ユーザが図13(A)の破線L3で示されているように、時刻t=1p~時刻t=3pにおいてカメラ101Iの位置を選択し、時刻t=4pにおいてカメラ101Hの位置を選択し、時刻t=5pにおいてカメラ101Gの位置を選択し、及び、時刻t=6pにおいて、カメラ101Fの位置を選択することで、図13(B)に示されているように、複数のグループに含まれている画像からなる映像がユーザ端末130に表示される。
Then, the
In this case, as shown by dashed line L3 in Figure 13 (A), the user selects the position of camera 101I from time t = 1p to time t = 3p, selects the position of
このような場合にも、映像配信装置110は、ユーザ端末130に送信している配信データの範囲内では、ユーザの選択に応じて、ユーザ端末130に送信する配信データを変える必要がなくなり、映像配信装置110の処理負荷を軽減することができる。Even in such a case, the
なお、ユーザ端末130に送信する、一つの時刻に対応するエンコードデータの数及びそのエンコードデータの選択については、ユーザが見ている映像の位置に応じて予め定められていてもよく、また、ユーザが見ている映像の位置に応じて変化させてもよい。In addition, the number of encoded data corresponding to one time and the selection of the encoded data to be sent to the
具体的には、ユーザが見ている映像の画像が含まれているグループから移動する可能性の高いグループの配信データが、そのユーザが使用しているユーザ端末130に送信されてもよい。例えば、図5で説明した例で示されているように、被写体に対して、複数のカメラ101を一列に配置した場合には、ユーザが見ている映像の画像が含まれているグループに隣接するグループから生成されたエンコードデータも、そのユーザが使用しているユーザ端末130に送信されればよい。Specifically, distribution data of a group that is likely to move from the group containing the image of the video the user is watching may be transmitted to the
また、例えば、図12(A)に示されている例において、ユーザがカメラ101F又はカメラ101Gからの映像を見ている場合には、カメラ101E~101Hで撮像された画像のグループから生成されたエンコードデータのみが送信され、ユーザがカメラ101Hからの映像に移動した場合に、隣接するグループであるカメラ101I~101Lで撮像された画像のグループから生成されたエンコードデータも送信されるようにしてもよい。
言い換えると、ユーザが見ている位置から、別のグループに移動する可能性が高くなった場合に、移動する可能性が高くなったグループから生成されたエンコードデータも送信されるようにすればよい。
Also, for example, in the example shown in FIG. 12(A), when the user is viewing video from
In other words, if there is a high possibility that the user will move from the position where he or she is looking to another group, the encoded data generated from the group to which the user is likely to move is also transmitted.
また、以上に記載された実施の形態1では、複数のカメラ101で撮像された複数の画像が複数のグループに分けて合成されているが、実施の形態1は、このような例に限定されるものではない。
例えば、図14に示されているように、複数のカメラ101で撮像された複数の画像の全てが、一つの画像に合成されてもよい。ここで合成される複数の画像は、同じ時刻に対応する画像である。このような場合、映像配信装置110は、ユーザが見ている位置に応じて、ユーザ端末130に送信するエンコードデータを変える必要がなくなるため、処理負荷が軽減される。この場合には、ユーザ端末130も、位置情報を映像配信装置110に送信する必要がなくなり、処理負荷が軽減される。
In addition, in the embodiment 1 described above, multiple images captured by
For example, as shown in Fig. 14, all of the multiple images captured by the
また、以上に記載された実施の形態1では、例えば、図1において、複数のカメラ101が一つの直線上に配置されている例を示したが、実施の形態1はこのような例に限定されない。例えば、図15に示されているように、複数のカメラ101A~101Nが、被写体に対して複数の直線上に配置されていてもよい。In addition, in the above-described embodiment 1, for example, in Fig. 1, an example is shown in which
さらに、図16に示されているように、複数のカメラ101A~101Hが、被写体の周囲を囲むように円形に配置されていてもよい。
言い換えると、複数のカメラ101は、自由に配置することができる。
Furthermore, as shown in FIG. 16, a plurality of
In other words, the
また、以上に記載された実施の形態1では、図5(F)に示されているように、複数のカメラ101で撮像された画像Im1~Im4を一方向(図5では横方向)に連結することで合成が行われているが、実施の形態1はこのような例に限定されるものではない。
例えば、図17に示されているように、映像合成部112は、画像Im1~Im4を二方向(図17では、縦方向及び横方向)に連結、言い換えると、二列に連結することで合成を行ってもよい。
In addition, in the above-described embodiment 1, as shown in FIG. 5(F), the images Im1 to Im4 captured by the
For example, as shown in FIG. 17, the
さらに、以上に記載された実施の形態1では、図5(F)に示されているように、複数のカメラ101の各々で撮像された画像Im1~Im4を連結することにより合成が行われているが、実施の形態1は、このような例に限定されない。
例えば、複数の画像の各々を構成する画素値を、対応する画素位置毎に連結することで、複数の画像の合成が行われてもよい。具体例を、図18(A)~(D)を用いて説明する。
Furthermore, in the embodiment 1 described above, as shown in FIG. 5 (F), the synthesis is performed by linking images Im1 to Im4 captured by each of the
For example, the multiple images may be synthesized by linking the pixel values constituting each of the multiple images at each corresponding pixel position. A specific example will be described with reference to FIGS. 18A to 18D.
図18(A)は、カメラ101Aで撮像された画像ImAを示し、図18(B)は、カメラ101Bで撮像された画像ImBを示し、図18(C)は、カメラ101Cで撮像された画像ImCを示しているものとする。また、画像ImA~ImCのサイズは、同一であるものとする。ここでは、画像ImA~ImCを合成する場合について説明する。
Figure 18 (A) shows image ImA captured by
このような場合、例えば、図18(D)に示されているように、画像ImAの第1列第1行の画素位置の画素値A(1,1)、画像ImBの第1列第1行の画素位置の画素値B(1,1)、画像ImCの第1列第1行の画素位置の画素値C(1,1)、画像ImAの第2列第1行の画素位置の画素値A(2,1)、画像ImBの第2列第1行の画素位置の画素値B(2,1)、画像ImCの第2列第1行の画素位置の画素値C(2,1)、・・・といった順番で配列することにより、合成画像CIm1を生成することができる。In such a case, for example, as shown in FIG. 18 (D), a composite image CIm1 can be generated by arranging the pixels in the following order: pixel value A (1,1) at the pixel position in the first column, first row of image ImA, pixel value B (1,1) at the pixel position in the first column, first row of image ImB, pixel value C (1,1) at the pixel position in the first column, first row of image ImC, pixel value A (2,1) at the pixel position in the second column, first row of image ImA, pixel value B (2,1) at the pixel position in the second column, first row of image ImB, pixel value C (2,1) at the pixel position in the second column, first row of image ImC, etc.
合成画像CIm1では、画像ImA、ImB、ImCのそれぞれの対応する画素位置の画素値が、合成画像CIm1の対応する画素位置に配置されているため、合成画像CIm1から容易に画像ImA、ImB、ImCを分離することができる。In the composite image CIm1, the pixel values of the corresponding pixel positions of the images ImA, ImB, and ImC are positioned at the corresponding pixel positions of the composite image CIm1, so that the images ImA, ImB, and ImC can be easily separated from the composite image CIm1.
また、例えば、画像ImA、ImB、ImCが、同じ被写体を撮像した画像である場合には、画像ImA、ImB、ImCのそれぞれにおいて対応する画素位置の画素値は、類似の画素値になる可能性が高い。このような場合において、合成画像を圧縮すると、圧縮技術にもよるが、圧縮率を高くすることも可能となる。 For example, if images ImA, ImB, and ImC are images of the same subject, the pixel values at corresponding pixel positions in images ImA, ImB, and ImC are likely to be similar. In such a case, compressing the composite image can increase the compression rate, depending on the compression technique.
実施の形態2.
図1に示されているように、実施の形態2に係る映像配信システム200は、映像配信装置210と、ユーザ端末230A~230Dとを備える。
なお、ユーザ端末230A~230Dも、映像を見る機能に関して同様に構成されているため、ユーザ端末230A~230Dの各々を特に区別する必要がない場合には、ユーザ端末230A~230Dの何れか一つをユーザ端末230という。
Embodiment 2.
As shown in FIG. 1, a video distribution system 200 according to the second embodiment includes a
In addition, since the
実施の形態2に係る映像配信システム200でも、映像配信装置210は、複数のカメラ101A~101Lで撮像された映像データを取得して、ユーザ端末230にユーザが見る映像を含む配信データを配信する。In the video distribution system 200 relating to embodiment 2, the
図19は、実施の形態2における映像配信装置210及びユーザ端末230の構成を概略的に示すブロック図である。
実施の形態2における映像配信装置210は、映像取得部111と、映像合成部212と、エンコード部113と、エンコードデータ記憶部114と、映像配信部115と、通信部116とを備える。
実施の形態2における映像配信装置210の映像取得部111、エンコード部113、エンコードデータ記憶部114、映像配信部115及び通信部116は、実施の形態1における映像配信装置110の映像取得部111、エンコード部113、エンコードデータ記憶部114、映像配信部115及び通信部116と同様である。
FIG. 19 is a block diagram showing a schematic configuration of a
The
The
映像合成部212は、複数のカメラ101A~101Lから送られてきた複数の映像データのそれぞれで示される複数の画像に対して合成処理を行う合成部である。ここでも、映像合成部212は、その複数の画像における二以上の画像を合成する。The
実施の形態1における映像合成部112は、例えば、図5(B)~(E)に表されている画像Im1~Im4を、図5(F)に示されているように、単に連結することで、合成画像を生成している。The
これに対して、実施の形態2における映像合成部212は、複数のカメラ101で撮像された複数の画像のつなぎ目がわからないように、その複数の画像を合成する。
実施の形態2における映像合成部212での処理の具体例を、図20(A)~(E)を用いて説明する。
In contrast to this, the
A specific example of the processing performed by the
図20(A)~(D)で示されている画像Im1~Im4は、それぞれ、同時刻において、四台のカメラ101A~101Dで撮像された画像を示している。
ここでは、複数のカメラ101は、一つのカメラ101で撮像された画像が、他のカメラ101で撮像された画像と、連結する方向において少なくとも一部が重複するように配列されているものとする。
Images Im1 to Im4 shown in FIGS. 20A to 20D respectively represent images captured by the four
Here, the
このような場合、図20(E)に示されているように、映像合成部212は、画像Im1~Im4を横方向において重複している部分がなくなるように連結することで、合成を行い、一つの合成画像を生成する。
一例として、映像合成部212は、連結する方向において重複している部分を、重複している複数の画像の内、何れか一つの画像を採用し、残り画像から重複している部分を削除することで、これらを連結すればよい。これにより、これらの複数の画像において重複している部分をなくすことができる。
In such a case, as shown in FIG. 20(E), the
As an example, the
図19に戻り、ユーザ端末230は、通信部131と、デコード部132と、映像記憶部234と、映像選択部235と、入力部136と、映像表示部137とを備える。
実施の形態2におけるユーザ端末230は、実施の形態1におけるユーザ端末130の映像分離部133を備えていない。
また、実施の形態2におけるユーザ端末230の通信部131、デコード部132、入力部136及び映像表示部137は、実施の形態1におけるユーザ端末130の通信部131、デコード部132、入力部136及び映像表示部137と同様である。
Returning to FIG. 19, the
The
In addition, the
映像記憶部234は、デコード部132で取得された合成画像を記憶する。
The
映像選択部235は、入力部136を介して、ユーザから表示する映像の位置である表示位置の選択を受け付け、選択された表示位置に対応する画像を映像記憶部134に記憶されている合成画像から取り出す。そして、映像選択部235は、取り出された画像を、順次、映像表示部137に送ることで、映像表示部137に、選択された表示位置の映像を表示させる。The
図21は、映像選択部235での処理を説明するための概略図である。
例えば、ユーザは、映像表示部137に表示されている映像を見ながら、画像が連結されている方向、図21においては、横方向において、入力部136に表示位置を移動させることができるものとする。
この場合、映像選択部235は、ユーザが移動させた表示位置に対応する画像SImを、合成画像CIm2から取り出す。
FIG. 21 is a schematic diagram for explaining the processing in the
For example, the user can move the display position on
In this case, the
このような場合、映像選択部235は、例えば、合成画像における基準となる位置である合成画像基準位置と、ユーザの表示位置を示す表示基準位置とを予め定めておき、これらの間の距離を位置情報として、映像配信装置210に送ればよい。In such a case, the
例えば、合成画像CIm2の横方向における左端の位置P1を合成画像基準位置とし、ユーザが見る画像SImの横方向における左端の位置P2を表示基準位置とすると、これらの位置P1及びP2との間の距離Dが位置情報となる。For example, if the leftmost position P1 in the horizontal direction of the composite image CIm2 is defined as the composite image reference position, and the leftmost position P2 in the horizontal direction of the image SIm seen by the user is defined as the display reference position, then the distance D between these positions P1 and P2 becomes position information.
このような場合、ユーザが合成画像を超えて表示位置を移動させた場合にも、映像配信装置210は、どの合成画像のエンコードデータを送信すればよいかを認識することができる。
例えば、図21に示されている例では、位置P1と、位置P2との間の距離が、位置P1と、合成画像の横方向における右端の位置P3との間の距離よりも長い場合には、映像配信装置210は、その長さに応じて、合成画像CImの右方向の画像を含む別の合成画像があれば、その別の合成画像のエンコードデータをユーザ端末230に配信すればよい。
また、位置P1と、位置P2との間の距離がマイナスになる場合には、映像配信装置210は、その長さの絶対値に応じて、合成画像CImの左方向の画像を含む別の合成画像があれば、その別の合成画像をユーザ端末230に配信すればよい。
In such a case, even if the user moves the display position beyond the composite image, the
For example, in the example shown in Figure 21, if the distance between position P1 and position P2 is longer than the distance between position P1 and position P3, the right end position of the composite image in the horizontal direction, the
Furthermore, if the distance between positions P1 and P2 is negative, then the
以上のように、実施の形態2によれば、ユーザは、カメラ位置によらずに、自身が視聴したい位置の映像を見ることができる。As described above, according to embodiment 2, a user can view video from the position he or she wishes to view, regardless of the camera position.
100,200 映像配信システム、 101 カメラ、 110,210 映像配信装置、 111 映像取得部、 112,212 映像合成部、 113 エンコード部 、 114 エンコードデータ記憶部、 115 映像配信部、 116 通信部、 130,230 ユーザ端末、 131 通信部、 132 デコード部、 133 映像分離部、 134,234 映像記憶部、 135,235 映像選択部、 136 入力部、 137 映像表示部。 100, 200 Video distribution system, 101 Camera, 110, 210 Video distribution device, 111 Video acquisition unit, 112, 212 Video synthesis unit, 113 Encoding unit, 114 Encoded data storage unit, 115 Video distribution unit, 116 Communication unit, 130, 230 User terminal, 131 Communication unit, 132 Decoding unit, 133 Video separation unit, 134, 234 Video storage unit, 135, 235 Video selection unit, 136 Input unit, 137 Video display unit.
Claims (8)
前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、
前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、
前記エンコードデータを配信する配信部と、を備え、
前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成すること
を特徴とする映像配信装置。 an acquisition unit that acquires a plurality of images captured by a plurality of imaging devices;
a synthesis unit that generates a synthetic image by synthesizing two or more images among a plurality of images for each time included in each of the plurality of videos;
an encoding unit that generates encoded data by encoding the composite image;
a distribution unit that distributes the encoded data ,
The synthesis unit divides the plurality of images into two or more groups, and synthesizes the two or more images included in each of the two or more groups.
A video distribution device comprising:
前記配信部は、前記二以上のグループの内、前記ユーザ端末で見られている映像に含まれている画像を含むグループに対応する前記エンコードデータを、前記通信部に前記ユーザ端末へ送信させること
を特徴とする請求項1に記載の映像配信装置。 Further comprising a communication unit for communicating with a user terminal,
The video distribution device of claim 1, wherein the distribution unit causes the communication unit to transmit to the user terminal the encoded data corresponding to a group among the two or more groups that includes an image contained in the video being viewed on the user terminal.
前記配信部は、前記二以上のグループの内、前記ユーザ端末で見られている映像に含まれている画像を含む第1のグループに対応する前記エンコードデータと、前記二以上のグループの内、前記ユーザ端末で見られている映像に含まれている画像を含まない第2のグループに対応する前記エンコードデータと、を前記通信部に前記ユーザ端末へ送信させること
を特徴とする請求項1に記載の映像配信装置。 Further comprising a communication unit for communicating with a user terminal,
The video distribution device of claim 1, characterized in that the distribution unit causes the communication unit to transmit to the user terminal the encoded data corresponding to a first group among the two or more groups that includes an image included in the video being viewed on the user terminal, and the encoded data corresponding to a second group among the two or more groups that does not include an image included in the video being viewed on the user terminal.
前記合成部は、前記二以上の撮像装置で撮像された映像に含まれている前記二以上の画像を、前記一部の重複がなくなるように合成すること
を特徴とする請求項1から3の何れか一項に記載の映像配信装置。 The images captured by two or more imaging devices included in the plurality of imaging devices are captured so as to partially overlap each other,
The video distribution device according to claim 1 , wherein the synthesis unit synthesizes the two or more images contained in the videos captured by the two or more imaging devices such that there is no overlapping of the parts.
複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部、
前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部、
前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部、及び、
前記エンコードデータを配信する配信部、として機能させ、
前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成すること
を特徴とするプログラム。 Computer,
an acquisition unit that acquires a plurality of images captured by the plurality of imaging devices;
a synthesis unit that generates a synthetic image by synthesizing two or more images among a plurality of images for each time included in each of the plurality of videos;
an encoding unit that generates encoded data by encoding the composite image; and
a distribution unit that distributes the encoded data ;
The synthesis unit divides the plurality of images into two or more groups, and synthesizes the two or more images included in each of the two or more groups.
A program characterized by.
前記映像配信装置は、
複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部と、
前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、
前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、
前記エンコードデータを配信する配信部と、を備え、
前記ユーザ端末は、
前記エンコードデータを受信する受信部と、
前記エンコードデータをデコードすることで、前記合成画像を取得するデコード部と、
前記合成画像から前記二以上の画像を分離する分離部と、
表示する映像の選択の入力を受け付ける入力部と、
前記二以上の画像の中から、選択された映像の画像を表示する表示部と、を備え、
前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成すること
を特徴とする映像配信システム。 A video distribution system including a video distribution device and a user terminal,
The video distribution device includes:
an acquisition unit that acquires a plurality of images captured by a plurality of imaging devices;
a synthesis unit that generates a synthetic image by synthesizing two or more images among a plurality of images for each time included in each of the plurality of videos;
an encoding unit that generates encoded data by encoding the composite image;
a distribution unit that distributes the encoded data,
The user terminal,
A receiving unit that receives the encoded data;
a decoding unit that obtains the composite image by decoding the encoded data;
a separation unit that separates the two or more images from the composite image;
an input unit that accepts an input for selecting an image to be displayed;
a display unit that displays a video image selected from the two or more images ,
The synthesis unit divides the plurality of images into two or more groups, and synthesizes the two or more images included in each of the two or more groups.
A video distribution system comprising:
前記映像配信装置は、
複数の撮像装置のそれぞれで撮像された複数の映像を取得する取得部と、
前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成する合成部と、
前記合成画像をエンコードすることで、エンコードデータを生成するエンコード部と、
前記エンコードデータを配信する配信部と、を備え、
前記ユーザ端末は、
前記エンコードデータを受信する受信部と、
前記エンコードデータをデコードすることで、前記合成画像を取得するデコード部と、
表示する映像の位置の選択の入力を受け付ける入力部と、
前記合成画像から、前記位置に対応する画像を取り出す選択部と、
前記取り出された画像を表示する表示部と、を備え、
前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成すること
を特徴とする映像配信システム。 A video distribution system including a video distribution device and a user terminal,
The video distribution device includes:
an acquisition unit that acquires a plurality of images captured by a plurality of imaging devices;
a synthesis unit that generates a synthetic image by synthesizing two or more images among a plurality of images for each time included in each of the plurality of videos;
an encoding unit that generates encoded data by encoding the composite image;
a distribution unit that distributes the encoded data,
The user terminal,
A receiving unit that receives the encoded data;
a decoding unit that obtains the composite image by decoding the encoded data;
an input unit that receives an input for selecting a position of an image to be displayed;
a selection unit that extracts an image corresponding to the position from the composite image;
a display unit that displays the extracted image ,
The synthesis unit divides the plurality of images into two or more groups, and synthesizes the two or more images included in each of the two or more groups.
A video distribution system comprising:
合成部が、前記複数の映像のそれぞれに含まれる、時刻毎の複数の画像における二以上の画像を合成することで、合成画像を生成し、
エンコード部が、前記合成画像をエンコードすることで、エンコードデータを生成し、
配信部が、前記エンコードデータを配信し、
前記合成部は、前記複数の画像を二以上のグループに分け、前記二以上のグループの各々に含まれる前記二以上の画像を合成すること
を特徴とする映像配信方法。 The acquisition unit acquires a plurality of images captured by the plurality of imaging devices,
a synthesis unit synthesizes two or more images from a plurality of images for each time included in each of the plurality of videos to generate a synthetic image;
an encoding unit generates encoded data by encoding the composite image;
A distribution unit distributes the encoded data ,
The synthesis unit divides the plurality of images into two or more groups, and synthesizes the two or more images included in each of the two or more groups.
A video distribution method comprising:
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/024599 WO2023276007A1 (en) | 2021-06-29 | 2021-06-29 | Video delivery device, user terminal, program, video delivery system, and video delivery method |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2023276007A1 JPWO2023276007A1 (en) | 2023-01-05 |
JPWO2023276007A5 JPWO2023276007A5 (en) | 2023-10-27 |
JP7462842B2 true JP7462842B2 (en) | 2024-04-05 |
Family
ID=84691620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023531207A Active JP7462842B2 (en) | 2021-06-29 | 2021-06-29 | VIDEO DELIVERY DEVICE, PROGRAM, VIDEO DELIVERY SYSTEM, AND VIDEO DELIVERY METHOD |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7462842B2 (en) |
WO (1) | WO2023276007A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014024475A1 (en) | 2012-08-10 | 2014-02-13 | パナソニック株式会社 | Video provision method, transmission device, and reception device |
WO2016174946A1 (en) | 2015-04-28 | 2016-11-03 | 株式会社日立国際電気 | Video surveillance system and video surveillance method |
WO2018088061A1 (en) | 2016-11-08 | 2018-05-17 | ソニー株式会社 | Image transfer device, image transfer method, program, and moving image generation system |
JP2018201197A (en) | 2017-05-16 | 2018-12-20 | アクシス アーベー | System comprising video camera and client device and method performed by the same |
-
2021
- 2021-06-29 JP JP2023531207A patent/JP7462842B2/en active Active
- 2021-06-29 WO PCT/JP2021/024599 patent/WO2023276007A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014024475A1 (en) | 2012-08-10 | 2014-02-13 | パナソニック株式会社 | Video provision method, transmission device, and reception device |
WO2016174946A1 (en) | 2015-04-28 | 2016-11-03 | 株式会社日立国際電気 | Video surveillance system and video surveillance method |
WO2018088061A1 (en) | 2016-11-08 | 2018-05-17 | ソニー株式会社 | Image transfer device, image transfer method, program, and moving image generation system |
JP2018201197A (en) | 2017-05-16 | 2018-12-20 | アクシス アーベー | System comprising video camera and client device and method performed by the same |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023276007A1 (en) | 2023-01-05 |
WO2023276007A1 (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7029562B2 (en) | Equipment and methods for providing and displaying content | |
US20210067759A1 (en) | Methods and apparatus for processing content based on viewing information and/or communicating content | |
CN115278195A (en) | Position zero time delay | |
JP4346548B2 (en) | Image data distribution system, image data transmitting apparatus and image data receiving apparatus | |
JP4479267B2 (en) | Surveillance camera video distribution system | |
CN109391825A (en) | A kind of video transcoding method and its device, server, readable storage medium storing program for executing | |
CN110139130A (en) | The method of streaming data, the method and apparatus for sending and receiving video data | |
WO2017138458A1 (en) | Video display system | |
CN109698952B (en) | Panoramic video image playing method and device, storage medium and electronic device | |
EP3316247B1 (en) | Information processing device, information processing method, and program | |
KR102551691B1 (en) | Information processing system, information processing method, and storage medium | |
WO2004004363A1 (en) | Image encoding device, image transmission device, and image pickup device | |
KR20180001551A (en) | Personalized shopping mall system using virtual camera | |
WO2017112520A1 (en) | Video display system | |
US20190379917A1 (en) | Image distribution method and image display method | |
CN113646752A (en) | VR live broadcast distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of VR original photograph data | |
KR20050056070A (en) | Apparatus and method for processing of 3d video using mpeg-4 object descriptor information | |
US20110234763A1 (en) | Apparatus and method for transmitting/receiving multi-view stereoscopic video | |
JP7462842B2 (en) | VIDEO DELIVERY DEVICE, PROGRAM, VIDEO DELIVERY SYSTEM, AND VIDEO DELIVERY METHOD | |
JP6934052B2 (en) | Display control device, display control method and program | |
WO2016167160A1 (en) | Data generation device and reproduction device | |
WO2018042963A1 (en) | Attention object-related information providing system and information providing method | |
CN111107293B (en) | 360-degree video recording method and device, electronic equipment and storage medium | |
JP2015008516A (en) | Stereoscopic video distribution system, stereoscopic video distribution method, stereoscopic video distribution apparatus, stereoscopic video viewing system, stereoscopic video viewing method, and stereoscopic video viewing apparatus | |
JP6747603B2 (en) | Monitoring support device and monitoring support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230731 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7462842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |