JP2017123503A - Video distribution apparatus, video distribution method and computer program - Google Patents

Video distribution apparatus, video distribution method and computer program Download PDF

Info

Publication number
JP2017123503A
JP2017123503A JP2016000237A JP2016000237A JP2017123503A JP 2017123503 A JP2017123503 A JP 2017123503A JP 2016000237 A JP2016000237 A JP 2016000237A JP 2016000237 A JP2016000237 A JP 2016000237A JP 2017123503 A JP2017123503 A JP 2017123503A
Authority
JP
Japan
Prior art keywords
video
divided
videos
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016000237A
Other languages
Japanese (ja)
Inventor
大介 越智
Daisuke Ochi
大介 越智
豊 國田
Yutaka Kunida
豊 國田
明男 亀田
Akio Kameda
明男 亀田
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016000237A priority Critical patent/JP2017123503A/en
Publication of JP2017123503A publication Critical patent/JP2017123503A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a video distribution apparatus in which the probability, that a high resolution high quality video is interrupted in the area that a user wants to view, is reduced when switching the video to be viewed.SOLUTION: A video distribution apparatus includes: a division unit 102 for generating multiple divided videos by dividing each video, captured at multiple different view points, into multiple areas; and a distribution unit 104 for distributing the divided video of a video at other view point, corresponding to a divided video selected by a user viewing the video at a certain view point out of multiple different view points, out of respective divided videos of the video divided into multiple areas, with higher picture quality than that of other divided videos of a video at other view point. The distribution unit 104 acquires the information of the divided video of a video at other view point, corresponding to a divided video selected by the user on the basis of a relation map associating respective divided videos in each video divided into multiple areas, and distributes the divided video, indicated by the information thus acquired, with a higher picture quality than that of other divided videos of a video at other view point.SELECTED DRAWING: Figure 1

Description

本発明は、複数地点で撮影された映像の配信技術に関する。   The present invention relates to a technique for distributing video shot at a plurality of points.

昨今、広く撮影された映像の一部分を視聴者が好きに選択して視聴する視聴形態が広がりを見せている。例えば、ある地点の全方位を一度に撮影可能なカメラを用いて撮影された全天球映像をユーザがブラウザや専用アプリケーション上で好きな方向や画角を選んで視聴するサービスや、複数台のカメラの映像を結合して作成したパノラマ映像を同様にユーザが好きな位置や画角を選んで視聴する形態がある(例えば、非特許文献1及び2参照)。このような視聴形態は、ユーザが自ら見たい位置や画角を選択できることからあたかもその場に立って見渡しているような感覚が得られ臨場感の高い映像視聴であるといえる。   Nowadays, viewing forms in which viewers select and view a part of video that has been widely photographed are expanding. For example, a service that allows the user to select and view the omnidirectional video shot using a camera that can shoot all directions at a point on a browser or a dedicated application on a browser or a dedicated application, Similarly, there is a form in which a panoramic image created by combining camera images is viewed by a user selecting a favorite position and angle of view (see, for example, Non-Patent Documents 1 and 2). Such a viewing mode can be said to be a video viewing with a high sense of presence because the user can select the position and angle of view he / she wants to see and feel as if he / she is standing on the spot.

一方で、このような高臨場な映像視聴体験を遠隔地で楽しむための試みとして視聴者が事前に映像をダウンロードすることなく楽しめる映像ストリーミングも研究開発が進んでいる(例えば、非特許文献3及び4参照)。広い範囲が撮影されたこれらの映像は、その特性上、複数台のカメラや通常よりも高精細なカメラを用いて製作されることが多く、一般的に流通している映像よりも大きな解像度であることが多い。しかし、この研究では、あらかじめ映像をタイル状領域に分割しておき、ユーザが注目しているタイル状領域のみを高解像度・高品質にストリーミングすることで限られたネットワーク帯域でも大きな解像度を持った映像を配信できるという利点がある。また、ユーザが注目しているタイル状領域以外にも撮影された範囲全体をカバーする映像を低解像度・低品質で同時配信しておくことでユーザが注目する部分を変更した際にも映像が欠ける(映像がない状態に陥る)ことがないという利点もある。   On the other hand, as an attempt to enjoy such a highly realistic video viewing experience at a remote place, research and development is also progressing on video streaming that viewers can enjoy without downloading video in advance (for example, Non-Patent Document 3 and 4). Due to their characteristics, these images shot over a wide range are often produced using multiple cameras and higher-definition cameras than usual, and have a resolution higher than that of commonly distributed images. There are often. However, in this research, the video was divided into tiled areas in advance, and only the tiled areas that the user was interested in were streamed at high resolution and high quality, so that even with limited network bandwidth, it had a large resolution. There is an advantage that video can be distributed. In addition, the video that covers the entire captured area other than the tiled area that the user is paying attention to is distributed simultaneously with low resolution and low quality, so that the video is also displayed when the part that the user pays attention to is changed. There is also an advantage that it is not lacking (falls in a state where there is no image).

“YouTube(登録商標)、360度パノラマ動画をサポート Androidアプリなら端末の動きで視野変更可能”、[online]、平成27年3月14日、[平成27年12月15日検索]、インターネット<URL:http://www.itmedia.co.jp/news/articles/1503/14/news016.html>“YouTube (registered trademark), 360-degree panorama video is supported. The Android app can change the field of view with the movement of the terminal”, [online], March 14, 2015, [Search December 15, 2015], Internet < URL: http://www.itmedia.co.jp/news/articles/1503/14/news016.html> Aditya Mavlankar and Bernd Girod,“Spatial-Random-Access-Enabled Video Coding for Interactive Virtual Pan/Tilt/Zoom Functionality”,IEEE Transactions on Circuits and Systems for Video Technology, vol. 21, no. 5, pp. 577-588, 2011.Aditya Mavlankar and Bernd Girod, “Spatial-Random-Access-Enabled Video Coding for Interactive Virtual Pan / Tilt / Zoom Functionality”, IEEE Transactions on Circuits and Systems for Video Technology, vol. 21, no. 5, pp. 577-588 , 2011. Daisuke Ochi, Shinnosuke Iwaki, Yutaka Kunita, Junichi Hirose, Kensaku Fujii, Akira Kojima, “HMD Viewing Spherical Video Streaming System”,ACM Multimedia 2014, 2014.Daisuke Ochi, Shinnosuke Iwaki, Yutaka Kunita, Junichi Hirose, Kensaku Fujii, Akira Kojima, “HMD Viewing Spherical Video Streaming System”, ACM Multimedia 2014, 2014. Hideaki Kimata, Daisuke Ochi, Akio Kameda, Hajime Noto, Katsuhiko Fukazawa, Akira Kojima, “Mobile and Multi-device Interactive Panorama Video Distribution System”,IEEE GCCE 2012, 2012.Hideaki Kimata, Daisuke Ochi, Akio Kameda, Hajime Noto, Katsuhiko Fukazawa, Akira Kojima, “Mobile and Multi-device Interactive Panorama Video Distribution System”, IEEE GCCE 2012, 2012.

しかしながら、上述の従来研究では、ユーザが次に視聴したい領域を選択し直した際、その領域の高解像度・高品質な映像が視聴クライアントに配信されるまで待たなければならない。さらに、この問題は、映像の撮影が複数地点で行われるような環境において、ユーザが自由に地点を切り替えて視聴できる場合においては特に顕著になる。例えば、同じ被写体を別の角度から撮影しているような場合、ユーザが別の地点で撮影された映像に切り替えた際、これまで高解像度・高品質に視聴していた被写体を引き続き同じ品質で見たいと願うことが多いはずである。しかし、従来技術では、引き続き高解像度・高品質に視聴できるとは限らない上、これまで見ていた被写体がシステムで識別できたとしても視聴する地点を切り替え後、該当する被写体が撮影されている領域の高解像度・高品質な映像が配信されるまで待たなければならない。そのため、ユーザが、視聴する映像を切り替えた場合に高解像度・高品質な映像が途切れてしまうという問題があった。   However, in the above-described conventional research, when the user reselects the area that the user wants to view next, the user must wait until the high-resolution and high-quality video in that area is distributed to the viewing client. Furthermore, this problem is particularly noticeable when the user can freely switch and watch the video in an environment where video shooting is performed at multiple points. For example, when shooting the same subject from a different angle, when the user switches to a video shot at a different point, the subject that has been viewed with high resolution and high quality will continue to have the same quality. You will often want to see it. However, with the conventional technology, it is not always possible to view with high resolution and high quality, and even if the subject that has been viewed so far can be identified by the system, the subject is photographed after switching the viewing point. You have to wait until the high resolution and high quality video of the area is delivered. For this reason, there is a problem that when the user switches the video to be viewed, the high-resolution and high-quality video is interrupted.

上記事情に鑑み、本発明は、視聴する映像を切り替えた場合においてユーザが視聴したい領域の高解像度・高品質な映像が途切れてしまう確率を低減することができる技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique capable of reducing a probability that a high-resolution and high-quality video in a region that a user wants to watch is interrupted when the video to be viewed is switched.

本発明の一態様は、複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割部と、複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信部と、を備え、前記配信部は、前記複数の領域に分割された各映像における各分割映像間の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信装置である。   One aspect of the present invention includes a dividing unit that generates a plurality of divided videos by dividing each video shot at a plurality of different viewpoints into a plurality of regions, and each divided video of the video divided into the plurality of regions. Among them, the divided video of the video of another viewpoint corresponding to the divided video selected by the user who views the video from one of the different viewpoints is higher in image quality than the other divided video of the video of the different viewpoint. And the distribution unit selected by the user selected based on a related map in which each divided video is associated with each other in each of the videos divided into the plurality of regions. A video distribution device that acquires information on a divided video of a video of another viewpoint that has a corresponding relationship with the video, and distributes the divided video indicated by the acquired information with higher image quality than other divided video of the video of the different viewpoint is there.

本発明の一態様は、上記の映像配信装置であって、前記配信部は、前記ユーザが過去に視聴していた映像に関する視聴ログに基づいて、前記映像において前記ユーザが視聴している分割映像に対して、前記映像と関連する別視点の映像において前記ユーザが視聴していた分割映像のうち視聴回数に基づく所定の順位までの複数の分割映像の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある前記別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する。   One aspect of the present invention is the video distribution device described above, wherein the distribution unit is a divided video that the user is viewing in the video based on a viewing log related to the video that the user has viewed in the past. On the other hand, a selection is made based on a related map in which a plurality of divided videos up to a predetermined order based on the number of times of viewing are divided among the divided videos viewed by the user in the video of another viewpoint related to the video. Information on the divided video of the video of the different viewpoint that is associated with the divided video selected by the user is obtained, and the divided video indicated by the acquired information is more than the other divided video of the video of the different viewpoint Deliver in high quality.

本発明の一態様は、上記の映像配信装置であって、複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割部と、複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信部と、を備え、前記配信部は、前記ユーザが視聴している映像における分割映像に基づいて、別視点で撮影されている映像の複数の分割映像のうち前記分割映像との対応点が所定の閾値以上の分割映像を選択し、選択した所定数分の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する。   One aspect of the present invention is the video distribution device described above, in which each video captured from a plurality of different viewpoints is divided into a plurality of regions, a division unit that generates a plurality of divided videos, and a plurality of regions Of the divided videos of the divided videos, the divided video of the video of another viewpoint corresponding to the divided video selected by the user who views the video at a certain viewpoint among the plurality of different viewpoints is displayed. A distribution unit that distributes the image with higher image quality than other divided videos, and the distribution unit includes a plurality of videos captured from different viewpoints based on the divided videos in the video that the user is viewing. Among the divided videos, a divided video whose corresponding point with the divided video is equal to or greater than a predetermined threshold is selected, and the selected number of divided videos are distributed with higher image quality than the other divided videos of the video of the different viewpoint.

本発明の一態様は、複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割ステップと、複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信ステップと、を有し、前記配信ステップにおいて、前記複数の領域に分割された各映像における各分割映像間の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信方法である。   One aspect of the present invention is a division step of generating a plurality of divided videos by dividing each video shot at a plurality of different viewpoints into a plurality of regions, and each divided video of the video divided into the plurality of regions. Among them, the divided video of the video of another viewpoint corresponding to the divided video selected by the user who views the video from one of the different viewpoints is higher in image quality than the other divided video of the video of the different viewpoint. A distribution step of distributing to the plurality of regions, and in the distribution step, selected by the user selected based on a related map in which each divided video in each video divided into the plurality of areas is associated Acquires divided video information of a video of another viewpoint that has a corresponding relationship with the divided video, and distributes the divided video indicated by the acquired information with higher image quality than other divided videos of the video of the different viewpoint It is a video delivery method.

複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割ステップと、複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信ステップと、を有し、前記配信ステップにおいて、前記ユーザが視聴している映像における分割映像に基づいて、別視点で撮影されている映像の複数の分割映像のうち前記分割映像との対応点が所定の閾値以上の分割映像を選択し、選択した所定数分の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信方法である。   A division step of generating a plurality of divided videos by dividing each video shot at a plurality of different viewpoints into a plurality of areas, and the plurality of different viewpoints among the divided videos of the videos divided into the plurality of areas A distribution step of distributing the divided video of the video of another viewpoint corresponding to the divided video selected by the user who views the video at a certain viewpoint from the other video with higher image quality than the other divided video of the video of the different viewpoint; And, in the distribution step, a corresponding point with the divided video among a plurality of divided videos of the video shot from a different viewpoint based on the divided video in the video viewed by the user is a predetermined threshold value. This is a video distribution method in which the above-mentioned divided video is selected, and a predetermined number of selected divided videos are distributed with higher image quality than other divided videos of the video of the different viewpoint.

本発明の一態様は、上記の映像配信装置としてコンピュータを実行させるためのコンピュータプログラムである。   One aspect of the present invention is a computer program for causing a computer to execute as the video distribution apparatus.

本発明により、視聴する映像を切り替えた場合においてユーザが視聴したい領域の高解像度・高品質な映像が途切れてしまう確率を低減することが可能となる。   According to the present invention, it is possible to reduce the probability that a high-resolution and high-quality video in an area that a user wants to watch is interrupted when the video to be viewed is switched.

第1の実施形態における映像配信システム100のシステム構成を示す図である。It is a figure which shows the system configuration | structure of the video delivery system 100 in 1st Embodiment. 従来の映像配信の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of the conventional video delivery. 従来の映像出力の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of the conventional video output. 複数の異なる撮影地点(例えば、2つの撮影地点)で撮影された映像に基づく処理を説明するための図である。It is a figure for demonstrating the process based on the image | video image | photographed in several different imaging | photography spots (for example, two imaging | photography spots). 関連マップの作成方法として手動で行う場合の一例を示す図である。It is a figure which shows an example in the case of performing manually as a creation method of a related map. 関連マップの具体例を示す図である。It is a figure which shows the specific example of a related map. 第1の実施形態における映像配信装置10の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the video delivery apparatus 10 in 1st Embodiment. 視聴クライアント20の処理の流れを示すフローチャートである。4 is a flowchart illustrating a processing flow of the viewing client 20. 画像特徴点の対応付けの一例を示す図である。It is a figure which shows an example of matching of an image feature point.

以下、本発明の一実施形態を、図面を参照しながら説明する。
(第1の実施形態)
図1は、第1の実施形態における映像配信システム100のシステム構成を示す図である。映像配信システム100は、映像配信装置10及び視聴クライアント20を備える。映像配信装置10及び視聴クライアント20は、ネットワークを介して通信可能なように接続される。なお、ネットワークは、どのように構成されたネットワークであってもよい。例えば、ネットワークは、インターネットを用いて構成されてもよいし、LAN(Local Area Network)を用いて構成されてもよいし、その他のネットワークを用いて構成されてもよい。また、映像配信装置10及び視聴クライアント20は、有線通信であってもよいし、無線通信であってもよい。図1では、映像配信システム100に視聴クライアント20が1台備えられているが、映像配信システム100には複数の視聴クライアント20が備えられてもよい。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating a system configuration of a video distribution system 100 according to the first embodiment. The video distribution system 100 includes a video distribution device 10 and a viewing client 20. The video distribution device 10 and the viewing client 20 are connected so as to be able to communicate via a network. The network may be a network configured in any way. For example, the network may be configured using the Internet, may be configured using a LAN (Local Area Network), or may be configured using other networks. The video distribution device 10 and the viewing client 20 may be wired communication or wireless communication. In FIG. 1, the video distribution system 100 includes one viewing client 20, but the video distribution system 100 may include a plurality of viewing clients 20.

映像配信装置10は、複数の地点に設置された各撮影装置によって撮影された各映像を入力する。ここで、入力される映像は、複数台の撮影装置をつなぎ合わせたパノラマ映像であってもよいし、全天球カメラによって撮影された全天球映像であってもよいし、高解像度に撮影可能なカメラ(例えば、4Kカメラ、8Kカメラ等)で撮影された映像であってもよいし、それらのカメラに魚眼レンズ等を付けて広角に撮影された映像等であってもよい。映像配信装置10は、入力された映像の中から視聴クライアント20のユーザが所望する映像を視聴クライアント20に配信する。例えば、映像配信装置10は、特定の領域が高画質・高解像度であり、その他の領域が低画質・低解像度の映像を配信する。ここで、特定の領域とは、ユーザが指定した映像中の領域を表す。
視聴クライアント20は、映像配信装置10から配信された映像を入力する。視聴クライアント20は、入力された映像をユーザに対して提示する。視聴クライアント20は、例えばスマートホン、タブレット端末、パーソナルコンピュータ、ヘッドマウントディスプレイなどである。
The video distribution device 10 inputs each video imaged by each imaging device installed at a plurality of points. Here, the input image may be a panoramic image obtained by connecting a plurality of imaging devices, an omnidirectional image captured by an omnidirectional camera, or a high-resolution image. It may be an image taken with a possible camera (for example, 4K camera, 8K camera, etc.), or an image taken at a wide angle with a fisheye lens attached to these cameras. The video distribution device 10 distributes the video desired by the user of the viewing client 20 to the viewing client 20 from the input video. For example, the video distribution apparatus 10 distributes video in which a specific area has high image quality and high resolution, and other areas have low image quality and low resolution. Here, the specific area represents an area in the video specified by the user.
The viewing client 20 inputs the video distributed from the video distribution device 10. The viewing client 20 presents the input video to the user. The viewing client 20 is, for example, a smart phone, a tablet terminal, a personal computer, a head mounted display, or the like.

次に、映像配信装置10及び視聴クライアント20の具体的な構成について説明する。まず、映像配信装置10の機能構成を説明する。映像配信装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、映像配信プログラムを実行する。映像配信プログラムの実行によって、映像配信装置10は、映像記憶部101、分割部102、圧縮部103、配信部104、関連マップ作成部105を備える装置として機能する。なお、映像配信装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、映像配信プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、映像配信プログラムは、電気通信回線を介して送受信されてもよい。   Next, specific configurations of the video distribution device 10 and the viewing client 20 will be described. First, the functional configuration of the video distribution device 10 will be described. The video distribution device 10 includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a video distribution program. By executing the video distribution program, the video distribution device 10 functions as a device including a video storage unit 101, a division unit 102, a compression unit 103, a distribution unit 104, and a related map creation unit 105. All or some of the functions of the video distribution apparatus 10 may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). . The video distribution program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the video distribution program may be transmitted / received via a telecommunication line.

映像記憶部101は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。映像記憶部101は、複数の地点に設置された各撮影装置によって撮影された各映像と、映像を識別するための識別情報と、タイムスタンプとを対応付けて記憶している。
分割部102は、映像記憶部101に記憶されている異なる地点で撮影された複数の映像を入力する。分割部102は、入力された各映像をそれぞれ複数の領域に分割する。具体的には、分割部102は、入力された各映像をそれぞれ、a(a≧1)×b(b≧1)(ただし、aかbのいずれかは2以上)のタイル状の領域に分割する。分割部102は、各映像を同じサイズのタイル状の領域に分割する。各領域で重なりがあっても構わないが、本説明では簡単化のため重なりはないものとする。以下、分割された映像を分割映像と記載する。また、分割部102は、入力された各映像の解像度をオリジナルのものよりも低い解像度に変換する。以下、オリジナルのものよりも低い解像度に変換された映像を低解像度映像と記載する。分割部102は、複数の映像の各分割映像と、各低解像度映像とを圧縮部103に出力する。
The video storage unit 101 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The video storage unit 101 stores each video captured by each imaging device installed at a plurality of points, identification information for identifying the video, and a time stamp in association with each other.
The dividing unit 102 inputs a plurality of videos taken at different points stored in the video storage unit 101. The dividing unit 102 divides each input video into a plurality of areas. Specifically, the dividing unit 102 divides each input video into tiled areas of a (a ≧ 1) × b (b ≧ 1) (where either a or b is 2 or more). To divide. The dividing unit 102 divides each video into tile-shaped areas having the same size. Although there may be overlap in each region, in this description, it is assumed that there is no overlap for simplification. Hereinafter, the divided video is referred to as a divided video. The dividing unit 102 converts the resolution of each input video to a lower resolution than the original one. Hereinafter, a video converted to a resolution lower than that of the original is referred to as a low resolution video. The dividing unit 102 outputs each divided video of the plurality of videos and each low-resolution video to the compression unit 103.

圧縮部103は、映像記憶部101から出力された複数の映像の各分割映像と、複数の低解像度映像とを入力する。圧縮部103は、入力された複数の映像の各分割映像及び各低解像度映像をそれぞれ圧縮する。圧縮に用いられるエンコーダ及びエンコード方式は既存の技術が用いられてもよい。例えば、圧縮に一般的に使われるH.264やHEVC(High Efficiency Video Coding)等を用いることができる。圧縮部103は、圧縮した複数の映像の各分割映像と、各低解像度映像とを配信部104に出力する。以下、圧縮した分割映像及び低解像度映像を圧縮後分割映像及び圧縮後低解像度映像と記載する。   The compression unit 103 inputs the divided videos of the plurality of videos output from the video storage unit 101 and the plurality of low resolution videos. The compression unit 103 compresses each divided video and each low-resolution video of a plurality of inputted videos. An existing technique may be used as an encoder and encoding method used for compression. For example, H.264 or HEVC (High Efficiency Video Coding) generally used for compression can be used. The compression unit 103 outputs each divided video of the plurality of compressed videos and each low-resolution video to the distribution unit 104. Hereinafter, the compressed divided video and low-resolution video are referred to as post-compression divided video and compressed low-resolution video.

配信部104は、圧縮部103から出力された複数の映像の各圧縮後分割映像と、複数の圧縮後低解像度映像とを入力する。配信部104は、入力された複数の映像の各圧縮後分割映像を用いて、関連マップ作成部105に対して関連マップの作成を要求する。この際、配信部104は、関連マップの作成要求と、関連マップの作成に利用される複数の映像の各圧縮後分割映像とを関連マップ作成部105に出力する。関連マップとは、ある時刻において異なる地点で撮影された各映像の各圧縮後分割映像の中で同一、又は、関連する被写体が映っている圧縮後分割映像の組を示す情報が記録されたマップである。関連マップには圧縮後分割映像の組を示す情報として、映像が撮影された時刻に対応付けて、組となった各映像の識別情報と、各圧縮後分割映像の識別情報とが記録される。   The distribution unit 104 inputs the respective compressed divided videos of the plurality of videos output from the compression unit 103 and the plurality of post-compression low-resolution videos. The distribution unit 104 requests the related map creation unit 105 to create a related map using each compressed divided video of the plurality of input videos. At this time, the distribution unit 104 outputs a request for creating a related map and each compressed divided video of a plurality of videos used for creating the related map to the related map creating unit 105. The related map is a map in which information indicating a set of divided post-compression video in which the same or related subject is shown in each post-compression divided video of each video taken at different points at a certain time is recorded. It is. In the related map, as information indicating a set of compressed divided videos, the identification information of each video and the identification information of each compressed divided video are recorded in association with the time when the video was shot. .

また、配信部104は、関連マップの作成要求に応じて関連マップ作成部105によって作成された関連マップを入力する。配信部104は、複数の映像の各圧縮後分割映像と、複数の圧縮後低解像度映像と、関連マップとを保持する。また、配信部104は、ユーザの視聴映像として視聴クライアント20から要求された映像(以下、「ユーザ視聴映像」という。)の圧縮後分割映像と、圧縮後低解像度映像と、関連マップとを視聴クライアント20に配信する。また、配信部104は、別ストリームとして視聴クライアント20から要求された映像(以下、「別ストリーム映像」という。)の圧縮後分割映像と、圧縮後低解像度映像とを視聴クライアント20に配信する。   In addition, the distribution unit 104 inputs the related map created by the related map creating unit 105 in response to a related map creation request. The distribution unit 104 holds each compressed divided video of a plurality of videos, a plurality of compressed low-resolution videos, and a related map. In addition, the distribution unit 104 views the compressed divided video, the compressed low-resolution video, and the related map of the video requested by the viewing client 20 as the user viewing video (hereinafter referred to as “user viewing video”). Delivered to the client 20. Further, the distribution unit 104 distributes the compressed divided video of the video requested by the viewing client 20 as a separate stream (hereinafter referred to as “another stream video”) and the compressed low-resolution video to the viewing client 20.

また、配信部104内に保持される映像の保存形式はどのような保存形式であってもよい。例えば、映像を構成する全てのフレーム画像が1枚ずつ保持されていてもよいし、いくつかのあらかじめ決められたフレーム毎に映像ファイル化したものが保持されていてもよい。また、圧縮後分割映像毎に映像ファイル化したものが保持されていてもよい。さらには、昨今一般的に使われるようになったHLS(HTTP Live Streaming)やMPEG−DASHのような形式で保持されていてもよい。   In addition, the storage format of the video held in the distribution unit 104 may be any storage format. For example, all the frame images constituting the video may be held one by one, or a video file for each of several predetermined frames may be held. In addition, a video file for each divided video after compression may be held. Furthermore, it may be held in a format such as HLS (HTTP Live Streaming) or MPEG-DASH, which has been generally used recently.

関連マップ作成部105は、配信部104から出力された関連マップの作成要求と、関連マップの作成に利用される複数の映像の各圧縮後分割映像とを入力する。関連マップ作成部105は、入力された複数の映像の各圧縮後分割映像に基づいて関連マップを作成する。具体的には、関連マップ作成部105は、入力された複数の映像の各圧縮後分割映像同士を比較して関連する圧縮後分割映像の組を選択し、選択した組を示す関連マップを作成する。関連マップ作成部105は、作成した関連マップを配信部104に出力する。なお、第1の実施形態では、関連マップ作成部105は、映像配信装置10を操作するユーザによって手動で選択された組に基づいて関連マップを作成する。具体的な作成方法については後述する。   The related map creation unit 105 inputs a request for creating a related map output from the distribution unit 104 and each compressed divided video of a plurality of videos used for creating the related map. The related map creating unit 105 creates a related map based on each compressed divided video of a plurality of inputted videos. Specifically, the related map creation unit 105 compares each compressed divided video of a plurality of input videos, selects a related compressed divided video set, and creates a related map indicating the selected set To do. The related map creation unit 105 outputs the created related map to the distribution unit 104. In the first embodiment, the related map creation unit 105 creates a related map based on a group manually selected by a user operating the video distribution device 10. A specific creation method will be described later.

次に、視聴クライアント20の機能構成を説明する。視聴クライアント20は、バスで接続されたCPUやメモリや補助記憶装置などを備え、映像視聴プログラムを実行する。映像視聴プログラムの実行によって、視聴クライアント20は、要求部201、指定領域映像受信部202、別ストリーム受信部203、撮影範囲カバーストリーム受信部204、関連マップ受信部205、受信映像記憶部206、照合部207、提示部208を備える装置として機能する。なお、視聴クライアント20の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されてもよい。また、映像視聴プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、映像視聴プログラムは、電気通信回線を介して送受信されてもよい。   Next, the functional configuration of the viewing client 20 will be described. The viewing client 20 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a video viewing program. By executing the video viewing program, the viewing client 20 receives the request unit 201, the designated area video receiving unit 202, the separate stream receiving unit 203, the shooting range cover stream receiving unit 204, the related map receiving unit 205, the received video storage unit 206, the verification It functions as an apparatus including the unit 207 and the presentation unit 208. All or some of the functions of the viewing client 20 may be realized using hardware such as an ASIC, PLD, or FPGA. The video viewing program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. Further, the video viewing program may be transmitted / received via a telecommunication line.

要求部201は、ユーザによって映像の中から見たい特定の領域を選択する入力操作がなされると、ユーザ視聴映像を映像配信装置10に要求する。特定の領域を選択する入力操作は、例えばユーザがスマートホンを傾けたり動かしたりするジャイロ、加速度センサの値を変更する操作、フリックやスワイプ操作等である。また、要求部201は、別ストリーム映像を映像配信装置10に要求する。なお、ユーザが入力操作を行う入力機構としては、マウスやキーボード、タッチパネルやジャイロ/加速度センサ等が挙げられる。
指定領域映像受信部202は、映像配信装置10から配信された、ユーザが選択した特定の領域に該当するユーザ視聴映像の圧縮後分割映像を受信する。指定領域映像受信部202は、受信したユーザ視聴映像の圧縮後分割映像を受信映像記憶部206に出力する。
When the user performs an input operation for selecting a specific area to be viewed from the video, the request unit 201 requests the video distribution device 10 for the user viewing video. The input operation for selecting a specific area is, for example, a gyro that the user tilts or moves the smart phone, an operation that changes the value of the acceleration sensor, a flick or swipe operation, and the like. Further, the request unit 201 requests the video delivery apparatus 10 for another stream video. Examples of the input mechanism for the user to perform an input operation include a mouse, a keyboard, a touch panel, and a gyro / acceleration sensor.
The designated area video receiving unit 202 receives the compressed divided video of the user viewing video corresponding to the specific area selected by the user distributed from the video distribution device 10. The designated area video reception unit 202 outputs the compressed divided video of the received user viewing video to the received video storage unit 206.

別ストリーム受信部203は、映像配信装置10から配信された別ストリーム映像の圧縮後分割映像と、圧縮後低解像度映像とを受信する。別ストリーム受信部203は、受信した別ストリーム映像の圧縮後分割映像と、圧縮後低解像度映像とを受信映像記憶部206に出力する。
撮影範囲カバーストリーム受信部204は、映像配信装置10から配信されたユーザ視聴映像の撮影範囲全体をカバーする圧縮後低解像度映像を受信する。撮影範囲カバーストリーム受信部204は、受信したユーザ視聴映像の圧縮後低解像度映像を受信映像記憶部206に出力する。
The separate stream receiving unit 203 receives the compressed divided video of the separate stream video distributed from the video distribution device 10 and the compressed low-resolution video. The separate stream receiving unit 203 outputs the compressed divided video of the received separate stream video and the compressed low-resolution video to the received video storage unit 206.
The shooting range cover stream receiving unit 204 receives a compressed low-resolution video that covers the entire shooting range of the user viewing video distributed from the video distribution device 10. The shooting range cover stream receiving unit 204 outputs a compressed low-resolution video of the received user viewing video to the received video storage unit 206.

関連マップ受信部205は、映像配信装置10から配信された関連マップを受信する。関連マップ受信部205は、受信した関連マップを保持する。また、関連マップ受信部205は、要求部201からの要求に従って関連マップを参照し、関連マップに記載された情報を応答する。
受信映像記憶部206は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。受信映像記憶部206は、指定領域映像受信部202から出力されたユーザ視聴映像の圧縮後分割映像と、別ストリーム受信部203から出力された別ストリーム映像の圧縮後分割映像及び圧縮後低解像度映像と、撮影範囲カバーストリーム受信部204から出力されたユーザ視聴映像の圧縮後低解像度映像とを記憶する。
The related map receiving unit 205 receives the related map distributed from the video distribution device 10. The related map receiving unit 205 holds the received related map. Further, the related map receiving unit 205 refers to the related map in accordance with a request from the request unit 201 and responds with information described in the related map.
The received video storage unit 206 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The received video storage unit 206 includes a compressed divided video of the user viewing video output from the designated area video receiving unit 202, a compressed divided video and a compressed low resolution video of the different stream video output from the separate stream receiving unit 203. And the compressed low-resolution video of the user viewing video output from the shooting range cover stream receiving unit 204 is stored.

照合部207は、受信映像記憶部206に記憶されている映像を入力する。照合部207は、入力されたユーザ視聴映像のユーザが指定した圧縮後分割映像と、ユーザ視聴映像の圧縮後低解像度映像とを提示部208に出力する。
提示部208は、照合部207から出力された圧縮後分割映像と、ユーザ視聴映像の圧縮後低解像度映像とに基づいて映像を提示する。具体的には、まず提示部208は、圧縮後分割映像及びユーザ視聴映像の圧縮後低解像度映像の両方をデコードする。これにより、圧縮後分割映像及び圧縮後低解像度映像は復号される。なお、デコードについてもエンコードと同様に既存の技術が用いられてもよい。次に、提示部208は、復号された低解像度映像上の分割映像が対応する位置に対して、分割映像を重畳することによって、ユーザに提示する映像を生成する。そして、提示部208は、生成した映像を表示することによってユーザに提示する。なお、上記では、音声については特に記載していないが、一般的に映像にMux(Multiplexer)される音声形式(ステレオ、5.1chでAAC(Advanced Audio Coding)等で圧縮されたもの等)が映像とともに配信され、視聴クライアント20側に別途用意された音声デコーダで視聴が可能なものとする。
The collation unit 207 inputs the video stored in the received video storage unit 206. The collation unit 207 outputs the compressed divided video specified by the user of the input user viewing video and the compressed low-resolution video of the user viewing video to the presentation unit 208.
The presentation unit 208 presents a video based on the compressed divided video output from the matching unit 207 and the low-resolution video after compression of the user viewing video. Specifically, the presentation unit 208 first decodes both the compressed divided video and the compressed low-resolution video of the user viewing video. Thereby, the compressed divided video and the compressed low-resolution video are decoded. It should be noted that existing techniques may be used for decoding as well as encoding. Next, the presentation unit 208 generates a video to be presented to the user by superimposing the divided video on a position corresponding to the divided video on the decoded low-resolution video. Then, the presentation unit 208 presents the generated video to the user by displaying it. In the above description, audio is not particularly described, but generally audio formats that are muxed (multiplexed) into video (stereo, 5.1ch compressed with AAC (Advanced Audio Coding) or the like) are used. It is distributed along with the video and can be viewed with an audio decoder separately prepared on the viewing client 20 side.

次に、本発明で基本となる映像の配信フローについて、図2及び図3を用いて具体的に説明する。なお、図2及び図3では、従来の撮影地点が一つであった場合の映像配信及び映像出力の処理の流れを示す。また、ここでは、説明の都合上、映像配信装置10に入力されて記憶されている映像は、全天球カメラで取得された全天球映像(正距円筒図法として矩形映像となったもの)であるとする。   Next, the basic video distribution flow in the present invention will be described in detail with reference to FIGS. 2 and 3 show the flow of processing for video distribution and video output when there is only one conventional shooting point. Also, here, for convenience of explanation, the video input and stored in the video distribution device 10 is a omnidirectional video acquired by an omnidirectional camera (a rectangular video as an equirectangular projection). Suppose that

まず、図2を用いて従来の映像配信の処理の流れについて説明する。
分割部102は、映像記憶部101に記憶されている映像を入力する(ステップS101)。例えば、分割部102は、映像記憶部101に記憶されている映像の各フレーム30−1〜30−t(tは2以上の整数)を入力する。次に、分割部102は、入力された映像の各フレームを分割する。ここでは、一例として、分割部102は、入力された映像の各フレーム30−1〜30−tを、6つの分割映像31−1〜31−6に分割する。また、分割部102は、各フレーム30−1〜30−tをオリジナルの解像度よりも低い解像度に変換することによって低解像度映像を生成する(ステップS102)。分割部102は、各フレームの分割映像31−1〜31−6と、各フレームの低解像度映像32とを圧縮部103に出力する。
First, the flow of conventional video distribution processing will be described with reference to FIG.
The dividing unit 102 inputs the video stored in the video storage unit 101 (step S101). For example, the dividing unit 102 inputs each frame 30-1 to 30-t (t is an integer of 2 or more) of the video stored in the video storage unit 101. Next, the dividing unit 102 divides each frame of the input video. Here, as an example, the dividing unit 102 divides each frame 30-1 to 30-t of the input video into six divided videos 31-1 to 31-6. Further, the dividing unit 102 generates a low-resolution video by converting each of the frames 30-1 to 30-t to a resolution lower than the original resolution (Step S102). The dividing unit 102 outputs the divided videos 31-1 to 31-6 for each frame and the low-resolution video 32 for each frame to the compression unit 103.

なお、ここでは分割映像及び低解像度映像のサイズは指定しないが、一般的なエンコーダ、視聴クライアント20搭載のデコーダでエンコード及びデコードが可能な映像サイズ(例えば、分割映像は一般的なVGA(640×468)、WVGA(800×480)、XGA(1024×768)、HDTV(1280×720)、フルHD(1920×1080)、低解像度映像はオリジナルの映像の面積比1/4や1/3に変換したものなど)とする。分割映像毎、低解像度映像毎に映像圧縮のIピクチャを少なくとも1枚含むピクチャの集合であるGOP(Group of Pictures)単位(通常は15フレームで例えば分割映像であればfn(1)〜fn(15)、低解像度映像であればf‘n(1)〜f’n(15))毎に映像ファイルとして保存されたもの(例えばそれぞれFn(1),F‘n(1))とする。   Note that the sizes of the divided video and the low-resolution video are not specified here, but the video size that can be encoded and decoded by a general encoder and a decoder installed in the viewing client 20 (for example, the divided video is a general VGA (640 × 468), WVGA (800 x 480), XGA (1024 x 768), HDTV (1280 x 720), full HD (1920 x 1080), and low resolution video at an original video area ratio of 1/4 or 1/3. Converted). A GOP (Group of Pictures) unit that is a set of pictures including at least one I-picture of video compression for each divided video and each low-resolution video (usually fn (1) to fn (15 for a divided video, for example). 15) In the case of a low-resolution video, it is assumed that the video files are saved for each f′n (1) to f′n (15)) (for example, Fn (1) and F′n (1), respectively).

圧縮部103は、分割部102から出力された各フレームの分割映像31−1〜31−6と、各フレームの低解像度映像32とを入力する。圧縮部103は、入力された各フレームの分割映像31−1〜31−6と、各フレームの低解像度映像32とを圧縮する(ステップS103)。ここでは、15フレームをまとめて圧縮して映像ファイル化したとする。これにより、圧縮部103は、圧縮後分割映像及び圧縮後低解像度映像を生成する。圧縮部103は、生成した圧縮後分割映像及び圧縮後低解像度映像を配信部104に出力する。配信部104は、圧縮部103から出力された圧縮後分割映像及び圧縮後低解像度映像を入力する。配信部104は、入力された圧縮後分割映像及び圧縮後低解像度映像に基づいて、視聴クライアント20のユーザからのように応じた映像を視聴クライアント20に配信する(ステップS104)。   The compression unit 103 inputs the divided videos 31-1 to 31-6 of each frame output from the dividing unit 102 and the low-resolution video 32 of each frame. The compression unit 103 compresses the input divided videos 31-1 to 31-6 of each frame and the low-resolution video 32 of each frame (step S103). Here, it is assumed that 15 frames are collectively compressed into a video file. Thereby, the compression unit 103 generates a post-compression divided video and a post-compression low-resolution video. The compression unit 103 outputs the generated post-compression divided video and post-compression low-resolution video to the distribution unit 104. The distribution unit 104 inputs the compressed divided video and the compressed low-resolution video output from the compression unit 103. The distribution unit 104 distributes a video corresponding to the user of the viewing client 20 to the viewing client 20 based on the input compressed divided video and the compressed low-resolution video (step S104).

次に、図3を用いて従来の映像出力の処理の流れについて説明する。図3の処理では、視聴クライアント20のユーザは、ある映像を視聴しているとする。
要求部201は、ユーザがある時刻Tにおける映像の中から選択した特定の領域に対応する映像を映像配信装置10に要求する(ステップS201)。その後、指定領域映像受信部202は、ステップS201の処理で時刻Tにおける映像の中からユーザが選択した領特定の領域に対応する圧縮後分割映像33を映像配信装置10から受信する(ステップS202)。指定領域映像受信部202は、受信した圧縮後分割映像33を受信映像記憶部206に出力する。また、撮影範囲カバーストリーム受信部204は、ある時刻Tの圧縮後分割映像33に対応する圧縮後低解像度映像34を受信する(ステップS203)。撮影範囲カバーストリーム受信部204は、受信した圧縮後低解像度映像34を受信映像記憶部206に出力する。照合部207は、受信映像記憶部206に同じタイムスタンプの映像(圧縮後分割映像33と圧縮後低解像度映像34)が揃ったか否かを照合する(ステップS204)。同じタイムスタンプの映像が揃った場合、照合部207はタイムスタンプが同じ圧縮後分割映像33と圧縮後低解像度映像34とを提示部208に出力する。一方、同じタイムスタンプの映像が揃っていない場合、照合部207は同じタイムスタンプの映像が揃うまで待機する。提示部208は、照合部207から出力された圧縮後分割映像33と圧縮後低解像度映像34とを入力する。提示部208は、入力された圧縮後分割映像33と圧縮後低解像度映像34とをデコードすることによって復号する。提示部208は、復号された低解像度映像35上の対応する箇所に分割映像36を重畳することによって映像を生成する。提示部208は、生成した映像をユーザに提示する。図3において、分割映像36(太枠内)はユーザが選択した領域であり、高解像度の映像である。一方、分割映像36の外側はユーザが選択していない領域であり、低解像度の映像である。
Next, the flow of conventional video output processing will be described with reference to FIG. In the process of FIG. 3, it is assumed that the user of the viewing client 20 is viewing a certain video.
The request unit 201 requests the video distribution apparatus 10 for a video corresponding to a specific area selected from videos at a certain time T (step S201). Thereafter, the designated area video receiving unit 202 receives the compressed divided video 33 corresponding to the specific area selected by the user from the video at time T in the process of step S201 from the video distribution apparatus 10 (step S202). . The designated area video receiving unit 202 outputs the received post-compression divided video 33 to the received video storage unit 206. Further, the shooting range cover stream receiving unit 204 receives the compressed low-resolution video 34 corresponding to the compressed divided video 33 at a certain time T (step S203). The shooting range cover stream receiving unit 204 outputs the received compressed low-resolution video 34 to the received video storage unit 206. The collation unit 207 collates whether or not the received video storage unit 206 has the same time-stamped video (compressed divided video 33 and compressed low-resolution video 34) (step S204). When videos having the same time stamp are prepared, the collation unit 207 outputs the compressed divided video 33 and the compressed low-resolution video 34 having the same time stamp to the presentation unit 208. On the other hand, when videos with the same time stamp are not prepared, the collation unit 207 waits until videos with the same time stamp are prepared. The presentation unit 208 inputs the post-compression divided video 33 and the post-compression low-resolution video 34 output from the collation unit 207. The presentation unit 208 decodes the input post-compression divided video 33 and post-compression low-resolution video 34 by decoding them. The presentation unit 208 generates a video by superimposing the divided video 36 on a corresponding location on the decoded low-resolution video 35. The presentation unit 208 presents the generated video to the user. In FIG. 3, a divided video 36 (in a thick frame) is an area selected by the user and is a high-resolution video. On the other hand, the outside of the divided image 36 is an area not selected by the user, and is a low-resolution image.

次に、図4を用いて、複数の異なる撮影地点(例えば、2つの撮影地点)で撮影された映像に基づく処理について説明する。
図4に示されるように、撮影装置37−1及び37−2はそれぞれ、複数の異なる撮影地点に設置される。ここで、撮影装置37−1及び37−2は、全天球カメラであるとする。撮影装置37−1は、撮影した映像38−1を映像配信装置10に出力する。また、撮影装置37−2は、撮影した映像38−2を映像配信装置10に出力する。これにより、映像配信装置10の映像記憶部101には、2地点分の映像が記憶される。その上で、複数の異なる撮影地点で撮影された複数の映像を用いる場合には、ユーザが撮影装置37−1で撮影された映像38−1の被写体39−1が映った分割映像40を視聴しており、その後、ユーザによる何らかの別の手段(例えば、特定のキーボードのキーを押下する等、ここでは特に限定しない)によって映像が撮影装置37−2で撮影された映像38−2に切り替わるものとする。
Next, a process based on videos shot at a plurality of different shooting points (for example, two shooting points) will be described with reference to FIG.
As shown in FIG. 4, the photographing devices 37-1 and 37-2 are installed at a plurality of different photographing points. Here, it is assumed that the imaging devices 37-1 and 37-2 are omnidirectional cameras. The imaging device 37-1 outputs the captured video 38-1 to the video distribution device 10. In addition, the imaging device 37-2 outputs the captured video 38-2 to the video distribution device 10. Thereby, the video for the two locations is stored in the video storage unit 101 of the video distribution device 10. In addition, when using a plurality of videos shot at a plurality of different shooting points, the user views the divided video 40 in which the subject 39-1 of the video 38-1 shot by the shooting device 37-1 is shown. After that, the video is switched to the video 38-2 captured by the imaging device 37-2 by some other means by the user (for example, a particular keyboard key is not particularly limited here). And

撮影装置37−1と撮影装置37−2の映像が単純に1対1で同じ位置の分割領域の関連付けがなされていた場合には、ユーザが被写体39−1を見ていたにもかかわらず、映像が切り替わった後、撮影装置37−1の分割映像40に対応する撮影装置37−2の分割映像41には被写体が映っていない。また、従来と同じ方式によりこの2地点の映像を視聴クライアント20に配信した場合、ユーザが視点切り替え(例えば、撮影装置37−1の映像38−1から撮影装置37−2の映像38−2に切り替え)を行った直後に切り替え後の地点の視聴領域に関する部分映像の要求と、低解像度映像との要求を映像配信装置10に対して行う。そのため、ユーザは、切り替え後すぐに新たな地点の映像(例えば、撮影装置37−2の映像38−2)を視聴することができない。これは、これまで撮影装置37−1の地点の高解像度・高品質な分割映像40を視聴していたユーザにとっては新たな地点の映像が受信されるまで一時的に映像が途切れることを意味しており、体感品質の低下をもたらす結果となる。   When the video images of the imaging device 37-1 and the imaging device 37-2 are simply one-to-one and associated with the divided regions at the same position, the user is looking at the subject 39-1. After the video is switched, the subject is not shown in the divided video 41 of the photographing device 37-2 corresponding to the divided video 40 of the photographing device 37-1. Further, when the video of these two points is distributed to the viewing client 20 by the same method as the conventional method, the user switches the viewpoint (for example, from the video 38-1 of the imaging device 37-1 to the video 38-2 of the imaging device 37-2). Immediately after switching, a request for a partial video regarding the viewing area at the point after switching and a request for a low-resolution video are made to the video distribution apparatus 10. Therefore, the user cannot view a video of a new point (for example, video 38-2 of the imaging device 37-2) immediately after switching. This means that for a user who has previously viewed a high-resolution, high-quality segmented video 40 at a point of the photographing apparatus 37-1, the video is temporarily interrupted until a video at a new point is received. As a result, the quality of experience is reduced.

そこで、本実施形態では、従来の映像配信の処理に、視聴する地点を変更した際に次に視聴されるであろう分割領域の場所を関連付けてマップ化(関連マップ)しておき、その関連マップを映像視聴開始時点で視聴クライアント20にダウンロードしておき、以後、関連マップを元に次に視聴する地点の変更が起こる前に、別ストリームとして受信しておくことにする。そうすることで、ユーザは、視聴地点変更後も引き続き関連する被写体を映像の途切れなく高解像度・高品質に視聴することが可能となる。
なお、上記例では、全天球カメラを2地点に配置して撮影された映像を配信する場合を例に説明したが、全天球カメラを3地点以上に配置して撮影された映像を配信する場合についても同様の処理によって適用可能である。また、ユーザが視聴領域の変更を行わない限り、関連マップに従い、視聴クライアント20では現在視聴している領域に関連する部分映像が連続して受信される。
Therefore, in the present embodiment, in the conventional video distribution process, when the viewing point is changed, the location of the divided area that will be viewed next is associated and mapped (related map). The map is downloaded to the viewing client 20 at the start of video viewing, and thereafter received as a separate stream before the next viewing point changes based on the related map. By doing so, the user can continue to view the related subject with high resolution and high quality without interruption of the video even after the viewing point is changed.
In the above example, an example has been described in which a video shot with two omnidirectional cameras placed at two locations is distributed. However, a video shot with omnidirectional cameras placed at three or more locations is distributed. The same processing can also be applied to the case of doing so. Further, unless the user changes the viewing area, the viewing client 20 continuously receives partial videos related to the currently viewed area according to the related map.

図5を用いて、上記問題を解決するために利用される関連マップの作成方法について具体的に説明する。なお、図5では、関連マップの作成方法として手動で行う場合について説明する。図5は、関連マップの作成方法として手動で行う場合の一例を示す図である。
関連マップ作成部105は、不図示の出力装置に対して、複数の映像38−1及び38−2の各圧縮後分割映像42−1〜42−6及び43−1〜43−6を表示する。ここで、圧縮後分割映像42−1〜42−6には、分割映像の識別情報としてF (T)〜F (T)が割り当てられているものとする。また、圧縮後分割映像43−1〜43−6には、分割映像の識別情報としてF (T)〜F (T)が割り当てられているものとする。ユーザは、表示されている各圧縮後分割映像42−1〜42−6及び43−1〜43−6を基に見た目で対応付けを行う。対応付けの結果は、図5に示す通りである。そして、関連マップ作成部105は、ユーザによって対応付けされた結果に基づいて、映像38−1及び38−2の関連マップを作成する。作成した関連マップの具体例を図6に示す。
A method for creating a related map used to solve the above problem will be specifically described with reference to FIG. Note that FIG. 5 illustrates a case where the map is manually performed as a related map creation method. FIG. 5 is a diagram illustrating an example in which the association map is manually created as a related map creation method.
The related map creation unit 105 displays the compressed divided videos 42-1 to 42-6 and 43-1 to 43-6 of the plurality of videos 38-1 and 38-2 on an output device (not shown). . Here, it is assumed that F A 1 (T) to F A 6 (T) are allocated to the post-compression divided videos 42-1 to 42-6 as identification information of the divided videos. Further, it is assumed that F B 1 (T) to F B 6 (T) are assigned to the divided video images 43-1 to 43-6 after compression as identification information of the divided video images. The user performs an association with the appearance based on each of the displayed post-compression divided videos 42-1 to 42-6 and 43-1 to 43-6. The result of the association is as shown in FIG. Then, the related map creating unit 105 creates a related map of the videos 38-1 and 38-2 based on the result associated with the user. A specific example of the created related map is shown in FIG.

図6は、関連マップの具体例を示す図である。
関連マップは、組合せに関する情報を表すレコード(以下、「組合せレコード」という。)を複数有する。組合せレコードは、時刻及び組情報の各値を有する。時刻の値は、映像が撮影された時刻を表す。ある組合せレコードの組情報の値は、ある時刻において撮影された複数の映像それぞれの分割映像の組を表す。図6では、組情報の具体例として、映像IDと、分割映像IDとがある。映像IDは、映像を識別するための情報を表す。分割映像IDは、圧縮後分割映像を識別するための情報を表す。
FIG. 6 is a diagram illustrating a specific example of the relation map.
The association map has a plurality of records (hereinafter referred to as “combination records”) representing information on combinations. The combination record has values of time and set information. The time value represents the time when the video was shot. The value of the set information of a certain combination record represents a set of divided videos of a plurality of videos taken at a certain time. In FIG. 6, there are a video ID and a divided video ID as specific examples of the set information. The video ID represents information for identifying a video. The divided video ID represents information for identifying the compressed divided video.

図6において、関連マップの2段目に記録されている組合せレコードは、時刻の値が“T−1”、映像IDの値が“1”、分割映像IDの値が“F (T−1)”、映像IDの値が“2”、分割映像IDの値が“F (T−1)”である。すなわち、時刻T−1に異なる地点で撮影された映像ID“1”で識別される映像上の分割映像ID“F (T−1)”で識別される圧縮後分割映像と、映像ID“2”で識別される映像上の分割映像ID“F (T−1)”で識別される圧縮後分割映像とが対応付けられていることが表されている。 In FIG. 6, the combination record recorded in the second row of the related map has a time value “T−1”, a video ID value “1”, and a divided video ID value “F A 1 (T -1) ", the value of the video ID is" 2 ", and the value of the divided video ID is" F B 1 (T-1) ". That is, the compressed divided video identified by the divided video ID “F A 1 (T-1)” on the video identified by the video ID “1” shot at a different point at time T−1, and the video ID It shows that the divided video ID “F B 1 (T−1)” on the video identified by “2” is associated with the compressed divided video.

図7は、第1の実施形態における映像配信装置10の処理の流れを示すフローチャートである。
分割部102は、映像記憶部101に記憶されている複数の映像を入力する(ステップS301)。分割部102は、入力された各映像を分割する。より具体的には、分割部102は、入力された各映像の各フレームをタイル状に分割する。この処理によって、各映像の各フレームの複数の分割映像が生成される。分割部102は、生成された各映像の各フレームの複数の分割映像を圧縮部103に出力する。また、分割部102は、入力された各映像の各フレームをオリジナルの解像度よりも低い解像度の映像に変換する(ステップS302)。この処理によって、各映像の各フレームの複数の低解像度映像が生成される。分割部102は、生成された複数の分割映像と、複数の低解像度映像とを圧縮部103に出力する。圧縮部103は、分割部102から出力された複数の分割映像と、複数の低解像度映像とを入力する。圧縮部103は、入力された複数の分割映像と、複数の低解像度映像とを圧縮する(ステップS303)。この処理によって、圧縮後分割映像及び圧縮後低解像度映像が生成される。圧縮部103は、生成された各フレームの複数の圧縮後分割映像及び各フレームの圧縮後低解像度映像を配信部104に出力する。
FIG. 7 is a flowchart showing the flow of processing of the video distribution apparatus 10 in the first embodiment.
The dividing unit 102 inputs a plurality of videos stored in the video storage unit 101 (step S301). The dividing unit 102 divides each input video. More specifically, the dividing unit 102 divides each frame of each input video into tiles. By this processing, a plurality of divided videos of each frame of each video is generated. The dividing unit 102 outputs a plurality of divided videos of each frame of each generated video to the compression unit 103. Further, the dividing unit 102 converts each frame of each input video into a video having a resolution lower than the original resolution (step S302). By this process, a plurality of low-resolution videos of each frame of each video are generated. The dividing unit 102 outputs the generated plurality of divided videos and the plurality of low-resolution videos to the compression unit 103. The compression unit 103 inputs the plurality of divided videos output from the division unit 102 and the plurality of low resolution videos. The compression unit 103 compresses the plurality of input divided videos and the plurality of low resolution videos (step S303). By this processing, a post-compression divided video and a post-compression low-resolution video are generated. The compression unit 103 outputs the generated plurality of post-compression divided videos of each frame and the compressed low-resolution video of each frame to the distribution unit 104.

配信部104は、圧縮部103から出力された各フレームの複数の圧縮後分割映像及び各フレームの圧縮後低解像度映像を関連マップ作成部105に出力し、関連マップ作成部105に対して関連マップの作成を要求する。関連マップ作成部105は、配信部104から出力された各フレームの複数の圧縮後分割映像及び各フレームの圧縮後低解像度映像に基づいて関連マップを作成する(ステップS304)。関連マップ作成部105は、作成した関連マップを配信部104に出力する。配信部104は、関連マップ作成部105から出力された関連マップを保持する。配信部104は、視聴クライアント20からの映像視聴の要求に応じて、ユーザ視聴映像の圧縮後分割映像と、圧縮後低解像度映像と、関連マップとを視聴クライアント20に配信する(ステップS305)。その後、配信部104は、視聴クライアント20から別ストリームの圧縮後分割映像と、圧縮後低解像度映像との配信要求を受信する(ステップS306)。配信部104は、受信した配信要求に応じて、要求された圧縮後分割映像と、圧縮後低解像度映像とを視聴クライアント20に配信する(ステップS307)。   The distribution unit 104 outputs a plurality of post-compression divided videos of each frame output from the compression unit 103 and a compressed low-resolution video of each frame to the related map generation unit 105, and transmits the related map to the related map generation unit 105. Request creation. The related map creating unit 105 creates a related map based on the plurality of post-compression divided videos of each frame and the compressed low-resolution video of each frame output from the distribution unit 104 (step S304). The related map creation unit 105 outputs the created related map to the distribution unit 104. The distribution unit 104 holds the related map output from the related map creation unit 105. In response to a video viewing request from the viewing client 20, the distribution unit 104 distributes the compressed divided video of the user viewing video, the compressed low-resolution video, and the related map to the viewing client 20 (step S305). Thereafter, the distribution unit 104 receives a distribution request for the compressed divided video of the different stream and the compressed low-resolution video from the viewing client 20 (step S306). In response to the received distribution request, the distribution unit 104 distributes the requested compressed divided video and the compressed low-resolution video to the viewing client 20 (step S307).

図8は、視聴クライアント20の処理の流れを示すフローチャートである。
要求部201は、ユーザから視聴している映像内の特定の領域の選択を受け付ける(ステップS401)。特定の領域の選択がなされると、要求部201は選択された結果からユーザが選択した特定の領域を判定する。そして、要求部201は、ユーザが選択した特定の領域に対応する映像と、同時刻の低解像度映像とを映像配信装置10に要求する(ステップS402)。この際、要求部201は、関連マップ受信部205に保持されている関連マップを参照して、ユーザが選択した領域と対応関係のある別視点の映像の領域に関する情報を取得する。そして、要求部201は、取得した情報で示される別視点の映像に対応する低解像度映像と、別視点の映像の領域に対応する分割映像とを視聴クライアント20に要求する。
FIG. 8 is a flowchart showing the flow of processing of the viewing client 20.
The request unit 201 accepts selection of a specific area in the video being viewed from the user (step S401). When a specific area is selected, the request unit 201 determines the specific area selected by the user from the selected result. Then, the request unit 201 requests the video distribution apparatus 10 for a video corresponding to the specific area selected by the user and a low-resolution video at the same time (step S402). At this time, the request unit 201 refers to the related map stored in the related map receiving unit 205 and acquires information on the video area of another viewpoint that has a corresponding relationship with the area selected by the user. Then, the request unit 201 requests the viewing client 20 for a low-resolution video corresponding to the video of another viewpoint indicated by the acquired information and a divided video corresponding to the video area of the different viewpoint.

視聴クライアント20は、映像配信装置10から配信された映像を受信する(ステップS403)。具体的には、指定領域映像受信部202は、映像配信装置10から配信された、ユーザが選択した領域に対応する圧縮後分割映像を受信する。指定領域映像受信部202は、受信した圧縮後分割映像を受信映像記憶部206に出力する。別ストリーム受信部203は、映像配信装置10から配信された別視点の圧縮後低解像度映像と、別視点の映像の圧縮後分割映像とを受信する。別ストリーム受信部203は、受信した別視点の圧縮後低解像度映像と、別視点の映像の圧縮後分割映像とを受信映像記憶部206に出力する。撮影範囲カバーストリーム受信部204は、ユーザが選択している撮影位置と同じ撮影位置の圧縮後低解像度映像を受信する。撮影範囲カバーストリーム受信部204は、受信した低解像度映像を受信映像記憶部206に出力する。その後、照合部207は、受信映像記憶部206に記憶されている各映像のタイムスタンプと、ユーザが選択している撮影位置との圧縮後分割映像と同位置の撮影範囲をカバーする圧縮後低解像度映像のタイムスタンプとを照合する(ステップS404)。   The viewing client 20 receives the video distributed from the video distribution device 10 (step S403). Specifically, the designated area video reception unit 202 receives the post-compression divided video corresponding to the area selected by the user distributed from the video distribution apparatus 10. The designated area video receiving unit 202 outputs the received compressed divided video to the received video storage unit 206. The separate stream receiving unit 203 receives the low-resolution video after compression of another viewpoint and the divided video after compression of the video of another viewpoint distributed from the video distribution device 10. The separate stream receiving unit 203 outputs the received low-resolution video after compression of the different viewpoint and the compressed divided video of the video of the different viewpoint to the received video storage unit 206. The shooting range cover stream receiving unit 204 receives a compressed low-resolution video at the same shooting position as the shooting position selected by the user. The shooting range cover stream receiving unit 204 outputs the received low-resolution video to the received video storage unit 206. Thereafter, the collation unit 207 covers the shooting range at the same position as the compressed divided video of the time stamp of each video stored in the received video storage unit 206 and the shooting position selected by the user. The time stamp of the resolution video is collated (step S404).

照合部207は、圧縮後低解像度映像と、圧縮後低解像度映像のタイムスタンプとあった映像(同じ撮影位置の圧縮後分割映像、別視点の圧縮後分割映像及び別視点の圧縮後低解像度映像)を提示部208に出力する。提示部208は、照合部207から出力された映像をデコードすることによって復号する。そして、提示部208は、ユーザに対して映像を提示する(ステップS405)。具体的には、提示部208は、ユーザが選択している撮影位置の低解像度映像上の対応する箇所に、同じ撮影位置の分割映像を重畳することによって生成された映像を提示する。その後、ユーザから別視点の映像への切替がなされたとする。この場合、提示部208は、保持している別視点の低解像度映像上の対応する箇所に、別視点の分割映像を重畳することによって生成された映像を提示する(ステップS406)。   The collation unit 207 includes a compressed low-resolution video and a video with a time stamp of the compressed low-resolution video (compressed divided video at the same shooting position, compressed divided video at another viewpoint, and compressed low-resolution video at another viewpoint). ) Is output to the presentation unit 208. The presentation unit 208 decodes the video output from the collation unit 207 by decoding the video. Then, the presentation unit 208 presents a video to the user (step S405). Specifically, the presentation unit 208 presents a video generated by superimposing the divided video at the same shooting position on a corresponding location on the low-resolution video at the shooting position selected by the user. After that, it is assumed that the user has switched to another viewpoint video. In this case, the presentation unit 208 presents the video generated by superimposing the divided video of the different viewpoint on the corresponding location on the low-resolution video of the different viewpoint held (step S406).

以上のように構成された第1の実施形態における映像配信装置10によれば、視聴する映像を切り替えた場合においてユーザが視聴したい領域の高解像度・高品質な映像が途切れてしまう確率を低減することが可能となる。以下、この効果について詳細に説明する。
映像配信装置10は、複数の異なる地点で撮影された各映像の各分割映像間で対応付けを行うことによって関連マップを作成する。映像配信装置10は、視聴クライアント20のユーザが映像を視聴するタイミング等の所定のタイミングで、作成した関連マップを視聴クライアント20に配信する。その後、映像配信装置10は、視聴クライアント20のユーザによって特定の領域を選択する入力がなされると、ユーザによって選択された特定の領域と対応関係にある部分映像の情報を視聴クライアント20から取得する。そして、映像配信装置10は、取得した情報で示される圧縮後部分映像と、圧縮後部分映像に関連する圧縮後低解像度映像とを視聴クライアント20に事前に配信する。これにより、視聴クライアント20には、別視点の映像と、現在視聴している映像における特定の領域と関連する別視点の分割映像とが記憶される。したがって、ユーザが現在視聴している映像から別視点の映像に切り替えた場合であっても、視聴クライアント20では別視点の映像をすぐに提示することができる。そのため、視聴する映像を切り替えた場合においてユーザが視聴したい領域の高解像度・高品質な映像が途切れてしまう確率を低減することが可能となる。
According to the video distribution device 10 in the first embodiment configured as described above, the probability that the high-resolution and high-quality video in the area that the user wants to watch is interrupted when the video to be viewed is switched is reduced. It becomes possible. Hereinafter, this effect will be described in detail.
The video distribution device 10 creates a related map by associating each divided video of each video shot at a plurality of different points. The video distribution device 10 distributes the created related map to the viewing client 20 at a predetermined timing such as a timing when the user of the viewing client 20 views the video. Thereafter, when an input for selecting a specific area is made by the user of the viewing client 20, the video distribution apparatus 10 acquires information on the partial video corresponding to the specific area selected by the user from the viewing client 20. . Then, the video distribution device 10 distributes the compressed partial video indicated by the acquired information and the compressed low-resolution video related to the compressed partial video to the viewing client 20 in advance. Thereby, the viewing client 20 stores the video of another viewpoint and the divided video of the different viewpoint related to a specific area in the video currently being viewed. Therefore, even when the user switches from the video currently being viewed to the video of another viewpoint, the viewing client 20 can immediately present the video of the different viewpoint. Therefore, when the video to be viewed is switched, it is possible to reduce the probability that the high-resolution and high-quality video in the region that the user wants to view is interrupted.

また、映像配信装置10は、現在視聴している映像における特定の領域と関連する別視点の分割映像を他の分割映像よりも高画質で視聴クライアント20に配信している。そのため、視聴する映像が切り替わった場合であっても、切り替え前に視聴していた映像でユーザが注目していた被写体を、切り替え後の映像でも高画質で視聴することができる。   In addition, the video distribution device 10 distributes the divided video of a different viewpoint related to a specific area in the currently viewed video to the viewing client 20 with higher image quality than the other divided video. Therefore, even when the video to be viewed is switched, the subject that the user has focused on in the video that was viewed before switching can be viewed with high image quality even in the video after switching.

<変形例>
映像記憶部101、分割部102、圧縮部103、配信部104及び関連マップ作成部105のそれぞれは、一部又は全ての機能部が別の装置に備えられてもよい。
映像配信装置10と、視聴クライアント20との経路上にCDN(Contents Delivery Network)及び各種キャッシュサーバ等が備えられてもよい。
<Modification>
Each of the video storage unit 101, the division unit 102, the compression unit 103, the distribution unit 104, and the related map creation unit 105 may be provided with a part or all of the functional units in another device.
A CDN (Contents Delivery Network), various cache servers, and the like may be provided on the path between the video delivery apparatus 10 and the viewing client 20.

(第2の実施形態)
第1の実施形態では関連マップの作成を手動で行う場合を例に説明したが、第2の実施形態では関連マップの作成を自動で行う。具体的には、関連マップ作成部105は、映像の一つの特徴量である画像特徴点の同一フレーム内の各圧縮後分割映像に対する対応の数に基づいて、関連する圧縮後分割映像を自動で関連付けする。以下、具体的な作成方法について説明する。
図9に画像特徴点の対応付けの一例を示す。図9は、画像特徴点の対応付けの一例を示す図である。第1の実施形態と同じく、図9には2地点(例えば、地点Aと地点B)に設置された撮影装置(例えば、全天球カメラ)で撮影された各映像のある時刻Tにおける1フレーム(6個の領域に分割されている)をそれぞれ示している。また、図9では、フレーム44−1内で検出された複数の特徴点45のうちF (T)の領域(圧縮後分割映像)内で検出された特徴点45に対応する地点Bで撮影された同時刻のフレーム44−2内における特徴点46を線分で示している。なお、特徴点の検出方法及びマッチング方法についてはここでは限定せず、一般的な手法が用いられてもよい。例えば、特徴点の検出方法にはSURF(Speeded Up Robust Features)、MSER(Maximally Stable Extermal Regions)、コーナー検出等が用いられてもよい。また、例えば、マッチング方法にはSIFT(Scale-Invariant Feature Transform)等が用いられてもよい。
(Second Embodiment)
In the first embodiment, the case where the related map is manually created has been described as an example. However, in the second embodiment, the related map is automatically created. Specifically, the related map creation unit 105 automatically generates a related compressed divided video based on the number of correspondences of each image feature point that is one feature amount of the video with respect to each compressed divided video in the same frame. Associate. A specific creation method will be described below.
FIG. 9 shows an example of the association of image feature points. FIG. 9 is a diagram illustrating an example of association of image feature points. As in the first embodiment, FIG. 9 shows one frame at a certain time T of each video imaged by imaging devices (eg, omnidirectional cameras) installed at two locations (eg, location A and location B). (Divided into 6 regions). Further, in FIG. 9, at a point B corresponding to the feature point 45 detected in the area F A 6 (T) (compressed divided video) among the plurality of feature points 45 detected in the frame 44-1. A feature point 46 in the frame 44-2 at the same time that the image was taken is indicated by a line segment. Note that the feature point detection method and the matching method are not limited here, and a general method may be used. For example, SURF (Speeded Up Robust Features), MSER (Maximally Stable Extermal Regions), corner detection, or the like may be used as a feature point detection method. For example, SIFT (Scale-Invariant Feature Transform) etc. may be used for the matching method.

ここでは、関連マップを作成するために一方の地点で撮影された映像中の一つの領域に対応する別地点で撮影された映像の領域を関連付ける処理を示しており、図9ではF (T)に対応するフレーム44−2内の領域を探索しているものとする。図9に示すように、F (T)内で検出された特徴点は4つで、3つはF (T)内の特徴点と対応しており、残る一つの特徴点はF (T)内の特徴点と対応している。例えば、ここで対応する特徴点の数が最も多い領域を組とするというルールを設けた場合、関連マップ作成部105はF (T)の組としてF (T)を選択することができる。関連マップ作成部105は、このような処理を全ての領域に対して行うことによって自動的に関連マップを作成する。関連マップ作成後の配信の流れについては、第1の実施形態と同様とであるため省略する。 Here, a process of associating a region of a video shot at another point corresponding to one region in a video shot at one point in order to create a related map is shown, and FIG. 9 shows F A 6 ( Assume that an area in the frame 44-2 corresponding to T) is being searched. As shown in FIG. 9, there are four feature points detected in F A 6 (T), three correspond to the feature points in F B 4 (T), and the remaining one feature point is Corresponds to the feature points in F B 5 (T). For example, when a rule is set that sets a region having the largest number of corresponding feature points here, the related map creation unit 105 selects F B 4 (T) as a set of F A 6 (T). Can do. The related map creation unit 105 automatically creates a related map by performing such processing for all regions. The flow of distribution after creating the related map is the same as in the first embodiment, and is therefore omitted.

以上のように構成された第2の実施形態における映像配信装置10によれば、第1の実施形態と同様の効果を得ることができる。
また、第2の実施形態における映像配信装置10では、自動的に関連マップを作成することができる。そのため、ユーザによる関連マップの作成に要する時間を削減することができる。
According to the video delivery device 10 in the second embodiment configured as described above, the same effect as in the first embodiment can be obtained.
In addition, the video distribution apparatus 10 according to the second embodiment can automatically create a related map. Therefore, it is possible to reduce the time required for creating a related map by the user.

<変形例>
第2の実施形態は、第1の実施形態と同様に構成されてもよい。
第2の実施形態では、映像から抽出される対応点をもとに関連する圧縮後分割映像の特定を行う構成を示したが、関連マップ作成部105は、各圧縮後分割映像のブロックマッチング(圧縮後分割映像全体を対象にしたブロックマッチングでもよいし、各圧縮後分割映像をさらにいくつかの領域に分けた上でそれらのブロックマッチングの結果(対応するブロックの多い圧縮後分割映像を関連付ける)を使っても構わない)を行い、関連マップを作成するように構成されてもよい。
<Modification>
The second embodiment may be configured similarly to the first embodiment.
In the second embodiment, a configuration is shown in which a related post-compression divided video is identified based on corresponding points extracted from the video. However, the related map creation unit 105 performs block matching ( Block matching can be applied to the entire compressed divided video, or each divided divided video is further divided into several regions and the result of block matching (relates the compressed divided video with many corresponding blocks). And a related map may be created.

(第3の実施形態)
第3の実施形態では、対象となる映像を既にユーザが所定の回数視聴していた場合、関連マップ作成部105はその映像の視聴ログからユーザが地点変更操作後、過去に視聴していた特定の領域(分割映像)を推定し、その特定の領域と関連付けを行うことによって関連マップを作成する。
第3の実施形態では、映像配信装置10は、ユーザ情報記憶部をさらに備える。ユーザ情報記憶部は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。ユーザ情報記憶部は、ユーザ毎に、各ユーザの視聴ログを記憶する。視聴ログは、例えばユーザが視聴した映像の映像ID、ユーザが視聴した映像に関連する別視点の映像の映像ID、視聴回数及びユーザが視点切替の操作後に選択していた特定の領域などの情報を表す。
(Third embodiment)
In the third embodiment, when the user has already watched the target video for a predetermined number of times, the related map creation unit 105 specifies the past watched by the user after the point change operation from the video viewing log. A related map is created by estimating a region (divided video) and associating it with the specific region.
In the third embodiment, the video distribution device 10 further includes a user information storage unit. The user information storage unit is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The user information storage unit stores each user's viewing log for each user. The viewing log includes, for example, information such as the video ID of the video viewed by the user, the video ID of the video of another viewpoint related to the video viewed by the user, the number of times of viewing, and the specific area selected by the user after the viewpoint switching operation. Represents.

関連マップ作成部105は、対象となる映像をユーザが所定の回数視聴していた場合、ユーザ情報記憶部に記憶されている視聴ログに基づいて、対象となる映像を視聴した後に視聴した対象となる映像と関連する別視点の映像と、別視点の映像において、例えば最も多く視聴していた特定の領域を特定し、特定した別視点の映像の特定の領域と、対象となる映像の特定の領域との対応付けをすることによって関連マップを生成する。また、関連マップ作成部105は、視聴ログに基づいて、ユーザが最も多く視聴していた領域だけでなく、ユーザがその次(2番目)に視聴していた領域、更にその次(3番目)に視聴していた領域のように視聴回数に基づく所定の順位までの複数の領域を特定し、特定した別視点の映像の複数の領域それぞれと、対象となる映像の特定の領域との対応付けをすることによって関連マップを生成してもよい。つまり、関連マップ作成部105は、視聴ログに基づいて、対象となる映像の特定の領域1つに対して、別視点の映像の領域のうち視聴回数に基づく所定の順位までの複数の領域それぞれを対応付けることによって関連マップを生成してもよい。
配信部104は、関連マップ作成部105によって生成された関連マップを入力する。配信部104は、入力された関連マップに基づいて選択されるユーザが選択した分割映像と対応関係にある別視点の映像の分割映像の情報を取得し、取得した情報で示される分割映像を別視点の映像の他の分割映像よりも高画質に視聴クライアント20に配信する。
When the user has watched the target video a predetermined number of times, the related map creation unit 105 selects the target viewed after viewing the target video based on the viewing log stored in the user information storage unit. In a different viewpoint video and a different viewpoint video, for example, a specific area that was viewed most often is identified, a specific area of the identified different viewpoint video, and a specific video of the target video The association map is generated by associating with the area. In addition, the related map creation unit 105 is based on the viewing log, not only the area that the user watched most, but the area that the user watched next (second), and the next (third). A plurality of regions up to a predetermined order based on the number of times of viewing are identified, such as a region that was viewed at the same time, and each of the plurality of regions of the identified different viewpoint video is associated with a specific region of the target video A related map may be generated by In other words, based on the viewing log, the related map creation unit 105 sets a plurality of areas up to a predetermined rank based on the number of times of viewing among the areas of the different viewpoint video for one specific area of the target video. The association map may be generated by associating.
The distribution unit 104 inputs the related map generated by the related map creation unit 105. The distribution unit 104 acquires divided video information of a video of another viewpoint that has a corresponding relationship with the divided video selected by the user selected based on the input related map, and separates the divided video indicated by the acquired information. Deliver to the viewing client 20 with higher image quality than other divided videos of the viewpoint video.

以上のように構成された第3の実施形態の映像配信装置10によれば、ユーザの過去の履歴から関連マップを作成することができる。そして、映像配信装置10の配信部104は、作成された関連マップに基づいて、ユーザが視聴している映像の別視点の映像の特定の領域に該当する圧縮後分割映像を視聴クライアント20に配信する。そのため、ユーザのニーズに合わせた映像の配信が可能になる。   According to the video distribution apparatus 10 of the third embodiment configured as described above, a related map can be created from a user's past history. Then, the distribution unit 104 of the video distribution device 10 distributes the compressed divided video corresponding to the specific area of the video of the different viewpoint of the video being viewed by the user to the viewing client 20 based on the created related map. To do. Therefore, it is possible to distribute video that meets user needs.

(第4の実施形態)
第1の実施形態から第3の実施形態では、あらかじめ関連マップをオフラインで作成して配信する構成を示した。第4の実施形態では、映像配信装置10はリアルタイムに関連マップを作成する。
具体的な処理について説明する。ユーザが現在視聴している映像を映像配信装置10の配信部104は把握している。さらに、配信部104は、ユーザが現在視聴している映像を知っているため、その情報をもとにリアルタイムで別地点における映像の領域のうち対応点の最も多い領域に対応する圧縮後分割映像を選択する。そして、映像配信装置10は、関連する圧縮後分割映像をリアルタイムに視聴クライアント20に配信して視聴クライアント20に記憶させておく。このように構成される場合、映像配信装置10は映像記憶部101を備えない。なお、配信部104は、別視点における映像の領域のうち対応点が所定の閾値以上となる領域に対応する複数の圧縮後分割映像を選択してもよい。そして、配信部104は、選択した複数の圧縮後分割映像のうち所定数分の圧縮後分割映像をリアルタイムに視聴クライアント20に配信する。ここで、所定数は、単数であってもよいし、複数であってもよい。
(Fourth embodiment)
In the first to third embodiments, the configuration in which the related map is created in advance and distributed is shown. In the fourth embodiment, the video distribution apparatus 10 creates a related map in real time.
Specific processing will be described. The distribution unit 104 of the video distribution apparatus 10 grasps the video currently being viewed by the user. Further, since the distribution unit 104 knows the video that the user is currently viewing, the compressed divided video corresponding to the region with the most corresponding points among the video regions at different points in real time based on the information. Select. Then, the video distribution apparatus 10 distributes the related compressed divided video to the viewing client 20 in real time and stores it in the viewing client 20. When configured in this manner, the video distribution device 10 does not include the video storage unit 101. The distribution unit 104 may select a plurality of post-compression divided videos corresponding to areas in which the corresponding points are equal to or greater than a predetermined threshold among the video areas at different viewpoints. Then, the distribution unit 104 distributes a predetermined number of compressed divided videos among the plurality of selected compressed divided videos to the viewing client 20 in real time. Here, the predetermined number may be singular or plural.

以上のように構成された第4の実施形態における映像配信装置10によれば、リアルタイムに別視点における関連する領域を特定することができる。このように、関連する領域をリアルタイムに特定することによって、未知の映像(これまでに一度も視聴されたことのない映像)であってもユーザが視点切り替え後、即座に高解像度・高品質な映像を視聴可能となる。   According to the video distribution apparatus 10 in the fourth embodiment configured as described above, it is possible to specify a related area in another viewpoint in real time. In this way, by identifying the relevant area in real time, even if it is an unknown video (video that has never been viewed so far), the user can immediately switch to high-resolution and high-quality after switching the viewpoint. Video can be viewed.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…映像配信装置, 20…視聴クライアント, 101…映像記憶部, 102…分割部, 103…圧縮部, 104…配信部, 105…関連マップ作成部, 106…ユーザ情報記憶部, 201…要求部, 202…指定領域映像受信部, 203…別ストリーム受信部, 204…撮影範囲カバーストリーム受信部, 205…関連マップ受信部, 206…受信映像記憶部, 207…照合部, 208…提示部 DESCRIPTION OF SYMBOLS 10 ... Video delivery apparatus, 20 ... Viewing client, 101 ... Video storage part, 102 ... Division | segmentation part, 103 ... Compression part, 104 ... Delivery part, 105 ... Related map creation part, 106 ... User information storage part, 201 ... Request part , 202 ... Designated area video reception unit, 203 ... Separate stream reception unit, 204 ... Shooting range cover stream reception unit, 205 ... Related map reception unit, 206 ... Received video storage unit, 207 ... Verification unit, 208 ... Presentation unit

Claims (6)

複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割部と、
複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信部と、
を備え、
前記配信部は、前記複数の領域に分割された各映像における各分割映像間の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信装置。
A dividing unit that generates a plurality of divided videos by dividing each video shot from a plurality of different viewpoints into a plurality of regions;
Among the divided videos of the video divided into a plurality of regions, the divided video of the video of another viewpoint corresponding to the divided video selected by the user viewing the video at a certain viewpoint among the plurality of different viewpoints. A distribution unit that distributes images with higher image quality than other segmented images from different viewpoints;
With
The distribution unit is a video of another viewpoint corresponding to the divided video selected by the user selected based on a related map in which the divided videos in the videos divided into the plurality of areas are associated with each other. A video distribution device that acquires information on the divided video and distributes the divided video indicated by the acquired information with higher image quality than other divided video of the video of the different viewpoint.
前記配信部は、前記ユーザが過去に視聴していた映像に関する視聴ログに基づいて、前記映像において前記ユーザが視聴している分割映像に対して、前記映像と関連する別視点の映像において前記ユーザが視聴していた分割映像のうち視聴回数に基づく所定の順位までの複数の分割映像の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある前記別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する、請求項1に記載の映像配信装置。   The distribution unit, based on a viewing log related to the video that the user has viewed in the past, for the divided video that the user is viewing in the video, in the video of another viewpoint related to the video Selected from the related map in which a plurality of divided videos up to a predetermined rank based on the number of times of viewing are divided among the divided videos viewed by the user, the different video image corresponding to the divided video selected by the user The video distribution device according to claim 1, wherein information on a divided video of a video at a viewpoint is acquired, and the divided video indicated by the acquired information is distributed with higher image quality than the other divided video of the video at another viewpoint. 複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割部と、
複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信部と、
を備え、
前記配信部は、前記ユーザが視聴している映像における分割映像に基づいて、別視点で撮影されている映像の複数の分割映像のうち前記分割映像との対応点が所定の閾値以上の分割映像を選択し、選択した所定数分の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信装置。
A dividing unit that generates a plurality of divided videos by dividing each video shot from a plurality of different viewpoints into a plurality of regions;
Among the divided videos of the video divided into a plurality of regions, the divided video of the video of another viewpoint corresponding to the divided video selected by the user viewing the video at a certain viewpoint among the plurality of different viewpoints. A distribution unit that distributes images with higher image quality than other segmented images from different viewpoints;
With
The distribution unit is a divided video in which a corresponding point with the divided video is a predetermined threshold or more among a plurality of divided videos of a video shot from a different viewpoint based on the divided video in the video being viewed by the user. And distributing a predetermined number of selected divided videos with higher image quality than other divided videos of the video of the different viewpoint.
複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割ステップと、
複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信ステップと、
を有し、
前記配信ステップにおいて、前記複数の領域に分割された各映像における各分割映像間の対応付けがなされた関連マップに基づいて選択される前記ユーザが選択した分割映像と対応関係にある別視点の映像の分割映像の情報を取得し、取得した前記情報で示される分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信方法。
A dividing step of generating a plurality of divided videos by dividing each video shot from a plurality of different viewpoints into a plurality of regions;
Among the divided videos of the video divided into a plurality of regions, the divided video of the video of another viewpoint corresponding to the divided video selected by the user viewing the video at a certain viewpoint among the plurality of different viewpoints. A delivery step of delivering a higher image quality than other divided videos of a different viewpoint;
Have
Another viewpoint video having a correspondence relationship with the divided video selected by the user selected based on the related map in which the divided videos are associated with each other in the videos divided into the plurality of areas in the distribution step The video distribution method of acquiring the information of the divided video and distributing the divided video indicated by the acquired information with higher image quality than the other divided video of the video of the different viewpoint.
複数の異なる視点で撮影された各映像を複数の領域に分割することによって複数の分割映像を生成する分割ステップと、
複数の領域に分割された映像の各分割映像のうち、前記複数の異なる視点のうちのある視点における映像を視聴するユーザが選択した分割映像と対応関係にある別視点の映像の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する配信ステップと、
を有し、
前記配信ステップにおいて、前記ユーザが視聴している映像における分割映像に基づいて、別視点で撮影されている映像の複数の分割映像のうち前記分割映像との対応点が所定の閾値以上の分割映像を選択し、選択した所定数分の分割映像を前記別視点の映像の他の分割映像よりも高画質に配信する映像配信方法。
A dividing step of generating a plurality of divided videos by dividing each video shot from a plurality of different viewpoints into a plurality of regions;
Among the divided videos of the video divided into a plurality of regions, the divided video of the video of another viewpoint corresponding to the divided video selected by the user viewing the video at a certain viewpoint among the plurality of different viewpoints. A delivery step of delivering a higher image quality than other divided videos of a different viewpoint;
Have
In the distribution step, a divided video in which a corresponding point with the divided video is equal to or more than a predetermined threshold among a plurality of divided videos of the video shot from a different viewpoint based on the divided video in the video being viewed by the user And a predetermined number of selected divided videos are distributed with higher image quality than other divided videos of the video of the different viewpoint.
請求項1から3のいずれか一項に記載の映像配信装置としてコンピュータを実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute as the video distribution apparatus according to claim 1.
JP2016000237A 2016-01-04 2016-01-04 Video distribution apparatus, video distribution method and computer program Pending JP2017123503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016000237A JP2017123503A (en) 2016-01-04 2016-01-04 Video distribution apparatus, video distribution method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016000237A JP2017123503A (en) 2016-01-04 2016-01-04 Video distribution apparatus, video distribution method and computer program

Publications (1)

Publication Number Publication Date
JP2017123503A true JP2017123503A (en) 2017-07-13

Family

ID=59305957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016000237A Pending JP2017123503A (en) 2016-01-04 2016-01-04 Video distribution apparatus, video distribution method and computer program

Country Status (1)

Country Link
JP (1) JP2017123503A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135289A1 (en) * 2018-01-07 2019-07-11 GITAI Japan株式会社 Information communication system and information communication method
JP2021002811A (en) * 2019-06-24 2021-01-07 Nttテクノクロス株式会社 Distribution server, distributing method and program
WO2021140950A1 (en) * 2020-01-09 2021-07-15 ソニーグループ株式会社 Content distribution system, content distribution method, and program
WO2021140949A1 (en) * 2020-01-09 2021-07-15 ソニーグループ株式会社 Content delivery system, content delivery method, and program
JP2022009636A (en) * 2019-06-24 2022-01-14 Nttテクノクロス株式会社 Distribution server, distribution method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019135289A1 (en) * 2018-01-07 2019-07-11 GITAI Japan株式会社 Information communication system and information communication method
JP2021002811A (en) * 2019-06-24 2021-01-07 Nttテクノクロス株式会社 Distribution server, distributing method and program
JP2022009636A (en) * 2019-06-24 2022-01-14 Nttテクノクロス株式会社 Distribution server, distribution method, and program
JP7319340B2 (en) 2019-06-24 2023-08-01 Nttテクノクロス株式会社 Distribution server, distribution method and program
WO2021140950A1 (en) * 2020-01-09 2021-07-15 ソニーグループ株式会社 Content distribution system, content distribution method, and program
WO2021140949A1 (en) * 2020-01-09 2021-07-15 ソニーグループ株式会社 Content delivery system, content delivery method, and program

Similar Documents

Publication Publication Date Title
EP3459252B1 (en) Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
JP5544426B2 (en) Video bitstream transmission system
US20160277772A1 (en) Reduced bit rate immersive video
US11356648B2 (en) Information processing apparatus, information providing apparatus, control method, and storage medium in which virtual viewpoint video is generated based on background and object data
KR102133207B1 (en) Communication apparatus, communication control method, and communication system
KR101964126B1 (en) The Apparatus And Method For Transferring High Definition Video
JP2017123503A (en) Video distribution apparatus, video distribution method and computer program
KR101528863B1 (en) Method of synchronizing tiled image in a streaming service providing system of panoramic image
WO2014025319A1 (en) System and method for enabling user control of live video stream(s)
CN108111899B (en) Video transmission method and device, client, server and storage medium
US10931930B2 (en) Methods and apparatus for immersive media content overlays
JP6178705B2 (en) Video distribution system, video distribution apparatus, and video distribution program
CN107592549B (en) Panoramic video playing and photographing system based on two-way communication
CN112703737A (en) Scalability of multi-directional video streams
KR102030983B1 (en) Operating Method for Live Streaming Service based on Tiled Encoding image and electronic device supporting the same
CN108810567B (en) Audio and video visual angle matching method, client and server
CN107707830B (en) Panoramic video playing and photographing system based on one-way communication
US20200213631A1 (en) Transmission system for multi-channel image, control method therefor, and multi-channel image playback method and apparatus
KR102118334B1 (en) Electronic device supporting for Live Streaming Service of Virtual Contents based on Tiled Encoding image
US20230224512A1 (en) System and method of server-side dynamic adaptation for split rendering
KR20220031560A (en) Information processing apparatus, information processing method, reproduction processing apparatus and reproduction processing method
CA3057924A1 (en) System and method to optimize the size of a video recording or video transmission by identifying and recording a region of interest in a higher definition than the rest of the image that is saved or transmitted in a lower definition format
US11922561B2 (en) Methods and systems for implementing scene descriptions using derived visual tracks
WO2021132574A1 (en) Transmission device and receiving device
JP7319340B2 (en) Distribution server, distribution method and program