JP6621063B2 - Camera selection method and video distribution system - Google Patents

Camera selection method and video distribution system Download PDF

Info

Publication number
JP6621063B2
JP6621063B2 JP2015240655A JP2015240655A JP6621063B2 JP 6621063 B2 JP6621063 B2 JP 6621063B2 JP 2015240655 A JP2015240655 A JP 2015240655A JP 2015240655 A JP2015240655 A JP 2015240655A JP 6621063 B2 JP6621063 B2 JP 6621063B2
Authority
JP
Japan
Prior art keywords
camera
cameras
shooting
subject
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015240655A
Other languages
Japanese (ja)
Other versions
JP2016213808A (en
Inventor
徹 松延
徹 松延
敏康 杉尾
敏康 杉尾
達也 小山
達也 小山
哲史 吉川
哲史 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US15/075,220 priority Critical patent/US10171794B2/en
Publication of JP2016213808A publication Critical patent/JP2016213808A/en
Application granted granted Critical
Publication of JP6621063B2 publication Critical patent/JP6621063B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、同一の場面を撮影している複数台のカメラから、表示する映像の撮影元のカメラを選択するカメラ選択方法等に関する。   The present invention relates to a camera selection method for selecting a camera from which a video to be displayed is shot from a plurality of cameras shooting the same scene.

映像配信方法として、特許文献1には、多視点映像配信システムにおいて、カメラの撮影条件を制御する技術が開示されている。また、特許文献2には、複数の視点から撮影された映像を視点移動に連動して配信する技術が開示されている。   As a video distribution method, Patent Literature 1 discloses a technique for controlling shooting conditions of a camera in a multi-view video distribution system. Patent Document 2 discloses a technique for distributing videos taken from a plurality of viewpoints in conjunction with viewpoint movement.

特開2002−165200号公報JP 2002-165200 A 特開2012−094990号公報JP 2012-094990 A

しかしながら、上記技術には、多くのカメラが存在する場合に、この多くのカメラからどのようにしてカメラを選択するかについては記載されていない。   However, the above technique does not describe how to select a camera from many cameras when there are many cameras.

そこで、本発明は、複数のカメラから適切にカメラを選択できるカメラ選択方法又は映像配信システムを提供することを目的とする。   Therefore, an object of the present invention is to provide a camera selection method or a video distribution system that can appropriately select a camera from a plurality of cameras.

上記目的を達成するために、本発明の一態様に係るカメラ選択方法は、同一の場面を撮影しているN(2以上の自然数)台のカメラから、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラを選択するカメラ選択方法であって、回路が、前記N台のカメラの位置及び撮影方向を取得する取得ステップと、前記回路が、取得された前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを選択する選択ステップとを含み、前記選択ステップでは、条件i)前記N台のカメラを鉛直方向に沿って視たときに、前記M台のカメラが所定位置を取り囲み、かつ条件ii)前記M台のカメラの各々が、前記所定位置を撮影するための撮影方向を有し、かつ条件iii)前記N台のカメラを前記鉛直方向に沿って視たときに、前記M台のカメラに含まれ且つ隣り合う2台のカメラの撮影方向のなす角が、前記M台のカメラに含まれ且つ他の隣り合う2台のカメラの撮影方向のなす角と大きさが等しくなる、を満たす前記M台のカメラを選択するIn order to achieve the above object, a camera selection method according to an aspect of the present invention provides a camera (M (M) of a video to be displayed) from N (two or more natural numbers) cameras that are shooting the same scene. is a camera selection method for selecting a natural number smaller than N) cameras, circuit, an acquisition step of acquiring the position and photographing direction of the N cameras, wherein the circuit is obtained for the N number based on the position and the shooting direction of the camera, viewing contains a selection step of selecting the M cameras from the N cameras, wherein the selection step, seen along the conditions i) the N cameras in a vertical direction The M cameras surround a predetermined position, and condition ii) each of the M cameras has a shooting direction for shooting the predetermined position, and condition iii) the N cameras Camera in the vertical direction The angle formed by the shooting directions of the two adjacent cameras included in the M cameras is the shooting direction of the other two adjacent cameras included in the M cameras. The M cameras satisfying the same size as the angle formed by are selected .

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. The system, method, integrated circuit, computer program Also, any combination of recording media may be realized.

本発明は、複数のカメラから適切にカメラを選択できるカメラ選択方法又は映像配信システムを提供できる。   The present invention can provide a camera selection method or a video distribution system that can appropriately select a camera from a plurality of cameras.

実施の形態に係る映像配信システムの構成を示す図である。It is a figure which shows the structure of the video delivery system which concerns on embodiment. 実施の形態に係るサーバのブロック図である。It is a block diagram of a server concerning an embodiment. 実施の形態に係るカメラ情報算出処理のフローチャートである。It is a flowchart of the camera information calculation process which concerns on embodiment. 実施の形態に係る三次元再構成を説明するための図である。It is a figure for demonstrating the three-dimensional reconstruction which concerns on embodiment. 実施の形態に係る映像選択処理のフローチャートである。It is a flowchart of the image | video selection process which concerns on embodiment. 実施の形態に係る初期カメラ選択処理のフローチャートである。It is a flowchart of the initial camera selection process which concerns on embodiment. 実施の形態に係るカメラ切替判定処理のフローチャートである。It is a flowchart of the camera switching determination process which concerns on embodiment. 実施の形態に係る追跡カメラ切替判定処理のフローチャートである。It is a flowchart of the tracking camera switching determination process which concerns on embodiment. 実施の形態に係る切替カメラ選択処理のフローチャートである。It is a flowchart of the switching camera selection process which concerns on embodiment. 実施の形態に係る二次元画像を用いて被写体を追跡する動作を説明するための図である。It is a figure for demonstrating the operation | movement which tracks a to-be-photographed object using the two-dimensional image which concerns on embodiment. 実施の形態に係る二次元画像を用いて被写体を追跡する動作を説明するための図である。It is a figure for demonstrating the operation | movement which tracks a to-be-photographed object using the two-dimensional image which concerns on embodiment. 実施の形態に係る三次元モデルを用いて被写体を追跡する動作を説明するための図である。It is a figure for demonstrating the operation | movement which tracks a to-be-photographed object using the three-dimensional model which concerns on embodiment. 実施の形態に係る二次元画像及び三次元モデルを用いて被写体を追跡する動作を説明するための図である。It is a figure for demonstrating the operation | movement which tracks a to-be-photographed object using the two-dimensional image and three-dimensional model which concern on embodiment. 実施の形態に係るリセット判定処理のフローチャートである。It is a flowchart of the reset determination process which concerns on embodiment. 実施の形態に係る、イベント会場における空間撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the space imaging | photography mode in an event venue based on embodiment. 実施の形態に係る、イベント会場における空間撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the space imaging | photography mode in an event venue based on embodiment. 実施の形態に係る、イベント会場における追跡撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the tracking imaging | photography mode in an event venue based on Embodiment. 実施の形態に係る、イベント会場における追跡撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the tracking imaging | photography mode in an event venue based on Embodiment. 実施の形態に係る、イベント会場における追跡撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the tracking imaging | photography mode in an event venue based on Embodiment. 実施の形態に係る、監視環境における空間撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the space imaging mode in the monitoring environment based on Embodiment. 実施の形態に係る、監視環境における追跡撮影モードでのカメラ選択を説明するための図である。It is a figure for demonstrating the camera selection in the tracking imaging | photography mode in the monitoring environment based on Embodiment. 実施の形態に係る初期カメラ選択処理のフローチャートである。It is a flowchart of the initial camera selection process which concerns on embodiment. 実施の形態に係るカメラ単体の評価値算出処理のフローチャートである。It is a flowchart of the evaluation value calculation process of the camera unit according to the embodiment. 実施の形態に係る対象領域の選択例を示す図である。It is a figure which shows the example of selection of the target area | region which concerns on embodiment. 実施の形態に係る対象被写体の選択例を示す図である。It is a figure which shows the example of selection of the to-be-photographed object which concerns on embodiment. 実施の形態に係るカメラ位置評価値算出処理のフローチャートである。It is a flowchart of the camera position evaluation value calculation process which concerns on embodiment. 実施の形態に係る俯瞰モードにおけるカメラ選択例を示す図である。It is a figure which shows the camera selection example in the bird's-eye view mode which concerns on embodiment. 実施の形態に係る集中モードにおけるカメラ選択例を示す図である。It is a figure which shows the example of camera selection in the concentration mode which concerns on embodiment. 実施の形態に係るカメラ選択方法のフローチャートである。It is a flowchart of the camera selection method which concerns on embodiment.

(本発明の基礎となった知見)
映像配信システムとして、例えば、複数のユーザが所有する複数のカメラ(例えばスマートフォン等)で撮影された映像をサーバで保存し、視聴者に配信するシステムが想定される。このようなシステムでは、サーバで保有する映像の数が膨大になるが、視聴者が所有する端末装置が表示可能な映像の数には限りがある。
(Knowledge that became the basis of the present invention)
As a video distribution system, for example, a system in which videos taken by a plurality of cameras (for example, smartphones) owned by a plurality of users are stored on a server and distributed to viewers is assumed. In such a system, the number of videos held by the server is enormous, but the number of videos that can be displayed by the terminal device owned by the viewer is limited.

このような場合、全ての映像を視聴者が確認し、その中から所望の映像を選択することは難しい。また、複数のユーザが所有する複数のカメラの種類(機能)はそれぞれ異なることが想定されるので、これに対応する必要がある。   In such a case, it is difficult for the viewer to check all the videos and select a desired video from them. Further, since the types (functions) of a plurality of cameras owned by a plurality of users are assumed to be different from each other, it is necessary to cope with this.

本発明の一態様に係るカメラ選択方法は、同一の場面を撮影しているN(2以上の自然数)台のカメラから、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラを選択するカメラ選択方法であって、前記N台のカメラの位置及び撮影方向を取得する取得ステップと、取得された前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを選択する選択ステップとを含む。   The camera selection method according to an aspect of the present invention includes M (M is a natural number greater than or equal to 2) cameras (M is a natural number smaller than N) from which N images are captured from N (2 or more natural numbers) cameras capturing the same scene. A camera selection method for selecting a camera, the acquisition step of acquiring the positions and shooting directions of the N cameras, and the N cameras based on the acquired positions and shooting directions of the N cameras. Selecting the M cameras.

これにより、当該カメラ選択方法は、カメラの位置及び撮影方向に基づき、複数のカメラから適切にカメラを選択できる。   Thereby, the camera selection method can appropriately select a camera from a plurality of cameras based on the position and shooting direction of the camera.

例えば、前記選択ステップでは、前記N台のカメラの位置及び撮影方向に基づき、M台のカメラの撮影空間の重複がより少なく、かつ、M台のカメラの撮影空間が対象空間をカバーする割合がより大きくなるM台のカメラを優先して選択してもよい。   For example, in the selection step, there is less overlap of the shooting spaces of the M cameras based on the positions and shooting directions of the N cameras, and the shooting space of the M cameras covers the target space. The larger M cameras may be selected with priority.

これにより、当該カメラ選択方法は、複数のカメラにより対象領域の全体をカバーできるように複数のカメラを選択できる。   Thereby, the camera selection method can select a plurality of cameras so that the entire target area can be covered by the plurality of cameras.

例えば、前記選択ステップでは、前記N台のカメラの位置及び撮影方向に基づき、対象空間又は対象被写体を複数の方向から等間隔に撮影しているM台のカメラを優先して選択してもよい。   For example, the selection step may preferentially select M cameras that are shooting the target space or the target subject at equal intervals from a plurality of directions based on the positions and shooting directions of the N cameras. .

これにより、当該カメラ選択方法は、複数のカメラにより対象被写体の全方向の映像をカバーできるように複数のカメラを選択できる。   Thereby, the camera selection method can select a plurality of cameras so that the images of the target subject in all directions can be covered by the plurality of cameras.

例えば、前記取得ステップでは、前記N台のカメラで撮影された画像を用いて三次元再構成を行うことで、前記N台のカメラの位置及び撮影方向を算出してもよい。   For example, in the obtaining step, the positions and photographing directions of the N cameras may be calculated by performing three-dimensional reconstruction using images photographed by the N cameras.

これにより、精度よく各カメラの撮影範囲を判定できる。   Thereby, the imaging range of each camera can be determined with high accuracy.

例えば、前記取得ステップでは、前記N台のカメラの各々から送信された、当該カメラが備えるセンサで得られた情報を用いて、前記N台のカメラの位置及び撮影方向を算出してもよい。   For example, in the acquisition step, the position and shooting direction of the N cameras may be calculated using information obtained from a sensor included in the camera and transmitted from each of the N cameras.

これにより、容易に各カメラの位置及び撮影方向を判定できる。   Thereby, the position and shooting direction of each camera can be easily determined.

例えば、前記取得ステップでは、さらに、前記N台のカメラの焦点距離を取得し、前記選択ステップでは、取得された前記N台のカメラの位置、撮影方向及び焦点距離に基づき、前記N台のカメラから前記M台のカメラを選択してもよい。   For example, in the obtaining step, focal lengths of the N cameras are further obtained, and in the selecting step, the N cameras are based on the obtained positions, shooting directions, and focal lengths of the N cameras. May select the M cameras.

これにより、精度よく各カメラの撮影範囲を判定できる。   Thereby, the imaging range of each camera can be determined with high accuracy.

例えば、前記カメラ選択方法は、さらに、前記選択ステップの後のフレームにおいて、選択されている前記M台のカメラのうちの一部のカメラを他のカメラに切り替えるか否かを判定する第1判定ステップと、前記第1判定ステップにおいて、切り替えると判定された場合に、前記N台のカメラの位置及び撮影方向に基づき、前記一部のカメラの代わりの新たなカメラを選択する切替ステップとを含んでもよい。   For example, the camera selection method further includes a first determination for determining whether or not to switch a part of the selected M cameras to another camera in a frame after the selection step. And a switching step of selecting a new camera instead of the part of the cameras based on the positions and shooting directions of the N cameras when it is determined to switch in the first determination step. But you can.

これにより、全てのカメラを切り替える場合に比べ、処理量を低減できる。   Thereby, compared with the case where all the cameras are switched, processing amount can be reduced.

例えば、前記第1判定ステップでは、フレーム間で対象被写体を追跡し、前記対象被写体の追跡に失敗した場合に、前記選択するカメラを切り替えると判定してもよい。   For example, in the first determination step, the target subject may be tracked between frames, and if the tracking of the target subject fails, it may be determined that the selected camera is switched.

例えば、前記第1判定ステップでは、フレーム間で前記対象被写体の三次元モデルを対応付け、対応付けた前記対象被写体の三次元モデルを現時刻のフレームに投影し、得られたフレーム内に対象被写体が存在しない場合に、前記追跡が失敗したと判定してもよい。   For example, in the first determination step, a three-dimensional model of the target subject is associated between frames, the associated three-dimensional model of the target subject is projected onto a frame at the current time, and the target subject is included in the obtained frame. May not be present, it may be determined that the tracking has failed.

これにより、精度よく被写体を追跡できる。   As a result, the subject can be tracked with high accuracy.

例えば、前記カメラ選択方法は、さらに、前記選択ステップの後のフレームにおいて、前記選択ステップを再度行うか否かを判定する第2判定ステップと、前記第2判定ステップにおいて、前記選択ステップを行うと判定された場合、前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを再度選択する再選択ステップとを含んでもよい。   For example, when the camera selection method further performs the selection step in a second determination step for determining whether or not to perform the selection step again in a frame after the selection step, and the second determination step. If it is determined, a re-selecting step of reselecting the M cameras from the N cameras based on the positions and shooting directions of the N cameras may be included.

例えば、前記第1判定ステップでは、前回の切り替えからの経過時間が第1時間未満の場合には、切り替えを行わないと判断し、前記経過時間が前記第1時間以上かつ前記第1時間より長い第2時間未満の場合には前記一部のカメラを前記他のカメラに切り替えるか否かを第1基準で判定し、前記経過時間が前記第2時間以上の場合には前記一部のカメラを前記他のカメラに切り替えるか否かを前記第1基準より緩い第2基準で判定してもよい。   For example, in the first determination step, when the elapsed time from the previous switching is less than the first time, it is determined that the switching is not performed, and the elapsed time is longer than the first time and longer than the first time. If it is less than the second time, it is determined by the first reference whether or not to switch the part of the cameras to the other camera, and if the elapsed time is not less than the second time, the part of the cameras is Whether to switch to the other camera may be determined based on a second reference that is looser than the first reference.

これにより、選択されるカメラが頻繁に切替ることを抑制できる。   Thereby, it can suppress that the selected camera switches frequently.

例えば、前記選択ステップは、前記N台のカメラで撮影された映像に基づき、前記N台のカメラの各々の第1評価値を算出するステップと、前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラに含まれるM台のカメラの組み合わせであるカメラ群の各々の第2評価値を算出するステップと、前記カメラ群に含まれるM台のカメラの前記第1評価値と、当該カメラ群の前記第2評価値とに基づき、当該カメラ群の第3評価値を算出するステップと、前記第3評価値が最も高いカメラ群に含まれる前記M台のカメラを選択するステップとを含んでもよい。   For example, the selecting step is based on a step of calculating a first evaluation value of each of the N cameras based on an image captured by the N cameras, and based on a position and a shooting direction of the N cameras. Calculating a second evaluation value of each camera group that is a combination of M cameras included in the N cameras; and the first evaluation value of M cameras included in the camera group; Calculating a third evaluation value of the camera group based on the second evaluation value of the camera group; and selecting the M cameras included in the camera group having the highest third evaluation value; May be included.

これにより、各カメラで撮影された映像に基づく評価値と、カメラの位置及び撮影方向に基づく評価値とに基づき、適切にカメラを選択できる。   Thereby, a camera can be appropriately selected based on the evaluation value based on the video imaged by each camera and the evaluation value based on the position and shooting direction of the camera.

また、本発明の一態様に係る映像配信システムは、同一の場面を撮影しているN(2以上の自然数)台のカメラから、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラを選択する映像配信システムであって、前記N台のカメラの位置及び撮影方向を取得する取得部と、取得された前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを選択する選択部とを備える。   In addition, the video distribution system according to one aspect of the present invention provides M (N is a natural number smaller than N) as the video source of the video to be displayed from N (two or more natural numbers) cameras capturing the same scene. A video distribution system for selecting the number of cameras, the acquisition unit acquiring the positions and shooting directions of the N cameras, and the number of the N cameras based on the acquired positions and shooting directions of the N cameras. And a selection unit that selects the M cameras from the cameras.

これにより、当該映像配信システムは、カメラの位置及び撮影方向に基づき、複数のカメラから適切にカメラを選択できる。   Thereby, the said video delivery system can select a camera appropriately from several cameras based on the position and imaging | photography direction of a camera.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. Also, any combination of recording media may be realized.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Hereinafter, embodiments will be specifically described with reference to the drawings. Note that each of the embodiments described below shows a specific example of the present invention. The numerical values, shapes, materials, constituent elements, arrangement positions and connecting forms of the constituent elements, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態)
(1)本実施の形態に係るカメラ選択方法では、多数のN台の母数カメラから、推定したカメラ位置及びカメラ姿勢(撮影方向)に基づき表示アプリケーションなどで表示可能なM本の映像を撮影しているカメラを初期選択する。また、当該カメラ選択方法では、初期選択したM台のカメラについて、カメラ切替が必要かを判定し、必要な場合は、N−M台のカメラから新たなカメラを選択する。
(Embodiment)
(1) In the camera selection method according to the present embodiment, M images that can be displayed by a display application or the like are shot from a large number of N parameter cameras based on the estimated camera position and camera orientation (shooting direction). Select the camera you are using. In the camera selection method, it is determined whether or not camera switching is necessary for the initially selected M cameras, and if necessary, a new camera is selected from the NM cameras.

また、当該カメラ選択方法では、選択されているカメラ全体をリセットした場合は、新たに初期選択を行う。   Further, in the camera selection method, when the entire selected camera is reset, a new initial selection is performed.

また、母数カメラ台数N及び初期選択で選ばれたカメラ台数Mは随時増減してもよい。   In addition, the number of parameter cameras N and the number of cameras M selected in the initial selection may be increased or decreased at any time.

(2)カメラ位置及びカメラ姿勢の推定は、N本以下の映像を使用する方法、或いはカメラのセンサ情報を使用する方法、又はこの両方を使用する方法がある。   (2) The estimation of the camera position and camera orientation includes a method using N or less videos, a method using camera sensor information, or a method using both.

(3)初期選択の方法は、撮影対象空間を死角なく撮影する方法、或いは特定の被写体を複数の方向から撮影する方法、又はこの両方を含む方法がある。   (3) As an initial selection method, there are a method of photographing a photographing target space without blind spots, a method of photographing a specific subject from a plurality of directions, or a method including both.

(4)M本の映像内のシーン、又はカメラの動きを任意の時間間隔毎に確認し、カメラを切替えるかどうか判定する。例えば、切替えるカメラ台数は1台以上M台以下である。また、1台のカメラを切替える場合、切替え前にカメラが撮影していたシーンに近いシーンを撮影しているカメラを選択する。また、切替え前のカメラ1台に対し、新たに2台以上を選択してもよい。   (4) Check the scenes in the M images or the movement of the camera at any time interval, and determine whether to switch the camera. For example, the number of cameras to be switched is 1 or more and M or less. Also, when switching one camera, a camera that is shooting a scene close to the scene shot by the camera before switching is selected. Two or more cameras may be newly selected for one camera before switching.

1より多くM台未満のカメラを切替える場合、1台のカメラを切替える場合と同様の選択処理を切替えるカメラそれぞれに対して行う。また、M台のカメラを切替える場合、初期選択と同じ処理を行う。この時、Mの値を増減させてもよい。   When switching between more than 1 and less than M cameras, the same selection process as that for switching one camera is performed for each camera to be switched. Further, when switching the M cameras, the same processing as the initial selection is performed. At this time, the value of M may be increased or decreased.

これにより、視聴可能な映像の母数が膨大な場合でも、視聴者、サーバ管理者、映像管理者、及び映像監視者に負担をかけることなく、視聴者にとって価値の高い多視点映像コンテンツの配信を実現できる。   As a result, even when the number of viewable video parameters is enormous, distribution of multi-view video content that is highly valuable to viewers without burdening viewers, server managers, video managers, and video supervisors Can be realized.

まず、本実施の形態に係る映像配信システム100の構成を説明する。図1は、本実施の形態に係る映像配信システム100の全体構成を示すブロック図である。この映像配信システム100は、各々がネットワーク104A又は104Bを介して通信可能な、複数のカメラ101と、端末装置102と、サーバ103とを含む。   First, the configuration of the video distribution system 100 according to the present embodiment will be described. FIG. 1 is a block diagram showing an overall configuration of a video distribution system 100 according to the present embodiment. This video distribution system 100 includes a plurality of cameras 101, a terminal device 102, and a server 103, each of which can communicate via a network 104A or 104B.

複数のカメラ101は、異なる視点から同一の場面を同一の時間帯に撮影することで複数の視点映像を生成する。各カメラ101は、複数のユーザの各々に携帯される。例えば、複数のカメラ101は、スポーツスタジアムのような場所にいる複数の観客に所有される。また、各カメラ101は、映像の撮影、及び音声の取得を行う。また、各カメラ101は、映像の撮影と同時に、カメラ101の位置情報及び姿勢情報(撮影方向)などを示す映像以外のセンサ情報をGPS、WiFi又はジャイロセンサなどを用いて取得する。カメラ101は、少なくとも撮影機能を有する機器であればよく、例えば、デジタルスチルカメラ、デジタルビデオカメラ、スマートフォン、又は携帯端末等である。なお、複数のカメラ101には、観客が所有するカメラだけでなく、固定カメラ又は放送用のカメラが含まれてもよい。また、各カメラ101は、撮影された視点映像、音声、及びセンサ情報を、ネットワーク104Aを経由してサーバ103へ送信する。   The plurality of cameras 101 generate a plurality of viewpoint videos by photographing the same scene from different viewpoints in the same time zone. Each camera 101 is carried by each of a plurality of users. For example, the plurality of cameras 101 are owned by a plurality of spectators in a place such as a sports stadium. In addition, each camera 101 performs video shooting and audio acquisition. In addition, each camera 101 acquires sensor information other than the image indicating the position information and posture information (shooting direction) of the camera 101 at the same time as shooting the image using a GPS, WiFi, gyro sensor, or the like. The camera 101 may be any device having at least a photographing function, and is, for example, a digital still camera, a digital video camera, a smartphone, or a mobile terminal. The plurality of cameras 101 may include not only cameras owned by the audience but also fixed cameras or broadcasting cameras. In addition, each camera 101 transmits the captured viewpoint video, audio, and sensor information to the server 103 via the network 104A.

また、本実施の形態では、複数のカメラ101は、例えば、ユーザに携帯されるデジタルカメラ又はスマートフォン等であり、各カメラ101の種類(機能)はそれぞれ異なる場合が想定される。   Moreover, in this Embodiment, the some camera 101 is a digital camera, a smart phone, etc. which are carried by the user, for example, and the case where the kind (function) of each camera 101 is different, respectively is assumed.

ネットワーク104A及び104Bは、例えば、インターネットである。なお、図1では、ネットワーク104A及び104Bを個別に記載しているが、単一のネットワークを介して、複数のカメラ101と、端末装置102と、サーバ103とが接続されてもよい。また、機器間の通信の一部又は全ては、ネットワーク104A又は104Bを介さず、直接行われてもよい。また、機器間の接続は、有線接続及び無線接続のどちらであってもよい。   The networks 104A and 104B are, for example, the Internet. In FIG. 1, the networks 104A and 104B are individually described. However, a plurality of cameras 101, the terminal device 102, and the server 103 may be connected via a single network. Further, part or all of communication between devices may be performed directly without going through the network 104A or 104B. The connection between the devices may be either a wired connection or a wireless connection.

サーバ103は、複数のカメラ101で撮影された視点映像を一時的に保持する。また、サーバ103は、端末装置102を介したユーザ106からの指示に従って、保持する複数の視点映像の一部をネットワーク104B経由で端末装置102に配信する。その際、サーバ103は、膨大な数の視点映像の中から、カメラ情報を用いた選択方法により端末装置102で再生可能な数の映像を選択する。カメラ情報は、カメラの位置、方向、及び焦点距離を示す。カメラ情報は、予めサーバに登録されている情報、映像と同時に取得されたセンサ情報、映像を処理して算出した情報、又は、センサ情報と映像情報とを用いて算出した情報である。選択方法は、撮影対象空間を死角なく撮影する方法、或いは特定の被写体を複数の方向から撮影する方法、又はその両方である。なお、カメラ情報は、上記情報に加え、画角(ズーム倍率)の情報を含んでもよい。   The server 103 temporarily holds viewpoint videos shot by the plurality of cameras 101. In addition, the server 103 distributes a part of the plurality of viewpoint videos to be held to the terminal device 102 via the network 104B in accordance with an instruction from the user 106 via the terminal device 102. At this time, the server 103 selects a number of videos that can be reproduced by the terminal device 102 from among a large number of viewpoint videos by a selection method using camera information. The camera information indicates the position, direction, and focal length of the camera. The camera information is information registered in advance in the server, sensor information acquired at the same time as the video, information calculated by processing the video, or information calculated using the sensor information and the video information. The selection method is a method of photographing the photographing target space without blind spots, a method of photographing a specific subject from a plurality of directions, or both. The camera information may include information on the angle of view (zoom magnification) in addition to the above information.

また、サーバ103は、ユーザ106の指示、或いは撮影シーン又はカメラの動きの解析結果に従って視点映像の切替等の処理を行う。   Further, the server 103 performs processing such as switching of the viewpoint video according to an instruction from the user 106 or an analysis result of a shooting scene or camera motion.

端末装置102は、ユーザ106の指示に従ってサーバ103から視点映像を受信し、ユーザ106の指示に従った方法にて視点映像をモニタ105に出力する。なお、モニタ105は、PCモニタ、又は、タブレット端末、スマートフォン、携帯電話或いはノートPCのモニタなど、どのような出力デバイスであってもよい。なお、ここでは端末装置102とモニタ105とを個別に記載しているが、モニタ105は端末装置102に含まれてもよい。   The terminal device 102 receives the viewpoint video from the server 103 according to the instruction of the user 106 and outputs the viewpoint video to the monitor 105 by a method according to the instruction of the user 106. The monitor 105 may be any output device such as a PC monitor, a tablet terminal, a smartphone, a mobile phone, or a notebook PC monitor. Here, the terminal device 102 and the monitor 105 are individually described, but the monitor 105 may be included in the terminal device 102.

また、ユーザからの指示は、例えば、画面タッチ操作又はマウスなどにより行われるが、どのような入力デバイスが用いられてもよい。   The instruction from the user is performed by, for example, a screen touch operation or a mouse, but any input device may be used.

ユーザの指示は、サーバ103へ送信される。ユーザの指示は、サーバ103での映像の配信開始、又は視点映像の切替のトリガとして用いられる。また、ユーザの指示に基づきサーバ103は映像選択方法を決定する。   The user instruction is transmitted to the server 103. The user's instruction is used as a trigger for starting video distribution on the server 103 or switching the viewpoint video. Further, the server 103 determines a video selection method based on a user instruction.

なお、音声データは必ずしも全てのカメラ101で取得される必要はない。また、映像配信システム100は、音声のみを取得するマイクを含んでもよい。サーバ103は、選択された映像に付加されている音声をそのまま一緒に端末装置102に配信してもよいし、対象領域又は対象被写体に最も近いカメラ101(又はマイク)で取得された音声を選択してもよいし、取得した中から音質の良い音声を選択してもよいし、複数の音声を音声合成することにより配信する音声を作成してもよい。   Note that the audio data is not necessarily acquired by all the cameras 101. The video distribution system 100 may include a microphone that acquires only audio. The server 103 may distribute the audio added to the selected video as it is to the terminal device 102 or select the audio acquired by the camera 101 (or microphone) closest to the target area or the target subject. Alternatively, a voice with good sound quality may be selected from the acquired voices, or a voice to be distributed may be created by synthesizing a plurality of voices.

なお、複数の視点映像が複数のカメラ101からリアルタイムに送信され、当該視点映像を、ユーザ106が端末装置102を用いてリアルタイムに視聴してもよいし、映像の送信及び視聴の少なくとも一方がリアルタイムに行なわれなくてもよい。つまり、ユーザ106は過去に撮影された視点映像を任意のタイミングで視聴してもよい。また、以下で述べる、映像信号(映像)の送信及び受信とは、主に、映像信号が連続的に送信又は受信されるストリーム送信及び受信を意味する。   A plurality of viewpoint videos may be transmitted from the plurality of cameras 101 in real time, and the user 106 may view the viewpoint videos in real time using the terminal device 102, or at least one of video transmission and viewing may be viewed in real time. It does not have to be performed. That is, the user 106 may view a viewpoint video shot in the past at an arbitrary timing. Further, the transmission and reception of video signals (video) described below mainly means stream transmission and reception in which video signals are continuously transmitted or received.

次に、サーバ103の構成を説明する。図2は、サーバ103の構成を示すブロック図である。このサーバ103は、受信部111と、蓄積部112と、制御部113と、カメラ情報算出部114と、初期カメラ選択部115と、カメラ切替判定部116と、切替カメラ選択部117と、リセット判定部118と、送信部119とを備える。   Next, the configuration of the server 103 will be described. FIG. 2 is a block diagram illustrating the configuration of the server 103. The server 103 includes a reception unit 111, a storage unit 112, a control unit 113, a camera information calculation unit 114, an initial camera selection unit 115, a camera switching determination unit 116, a switching camera selection unit 117, and a reset determination. Unit 118 and transmission unit 119.

受信部111は、複数のカメラ101から送信された視点映像及びセンサ情報を受信する。蓄積部112は、受信部111で受信された視点映像及びセンサ情報に、送信元のカメラ101を識別するID情報を付与して格納する。センサ情報とは、WiFi、GPS、又はジャイロセンサ等から出力される情報であり、カメラ位置及びカメラ姿勢を特定可能な情報である。また、蓄積部112は、視点映像及びセンサ情報を用いて、カメラ情報算出部114で算出されたカメラ位置及びカメラ姿勢を格納する。   The receiving unit 111 receives viewpoint video and sensor information transmitted from the plurality of cameras 101. The accumulating unit 112 adds ID information for identifying the transmission source camera 101 to the viewpoint video and sensor information received by the receiving unit 111 and stores them. The sensor information is information output from WiFi, GPS, a gyro sensor, or the like, and is information that can specify a camera position and a camera posture. Further, the storage unit 112 stores the camera position and the camera posture calculated by the camera information calculation unit 114 using the viewpoint video and the sensor information.

なお、蓄積部112は、受信部111が受信した視点映像及びセンサ情報をそのまま格納してもよいし、例えば、カメラ情報算出部114で三次元再構成処理を行うために、複数の視点映像をそれぞれフレームに分割し、同じ時刻のフレームを1つのセットとして格納してもよい。   Note that the storage unit 112 may store the viewpoint video and sensor information received by the reception unit 111 as they are. For example, in order to perform a three-dimensional reconstruction process in the camera information calculation unit 114, a plurality of viewpoint videos may be stored. Each may be divided into frames, and frames at the same time may be stored as one set.

制御部113は、各処理部の制御を行う。   The control unit 113 controls each processing unit.

カメラ情報算出部114は、蓄積部112から複数の視点映像を取得し、三次元再構成方法により、カメラ位置及びカメラ姿勢を算出する。なお、カメラ情報算出部114は、蓄積部112からセンサ情報を取得し、当該センサ情報を用いてカメラ位置及びカメラ姿勢を算出してもよいし、視点映像及びセンサ情報の両方を用いてカメラ位置及びカメラ姿勢を算出してもよい。算出されたカメラ位置及びカメラ姿勢は蓄積部112に格納される。   The camera information calculation unit 114 acquires a plurality of viewpoint videos from the storage unit 112, and calculates a camera position and a camera posture by a three-dimensional reconstruction method. The camera information calculation unit 114 may acquire sensor information from the storage unit 112 and calculate the camera position and camera posture using the sensor information. Alternatively, the camera information calculation unit 114 may calculate the camera position using both viewpoint video and sensor information. In addition, the camera posture may be calculated. The calculated camera position and camera posture are stored in the storage unit 112.

初期カメラ選択部115は、被写体を撮影している膨大な数のカメラ101から、ユーザに提供する視点数の選択カメラを選択する。初期カメラ選択部115は、この選択に、カメラ情報算出部114で算出されたカメラ位置及びカメラ姿勢を使用する。   The initial camera selection unit 115 selects a selected camera having the number of viewpoints to be provided to the user from the enormous number of cameras 101 that are photographing the subject. The initial camera selection unit 115 uses the camera position and camera posture calculated by the camera information calculation unit 114 for this selection.

カメラ切替判定部116は、表示中の映像を撮影しているカメラで撮影対象の空間又は被写体を捉えられているか確認し、捉えられていない場合はカメラを切替えると判定する。   The camera switching determination unit 116 confirms whether or not the space or subject to be captured is captured by the camera capturing the image being displayed, and determines that the camera is switched if not captured.

切替カメラ選択部117は、カメラ切替判定部116によりカメラを切替えると判定された場合、新たなカメラを選択する。切替カメラ選択部117は、この選択に、カメラ情報算出部114で算出されたカメラ位置及びカメラ姿勢を使用する。また、切替カメラ選択部117は、適切なカメラが存在しない場合には、選択カメラの台数を減らす。   The switching camera selection unit 117 selects a new camera when the camera switching determination unit 116 determines to switch the camera. The switching camera selection unit 117 uses the camera position and camera posture calculated by the camera information calculation unit 114 for this selection. Moreover, the switching camera selection part 117 reduces the number of selection cameras, when an appropriate camera does not exist.

リセット判定部118は、ユーザ106よりリセット指示が出た場合、又は、選択カメラの台数が0或いは閾値以下になった場合、初期カメラ選択を再度行う。   The reset determination unit 118 performs initial camera selection again when a reset instruction is issued from the user 106, or when the number of selected cameras is 0 or less than a threshold value.

以下、サーバ103の動作を説明する。まず、カメラ情報算出部114の処理を説明する。図3は、カメラ情報算出部114によるカメラ情報算出処理のフローチャートである。   Hereinafter, the operation of the server 103 will be described. First, the process of the camera information calculation unit 114 will be described. FIG. 3 is a flowchart of camera information calculation processing by the camera information calculation unit 114.

まず、カメラ情報算出部114は、入力処理として、複数のカメラ101により撮影された視点映像、センサ情報、又はその両方を蓄積部112から取得する(S101)。なお、いずれの情報を取得するかは、制御部113により指示される。また、カメラ情報算出部114は、三次元再構成処理を行うために、複数の視点映像をフレームに分割し、同時刻のフレーム同士の画像セットを作成してもよい。   First, the camera information calculation unit 114 acquires, as input processing, viewpoint videos, sensor information, or both taken by a plurality of cameras 101 from the storage unit 112 (S101). Note that which information is acquired is instructed by the control unit 113. Further, the camera information calculation unit 114 may divide a plurality of viewpoint videos into frames in order to perform a three-dimensional reconstruction process, and create an image set of frames at the same time.

入力処理により取得された情報が視点映像である場合(S102でYes)、カメラ情報算出部114は、三次元再構成処理を行う(S103)。具体的には、カメラ情報算出部114は、複数の視点映像を用いて各カメラの三次元再構成を行うことで、カメラ位置及びカメラ姿勢を算出する。三次元再構成では、エピポーラ幾何を拘束条件とし、x、y、zの3軸からなる三次元座標空間における各カメラの並進ベクトル及び回転行列が算出される。エピポーラ幾何に基づく三次元再構成の具体例については、図4を用いて後ほど詳細に説明する。並進ベクトルT及び回転行列Rはそれぞれ下記(式1)及び(式2)で表現される。並進ベクトルTは三次元空間におけるカメラ位置を示し、回転行列Rは三次元空間の各軸に対するカメラの傾き、つまりカメラ姿勢を示す。なお、α、β、γはそれぞれカメラをx、y、z軸周りに回転させた角度を示す。   When the information acquired by the input process is a viewpoint video (Yes in S102), the camera information calculation unit 114 performs a three-dimensional reconstruction process (S103). Specifically, the camera information calculation unit 114 calculates a camera position and a camera posture by performing three-dimensional reconstruction of each camera using a plurality of viewpoint videos. In the three-dimensional reconstruction, the translation vector and rotation matrix of each camera in a three-dimensional coordinate space composed of three axes of x, y, and z are calculated using epipolar geometry as a constraint condition. A specific example of the three-dimensional reconstruction based on the epipolar geometry will be described later in detail with reference to FIG. The translation vector T and the rotation matrix R are expressed by the following (formula 1) and (formula 2), respectively. The translation vector T indicates the camera position in the three-dimensional space, and the rotation matrix R indicates the tilt of the camera with respect to each axis in the three-dimensional space, that is, the camera posture. Α, β, and γ indicate angles obtained by rotating the camera around the x, y, and z axes, respectively.

Figure 0006621063
Figure 0006621063

入力処理により取得された情報がセンサ情報である場合(S102でNoかつS104でYes)、カメラ情報算出部114は、WiFi、GPS又はジャイロセンサ等のセンサ情報を用いてカメラ位置及びカメラ姿勢を算出する(S105)。例えば、カメラ情報算出部114は、三次元座標空間を設定し、三次元座標空間におけるカメラ位置の座標及び三次元座標空間の各軸に対するカメラの傾き、つまりカメラ姿勢を算出する。   When the information acquired by the input process is sensor information (No in S102 and Yes in S104), the camera information calculation unit 114 calculates the camera position and camera posture using sensor information such as WiFi, GPS, or a gyro sensor. (S105). For example, the camera information calculation unit 114 sets a three-dimensional coordinate space, and calculates the coordinates of the camera position in the three-dimensional coordinate space and the tilt of the camera with respect to each axis in the three-dimensional coordinate space, that is, the camera posture.

次に、カメラ情報算出部114は、ステップS103又はS105で算出したカメラ位置及びカメラ姿勢は蓄積部112に格納する(S106)。   Next, the camera information calculation unit 114 stores the camera position and camera posture calculated in step S103 or S105 in the storage unit 112 (S106).

また、ステップS101〜S106の一連の処理が、所定の時間間隔で繰り返し実行される。   In addition, a series of processes in steps S101 to S106 are repeatedly executed at predetermined time intervals.

なお、映像入力の判定(S102)とセンサ情報入力の判定(S104)の処理順は、この順序に限定されず、逆の順序であってもよし、一部又は全てが並列に行われてもよい。   Note that the processing order of the video input determination (S102) and the sensor information input determination (S104) is not limited to this order, and may be the reverse order, or a part or all of them may be performed in parallel. Good.

以下、図4を用いて三次元再構成の原理を説明する。   Hereinafter, the principle of three-dimensional reconstruction will be described with reference to FIG.

例えば、三次元再構成では、エピポーラ幾何を拘束条件として、世界座標系におけるカメラの座標及び姿勢が算出される。さらに、カメラにより撮影された画像上の点の世界座標系における三次元位置が算出される。   For example, in the three-dimensional reconstruction, the coordinates and orientation of the camera in the world coordinate system are calculated using epipolar geometry as a constraint condition. Furthermore, the three-dimensional position in the world coordinate system of the point on the image image | photographed with the camera is calculated.

ここで、図4に示す0は、世界座標系の原点であり、T、T、Tは、世界座標系におけるカメラ1、カメラ2、カメラ3のカメラ座標であり、R、R、Rは、世界座標系に対するカメラ1、カメラ2、カメラ3のカメラ座標系の傾きであり、Mは被写体上の点であり、m、m、mは、カメラ1、カメラ2、カメラ3で撮影された画像1、画像2、画像3に写った被写体上の点Mの位置である。 Here, 0 shown in FIG. 4 is the origin of the world coordinate system, T 1 , T 2 , and T 3 are the camera coordinates of the camera 1, camera 2, and camera 3 in the world coordinate system, and R 1 , R 2 and R 3 are inclinations of the camera coordinate system of the camera 1, the camera 2 and the camera 3 with respect to the world coordinate system, M is a point on the subject, and m 1 , m 2 and m 3 are the camera 1 and the camera 2 is the position of the point M on the subject in the images 1, 2, and 3 taken by the camera 3.

各カメラの位置及び撮影方向を取得するには、世界座標系におけるカメラの回転行列及び並進ベクトルを算出する必要がある。まず、画像1と画像2との回転行列及び並進ベクトルを算出する方法を述べる。画像1上の点m=(u、v、1)と画像2上の点m=(u、v、1)とが対応している時、両者にはエピポーラ方程式m Fm=0の関係が成り立つ。ここでFをFundamental matrix(F行列)と呼ぶ。 In order to acquire the position and shooting direction of each camera, it is necessary to calculate the rotation matrix and translation vector of the camera in the world coordinate system. First, a method for calculating the rotation matrix and the translation vector of image 1 and image 2 will be described. When the point m 1 = (u 1 , v 1 , 1) on the image 1 and the point m 2 = (u 2 , v 2 , 1) on the image 2 correspond to each other, the epipolar equation m 1 The relationship T Fm 2 = 0 holds. Here, F is referred to as Fundamental Matrix (F matrix).

各カメラの内部パラメータKを用いた変換式である(式3)によりそれぞれの点を各カメラ座標系の点である(式4)及び(式5)として取得でき、エピポーラ方程式が(式6)のにように書き換えられる。   Each point can be acquired as (Equation 4) and (Equation 5) which are points of each camera coordinate system by (Equation 3), which is a conversion equation using the internal parameter K of each camera, and the epipolar equation becomes (Equation 6). Can be rewritten as

Figure 0006621063
Figure 0006621063

ここで、EをEssential matrix(E行列)と呼ぶ。また、複数の対応点を用いてE行列の各要素を算出できる。また、画像間の点m及びmのような対応点を複数用いてF行列の各要素を算出した後、変換式EK−1FKによりE行列を取得してもよい。このE行列を分解することにより、世界座標系において画像1から画像2への回転行列及び並進ベクトルを取得できる。 Here, E is called an Essential matrix (E matrix). Further, each element of the E matrix can be calculated using a plurality of corresponding points. Further, after calculating each element of the F matrix using a plurality of corresponding points such as the points m 1 and m 2 between the images, the E matrix may be acquired by the conversion equation EK −1 FK. By decomposing this E matrix, the rotation matrix and translation vector from image 1 to image 2 can be acquired in the world coordinate system.

世界座標系におけるカメラ1の位置及び世界座標系の各軸に対するカメラ1の傾きが既知の場合は、上記相対関係を用いて、世界座標系におけるカメラ1及びカメラ2の位置及び姿勢を取得できる。世界座標系におけるカメラ1の位置及び姿勢は、映像以外のセンサ情報から算出してもよし、予め計測しておいてもよい。なお、カメラ1のカメラ座標系を世界座標系として、他のカメラの位置及び姿勢を算出してもよい。   When the position of the camera 1 in the world coordinate system and the tilt of the camera 1 with respect to each axis of the world coordinate system are known, the positions and orientations of the camera 1 and the camera 2 in the world coordinate system can be acquired using the relative relationship. The position and orientation of the camera 1 in the world coordinate system may be calculated from sensor information other than video, or may be measured in advance. Note that the position and orientation of another camera may be calculated using the camera coordinate system of the camera 1 as the world coordinate system.

また、画像1と画像2との回転行列及び並進ベクトルを用いて形成される三角形により世界座標系上の三次元点Mを取得できる。   In addition, a three-dimensional point M on the world coordinate system can be acquired by a triangle formed using the rotation matrix and translation vector of image 1 and image 2.

また、本実施の形態では、上記の幾何学的関係を3視点以上に拡張する。画像1と画像2に対し画像3を追加する例として具体的には、画像2と画像3、及び画像1と画像3についてもそれぞれE行列を算出し、各カメラ間の相対的な回転行列及び並進ベクトルを取得し、これらを統合することにより、画像3のカメラの世界座標系における回転行列及び並進ベクトルを算出できる。また、画像3と画像1及び画像2とのそれぞれで対応点から画像3の回転行列及び並進ベクトルを算出してもよい。詳細には、画像1と画像3、及び画像2と画像3で対応点を求める。ここで、画像1上のm及び画像2上のmに対応する画像3上のmが得られた場合、この対応点の三次元座標Mは取得できているため、画像3上の点と三次元空間内の座標との対応を取得できる。この時、下記(式7)の関係が成り立つ。 In this embodiment, the above geometric relationship is expanded to three or more viewpoints. Specifically, as an example of adding image 3 to image 1 and image 2, E matrix is also calculated for image 2 and image 3 and image 1 and image 3, respectively, and the relative rotation matrix between the cameras and By acquiring the translation vectors and integrating them, the rotation matrix and translation vector in the world coordinate system of the camera of the image 3 can be calculated. Further, the rotation matrix and the translation vector of the image 3 may be calculated from the corresponding points in each of the image 3 and the images 1 and 2. Specifically, corresponding points are obtained from image 1 and image 3 and image 2 and image 3. Here, if the m 3 of the image 3 corresponding to the m 2 on m 1 and the image 2 on the image 1 is obtained, since the three-dimensional coordinates M of corresponding points are acquired, the image 3 The correspondence between the points and the coordinates in the three-dimensional space can be acquired. At this time, the following relationship (Formula 7) holds.

Figure 0006621063
Figure 0006621063

ここでPをPerspective matrix(P行列)と呼ぶ。P行列、E行列及び内部行列には、P=KEという関係が成り立つため、画像3のE行列を取得できる。これにより回転行列及び並進ベクトルが求められる。   Here, P is referred to as Perspective matrix (P matrix). Since the relationship P = KE is established between the P matrix, the E matrix, and the inner matrix, the E matrix of the image 3 can be acquired. Thereby, a rotation matrix and a translation vector are obtained.

以下、サーバ103による映像選択処理について説明する。図5は、サーバ103による映像選択処理のフローチャートである。   Hereinafter, video selection processing by the server 103 will be described. FIG. 5 is a flowchart of video selection processing by the server 103.

まず、初期カメラ選択部115は、初期カメラ選択処理を行う(S111)。具体的には、初期カメラ選択部115は、被写体を撮影している膨大な数のカメラ101から、ユーザに提供する任意の数のカメラを選択する。初期カメラ選択部115は、この選択に、カメラ情報算出部114で算出されたカメラ位置及びカメラ姿勢を使用する。   First, the initial camera selection unit 115 performs an initial camera selection process (S111). Specifically, the initial camera selection unit 115 selects an arbitrary number of cameras to be provided to the user from the enormous number of cameras 101 that are photographing the subject. The initial camera selection unit 115 uses the camera position and camera posture calculated by the camera information calculation unit 114 for this selection.

次に、カメラ切替判定部116は、カメラ切替判定処理を行う(S112)。具体的には、カメラ切替判定部116は、表示中の映像を撮影しているカメラで撮影対象の空間又は被写体を捉えられているか確認し、捉えられていない場合、カメラを切替えると判定する。   Next, the camera switching determination unit 116 performs a camera switching determination process (S112). Specifically, the camera switching determination unit 116 checks whether or not the space or subject to be captured is captured by the camera that is capturing the displayed video, and determines that the camera is switched if not captured.

ステップS112においてカメラを切替えると判定された場合(S113でYes)、切替カメラ選択部117は、新たなカメラを選択する切替カメラ選択処理を行う(S114)。具体的には、カメラ切替判定部116は、この選択に、カメラ情報算出部114で算出されたカメラ位置及びカメラ姿勢を使用する。   If it is determined in step S112 that the cameras are to be switched (Yes in S113), the switched camera selection unit 117 performs a switched camera selection process for selecting a new camera (S114). Specifically, the camera switching determination unit 116 uses the camera position and camera posture calculated by the camera information calculation unit 114 for this selection.

なお、適切なカメラが存在しない場合、切替カメラ選択部117は、選択するカメラの台数を減らしてもよい。また、切替前のカメラ1台に対し、適切なカメラが複数存在する場合は、切替カメラ選択部117は、選択するカメラの台数を増やしてもよい。   Note that when there is no appropriate camera, the switching camera selection unit 117 may reduce the number of cameras to be selected. Further, when there are a plurality of appropriate cameras for one camera before switching, the switching camera selection unit 117 may increase the number of cameras to be selected.

次に、リセット判定部118は、リセット判定処理を行う(S115)。具体的には、リセット判定部118は、ユーザよりリセット指示が出た場合、又は、選択するカメラの台数が0或いは閾値以下になった場合、現在選択されている全てのカメラをリセットすると判定する。   Next, the reset determination unit 118 performs a reset determination process (S115). Specifically, the reset determination unit 118 determines to reset all currently selected cameras when a reset instruction is issued from the user, or when the number of cameras to be selected is 0 or less than a threshold value. .

ステップS115においてリセットすると判定された場合(S116でYes)、新たに初期カメラ選択が行われる(S111)。なお、このとき、初期カメラ選択部115は、新たに初期選択するカメラの台数を現在の選択カメラの台数から増加又は減少させてもよい。   If it is determined to reset in step S115 (Yes in S116), initial camera selection is newly performed (S111). At this time, the initial camera selection unit 115 may increase or decrease the number of newly selected cameras from the number of currently selected cameras.

また、ステップS112〜S116の一連の処理が、所定の時間間隔で繰り返し実行される。   In addition, a series of processes in steps S112 to S116 are repeatedly executed at predetermined time intervals.

以下、初期カメラ選択部115による初期カメラ選択処理(図5のS111)について説明する。図6は、初期映像選択処理(S111)のフローチャートである。   Hereinafter, the initial camera selection process (S111 in FIG. 5) by the initial camera selection unit 115 will be described. FIG. 6 is a flowchart of the initial video selection process (S111).

本実施の形態では、撮影モードとして、空間撮影モード、追跡撮影モード、及びハイブリッド撮影モードの3つの撮影モードが存在する。なお、3つの撮影モードの全てが用いられる必要はなく、一つ又は二つの撮影モードのみが用いられてもよい。   In the present embodiment, there are three shooting modes as a shooting mode: a spatial shooting mode, a tracking shooting mode, and a hybrid shooting mode. Note that not all three shooting modes need be used, and only one or two shooting modes may be used.

これの撮影モードの選択は、制御部113によって制御される。具体的には、制御部113は、ユーザの指定、イベントの発生、追跡対象の自動検知、又は選択カメラ台数に基づき、撮影モードを選択する。   The selection of the shooting mode is controlled by the control unit 113. Specifically, the control unit 113 selects a shooting mode based on user designation, event occurrence, tracking target automatic detection, or the number of selected cameras.

空間撮影モードとは、指定された実空間中の領域である対象領域を撮影するためにカメラを選択するモードである。追跡撮影モードとは、指定された実空間中の動いている人物又は物体などのオブジェクトである対象被写体を追跡撮影するためにカメラを選択するモードである。ハイブリッド撮影モードは、空間撮影モード及び追跡撮影モードの両方を組み合わせたモードである。   The space shooting mode is a mode in which a camera is selected for shooting a target area that is an area in a specified real space. The tracking shooting mode is a mode for selecting a camera for tracking shooting a target subject that is an object such as a moving person or object in a specified real space. The hybrid shooting mode is a mode in which both the space shooting mode and the tracking shooting mode are combined.

撮影モードが空間撮影モードである場合(S121でYes)、初期カメラ選択部115は、ユーザの指定した映像上の領域に対応する三次元領域、又はシーン解析により重要と判定した三次元領域である対象領域を最も多く含んでいる映像を撮影している1台のカメラをメインカメラとして選択する(S122)。また、このカメラを空間メインカメラとも呼ぶ。   When the shooting mode is the space shooting mode (Yes in S121), the initial camera selection unit 115 is a three-dimensional region corresponding to the region on the video specified by the user or a three-dimensional region determined to be important by scene analysis. One camera that captures an image including the largest target area is selected as the main camera (S122). This camera is also called a spatial main camera.

また、初期カメラ選択部115は、三次元再構成を行った場合、映像上の領域と三次元位置の対応付けに三次元モデルを使用する。また、初期カメラ選択部115は、シーン解析では、撮影対象空間の中心、又は撮影対象空間への出入口を重要と判定する。   In addition, when the three-dimensional reconstruction is performed, the initial camera selection unit 115 uses the three-dimensional model for associating the region on the video with the three-dimensional position. Further, in the scene analysis, the initial camera selection unit 115 determines that the center of the shooting target space or the entrance to the shooting target space is important.

次に、初期カメラ選択部115は、メインカメラを基準として撮影対象空間を均等な間隔、又は死角なく撮影するように複数のサブカメラを選択する(S123)。これらのカメラを空間サブカメラとも呼ぶ。   Next, the initial camera selection unit 115 selects a plurality of sub-cameras so that the imaging target space is imaged with equal intervals or no blind spots with the main camera as a reference (S123). These cameras are also called spatial sub-cameras.

一方、撮影モードが追跡撮影モードである場合(S124でYes)、初期カメラ選択部115は、ユーザの指定した1つの被写体、又はシーン解析により重要と判定した1つの被写体である対象被写体を最も多く含んでいる映像を撮影している1台のカメラをメインカメラとして選択する(S125)。このカメラを追跡メインカメラとも呼ぶ。なお、初期カメラ選択部115は、対象被写体が複数ある場合は、1つの対象被写体に対し1台のメインカメラを選択する。   On the other hand, when the shooting mode is the tracking shooting mode (Yes in S124), the initial camera selection unit 115 has the largest number of target subjects that are one subject specified by the user or one subject determined to be important by scene analysis. One camera that captures the included video is selected as the main camera (S125). This camera is also called a tracking main camera. Note that the initial camera selection unit 115 selects one main camera for one target subject when there are a plurality of target subjects.

また、初期カメラ選択部115は、シーン解析では、異常行動している人物、又は試合で最も注目されている人物等を重要と判定する。   In addition, in the scene analysis, the initial camera selection unit 115 determines that a person who is acting abnormally or a person who is most noted in a game is important.

なお、初期カメラ選択部115は、対象被写体が最も多く含んでいることを基準とする代わりに、対象被写体を最も正面から撮影していることを基準としてもよい。   Note that the initial camera selection unit 115 may be based on photographing the target subject from the front instead of using the largest number of target subjects.

次に、初期カメラ選択部115は、メインカメラを基準として被写体を均等な間隔で取り囲むように複数のサブカメラを選択する(S126)。これらのカメラを追跡サブカメラとも呼ぶ。   Next, the initial camera selection unit 115 selects a plurality of sub cameras so as to surround the subject at equal intervals with the main camera as a reference (S126). These cameras are also called tracking sub-cameras.

一方、撮影モードがハイブリッド撮影モードである場合(S121でNoかつS124でNo)、初期カメラ選択部115は、空間撮影モードのメインカメラの選択と同様の方法で空間メインカメラを1台選択し、対象撮影モードのメインカメラ選択と同様の方法で追跡メインカメラを1台選択する(S127)。   On the other hand, when the shooting mode is the hybrid shooting mode (No in S121 and No in S124), the initial camera selection unit 115 selects one spatial main camera in the same manner as the selection of the main camera in the spatial shooting mode, One tracking main camera is selected in the same manner as the main camera selection in the target shooting mode (S127).

次に、初期カメラ選択部115は、サブカメラの台数を任意の割合で空間撮影モードと対象撮影モードに割当てる。そして、初期カメラ選択部115は、空間撮影モードと同じ方法で空間サブカメラを選択し、追跡撮影モードと同じ方法で追跡サブカメラを選択する(S128)。   Next, the initial camera selection unit 115 assigns the number of sub cameras to the space shooting mode and the target shooting mode at an arbitrary ratio. Then, the initial camera selection unit 115 selects a spatial sub camera by the same method as the spatial shooting mode, and selects a tracking sub camera by the same method as the tracking shooting mode (S128).

なお、空間撮影モードの確認(S121)と追跡撮影モードの確認(S124)との順序は、この順序に限らず、逆の順序であってもよし、一部又は全てが並列に行われてもよい。   Note that the order of the confirmation of the spatial photographing mode (S121) and the confirmation of the tracking photographing mode (S124) is not limited to this order, and may be in the reverse order, or a part or all of them may be performed in parallel. Good.

以下、カメラ切替判定部116によるカメラ切替判定処理(図5のS112)について説明する。図7は、カメラ切替判定処理(S112)のフローチャートである。   Hereinafter, the camera switching determination process (S112 in FIG. 5) by the camera switching determination unit 116 will be described. FIG. 7 is a flowchart of the camera switching determination process (S112).

カメラ切替判定部116は、初期カメラ選択処理で選択された複数のカメラの各々に対してステップS131〜S133の処理を行う。   The camera switching determination unit 116 performs the processes of steps S131 to S133 for each of the plurality of cameras selected in the initial camera selection process.

まず、カメラ切替判定部116は、処理対象のカメラ(以下、対象カメラと記す)が空間カメラ(空間メインカメラ又は空間サブカメラ)であるかを判定する(S131)。   First, the camera switching determination unit 116 determines whether a processing target camera (hereinafter referred to as a target camera) is a space camera (a space main camera or a space sub camera) (S131).

対象カメラが空間カメラである場合(S131でYes)、カメラ切替判定部116は、対象カメラが動くことにより指定された撮影領域がフレームアウトした場合、切替が必要と判定する(S132)。具体的には、カメラ切替判定部116は、カメラ位置の移動量及び撮影方向の回転量が、カメラの視野角に応じて事前に設定された、カメラ位置の移動量及び撮影方向の回転量の閾値を超えた場合、撮影領域がフレームアウトしたと判定する。   When the target camera is a spatial camera (Yes in S131), the camera switching determination unit 116 determines that switching is necessary when the designated shooting area is out of frame due to the movement of the target camera (S132). Specifically, the camera switching determination unit 116 sets the amount of movement of the camera position and the amount of rotation in the shooting direction in which the movement amount of the camera position and the rotation amount in the shooting direction are set in advance according to the viewing angle of the camera. When the threshold value is exceeded, it is determined that the shooting area has been out of frame.

一方、対象カメラが追跡カメラ(追跡メインカメラ又は追跡サブカメラ)である場合(S131でNo)、カメラ切替判定部116は、追跡カメラ切替判定処理を行う(S133)。例えば、カメラ切替判定部116は、カメラ情報取得処理において三次元再構成を行った場合は三次元モデルを使用して追跡を行う。   On the other hand, when the target camera is a tracking camera (tracking main camera or tracking sub camera) (No in S131), the camera switching determination unit 116 performs tracking camera switching determination processing (S133). For example, the camera switching determination unit 116 performs tracking using a three-dimensional model when three-dimensional reconstruction is performed in the camera information acquisition process.

以下、追跡カメラ切替判定処理(図7のS133)について説明する。図8は、追跡カメラ切替判定処理(S133)のフローチャートである。   Hereinafter, the tracking camera switching determination process (S133 in FIG. 7) will be described. FIG. 8 is a flowchart of the tracking camera switching determination process (S133).

まず、カメラ切替判定部116は、二次元画像上で追跡を行うか、三次元モデル内で追跡を行うかを判定する(S141)。具体的には、カメラ切替判定部116は、三次元再構成を行わない場合は、二次元画像上で追跡を行うと判定する。また、カメラ切替判定部116は、三次元再構成を行う場合は、サーバの許容負荷、要求追跡精度、又はユーザ指定に基づき、二次元画像上で追跡を行うか、三次元モデル内で追跡を行うかを選択する。   First, the camera switching determination unit 116 determines whether to perform tracking on a two-dimensional image or to perform tracking in a three-dimensional model (S141). Specifically, the camera switching determination unit 116 determines to perform tracking on the two-dimensional image when the three-dimensional reconstruction is not performed. In addition, when performing the 3D reconstruction, the camera switching determination unit 116 performs tracking on the 2D image or tracking in the 3D model based on the allowable load of the server, the required tracking accuracy, or the user designation. Choose what to do.

なお、カメラ切替判定部116は、二次元画像上で追跡を行う処理と、三次元モデル内で追跡を行う処理とを選択的に行うのではなく、どちらか一方のみを行ってもよい。   Note that the camera switching determination unit 116 may perform only one of the process of performing tracking on the two-dimensional image and the process of performing tracking within the three-dimensional model.

二次元画像上で追跡を行う場合(S141でYes)、カメラ切替判定部116は、シーン解析により指定された又はユーザにより指定された、画像中の対象被写体を選択中の追跡カメラが撮影している時系列画像のみを使用した対象被写体の追跡を開始する(S142)。   When tracking is performed on a two-dimensional image (Yes in S141), the camera switching determination unit 116 captures the tracking camera that is selecting the target subject in the image specified by the scene analysis or specified by the user. The tracking of the target subject using only the time-series images is started (S142).

カメラ切替判定部116は、撮影フレームレート間隔で、現在のフレームと過去のフレームとの間で同一の被写体を対応付ける(S143)。   The camera switching determination unit 116 associates the same subject between the current frame and the past frame at the shooting frame rate interval (S143).

追跡が成功した場合(S144でYes)、つまり、被写体の対応付けが成功した場合、カメラ切替判定部116は、次のフレームに対してステップS143以降の処理を行う。一方、追跡が失敗した場合(S144でNo)、つまり、被写体の対応付けが失敗した場合、カメラ切替判定部116は、選択中のカメラでは対象被写体を追跡できなくなったと判定し、カメラ切替が必要と判定する(S145)。   When the tracking is successful (Yes in S144), that is, when the association of the subject is successful, the camera switching determination unit 116 performs the process from step S143 on the next frame. On the other hand, if the tracking fails (No in S144), that is, if the association of the subject fails, the camera switching determination unit 116 determines that the target camera can no longer be tracked by the selected camera, and the camera needs to be switched. (S145).

一方、三次元モデル内で追跡を行う場合(S141でNo)、カメラ切替判定部116は、対象被写体を三次元モデルに対応付け、三次元モデル内での対象被写体の追跡を開始する(S146)。   On the other hand, when tracking is performed in the 3D model (No in S141), the camera switching determination unit 116 associates the target subject with the 3D model and starts tracking the target subject in the 3D model (S146). .

カメラ切替判定部116は、撮影フレームレート間隔で、現在の三次元モデルと過去の三次元モデルとで同一の被写体を対応付ける。そして、カメラ切替判定部116は、対応付けられた被写体を選択中の追跡カメラの現時刻のフレームへ投影する(S147)。   The camera switching determination unit 116 associates the same subject with the current 3D model and the past 3D model at the shooting frame rate interval. Then, the camera switching determination unit 116 projects the associated subject onto the frame at the current time of the selected tracking camera (S147).

追跡が成功した場合、つまり、フレーム間での三次元モデルの対応付けが完了し、かつ、投影により得られた現時刻のフレーム内に対象被写体が含まれる場合(S148でYes)、カメラ切替判定部116は、次のフレームに対してステップS147以降の処理を行う。一方、追跡が失敗した場合(S148でNo)、つまり、フレーム間での三次元モデルの対応付けが失敗した場合、又は、投影により得られた現時刻のフレーム内に対象被写体が含まれない場合、カメラ切替判定部116は、選択中のカメラでは対象被写体を追跡できなくなったと判定し、カメラ切替が必要と判定する(S145)。   When the tracking is successful, that is, when the association of the 3D model between the frames is completed and the target subject is included in the frame at the current time obtained by the projection (Yes in S148), the camera switching determination The unit 116 performs the processing after step S147 for the next frame. On the other hand, when tracking fails (No in S148), that is, when matching of the 3D model between frames fails, or when the target subject is not included in the frame at the current time obtained by projection The camera switching determination unit 116 determines that the target camera can no longer be tracked by the selected camera, and determines that camera switching is necessary (S145).

また、追跡カメラ切替判定処理及び追跡カメラの切替カメラ選択処理は、二次元画像のみで被写体を追跡するケースと三次元モデルのみで被写体を追跡するケースとこれらの両方を用いるケースとの3つがある。各ケースの詳細は図10〜図12で説明する。   The tracking camera switching determination process and the tracking camera switching camera selection process include three cases: a case where the subject is tracked only with a two-dimensional image, a case where the subject is tracked only with a three-dimensional model, and a case where both are used. . Details of each case will be described with reference to FIGS.

以下、切替カメラ選択処理(図5のS114)について説明する。図9は、切替カメラ選択処理(S114)のフローチャートである。   Hereinafter, the switching camera selection process (S114 in FIG. 5) will be described. FIG. 9 is a flowchart of the switching camera selection process (S114).

切替が必要と判定されたカメラの各々に対して、図9に示すステップS151〜S157の処理が行われる。   The processes of steps S151 to S157 shown in FIG. 9 are performed for each camera determined to be switched.

対象カメラが空間カメラである場合(S151でYes)、切替カメラ選択部117は、任意に設定された範囲にある複数台の候補カメラから、カメラ位置、カメラ姿勢、及び焦点距離が、切替前の空間カメラの初期映像選択時のカメラ位置、カメラ姿勢、及び焦点距離に最も近いカメラを新たな空間カメラとして選択する(S152)。   When the target camera is a spatial camera (Yes in S151), the switching camera selection unit 117 determines that the camera position, the camera posture, and the focal length from the plurality of candidate cameras in the arbitrarily set range are not changed. A camera closest to the camera position, camera posture, and focal length at the time of initial video selection of the spatial camera is selected as a new spatial camera (S152).

具体的には、下記評価式(式8)が用いられる。   Specifically, the following evaluation formula (Formula 8) is used.

score=w1*(pos(cA)−pos(cB))^2
+w2*(dir(cA)−dir(cB))^2
+w3*(for(cA)−for(cB))^2 ・・・(式8)
score = w1 * (pos (cA) −pos (cB)) ^ 2
+ W2 * (dir (cA) -dir (cB)) ^ 2
+ W3 * (for (cA) -for (cB)) ^ 2 (Equation 8)

ここで、w1、w2及びw3は重み係数であり、pos(ck)はカメラkのカメラ位置を示し、dir(ck)はカメラkのカメラ姿勢を示し、for(ck)はカメラkの焦点距離を示し、cAは切替前の空間カメラを示し、cBは候補カメラを示す。   Here, w1, w2 and w3 are weighting factors, pos (ck) indicates the camera position of the camera k, dir (ck) indicates the camera posture of the camera k, and for (ck) is the focal length of the camera k. CA represents a spatial camera before switching, and cB represents a candidate camera.

上記の評価式を使用する場合、切替カメラ選択部117は、複数台の候補カメラの中で最もscoreの小さな1台を新たな空間カメラとして選択する。   When using the above evaluation formula, the switching camera selection unit 117 selects one of the plurality of candidate cameras having the smallest score as a new spatial camera.

一方、対象カメラが追跡カメラである場合(S151でNo)、切替カメラ選択部117は、二次元画像のみを用いて切替カメラの選択を行うか、三次元モデルを用いて切替カメラの選択を行うかを判定する(S153)。なお、この判定の手法は、例えば、上述したステップS141と同様である。   On the other hand, when the target camera is a tracking camera (No in S151), the switching camera selection unit 117 selects a switching camera using only a two-dimensional image or selects a switching camera using a three-dimensional model. Is determined (S153). This determination method is the same as that in step S141 described above, for example.

切替カメラ選択部117は、二次元画像のみを用いて切替カメラを選択する場合(S153でYes)、カメラ切替判定部116で追跡した被写体がフレームから消失した時の位置を推定する。そして、切替カメラ選択部117は、その推定位置を撮影しているカメラのうち、被写体が最も中心に存在、又は被写体が最も大きく映っているカメラを選択する(S154)。   When the switching camera selection unit 117 selects a switching camera using only a two-dimensional image (Yes in S153), the switching camera selection unit 117 estimates the position when the subject tracked by the camera switching determination unit 116 disappears from the frame. Then, the switching camera selection unit 117 selects a camera in which the subject is present at the center or the subject is shown to be the largest among the cameras capturing the estimated position (S154).

一方、切替カメラ選択部117は、三次元モデルを用いて切替カメラを選択する場合(S153でNo)、カメラ切替判定処理において、二次元画像上で被写体の追跡を行ったか、三次元モデル上で被写体の追跡を行ったかを判定する(S155)。   On the other hand, when the switching camera selection unit 117 selects a switching camera using a three-dimensional model (No in S153), in the camera switching determination process, whether the subject has been tracked on the two-dimensional image, or on the three-dimensional model. It is determined whether the subject has been tracked (S155).

二次元画像上で被写体の追跡を行った場合(S155でYes)、切替カメラ選択部117は、カメラ切替判定部116で追跡した被写体が消失した1つ前のフレームの被写体の三次元モデルを算出する。そして、切替カメラ選択部117は、その三次元モデルを撮影しているカメラのうち、被写体が最も中心に存在、又は被写体が最も大きく映っているカメラを選択する(S156)。   When the subject is tracked on the two-dimensional image (Yes in S155), the switching camera selection unit 117 calculates a three-dimensional model of the subject of the previous frame where the subject tracked by the camera switching determination unit 116 disappeared. To do. Then, the switching camera selection unit 117 selects a camera in which the subject is present at the center or the subject is the largest among the cameras capturing the three-dimensional model (S156).

一方、三次元モデル上で被写体の追跡を行った場合(S155でNo)、切替カメラ選択部117は、カメラ切替判定部116で追跡した被写体を撮影しているカメラのうち、被写体が最も中心に存在、又は被写体が最も大きく映っているカメラを選択する(S157)。   On the other hand, when the subject is tracked on the three-dimensional model (No in S155), the switching camera selection unit 117 has the subject at the center of the cameras capturing the subject tracked by the camera switching determination unit 116. The camera that is present or the subject is the largest is selected (S157).

なお、いずれの切替方法においても、切替カメラ選択部117は、切替に適したカメラが存在しない場合は、切替を行わず、選択するカメラ台数を減らしてもよいし、切替えに適したカメラが複数存在する場合は、1台のカメラを複数のカメラに増やしてもよい。   In any switching method, when there is no camera suitable for switching, the switching camera selection unit 117 may not switch and reduce the number of cameras to be selected, or a plurality of cameras suitable for switching. If present, one camera may be increased to a plurality of cameras.

なお、カメラの撮影モードの確認(S151)、切替方法の確認(S153)、及び追跡方法の確認(S155)の処理順は、この順序に限定されず、任意の順序であってよい。また、一部又は全てが並列に行われてもよい。   Note that the processing order of camera shooting mode confirmation (S151), switching method confirmation (S153), and tracking method confirmation (S155) is not limited to this order, and may be any order. Some or all of them may be performed in parallel.

以下、追跡カメラ切替判定処理及び切替カメラ選択処理において、二次元画像のみを用いて被写体を追跡する動作を詳細に説明する。図10及び図11は、この動作を説明するための図である。   Hereinafter, an operation for tracking a subject using only a two-dimensional image in the tracking camera switching determination process and the switching camera selection process will be described in detail. 10 and 11 are diagrams for explaining this operation.

図10は、追跡カメラで時刻t、t+1及びt+2に撮影されたフレーム201A、201B及び201Cを示す図である。   FIG. 10 is a diagram illustrating frames 201A, 201B, and 201C that are captured by the tracking camera at times t, t + 1, and t + 2.

まず、カメラ切替判定部116は、時刻t+1において、時刻t+1のフレーム201Bと時刻tのフレーム201Aとの間の対応付けにより被写体202を追跡する。なお、この対応付けは、連続するフレーム間で行う必要はなく、1以上のフレームを跨いだ2つのフレーム間で行われてもよいし、未来の例えば、時刻t+2のフレームも含めた3以上のフレーム間で行われてもよい。   First, the camera switching determination unit 116 tracks the subject 202 at time t + 1 by associating the frame 201B at time t + 1 and the frame 201A at time t. Note that this association does not have to be performed between consecutive frames, and may be performed between two frames straddling one or more frames, or may include three or more frames including future frames such as time t + 2. It may be performed between frames.

具体的には、カメラ切替判定部116は、この対応付けを、被写体を囲む矩形領域のテンプレートマッチングを用いて行う。なお、カメラ切替判定部116は、矩形領域を分割したサブ領域毎のテンプレートマッチングの結果を統合し、統合された結果を用いて対応付けを行ってもよいし、被写体上の複数の特徴点又は局所特徴量の対応付けにより、フレーム間の対応付けを行ってもよい。   Specifically, the camera switching determination unit 116 performs this association using template matching of a rectangular area surrounding the subject. The camera switching determination unit 116 may integrate the template matching results for each sub-region obtained by dividing the rectangular region, and may perform association using the integrated result, or may include a plurality of feature points on the subject or Correlation between frames may be performed by associating local feature amounts.

また、カメラ切替判定部116は、被写体領域を正解領域とし、その周辺領域を非正解領域としたオンライン学習を行うことによる追跡を行ってもよい。   In addition, the camera switching determination unit 116 may perform tracking by performing online learning in which the subject area is set as the correct answer area and the surrounding area is set as the non-correct answer area.

また、カメラ切替判定部116は、被写体の追跡を選択中のカメラ1台のみを用いて行うのではなく、選択中のカメラを含む複数のカメラを用いて行い、複数のカメラの追跡結果を統合し、統合結果を用いて追跡を行ってもよい。例えば、カメラ切替判定部116は、予め複数視点から撮影された被写体を学習したデータベースを用いて特定物体識別を行うことで、各カメラの映像における同一被写体を認識する。   Further, the camera switching determination unit 116 does not perform tracking of the subject using only one selected camera, but uses a plurality of cameras including the selected camera, and integrates the tracking results of the plurality of cameras. Then, tracking may be performed using the integration result. For example, the camera switching determination unit 116 recognizes the same subject in the video of each camera by performing specific object identification using a database in which subjects photographed in advance from a plurality of viewpoints are learned.

また、時刻t+2において、被写体202が追跡カメラからフレームアウトする。図11は、時刻t+2における実空間の状況を示す図である。カメラ101Aは、選択中の追跡カメラであり、領域203Aを撮影している。   At time t + 2, the subject 202 is out of the frame from the tracking camera. FIG. 11 is a diagram illustrating the state of the real space at time t + 2. The camera 101A is a tracking camera that is being selected, and images the region 203A.

時刻t+2で被写体202がフレームアウトしたため、カメラ切替判定部116はカメラの切替が必要であると判定する。   Since the subject 202 is out of frame at time t + 2, the camera switching determination unit 116 determines that the camera needs to be switched.

また、切替カメラ選択部117は、カメラ情報算出部114で算出した選択中の追跡カメラの位置、姿勢及び焦点距離から画像の視野に映る領域203Aを算出する。そして、切替カメラ選択部117は、フレームアウトした被写体202がこの領域203Aの右側付近にいると推定する。   In addition, the switching camera selection unit 117 calculates a region 203 </ b> A that appears in the field of view of the image from the position, orientation, and focal length of the selected tracking camera calculated by the camera information calculation unit 114. Then, the switching camera selection unit 117 estimates that the framed out subject 202 is near the right side of the region 203A.

切替カメラ選択部117は、領域203Aの右側付近を撮影している複数のカメラのうち、被写体202を最も中心に撮影している、又は被写体の面積が最も大きい映像を撮影しているカメラ101Bを新たな追跡カメラとして選択する。この例では、カメラ101Bは、被写体202を含む領域203Bを撮影している。   The switching camera selection unit 117 selects the camera 101B that is shooting centering on the subject 202 or shooting the video with the largest area of the subject among the plurality of cameras that are shooting near the right side of the region 203A. Select as a new tracking camera. In this example, the camera 101B captures an area 203B including the subject 202.

ここで、追跡を続行するためには、カメラ101Bで撮影された画像内で被写体202を特定する必要がある。例えば、切替カメラ選択部117は、カメラ101Aの時刻t+1のフレームとカメラ101Bの時刻t+2のフレームとの間で対応付けを行う。例えば、この対応付けには、カメラ101Aのフレーム間で実施した追跡方法と同様の方法を用いる。   Here, in order to continue the tracking, it is necessary to specify the subject 202 in the image captured by the camera 101B. For example, the switching camera selection unit 117 performs association between the frame at time t + 1 of the camera 101A and the frame at time t + 2 of the camera 101B. For example, a method similar to the tracking method performed between frames of the camera 101A is used for this association.

なお、2つのカメラ101Aと101Bとの間の視野の違いを補正するために、切替カメラ選択部117は、さらにカメラ位置、姿勢及び焦点距離などのカメラ情報を用いて、射影変換したフレームを用いて追跡を行ってもよい。   Note that, in order to correct the difference in field of view between the two cameras 101A and 101B, the switching camera selection unit 117 further uses a frame obtained by projective transformation using camera information such as the camera position, posture, and focal length. Tracking may be performed.

また、カメラ切替は、被写体がフレームアウトした場合に限らず、被写体が選択中の追跡カメラの撮影領域内に存在しているが、オクルージョンによりフレームから消失した場合にも行われる。   The camera switching is not limited to the case where the subject is out of frame, but is also performed when the subject exists in the shooting area of the selected tracking camera but disappears from the frame due to occlusion.

また、切替カメラ選択部117は、必ずしも被写体がフレームから消失して即座にカメラを切替える必要はなく、消失中も被写体の動きを推定し続け、再びフレーム内に出現するのを待ってもよい。つまり、切替カメラ選択部117は、予め定められた期間(複数フレーム)の間、被写体がフレーム内に含まれない場合にカメラ切替を行ってもよい。   In addition, the switching camera selection unit 117 does not necessarily switch the camera immediately after the subject disappears from the frame, and may continue to estimate the motion of the subject during the disappearance and wait for it to appear in the frame again. That is, the switching camera selection unit 117 may perform camera switching when a subject is not included in a frame for a predetermined period (a plurality of frames).

以下、追跡カメラ切替判定処理及び切替カメラ選択処理において、三次元モデルのみを用いて被写体を追跡する動作を詳細に説明する。図12は、この動作を説明するための図である。   Hereinafter, in the tracking camera switching determination process and the switching camera selection process, an operation for tracking the subject using only the three-dimensional model will be described in detail. FIG. 12 is a diagram for explaining this operation.

まず、時刻tにおいて、画像(フレーム201A)上において追跡対象の被写体202が指定された場合、画像上の被写体202を三次元モデル内で特定する必要がある。   First, when the subject 202 to be tracked is specified on the image (frame 201A) at time t, it is necessary to specify the subject 202 on the image in the three-dimensional model.

カメラ切替判定部116は、カメラ情報算出部114において算出された、選択中の追跡カメラの位置、姿勢及び焦点距離を用いて、画像と三次元空間との透視投影行列を算出する。カメラ切替判定部116は、この透視投影行列を用いて、画像内の被写体202上の特徴点を三次元空間へ投影することにより、三次元モデル内での被写体202を特定する。   The camera switching determination unit 116 calculates a perspective projection matrix between the image and the three-dimensional space using the position, posture, and focal length of the currently selected tracking camera calculated by the camera information calculation unit 114. The camera switching determination unit 116 identifies the subject 202 in the three-dimensional model by projecting the feature points on the subject 202 in the image onto the three-dimensional space using the perspective projection matrix.

時刻t+1においては、カメラ切替判定部116は、時刻t+1の三次元モデルと時刻tの三次元モデルとの間の対応付けにより被写体202を追跡する。なお、対応付けは連続する時刻の三次元モデル間で行う必要はなく、1以上の時刻(フレーム)を跨いだ2つの時刻の三次元モデル間で行われてもよいし、未来の例えば、時刻t+2の三次元モデルも含めた3以上の時刻の三次元モデル間で行われてもよい。   At time t + 1, the camera switching determination unit 116 tracks the subject 202 by associating the three-dimensional model at time t + 1 with the three-dimensional model at time t. The association need not be performed between three-dimensional models at successive times, and may be performed between three-dimensional models at two times straddling one or more times (frames). It may be performed between three-dimensional models at three or more times including a three-dimensional model of t + 2.

具体的には、カメラ切替判定部116は、対応付けを、被写体を囲むボクセルのマッチングを用いて行う。なお、カメラ切替判定部116は、ボクセルを分割したサブボクセル毎のマッチング結果を統合し、統合された結果を用いて対応付けを行ってもよいし、被写体上の複数の三次元特徴点又は三次元局所特徴量の対応付けにより、被写体の対応付けを行ってもよい。   Specifically, the camera switching determination unit 116 performs the association using matching of voxels surrounding the subject. Note that the camera switching determination unit 116 may integrate the matching results for each sub-voxel obtained by dividing the voxel, and may perform association using the integrated result, or a plurality of 3D feature points or 3D on the subject. The subject may be associated by associating the local feature amount.

また、カメラ切替判定部116は、被写体領域を正解領域とし、その周辺領域を非正解領域としたオンライン学習を行うことによる追跡を行ってもよい。   In addition, the camera switching determination unit 116 may perform tracking by performing online learning in which the subject area is set as the correct answer area and the surrounding area is set as the non-correct answer area.

また、カメラ切替判定部116は、追跡中において、各時刻の三次元モデル中の被写体202を各時刻の画像平面へ投影し、得られた画像を用いて被写体202がカメラの視野内に存在するか確認する。具体的には、カメラ切替判定部116は、この投影を、時刻tでの画像と三次元モデルとの対応付けと同様の方法で行う。   Further, the camera switching determination unit 116 projects the subject 202 in the three-dimensional model at each time onto the image plane at each time during tracking, and the subject 202 exists in the field of view of the camera using the obtained image. Make sure. Specifically, the camera switching determination unit 116 performs this projection in the same manner as the association between the image and the three-dimensional model at time t.

時刻t+2において、被写体202が追跡カメラからフレームアウトする。切替カメラ選択部117は、新たな追跡カメラを選択するために、被写体202の三次元モデルを各カメラの画像平面へ投影する。切替カメラ選択部117は、この投影を、時刻tでの画像と三次元モデルとの対応付けと同様の方法で行う。   At time t + 2, the subject 202 is out of frame from the tracking camera. The switching camera selection unit 117 projects a three-dimensional model of the subject 202 onto the image plane of each camera in order to select a new tracking camera. The switching camera selection unit 117 performs this projection in the same manner as the association between the image and the three-dimensional model at time t.

そして、切替カメラ選択部117は、投影された被写体202が最も中心にある、又は被写体の面積が最も大きな画像を撮影したカメラ101を選択する。   Then, the switching camera selection unit 117 selects the camera 101 that has captured the image in which the projected subject 202 is the center or the subject area is the largest.

なお、図10及び図11で説明した二次元画像を用いる場合と同様に、カメラ切替は、被写体がフレームアウトした場合に限らず、被写体が選択中の追跡カメラの撮影領域内に存在しているが、オクルージョンによりフレームから消失した場合にも行われる。   Note that, as in the case of using the two-dimensional image described with reference to FIGS. 10 and 11, camera switching is not limited to the case where the subject is out of frame, but the subject is present in the shooting area of the selected tracking camera. Is also performed when the frame disappears due to occlusion.

また、切替カメラ選択部117は、必ずしも被写体がフレームから消失して即座にカメラを切替えることはなく、消失中も被写体の動きを推定し続け、再びフレーム内に出現するのを待ってもよい。   In addition, the switching camera selection unit 117 may not always switch the camera immediately after the subject disappears from the frame, but may continue to estimate the motion of the subject while disappearing and wait for it to appear again in the frame.

以下、追跡カメラ切替判定処理及び切替カメラ選択処理において、二次元画像及び三次元モデルの両方を用いて被写体を追跡する動作を詳細に説明する。図13は、この場合の動作を説明するための図である。   Hereinafter, in the tracking camera switching determination process and the switching camera selection process, an operation for tracking a subject using both a two-dimensional image and a three-dimensional model will be described in detail. FIG. 13 is a diagram for explaining the operation in this case.

時刻tにおいては、カメラ切替判定部116は、図10で説明した二次元画像を用いる場合と同様の方法により被写体202の追跡を行う。   At time t, the camera switching determination unit 116 tracks the subject 202 by the same method as in the case of using the two-dimensional image described with reference to FIG.

時刻t+2では追跡カメラが被写体202を見失っているため、切替カメラ選択部117は、被写体202の追跡に成功できている中で最新の時刻t+1のフレーム201Bと時刻t+1の三次元モデルとを用いて、新たな追跡カメラを選択する。   Since the tracking camera loses sight of the subject 202 at time t + 2, the switching camera selection unit 117 uses the latest frame 201B at time t + 1 and the three-dimensional model at time t + 1 while the subject 202 has been successfully tracked. Select a new tracking camera.

カメラ切替判定部116は、時刻t+1のフレーム201B中の被写体202と時刻t+1の三次元モデル中の被写体202との対応付けを、図10で説明した二次元画像を用いる場合と同様の方法により行う。また、切替カメラ選択部117は、三次元モデルを用いた新たな追跡カメラの選択を、図12と同様の方法により行う。カメラ切替判定部116は、ここで選択された新たな追跡カメラの撮影する時系列画像を用いて、図10及び図11と同じ方法により被写体202の追跡を継続する。   The camera switching determination unit 116 associates the subject 202 in the frame 201B at the time t + 1 with the subject 202 in the three-dimensional model at the time t + 1 by the same method as in the case of using the two-dimensional image described in FIG. . Further, the switching camera selection unit 117 selects a new tracking camera using the three-dimensional model by the same method as in FIG. The camera switching determination unit 116 continues to track the subject 202 by the same method as in FIGS. 10 and 11 using the time-series image captured by the new tracking camera selected here.

なお、図10〜図12と同様に、カメラ切替は、被写体がフレームアウトした場合に限らず、被写体が選択中の追跡カメラの撮影領域内に存在しているが、オクルージョンによりフレームから消失した場合にも行われる。   Similar to FIGS. 10 to 12, camera switching is not limited to the case where the subject is out of frame, but the subject is present in the shooting area of the selected tracking camera but is lost from the frame due to occlusion. Also done.

また、切替カメラ選択部117は、必ずしも被写体がフレームから消失して即座にカメラを切替えることはなく、消失中も被写体の動きを推定し続け、再びフレーム内に出現するのを待ってもよい。   In addition, the switching camera selection unit 117 may not always switch the camera immediately after the subject disappears from the frame, but may continue to estimate the motion of the subject while disappearing and wait for it to appear again in the frame.

なお、図12及び図13においては、カメラ情報算出部114は、カメラ位置、姿勢、及び焦点距離の算出のみを行い、カメラ切替判定部116により被写体202の三次元モデルの再構成が行われてもよい。その場合、カメラ切替判定部116は、母数となる全てのカメラ101の映像を使用してもよいし、被写体202を映している映像のみ使用してもよいし、選択中の追跡カメラ及びその近傍のカメラの映像のみを使用してもよい。   12 and 13, the camera information calculation unit 114 only calculates the camera position, posture, and focal length, and the camera switching determination unit 116 reconstructs the three-dimensional model of the subject 202. Also good. In that case, the camera switching determination unit 116 may use all the images of the camera 101 as the parameter, or may use only the image showing the subject 202, or the currently selected tracking camera and its tracking camera Only images from nearby cameras may be used.

なお、図8及び図10〜図13の追跡カメラ切替判定処理の被写体追跡においては、カメラ切替判定部116は、ユーザに表示する選択カメラとは独立して、母数カメラの中から追跡に適したものを選択し、それらを用いて追跡を行ってもよい。   In tracking the subject of the tracking camera switching determination process in FIGS. 8 and 10 to 13, the camera switching determination unit 116 is suitable for tracking from the parameter camera independently of the selected camera displayed to the user. May be selected and tracked using them.

以下、リセット判定処理(図5のS115)について説明する。図14は、リセット判定処理(S115)のフローチャートである。   Hereinafter, the reset determination process (S115 in FIG. 5) will be described. FIG. 14 is a flowchart of the reset determination process (S115).

撮影モードが空間撮影モードである場合(S161でYes)、リセット判定部118は、下記の4つの条件のうち1つでも満たされる場合にカメラ選択のリセットが必要と判定する(S162)。(1)ユーザにより別の撮影モードへの切替が指定された。(2)ユーザにより別の対象領域が指定された。(3)シーン解析により別の重要領域(対象領域)が指定された。(4)空間カメラの台数が0台或いは下限台数以下、又は上限台数以上である。   When the shooting mode is the space shooting mode (Yes in S161), the reset determination unit 118 determines that the camera selection needs to be reset when any one of the following four conditions is satisfied (S162). (1) The user has designated switching to another shooting mode. (2) Another target area is designated by the user. (3) Another important area (target area) was specified by scene analysis. (4) The number of space cameras is 0, the lower limit number or less, or the upper limit number or more.

撮影モードが追跡撮影モードである場合(S163でYes)、リセット判定部118は、下記4つの条件のうち1つでも満たされる場合にカメラ選択のリセットが必要と判定する(S164)。(1)ユーザにより別の撮影モードへの切替が指定された。(2)ユーザにより別の対象被写体が指定された。(3)シーン解析により別の重要被写体(対象被写体)が指定された。(4)追跡カメラの台数が0台或いは下限台数以下、又は上限台数以上である。   When the shooting mode is the tracking shooting mode (Yes in S163), the reset determination unit 118 determines that the camera selection needs to be reset if any one of the following four conditions is satisfied (S164). (1) The user has designated switching to another shooting mode. (2) Another target subject is designated by the user. (3) Another important subject (target subject) was designated by scene analysis. (4) The number of tracking cameras is 0, below the lower limit, or above the upper limit.

撮影モードがハイブリッド撮影モードである場合(S161でNoかつS163でNo)、リセット判定部118は、空間撮影モードと同様の条件、及び追跡撮影モードと同様の条件のうち1つでも満たされる場合にカメラ選択のリセットが必要と判定する(S165)。   When the shooting mode is the hybrid shooting mode (No in S161 and No in S163), the reset determination unit 118 is satisfied when at least one of the same conditions as the spatial shooting mode and the same conditions as the tracking shooting mode is satisfied. It is determined that the camera selection needs to be reset (S165).

以下、イベント会場(例えば、スポーツ競技場又はライブ会場等)における空間撮影モードでのカメラ選択の具体例を説明する。図15及び図16は、イベント会場における空間撮影モードでのカメラ選択の具体例を説明するための図である。   Hereinafter, a specific example of camera selection in the space shooting mode in an event venue (for example, a sports stadium or a live venue) will be described. 15 and 16 are diagrams for explaining a specific example of camera selection in the space shooting mode at the event venue.

まず、図15を用いて、カメラ間隔が均等になるように複数の選択カメラを選択する例について説明する。   First, an example of selecting a plurality of selected cameras so that the camera intervals are equal will be described with reference to FIG.

初期カメラ選択部115は、ユーザの指定した映像上の領域に対応する三次元領域、又はシーン解析により重要と判定した三次元領域である対象領域を最も多く含んでいる映像を撮影しているカメラ101Aをメインカメラとして選択する。また、初期カメラ選択部115は、メインカメラを基準として撮影方向が均等な間隔となるようにサブカメラを選択する。   The initial camera selection unit 115 is a camera that captures a video that includes the most target region that is a three-dimensional region corresponding to a region on the video specified by the user or a three-dimensional region determined to be important by scene analysis. 101A is selected as the main camera. In addition, the initial camera selection unit 115 selects the sub cameras so that the shooting directions are evenly spaced with respect to the main camera.

また、サーバ103は、カメラの選択結果と共に各選択カメラがメインカメラとサブカメラのどちらであるかという情報を出力してもよい。この情報は表示アプリで使用される。   In addition, the server 103 may output information indicating whether each selected camera is a main camera or a sub camera together with a camera selection result. This information is used by the display app.

図15のようにバスケットコートを360°囲むように観客席が設置されているイベント会場を例として説明する。   As shown in FIG. 15, an event venue where spectator seats are installed so as to surround the basket court 360 ° will be described as an example.

初期カメラ選択部115は、色々な座席からの観戦風景をユーザが視聴できるようにメインカメラ101Aの座席位置を基準として、均等な座席間隔となるようにサブカメラ101B〜101Eを選択する。メインカメラ101Aは、ユーザが指定した位置に最も近いカメラであってもよいし、ユーザが指定した位置を最も中心又は大きく撮影しているカメラであってもよいし、最も会場が見やすい位置に最も近いカメラであってもよい。会場の見やすさは予め設定されている。   The initial camera selection unit 115 selects the sub cameras 101B to 101E so that the seats are evenly spaced with reference to the seat position of the main camera 101A so that the user can view the watching scenes from various seats. The main camera 101A may be the camera closest to the position specified by the user, may be the camera that is photographing the center specified or the largest position specified by the user, or is the most visible at the position where the venue is most visible. It may be a close camera. The visibility of the venue is preset.

サブカメラ101B〜101Eは、メインカメラ101Aとイベント会場の中心位置を基に選択される。   The sub cameras 101B to 101E are selected based on the main camera 101A and the center position of the event venue.

例えば、初期カメラ選択部115は、メインカメラ及びサブカメラであわせて5台のカメラを選択する場合、イベント会場の中心にあるセンターサークルの中心を原点として、メインカメラを0°の方位とすると、約72°間隔となるようにサブカメラを選択する。原点に対する方位は、カメラ位置及びカメラ方向に基づき算出される。なお、原点は、必ずしもイベント会場の中心でなくてもよく、ゴール、電光掲示板又はベンチの位置などであってもよい。   For example, when the initial camera selection unit 115 selects five cameras in combination with the main camera and the sub camera, assuming that the center of the center circle at the center of the event venue is the origin and the main camera is set to 0 °, The sub camera is selected so that the interval is about 72 °. The direction with respect to the origin is calculated based on the camera position and the camera direction. The origin does not necessarily have to be the center of the event venue, but may be the goal, the position of the electric bulletin board or the bench, and the like.

または、初期カメラ選択部115は、指定位置を映しているカメラから5台を選択する全ての組合せについてカメラ間隔を算出し、センターサークルの中心を原点として、5台のカメラが最も均等に配置されている組合せを選択してもよい。この時、各カメラをメイン及びサブに区別する必要はない。   Alternatively, the initial camera selection unit 115 calculates the camera interval for all combinations that select five cameras from the designated position, and the five cameras are arranged most evenly with the center of the center circle as the origin. You may select a combination. At this time, it is not necessary to distinguish each camera into main and sub.

次に、図16を用いて撮影位置を基にカメラを選択する例を説明する。図16に示すようにバスケットコートを360°囲むように観客席が設置されているイベント会場を例として説明する。   Next, an example of selecting a camera based on the shooting position will be described with reference to FIG. As shown in FIG. 16, an event venue where spectator seats are installed so as to surround the basket court 360 ° will be described as an example.

初期カメラ選択部115は、色々な座席からの観戦風景をユーザが視聴できるように、イベント会場であるバスケットコートを死角なく撮影するように空間カメラを選択する。
例えば、初期カメラ選択部115は、5台のカメラを選択する場合、予めカメラ5台分がそれぞれ撮影する視野である撮影視野を設定しておく。これらの撮影視野はユーザが選択してもよいし、初期カメラ選択部115がバスケットコートを5等分するように撮影視野を設定してもよい。
The initial camera selection unit 115 selects a spatial camera so that the user can view the watching scenes from various seats so that the basketball court as an event venue can be photographed without blind spots.
For example, when five cameras are selected, the initial camera selection unit 115 sets a shooting field of view that is a field of view for each of the five cameras. These photographing fields may be selected by the user, or the field of view may be set so that the initial camera selection unit 115 divides the basket court into five equal parts.

初期カメラ選択部115は、各撮影視野に最も近い視野を撮影しているカメラを空間カメラとして選択する。なお、初期カメラ選択部115は、カメラの視野を、カメラ位置、カメラ姿勢及び焦点距離から算出する。   The initial camera selection unit 115 selects a camera that captures a field of view closest to each field of view as a spatial camera. The initial camera selection unit 115 calculates the field of view of the camera from the camera position, the camera posture, and the focal length.

なお、初期カメラ選択部115は、撮影視野を、選択したカメラ映像を切替えると、映像がシームレスに繋がって見えるように重複なく設定してもよい。また、選択映像を合成して広視野角の映像を生成し、当該映像を表示アプリで表示できる場合、初期カメラ選択部115は、合成に適するように撮影視野が互いに重複するように複数の撮影視野を設定してもよい。   Note that the initial camera selection unit 115 may set the photographing field of view so that the images are seamlessly connected when the selected camera image is switched. In addition, when the selected video is synthesized to generate a video with a wide viewing angle and the video can be displayed by the display application, the initial camera selection unit 115 performs a plurality of shootings so that the shooting fields of view overlap each other so as to be suitable for synthesis. A field of view may be set.

以下、イベント会場における追跡撮影モードでのカメラ選択の具体例を説明する。図17、図18及び図19は、イベント会場における追跡撮影モードでのカメラ選択の具体例を説明するための図である。   A specific example of camera selection in the tracking shooting mode at the event venue will be described below. 17, 18 and 19 are diagrams for explaining specific examples of camera selection in the tracking shooting mode at the event venue.

図17は、対象被写体が1名の場合の初期カメラ選択処理を説明するための図である。図17に示すように、バスケットの試合において、1人の対象被写体に注目する場合を説明する。   FIG. 17 is a diagram for explaining an initial camera selection process when the target subject is one person. As shown in FIG. 17, a case where attention is paid to one target subject in a basket game will be described.

例えば、初期カメラ選択部115は、ユーザによる被写体の指定、又はシーン解析によりボールを持っている人物を特定し、特定した人物である1名の注目プレイヤを被写体202(対象被写体)として選択する。   For example, the initial camera selection unit 115 specifies a person holding the ball by specifying a subject by the user or by scene analysis, and selects one notable player who is the specified person as the subject 202 (target subject).

初期カメラ選択部115は、注目プレイヤを正面又は最も大きく撮影しているカメラ101Aをメインカメラとして選択し、メインカメラを基準として、均等な撮影方向となるようにサブカメラ101B〜101Eを選択する。例えば、初期カメラ選択部115は、5台のカメラを選択する場合、注目プレイヤの位置を原点として、メインカメラを0°の方位とすると、約72°間隔となるようにサブカメラを選択する。初期カメラ選択部115は、原点に対する方位をカメラ位置及びカメラ方向に基づき算出する。なお、対象被写体は、人物に限らず、ゴール又は電光掲示板であってもよい。   The initial camera selection unit 115 selects the camera 101A that is shooting the player of interest in front or the largest image as the main camera, and selects the sub cameras 101B to 101E so that the shooting directions are uniform with respect to the main camera. For example, when selecting five cameras, the initial camera selection unit 115 selects the sub-cameras at intervals of about 72 ° when the position of the player of interest is the origin and the main camera is oriented at 0 °. The initial camera selection unit 115 calculates an orientation with respect to the origin based on the camera position and the camera direction. The target subject is not limited to a person but may be a goal or an electric bulletin board.

図18は、イベント会場における追跡撮影モードにおける、被写体が1名の場合の切替カメラ選択処理を説明するための図である。図18に示すように、バスケットの試合において、1人の対象被写体に注目する場合を説明する。   FIG. 18 is a diagram for explaining a switching camera selection process when there is only one subject in the tracking shooting mode at the event venue. As shown in FIG. 18, a case where attention is paid to one target subject in a basket game will be described.

追跡撮影モードでは、切替カメラ選択部117は、被写体を追跡し、現在の追跡カメラが被写体を捉えられなくなった場合にカメラの切替を行う。例えば、切替カメラ選択部117は、ある追跡カメラの視野から被写体が消失しそうになった場合、被写体の追跡結果に応じて被写体をより視野の中央に映しているカメラを探索し、探索により得られたカメラを、元の追跡カメラの代わりに新たな追跡カメラに設定する。   In the tracking shooting mode, the switching camera selection unit 117 tracks the subject, and switches the camera when the current tracking camera can no longer capture the subject. For example, when the subject is likely to disappear from the field of view of a tracking camera, the switching camera selection unit 117 searches for a camera that reflects the subject in the center of the field of view according to the tracking result of the subject, and is obtained by the search. Set the new camera as the new tracking camera instead of the original tracking camera.

多視点映像を用いた三次元再構成を行う場合は、被写体が三次元モデルとして再構成されているため、切替カメラ選択部117は、三次元空間内で被写体の追跡を行う。切替カメラ選択部117は、被写体上の三次元点を視野の最も中心又は最も大きく映しているカメラに追跡カメラを切り替えていく。   When performing three-dimensional reconstruction using multi-viewpoint images, the subject is reconstructed as a three-dimensional model, so the switching camera selection unit 117 tracks the subject in the three-dimensional space. The switching camera selection unit 117 switches the tracking camera to the camera that displays the three-dimensional point on the subject at the center of the visual field or the largest image.

多視点映像を用いた三次元再構成を行わない場合は、切替カメラ選択部117は、二次元映像による被写体の追跡を行う。この時の追跡において、切替カメラ選択部117は、過去のフレームと現在のフレームとを用いて、被写体の次の動きを予測し、被写体の行き先の空間を撮影しているカメラに追跡カメラを切り替える。   When the 3D reconstruction using the multi-view video is not performed, the switching camera selection unit 117 tracks the subject by the 2D video. In the tracking at this time, the switching camera selection unit 117 uses the past frame and the current frame to predict the next movement of the subject, and switches the tracking camera to the camera that is shooting the destination space of the subject. .

例えば、図18に示すように被写体202が動く場合、切替カメラ選択部117は、当該被写体202の追跡を行う。   For example, when the subject 202 moves as shown in FIG. 18, the switching camera selection unit 117 tracks the subject 202.

被写体202の三次元モデルを再構成する場合は、切替カメラ選択部117は、三次元空間で追跡を行い、再構成しない場合は、二次元映像で被写体202の動きを予測する。そして、切替カメラ選択部117は、被写体202を視野の最も中心又は最も大きく映しているカメラ101Fに選択カメラを切り替える。   When reconstructing a three-dimensional model of the subject 202, the switching camera selection unit 117 performs tracking in a three-dimensional space, and when not reconstructing, predicts the motion of the subject 202 with a two-dimensional image. Then, the switching camera selection unit 117 switches the selected camera to the camera 101F that displays the subject 202 at the center of the visual field or the largest image.

図19は、イベント会場において被写体が複数名の場合の動作を説明するための図である。図19に示すようにバスケットの試合において、複数の被写体202A及び202Bに注目する場合を説明する。   FIG. 19 is a diagram for explaining the operation when there are a plurality of subjects at the event venue. A case where attention is paid to a plurality of subjects 202A and 202B in a basket game as shown in FIG. 19 will be described.

初期カメラ選択部115は、ユーザによる被写体の指定又はシーン解析により2名以上の注目プレイヤを被写体202A及び202Bとして選択し、1名に少なくとも1つのカメラを割当てる。初期カメラ選択部115は、それぞれの注目プレイヤを正面又は最も大きく撮影しているカメラをメインカメラとして選択する。つまり、注目プレイヤの人数と同数のメインカメラが存在する。次に、初期カメラ選択部115は、それぞれのメインカメラを基準として、均等な撮影方向となるようにサブカメラを選択する。   The initial camera selection unit 115 selects two or more attention players as the subjects 202A and 202B by specifying the subject by the user or scene analysis, and assigns at least one camera to one person. The initial camera selection unit 115 selects, as the main camera, the camera that is capturing the respective players of interest in front or most. That is, there are as many main cameras as the number of players of interest. Next, the initial camera selection unit 115 selects sub-cameras so that the shooting directions are uniform with respect to each main camera.

例えば、2名の注目プレイヤを5台のカメラで撮影する場合、初期カメラ選択部115は、注目プレイヤA(被写体202A)に3台のカメラを割り当て、注目プレイヤB(被写体202B)に2台のカメラを割当てる。各注目プレイヤにメインカメラが1台ずつ割り当てられているので、初期カメラ選択部115は、注目プレイヤAについては、注目プレイヤAの位置を原点とし、メインカメラ101Aを0°の方位とし、約120°間隔になるようにサブカメラ101B及び101Cを選択する。また、初期カメラ選択部115は、注目プレイヤBについても同様に、注目プレイヤBの位置を原点とし、メインカメラ101Dを0°の方位とし、約180°間隔になるようにサブカメラ101Eを選択する。   For example, when shooting two players of interest with five cameras, the initial camera selection unit 115 assigns three cameras to the player of interest A (subject 202A) and two players of the player of interest B (subject 202B). Assign a camera. Since one main camera is assigned to each attention player, the initial camera selection unit 115 sets the position of the attention player A as the origin and the main camera 101A as the 0 ° azimuth for the attention player A, and about 120 The sub-cameras 101B and 101C are selected so as to be at intervals. Similarly, the initial camera selection unit 115 selects the sub-camera 101E for the noted player B so that the position of the noted player B is the origin, the main camera 101D is set to 0 °, and the interval is approximately 180 °. .

また、初期カメラ選択部115は、選択カメラの台数を、ユーザの指定による優先度の高いプレイヤ、又は、シーン解析によりボールを持っている、或いはボールにより近いプレイヤに多く割当てるようにする。また、初期カメラ選択部115は、注目プレイヤの数が選択カメラ台数を超える場合も同様に優先度をつけて、高い順に選択カメラを割当てる。   In addition, the initial camera selection unit 115 allocates a large number of selected cameras to a player with a high priority specified by the user, or a player who has a ball by scene analysis or is closer to the ball. Also, the initial camera selection unit 115 assigns priority to the selected cameras in descending order when the number of players of interest exceeds the number of selected cameras.

また、カメラ切替判定部116は、図18と同様の方法で注目プレイヤの追跡を行う。
なお、初期カメラ選択部115は、選択カメラの数の範囲内で、空間撮影モードと追跡撮影モードとの組合せであるハイブリッド撮影モードでカメラを選択してもよい。
In addition, the camera switching determination unit 116 tracks the player of interest using the same method as in FIG.
The initial camera selection unit 115 may select a camera in a hybrid shooting mode that is a combination of the space shooting mode and the tracking shooting mode within the range of the number of selected cameras.

以下、図20及び図21を用いて、ショッピングセンターの監視環境における動作例を説明する。図20は、ショッピングセンターの監視環境における空間撮影モードでのカメラ選択を説明するため図である。   Hereinafter, an operation example in the monitoring environment of the shopping center will be described with reference to FIGS. 20 and 21. FIG. 20 is a diagram for describing camera selection in the space shooting mode in the monitoring environment of the shopping center.

図20に示すようにショッピングセンターにおいて、天井又は柱に設置された固定カメラと警備員が装着するモバイルカメラによる監視環境を例として説明する。   As shown in FIG. 20, in a shopping center, a monitoring environment using a fixed camera installed on a ceiling or a pillar and a mobile camera worn by a guard will be described as an example.

初期カメラ選択部115は、ショッピングセンター全体を監視できるように死角なくカメラを選択する。また、初期カメラ選択部115は、ユーザがUI上で指定した場所或いは人、又は、商材の出入口のように監視において重要と判断される場所を撮影しているカメラをメインカメラに設定する。そして、初期カメラ選択部115は、メインカメラが撮影していない場所を補うようにサブカメラを選択する。   The initial camera selection unit 115 selects a camera without a blind spot so that the entire shopping center can be monitored. In addition, the initial camera selection unit 115 sets, as the main camera, a camera that is shooting a place or person designated by the user on the UI, or a place that is determined to be important in monitoring, such as an entrance of a commercial product. Then, the initial camera selection unit 115 selects a sub camera so as to compensate for a place where the main camera is not shooting.

例えば、図20の例では、出入口付近を撮影しているカメラ101Aがメインカメラとして選択され、ショッピングセンター全体を監視できるようにサブカメラ101B〜101Eが選択される。   For example, in the example of FIG. 20, the camera 101A that captures the vicinity of the entrance is selected as the main camera, and the sub cameras 101B to 101E are selected so that the entire shopping center can be monitored.

また、初期カメラ選択部115は、ショッピングセンターにおける固定の監視カメラが撮影できる領域及び死角となる領域を事前情報として取得する。なお、死角となる領域は警備員がモバイルカメラで撮影することにより補ってもよい。   In addition, the initial camera selection unit 115 acquires, as prior information, an area that can be photographed by a fixed monitoring camera and an area that is a blind spot in a shopping center. In addition, you may supplement the area | region used as a blind spot, when a security guard image | photographs with a mobile camera.

図21は、ショッピングセンターの監視環境における追跡撮影モードでのカメラ選択を説明するための図である。   FIG. 21 is a diagram for describing camera selection in the tracking shooting mode in the monitoring environment of the shopping center.

図21に示すように、にショッピングセンターの監視において、1人の被写体202に注目する場合を説明する。   As shown in FIG. 21, a case will be described in which one subject 202 is focused on in monitoring a shopping center.

初期カメラ選択部115は、ユーザがUI上で指定した被写体、又はシーン解析により異常行動している人物を特定し、特定した少なくとも1名の注目人物を対象被写体として選択する。また、初期カメラ選択部115は、注目人物とカメラとの距離、注目人物の正面に対するカメラの角度、又は注目人物の画像上の面積(画素数)を基にショッピングセンター内のカメラの順位付けを行い、上位から選択するカメラ台数分のカメラを選択する。この時、初期カメラ選択部115は、最上位のカメラをメインカメラとして選択する。   The initial camera selection unit 115 identifies a subject specified by the user on the UI or a person who is abnormally acting by scene analysis, and selects at least one identified person of interest as a target subject. The initial camera selection unit 115 ranks the cameras in the shopping center based on the distance between the target person and the camera, the angle of the camera with respect to the front of the target person, or the area (number of pixels) of the target person on the image. And select as many cameras as the number of cameras selected from the top. At this time, the initial camera selection unit 115 selects the highest camera as the main camera.

図21に示す例では、カメラ101Aがメインカメラとして選択され、カメラ101B〜101Dがサブカメラとして選択される。   In the example illustrated in FIG. 21, the camera 101A is selected as the main camera, and the cameras 101B to 101D are selected as the sub cameras.

なお、対象被写体は人物に限らず、出火場所又は商品の転倒などのイベント発生場所が対象被写体として設定されてもよい。   Note that the target subject is not limited to a person, and an event occurrence place such as a fire place or a product fall may be set as the target subject.

なお、図15から図21のいずれの場合においても、サーバ103が端末装置102に配信する音声は、メインカメラで取得した音声であってもよいし、メインカメラに最も近い端末で取得した音声であってもよいし、ユーザがUI上で指定した場所に最も近い端末で取得した音声であってもよいし、被写体に最も近い端末で取得した音声であってもよいし、最も音質の良い音声であってもよいし、複数端末から取得した音声を合成することで得られた音声であってもよい。   In any case of FIGS. 15 to 21, the audio distributed by the server 103 to the terminal device 102 may be audio acquired by the main camera, or audio acquired by the terminal closest to the main camera. There may be audio acquired at the terminal closest to the location specified by the user on the UI, audio acquired at the terminal closest to the subject, or audio with the best sound quality. It may be a voice obtained by synthesizing voices acquired from a plurality of terminals.

以下、図6で説明した初期カメラ選択処理の詳細及び別の例について説明する。図22は、初期カメラ選択処理のフローチャートである。   Hereinafter, details of the initial camera selection process described in FIG. 6 and another example will be described. FIG. 22 is a flowchart of the initial camera selection process.

まず、初期カメラ選択部115は、カメラ単体の評価値を算出する(S201)。そして、初期カメラ選択部115は、算出した評価値に基づき、一台のメインカメラを選択する。具体的には、初期カメラ選択部115は、評価値が最も高いカメラをメインカメラとして選択する。   First, the initial camera selection unit 115 calculates an evaluation value for a single camera (S201). Then, the initial camera selection unit 115 selects one main camera based on the calculated evaluation value. Specifically, the initial camera selection unit 115 selects the camera with the highest evaluation value as the main camera.

次に、初期カメラ選択部115は、選択するカメラの台数を取得する(S202)。例えば、初期カメラ選択部115は、ユーザにより指定された、又は予め設定されているカメラの台数を取得する。   Next, the initial camera selection unit 115 acquires the number of cameras to be selected (S202). For example, the initial camera selection unit 115 acquires the number of cameras designated by the user or set in advance.

次に、初期カメラ選択部115は、カメラ位置による組み合わせ評価値(カメラ位置評価値)を算出する(S203)。具体的には、初期カメラ選択部115は、メインカメラと、選択台数−1台のサブカメラとの組合せごとに、カメラ位置に基づき評価値を算出する。   Next, the initial camera selection unit 115 calculates a combination evaluation value (camera position evaluation value) based on the camera position (S203). Specifically, the initial camera selection unit 115 calculates an evaluation value based on the camera position for each combination of the main camera and the selected number minus one sub camera.

次に、初期カメラ選択部115は、ステップS201及びS203で算出されたカメラ単体の評価値及びカメラ位置評価値を用いてカメラ群を選択する(S204)。具体的には、初期カメラ選択部115は、2つの評価値から得られた総合評価値が最も高いカメラ群を選択する。   Next, the initial camera selection unit 115 selects a camera group using the evaluation value of the single camera and the camera position evaluation value calculated in steps S201 and S203 (S204). Specifically, the initial camera selection unit 115 selects a camera group having the highest overall evaluation value obtained from the two evaluation values.

例えば、初期カメラ選択部115は、カメラ群に含まれる複数のカメラ各々のカメラ単体の評価値の総和と、当該カメラ群のカメラ位置評価値との積を総合評価値として算出する。なお、総合評価値の算出方法はこれに限らず、重み付け加算等の任意の手法を用いてよい。   For example, the initial camera selection unit 115 calculates the product of the sum of the evaluation values of the individual cameras of each of the plurality of cameras included in the camera group and the camera position evaluation value of the camera group as the overall evaluation value. The method for calculating the comprehensive evaluation value is not limited to this, and any method such as weighted addition may be used.

最後に、初期カメラ選択部115は、選択したカメラ群を出力する(S205)。   Finally, the initial camera selection unit 115 outputs the selected camera group (S205).

なお、ここでは、初期カメラ選択部115は、先にメインカメラを選択し、当該選択カメラを含むカメラ群に対して、総合評価値に基づく判定を行っているが、全ての組み合わせから最も総合評価値が最も高い組み合わせを先に求め、その組み合わせに含まれる複数のカメラの中でカメラ単体の評価値が最も高いカメラをメインカメラとして選択してもよい。   Here, the initial camera selection unit 115 first selects the main camera, and performs determination based on the comprehensive evaluation value for the camera group including the selected camera, but the most comprehensive evaluation from all combinations. A combination having the highest value may be obtained first, and a camera having the highest evaluation value of a single camera among a plurality of cameras included in the combination may be selected as the main camera.

以下、カメラ単体の評価値算出処理(図22のS201)について説明する。図23は、カメラ単体の評価値算出処理のフローチャートである。   Hereinafter, the evaluation value calculation process (S201 in FIG. 22) for a single camera will be described. FIG. 23 is a flowchart of an evaluation value calculation process for a single camera.

まず、初期カメラ選択部115は、ポイントクラウドを取得する(S211)。ここでポイントクラウドとは、再構成された三次元モデル及びカメラ位置情報を含む。   First, the initial camera selection unit 115 acquires a point cloud (S211). Here, the point cloud includes a reconstructed three-dimensional model and camera position information.

次に、初期カメラ選択部115は、三次元モデル上の対象被写体(対象物体)又は対象領域の点群にフラグを付与する(S212)。   Next, the initial camera selection unit 115 gives a flag to the target subject (target object) or the point group of the target area on the three-dimensional model (S212).

図24は対象領域211の選択例を示す図である。図25は対象被写体212の選択例を示す図である。また、対象被写体又は対象領域の選択方法としては、ユーザが手動で対象被写体又は対象領域を選択する方法と、自動的に対象被写体又は対象領域を選択する方法とがある。   FIG. 24 is a diagram illustrating a selection example of the target area 211. FIG. 25 is a diagram illustrating a selection example of the target subject 212. As a method for selecting a target subject or target region, there are a method in which a user manually selects a target subject or target region, and a method in which a target subject or target region is automatically selected.

ユーザが手動で対象被写体又は対象領域を選択する場合、ユーザはUI上から対象被写体又は対象領域を選択する。そして、初期カメラ選択部115は、二次元平面上の選択領域を三次元モデル上に逆投影することで、三次元モデル上の対象被写体又は対象領域を選択する。   When the user manually selects the target subject or target region, the user selects the target subject or target region from the UI. Then, the initial camera selection unit 115 selects a target subject or target region on the three-dimensional model by back projecting the selected region on the two-dimensional plane onto the three-dimensional model.

自動的に対象被写体又は対象領域を選択する場合であって、サーバ103が予めマップ情報を取得している場合、初期カメラ選択部115は、出入り口などの重点監視領域を対象領域として選択する。または、初期カメラ選択部115は、姿勢認識等により不審者を自動検知し、当該不審者を対象被写体として選択する。   When the target subject or target area is automatically selected and the server 103 has acquired map information in advance, the initial camera selection unit 115 selects a priority monitoring area such as an entrance / exit as the target area. Alternatively, the initial camera selection unit 115 automatically detects a suspicious person by posture recognition or the like, and selects the suspicious person as a target subject.

また、サーバ103が予めマップ情報を取得していない場合、初期カメラ選択部115は、人間の流量の多い領域ほど重要度が高いと判定し、人間の流量の多い領域を対象領域として選択する。または、初期カメラ選択部115は、姿勢認識等により不審者を自動検知し、当該不審者を対象被写体として選択する。   When the server 103 has not acquired map information in advance, the initial camera selection unit 115 determines that an area with a higher human flow rate is more important, and selects an area with a higher human flow rate as a target area. Alternatively, the initial camera selection unit 115 automatically detects a suspicious person by posture recognition or the like, and selects the suspicious person as a target subject.

次に、初期カメラ選択部115は、カメラ位置情報を用いて点群を二次元平面に投影することで画像を作成する(S213)。   Next, the initial camera selection unit 115 creates an image by projecting the point group onto a two-dimensional plane using the camera position information (S213).

次に、初期カメラ選択部115は、投影された各画像中のフラグが付与されている領域を抽出する(S214)。   Next, the initial camera selection unit 115 extracts a region to which a flag is assigned in each projected image (S214).

次に、初期カメラ選択部115は、各画像中の抽出された領域の評価値を算出することで、当該画像(カメラ)の評価値を算出する(S215)。   Next, the initial camera selection unit 115 calculates the evaluation value of the image (camera) by calculating the evaluation value of the extracted region in each image (S215).

例えば、初期カメラ選択部115は、抽出された領域の画像中の大きさが大きいほど評価値を上げる。また、初期カメラ選択部115は、可視化領域の割合が大きいほど評価値を上げてもよい。ここで可視化領域とは、抽出された領域を実際に画像中で確認できる面積の割合であり、対象領域又は対象被写体の手前に他の物体等が存在する場合には、この割合が小さくなる。また、初期カメラ選択部115は、対象領域又は対象被写体の各部分に優先度を付け、優先度が高い部分がより多く又は大きく写っているほど評価値を上げてもよい。例えば、初期カメラ選択部115は、被写体の顔が写っている場合に評価値を上げてもよい。また、初期カメラ選択部115は、画像の鮮明度等が高いほど、又は歪みが小さいほど評価値を上げてもよい。   For example, the initial camera selection unit 115 increases the evaluation value as the size of the extracted region in the image increases. Further, the initial camera selection unit 115 may increase the evaluation value as the ratio of the visualization region increases. Here, the visualization area is a ratio of an area where the extracted area can be actually confirmed in the image, and this ratio decreases when another object or the like exists in front of the target area or the target subject. The initial camera selection unit 115 may assign a priority to each part of the target area or the target subject, and increase the evaluation value as more or more high priority parts appear. For example, the initial camera selection unit 115 may increase the evaluation value when the face of the subject is captured. Further, the initial camera selection unit 115 may increase the evaluation value as the image sharpness or the like is higher or the distortion is lower.

以下、カメラ位置評価値算出処理(図22のS203)について説明する。図26は、カメラ位置評価値算出処理のフローチャートである。   Hereinafter, the camera position evaluation value calculation process (S203 in FIG. 22) will be described. FIG. 26 is a flowchart of camera position evaluation value calculation processing.

まず、初期カメラ選択部115は、選択モードを取得する(S231)。ここで、選択モードとは、俯瞰モードと、集中モードとを含む。例えば、初期カメラ選択部115は、ユーザにより指定された、又は予め設定されている選択モードを取得する。   First, the initial camera selection unit 115 acquires a selection mode (S231). Here, the selection mode includes an overhead mode and a concentration mode. For example, the initial camera selection unit 115 acquires a selection mode designated by the user or set in advance.

俯瞰モードは、図27に示すように、対象被写体212(又は対象領域)を全方向から等間隔で撮影しているカメラ101A〜101Dを選択するモードである。集中モードは、図28に示すように、対象被写体212(又は対象領域)を特定の方向から撮影しているカメラ101A〜101Dを集中的に選択するモードである。例えば、スポーツ観戦等で、スタジアムの全方向に観客席が設けられている場合には、俯瞰モードが有効である。また、コンサートなど、ステージの一方の方向のみに観客席が設けられている場合、又は、ユーザが特定の視点方向からの映像を集中的に見たい場合に集中モードが有効である。   As shown in FIG. 27, the bird's-eye view mode is a mode for selecting the cameras 101A to 101D that are photographing the target subject 212 (or target region) at equal intervals from all directions. As shown in FIG. 28, the concentration mode is a mode for intensively selecting the cameras 101A to 101D that are photographing the target subject 212 (or target region) from a specific direction. For example, the bird's-eye view mode is effective when spectator seats are provided in all directions of the stadium for sports watching or the like. Further, the concentrated mode is effective when a spectator seat is provided only in one direction of the stage, such as a concert, or when the user wants to watch videos from a specific viewpoint direction in a concentrated manner.

次に、初期カメラ選択部115は、選択された台数分のカメラを含むカメラ群を複数抽出する(S232)。次に、初期カメラ選択部115は、選択モードに応じて各カメラ群のカメラ位置評価値を算出する(S233)。   Next, the initial camera selection unit 115 extracts a plurality of camera groups including the selected number of cameras (S232). Next, the initial camera selection unit 115 calculates the camera position evaluation value of each camera group according to the selection mode (S233).

具体的には、俯瞰モードの場合には、初期カメラ選択部115は、複数のカメラが目標代表点より一定角度毎に存在しているかどうかに応じてカメラ位置評価値を決定する。具体的には、初期カメラ選択部115は、複数のカメラが等間隔であるほど評価値を上げる。また、初期カメラ選択部115は、カメラの撮像範囲に対する対象被写体の写っている面積の割外が、所定値よりも高い場合には、位置情報を優先してもよい。つまり、初期カメラ選択部115は、対象被写体がアップになりすぎている場合には評価値を下げてもよい。   Specifically, in the bird's-eye view mode, the initial camera selection unit 115 determines the camera position evaluation value according to whether or not a plurality of cameras are present at a certain angle from the target representative point. Specifically, the initial camera selection unit 115 increases the evaluation value as the plurality of cameras are equally spaced. Further, the initial camera selection unit 115 may prioritize the position information when the area of the area where the target subject is captured with respect to the imaging range of the camera is higher than a predetermined value. That is, the initial camera selection unit 115 may lower the evaluation value when the target subject is too high.

また、集中モードの場合には、初期カメラ選択部115は、複数のカメラがどれだけ指定方向に存在しているかに応じてカメラ位置評価値を決定する。具体的には、初期カメラ選択部115は、複数のカメラが指定方向に集中しているほど評価値を上げる。   In the case of the concentrated mode, the initial camera selection unit 115 determines the camera position evaluation value according to how many cameras exist in the designated direction. Specifically, the initial camera selection unit 115 increases the evaluation value as a plurality of cameras are concentrated in the designated direction.

なお、初期カメラ選択部115は、被写体の向き(顔の方向など)を考慮し、被写体がカメラの方向を向いているほど評価値を上げてもよい。この場合、例えば、顔認識等により被写体の向きを検知できる。   Note that the initial camera selection unit 115 may increase the evaluation value as the subject is facing the camera in consideration of the orientation of the subject (such as the direction of the face). In this case, for example, the orientation of the subject can be detected by face recognition or the like.

また、カメラ群の抽出(S232)及びカメラ位置評価値の算出(S233)の方法としては以下の方法を用いることができる。   Further, the following methods can be used as the method of extracting the camera group (S232) and calculating the camera position evaluation value (S233).

例えば、初期カメラ選択部115は、総当りであらゆるカメラの組み合わせをカメラ群として抽出する。または、初期カメラ選択部115は、複数のカメラを、類似する構成(位置が近い等)のカメラ群が同一のクラスになるように分類し、各クラスの代表カメラの全ての組み合わせをカメラ群として抽出してもよい。または、初期カメラ選択部115は、カメラ単体の評価値に基づきメインカメラを選択し、当該メインカメラを含むあらゆるカメラの組み合わせをカメラ群として抽出してもよい。   For example, the initial camera selection unit 115 extracts all combinations of cameras as a camera group. Alternatively, the initial camera selection unit 115 classifies a plurality of cameras so that camera groups with similar configurations (such as close positions) are in the same class, and all combinations of representative cameras of each class are used as camera groups. It may be extracted. Alternatively, the initial camera selection unit 115 may select a main camera based on an evaluation value of a single camera, and extract all camera combinations including the main camera as a camera group.

また、時間方向でのカメラ切り替え判定として以下の手法を用いてもよい。例えば、カメラ切替判定部116は、以前に選択されたカメラ群の情報を保持しておく。カメラ切替判定部116は、各時間において、カメラ群評価値を保持し、切り替えるかどうかを選択する。この際、時間方向には切り替え頻度を制御するパラメータを用意し、カメラ切替判定部116は、当該パラメータを用いて切り替えを行うかどうかを判定する。具体的には、カメラ切替判定部116は、当該パラメータを用いることで、前回の切り替えから経過した時間が短いほど、切り替えを行わないように制御する。例えば、カメラ切替判定部116は、前回の切り替えからの経過時間が第1時間未満の場合には、切り替えを行わないと判断し、第1時間以上かつ第2時間未満の場合には第1基準で判定を行い、第2時間以上の場合には第1基準より緩い(第1基準よりも切り替えると判定されやすい)第2基準で判定を行ってもよい。   Further, the following method may be used as the camera switching determination in the time direction. For example, the camera switching determination unit 116 holds information on a previously selected camera group. The camera switching determination unit 116 holds the camera group evaluation value at each time and selects whether to switch. At this time, a parameter for controlling the switching frequency is prepared in the time direction, and the camera switching determination unit 116 determines whether to perform switching using the parameter. Specifically, the camera switching determination unit 116 performs control so that the switching is not performed as the time elapsed since the previous switching is shorter by using the parameter. For example, the camera switching determination unit 116 determines that the switching is not performed when the elapsed time from the previous switching is less than the first time, and when the elapsed time from the previous switching is less than the first time and less than the second time, the first reference In the case of the second time or more, the determination may be made based on the second reference that is looser than the first reference (easily determined by switching from the first reference).

また、上述した図5の説明では、サーバ103は、初期カメラ選択処理(S111)の後、カメラ切替又はリセットが必要な場合に、カメラ切替及びリセットを行っているが、所定の周期で初期カメラ選択処理のみを繰り返し行ってもよい。この場合にも、上記と同様のパラメータを用い、切り替えが頻繁に行われないように制御してもよい。   In the description of FIG. 5 described above, the server 103 performs camera switching and resetting when the camera switching or resetting is necessary after the initial camera selection process (S111). Only the selection process may be repeated. Also in this case, the same parameters as described above may be used so that switching is not performed frequently.

以上のように、本実施の形態に係るカメラ選択方法は、同一の場面を撮影しているN(2以上の自然数)台のカメラ101から、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラ101(選択カメラ)を選択するカメラ選択方法であって、図29に示す処理を行う。   As described above, the camera selection method according to the present embodiment uses M (N is a natural number greater than or equal to 2) cameras 101 that are shooting the same scene, and M (M is N from the source of the video to be displayed) 29 is a camera selection method for selecting (small natural number) cameras 101 (selected cameras), and performs the processing shown in FIG.

まず、サーバ103は、N台のカメラ101の位置及び撮影方向を取得する(S241)。具体的には、サーバ103は、N台のカメラ101で撮影された画像を用いて三次元再構成を行うことで、N台のカメラ101の位置及び撮影方向を算出する。または、サーバ103は、N台のカメラ101の各々から送信された、当該カメラ101が備えるセンサ(例えばGPS、WiFi又はジャイロセンサ等)で得られた情報を用いて、N台のカメラの位置及び撮影方向を算出する。   First, the server 103 acquires the positions and shooting directions of the N cameras 101 (S241). Specifically, the server 103 calculates the position and shooting direction of the N cameras 101 by performing three-dimensional reconstruction using images captured by the N cameras 101. Alternatively, the server 103 uses the information obtained from a sensor (for example, GPS, WiFi, or gyro sensor) that is transmitted from each of the N cameras 101 and includes the position of the N cameras and The shooting direction is calculated.

次に、サーバ103は、取得されたN台のカメラ101の位置及び撮影方向に基づき、N台のカメラ101からM台のカメラ101を選択する(S242)。具体的には、サーバ103は、N台のカメラ101の位置及び撮影方向に基づき、M台のカメラ101により対象空間を死角なく撮影できるようにM台のカメラ101を選択する。つまり、サーバ103は、N台のカメラ101の位置及び撮影方向に基づき、M台のカメラ101の撮影空間の重複がより少なく、かつ、M台のカメラ101の撮影空間が対象空間をカバーする割合がより大きくなるM台のカメラ101を優先して選択する。または、サーバ103は、N台のカメラ101の位置及び撮影方向に基づき、対象空間又は対象被写体を複数の方向から等間隔に撮影しているM台のカメラ101を優先して選択する。   Next, the server 103 selects M cameras 101 from the N cameras 101 based on the acquired positions and shooting directions of the N cameras 101 (S242). Specifically, the server 103 selects the M cameras 101 based on the positions and shooting directions of the N cameras 101 so that the M cameras 101 can shoot the target space without blind spots. That is, based on the positions and shooting directions of the N cameras 101, the server 103 has less overlap of shooting spaces of the M cameras 101 and the shooting spaces of the M cameras 101 cover the target space. The M cameras 101 having a larger value are selected with priority. Alternatively, the server 103 preferentially selects the M cameras 101 that are shooting the target space or the target subject from a plurality of directions at equal intervals based on the positions and shooting directions of the N cameras 101.

なお、サーバ103は、ステップS241において、さらに、N台のカメラ101の焦点距離を取得し、ステップS242において、取得されたN台のカメラ101の位置、撮影方向及び焦点距離に基づき、N台のカメラ101からM台のカメラ101を選択してもよい。   In step S241, the server 103 further acquires the focal lengths of the N cameras 101. In step S242, the server 103 acquires N focal lengths based on the acquired positions, shooting directions, and focal lengths of the N cameras 101. M cameras 101 may be selected from the cameras 101.

これにより、当該カメラ選択方法は、カメラの位置及び撮影方向に基づき、複数のカメラから自動的に適切なカメラを選択できる。   Thereby, the camera selection method can automatically select an appropriate camera from a plurality of cameras based on the position and shooting direction of the camera.

また、図5に示すように、サーバ103は、さらに、ステップS242(S111)の後のフレームにおいて、選択されているM台のカメラ101のうちの一部のカメラを他のカメラに切り替えるか否かを判定する(S112)。具体的には、図8に示すように、サーバ103は、フレーム間で対象被写体を追跡し、対象被写体の追跡に失敗した場合に、選択するカメラを切り替えると判定する。より具体的には、サーバ103は、フレーム間で対象被写体の三次元モデルを対応付け、対応付けた対象被写体の三次元モデルを現時刻のフレームに投影し、得られたフレーム内に対象被写体が存在しない場合に、追跡が失敗したと判定する(S147)。   Further, as illustrated in FIG. 5, the server 103 further determines whether or not to switch a part of the selected M cameras 101 to another camera in the frame after step S242 (S111). Is determined (S112). Specifically, as illustrated in FIG. 8, the server 103 tracks the target subject between frames, and determines that the camera to be selected is switched when tracking of the target subject fails. More specifically, the server 103 associates the three-dimensional model of the target subject between the frames, projects the correlated three-dimensional model of the target subject onto the frame at the current time, and the target subject is included in the obtained frame. If it does not exist, it is determined that the tracking has failed (S147).

また、サーバ103は、ステップS112において、切り替えると判定された場合に(S112でYes)、N台のカメラ101の位置及び撮影方向に基づき、上記一部のカメラの代わりの新たなカメラを選択する(S114)。   In addition, when it is determined in step S112 to switch (Yes in S112), the server 103 selects a new camera instead of the part of the cameras based on the positions and shooting directions of the N cameras 101. (S114).

また、サーバ103は、さらに、ステップS242(S111)の後のフレームにおいて、ステップS242(S111)を再度行うか否かを判定する(S115)。サーバ103は、ステップS115において、ステップS242(S111)を行うと判定された場合(S116でYes)、N台のカメラ101の位置及び撮影方向に基づき、N台のカメラ101からM台のカメラ101を再度選択する(S111)。   Further, the server 103 further determines whether or not to perform step S242 (S111) again in the frame after step S242 (S111) (S115). When it is determined in step S115 that step S242 (S111) is performed (Yes in S116), the server 103 determines from the N cameras 101 to the M cameras 101 based on the positions and shooting directions of the N cameras 101. Is selected again (S111).

また、ステップS112では、前回の切り替えからの経過時間が第1時間未満の場合には、切り替えを行わないと判断し、経過時間が第1時間以上かつ前記第1時間より長い第2時間未満の場合には上記一部のカメラを他のカメラに切り替えるか否かを第1基準で判定し、経過時間が第2時間以上の場合には上記一部のカメラを他のカメラに切り替えるか否かを第1基準より緩い第2基準で判定してもよい。   In step S112, if the elapsed time from the previous switching is less than the first time, it is determined that the switching is not performed, and the elapsed time is less than the second time that is longer than the first time and longer than the first time. In such a case, whether or not to switch the some cameras to another camera is determined based on the first reference. If the elapsed time is equal to or longer than the second time, whether or not to switch the some cameras to another camera. May be determined based on a second criterion that is looser than the first criterion.

また、図22に示すように、サーバ103は、ステップS242(S111)において、N台のカメラで撮影された映像に基づき、N台のカメラの各々の第1評価値(カメラ単体の評価値)を算出する(S201)。また、サーバ103は、N台のカメラ101の位置及び撮影方向に基づき、N台のカメラ101に含まれるM台のカメラ101の組み合わせであるカメラ群の各々の第2評価値(カメラ位置評価値)を算出する(S203)。そして、サーバ103は、カメラ群に含まれるM台のカメラの第1評価値と、当該カメラ群の第2評価値とに基づき、当該カメラ群の第3評価値を算出し、第3評価値が最も高いカメラ群に含まれるM台のカメラを選択する(S204)。   Also, as shown in FIG. 22, the server 103, in step S242 (S111), based on the video captured by the N cameras, the first evaluation value of each of the N cameras (evaluation value of a single camera). Is calculated (S201). In addition, the server 103 determines the second evaluation value (camera position evaluation value) of each camera group that is a combination of the M cameras 101 included in the N cameras 101 based on the positions and shooting directions of the N cameras 101. ) Is calculated (S203). Then, the server 103 calculates a third evaluation value of the camera group based on the first evaluation value of the M cameras included in the camera group and the second evaluation value of the camera group. M cameras included in the camera group with the highest value are selected (S204).

以上、実施の形態に係るカメラ選択方法及び映像配信システムついて説明したが、本発明は、この実施の形態に限定されるものではない。   Although the camera selection method and the video distribution system according to the embodiment have been described above, the present invention is not limited to this embodiment.

また、上記実施の形態に係る映像配信システムに含まれる各装置に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。   Each processing unit included in each device included in the video distribution system according to the above embodiment is typically realized as an LSI that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Further, the circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。   In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

言い換えると、映像配信システムに含まれる各装置は、処理回路(processing circuitry)と、当該処理回路に電気的に接続された(当該処理回路からアクセス可能な)記憶装置(storage)とを備える。処理回路は、専用のハードウェア及びプログラム実行部の少なくとも一方を含む。また、記憶装置は、処理回路がプログラム実行部を含む場合には、当該プログラム実行部により実行されるソフトウェアプログラムを記憶する。処理回路は、記憶装置を用いて、上記実施の形態に係るカメラ選択方法を実行する。   In other words, each device included in the video distribution system includes a processing circuit and a storage device (storage) electrically connected to the processing circuit (accessible from the processing circuit). The processing circuit includes at least one of dedicated hardware and a program execution unit. Further, when the processing circuit includes a program execution unit, the storage device stores a software program executed by the program execution unit. The processing circuit executes the camera selection method according to the above embodiment using the storage device.

さらに、本発明は上記ソフトウェアプログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。   Furthermore, the present invention may be the software program or a non-transitory computer-readable recording medium on which the program is recorded. Needless to say, the program can be distributed via a transmission medium such as the Internet.

また、上記で用いた数字は、全て本発明を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。   Moreover, all the numbers used above are illustrated for specifically explaining the present invention, and the present invention is not limited to the illustrated numbers.

また、上記のカメラ選択方法等に含まれるステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。   Further, the order in which the steps included in the above-described camera selection method and the like are executed is for illustration in order to specifically describe the present invention, and may be in an order other than the above. Also, some of the above steps may be executed simultaneously (in parallel) with other steps.

以上、本発明の一つ又は複数の態様に係る映像配信システム、及びカメラ選択方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つ又は複数の態様の範囲内に含まれてもよい。   As described above, the video distribution system and the camera selection method according to one or more aspects of the present invention have been described based on the embodiment, but the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, the embodiment in which various modifications conceived by those skilled in the art have been made in the present embodiment, and forms constructed by combining components in different embodiments are also applicable to one or more of the present invention. It may be included within the scope of the embodiments.

本発明は、複数のカメラで撮影された映像を配信する映像配信システムに適用でききる。   The present invention can be applied to a video distribution system that distributes videos taken by a plurality of cameras.

100 映像配信システム
101、101A、101B、101C、101D、101E、101F カメラ
102 端末装置
103 サーバ
104A、104B ネットワーク
105 モニタ
106 ユーザ
111 受信部
112 蓄積部
113 制御部
114 カメラ情報算出部
115 初期カメラ選択部
116 カメラ切替判定部
117 切替カメラ選択部
118 リセット判定部
119 送信部
201A、201B、201C フレーム
202、202A、202B 被写体
203A、203B 領域
211 対象領域
212 対象被写体
DESCRIPTION OF SYMBOLS 100 Video delivery system 101, 101A, 101B, 101C, 101D, 101E, 101F Camera 102 Terminal device 103 Server 104A, 104B Network 105 Monitor 106 User 111 Reception part 112 Storage part 113 Control part 114 Camera information calculation part 115 Initial camera selection part 115 116 Camera switching determination unit 117 Switching camera selection unit 118 Reset determination unit 119 Transmission unit 201A, 201B, 201C Frame 202, 202A, 202B Subject 203A, 203B Region 211 Target region 212 Target subject

Claims (13)

同一の場面を撮影しているN(2以上の自然数)台のカメラから、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラを選択するカメラ選択方法であって、
回路が、前記N台のカメラの位置及び撮影方向を取得する取得ステップと、
前記回路が、取得された前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを選択する選択ステップとを含み、
前記選択ステップでは、
条件i)前記N台のカメラを鉛直方向に沿って視たときに、前記M台のカメラが所定位置を取り囲み、かつ
条件ii)前記M台のカメラの各々が、前記所定位置を撮影するための撮影方向を有し、かつ
条件iii)前記N台のカメラを前記鉛直方向に沿って視たときに、前記M台のカメラに含まれ且つ隣り合う2台のカメラの撮影方向のなす角が、前記M台のカメラに含まれ且つ他の隣り合う2台のカメラの撮影方向のなす角と大きさが等しくなる、
を満たす前記M台のカメラを選択する
カメラ選択方法。
A camera selection method of selecting M (M is a natural number smaller than N) cameras from which a video to be displayed is captured from N (2 or more natural numbers) cameras capturing the same scene,
An acquisition step in which a circuit acquires the positions and shooting directions of the N cameras;
It said circuit based on the obtained position and the shooting direction of the N cameras, viewing contains a selection step of selecting the M cameras from the N cameras,
In the selection step,
Condition i) When the N cameras are viewed along the vertical direction, the M cameras surround a predetermined position, and
Condition ii) Each of the M cameras has a shooting direction for shooting the predetermined position, and
Condition iii) When the N cameras are viewed along the vertical direction, an angle formed by the shooting directions of two adjacent cameras included in the M cameras is included in the M cameras. And the angle formed by the shooting direction of the other two adjacent cameras is equal to the size.
A camera selection method for selecting the M cameras satisfying the above condition .
前記取得ステップでは、前記N台のカメラで撮影された画像を用いて三次元再構成を行うことで、前記N台のカメラの位置及び撮影方向を算出する
請求項記載のカメラ選択方法。
Wherein in the obtaining step, using said images taken by N cameras by performing three-dimensional reconstruction, a camera selection method of claim 1, wherein calculating the position and the shooting direction of the N cameras.
前記取得ステップでは、前記N台のカメラの各々から送信された、当該カメラが備えるセンサで得られた情報を用いて、前記N台のカメラの位置及び撮影方向を算出する
請求項記載のカメラ選択方法。
2. The camera according to claim 1 , wherein in the obtaining step, the position and shooting direction of the N cameras are calculated using information obtained from a sensor included in the camera and transmitted from each of the N cameras. Selection method.
前記取得ステップでは、さらに、前記N台のカメラの焦点距離を取得し、
前記選択ステップでは、取得された前記N台のカメラの位置、撮影方向及び焦点距離に基づき、前記N台のカメラから前記M台のカメラを選択する
請求項1〜のいずれか1項に記載のカメラ選択方法。
In the obtaining step, the focal lengths of the N cameras are further obtained,
Wherein in the selection step, the obtained position of the N cameras, based on the photographing direction and the focal length, wherein from the N cameras in any one of claims 1 to 3 for selecting the M cameras Camera selection method.
前記カメラ選択方法は、さらに、
前記回路が、前記選択ステップの後のフレームにおいて、選択されている前記M台のカメラのうちの一部のカメラを他のカメラに切り替えるか否かを判定する第1判定ステップと、
前記回路が、前記第1判定ステップにおいて、切り替えると判定された場合に、前記N台のカメラの位置及び撮影方向に基づき、前記一部のカメラの代わりの新たなカメラを選択する切替ステップとを含む
請求項1〜のいずれか1項に記載のカメラ選択方法。
The camera selection method further includes:
A first determination step in which the circuit determines whether to switch a part of the selected M cameras to another camera in a frame after the selection step;
A switching step of selecting a new camera instead of the part of the cameras based on the positions and shooting directions of the N cameras when the circuit is determined to switch in the first determination step. The camera selection method according to any one of claims 1 to 4 .
前記第1判定ステップでは、フレーム間で対象被写体を追跡し、前記対象被写体の追跡に失敗した場合に、前記選択するカメラを切り替えると判定する
請求項記載のカメラ選択方法。
The camera selection method according to claim 5, wherein in the first determination step, a target subject is tracked between frames, and when the tracking of the target subject fails, it is determined that the camera to be selected is switched.
前記第1判定ステップでは、フレーム間で前記対象被写体の三次元モデルを対応付け、対応付けた前記対象被写体の三次元モデルを現時刻のフレームに投影し、得られたフレーム内に対象被写体が存在しない場合に、前記追跡が失敗したと判定する
請求項記載のカメラ選択方法。
In the first determination step, the three-dimensional model of the target subject is associated between frames, the associated three-dimensional model of the target subject is projected onto the frame at the current time, and the target subject exists in the obtained frame The camera selection method according to claim 6 , wherein it is determined that the tracking has failed if not.
前記カメラ選択方法は、さらに、
前記回路が、前記選択ステップの後のフレームにおいて、前記選択ステップを再度行うか否かを判定する第2判定ステップと、
前記回路が、前記第2判定ステップにおいて、前記選択ステップを行うと判定された場合、前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを再度選択する再選択ステップとを含む
請求項5〜7のいずれか1項に記載のカメラ選択方法。
The camera selection method further includes:
A second determination step for determining whether or not the circuit performs the selection step again in a frame after the selection step;
If it is determined in the second determination step that the circuit performs the selection step, the M cameras are selected again from the N cameras based on the positions and shooting directions of the N cameras. The camera selection method according to claim 5 , further comprising a reselection step.
前記第1判定ステップでは、前回の切り替えからの経過時間が第1時間未満の場合には、切り替えを行わないと判断し、前記経過時間が前記第1時間以上かつ前記第1時間より長い第2時間未満の場合には前記一部のカメラを前記他のカメラに切り替えるか否かを第1基準で判定し、前記経過時間が前記第2時間以上の場合には前記一部のカメラを前記他のカメラに切り替えるか否かを前記第1基準よりも前記一部のカメラを前記他のカメラに切り替えると判定されやすい第2基準で判定する
請求項5〜8のいずれか1項に記載のカメラ選択方法。
In the first determination step, when the elapsed time from the previous switching is less than the first time, it is determined that the switching is not performed, and the elapsed time is equal to or longer than the first time and longer than the first time. When the time is less than the time, the first reference determines whether to switch the part of the camera to the other camera. When the elapsed time is the second time or more, the part of the camera is changed to the other The camera according to any one of claims 5 to 8 , wherein whether or not to switch to another camera is determined based on a second reference that is more easily determined when the part of the cameras is switched to the other camera than the first reference. Selection method.
前記選択ステップは、
前記回路が、前記N台のカメラで撮影された映像に基づき、前記N台のカメラの各々の第1評価値を算出するステップと、
前記回路が、前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラに含まれるM台のカメラの組み合わせであるカメラ群の各々の第2評価値を算出するステップと、
前記回路が、前記カメラ群に含まれるM台のカメラの前記第1評価値と、当該カメラ群の前記第2評価値とに基づき、当該カメラ群の第3評価値を算出するステップと、
前記回路が、前記第3評価値が最も高いカメラ群に含まれる前記M台のカメラを選択するステップとを含む
請求項1〜のいずれか1項に記載のカメラ選択方法。
The selection step includes
The circuit calculates a first evaluation value of each of the N cameras based on an image captured by the N cameras;
The circuit calculates a second evaluation value of each camera group that is a combination of M cameras included in the N cameras based on the positions and shooting directions of the N cameras;
The circuit calculates a third evaluation value of the camera group based on the first evaluation value of the M cameras included in the camera group and the second evaluation value of the camera group;
It said circuit, camera selection method according to any one of claims 1 to 9, including the step of selecting the M cameras that the third evaluation value is included in the highest group of cameras.
前記N台のカメラは、前記所定位置を360°で取り囲むように配置されているThe N cameras are arranged so as to surround the predetermined position at 360 °.
請求項1〜10のいずれか1項に記載のカメラ選択方法。  The camera selection method according to claim 1.
前記所定位置は、イベント会場の中心位置であるThe predetermined position is the center position of the event venue.
請求項1〜11のいずれか1項に記載のカメラ選択方法。  The camera selection method according to claim 1.
同一の場面を撮影しているN(2以上の自然数)台のカメラから、表示する映像の撮影元のM(MはNより小さい自然数)台のカメラを選択する映像配信システムであって、
前記N台のカメラの位置及び撮影方向を取得する取得部と、
取得された前記N台のカメラの位置及び撮影方向に基づき、前記N台のカメラから前記M台のカメラを選択する選択部と
前記M台のカメラによって撮影された映像を配信する送信部と、を備え
前記選択部は、
条件i)前記N台のカメラを鉛直方向に沿って視たときに、前記M台のカメラが所定位置を取り囲み、かつ
条件ii)前記M台のカメラの各々が、前記所定位置を撮影するための撮影方向を有し、かつ
条件iii)前記N台のカメラを前記鉛直方向に沿って視たときに、前記M台のカメラに含まれ且つ隣り合う2台のカメラの撮影方向のなす角が、前記M台のカメラに含まれ且つ他の隣り合う2台のカメラの撮影方向のなす角と大きさが等しくなる、
を満たす前記M台のカメラを選択する
映像配信システム。
A video distribution system that selects M (M is a natural number smaller than N) cameras of a video to be displayed from N (natural numbers greater than or equal to 2) cameras that shoot the same scene,
An acquisition unit for acquiring the positions and shooting directions of the N cameras;
A selection unit that selects the M cameras from the N cameras based on the acquired positions and shooting directions of the N cameras ;
A transmission unit that distributes video captured by the M cameras ,
The selection unit includes:
Condition i) When the N cameras are viewed along the vertical direction, the M cameras surround a predetermined position, and
Condition ii) Each of the M cameras has a shooting direction for shooting the predetermined position, and
Condition iii) When the N cameras are viewed along the vertical direction, an angle formed by the shooting directions of two adjacent cameras included in the M cameras is included in the M cameras. And the angle formed by the shooting direction of the other two adjacent cameras is equal to the size.
A video distribution system for selecting the M cameras satisfying
JP2015240655A 2015-04-29 2015-12-09 Camera selection method and video distribution system Active JP6621063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/075,220 US10171794B2 (en) 2015-04-29 2016-03-21 Method for selecting cameras and image distribution system capable of appropriately selecting cameras

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562154138P 2015-04-29 2015-04-29
US62/154,138 2015-04-29

Publications (2)

Publication Number Publication Date
JP2016213808A JP2016213808A (en) 2016-12-15
JP6621063B2 true JP6621063B2 (en) 2019-12-18

Family

ID=57552150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015240655A Active JP6621063B2 (en) 2015-04-29 2015-12-09 Camera selection method and video distribution system

Country Status (1)

Country Link
JP (1) JP6621063B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102089557B1 (en) * 2018-03-15 2020-03-16 주식회사 삼십구도씨 Apparatus and method for processing image
US10616724B2 (en) 2015-11-19 2020-04-07 39Degrees C Inc. Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
US10694081B2 (en) * 2016-03-10 2020-06-23 Sony Corporation Information processing apparatus and information processing method
CN108884577B (en) 2016-03-29 2022-02-11 东曹株式会社 Electrolytic manganese dioxide, method for producing same, and use thereof
JP6262890B1 (en) * 2017-01-13 2018-01-17 株式会社日本エスシーマネージメント Viewing device, underwater space viewing system, and underwater space viewing method
EP3691247A4 (en) * 2017-09-26 2020-08-12 Sony Semiconductor Solutions Corporation Information processing system
EP3713211B1 (en) * 2017-10-17 2023-10-04 Nikon Corporation Control apparatus control program
KR102449670B1 (en) * 2018-01-16 2022-09-30 삼성전자주식회사 Method for creating video data using cameras and server for processing the method
AU2019217629B2 (en) * 2018-02-06 2023-09-07 Phenix Real Time Solutions, Inc. Simulating a local experience by live streaming sharable viewpoints of a live event
US11651454B2 (en) 2018-03-29 2023-05-16 Nec Corporation Information processing apparatus, information processing method, and non-transitory computer readable medium storing program
JP7017998B2 (en) * 2018-09-13 2022-02-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Information processing equipment, flight path generation methods, programs, and recording media
CN110430417B (en) * 2019-08-07 2021-04-20 中国商用飞机有限责任公司北京民用飞机技术研究中心 Multi-view stereoscopic image generation method and device, computer equipment and storage medium
CN114430800B (en) * 2019-10-02 2024-04-02 富士通株式会社 Generating method, recording medium, and information processing apparatus
JP7464437B2 (en) 2020-04-23 2024-04-09 株式会社Nttドコモ Information processing device
CN115777199A (en) * 2020-07-13 2023-03-10 索尼集团公司 Information processing apparatus, information processing method, and program
JP2022018601A (en) * 2020-07-16 2022-01-27 キヤノン株式会社 Simulation device, computer program, and storage medium
US20230370636A1 (en) * 2020-10-06 2023-11-16 Sony Group Corporation Image processing device and method
CN114339034A (en) * 2021-12-06 2022-04-12 上海交通大学 Free visual angle based video data transmission method and receiving processing method
KR102482545B1 (en) * 2022-05-25 2022-12-29 주식회사 유투에스알 AI-based path prediction method
WO2024023982A1 (en) * 2022-07-27 2024-02-01 日本電信電話株式会社 Video processing device, method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325180A (en) * 1993-05-14 1994-11-25 Matsushita Electric Ind Co Ltd Automatic tracking device for moving body
JP2002374514A (en) * 2001-06-13 2002-12-26 Casio Comput Co Ltd System and method for relaying photographed video
JP2005039580A (en) * 2003-07-16 2005-02-10 Matsushita Electric Ind Co Ltd Image managing device, image browsing device, image delivering system and method therefor
JP2006174124A (en) * 2004-12-16 2006-06-29 Nec Commun Syst Ltd Video distributing and reproducing system, video distribution device, and video reproduction device
JP4882276B2 (en) * 2005-05-23 2012-02-22 富士通株式会社 Image delivery method and image delivery apparatus
GB2444533B (en) * 2006-12-06 2011-05-04 Sony Uk Ltd A method and an apparatus for generating image content
GB2452510A (en) * 2007-09-05 2009-03-11 Sony Corp System For Communicating A Three Dimensional Representation Of A Sporting Event
JP6057657B2 (en) * 2012-10-15 2017-01-11 キヤノン株式会社 Imaging apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2016213808A (en) 2016-12-15

Similar Documents

Publication Publication Date Title
JP6621063B2 (en) Camera selection method and video distribution system
US11006089B2 (en) Information processing apparatus and information processing method
WO2017134706A1 (en) Video display method and video display device
US10171794B2 (en) Method for selecting cameras and image distribution system capable of appropriately selecting cameras
JP6778912B2 (en) Video display method and video display device
US10440407B2 (en) Adaptive control for immersive experience delivery
US11887318B2 (en) Object tracking
WO2017169369A1 (en) Information processing device, information processing method, program
JP2018107793A (en) Generation device, generation method and program of virtual view point image
KR101933153B1 (en) Control Image Relocation Method and Apparatus according to the direction of movement of the Object of Interest
KR102475994B1 (en) Information processing apparatus, information processing method and storage medium
JP6388532B2 (en) Image providing system and image providing method
WO2018234622A1 (en) A method for detecting events-of-interest
JP2024001268A (en) Control apparatus
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2009246917A (en) Video display device, and video processing apparatus
US20220353484A1 (en) Information processing apparatus, information processing method, and program
CN109874000A (en) Image processing apparatus, information processing method and storage medium
TW201222422A (en) Method and arrangement for identifying virtual visual information in images
JP2017050819A (en) Generation device for panoramic image data, generation method and program
KR101868057B1 (en) Method for generating panoramic image and apparatus thereof
JP6613686B2 (en) Movie display device, movie display method, and program
WO2023063088A1 (en) Method, apparatus, system and non-transitory computer readable medium for adaptively adjusting detection area
WO2014092553A2 (en) Method and system for splitting and combining images from steerable camera
KR102347658B1 (en) Method for processing image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R151 Written notification of patent or utility model registration

Ref document number: 6621063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151