JP2020188395A - Method, information processing device, and program supporting adjustment of posture of imaging device - Google Patents

Method, information processing device, and program supporting adjustment of posture of imaging device Download PDF

Info

Publication number
JP2020188395A
JP2020188395A JP2019092774A JP2019092774A JP2020188395A JP 2020188395 A JP2020188395 A JP 2020188395A JP 2019092774 A JP2019092774 A JP 2019092774A JP 2019092774 A JP2019092774 A JP 2019092774A JP 2020188395 A JP2020188395 A JP 2020188395A
Authority
JP
Japan
Prior art keywords
image
camera
display
posture
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019092774A
Other languages
Japanese (ja)
Inventor
佐藤 肇
Hajime Sato
肇 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019092774A priority Critical patent/JP2020188395A/en
Publication of JP2020188395A publication Critical patent/JP2020188395A/en
Pending legal-status Critical Current

Links

Images

Abstract

To support to efficiently perform posture adjustment work of an imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices.SOLUTION: A first image which is an image to be captured by an imaging device at the position and orientation in which the imaging device is to be installed, and a second image which is an image captured by the imaging device at the position and orientation in which the imaging device is currently installed are acquired, and the second image is displayed together with the acquired first image.SELECTED DRAWING: Figure 7

Description

本発明は、撮像装置の姿勢の調整を支援する方法に関する。 The present invention relates to a method of assisting in adjusting the posture of an imaging device.

複数のカメラ(撮像装置)を異なる位置に設置して多視点で同期撮影し、当該撮影によって得られた多視点画像を用いて、任意の視点に基づく仮想視点画像を生成する技術が注目されている(特許文献1参照)。このような技術によれば、例えば、サッカーやバスケットボール等の試合のハイライトシーンやコンサート等を様々な角度から視聴することが可能となり、通常の画像と比較してユーザに高臨場感を与えることができる。 Attention has been paid to a technique in which multiple cameras (imaging devices) are installed at different positions to perform synchronous shooting from multiple viewpoints, and a virtual viewpoint image based on an arbitrary viewpoint is generated using the multi-viewpoint image obtained by the shooting. (See Patent Document 1). According to such technology, for example, highlight scenes of games such as soccer and basketball, concerts, etc. can be viewed from various angles, giving the user a high sense of presence as compared with ordinary images. Can be done.

スポーツの試合やコンサート等のイベント撮影の際には、その準備段階としてカメラ等の機材を設置する必要がある。仮想視点画像生成システムにおいては、各カメラの位置、姿勢の調整を高精度に行う必要がある。 When shooting an event such as a sports game or concert, it is necessary to install equipment such as a camera as a preparatory step. In the virtual viewpoint image generation system, it is necessary to adjust the position and orientation of each camera with high accuracy.

従来、カメラの設置作業者は、マーカーを対象施設(フィールド)に設置し、カメラの光軸方向が当該マーカーを向くよう、撮像画像を見ながらカメラの姿勢調整を行っていた。 Conventionally, a camera installation worker installs a marker in a target facility (field) and adjusts the posture of the camera while looking at a captured image so that the optical axis direction of the camera faces the marker.

特開2008−015756号公報JP-A-2008-015756

しかしながら、マーカーは、広いフィールドに対して相対的に小さく、また複数ある場合もあるため、各カメラをどのマーカーに対して合わせて姿勢調整すればよいかは、マニュアルなどを参照する必要があった。その結果、作業時間や作業人数が増加する要因となっていた。また、作業者によるターゲット間違いなどのヒューマンエラーにつながる恐れもあった。さらには、施設の様々な都合により、マーカーを設置することができない場合があり、姿勢調整作業そのものが困難な場合もあった。 However, the markers are relatively small with respect to a wide field, and there may be a plurality of markers. Therefore, it was necessary to refer to a manual or the like to determine which marker the camera should be adjusted to. .. As a result, it was a factor that increased the working time and the number of workers. In addition, there is a risk of leading to human error such as target error by the worker. Furthermore, due to various reasons of the facility, it may not be possible to install the marker, and the posture adjustment work itself may be difficult.

本発明は、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて、撮像装置の姿勢調整作業を効率的に行えるよう支援することを目的とする。 An object of the present invention is to support efficient posture adjustment work of an imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices.

本発明は、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて各撮像装置の姿勢の調整を支援する方法であって、前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像を取得する第1の取得工程と、
前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像を取得する第2の取得工程と、前記第1の取得工程において取得した前記第1の画像と共に、前記第2の取得工程において取得した前記第2の画像を表示させる表示工程と、を有することを特徴とする。
The present invention is a method of supporting adjustment of the posture of each imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices, and one of the plurality of imaging devices is installed. A first acquisition step of acquiring a first image which is an image to be captured by the imaging device at a power position and a posture, and
A second acquisition step of acquiring a second image which is an image captured by the image pickup device at the position and orientation in which the image pickup device is currently installed, and the first acquisition step acquired in the first acquisition step. It is characterized by having a display step of displaying the second image acquired in the second acquisition step together with the image.

本発明によれば、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて、撮像装置の姿勢調整作業を効率的に行えるように支援することができる。 According to the present invention, in a system in which an imaging region is imaged from different directions by a plurality of imaging devices, it is possible to support the posture adjustment work of the imaging device to be efficiently performed.

画像処理システムの構成例を示す図である。It is a figure which shows the configuration example of an image processing system. 画像生成装置150と仮想カメラ操作端末160の機能構成例を示す図である。It is a figure which shows the functional configuration example of an image generation apparatus 150 and a virtual camera operation terminal 160. カメラアダプタの機能構成例を示す図である。It is a figure which shows the functional configuration example of a camera adapter. システムを稼働させるためのワークフローの例を示す図である。It is a figure which shows the example of the workflow for operating a system. カメラ運用端末における画面表示の例を示す図である。It is a figure which shows the example of the screen display in a camera operation terminal. カメラ運用端末における機材設置状況の例を示す図である。It is a figure which shows the example of the equipment installation situation in a camera operation terminal. カメラの姿勢調整時のカメラ運用端末における表示例を説明するための図である。It is a figure for demonstrating the display example in the camera operation terminal at the time of adjusting the posture of a camera. カメラの姿勢調整時の処理の流れの例を示す図である。It is a figure which shows the example of the processing flow at the time of posture adjustment of a camera. カメラの姿勢調整時のカメラ運用端末における別の表示例を説明するための図である。It is a figure for demonstrating another display example in a camera operation terminal at the time of posture adjustment of a camera. カメラの姿勢調整時の処理の流れの別の例を示す図である。It is a figure which shows another example of the processing flow at the time of posture adjustment of a camera. カメラ運用端末のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of a camera operation terminal.

以下、図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態で説明される構成は一例に過ぎず、本発明を、説明される実施形態に限定することは意図されていない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the configurations described in the following embodiments are merely examples, and the present invention is not intended to be limited to the embodiments described.

<第1の実施形態>
(システム構成)
本実施形態では、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ(撮像装置)を設置し撮影を行い、当該撮影により得られた複数視点画像を用いて仮想視点画像を生成するシステムの例について説明する。本実施形態では、仮想視点画像生成用のマルチカメラシステムにおいて、各カメラの姿勢調整作業を視覚的に行うことにより、作業の効率的な進行を支援する方法について説明する。
<First Embodiment>
(System configuration)
In this embodiment, a system in which a plurality of cameras (imaging devices) are installed in a facility such as a stadium (stadium) or a concert hall to take a picture, and a virtual viewpoint image is generated using the multi-viewpoint image obtained by the shooting. An example of is described. In the present embodiment, in a multi-camera system for generating a virtual viewpoint image, a method of supporting the efficient progress of the work by visually performing the posture adjustment work of each camera will be described.

(画像処理システム100の説明)
図1に、本実施形態に係る画像処理システム100の構成例を示す。画像処理システム100は、複数の撮像装置による撮像に基づく複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
(Explanation of image processing system 100)
FIG. 1 shows a configuration example of the image processing system 100 according to the present embodiment. The image processing system 100 is a system that generates a virtual viewpoint image representing a view from a designated virtual viewpoint based on a plurality of images taken by a plurality of imaging devices and a designated virtual viewpoint. The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual visual image. Further, in the present embodiment, the case where the virtual viewpoint is specified by the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.

画像処理システム100は、撮像領域を複数の方向から撮像する複数のカメラ(撮像装置)を有する。撮像領域は、例えばサッカーなどの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数のカメラは、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数のカメラは撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、望遠カメラと広角カメラなど機能が異なるカメラが設置されていてもよい。 The image processing system 100 has a plurality of cameras (imaging devices) that image an imaging region from a plurality of directions. The imaging area is, for example, a stadium where a competition such as soccer is performed, or a stage where a concert or a play is performed. A plurality of cameras are installed at different positions so as to surround such an imaging area, and perform imaging in synchronization. It should be noted that the plurality of cameras may not be installed over the entire circumference of the imaging area, and may be installed only in a part of the imaging area depending on the limitation of the installation location or the like. Further, cameras having different functions such as a telephoto camera and a wide-angle camera may be installed.

画像処理システム100は、センサシステム110a〜110z、スイッチングハブ120、カメラ運用端末130、画像コンピューティングサーバ140、画像生成装置150、仮想カメラ操作端末160、及び制御ステーション170を含む。 The image processing system 100 includes a sensor system 110a to 110z, a switching hub 120, a camera operation terminal 130, an image computing server 140, an image generation device 150, a virtual camera operation terminal 160, and a control station 170.

まず、センサシステム110a〜110zの構成及び動作について説明する。センサシステム110a〜110zは、それぞれ、マイク111a〜111z、カメラ112a〜112z、雲台113a〜113z、外部センサ114a〜114z、及びバッテリ115a〜115zを有する。また、センサシステム110a〜110zは、それぞれカメラアダプタ116a〜116zを有し、このカメラアダプタ116a〜116zを介して、デイジーチェーン121a〜121yによって相互に接続される。なお、接続形態はデイジーチェーン接続に限らず、スター型など別のネットワークトポロジーを採用しても良い。また、図1では、26個のセンサシステム110a〜110zが存在する例について説明するが、センサシステムの台数はこれに限るものではない。また、図1では、センサシステム110a〜110zが共通の構成を有するものとしているが、少なくとも一部のセンサシステムが、他のセンサシステムと異なる構成を有してもよい。 First, the configuration and operation of the sensor systems 110a to 110z will be described. The sensor systems 110a to 110z have microphones 111a to 111z, cameras 112a to 112z, pan heads 113a to 113z, external sensors 114a to 114z, and batteries 115a to 115z, respectively. Further, the sensor systems 110a to 110z have camera adapters 116a to 116z, respectively, and are connected to each other by daisy chains 121a to 121y via the camera adapters 116a to 116z. The connection form is not limited to the daisy chain connection, and another network topology such as a star type may be adopted. Further, in FIG. 1, an example in which 26 sensor systems 110a to 110z exist will be described, but the number of sensor systems is not limited to this. Further, in FIG. 1, it is assumed that the sensor systems 110a to 110z have a common configuration, but at least a part of the sensor systems may have a configuration different from that of other sensor systems.

なお、本実施形態では、特に言及がない限りは、センサシステム110a〜110zを区別せずに「センサシステム110」と呼ぶ。また、センサシステム110が有する各構成についても、特に区別する必要のない場合には、マイク111、カメラ112、雲台113、外部センサ114、バッテリ115、及びカメラアダプタ116と呼ぶ。センサシステム110は、それぞれが有するカメラ112によって撮影を行うことにより画像データを取得し、また、マイク111を用いて録音を行うことにより音声データを取得する。すなわち、画像処理システム100は、同一の被写体をそれぞれが異なる方向から撮影する複数のセンサシステム110を用いることにより、複数の方向から撮影された画像データを得ることができる。同様に、画像処理システム100は、これらの複数のセンサシステム110を用いて、異なる位置において(必要に応じて異なる指向特性で)収音を行うことにより、複数の位置で録音された音声データを得ることができる。 In the present embodiment, unless otherwise specified, the sensor systems 110a to 110z are referred to as "sensor system 110" without distinction. Further, each configuration of the sensor system 110 is also referred to as a microphone 111, a camera 112, a pan head 113, an external sensor 114, a battery 115, and a camera adapter 116 when it is not necessary to distinguish them. The sensor system 110 acquires image data by taking a picture with its own camera 112, and also acquires audio data by recording with a microphone 111. That is, the image processing system 100 can obtain image data captured from a plurality of directions by using a plurality of sensor systems 110 that capture the same subject from different directions. Similarly, the image processing system 100 uses these plurality of sensor systems 110 to collect sound at different positions (with different directional characteristics as needed) to collect audio data recorded at the plurality of positions. Obtainable.

複数のカメラ112は何れも光軸が固定され、パンやチルト等による撮影範囲の左右や上下への変更は行われないものとする。なお、カメラ112の初期設定時等における光軸の調整や環境による光軸のずれの修正等は、カメラ112が設置される雲台113によって行うことができる。複数のセンサシステム110は、それぞれ、デイジーチェーン121a〜121yにより、自身の下流の他のセンサシステムへ、撮影によって得られた画像データを送信する。このとき、それぞれのセンサシステム110は、上流の他のセンサシステムから取得した画像データについても下流の他のセンサシステムへ転送する。例えば、センサシステム110aは、カメラ112aを用いて撮影された画像データを、カメラアダプタ116aにおいて後述の画像処理を施した後に、デイジーチェーン121aを介してセンサシステム110bのカメラアダプタ116bへ伝送する。同様に、センサシステム110bは、カメラ112bを用いて撮影された画像データを、センサシステム110aから取得した画像データと共に(場合によっては別個の信号で)センサシステム110cへ伝送する。なお、センサシステム110zは、撮影により得られた画像データと上流のセンサシステムから取得した画像データを、ネットワーク122bを介してスイッチングハブ120へ伝送する。デイジーチェーンを用いることにより、撮影画像の4Kや8Kなどへの高解像度化及びハイフレームレート化に伴って画像データが大容量化しても、接続ケーブル数や配線作業の煩雑性の増大を防ぐことができる。 It is assumed that the optical axes of the plurality of cameras 112 are fixed, and the shooting range is not changed to the left, right, up, or down by panning, tilting, or the like. It should be noted that the adjustment of the optical axis at the time of initial setting of the camera 112 and the correction of the deviation of the optical axis due to the environment can be performed by the pan head 113 on which the camera 112 is installed. Each of the plurality of sensor systems 110 transmits the image data obtained by photographing to other sensor systems downstream of the daisy chains 121a to 121y. At this time, each sensor system 110 also transfers the image data acquired from the other upstream sensor system to the other downstream sensor system. For example, the sensor system 110a transmits the image data taken by the camera 112a to the camera adapter 116b of the sensor system 110b via the daisy chain 121a after performing the image processing described later on the camera adapter 116a. Similarly, the sensor system 110b transmits the image data captured by the camera 112b to the sensor system 110c together with the image data acquired from the sensor system 110a (in some cases, as a separate signal). The sensor system 110z transmits the image data obtained by photographing and the image data acquired from the upstream sensor system to the switching hub 120 via the network 122b. By using a daisy chain, it is possible to prevent an increase in the number of connection cables and the complexity of wiring work even if the image data capacity increases as the resolution of the captured image increases to 4K or 8K and the frame rate increases. Can be done.

複数のマイク111の取り扱い及びそれらのマイク111で収音された音声データについても同様である。すなわち、複数のマイク111は、指向方向が固定されており、その方向の変更は行われないものとする。また、収音により得られた音声データは、デイジーチェーンを介して伝送される。このような動作により、センサシステム110a〜110zが取得した画像データ及び音声データは、センサシステム110zからネットワーク122bを用いてスイッチングハブ120に伝わり、その後、画像コンピューティングサーバ140へ転送される。 The same applies to the handling of a plurality of microphones 111 and the voice data collected by those microphones 111. That is, it is assumed that the direction of the plurality of microphones 111 is fixed and the direction is not changed. In addition, the voice data obtained by sound collection is transmitted via a daisy chain. By such an operation, the image data and the audio data acquired by the sensor systems 110a to 110z are transmitted from the sensor system 110z to the switching hub 120 using the network 122b, and then transferred to the image computing server 140.

外部センサ114は、撮影や収音以外の方法により、各種環境情報を取得する。例えば、外部センサ114は、センサシステム110の振動や傾き、気温、湿度、風向き、風速等の各種情報を取得可能である。なお、これらは一例であり、外部センサ114は、任意の環境パラメータを取得するための任意の装置構成を有する。 The external sensor 114 acquires various environmental information by a method other than photographing or collecting sound. For example, the external sensor 114 can acquire various information such as vibration and inclination of the sensor system 110, air temperature, humidity, wind direction, and wind speed. It should be noted that these are examples, and the external sensor 114 has an arbitrary device configuration for acquiring an arbitrary environmental parameter.

バッテリ115は、後述の、センサシステム110を競技場などの施設に設置または撤収する際のワークフローを実行する際に使用され、例えば競技場にシステム用電源が敷設されていない場合に使用される。なお、センサシステム110は、設置の完了後でシステム用電源が敷設された後は、バッテリ115を使用しないようにしうる。さらに、センサシステム110は、システム用電源が事前に敷設される場合には、バッテリ115を有さずに、その電源を使用して動作するように構成されてもよい。なお、システム用電源ではなく、施設に常設されている電源が用いられてもよい。 The battery 115 is used when executing a workflow for installing or withdrawing the sensor system 110 in a facility such as a stadium, which will be described later, and is used, for example, when a system power supply is not installed in the stadium. The sensor system 110 may not use the battery 115 after the system power supply is laid after the installation is completed. Further, the sensor system 110 may be configured to operate using the battery 115 without the battery 115 when the system power supply is laid in advance. A power source permanently installed in the facility may be used instead of the system power source.

なお、図1では、カメラ112とカメラアダプタ116とが分離された例を示しているが、これらは同一の筺体内に含まれる1つの装置であってもよい。また、マイク111も、カメラ112に内蔵されたマイクであってもよいし、図1のように別個の装置が用意されてもよい。このように、図1に示される複数の機能部が1つの装置によって実現されてもよく、また、1つの機能部が複数の装置が協働することによって実現されてもよい。 Although FIG. 1 shows an example in which the camera 112 and the camera adapter 116 are separated from each other, these may be one device included in the same housing. Further, the microphone 111 may also be a microphone built in the camera 112, or a separate device may be prepared as shown in FIG. As described above, the plurality of functional units shown in FIG. 1 may be realized by one device, or one functional unit may be realized by the cooperation of a plurality of devices.

また、本実施形態では、特に言及のない限り、「画像」という用語が動画と静止画との両方の概念を含むものとする。すなわち、画像処理システム100は、静止画及び動画のいずれについても対処可能である。また、本実施形態では、仮想視点コンテンツとして、仮想視点画像と仮想聴点音響が画像処理システム100によって提供される場合について説明するが、これに限られない。例えば、仮想視点コンテンツは、音響を含まなくてもよい。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより録音された音声であるなど、仮想聴点音響以外の形式で提供されてもよい。また、本実施形態では、説明を簡単にするため、音声についての説明を部分的に省略しているが、画像と音声は共に処理されるものとする。 Further, in the present embodiment, unless otherwise specified, the term "image" includes the concepts of both moving images and still images. That is, the image processing system 100 can deal with both still images and moving images. Further, in the present embodiment, the case where the virtual viewpoint image and the virtual listening point sound are provided by the image processing system 100 as the virtual viewpoint contents will be described, but the present invention is not limited to this. For example, the virtual viewpoint content does not have to include sound. Further, for example, the sound included in the virtual viewpoint content may be provided in a format other than the virtual listening point sound, such as the sound recorded by the microphone closest to the virtual viewpoint. Further, in the present embodiment, for the sake of simplicity, the description of the sound is partially omitted, but both the image and the sound are processed.

次に、画像コンピューティングサーバ140の構成及び動作について説明する。画像コンピューティングサーバ140は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ140は、タイムサーバ141と、フロントエンドサーバ142とを含む。 Next, the configuration and operation of the image computing server 140 will be described. The image computing server 140 processes the data acquired from the sensor system 110z. The image computing server 140 includes a time server 141 and a front-end server 142.

タイムサーバ141は、時刻及び同期信号を配信する機能を有し、スイッチングハブ120を介して、センサシステム110a〜110zに時刻及び同期信号を配信する。センサシステム110a〜110zは、カメラアダプタ116a〜116zを介して時刻と同期信号を受信すると、時刻と同期信号に基づいてカメラ112a〜112zを同期させ、画像フレーム同期を確立する。すなわち、タイムサーバ141は、複数のカメラ112の撮影タイミングを同期させる。 The time server 141 has a function of distributing the time and synchronization signals, and distributes the time and synchronization signals to the sensor systems 110a to 110z via the switching hub 120. When the sensor systems 110a to 110z receive the time and synchronization signals via the camera adapters 116a to 116z, the sensor systems 110a to 112z synchronize the cameras 112a to 112z based on the time and synchronization signals to establish image frame synchronization. That is, the time server 141 synchronizes the shooting timings of the plurality of cameras 112.

フロントエンドサーバ142は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換する。その後、カメラの識別子、画像か音声かを示すデータ種別、フレーム番号に応じてフロントエンドサーバ142内のデータベース(不図示)に書き込む。 The front-end server 142 reconstructs a segmented transmission packet from the image and sound acquired from the sensor system 110z to convert the data format. After that, the data is written in the database (not shown) in the front-end server 142 according to the camera identifier, the data type indicating whether it is an image or sound, and the frame number.

なお、フロントエンドサーバ142では、カメラアダプタ116から取得したデータをDRAM上に一次的に記憶し、前景画像、背景画像、音声データ、及び三次元モデルデータが揃うまでバッファする。 The front-end server 142 temporarily stores the data acquired from the camera adapter 116 on the DRAM, and buffers the foreground image, the background image, the audio data, and the three-dimensional model data until they are prepared.

ここで、前景画像とは、カメラ112により撮像されて取得された撮像画像から、前景オブジェクトの領域(前景領域)を抽出した画像である。前景領域として抽出される前景オブジェクトとは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的オブジェクト(動体)を指す。前景オブジェクトは、競技において、それが行われるフィールド内にいる選手や審判などの人物、球技であればボールなど、またコンサートやエンタテイメントにおける歌手、演奏者、パフォーマー、司会者などである。 Here, the foreground image is an image obtained by extracting a region (foreground region) of a foreground object from an captured image captured and acquired by the camera 112. The foreground object extracted as the foreground area refers to a dynamic object (moving object) that moves (the absolute position and shape of the object can change) when images are taken from the same direction in time series. Foreground objects are people such as players and referees in the field in which they are played, balls in the case of ball games, and singers, performers, performers, and moderators in concerts and entertainment.

背景画像とは、少なくとも前景となるオブジェクトとは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景となるオブジェクトを取り除いた状態の画像である。また、背景は、時系列で同じ方向から撮像を行った場合において静止している、又は静止に近い状態が継続している撮像対象物を指す。このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。ただし、背景は少なくとも前景オブジェクトとは異なる領域であり、撮像対象としては、前景オブジェクトと背景の他に、別の物体等が含まれていてもよい。 The background image is an image of at least an area (background area) different from the object that is the foreground. Specifically, the background image is an image in which the foreground object is removed from the captured image. Further, the background refers to an imaged object that is stationary or continues to be in a state close to stationary when imaging is performed from the same direction in time series. Such an imaging object is, for example, a stage such as a concert, a stadium where an event such as a competition is held, a structure such as a goal used in a ball game, a field, or the like. However, the background is at least a region different from the foreground object, and the imaging target may include another object or the like in addition to the foreground object and the background.

三次元モデルデータとは、前景オブジェクトの三次元形状を表す形状データであり、複数の前景画像に基づいて生成される。 The three-dimensional model data is shape data representing the three-dimensional shape of the foreground object, and is generated based on a plurality of foreground images.

なお、以下では、前景画像、背景画像、音声データ、及び三次元モデルデータ等の、仮想視点コンテンツを生成するためのデータをまとめて、素材データと呼ぶ。素材データには、ルーティング情報やタイムコード情報(時間情報)、カメラ識別子等のメタ情報が付与されており、フロントエンドサーバ142は、このメタ情報に基づいてデータの属性を確認する。これにより、フロントエンドサーバ142は、ある1つの時刻について、バッファされているデータを確認することによって、素材データが揃ったか否かを判定することができる。この判定により、データがカメラアダプタ116からネットワーク122等を介して転送される際に、ネットワークパケットの受信順序がデータの順序と対応しない場合であっても、必要なデータが揃うまで待つことで、ファイル生成を確実に行うことができる。なお、背景画像は、前景画像とは異なるフレームレートで撮影されてもよい。例えば、背景画像のフレームレートが1fps(frames per second)である場合、1秒ごとに1つの背景画像が取得される。これに対して、前景画像が例えば60fpsで取得される場合、前景画像が取得されるが背景画像が取得されないタイミングが存在しうる。このため、このようなタイミングにおいては、フロントエンドサーバ142は、背景画像がない状態で全てのデータが揃ったと判定してもよい。 In the following, data for generating virtual viewpoint contents such as foreground image, background image, audio data, and three-dimensional model data are collectively referred to as material data. Meta information such as routing information, time code information (time information), and camera identifier is added to the material data, and the front-end server 142 confirms the data attributes based on this meta information. As a result, the front-end server 142 can determine whether or not the material data is complete by checking the buffered data for a certain time. By this determination, when data is transferred from the camera adapter 116 via the network 122 or the like, even if the reception order of network packets does not correspond to the order of the data, it is possible to wait until the necessary data are available. File generation can be performed reliably. The background image may be taken at a frame rate different from that of the foreground image. For example, when the frame rate of the background image is 1 fps (frames per second), one background image is acquired every second. On the other hand, when the foreground image is acquired at, for example, 60 fps, there may be a timing when the foreground image is acquired but the background image is not acquired. Therefore, at such a timing, the front-end server 142 may determine that all the data have been collected without the background image.

カメラ運用端末130は、汎用のパーソナルコンピュータ(PC)やタブレットであり、カメラ112の設置や姿勢調整の支援のために使用される情報処理装置である。図1ではカメラ運用端末130が一台のみの場合について示しているが、複数台設けるようにしてもよい。 The camera operation terminal 130 is a general-purpose personal computer (PC) or tablet, and is an information processing device used for supporting the installation and posture adjustment of the camera 112. Although FIG. 1 shows a case where only one camera operation terminal 130 is provided, a plurality of camera operation terminals 130 may be provided.

カメラ運用端末130は、センサシステム110と無線通信可能に構成される。そして、カメラ運用端末130は、運用システムアプリケーションを動作させることができる。運用システムアプリケーションは、マルチカメラシステムを運用する際に使用され、イベント撮影の計画から、システムの設置、撮影、システムの撤収までの運用を管理するのに使用される。また、カメラ運用端末130は、システムを運用する上で必要な運用システムアプリケーションの画面表示や、別のカメラ運用端末とのテキストメッセージや音声等による通信を実行可能に構成されうる。 The camera operation terminal 130 is configured to be capable of wireless communication with the sensor system 110. Then, the camera operation terminal 130 can operate the operation system application. The operational system application is used when operating a multi-camera system and is used to manage operations from event shooting planning to system installation, shooting, and system withdrawal. Further, the camera operation terminal 130 may be configured to be capable of executing screen display of an operation system application necessary for operating the system and communication by text message, voice, or the like with another camera operation terminal.

画像生成装置150は、仮想カメラ操作端末160からの指示に基づく仮想カメラパスパラメータと、フロントエンドサーバ142に記憶された素材データと、に基づいて仮想視点画像を生成する。仮想カメラ操作端末160は、ユーザから仮想カメラパスを指定するための指示を受け付け、受け付けた指示に応じた情報を画像生成装置150に送信する。 The image generation device 150 generates a virtual viewpoint image based on the virtual camera path parameter based on the instruction from the virtual camera operation terminal 160 and the material data stored in the front-end server 142. The virtual camera operation terminal 160 receives an instruction for designating the virtual camera path from the user, and transmits information according to the received instruction to the image generation device 150.

ここで、仮想カメラとは、撮像領域の周囲に実際に設置された複数のカメラ112とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また、仮想カメラパスとは、経時的な仮想視点の変遷を示す情報である。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。 Here, the virtual camera is a virtual camera different from the plurality of cameras 112 actually installed around the imaging region, and is for convenience to explain the virtual viewpoint related to the generation of the virtual viewpoint image. It is a concept. That is, the virtual viewpoint image can be regarded as an image captured from a virtual viewpoint set in the virtual space associated with the imaging region. Then, the position and orientation of the viewpoint in the virtual imaging can be expressed as the position and orientation of the virtual camera. In other words, it can be said that the virtual viewpoint image is an image simulating the captured image obtained by the camera, assuming that the camera exists at the position of the virtual viewpoint set in the space. The virtual camera path is information indicating the transition of the virtual viewpoint over time. However, it is not essential to use the concept of a virtual camera in order to realize the configuration of the present embodiment. That is, at least the information indicating a specific position in the space and the information indicating the direction are set, and the virtual viewpoint image may be generated according to the set information.

画像生成装置150と仮想カメラ操作端末160の機能構成について図2を用いて説明する。なお、画像生成装置150は、上述のフロントエンドサーバ142と協働するため、図2には、フロントエンドサーバ142の機能構成の一部についても図解されている。 The functional configuration of the image generation device 150 and the virtual camera operation terminal 160 will be described with reference to FIG. Since the image generator 150 cooperates with the front-end server 142 described above, FIG. 2 also illustrates a part of the functional configuration of the front-end server 142.

フロントエンドサーバ142は、その機能として、複数視点画像保持部200及び実空間情報保持部210を有する。複数視点画像保持部200は、上述のように、競技フィールドやスタジオ等を取り囲むように設置された複数台のカメラによって同期撮影された画像に関する画像データを保持する。 The front-end server 142 has a multi-viewpoint image holding unit 200 and a real space information holding unit 210 as its functions. As described above, the multi-viewpoint image holding unit 200 holds image data related to images synchronously taken by a plurality of cameras installed so as to surround the competition field, the studio, and the like.

また、実空間情報保持部210は、被写体を含む所定範囲の空間に関する情報を保持する。実空間情報保持部210は、競技場のフィールドや観客席、スタジオの設備等、仮想視点画像内に背景として映りこむ物体(背景オブジェクト)の三次元モデル情報や、仮想視点を設定可能な範囲を示す三次元空間情報等を保持する。 Further, the real space information holding unit 210 holds information about a space in a predetermined range including the subject. The real space information holding unit 210 provides 3D model information of an object (background object) reflected as a background in a virtual viewpoint image, such as a stadium field, spectator seats, and studio equipment, and a range in which a virtual viewpoint can be set. Holds the three-dimensional spatial information to be shown.

画像生成装置150は、仮想視点画像生成部221、仮想カメラパス算出部222、仮想カメラ情報保持部223、表示画像生成部224、及び装置通信部225を有する。また、仮想カメラ操作端末160は、端末通信部231、画像表示部232、仮想カメラパス指示部233、及びユーザ情報発信部234を有する。 The image generation device 150 includes a virtual viewpoint image generation unit 221, a virtual camera path calculation unit 222, a virtual camera information holding unit 223, a display image generation unit 224, and a device communication unit 225. Further, the virtual camera operation terminal 160 has a terminal communication unit 231, an image display unit 232, a virtual camera path instruction unit 233, and a user information transmission unit 234.

仮想視点画像生成部221は、複数視点画像保持部200から取得した複数視点画像を用いて、前景オブジェクトの三次元モデルを生成する。生成した前景三次元モデルと、実空間情報保持部210から取得した背景三次元モデルとに対して、仮想カメラパス算出部222から取得した仮想視点に合わせたテクスチャをマッピングし、レンダリングを行うことにより、仮想視点画像が生成される。仮想視点画像生成部221は、この仮想視点画像の生成の過程で、生成しようとする仮想視点画像に映りこむ前景オブジェクトおよび背景オブジェクトの座標を算出し、その座標についてのみのテクスチャマッピングとレンダリングとを実行する。仮想視点画像生成部221は、算出した座標値を、被写体前景座標および実空間背景座標として、後述の仮想カメラ情報保持部223に出力する。 The virtual viewpoint image generation unit 221 generates a three-dimensional model of the foreground object using the multi-viewpoint image acquired from the multi-viewpoint image holding unit 200. By mapping the generated foreground 3D model and the background 3D model acquired from the real space information holding unit 210 to the texture according to the virtual viewpoint acquired from the virtual camera path calculation unit 222 and rendering. , A virtual viewpoint image is generated. The virtual viewpoint image generation unit 221 calculates the coordinates of the foreground object and the background object reflected in the virtual viewpoint image to be generated in the process of generating the virtual viewpoint image, and performs texture mapping and rendering only for those coordinates. Run. The virtual viewpoint image generation unit 221 outputs the calculated coordinate values as the subject foreground coordinates and the real space background coordinates to the virtual camera information holding unit 223 described later.

仮想カメラパス算出部222は、後述の仮想カメラパス指示部233に対するユーザからの指示内容に基づいて、時間的に連続する仮想カメラパスパラメータを算出する。仮想カメラパスパラメータは、ユーザが被写体を観察する際の仮想的なカメラの動きを示すパラメータであり、仮想カメラの位置及び向き(注視方向)を少なくとも含む。なお、仮想カメラパスパラメータは、これらに限定されるものではなく、例えば画角(焦点距離)を含んでいてもよい。また、仮想カメラパスパラメータは、撮影シーン中のどの瞬間に関するものであるかを特定できるように、複数視点画像に付されたフレーム番号又はタイムコードと関連付けられる。仮想カメラパス算出部222は、仮想カメラパスパラメータの算出の際に、実空間情報保持部210から取得した実空間情報を参照して、仮想視点を設定可能な範囲に仮想カメラパスを設定する。 The virtual camera path calculation unit 222 calculates temporally continuous virtual camera path parameters based on the content of instructions from the user to the virtual camera path instruction unit 233 described later. The virtual camera path parameter is a parameter indicating the movement of the virtual camera when the user observes the subject, and includes at least the position and orientation (gaze direction) of the virtual camera. The virtual camera path parameter is not limited to these, and may include, for example, an angle of view (focal length). In addition, the virtual camera path parameter is associated with a frame number or time code attached to the multi-viewpoint image so that it can identify which moment in the shooting scene it relates to. The virtual camera path calculation unit 222 sets the virtual camera path within a range in which the virtual viewpoint can be set by referring to the real space information acquired from the real space information holding unit 210 when calculating the virtual camera path parameters.

仮想カメラ情報保持部223は、仮想視点画像生成部221から取得した、被写体前景座標および実空間背景座標と、仮想カメラパス算出部222で算出された仮想カメラパスパラメータとを蓄積する。 The virtual camera information holding unit 223 stores the subject foreground coordinates and the real space background coordinates acquired from the virtual viewpoint image generation unit 221 and the virtual camera path parameters calculated by the virtual camera path calculation unit 222.

表示画像生成部224は、仮想カメラ操作端末160の画像表示部232に表示されるための表示画像を生成する。ここで生成される表示画像は、仮想視点画像生成部221で生成される仮想視点画像である。装置通信部225は、画像生成装置150と仮想カメラ操作端末160との間での、不図示のネットワーク等を介した有線通信又は無線通信を行うための機能部である。画像生成装置150と仮想カメラ操作端末160との間では、画像、音声、及びテキストの各データや、仮想視点画像を生成する際にユーザから指示された仮想カメラパスに関する指示情報が送受信される。 The display image generation unit 224 generates a display image to be displayed on the image display unit 232 of the virtual camera operation terminal 160. The display image generated here is a virtual viewpoint image generated by the virtual viewpoint image generation unit 221. The device communication unit 225 is a functional unit for performing wired communication or wireless communication between the image generation device 150 and the virtual camera operation terminal 160 via a network (not shown) or the like. The image, voice, and text data and instruction information regarding the virtual camera path instructed by the user when generating the virtual viewpoint image are transmitted and received between the image generation device 150 and the virtual camera operation terminal 160.

仮想カメラ操作端末160において、端末通信部231は、上述のように、装置通信部225との間で種々の情報を送受信する。画像表示部232は、上述の表示画像生成部224において生成され、端末通信部231を介して受信された画像を画面表示する。仮想カメラパス指示部233は、ユーザから仮想カメラパスに対する指示を受け付け、その指示を示す情報を、端末通信部231を用いて画像生成装置150へ送信する。なお、画像生成装置150は、装置通信部225を用いてこの情報を受信し、仮想カメラパス算出部222に受信した情報を渡す。なお、ユーザは、視聴したい全時間に対して、仮想カメラパラメータのすべてを厳密に指示しなくてもよい。例えば、ユーザは、「特定の被写体(選手や演者等)に注目した仮想視点画像を視聴したい」、「ボールの周囲のある一定の範囲を視聴したい」、「より注目すべきイベントが発生している箇所を視聴したい」等、種々の観点に基づく指示を入力してもよい。ユーザ情報発信部234は、端末通信部231から装置通信部225に向けて送信される情報に対して、ユーザID等のユーザ情報を添付する。 In the virtual camera operation terminal 160, the terminal communication unit 231 transmits and receives various information to and from the device communication unit 225 as described above. The image display unit 232 displays an image generated by the display image generation unit 224 described above and received via the terminal communication unit 231 on the screen. The virtual camera path instruction unit 233 receives an instruction for the virtual camera path from the user, and transmits information indicating the instruction to the image generation device 150 using the terminal communication unit 231. The image generation device 150 receives this information using the device communication unit 225, and passes the received information to the virtual camera path calculation unit 222. The user does not have to strictly specify all the virtual camera parameters for the entire time that he / she wants to watch. For example, the user "wants to watch a virtual viewpoint image focusing on a specific subject (player, performer, etc.)", "wants to watch a certain area around the ball", and "a more remarkable event occurs. You may enter instructions based on various viewpoints such as "I want to watch the place where I am". The user information transmission unit 234 attaches user information such as a user ID to the information transmitted from the terminal communication unit 231 to the device communication unit 225.

制御ステーション170は、デイジーチェーン121a〜121y、ネットワーク122a〜122b及び123〜124を通じて、画像処理システム100を構成するそれぞれのブロックの動作状態の管理及びパラメータ設定制御等を行う。 The control station 170 manages the operating state of each block constituting the image processing system 100 and controls parameter setting through the daisy chains 121a to 121y, the networks 122a to 122b, and 123 to 124.

続いて、図3を用いて、カメラアダプタ116の機能構成について説明する。カメラアダプタ116は、ネットワークアダプタ300と、伝送部310と、画像処理部320と、外部機器制御部330とを含む。ここで、ネットワークアダプタ300は、データ送受信部301と無線通信部302とを含み、伝送部310は、画像・音声伝送処理部311とデータ圧縮・伸張部312とを含む。また、画像処理部320は、前景背景分離部321と、三次元モデル情報生成部322と、キャリブレーション制御部323とを含む。また、外部機器制御部330は、マイク制御部331と、カメラ制御部332と、雲台制御部333と、センサ制御部334とを含む。なお、外部機器制御部330は、外部機器接続状態検出部335をさらに含む。 Subsequently, the functional configuration of the camera adapter 116 will be described with reference to FIG. The camera adapter 116 includes a network adapter 300, a transmission unit 310, an image processing unit 320, and an external device control unit 330. Here, the network adapter 300 includes a data transmission / reception unit 301 and a wireless communication unit 302, and the transmission unit 310 includes an image / audio transmission processing unit 311 and a data compression / decompression unit 312. Further, the image processing unit 320 includes a foreground background separation unit 321, a three-dimensional model information generation unit 322, and a calibration control unit 323. Further, the external device control unit 330 includes a microphone control unit 331, a camera control unit 332, a pan head control unit 333, and a sensor control unit 334. The external device control unit 330 further includes an external device connection state detection unit 335.

ネットワークアダプタ300は、他の装置との通信を行うための各種機能を有する。データ送受信部301は、デイジーチェーン121、ネットワーク123及びネットワーク124を介して、他のカメラアダプタ116、フロントエンドサーバ142、タイムサーバ141、及び制御ステーション170と、データ通信を行う。例えば、データ送受信部301は、カメラ112による撮影画像が後述の前景背景分離部321により分離されて得られる前景画像と背景画像とを、別のカメラアダプタ116に対して出力する。出力先のカメラアダプタ116は、画像処理システム100のカメラアダプタ116のうち、デイジーチェーン121において隣接する下流側のカメラアダプタ116である。多数のカメラアダプタ116が、前景画像及び背景画像を出力することで、複数の視点から撮影された前景画像と背景画像とがフロントエンドサーバ142に伝送され、画像生成装置150によって仮想視点画像が生成される。なお、撮影画像から分離した前景画像を出力して背景画像は出力しないカメラアダプタ116が存在してもよい。 The network adapter 300 has various functions for communicating with other devices. The data transmission / reception unit 301 performs data communication with another camera adapter 116, a front-end server 142, a time server 141, and a control station 170 via the daisy chain 121, the network 123, and the network 124. For example, the data transmission / reception unit 301 outputs the foreground image and the background image obtained by separating the image captured by the camera 112 by the foreground background separation unit 321 described later to another camera adapter 116. The output destination camera adapter 116 is a camera adapter 116 on the downstream side adjacent to the daisy chain 121 among the camera adapters 116 of the image processing system 100. By outputting the foreground image and the background image by a large number of camera adapters 116, the foreground image and the background image taken from a plurality of viewpoints are transmitted to the front-end server 142, and the virtual viewpoint image is generated by the image generator 150. Will be done. There may be a camera adapter 116 that outputs a foreground image separated from the captured image and does not output a background image.

無線通信部302は、カメラ運用端末130との通信を行う。無線通信部302を介して通信するデータは、後述の外部機器接続状態検出部335が処理するデータであり、カメラ運用端末130で動作する運用システムアプリケーションで処理を実行するためのデータである。 The wireless communication unit 302 communicates with the camera operation terminal 130. The data communicated via the wireless communication unit 302 is the data processed by the external device connection state detection unit 335, which will be described later, and is the data for executing the processing in the operation system application operated by the camera operation terminal 130.

伝送部310は、ネットワークアダプタ300を介して送受信されるデータについて信号処理を実行する。画像・音声伝送処理部311は、画像データ又は音声データを、データ送受信部301を介して他のカメラアダプタ116またはフロントエンドサーバ142へ転送するためのメッセージを作成する。メッセージには、画像データ又は音声データ、及び各データのメタ情報が含まれる。なお、本実施形態のメタ情報は、画像の撮影または音声のサンプリング時のタイムコードまたはシーケンス番号、データ種別、及び、マイク111やカメラ112の個体を示す識別子などを含む。また、送信される画像データまたは音声データは、データ圧縮・伸張部312でデータ圧縮されていてもよい。また、画像・音声伝送処理部311は、他のカメラアダプタ116から、データ送受信部301を介してメッセージを受け取る。そして、画像・音声伝送処理部311は、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズに分割されたデータから、画像データまたは音声データを復元する。なお、データを復元した際に、そのデータが圧縮されている場合は、データ圧縮・伸張部312が伸張処理を行う。データ圧縮・伸張部312は、データ送受信部301を介して送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行い、また、圧縮されたデータを伸張する。 The transmission unit 310 executes signal processing on data transmitted and received via the network adapter 300. The image / audio transmission processing unit 311 creates a message for transferring the image data or the audio data to another camera adapter 116 or the front-end server 142 via the data transmission / reception unit 301. The message includes image data or audio data, and meta information of each data. The meta information of the present embodiment includes a time code or sequence number at the time of image shooting or sound sampling, a data type, and an identifier indicating an individual microphone 111 or camera 112. Further, the transmitted image data or audio data may be data-compressed by the data compression / decompression unit 312. Further, the image / audio transmission processing unit 311 receives a message from another camera adapter 116 via the data transmission / reception unit 301. Then, the image / audio transmission processing unit 311 restores the image data or the audio data from the data divided into the packet sizes specified by the transmission protocol according to the data type included in the message. If the data is compressed when the data is restored, the data compression / decompression unit 312 performs the decompression process. The data compression / decompression unit 312 compresses the data transmitted / received via the data transmission / reception unit 301 by applying a predetermined compression method, compression rate, and frame rate, and decompresses the compressed data.

画像処理部320は、カメラ制御部332の制御の下でカメラ112によって撮影された画像データと、他のカメラアダプタ116から受信した画像データとに対して、画像処理を行う。前景背景分離部321は、カメラ112によって撮影された画像データを、前景画像と背景画像とに分離する。すなわち、複数のカメラアダプタ116のそれぞれにおける前景背景分離部321は、複数のカメラ112のうち、対応するカメラ112によって撮影された撮影画像から前景領域を抽出する。前景背景分離部321は、撮影画像から抽出した前景領域内の画像を前景画像とすると共に、その前景領域外の領域の画像(すなわち、前景画像ではない領域の画像)を背景画像として、前景画像及び背景画像を出力する。三次元モデル情報生成部322は、前景背景分離部321で分離された前景画像と、他のカメラアダプタ116から受取った前景画像とを用いて、例えば、ステレオカメラの原理を用いて三次元モデルに関する画像情報を生成する。キャリブレーション制御部323は、入力された画像に対して、カメラごとの色のばらつきを抑えるための色補正処理や、カメラの振動に起因するブレに対して画像の位置合わせ及び画像の切り出し処理などを行う。 The image processing unit 320 performs image processing on the image data taken by the camera 112 under the control of the camera control unit 332 and the image data received from the other camera adapter 116. The foreground background separation unit 321 separates the image data taken by the camera 112 into a foreground image and a background image. That is, the foreground background separation unit 321 in each of the plurality of camera adapters 116 extracts the foreground region from the captured image captured by the corresponding camera 112 among the plurality of cameras 112. The foreground background separation unit 321 uses the image in the foreground region extracted from the captured image as the foreground image, and the image in the region outside the foreground region (that is, the image in the region other than the foreground image) as the background image. And output the background image. The three-dimensional model information generation unit 322 relates to a three-dimensional model using, for example, the principle of a stereo camera by using the foreground image separated by the foreground background separation unit 321 and the foreground image received from another camera adapter 116. Generate image information. The calibration control unit 323 performs color correction processing for suppressing color variation for each camera on the input image, image alignment processing for blurring caused by camera vibration, image cropping processing, and the like. I do.

外部機器制御部330は、カメラアダプタ116に接続する機器を制御する機能を有する。カメラ制御部332は、カメラアダプタ116が含まれるセンサシステム内のカメラ112と接続され、そのカメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う。カメラ112の制御は、例えば、撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランス等)の設定と参照、カメラ112の状態(撮影中、停止中、同期中、及びエラー等)を示す情報の取得、撮影の開始及び停止、及びピント調整等を含む。マイク制御部331、雲台制御部333、及びセンサ制御部334は、それぞれ、カメラアダプタ116が含まれるセンサシステム内のマイク111、雲台113、外部センサ114に接続され、その接続された機器を制御する。また、マイク制御部331、雲台制御部333、及びセンサ制御部334は、接続された機器が正常に動作しているか等の状態を示す情報を、各機器から読み出す処理を行う。外部機器接続状態検出部335は、カメラアダプタ116に接続する機器の接続状態および各機器が正常に動作しているかなどのセルフチェック結果を読み出す機能を有する。外部機器接続状態検出部335は、マイク制御部331、カメラ制御部332、雲台制御部333、及びセンサ制御部334と通信し、各機能部から取得した外部機器の接続状態およびセルフチェック結果を、外部機器接続状態検出部335内のメモリに記憶する。なお、外部機器接続状態検出部335は、外部機器に電源が供給されていない場合は、ケーブルの接続状態のみを検出する。ケーブルの接続は、カメラアダプタ116のケーブル端子の1つをHIGHポートに設定しておき、ケーブルが接続されたときにLOWになるようにすることにより、ハードウェアレベルで検出することができる。 The external device control unit 330 has a function of controlling a device connected to the camera adapter 116. The camera control unit 332 is connected to the camera 112 in the sensor system including the camera adapter 116, and controls the camera 112, acquires a captured image, provides a synchronization signal, sets the time, and the like. The control of the camera 112 indicates, for example, the setting and reference of shooting parameters (number of pixels, color depth, frame rate, white balance, etc.), and the state of the camera 112 (shooting, stopped, synchronizing, error, etc.). Includes acquisition of information, start and stop of shooting, focus adjustment, etc. The microphone control unit 331, the pan head control unit 333, and the sensor control unit 334 are connected to the microphone 111, the pan head 113, and the external sensor 114 in the sensor system including the camera adapter 116, respectively, and connect the connected devices. Control. Further, the microphone control unit 331, the pan head control unit 333, and the sensor control unit 334 perform a process of reading information indicating a state such as whether or not the connected device is operating normally from each device. The external device connection state detection unit 335 has a function of reading a self-check result such as the connection state of the device connected to the camera adapter 116 and whether each device is operating normally. The external device connection status detection unit 335 communicates with the microphone control unit 331, the camera control unit 332, the pan head control unit 333, and the sensor control unit 334, and obtains the connection status and self-check result of the external device acquired from each functional unit. , Stored in the memory in the external device connection state detection unit 335. The external device connection state detection unit 335 detects only the cable connection state when power is not supplied to the external device. The cable connection can be detected at the hardware level by setting one of the cable terminals of the camera adapter 116 to the HIGH port so that it becomes LOW when the cable is connected.

(ハードウェア構成)
次に、カメラ運用端末130のハードウェア構成について、図11を用いて説明する。なお、カメラアダプタ116、タイムサーバ141、フロントエンドサーバ142、画像生成装置150、仮想カメラ操作端末160、及び制御ステーション170のハードウェア構成も、カメラ運用端末130の構成と同様である。
(Hardware configuration)
Next, the hardware configuration of the camera operation terminal 130 will be described with reference to FIG. The hardware configurations of the camera adapter 116, the time server 141, the front-end server 142, the image generator 150, the virtual camera operation terminal 160, and the control station 170 are the same as those of the camera operation terminal 130.

カメラ運用端末130は、CPU1101、ROM1102、RAM1103、補助記憶装置1104、表示部1105、操作部1106、通信I/F1107、及びバス1108を有する。 The camera operation terminal 130 includes a CPU 1101, a ROM 1102, a RAM 1103, an auxiliary storage device 1104, a display unit 1105, an operation unit 1106, a communication I / F 1107, and a bus 1108.

CPU1101は、ROM1102やRAM1103に格納されているコンピュータプログラムやデータを用いてカメラ運用端末130の全体を制御することで、図1に示すカメラ運用端末130の各機能を実現する。なお、カメラ運用端末130がCPU1101とは異なる1又は複数の専用のハードウェアを有し、CPU1101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1102は、変更を必要としないプログラムなどを格納する。RAM1103は、補助記憶装置1104から供給されるプログラムやデータ、及び通信I/F1107を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1104は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 1101 realizes each function of the camera operation terminal 130 shown in FIG. 1 by controlling the entire camera operation terminal 130 by using computer programs and data stored in the ROM 1102 and the RAM 1103. The camera operation terminal 130 may have one or more dedicated hardware different from the CPU 1101, and the dedicated hardware may execute at least a part of the processing by the CPU 1101. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors). The ROM 1102 stores programs and the like that do not need to be changed. The RAM 1103 temporarily stores programs and data supplied from the auxiliary storage device 1104, data supplied from the outside via the communication I / F 1107, and the like. The auxiliary storage device 1104 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.

表示部1105は、例えば液晶ディスプレイやLED等で構成され、ユーザがカメラ運用端末130を操作するためのGUI(Graphical User Interface)などを表示する。操作部1106は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1101に入力する。CPU1101は、表示部1105を制御する表示制御部、及び操作部1106を制御する操作制御部として動作する。なお、本実施形態では表示部1105と操作部1106がカメラ運用端末130の内部に存在するものとするが、表示部1105と操作部1106との少なくとも一方がカメラ運用端末130の外部に別の装置として存在していてもよい。 The display unit 1105 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to operate the camera operation terminal 130. The operation unit 1106 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, or the like, and inputs various instructions to the CPU 1101 in response to an operation by the user. The CPU 1101 operates as a display control unit that controls the display unit 1105 and an operation control unit that controls the operation unit 1106. In the present embodiment, it is assumed that the display unit 1105 and the operation unit 1106 exist inside the camera operation terminal 130, but at least one of the display unit 1105 and the operation unit 1106 is another device outside the camera operation terminal 130. It may exist as.

通信I/F1107は、カメラ運用端末130の外部の装置との通信に用いられる。例えば、カメラ運用端末130が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1107に接続される。カメラ運用端末130が外部の装置と無線通信する機能を有する場合には、通信I/F1107はアンテナを備える。バス1108は、カメラ運用端末130の各部をつないで情報を伝達する。 The communication I / F 1107 is used for communication with an external device of the camera operation terminal 130. For example, when the camera operation terminal 130 is connected to an external device by wire, a communication cable is connected to the communication I / F 1107. When the camera operation terminal 130 has a function of wirelessly communicating with an external device, the communication I / F 1107 includes an antenna. The bus 1108 connects each part of the camera operation terminal 130 to transmit information.

(ワークフロー)
続いて、スタジアムや競技場、コンサートホールなどの施設に複数のカメラ112やマイク111を設置して撮影を行う際に実行されるワークフローについて説明する。図4は、ワークフローの全体像を概略的に示している。なお、以下で説明する処理は、特段の説明がない限り、カメラ運用端末130の制御により実現される。なお、カメラ運用端末130によって実行される処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。
(Workflow)
Next, a workflow executed when a plurality of cameras 112 and microphones 111 are installed in facilities such as a stadium, a stadium, and a concert hall to perform shooting will be described. FIG. 4 schematically shows the overall picture of the workflow. The processing described below is realized by controlling the camera operation terminal 130 unless otherwise specified. The process executed by the camera operation terminal 130 is realized, for example, by the CPU 1101 of the camera operation terminal 130 executing a program stored in the ROM 1102 or the RAM 1103.

本ワークフローでは、まず、一連の処理の前に、画像処理システム100の設置や操作を行う操作者(ユーザ)が、設置前に必要な情報(事前情報)の収集や計画の立案等の設置前処理を行う。カメラ運用端末130は、この設置前処理により、事前情報に基づいてどのようにシステムの設置・撤収を行うか等の計画立案を行ったユーザから、その計画に応じた設定を受け付ける(S401)。 In this workflow, first, before a series of processes, an operator (user) who installs or operates the image processing system 100 collects necessary information (preliminary information) before installation and before installation such as planning. Perform processing. The camera operation terminal 130 receives a setting according to the plan from a user who has made a plan such as how to install / withdraw the system based on the prior information by this pre-installation process (S401).

なお、ここでの事前情報とは、例えば、施設情報、機器情報、運用情報を含む。施設情報は、例えば、撮像場所がスタジアムの場合、スタジアム情報であり、スタジアムの形状、音響、照明、電源、伝送環境、及びスタジアムの三次元モデルデータなどの情報を含む。機器情報は、例えば、カメラ、雲台、レンズ、及びマイク等の撮影機材、LAN、PC、サーバ、及びケーブル等の情報機器に関する情報を含む。なお、必ずしもこれらすべての情報が入力されなければならないわけではない。カメラ運用端末130は、機器情報が入力された撮影機材のうち、カメラ、雲台、及びマイクの配置情報に関する入力を受け付ける。配置情報は、上述のスタジアムの三次元モデルデータを利用して入力することができる。運用情報は、カメラ取付形態(高所作業など)、作業種別(作業段階)、作業時間、作業者人数、作業者スキルレベルなどの情報を含む。なお、運用情報は、撮影対象、撮影時間、カメラワーク、及び目標位置(カメラの光軸を向ける方向、注視点とも呼ぶ)などの情報を含んでもよい。例えば、撮影対象が陸上競技であるか、フィールド全面を使うサッカーであるかなどの競技種別に応じて、目標位置の変更と、カメラワークの制約条件の変更とが行われる。カメラ運用端末130は、これらの運用情報の組み合わせで構成される設定情報のテーブルを管理し、変更し、また、各種指示等の処理に用いる。 The prior information here includes, for example, facility information, device information, and operation information. The facility information is, for example, stadium information when the imaging location is a stadium, and includes information such as the shape of the stadium, sound, lighting, power supply, transmission environment, and three-dimensional model data of the stadium. The device information includes, for example, information on photographing equipment such as a camera, a pan head, a lens, and a microphone, and information devices such as a LAN, a PC, a server, and a cable. It should be noted that not all of this information must be entered. The camera operation terminal 130 receives input regarding the arrangement information of the camera, the pan head, and the microphone among the photographing equipment in which the device information is input. The placement information can be input using the above-mentioned three-dimensional model data of the stadium. The operation information includes information such as camera mounting form (work at height, etc.), work type (work stage), work time, number of workers, worker skill level, and the like. The operation information may include information such as a shooting target, a shooting time, camera work, and a target position (direction in which the optical axis of the camera is directed, also referred to as a gazing point). For example, the target position is changed and the constraint conditions of camera work are changed according to the type of competition such as whether the subject to be photographed is athletics or soccer that uses the entire field. The camera operation terminal 130 manages and changes a table of setting information composed of a combination of these operation information, and is used for processing various instructions and the like.

続いて、ユーザは対象となる施設に機材を設置する。そして、画像処理システム100の各装置は、ユーザからの操作に基づいてカメラ運用端末130から発行されたコマンドに従って、システムの動作確認のための処理を実行する(S402)。なお、機材の設置中はシステムが動作しないため、カメラ運用端末130とカメラアダプタ116とが逐次通信を行うことによって、設置時の運用管理を行う。機材の設置が完了した後に、設置されたカメラ112の調整が実行される。カメラ112の調整は、画角合わせと色合わせを含む。この調整は、設置されたカメラ112の全てについて実行される。なお、調整は、ユーザ操作に基づいて行われるようにしてもよいし、自動調整機能により実現されてもよい。また、画角合わせでは、ズーム、パン、チルト、及びフォーカスの調整が並行して同時に実行され、カメラ運用端末130は、それらの調整結果を取得して保存する。この処理については、後述する。 Subsequently, the user installs the equipment at the target facility. Then, each device of the image processing system 100 executes a process for confirming the operation of the system according to a command issued from the camera operation terminal 130 based on an operation from the user (S402). Since the system does not operate during the installation of the equipment, the operation management at the time of installation is performed by sequentially communicating with the camera operation terminal 130 and the camera adapter 116. After the installation of the equipment is completed, the adjustment of the installed camera 112 is executed. Adjustment of the camera 112 includes angle of view matching and color matching. This adjustment is performed for all of the installed cameras 112. The adjustment may be performed based on the user operation, or may be realized by the automatic adjustment function. Further, in the angle of view adjustment, zoom, pan, tilt, and focus adjustments are executed at the same time in parallel, and the camera operation terminal 130 acquires and saves the adjustment results. This process will be described later.

そして、ユーザは、競技等の前に、マイク111により集音された音声やカメラ112により撮影された画像の確認と、その確認結果に応じた調整等を含みうる撮影前処理を実行する(S403)。その後、カメラ運用端末130は、マイク111に集音を行わせ、カメラ112に撮影を実行させる(S404)。なお、S404での撮影はマイク111を用いた集音を含むものとするが、これに限られず、画像の撮影だけが行われてもよい。S404の処理は、S402での設定を変更するまで、または撮影を終了するまで継続的に実行される。S402での設定を変更する場合または撮影を終了する場合に、処理がS405に進められる。 Then, before the competition or the like, the user executes pre-shooting processing that may include confirmation of the sound collected by the microphone 111 and the image captured by the camera 112, and adjustment according to the confirmation result (S403). ). After that, the camera operation terminal 130 causes the microphone 111 to collect sound and causes the camera 112 to perform shooting (S404). Note that the shooting in S404 includes sound collection using the microphone 111, but the present invention is not limited to this, and only the shooting of an image may be performed. The process of S404 is continuously executed until the setting in S402 is changed or the shooting is finished. When the setting in S402 is changed or the shooting is finished, the process proceeds to S405.

カメラ運用端末130は、S405において、S402での設定を変更して撮影を継続するユーザ操作が行われた場合(S405でYES)には処理をS406へ進め、撮影を完了するユーザ操作が行われた場合(S405でNO)には処理をS407へ進める。なお、この判定はユーザ操作に基づいて行われなくてもよく、カメラ運用端末130は、自律的に設定変更が必要であるか否かを判定してもよい。 In S405, when the camera operation terminal 130 changes the setting in S402 and performs a user operation to continue shooting (YES in S405), the process proceeds to S406 and the user operation to complete the shooting is performed. If (NO in S405), the process proceeds to S407. It should be noted that this determination may not be performed based on the user operation, and the camera operation terminal 130 may autonomously determine whether or not the setting needs to be changed.

S406では、カメラ運用端末130は、S402で行われた設定を、新しい設定へと変更する。変更内容は、例えば、S405において取得されたユーザ操作に基づいて決定される。S406における設定の変更において撮影停止の必要がある場合は、一度撮影が停止され、設定が変更された後に撮影が再開される。また、撮影停止の必要がない場合は、撮影を継続しながら設定の変更が実行される。 In S406, the camera operation terminal 130 changes the setting made in S402 to a new setting. The content of the change is determined based on, for example, the user operation acquired in S405. If it is necessary to stop shooting when changing the setting in S406, shooting is stopped once, and shooting is resumed after the setting is changed. If it is not necessary to stop shooting, the setting is changed while shooting is continued.

S407では、カメラ運用端末130は、複数のカメラ112により撮影された画像及び複数のマイク111により集音された音声の編集の指示を発行する。なお、S407の処理は、S404の処理と並行して実行されてもよい。例えば、スポーツ競技やコンサートなどをリアルタイムに配信する(例えば競技中に競技の画像が配信される)等の場合は、S404の撮影が終わるのを待たずに、並行して撮影で得られたデータに対するS407の編集が実行される。一方、スポーツ競技におけるハイライト画像を競技後に配信する等の場合は、S405において撮影を終了した後に編集が実行される。 In S407, the camera operation terminal 130 issues an instruction for editing the image taken by the plurality of cameras 112 and the sound collected by the plurality of microphones 111. The process of S407 may be executed in parallel with the process of S404. For example, in the case of delivering sports competitions, concerts, etc. in real time (for example, images of competitions are delivered during competitions), data obtained by shooting in parallel without waiting for the shooting of S404 to finish. Editing of S407 is executed. On the other hand, in the case of distributing a highlight image in a sports competition after the competition, editing is executed after the shooting is completed in S405.

撮影及び編集が終了した後は、機材の撤収の処理が行われる(S408)。撤収処理は、例えば、S402で設置された機材の取外し作業等により、施設を設置前の状態に戻すことである。なお、上述の処理は、カメラ運用端末130において実行するとしたが、設置が完了して、システムの通常運用が可能となっている状態においては、制御ステーション170が処理を実行してもよい。すなわち、S403の撮影前処理以降の処理は、制御ステーション170によって実行されてもよい。(カメラの姿勢調整)
ここで、設置時処理(S402)として実行するカメラ112の調整について説明する。この調整は、画角合わせを含むことを先述したが、画角合わせでは、ズーム、パン、チルトの調整が、カメラ運用端末130の表示内容に基づいて実行される。
After the shooting and editing are completed, the equipment is withdrawn (S408). The withdrawal process is to return the facility to the state before installation, for example, by removing the equipment installed in S402. It is assumed that the above-mentioned processing is executed by the camera operation terminal 130, but the control station 170 may execute the processing in a state where the installation is completed and the normal operation of the system is possible. That is, the processing after the pre-imaging processing of S403 may be executed by the control station 170. (Camera posture adjustment)
Here, the adjustment of the camera 112 executed as the installation processing (S402) will be described. As described above, this adjustment includes the angle of view adjustment, but in the angle of view adjustment, the zoom, pan, and tilt adjustments are executed based on the display contents of the camera operation terminal 130.

図5(A)は、カメラ運用端末130に表示される画面例を示しており、撮像領域であるフィールドと、複数のカメラの設置位置、及び各カメラの目標位置等が俯瞰的に示されている。図5(A)の例では、2つの目標位置A(510)とB(520)が設定され、26台のカメラのうち半数ずつがそれぞれの目標位置に光軸を向けるよう設定されることを示している。具体的には、Aグループのカメラが目標位置A(510)を向くように設置され、Bグループのカメラが目標位置B(520)を向くように設置されることを示している。また、調整すべきカメラと調整済みのカメラとが識別可能に表示されており、図5(A)の例ではカメラ530とカメラ550が調整すべきカメラであることが示されている。このような画面を、設置作業を担当するスタッフが有する別のカメラ運用端末130と共有することにより、スタッフは、設置すべきカメラを視覚的に認識することができ、誤りなく設置作業を行うことができる。また、このような画面を制御ステーション170と共有することにより、制御ステーション170を操作する管理者との意思疎通を図るとともに、適切な作業指示を受けることが可能となる。 FIG. 5A shows an example of a screen displayed on the camera operation terminal 130, and shows a field that is an imaging area, installation positions of a plurality of cameras, target positions of each camera, and the like from a bird's-eye view. There is. In the example of FIG. 5A, two target positions A (510) and B (520) are set, and half of the 26 cameras are set to direct the optical axis to each target position. It shows. Specifically, it is shown that the cameras of the A group are installed so as to face the target position A (510), and the cameras of the B group are installed so as to face the target position B (520). Further, the camera to be adjusted and the adjusted camera are displayed so as to be distinguishable, and in the example of FIG. 5A, it is shown that the camera 530 and the camera 550 are the cameras to be adjusted. By sharing such a screen with another camera operation terminal 130 owned by the staff in charge of the installation work, the staff can visually recognize the camera to be installed and perform the installation work without error. Can be done. Further, by sharing such a screen with the control station 170, it is possible to communicate with the administrator who operates the control station 170 and receive appropriate work instructions.

なお、カメラ運用端末130は、カメラアダプタ116の無線通信部302を介してカメラ530と通信し、設置済のカメラの情報を収集して表示する。本システムでは、デイジーチェーンによってセンサシステム110が接続されているため、カメラ運用端末130は、いずれかのセンサシステム110のカメラアダプタ116から、他のセンサシステムにおける情報を取得することができる。複数のカメラ運用端末130が使用される場合は、これらの複数のカメラ運用端末130の間で収集されるデータや表示されるデータが共有される。例えば、カメラ530と通信するカメラ運用端末130は、カメラ540を介してカメラ550の情報を収集可能であり、同様に、カメラ550と通信するカメラ運用端末130は、カメラ530の情報を収集可能である。また、カメラ運用端末130は、いずれも、カメラ540やカメラ560の情報を収集することができる。なお、データ入力および各種判断は、特定のユーザに操作権限を設定することによって制御されるようにしてもよい。また、情報の共有は、外部のネットワーク(例えば、システムを構築する設備内に設けた一時的なローカルエリアネットワーク)を介して行われてもよい。これによれば、センサシステム110間の接続が途切れている場合であっても、システム全体の機材の設置状況を収集することが可能となる。 The camera operation terminal 130 communicates with the camera 530 via the wireless communication unit 302 of the camera adapter 116, and collects and displays information on the installed camera. In this system, since the sensor system 110 is connected by a daisy chain, the camera operation terminal 130 can acquire information in another sensor system from the camera adapter 116 of any of the sensor systems 110. When a plurality of camera operation terminals 130 are used, the collected data and the displayed data are shared among the plurality of camera operation terminals 130. For example, the camera operation terminal 130 that communicates with the camera 530 can collect the information of the camera 550 via the camera 540, and similarly, the camera operation terminal 130 that communicates with the camera 550 can collect the information of the camera 530. is there. In addition, the camera operation terminal 130 can collect information on the camera 540 and the camera 560. Note that data input and various judgments may be controlled by setting operation authority for a specific user. Further, information sharing may be performed via an external network (for example, a temporary local area network provided in the facility for constructing the system). According to this, even when the connection between the sensor systems 110 is interrupted, it is possible to collect the installation status of the equipment of the entire system.

図5(B)は、カメラの姿勢調整を説明するための図である。機材の設置作業において、カメラの設置は、施設の所定の位置に取り付けられる。当該設置位置は、世界座標値であって、X軸、Y軸、Z軸で定義された空間に、予め用意されたスタジアムの三次元モデルデータに基づいて設定される。カメラの設置済状態とは、水平方向X軸、鉛直方向Y軸、光軸方向Z軸の座標値が定まった状態である。また、姿勢調整は、この水平方向X軸、鉛直方向Y軸、光軸方向Z軸の座標値で定まった位置に対して、各軸の回転方向のXθ、Yθ、Zθについて調整を行う。本実施形態においては、雲台113が上記回転方向の3軸で調整可能な構成になっている。なお、設定された画角に調整するには、カメラの焦点距離も合わせて調整する作業が必要である。 FIG. 5B is a diagram for explaining posture adjustment of the camera. In the equipment installation work, the camera installation is installed in place in the facility. The installation position is a world coordinate value and is set in a space defined by the X-axis, the Y-axis, and the Z-axis based on the three-dimensional model data of the stadium prepared in advance. The installed state of the camera is a state in which the coordinate values of the horizontal X-axis, the vertical Y-axis, and the optical-axis Z-axis are fixed. Further, the posture adjustment adjusts Xθ, Yθ, and Zθ in the rotation directions of the respective axes with respect to the positions determined by the coordinate values of the horizontal X-axis, the vertical Y-axis, and the optical-axis Z-axis. In the present embodiment, the pan head 113 is configured to be adjustable on the three axes in the rotation direction. In order to adjust to the set angle of view, it is necessary to adjust the focal length of the camera as well.

図6は、カメラ運用端末130に表示される各カメラの状態を示す図である。横軸には、カメラごとの接続・設置状態に関するタスク名が表示されており、縦軸には、カメラごとのデータが表示されている。カメラごとの接続状態について、例えば、カメラID(カメラ識別情報)の横のSTATUS欄の情報によって、カメラ112とカメラアダプタ116との間のケーブルの接続状態が表示される。また、レンズIDの横のSTATUS欄の情報によって、例えばレンズを制御するためのケーブルがカメラアダプタ116に接続されているか否かが示される。なお、レンズIDの横のSTATUS欄の情報は、例えば外部センサ114によってレンズが適切に設定されているか否かを監視する準備ができているか否かを示してもよい。この場合、レンズIDの横のSTATUS欄の情報は、例えばレンズの監視用の外部センサ114がカメラアダプタ116に接続されているか否かを示す情報であってもよい。また、他のセンサシステム110との通信用のケーブルの接続状態や、その他の外部機器との接続状態を示す情報を、図6のようなテーブルの形式で管理されるようにしてもよい。なお、設置状態に関する表示は、ケーブル接続のみではなく、接続されている機器のセルフチェック結果、または、カメラ112やカメラアダプタ116を施設へ取り付けるための取付金具等への取付状態を含む。 FIG. 6 is a diagram showing a state of each camera displayed on the camera operation terminal 130. The horizontal axis shows the task name related to the connection / installation status of each camera, and the vertical axis shows the data for each camera. Regarding the connection status for each camera, for example, the connection status of the cable between the camera 112 and the camera adapter 116 is displayed by the information in the STATUS column next to the camera ID (camera identification information). In addition, the information in the STATUS column next to the lens ID indicates whether, for example, a cable for controlling the lens is connected to the camera adapter 116. The information in the STATUS column next to the lens ID may indicate, for example, whether or not the external sensor 114 is ready to monitor whether or not the lens is properly set. In this case, the information in the STATUS column next to the lens ID may be, for example, information indicating whether or not the external sensor 114 for monitoring the lens is connected to the camera adapter 116. In addition, information indicating the connection status of the cable for communication with the other sensor system 110 and the connection status with other external devices may be managed in the form of a table as shown in FIG. The display regarding the installation state includes not only the cable connection but also the self-check result of the connected device or the mounting state on the mounting bracket for mounting the camera 112 or the camera adapter 116 to the facility.

また、設置STATUS欄602は、所定の位置へのカメラ112の設置が完了済みか否かを示し、姿勢調整STATUS欄603は、姿勢調整が完了済みか否かを示す。カメラが撮影を実行可能な状態となると、そのカメラに対応する行の全情報が「OK」となる。なお、少なくとも一部のセンサシステム110において、使用されない外部機器については、その状態を示す欄が用意されなくてもよいし、その状態を示す欄に「−」などの記号が記述されてもよい。例えば、図6の例では、カメラIDがCam03のカメラは、ケーブル等の接続や予め指定された位置への設置は完了しているが、姿勢調整は未完了であることを示している。 Further, the installation STATUS column 602 indicates whether or not the installation of the camera 112 at a predetermined position has been completed, and the attitude adjustment STATUS column 603 indicates whether or not the attitude adjustment has been completed. When the camera is ready for shooting, all the information in the line corresponding to the camera is "OK". For external devices that are not used in at least some sensor systems 110, a column indicating the state may not be prepared, and a symbol such as "-" may be described in the column indicating the state. .. For example, in the example of FIG. 6, the camera with the camera ID of Cam03 shows that the connection of the cable and the like and the installation at the position specified in advance are completed, but the posture adjustment is not completed.

本実施形態においては、カメラ112を設置すべき位置・姿勢において、撮影すべき画像(撮像範囲)を示すシミュレーション画像(推定画像)を用いて、カメラの姿勢調整を実行する。この姿勢調整時に用いる推定画像は、汎用アプリケーションで生成可能である。推定画像生成にあたり、施設の三次元データ(スタジアム三次元モデルデータ)を必要とする。また、推定画像の生成には、カメラのセンサ情報、カメラを設置すべき位置を示す座標、カメラの取るべき姿勢、焦点距離、目標位置の座標情報等のパラメータが必要である。これらのデータを用いて、三次元空間で、スタジアムの所定の位置にカメラを設置したときに撮影されるべき撮像範囲を示す推定画像推定画像が取得できる。より具体的には、スタジアムの三次元モデルデータをレーザスキャンで点群として取得し、これをメッシュデータに変換する。そして、設置するカメラの位置とそのカメラの目標位置の位置関係からカメラの姿勢を決め、焦点距離を設定することで、コンピュータグラフィックスの技術を用いて、そのカメラから撮影されるであろう画像を生成する。なお、スタジアムのCADデータ等からも同様のことを実現できる。 In the present embodiment, the posture of the camera is adjusted by using a simulation image (estimated image) showing an image to be photographed (imaging range) at a position and posture in which the camera 112 should be installed. The estimated image used at the time of this posture adjustment can be generated by a general-purpose application. The facility's 3D data (stadium 3D model data) is required to generate the estimated image. Further, in order to generate an estimated image, parameters such as camera sensor information, coordinates indicating a position where the camera should be installed, a posture to be taken by the camera, a focal length, and coordinate information of a target position are required. Using these data, it is possible to obtain an estimated image estimation image indicating an imaging range to be taken when the camera is installed at a predetermined position in the stadium in a three-dimensional space. More specifically, the three-dimensional model data of the stadium is acquired as a point cloud by laser scanning, and this is converted into mesh data. Then, by determining the posture of the camera from the positional relationship between the position of the installed camera and the target position of the camera and setting the focal length, the image that will be taken from that camera using computer graphics technology. To generate. The same can be achieved from the CAD data of the stadium.

この推定画像を、設置するカメラ112ごとに生成しておき、カメラ運用端末130に、カメラIDと関連付けて画像データを記憶させる。なお、推定画像の記憶場所として、各カメラアダプタ116に記憶してもよく、各機器のメモリ容量やシステム構成に応じて適宜記憶場所を設定可能である。なお、推定画像は、カメラ運用端末130で生成してもよいし、カメラアダプタ116、制御ステーション170等で生成してもよい。また、本システムには含まれない別のPCなどの情報機器を用いて生成してもよい。 This estimated image is generated for each camera 112 to be installed, and the camera operation terminal 130 stores the image data in association with the camera ID. The estimated image may be stored in each camera adapter 116 as a storage location, and the storage location can be appropriately set according to the memory capacity of each device and the system configuration. The estimated image may be generated by the camera operation terminal 130, or may be generated by the camera adapter 116, the control station 170, or the like. Further, it may be generated by using another information device such as a PC which is not included in this system.

図7(A)は、カメラ姿勢調整時に、調整作業の対象となるカメラが撮像しているリアルタイムな画像を、カメラ運用端末130で表示した一例である。また、調整対象となるカメラの推定画像の一例を図7(B)に示す。姿勢調整の作業としては、推定画像(図7(B))に対して、リアルタイム画像(図7(A))を合わせる。すなわち、作業担当者であるユーザは、リアルタイム画像として表示される画像が推定画像と略等しくなるように、雲台113を用いて、パン、チルト、そしてカメラ112の焦点距離(ズーム)を調整する。なお、調整の方法として、スタジアムの特徴点(例えば、観客席の角や、ゴールポストなどの競技固有の構造物)を目標として、合わせると作業がしやすい。また、推定画像の上に、調整すべき方向を示す矢印やガイド線などのガイド情報を重畳表示し、このガイド情報を用いて姿勢調整するようにしてもよい。 FIG. 7A is an example in which the camera operation terminal 130 displays a real-time image captured by the camera to be adjusted during the camera posture adjustment. Further, FIG. 7B shows an example of the estimated image of the camera to be adjusted. As the posture adjustment work, the real-time image (FIG. 7 (A)) is matched with the estimated image (FIG. 7 (B)). That is, the user who is the worker adjusts the pan, tilt, and focal length (zoom) of the camera 112 by using the pan head 113 so that the image displayed as the real-time image is substantially equal to the estimated image. .. As a method of adjustment, it is easier to work by aiming at the feature points of the stadium (for example, the corners of the spectators' seats and the structures peculiar to the competition such as the goal post). Further, guide information such as an arrow or a guide line indicating a direction to be adjusted may be superimposed and displayed on the estimated image, and the posture may be adjusted using this guide information.

姿勢調整時のカメラ運用端末130の画面としては、例えば、図7(C)に示すように、リアルタイム画像(Rの表示)と推定画像(Sの表示)をオーバーレイ(重畳)させて表示させる。また、調整中に各々の画角が大きく異なる場合には、重畳表示では調整しにくい場合もあるので、図7(D)のようにリアルタイム画像と推定画像とを並べて表示させてもよい。また、図7(C)、(D)の表示をユーザの操作または自動で切り替えられるようにしてもよい。例えば、推定画像とリアルタイム画像とを画像解析することにより一致度(類似度)を判定し、各々の画角が大きく異なるときは図7(D)のように表示し、画角が所定の範囲内に近づくと図7(C)に切り替えるようにしてもよい。重畳表示と隣接表示のどちらの表示レイアウト(表示形態)をデフォルトで使用するかは、機器の設定として固定にしてもよいし、ユーザにより変更可能にしてもよい。 As the screen of the camera operation terminal 130 at the time of posture adjustment, for example, as shown in FIG. 7C, a real-time image (display of R) and an estimated image (display of S) are overlaid (superimposed) and displayed. Further, if the angles of view are significantly different during the adjustment, it may be difficult to adjust in the superimposed display. Therefore, the real-time image and the estimated image may be displayed side by side as shown in FIG. 7 (D). Further, the display of FIGS. 7 (C) and 7 (D) may be switched by a user operation or automatically. For example, the degree of agreement (similarity) is determined by image analysis of the estimated image and the real-time image, and when the angles of view are significantly different, they are displayed as shown in FIG. 7D, and the angles of view are within a predetermined range. You may switch to FIG. 7 (C) when approaching the inside. Which display layout (display form) to use, the superimposed display or the adjacent display, may be fixed as a device setting or may be changed by the user.

続いて、図8を用いて、カメラの姿勢調整時の処理の流れについて説明する。なお、図8の処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。この処理は、例えば、図5(A)に示す画像からユーザから調整作業のカメラを指定することにより開始される。 Subsequently, the flow of processing at the time of adjusting the posture of the camera will be described with reference to FIG. The process of FIG. 8 is realized, for example, by the CPU 1101 of the camera operation terminal 130 executing a program stored in the ROM 1102 or the RAM 1103. This process is started, for example, by designating a camera for adjustment work from the user from the image shown in FIG. 5 (A).

まず、S801では、CPU1101は、調整作業の対象となるカメラIDを読み出す。次に、CPU1101は、読み出したカメラIDに対応する推定画像の読み出しを実行する(S802)。そして、同様にCPU1101は、カメラIDに対応するリアルタイム画像の読み出しを実行する(S803)。 First, in S801, the CPU 1101 reads out the camera ID that is the target of the adjustment work. Next, the CPU 1101 executes reading of the estimated image corresponding to the read camera ID (S802). Similarly, the CPU 1101 executes reading of the real-time image corresponding to the camera ID (S803).

S804では、CPU1101は、推定画像とリアルタイム画像のカメラ運用端末130における表示レイアウトの設定値を読み出す。この設定値は、上述したような推定画像とリアルタイム画像を並べて表示するか重畳して表示するかの設定を含む。 In S804, the CPU 1101 reads out the set values of the display layout of the estimated image and the real-time image in the camera operation terminal 130. This set value includes a setting of displaying the estimated image and the real-time image side by side or superimposing them as described above.

S805では、CPU1101は、読み出した設定値で示される表示レイアウトに従って、推定画像とリアルタイム画像とを同一画面上に表示する。S806では、カメラ運用端末130のユーザからの表示レイアウトの変更指示を受け付けたかどうかが判定される。表示レイアウト変更指示を受け付けた場合(S806でYES)は、S805に戻り、変更後の表示レイアウトに従って推定画像とリアルタイム画像とが表示される。変更指示を受けなかった場合(S806でNO)は、S807に進む。 In S805, the CPU 1101 displays the estimated image and the real-time image on the same screen according to the display layout indicated by the read set value. In S806, it is determined whether or not the instruction for changing the display layout from the user of the camera operation terminal 130 has been accepted. When the display layout change instruction is received (YES in S806), the process returns to S805, and the estimated image and the real-time image are displayed according to the changed display layout. If the change instruction is not received (NO in S806), the process proceeds to S807.

ユーザはカメラ運用端末130に表示されているリアルタイム画像と推定画像を参照しながら、カメラ112の姿勢調整を実行することになる。また、カメラ運用端末130の表示内容や表示レイアウトの切替えを行いながら、設置作業を実行することになる。そして、姿勢調整が完了した場合、カメラ運用端末130において完了した旨の操作を行う。S807では、CPU1101は、姿勢調整が完了した旨のユーザ操作が行われたか否かを判定する。姿勢調整が完了した旨の操作が行われた場合(S807でYES)は、姿勢調整の処理を終了する。また、当該操作が行われると、図6の姿勢調整STATUS欄603に反映される。また、姿勢調整処理が終了すると、図5(A)の画面に表示を切り替えるようにしてもよい。 The user adjusts the posture of the camera 112 while referring to the real-time image and the estimated image displayed on the camera operation terminal 130. Further, the installation work is executed while switching the display contents and the display layout of the camera operation terminal 130. Then, when the posture adjustment is completed, the camera operation terminal 130 performs an operation to that effect. In S807, the CPU 1101 determines whether or not a user operation indicating that the posture adjustment has been completed has been performed. When the operation to the effect that the posture adjustment is completed is performed (YES in S807), the posture adjustment process ends. Further, when the operation is performed, it is reflected in the posture adjustment STATUS column 603 of FIG. Further, when the posture adjustment process is completed, the display may be switched to the screen shown in FIG. 5 (A).

以上のように、本実施形態では、各カメラの設置作業を支援すべく、各カメラの設置すべき位置及び姿勢において撮影されるべき推定画像を予め生成しておく。そして、カメラの姿勢調整を行う際には、あらかじめ生成された推定画像を取得し、設置されたカメラにより撮像中のリアルタイム画像と共に表示する。ユーザは表示された推定画像とリアルタイム画像を見比べながらカメラの姿勢を調整することで、撮像領域にマーカーなどを設置せずとも、カメラの姿勢調整を効率的に行うことができる。 As described above, in the present embodiment, in order to support the installation work of each camera, an estimated image to be taken at the position and posture in which each camera should be installed is generated in advance. Then, when adjusting the posture of the camera, an estimated image generated in advance is acquired and displayed together with the real-time image being captured by the installed camera. By adjusting the posture of the camera while comparing the displayed estimated image with the real-time image, the user can efficiently adjust the posture of the camera without installing a marker or the like in the imaging area.

<第2の実施形態>
第1の実施形態においては、カメラの姿勢調整は、該当するカメラが設置・姿勢調整済の状態を各種パラメータとして与え、生成したシミュレーション画像(推定画像)を用いて、調整作業を実行した。しかしながら、スタジアムなどの施設においては、撮像領域のフィールドが広いため画角によっては、例えば芝生と競技種目のラインしか、撮影されない場合がある。こういった場合に、フィールドのどの位置に画角を合わせてよいか分かりにくい場合があった。本実施形態では、このようなケースにおいても調整作業の作業性を改善するための方法について説明する。
<Second embodiment>
In the first embodiment, the posture adjustment of the camera is performed by giving the state in which the corresponding camera has been installed and adjusted as various parameters and using the generated simulation image (estimated image). However, in facilities such as stadiums, since the field of the imaging area is wide, depending on the angle of view, for example, only the lawn and the line of the competition event may be photographed. In such a case, it was sometimes difficult to know which position in the field the angle of view should be adjusted. In the present embodiment, a method for improving the workability of the adjustment work will be described even in such a case.

図9は、本実施形態の調整作業を説明するための説明図である。調整作業対象のカメラの広角側リアルタイム画像(図9(A))および広角側推定画像(図9(B))、最終的な画角に調整中のリアルタイム画像(図9(C))、調整すべき画角の推定画像(図9(D))の例を示している。 FIG. 9 is an explanatory diagram for explaining the adjustment work of the present embodiment. Wide-angle side real-time image (Fig. 9 (A)) and wide-angle side estimated image (Fig. 9 (B)) of the camera to be adjusted, real-time image being adjusted to the final angle of view (Fig. 9 (C)), adjustment An example of an estimated image of the angle of view to be taken (FIG. 9 (D)) is shown.

本実施形態においては、最初から調整すべき画角の推定画像を表示させてリアルタイム画像を合わせこむのではなく、まずは広角側の推定画像を表示させ、広角側のリアルタイム画像を合わせる作業を実行する。広角側の画像には、例えばスタジアムの構造物(観客席など)が画角に入るように設定すると、推定画像に対してリアルタイム画像を合わせこむ作業(姿勢調整)が実行しやすい。そして、広角側で姿勢が調整できたならば、ユーザは、焦点距離を変更して、調整すべき画角に合わせるようにズームすればよい。なお、この広角側の姿勢調整は、厳密に行う必要はなく、最終的な画角において、正確に姿勢調整を行えばよい。 In the present embodiment, instead of displaying the estimated image of the angle of view to be adjusted from the beginning and matching the real-time image, the estimated image on the wide-angle side is first displayed and the real-time image on the wide-angle side is matched. .. If, for example, a stadium structure (audience seats, etc.) is set to fit in the angle of view of the image on the wide-angle side, it is easy to perform the work of matching the real-time image with the estimated image (posture adjustment). Then, if the posture can be adjusted on the wide-angle side, the user can change the focal length and zoom to match the angle of view to be adjusted. It is not necessary to strictly adjust the posture on the wide-angle side, and the posture may be adjusted accurately at the final angle of view.

また、焦点距離を変更(ズーム)後、調整すべき方向を示す画像(例えば901の矢印)をリアルタイム画像上に重畳させてもよい。また、設定すべき焦点距離を表示し、ユーザが焦点距離を調整するようにしてもよい。さらには、上述の例では、2段階の焦点距離での推定画像の表示の例について説明したが、広角側から調整すべき焦点距離まで、段階的に画角を変更したシミュレーション画像を用意して、表示を切り替えてもよい。すなわち、焦点距離の異なる複数の推定画像の中から、リアルタイム画像と共に表示する画像を選択的に切り替えて表示することができる。 Further, after changing (zooming) the focal length, an image indicating the direction to be adjusted (for example, the arrow 901) may be superimposed on the real-time image. Further, the focal length to be set may be displayed and the user may adjust the focal length. Furthermore, in the above example, an example of displaying an estimated image at two focal lengths has been described, but a simulation image in which the angle of view is changed stepwise from the wide-angle side to the focal length to be adjusted is prepared. , The display may be switched. That is, it is possible to selectively switch and display an image to be displayed together with a real-time image from a plurality of estimated images having different focal lengths.

図10を用いて、本実施形態の機材の設置時の調整処理の流れについて説明する。なお、図10の処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。この処理は、図8の処理と同様に、例えば図5(A)に示す画像からユーザから調整作業のカメラを指定することにより開始される。 The flow of the adjustment process at the time of installing the equipment of the present embodiment will be described with reference to FIG. The process of FIG. 10 is realized, for example, by the CPU 1101 of the camera operation terminal 130 executing a program stored in the ROM 1102 or the RAM 1103. Similar to the process of FIG. 8, this process is started by, for example, designating a camera for adjustment work from the user from the image shown in FIG. 5 (A).

まず、S1001では、調整作業の対象となるカメラIDが読み出される。次に調整作業ステップ1として、当該カメラIDに対応する広角側の推定画像の読み出しが実行される(S1002)。そして、同様に当該カメラIDに対応するリアルタイム画像の読み出しが実行される(S1003)。 First, in S1001, the camera ID that is the target of the adjustment work is read out. Next, as the adjustment work step 1, reading of the estimated image on the wide-angle side corresponding to the camera ID is executed (S1002). Then, similarly, the real-time image corresponding to the camera ID is read out (S1003).

S1004では、読み出された広角側の推定画像と、リアルタイム画像が同一画面上に表示される。ここで、先述したようにユーザはリアルタイム画像を推定画像に対して合わせこむように、カメラ112の姿勢を調整する。S1005では、調整作業ステップ1の姿勢調整が完了したか否かが判定される。当該判定は、ユーザによる完了操作が行われたか否かによって判定される。ステップ1の姿勢調整が完了した旨の操作が行われた場合(S1005でYES)には、処理をS1006に進める。 In S1004, the read estimated image on the wide-angle side and the real-time image are displayed on the same screen. Here, as described above, the user adjusts the posture of the camera 112 so as to match the real-time image with the estimated image. In S1005, it is determined whether or not the posture adjustment in the adjustment work step 1 is completed. The determination is determined by whether or not a completion operation has been performed by the user. When the operation indicating that the posture adjustment in step 1 is completed is performed (YES in S1005), the process proceeds to S1006.

S1006では、CPU1101は、対象となるカメラIDの焦点距離情報を読み出す。この焦点距離情報は、ユーザの操作により変更になった値が、カメラアダプタ116から逐次送信され、カメラ運用端末130で保持されている。CPU1101は、この焦点距離情報を用いて、調整作業用に表示する画像を切り替えるかどうかの判断を行う。この判断は、切り替える焦点距離の値を予め閾値として記憶し、その設定値を超えたかどうかを監視することによって実行される。焦点距離情報が設定値を超えた場合(S1006でYES)は、調整作業ステップ2で、画角調整作業用の画像を切り替える。 In S1006, the CPU 1101 reads out the focal length information of the target camera ID. The value of the focal length information changed by the user's operation is sequentially transmitted from the camera adapter 116 and held by the camera operation terminal 130. The CPU 1101 uses this focal length information to determine whether or not to switch the image to be displayed for the adjustment work. This determination is executed by storing the value of the focal length to be switched as a threshold value in advance and monitoring whether or not the set value is exceeded. When the focal length information exceeds the set value (YES in S1006), the image for the angle of view adjustment work is switched in the adjustment work step 2.

調整作業ステップ2として、CPU1101は、カメラIDに対応する設置すべき画角の推定画像の読み出しを実行する(S1007)。そして、同様にCPU1101は、カメラIDに対応するリアルタイム画像の読み出しを実行する(S1008)。そして、S1009において、CPU1101は、読み出した推定画像とリアルタイム画像とを共に表示する。先述したようにユーザはリアルタイム画像を推定画像に対して合わせこむように、カメラ112の姿勢を調整する。S1010では、CPU1101は、ステップ2の姿勢調整が完了した旨のユーザ操作が行われたか否かを判定する。姿勢調整が完了した旨の操作を受け付けた場合(S1010でYES)は、姿勢調整の処理を終了する。 As the adjustment work step 2, the CPU 1101 reads out the estimated image of the angle of view to be installed corresponding to the camera ID (S1007). Similarly, the CPU 1101 executes reading of the real-time image corresponding to the camera ID (S1008). Then, in S1009, the CPU 1101 displays both the read estimated image and the real-time image. As described above, the user adjusts the posture of the camera 112 so as to match the real-time image with the estimated image. In S1010, the CPU 1101 determines whether or not the user operation to the effect that the posture adjustment in step 2 has been completed has been performed. When the operation indicating that the posture adjustment is completed is accepted (YES in S1010), the posture adjustment process ends.

なお、上記説明では、推定画像とリアルタイム画像の表示レイアウトについての説明は省略したが、第1の実施形態と同様に、重畳表示と隣接表示とを適宜切り替えながら行ってもよい。 In the above description, the description of the display layout of the estimated image and the real-time image has been omitted, but as in the first embodiment, the superimposed display and the adjacent display may be appropriately switched.

また、上記説明では、S1005にてユーザによるステップ1の姿勢調整が完了したかのユーザ操作が行われたことを待ってS1006に進むものとして説明したが、S1005の判定は省略してもかまわない。すなわち、焦点距離の値が上記閾値を超えたか否かを判定し、閾値を超えた場合にはステップ1の姿勢調整が完了したとみなして、S1007以降のステップ2の姿勢調整作業に進むようにしてもよい。 Further, in the above description, it has been described that the process proceeds to S1006 after waiting for the user's operation to confirm that the posture adjustment of step 1 has been completed by the user in S1005, but the determination of S1005 may be omitted. .. That is, even if it is determined whether or not the focal length value exceeds the threshold value, and if it exceeds the threshold value, it is considered that the posture adjustment in step 1 is completed, and the posture adjustment work in step 2 after S1007 is performed. Good.

また、S1006の判定処理を省略し、S1005にてユーザによるステップ1の調整作業が完了した旨の操作が行われたことをもって、S1007以降の処理に進むようにしても構わない。 Further, the determination process of S1006 may be omitted, and the process of S1007 or later may be proceeded when the operation to the effect that the adjustment work of step 1 is completed by the user is performed in S1005.

以上のように、本実施形態では、最終的に調整すべき画角の推定画像のほかに、より画角の広い推定画像を用意し、まずは当該広角側の推定画像とリアルタイム画像を比較することでカメラの姿勢調整を行う。そして、概ね姿勢調整が完了した段階で、最終的に調整すべき画角の推定画像に表示を切り替え、リアルタイム画像を合わせこむように姿勢調整を行う。これにより、最終的な画角の撮像範囲ではターゲットがわかりにくいような位置に設置されるカメラの姿勢調整であっても、効率的に行うことができる。 As described above, in the present embodiment, in addition to the estimated image of the angle of view to be finally adjusted, an estimated image having a wider angle of view is prepared, and first, the estimated image on the wide angle side is compared with the real-time image. Adjust the posture of the camera with. Then, when the posture adjustment is almost completed, the display is switched to the estimated image of the angle of view to be finally adjusted, and the posture is adjusted so as to match the real-time image. As a result, even the posture adjustment of the camera installed at a position where the target is difficult to understand in the imaging range of the final angle of view can be efficiently performed.

<その他の実施形態>
なお、上記説明では、カメラ112の姿勢調整が完了したことをユーザが判断し、ユーザの完了操作をもって姿勢調整を完了済みとする例について説明したが、姿勢調整が完了したか否かを自動的に判定するようにしてもよい。例えば、カメラ運用端末130において、公知の画像マッチング技術を用いて推定画像とリアルタイム画像の一致度(類似度)を算出し、算出した値に基づいて姿勢調整が完了したか否かを判定するようにしてもよい。また、カメラ112の姿勢調整についても、手動ではなく自動で調整するようにしてもよい。その場合も上記と同様に、カメラ運用端末130が推定画像とリアルタイムの一致度を算出し、推定画像とリアルタイム画像が一致するように、姿勢の調整指示をカメラアダプタ116に送信する。カメラアダプタ116は、受信した指示に基づいて雲台制御部333を制御することにより、カメラ112の姿勢を自動的に調整することができる。また、自動調整した後、微調整のためにユーザがさらに手動で調整しても構わない。
<Other Embodiments>
In the above description, an example has been described in which the user determines that the posture adjustment of the camera 112 has been completed and the posture adjustment is completed by the user's completion operation. However, whether or not the posture adjustment is completed is automatically determined. It may be determined to. For example, in the camera operation terminal 130, the degree of coincidence (similarity) between the estimated image and the real-time image is calculated using a known image matching technique, and it is determined whether or not the posture adjustment is completed based on the calculated value. It may be. Further, the posture adjustment of the camera 112 may be adjusted automatically instead of manually. In that case as well, the camera operation terminal 130 calculates the degree of coincidence between the estimated image and the real-time image, and transmits the posture adjustment instruction to the camera adapter 116 so that the estimated image and the real-time image match. The camera adapter 116 can automatically adjust the posture of the camera 112 by controlling the pan head control unit 333 based on the received instruction. Further, after the automatic adjustment, the user may make further manual adjustment for fine adjustment.

また、上記説明では、2つの目標位置を設定し、26台のカメラ112がそのいずれに光軸を向けるよう姿勢を調整する例について説明したが、目標位置の数はこれに限るものではない。例えば、すべてのカメラ112の目標位置を異なる位置に設定した場合であっても、適用可能である。 Further, in the above description, an example of setting two target positions and adjusting the posture so that the 26 cameras 112 point the optical axis to any of them has been described, but the number of target positions is not limited to this. For example, it is applicable even when the target positions of all the cameras 112 are set to different positions.

また、上記説明では、カメラ運用端末130において推定画像やリアルタイム画像を表示し、カメラ112の姿勢調整を支援する方法について説明したが、他の装置を用いても構わない。例えば、カメラアダプタ116や制御ステーション170にて上記の画面を表示し、調整作業を行うユーザを支援するようにしてもよい。その場合、例えば制御ステーション170から、推定画像を記憶しているカメラ運用端末130等に対して、調整対象のカメラIDを送信し、対応する推定画像を取得して表示するようにすればよい。また、制御ステーション170を操作している管理者は、カメラ112の調整作業をしているユーザに対して電話等で具体的な調整内容を指示してもよいし、カメラアダプタ116を介した遠隔操作によりカメラ112の姿勢を調整してもよい。 Further, in the above description, a method of displaying an estimated image or a real-time image on the camera operation terminal 130 to support the posture adjustment of the camera 112 has been described, but other devices may be used. For example, the above screen may be displayed on the camera adapter 116 or the control station 170 to assist the user who performs the adjustment work. In that case, for example, the control station 170 may transmit the camera ID to be adjusted to the camera operation terminal 130 or the like that stores the estimated image, and acquire and display the corresponding estimated image. In addition, the administrator operating the control station 170 may instruct the user who is adjusting the camera 112 to make specific adjustments by telephone or the like, or remotely via the camera adapter 116. The posture of the camera 112 may be adjusted by operation.

また、上記説明では、複数のカメラにより撮像領域を異なる方向から撮像した画像と、指定された仮想視点とに基づいて生成される仮想視点画像生成システムに関して説明したが、他のカメラシステムにも適用可能である。 Further, in the above description, the virtual viewpoint image generation system generated based on the images captured from different directions by a plurality of cameras and the designated virtual viewpoint has been described, but it is also applied to other camera systems. It is possible.

例えば、複数のカメラにより異なる方向から撮像した画像を、適宜切り替えて表示するシステムや、複数のカメラがそれぞれ異なる領域を撮影する監視カメラシステムにも適用可能である。また、複数のカメラで撮像するシステムに限らず、1台のカメラで撮像する場合であって、そのカメラの設置位置、姿勢を予め決められた位置、姿勢に調整するようなユースケースにも、適用可能である。 For example, it can be applied to a system in which images captured from different directions by a plurality of cameras are appropriately switched and displayed, and a surveillance camera system in which a plurality of cameras capture different areas. In addition, it is not limited to a system that captures images with multiple cameras, but also for use cases where the installation position and posture of the cameras are adjusted to predetermined positions and postures when imaging with one camera. Applicable.

以上のように、上記各実施形態では、撮像装置を設置すべき位置及び姿勢において撮像されるべき撮像範囲を示す画像を、実際に当該撮像装置が現在設置されている位置及び姿勢において撮像された画像と、を比較可能に表示する。これにより、撮像装置の設置作業を行うユーザは、当該画像を見比べながら撮像装置の姿勢を調整することで、撮像装置の姿勢調整を容易かつ効率的に行うことが可能となる。 As described above, in each of the above-described embodiments, the image indicating the imaging range to be imaged at the position and posture in which the imaging device should be installed is captured at the position and posture in which the imaging device is actually installed. The image is displayed in a comparable manner. As a result, the user who installs the image pickup device can easily and efficiently adjust the posture of the image pickup device by adjusting the posture of the image pickup device while comparing the images.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理システム
110 センサシステム
116 カメラアダプタ
120 スイッチングハブ
130 カメラ運用端末
140 画像コンピューティングサーバ
150 画像生成装置
160 仮想カメラ操作端末
170 制御ステーション
100 Image processing system 110 Sensor system 116 Camera adapter 120 Switching hub 130 Camera operation terminal 140 Image computing server 150 Image generator 160 Virtual camera operation terminal 170 Control station

Claims (17)

複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて各撮像装置の姿勢の調整を支援する方法であって、
前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像を取得する第1の取得工程と、
前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像を取得する第2の取得工程と、
前記第1の取得工程において取得した前記第1の画像と共に、前記第2の取得工程において取得した前記第2の画像を表示させる表示工程と、
を有することを特徴とする方法。
It is a method of supporting the adjustment of the posture of each imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices.
A first acquisition step of acquiring a first image which is an image to be captured by the image pickup device at a position and a posture in which one of the plurality of image pickup devices should be installed.
A second acquisition step of acquiring a second image which is an image captured by the image pickup device at the position and orientation in which the image pickup device is currently installed, and
A display step of displaying the second image acquired in the second acquisition step together with the first image acquired in the first acquisition step.
A method characterized by having.
前記表示工程では、前記第1の画像と前記第2の画像とを並べて表示させることを特徴とする請求項1記載の方法。 The method according to claim 1, wherein in the display step, the first image and the second image are displayed side by side. 前記表示工程では、前記第1の画像と前記第2の画像とを重畳して表示させることを特徴とする請求項1記載の方法。 The method according to claim 1, wherein in the display step, the first image and the second image are superimposed and displayed. 前記表示工程では、前記第1の画像と前記第2の画像とを並べて表示させる表示レイアウトと、前記第1の画像と前記第2の画像とを重畳して表示させる表示レイアウトと、を切り替えることを特徴とする請求項1記載の方法。 In the display step, switching between a display layout in which the first image and the second image are displayed side by side and a display layout in which the first image and the second image are superimposed and displayed are switched. 1. The method according to claim 1. 前記第1の取得工程では、前記第1の画像として焦点距離の異なる複数の画像を取得し、
前記表示工程では、焦点距離の異なる前記複数の画像の中から、前記第2の画像と共に表示させる画像を選択的に切り替えることを特徴とする請求項1から4のいずれか一項に記載の方法。
In the first acquisition step, a plurality of images having different focal lengths are acquired as the first image, and the images are acquired.
The method according to any one of claims 1 to 4, wherein in the display step, an image to be displayed together with the second image is selectively switched from the plurality of images having different focal lengths. ..
前記表示工程では、焦点距離の異なる前記複数の画像のうち、焦点距離の長い画像から順に表示させることを特徴とする請求項5記載の方法。 The method according to claim 5, wherein in the display step, the images having the longest focal length are displayed in order from the plurality of images having different focal lengths. 前記表示工程では、ユーザの操作に基づいて、焦点距離の異なる前記複数の画像の中から前記第2の画像と共に表示させる画像を切り替えることを特徴とする請求項5または6記載の方法。 The method according to claim 5 or 6, wherein in the display step, an image to be displayed together with the second image is switched from the plurality of images having different focal lengths based on a user's operation. 前記表示工程では、前記撮像装置の焦点距離の変更に基づいて、焦点距離の異なる前記複数の画像の中から前記第2の画像と共に表示させる画像を切り替えることを特徴とする請求項5または6記載の方法。 The fifth or sixth aspect of the present invention, wherein the display step switches an image to be displayed together with the second image from the plurality of images having different focal lengths based on a change in the focal length of the imaging device. the method of. 前記第1の画像を生成する生成工程と、
前記生成工程において生成された前記第1の画像を記憶させる記憶工程と、を有することを特徴とする請求項1から8のいずれか一項に記載の方法。
The generation step of generating the first image and
The method according to any one of claims 1 to 8, further comprising a storage step of storing the first image generated in the generation step.
前記生成工程では、少なくとも、撮像が行われる施設の三次元形状を示す形状データと、前記撮像装置が設置されるべき位置及び姿勢を示す情報と、に基づいて前記第1の画像が生成されることを特徴とする請求項9記載の方法。 In the generation step, the first image is generated based on at least the shape data indicating the three-dimensional shape of the facility where the imaging is performed and the information indicating the position and orientation in which the imaging device should be installed. 9. The method according to claim 9. 前記生成工程では、前記複数の撮像装置それぞれについて前記第1の画像を生成し、
前記記憶工程では、前記複数の撮像装置それぞれを識別するための識別情報に対応づけて、前記第1の画像が記憶されることを特徴とする請求項9または10記載の方法。
In the generation step, the first image is generated for each of the plurality of imaging devices.
The method according to claim 9 or 10, wherein in the storage step, the first image is stored in association with identification information for identifying each of the plurality of imaging devices.
前記第1の取得工程では、前記記憶工程において記憶された前記第1の画像を取得することを特徴とする請求項9から11のいずれか一項に記載の方法。 The method according to any one of claims 9 to 11, wherein in the first acquisition step, the first image stored in the storage step is acquired. 前記表示工程では、前記撮像領域と、前記複数の撮像装置の設置位置と、を俯瞰的に示す画像を表示させ、姿勢調整を行う撮像装置を指定するユーザ操作を受け付けたことに従って、前記第1の画像と前記第2の画像の表示に切り替えることを特徴とする請求項1から12のいずれか一項に記載の方法。 In the display step, the first image is displayed in accordance with a user operation of designating an image pickup device for adjusting the posture by displaying an image showing the image pickup region and the installation positions of the plurality of image pickup devices from a bird's-eye view. The method according to any one of claims 1 to 12, wherein the display is switched to the display of the image and the second image. 前記第1の画像と前記第2の画像との画像解析の結果に基づいて、前記撮像装置の姿勢が調整されるよう制御する制御工程を有することを特徴とする請求項1から13のいずれか一項に記載の方法。 One of claims 1 to 13, wherein the control step of controlling the posture of the image pickup apparatus to be adjusted based on the result of image analysis of the first image and the second image is provided. The method described in paragraph 1. 前記システムは、前記複数の撮像装置による撮像に基づく複数の画像と、指定された仮想視点とに基づいて、仮想視点画像を生成するシステムであることを特徴とする請求項1から14のいずれか一項に記載の方法。 One of claims 1 to 14, wherein the system is a system that generates a virtual viewpoint image based on a plurality of images taken by the plurality of imaging devices and a designated virtual viewpoint. The method described in paragraph 1. 複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて各撮像装置の姿勢の調整を支援する情報処理装置であって、
前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像と、前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像と、を取得する取得手段と、
前記取得手段により取得した前記第1の画像と共に前記第2の画像を表示させる表示制御手段と、
を有することを特徴とする情報処理装置。
An information processing device that supports adjustment of the posture of each imaging device in a system that images an imaging region from different directions by a plurality of imaging devices.
The first image, which is an image to be captured by the imaging device at the position and orientation in which one of the plurality of imaging devices should be installed, and the position and orientation in which the imaging device is currently installed. A second image, which is an image captured by the image pickup device, and an acquisition means for acquiring the image.
A display control means for displaying the second image together with the first image acquired by the acquisition means, and
An information processing device characterized by having.
コンピュータに請求項1から15に記載の方法を実行させるためのプログラム。 A program for causing a computer to perform the method according to any one of claims 1 to 15.
JP2019092774A 2019-05-16 2019-05-16 Method, information processing device, and program supporting adjustment of posture of imaging device Pending JP2020188395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019092774A JP2020188395A (en) 2019-05-16 2019-05-16 Method, information processing device, and program supporting adjustment of posture of imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019092774A JP2020188395A (en) 2019-05-16 2019-05-16 Method, information processing device, and program supporting adjustment of posture of imaging device

Publications (1)

Publication Number Publication Date
JP2020188395A true JP2020188395A (en) 2020-11-19

Family

ID=73222154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019092774A Pending JP2020188395A (en) 2019-05-16 2019-05-16 Method, information processing device, and program supporting adjustment of posture of imaging device

Country Status (1)

Country Link
JP (1) JP2020188395A (en)

Similar Documents

Publication Publication Date Title
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
US20230283757A1 (en) Method for generating virtual viewpoint image and image processing apparatus
KR102129792B1 (en) Information processing device, image generation method, control method and program
US11190673B2 (en) Control device, control method, and program
JP6482498B2 (en) Control device, control method, and program
JP2019191989A (en) System for, method of, and program for generating virtual viewpoint image
JP2019036791A (en) Image processing apparatus, image processing system, control method, and program
WO2020045186A1 (en) Information processing device, method, and program
JP2019022151A (en) Information processing apparatus, image processing system, control method, and program
JPWO2013014872A1 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
JP2019134428A (en) Control device, control method, and program
JP2019050593A (en) Image processing system, image processor, control method, and program
JP2020188395A (en) Method, information processing device, and program supporting adjustment of posture of imaging device
US20230328355A1 (en) Information processing apparatus, information processing method, and program
JP2021087104A (en) Method of supporting adjustment of posture of imaging apparatus, information processing device, and program
JP6632703B2 (en) CONTROL DEVICE, CONTROL METHOD, AND PROGRAM
JP7129283B2 (en) Processing device, control method, and program
JP2019075740A (en) Image processing system, image processing apparatus, image transmission method, and program
JP7297969B2 (en) Information processing device, program, generation method, and system
JP7204789B2 (en) Control device, control method and program
JP2019096926A (en) Image processing system, image processing method and program