JP2020188395A - Method, information processing device, and program supporting adjustment of posture of imaging device - Google Patents
Method, information processing device, and program supporting adjustment of posture of imaging device Download PDFInfo
- Publication number
- JP2020188395A JP2020188395A JP2019092774A JP2019092774A JP2020188395A JP 2020188395 A JP2020188395 A JP 2020188395A JP 2019092774 A JP2019092774 A JP 2019092774A JP 2019092774 A JP2019092774 A JP 2019092774A JP 2020188395 A JP2020188395 A JP 2020188395A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- display
- posture
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像装置の姿勢の調整を支援する方法に関する。 The present invention relates to a method of assisting in adjusting the posture of an imaging device.
複数のカメラ(撮像装置)を異なる位置に設置して多視点で同期撮影し、当該撮影によって得られた多視点画像を用いて、任意の視点に基づく仮想視点画像を生成する技術が注目されている(特許文献1参照)。このような技術によれば、例えば、サッカーやバスケットボール等の試合のハイライトシーンやコンサート等を様々な角度から視聴することが可能となり、通常の画像と比較してユーザに高臨場感を与えることができる。 Attention has been paid to a technique in which multiple cameras (imaging devices) are installed at different positions to perform synchronous shooting from multiple viewpoints, and a virtual viewpoint image based on an arbitrary viewpoint is generated using the multi-viewpoint image obtained by the shooting. (See Patent Document 1). According to such technology, for example, highlight scenes of games such as soccer and basketball, concerts, etc. can be viewed from various angles, giving the user a high sense of presence as compared with ordinary images. Can be done.
スポーツの試合やコンサート等のイベント撮影の際には、その準備段階としてカメラ等の機材を設置する必要がある。仮想視点画像生成システムにおいては、各カメラの位置、姿勢の調整を高精度に行う必要がある。 When shooting an event such as a sports game or concert, it is necessary to install equipment such as a camera as a preparatory step. In the virtual viewpoint image generation system, it is necessary to adjust the position and orientation of each camera with high accuracy.
従来、カメラの設置作業者は、マーカーを対象施設(フィールド)に設置し、カメラの光軸方向が当該マーカーを向くよう、撮像画像を見ながらカメラの姿勢調整を行っていた。 Conventionally, a camera installation worker installs a marker in a target facility (field) and adjusts the posture of the camera while looking at a captured image so that the optical axis direction of the camera faces the marker.
しかしながら、マーカーは、広いフィールドに対して相対的に小さく、また複数ある場合もあるため、各カメラをどのマーカーに対して合わせて姿勢調整すればよいかは、マニュアルなどを参照する必要があった。その結果、作業時間や作業人数が増加する要因となっていた。また、作業者によるターゲット間違いなどのヒューマンエラーにつながる恐れもあった。さらには、施設の様々な都合により、マーカーを設置することができない場合があり、姿勢調整作業そのものが困難な場合もあった。 However, the markers are relatively small with respect to a wide field, and there may be a plurality of markers. Therefore, it was necessary to refer to a manual or the like to determine which marker the camera should be adjusted to. .. As a result, it was a factor that increased the working time and the number of workers. In addition, there is a risk of leading to human error such as target error by the worker. Furthermore, due to various reasons of the facility, it may not be possible to install the marker, and the posture adjustment work itself may be difficult.
本発明は、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて、撮像装置の姿勢調整作業を効率的に行えるよう支援することを目的とする。 An object of the present invention is to support efficient posture adjustment work of an imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices.
本発明は、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて各撮像装置の姿勢の調整を支援する方法であって、前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像を取得する第1の取得工程と、
前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像を取得する第2の取得工程と、前記第1の取得工程において取得した前記第1の画像と共に、前記第2の取得工程において取得した前記第2の画像を表示させる表示工程と、を有することを特徴とする。
The present invention is a method of supporting adjustment of the posture of each imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices, and one of the plurality of imaging devices is installed. A first acquisition step of acquiring a first image which is an image to be captured by the imaging device at a power position and a posture, and
A second acquisition step of acquiring a second image which is an image captured by the image pickup device at the position and orientation in which the image pickup device is currently installed, and the first acquisition step acquired in the first acquisition step. It is characterized by having a display step of displaying the second image acquired in the second acquisition step together with the image.
本発明によれば、複数の撮像装置により撮像領域を異なる方向から撮像するシステムにおいて、撮像装置の姿勢調整作業を効率的に行えるように支援することができる。 According to the present invention, in a system in which an imaging region is imaged from different directions by a plurality of imaging devices, it is possible to support the posture adjustment work of the imaging device to be efficiently performed.
以下、図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態で説明される構成は一例に過ぎず、本発明を、説明される実施形態に限定することは意図されていない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the configurations described in the following embodiments are merely examples, and the present invention is not intended to be limited to the embodiments described.
<第1の実施形態>
(システム構成)
本実施形態では、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ(撮像装置)を設置し撮影を行い、当該撮影により得られた複数視点画像を用いて仮想視点画像を生成するシステムの例について説明する。本実施形態では、仮想視点画像生成用のマルチカメラシステムにおいて、各カメラの姿勢調整作業を視覚的に行うことにより、作業の効率的な進行を支援する方法について説明する。
<First Embodiment>
(System configuration)
In this embodiment, a system in which a plurality of cameras (imaging devices) are installed in a facility such as a stadium (stadium) or a concert hall to take a picture, and a virtual viewpoint image is generated using the multi-viewpoint image obtained by the shooting. An example of is described. In the present embodiment, in a multi-camera system for generating a virtual viewpoint image, a method of supporting the efficient progress of the work by visually performing the posture adjustment work of each camera will be described.
(画像処理システム100の説明)
図1に、本実施形態に係る画像処理システム100の構成例を示す。画像処理システム100は、複数の撮像装置による撮像に基づく複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
(Explanation of image processing system 100)
FIG. 1 shows a configuration example of the
画像処理システム100は、撮像領域を複数の方向から撮像する複数のカメラ(撮像装置)を有する。撮像領域は、例えばサッカーなどの競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などである。複数のカメラは、このような撮像領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮像を行う。なお、複数のカメラは撮像領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていてもよい。また、望遠カメラと広角カメラなど機能が異なるカメラが設置されていてもよい。
The
画像処理システム100は、センサシステム110a〜110z、スイッチングハブ120、カメラ運用端末130、画像コンピューティングサーバ140、画像生成装置150、仮想カメラ操作端末160、及び制御ステーション170を含む。
The
まず、センサシステム110a〜110zの構成及び動作について説明する。センサシステム110a〜110zは、それぞれ、マイク111a〜111z、カメラ112a〜112z、雲台113a〜113z、外部センサ114a〜114z、及びバッテリ115a〜115zを有する。また、センサシステム110a〜110zは、それぞれカメラアダプタ116a〜116zを有し、このカメラアダプタ116a〜116zを介して、デイジーチェーン121a〜121yによって相互に接続される。なお、接続形態はデイジーチェーン接続に限らず、スター型など別のネットワークトポロジーを採用しても良い。また、図1では、26個のセンサシステム110a〜110zが存在する例について説明するが、センサシステムの台数はこれに限るものではない。また、図1では、センサシステム110a〜110zが共通の構成を有するものとしているが、少なくとも一部のセンサシステムが、他のセンサシステムと異なる構成を有してもよい。
First, the configuration and operation of the sensor systems 110a to 110z will be described. The sensor systems 110a to 110z have
なお、本実施形態では、特に言及がない限りは、センサシステム110a〜110zを区別せずに「センサシステム110」と呼ぶ。また、センサシステム110が有する各構成についても、特に区別する必要のない場合には、マイク111、カメラ112、雲台113、外部センサ114、バッテリ115、及びカメラアダプタ116と呼ぶ。センサシステム110は、それぞれが有するカメラ112によって撮影を行うことにより画像データを取得し、また、マイク111を用いて録音を行うことにより音声データを取得する。すなわち、画像処理システム100は、同一の被写体をそれぞれが異なる方向から撮影する複数のセンサシステム110を用いることにより、複数の方向から撮影された画像データを得ることができる。同様に、画像処理システム100は、これらの複数のセンサシステム110を用いて、異なる位置において(必要に応じて異なる指向特性で)収音を行うことにより、複数の位置で録音された音声データを得ることができる。
In the present embodiment, unless otherwise specified, the sensor systems 110a to 110z are referred to as "sensor system 110" without distinction. Further, each configuration of the sensor system 110 is also referred to as a
複数のカメラ112は何れも光軸が固定され、パンやチルト等による撮影範囲の左右や上下への変更は行われないものとする。なお、カメラ112の初期設定時等における光軸の調整や環境による光軸のずれの修正等は、カメラ112が設置される雲台113によって行うことができる。複数のセンサシステム110は、それぞれ、デイジーチェーン121a〜121yにより、自身の下流の他のセンサシステムへ、撮影によって得られた画像データを送信する。このとき、それぞれのセンサシステム110は、上流の他のセンサシステムから取得した画像データについても下流の他のセンサシステムへ転送する。例えば、センサシステム110aは、カメラ112aを用いて撮影された画像データを、カメラアダプタ116aにおいて後述の画像処理を施した後に、デイジーチェーン121aを介してセンサシステム110bのカメラアダプタ116bへ伝送する。同様に、センサシステム110bは、カメラ112bを用いて撮影された画像データを、センサシステム110aから取得した画像データと共に(場合によっては別個の信号で)センサシステム110cへ伝送する。なお、センサシステム110zは、撮影により得られた画像データと上流のセンサシステムから取得した画像データを、ネットワーク122bを介してスイッチングハブ120へ伝送する。デイジーチェーンを用いることにより、撮影画像の4Kや8Kなどへの高解像度化及びハイフレームレート化に伴って画像データが大容量化しても、接続ケーブル数や配線作業の煩雑性の増大を防ぐことができる。
It is assumed that the optical axes of the plurality of
複数のマイク111の取り扱い及びそれらのマイク111で収音された音声データについても同様である。すなわち、複数のマイク111は、指向方向が固定されており、その方向の変更は行われないものとする。また、収音により得られた音声データは、デイジーチェーンを介して伝送される。このような動作により、センサシステム110a〜110zが取得した画像データ及び音声データは、センサシステム110zからネットワーク122bを用いてスイッチングハブ120に伝わり、その後、画像コンピューティングサーバ140へ転送される。
The same applies to the handling of a plurality of
外部センサ114は、撮影や収音以外の方法により、各種環境情報を取得する。例えば、外部センサ114は、センサシステム110の振動や傾き、気温、湿度、風向き、風速等の各種情報を取得可能である。なお、これらは一例であり、外部センサ114は、任意の環境パラメータを取得するための任意の装置構成を有する。
The
バッテリ115は、後述の、センサシステム110を競技場などの施設に設置または撤収する際のワークフローを実行する際に使用され、例えば競技場にシステム用電源が敷設されていない場合に使用される。なお、センサシステム110は、設置の完了後でシステム用電源が敷設された後は、バッテリ115を使用しないようにしうる。さらに、センサシステム110は、システム用電源が事前に敷設される場合には、バッテリ115を有さずに、その電源を使用して動作するように構成されてもよい。なお、システム用電源ではなく、施設に常設されている電源が用いられてもよい。 The battery 115 is used when executing a workflow for installing or withdrawing the sensor system 110 in a facility such as a stadium, which will be described later, and is used, for example, when a system power supply is not installed in the stadium. The sensor system 110 may not use the battery 115 after the system power supply is laid after the installation is completed. Further, the sensor system 110 may be configured to operate using the battery 115 without the battery 115 when the system power supply is laid in advance. A power source permanently installed in the facility may be used instead of the system power source.
なお、図1では、カメラ112とカメラアダプタ116とが分離された例を示しているが、これらは同一の筺体内に含まれる1つの装置であってもよい。また、マイク111も、カメラ112に内蔵されたマイクであってもよいし、図1のように別個の装置が用意されてもよい。このように、図1に示される複数の機能部が1つの装置によって実現されてもよく、また、1つの機能部が複数の装置が協働することによって実現されてもよい。
Although FIG. 1 shows an example in which the
また、本実施形態では、特に言及のない限り、「画像」という用語が動画と静止画との両方の概念を含むものとする。すなわち、画像処理システム100は、静止画及び動画のいずれについても対処可能である。また、本実施形態では、仮想視点コンテンツとして、仮想視点画像と仮想聴点音響が画像処理システム100によって提供される場合について説明するが、これに限られない。例えば、仮想視点コンテンツは、音響を含まなくてもよい。また、例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより録音された音声であるなど、仮想聴点音響以外の形式で提供されてもよい。また、本実施形態では、説明を簡単にするため、音声についての説明を部分的に省略しているが、画像と音声は共に処理されるものとする。
Further, in the present embodiment, unless otherwise specified, the term "image" includes the concepts of both moving images and still images. That is, the
次に、画像コンピューティングサーバ140の構成及び動作について説明する。画像コンピューティングサーバ140は、センサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ140は、タイムサーバ141と、フロントエンドサーバ142とを含む。
Next, the configuration and operation of the
タイムサーバ141は、時刻及び同期信号を配信する機能を有し、スイッチングハブ120を介して、センサシステム110a〜110zに時刻及び同期信号を配信する。センサシステム110a〜110zは、カメラアダプタ116a〜116zを介して時刻と同期信号を受信すると、時刻と同期信号に基づいてカメラ112a〜112zを同期させ、画像フレーム同期を確立する。すなわち、タイムサーバ141は、複数のカメラ112の撮影タイミングを同期させる。
The
フロントエンドサーバ142は、センサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換する。その後、カメラの識別子、画像か音声かを示すデータ種別、フレーム番号に応じてフロントエンドサーバ142内のデータベース(不図示)に書き込む。
The front-
なお、フロントエンドサーバ142では、カメラアダプタ116から取得したデータをDRAM上に一次的に記憶し、前景画像、背景画像、音声データ、及び三次元モデルデータが揃うまでバッファする。
The front-
ここで、前景画像とは、カメラ112により撮像されて取得された撮像画像から、前景オブジェクトの領域(前景領域)を抽出した画像である。前景領域として抽出される前景オブジェクトとは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的オブジェクト(動体)を指す。前景オブジェクトは、競技において、それが行われるフィールド内にいる選手や審判などの人物、球技であればボールなど、またコンサートやエンタテイメントにおける歌手、演奏者、パフォーマー、司会者などである。
Here, the foreground image is an image obtained by extracting a region (foreground region) of a foreground object from an captured image captured and acquired by the
背景画像とは、少なくとも前景となるオブジェクトとは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景となるオブジェクトを取り除いた状態の画像である。また、背景は、時系列で同じ方向から撮像を行った場合において静止している、又は静止に近い状態が継続している撮像対象物を指す。このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。ただし、背景は少なくとも前景オブジェクトとは異なる領域であり、撮像対象としては、前景オブジェクトと背景の他に、別の物体等が含まれていてもよい。 The background image is an image of at least an area (background area) different from the object that is the foreground. Specifically, the background image is an image in which the foreground object is removed from the captured image. Further, the background refers to an imaged object that is stationary or continues to be in a state close to stationary when imaging is performed from the same direction in time series. Such an imaging object is, for example, a stage such as a concert, a stadium where an event such as a competition is held, a structure such as a goal used in a ball game, a field, or the like. However, the background is at least a region different from the foreground object, and the imaging target may include another object or the like in addition to the foreground object and the background.
三次元モデルデータとは、前景オブジェクトの三次元形状を表す形状データであり、複数の前景画像に基づいて生成される。 The three-dimensional model data is shape data representing the three-dimensional shape of the foreground object, and is generated based on a plurality of foreground images.
なお、以下では、前景画像、背景画像、音声データ、及び三次元モデルデータ等の、仮想視点コンテンツを生成するためのデータをまとめて、素材データと呼ぶ。素材データには、ルーティング情報やタイムコード情報(時間情報)、カメラ識別子等のメタ情報が付与されており、フロントエンドサーバ142は、このメタ情報に基づいてデータの属性を確認する。これにより、フロントエンドサーバ142は、ある1つの時刻について、バッファされているデータを確認することによって、素材データが揃ったか否かを判定することができる。この判定により、データがカメラアダプタ116からネットワーク122等を介して転送される際に、ネットワークパケットの受信順序がデータの順序と対応しない場合であっても、必要なデータが揃うまで待つことで、ファイル生成を確実に行うことができる。なお、背景画像は、前景画像とは異なるフレームレートで撮影されてもよい。例えば、背景画像のフレームレートが1fps(frames per second)である場合、1秒ごとに1つの背景画像が取得される。これに対して、前景画像が例えば60fpsで取得される場合、前景画像が取得されるが背景画像が取得されないタイミングが存在しうる。このため、このようなタイミングにおいては、フロントエンドサーバ142は、背景画像がない状態で全てのデータが揃ったと判定してもよい。
In the following, data for generating virtual viewpoint contents such as foreground image, background image, audio data, and three-dimensional model data are collectively referred to as material data. Meta information such as routing information, time code information (time information), and camera identifier is added to the material data, and the front-
カメラ運用端末130は、汎用のパーソナルコンピュータ(PC)やタブレットであり、カメラ112の設置や姿勢調整の支援のために使用される情報処理装置である。図1ではカメラ運用端末130が一台のみの場合について示しているが、複数台設けるようにしてもよい。
The
カメラ運用端末130は、センサシステム110と無線通信可能に構成される。そして、カメラ運用端末130は、運用システムアプリケーションを動作させることができる。運用システムアプリケーションは、マルチカメラシステムを運用する際に使用され、イベント撮影の計画から、システムの設置、撮影、システムの撤収までの運用を管理するのに使用される。また、カメラ運用端末130は、システムを運用する上で必要な運用システムアプリケーションの画面表示や、別のカメラ運用端末とのテキストメッセージや音声等による通信を実行可能に構成されうる。
The
画像生成装置150は、仮想カメラ操作端末160からの指示に基づく仮想カメラパスパラメータと、フロントエンドサーバ142に記憶された素材データと、に基づいて仮想視点画像を生成する。仮想カメラ操作端末160は、ユーザから仮想カメラパスを指定するための指示を受け付け、受け付けた指示に応じた情報を画像生成装置150に送信する。
The
ここで、仮想カメラとは、撮像領域の周囲に実際に設置された複数のカメラ112とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また、仮想カメラパスとは、経時的な仮想視点の変遷を示す情報である。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
Here, the virtual camera is a virtual camera different from the plurality of
画像生成装置150と仮想カメラ操作端末160の機能構成について図2を用いて説明する。なお、画像生成装置150は、上述のフロントエンドサーバ142と協働するため、図2には、フロントエンドサーバ142の機能構成の一部についても図解されている。
The functional configuration of the
フロントエンドサーバ142は、その機能として、複数視点画像保持部200及び実空間情報保持部210を有する。複数視点画像保持部200は、上述のように、競技フィールドやスタジオ等を取り囲むように設置された複数台のカメラによって同期撮影された画像に関する画像データを保持する。
The front-
また、実空間情報保持部210は、被写体を含む所定範囲の空間に関する情報を保持する。実空間情報保持部210は、競技場のフィールドや観客席、スタジオの設備等、仮想視点画像内に背景として映りこむ物体(背景オブジェクト)の三次元モデル情報や、仮想視点を設定可能な範囲を示す三次元空間情報等を保持する。
Further, the real space
画像生成装置150は、仮想視点画像生成部221、仮想カメラパス算出部222、仮想カメラ情報保持部223、表示画像生成部224、及び装置通信部225を有する。また、仮想カメラ操作端末160は、端末通信部231、画像表示部232、仮想カメラパス指示部233、及びユーザ情報発信部234を有する。
The
仮想視点画像生成部221は、複数視点画像保持部200から取得した複数視点画像を用いて、前景オブジェクトの三次元モデルを生成する。生成した前景三次元モデルと、実空間情報保持部210から取得した背景三次元モデルとに対して、仮想カメラパス算出部222から取得した仮想視点に合わせたテクスチャをマッピングし、レンダリングを行うことにより、仮想視点画像が生成される。仮想視点画像生成部221は、この仮想視点画像の生成の過程で、生成しようとする仮想視点画像に映りこむ前景オブジェクトおよび背景オブジェクトの座標を算出し、その座標についてのみのテクスチャマッピングとレンダリングとを実行する。仮想視点画像生成部221は、算出した座標値を、被写体前景座標および実空間背景座標として、後述の仮想カメラ情報保持部223に出力する。
The virtual viewpoint
仮想カメラパス算出部222は、後述の仮想カメラパス指示部233に対するユーザからの指示内容に基づいて、時間的に連続する仮想カメラパスパラメータを算出する。仮想カメラパスパラメータは、ユーザが被写体を観察する際の仮想的なカメラの動きを示すパラメータであり、仮想カメラの位置及び向き(注視方向)を少なくとも含む。なお、仮想カメラパスパラメータは、これらに限定されるものではなく、例えば画角(焦点距離)を含んでいてもよい。また、仮想カメラパスパラメータは、撮影シーン中のどの瞬間に関するものであるかを特定できるように、複数視点画像に付されたフレーム番号又はタイムコードと関連付けられる。仮想カメラパス算出部222は、仮想カメラパスパラメータの算出の際に、実空間情報保持部210から取得した実空間情報を参照して、仮想視点を設定可能な範囲に仮想カメラパスを設定する。
The virtual camera
仮想カメラ情報保持部223は、仮想視点画像生成部221から取得した、被写体前景座標および実空間背景座標と、仮想カメラパス算出部222で算出された仮想カメラパスパラメータとを蓄積する。
The virtual camera
表示画像生成部224は、仮想カメラ操作端末160の画像表示部232に表示されるための表示画像を生成する。ここで生成される表示画像は、仮想視点画像生成部221で生成される仮想視点画像である。装置通信部225は、画像生成装置150と仮想カメラ操作端末160との間での、不図示のネットワーク等を介した有線通信又は無線通信を行うための機能部である。画像生成装置150と仮想カメラ操作端末160との間では、画像、音声、及びテキストの各データや、仮想視点画像を生成する際にユーザから指示された仮想カメラパスに関する指示情報が送受信される。
The display
仮想カメラ操作端末160において、端末通信部231は、上述のように、装置通信部225との間で種々の情報を送受信する。画像表示部232は、上述の表示画像生成部224において生成され、端末通信部231を介して受信された画像を画面表示する。仮想カメラパス指示部233は、ユーザから仮想カメラパスに対する指示を受け付け、その指示を示す情報を、端末通信部231を用いて画像生成装置150へ送信する。なお、画像生成装置150は、装置通信部225を用いてこの情報を受信し、仮想カメラパス算出部222に受信した情報を渡す。なお、ユーザは、視聴したい全時間に対して、仮想カメラパラメータのすべてを厳密に指示しなくてもよい。例えば、ユーザは、「特定の被写体(選手や演者等)に注目した仮想視点画像を視聴したい」、「ボールの周囲のある一定の範囲を視聴したい」、「より注目すべきイベントが発生している箇所を視聴したい」等、種々の観点に基づく指示を入力してもよい。ユーザ情報発信部234は、端末通信部231から装置通信部225に向けて送信される情報に対して、ユーザID等のユーザ情報を添付する。
In the virtual
制御ステーション170は、デイジーチェーン121a〜121y、ネットワーク122a〜122b及び123〜124を通じて、画像処理システム100を構成するそれぞれのブロックの動作状態の管理及びパラメータ設定制御等を行う。
The control station 170 manages the operating state of each block constituting the
続いて、図3を用いて、カメラアダプタ116の機能構成について説明する。カメラアダプタ116は、ネットワークアダプタ300と、伝送部310と、画像処理部320と、外部機器制御部330とを含む。ここで、ネットワークアダプタ300は、データ送受信部301と無線通信部302とを含み、伝送部310は、画像・音声伝送処理部311とデータ圧縮・伸張部312とを含む。また、画像処理部320は、前景背景分離部321と、三次元モデル情報生成部322と、キャリブレーション制御部323とを含む。また、外部機器制御部330は、マイク制御部331と、カメラ制御部332と、雲台制御部333と、センサ制御部334とを含む。なお、外部機器制御部330は、外部機器接続状態検出部335をさらに含む。
Subsequently, the functional configuration of the
ネットワークアダプタ300は、他の装置との通信を行うための各種機能を有する。データ送受信部301は、デイジーチェーン121、ネットワーク123及びネットワーク124を介して、他のカメラアダプタ116、フロントエンドサーバ142、タイムサーバ141、及び制御ステーション170と、データ通信を行う。例えば、データ送受信部301は、カメラ112による撮影画像が後述の前景背景分離部321により分離されて得られる前景画像と背景画像とを、別のカメラアダプタ116に対して出力する。出力先のカメラアダプタ116は、画像処理システム100のカメラアダプタ116のうち、デイジーチェーン121において隣接する下流側のカメラアダプタ116である。多数のカメラアダプタ116が、前景画像及び背景画像を出力することで、複数の視点から撮影された前景画像と背景画像とがフロントエンドサーバ142に伝送され、画像生成装置150によって仮想視点画像が生成される。なお、撮影画像から分離した前景画像を出力して背景画像は出力しないカメラアダプタ116が存在してもよい。
The
無線通信部302は、カメラ運用端末130との通信を行う。無線通信部302を介して通信するデータは、後述の外部機器接続状態検出部335が処理するデータであり、カメラ運用端末130で動作する運用システムアプリケーションで処理を実行するためのデータである。
The
伝送部310は、ネットワークアダプタ300を介して送受信されるデータについて信号処理を実行する。画像・音声伝送処理部311は、画像データ又は音声データを、データ送受信部301を介して他のカメラアダプタ116またはフロントエンドサーバ142へ転送するためのメッセージを作成する。メッセージには、画像データ又は音声データ、及び各データのメタ情報が含まれる。なお、本実施形態のメタ情報は、画像の撮影または音声のサンプリング時のタイムコードまたはシーケンス番号、データ種別、及び、マイク111やカメラ112の個体を示す識別子などを含む。また、送信される画像データまたは音声データは、データ圧縮・伸張部312でデータ圧縮されていてもよい。また、画像・音声伝送処理部311は、他のカメラアダプタ116から、データ送受信部301を介してメッセージを受け取る。そして、画像・音声伝送処理部311は、メッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズに分割されたデータから、画像データまたは音声データを復元する。なお、データを復元した際に、そのデータが圧縮されている場合は、データ圧縮・伸張部312が伸張処理を行う。データ圧縮・伸張部312は、データ送受信部301を介して送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行い、また、圧縮されたデータを伸張する。
The
画像処理部320は、カメラ制御部332の制御の下でカメラ112によって撮影された画像データと、他のカメラアダプタ116から受信した画像データとに対して、画像処理を行う。前景背景分離部321は、カメラ112によって撮影された画像データを、前景画像と背景画像とに分離する。すなわち、複数のカメラアダプタ116のそれぞれにおける前景背景分離部321は、複数のカメラ112のうち、対応するカメラ112によって撮影された撮影画像から前景領域を抽出する。前景背景分離部321は、撮影画像から抽出した前景領域内の画像を前景画像とすると共に、その前景領域外の領域の画像(すなわち、前景画像ではない領域の画像)を背景画像として、前景画像及び背景画像を出力する。三次元モデル情報生成部322は、前景背景分離部321で分離された前景画像と、他のカメラアダプタ116から受取った前景画像とを用いて、例えば、ステレオカメラの原理を用いて三次元モデルに関する画像情報を生成する。キャリブレーション制御部323は、入力された画像に対して、カメラごとの色のばらつきを抑えるための色補正処理や、カメラの振動に起因するブレに対して画像の位置合わせ及び画像の切り出し処理などを行う。
The
外部機器制御部330は、カメラアダプタ116に接続する機器を制御する機能を有する。カメラ制御部332は、カメラアダプタ116が含まれるセンサシステム内のカメラ112と接続され、そのカメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定などを行う。カメラ112の制御は、例えば、撮影パラメータ(画素数、色深度、フレームレート、及びホワイトバランス等)の設定と参照、カメラ112の状態(撮影中、停止中、同期中、及びエラー等)を示す情報の取得、撮影の開始及び停止、及びピント調整等を含む。マイク制御部331、雲台制御部333、及びセンサ制御部334は、それぞれ、カメラアダプタ116が含まれるセンサシステム内のマイク111、雲台113、外部センサ114に接続され、その接続された機器を制御する。また、マイク制御部331、雲台制御部333、及びセンサ制御部334は、接続された機器が正常に動作しているか等の状態を示す情報を、各機器から読み出す処理を行う。外部機器接続状態検出部335は、カメラアダプタ116に接続する機器の接続状態および各機器が正常に動作しているかなどのセルフチェック結果を読み出す機能を有する。外部機器接続状態検出部335は、マイク制御部331、カメラ制御部332、雲台制御部333、及びセンサ制御部334と通信し、各機能部から取得した外部機器の接続状態およびセルフチェック結果を、外部機器接続状態検出部335内のメモリに記憶する。なお、外部機器接続状態検出部335は、外部機器に電源が供給されていない場合は、ケーブルの接続状態のみを検出する。ケーブルの接続は、カメラアダプタ116のケーブル端子の1つをHIGHポートに設定しておき、ケーブルが接続されたときにLOWになるようにすることにより、ハードウェアレベルで検出することができる。
The external
(ハードウェア構成)
次に、カメラ運用端末130のハードウェア構成について、図11を用いて説明する。なお、カメラアダプタ116、タイムサーバ141、フロントエンドサーバ142、画像生成装置150、仮想カメラ操作端末160、及び制御ステーション170のハードウェア構成も、カメラ運用端末130の構成と同様である。
(Hardware configuration)
Next, the hardware configuration of the
カメラ運用端末130は、CPU1101、ROM1102、RAM1103、補助記憶装置1104、表示部1105、操作部1106、通信I/F1107、及びバス1108を有する。
The
CPU1101は、ROM1102やRAM1103に格納されているコンピュータプログラムやデータを用いてカメラ運用端末130の全体を制御することで、図1に示すカメラ運用端末130の各機能を実現する。なお、カメラ運用端末130がCPU1101とは異なる1又は複数の専用のハードウェアを有し、CPU1101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1102は、変更を必要としないプログラムなどを格納する。RAM1103は、補助記憶装置1104から供給されるプログラムやデータ、及び通信I/F1107を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1104は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
The
表示部1105は、例えば液晶ディスプレイやLED等で構成され、ユーザがカメラ運用端末130を操作するためのGUI(Graphical User Interface)などを表示する。操作部1106は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1101に入力する。CPU1101は、表示部1105を制御する表示制御部、及び操作部1106を制御する操作制御部として動作する。なお、本実施形態では表示部1105と操作部1106がカメラ運用端末130の内部に存在するものとするが、表示部1105と操作部1106との少なくとも一方がカメラ運用端末130の外部に別の装置として存在していてもよい。
The
通信I/F1107は、カメラ運用端末130の外部の装置との通信に用いられる。例えば、カメラ運用端末130が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1107に接続される。カメラ運用端末130が外部の装置と無線通信する機能を有する場合には、通信I/F1107はアンテナを備える。バス1108は、カメラ運用端末130の各部をつないで情報を伝達する。
The communication I /
(ワークフロー)
続いて、スタジアムや競技場、コンサートホールなどの施設に複数のカメラ112やマイク111を設置して撮影を行う際に実行されるワークフローについて説明する。図4は、ワークフローの全体像を概略的に示している。なお、以下で説明する処理は、特段の説明がない限り、カメラ運用端末130の制御により実現される。なお、カメラ運用端末130によって実行される処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。
(Workflow)
Next, a workflow executed when a plurality of
本ワークフローでは、まず、一連の処理の前に、画像処理システム100の設置や操作を行う操作者(ユーザ)が、設置前に必要な情報(事前情報)の収集や計画の立案等の設置前処理を行う。カメラ運用端末130は、この設置前処理により、事前情報に基づいてどのようにシステムの設置・撤収を行うか等の計画立案を行ったユーザから、その計画に応じた設定を受け付ける(S401)。
In this workflow, first, before a series of processes, an operator (user) who installs or operates the
なお、ここでの事前情報とは、例えば、施設情報、機器情報、運用情報を含む。施設情報は、例えば、撮像場所がスタジアムの場合、スタジアム情報であり、スタジアムの形状、音響、照明、電源、伝送環境、及びスタジアムの三次元モデルデータなどの情報を含む。機器情報は、例えば、カメラ、雲台、レンズ、及びマイク等の撮影機材、LAN、PC、サーバ、及びケーブル等の情報機器に関する情報を含む。なお、必ずしもこれらすべての情報が入力されなければならないわけではない。カメラ運用端末130は、機器情報が入力された撮影機材のうち、カメラ、雲台、及びマイクの配置情報に関する入力を受け付ける。配置情報は、上述のスタジアムの三次元モデルデータを利用して入力することができる。運用情報は、カメラ取付形態(高所作業など)、作業種別(作業段階)、作業時間、作業者人数、作業者スキルレベルなどの情報を含む。なお、運用情報は、撮影対象、撮影時間、カメラワーク、及び目標位置(カメラの光軸を向ける方向、注視点とも呼ぶ)などの情報を含んでもよい。例えば、撮影対象が陸上競技であるか、フィールド全面を使うサッカーであるかなどの競技種別に応じて、目標位置の変更と、カメラワークの制約条件の変更とが行われる。カメラ運用端末130は、これらの運用情報の組み合わせで構成される設定情報のテーブルを管理し、変更し、また、各種指示等の処理に用いる。
The prior information here includes, for example, facility information, device information, and operation information. The facility information is, for example, stadium information when the imaging location is a stadium, and includes information such as the shape of the stadium, sound, lighting, power supply, transmission environment, and three-dimensional model data of the stadium. The device information includes, for example, information on photographing equipment such as a camera, a pan head, a lens, and a microphone, and information devices such as a LAN, a PC, a server, and a cable. It should be noted that not all of this information must be entered. The
続いて、ユーザは対象となる施設に機材を設置する。そして、画像処理システム100の各装置は、ユーザからの操作に基づいてカメラ運用端末130から発行されたコマンドに従って、システムの動作確認のための処理を実行する(S402)。なお、機材の設置中はシステムが動作しないため、カメラ運用端末130とカメラアダプタ116とが逐次通信を行うことによって、設置時の運用管理を行う。機材の設置が完了した後に、設置されたカメラ112の調整が実行される。カメラ112の調整は、画角合わせと色合わせを含む。この調整は、設置されたカメラ112の全てについて実行される。なお、調整は、ユーザ操作に基づいて行われるようにしてもよいし、自動調整機能により実現されてもよい。また、画角合わせでは、ズーム、パン、チルト、及びフォーカスの調整が並行して同時に実行され、カメラ運用端末130は、それらの調整結果を取得して保存する。この処理については、後述する。
Subsequently, the user installs the equipment at the target facility. Then, each device of the
そして、ユーザは、競技等の前に、マイク111により集音された音声やカメラ112により撮影された画像の確認と、その確認結果に応じた調整等を含みうる撮影前処理を実行する(S403)。その後、カメラ運用端末130は、マイク111に集音を行わせ、カメラ112に撮影を実行させる(S404)。なお、S404での撮影はマイク111を用いた集音を含むものとするが、これに限られず、画像の撮影だけが行われてもよい。S404の処理は、S402での設定を変更するまで、または撮影を終了するまで継続的に実行される。S402での設定を変更する場合または撮影を終了する場合に、処理がS405に進められる。
Then, before the competition or the like, the user executes pre-shooting processing that may include confirmation of the sound collected by the
カメラ運用端末130は、S405において、S402での設定を変更して撮影を継続するユーザ操作が行われた場合(S405でYES)には処理をS406へ進め、撮影を完了するユーザ操作が行われた場合(S405でNO)には処理をS407へ進める。なお、この判定はユーザ操作に基づいて行われなくてもよく、カメラ運用端末130は、自律的に設定変更が必要であるか否かを判定してもよい。
In S405, when the
S406では、カメラ運用端末130は、S402で行われた設定を、新しい設定へと変更する。変更内容は、例えば、S405において取得されたユーザ操作に基づいて決定される。S406における設定の変更において撮影停止の必要がある場合は、一度撮影が停止され、設定が変更された後に撮影が再開される。また、撮影停止の必要がない場合は、撮影を継続しながら設定の変更が実行される。
In S406, the
S407では、カメラ運用端末130は、複数のカメラ112により撮影された画像及び複数のマイク111により集音された音声の編集の指示を発行する。なお、S407の処理は、S404の処理と並行して実行されてもよい。例えば、スポーツ競技やコンサートなどをリアルタイムに配信する(例えば競技中に競技の画像が配信される)等の場合は、S404の撮影が終わるのを待たずに、並行して撮影で得られたデータに対するS407の編集が実行される。一方、スポーツ競技におけるハイライト画像を競技後に配信する等の場合は、S405において撮影を終了した後に編集が実行される。
In S407, the
撮影及び編集が終了した後は、機材の撤収の処理が行われる(S408)。撤収処理は、例えば、S402で設置された機材の取外し作業等により、施設を設置前の状態に戻すことである。なお、上述の処理は、カメラ運用端末130において実行するとしたが、設置が完了して、システムの通常運用が可能となっている状態においては、制御ステーション170が処理を実行してもよい。すなわち、S403の撮影前処理以降の処理は、制御ステーション170によって実行されてもよい。(カメラの姿勢調整)
ここで、設置時処理(S402)として実行するカメラ112の調整について説明する。この調整は、画角合わせを含むことを先述したが、画角合わせでは、ズーム、パン、チルトの調整が、カメラ運用端末130の表示内容に基づいて実行される。
After the shooting and editing are completed, the equipment is withdrawn (S408). The withdrawal process is to return the facility to the state before installation, for example, by removing the equipment installed in S402. It is assumed that the above-mentioned processing is executed by the
Here, the adjustment of the
図5(A)は、カメラ運用端末130に表示される画面例を示しており、撮像領域であるフィールドと、複数のカメラの設置位置、及び各カメラの目標位置等が俯瞰的に示されている。図5(A)の例では、2つの目標位置A(510)とB(520)が設定され、26台のカメラのうち半数ずつがそれぞれの目標位置に光軸を向けるよう設定されることを示している。具体的には、Aグループのカメラが目標位置A(510)を向くように設置され、Bグループのカメラが目標位置B(520)を向くように設置されることを示している。また、調整すべきカメラと調整済みのカメラとが識別可能に表示されており、図5(A)の例ではカメラ530とカメラ550が調整すべきカメラであることが示されている。このような画面を、設置作業を担当するスタッフが有する別のカメラ運用端末130と共有することにより、スタッフは、設置すべきカメラを視覚的に認識することができ、誤りなく設置作業を行うことができる。また、このような画面を制御ステーション170と共有することにより、制御ステーション170を操作する管理者との意思疎通を図るとともに、適切な作業指示を受けることが可能となる。
FIG. 5A shows an example of a screen displayed on the
なお、カメラ運用端末130は、カメラアダプタ116の無線通信部302を介してカメラ530と通信し、設置済のカメラの情報を収集して表示する。本システムでは、デイジーチェーンによってセンサシステム110が接続されているため、カメラ運用端末130は、いずれかのセンサシステム110のカメラアダプタ116から、他のセンサシステムにおける情報を取得することができる。複数のカメラ運用端末130が使用される場合は、これらの複数のカメラ運用端末130の間で収集されるデータや表示されるデータが共有される。例えば、カメラ530と通信するカメラ運用端末130は、カメラ540を介してカメラ550の情報を収集可能であり、同様に、カメラ550と通信するカメラ運用端末130は、カメラ530の情報を収集可能である。また、カメラ運用端末130は、いずれも、カメラ540やカメラ560の情報を収集することができる。なお、データ入力および各種判断は、特定のユーザに操作権限を設定することによって制御されるようにしてもよい。また、情報の共有は、外部のネットワーク(例えば、システムを構築する設備内に設けた一時的なローカルエリアネットワーク)を介して行われてもよい。これによれば、センサシステム110間の接続が途切れている場合であっても、システム全体の機材の設置状況を収集することが可能となる。
The
図5(B)は、カメラの姿勢調整を説明するための図である。機材の設置作業において、カメラの設置は、施設の所定の位置に取り付けられる。当該設置位置は、世界座標値であって、X軸、Y軸、Z軸で定義された空間に、予め用意されたスタジアムの三次元モデルデータに基づいて設定される。カメラの設置済状態とは、水平方向X軸、鉛直方向Y軸、光軸方向Z軸の座標値が定まった状態である。また、姿勢調整は、この水平方向X軸、鉛直方向Y軸、光軸方向Z軸の座標値で定まった位置に対して、各軸の回転方向のXθ、Yθ、Zθについて調整を行う。本実施形態においては、雲台113が上記回転方向の3軸で調整可能な構成になっている。なお、設定された画角に調整するには、カメラの焦点距離も合わせて調整する作業が必要である。
FIG. 5B is a diagram for explaining posture adjustment of the camera. In the equipment installation work, the camera installation is installed in place in the facility. The installation position is a world coordinate value and is set in a space defined by the X-axis, the Y-axis, and the Z-axis based on the three-dimensional model data of the stadium prepared in advance. The installed state of the camera is a state in which the coordinate values of the horizontal X-axis, the vertical Y-axis, and the optical-axis Z-axis are fixed. Further, the posture adjustment adjusts Xθ, Yθ, and Zθ in the rotation directions of the respective axes with respect to the positions determined by the coordinate values of the horizontal X-axis, the vertical Y-axis, and the optical-axis Z-axis. In the present embodiment, the
図6は、カメラ運用端末130に表示される各カメラの状態を示す図である。横軸には、カメラごとの接続・設置状態に関するタスク名が表示されており、縦軸には、カメラごとのデータが表示されている。カメラごとの接続状態について、例えば、カメラID(カメラ識別情報)の横のSTATUS欄の情報によって、カメラ112とカメラアダプタ116との間のケーブルの接続状態が表示される。また、レンズIDの横のSTATUS欄の情報によって、例えばレンズを制御するためのケーブルがカメラアダプタ116に接続されているか否かが示される。なお、レンズIDの横のSTATUS欄の情報は、例えば外部センサ114によってレンズが適切に設定されているか否かを監視する準備ができているか否かを示してもよい。この場合、レンズIDの横のSTATUS欄の情報は、例えばレンズの監視用の外部センサ114がカメラアダプタ116に接続されているか否かを示す情報であってもよい。また、他のセンサシステム110との通信用のケーブルの接続状態や、その他の外部機器との接続状態を示す情報を、図6のようなテーブルの形式で管理されるようにしてもよい。なお、設置状態に関する表示は、ケーブル接続のみではなく、接続されている機器のセルフチェック結果、または、カメラ112やカメラアダプタ116を施設へ取り付けるための取付金具等への取付状態を含む。
FIG. 6 is a diagram showing a state of each camera displayed on the
また、設置STATUS欄602は、所定の位置へのカメラ112の設置が完了済みか否かを示し、姿勢調整STATUS欄603は、姿勢調整が完了済みか否かを示す。カメラが撮影を実行可能な状態となると、そのカメラに対応する行の全情報が「OK」となる。なお、少なくとも一部のセンサシステム110において、使用されない外部機器については、その状態を示す欄が用意されなくてもよいし、その状態を示す欄に「−」などの記号が記述されてもよい。例えば、図6の例では、カメラIDがCam03のカメラは、ケーブル等の接続や予め指定された位置への設置は完了しているが、姿勢調整は未完了であることを示している。
Further, the
本実施形態においては、カメラ112を設置すべき位置・姿勢において、撮影すべき画像(撮像範囲)を示すシミュレーション画像(推定画像)を用いて、カメラの姿勢調整を実行する。この姿勢調整時に用いる推定画像は、汎用アプリケーションで生成可能である。推定画像生成にあたり、施設の三次元データ(スタジアム三次元モデルデータ)を必要とする。また、推定画像の生成には、カメラのセンサ情報、カメラを設置すべき位置を示す座標、カメラの取るべき姿勢、焦点距離、目標位置の座標情報等のパラメータが必要である。これらのデータを用いて、三次元空間で、スタジアムの所定の位置にカメラを設置したときに撮影されるべき撮像範囲を示す推定画像推定画像が取得できる。より具体的には、スタジアムの三次元モデルデータをレーザスキャンで点群として取得し、これをメッシュデータに変換する。そして、設置するカメラの位置とそのカメラの目標位置の位置関係からカメラの姿勢を決め、焦点距離を設定することで、コンピュータグラフィックスの技術を用いて、そのカメラから撮影されるであろう画像を生成する。なお、スタジアムのCADデータ等からも同様のことを実現できる。
In the present embodiment, the posture of the camera is adjusted by using a simulation image (estimated image) showing an image to be photographed (imaging range) at a position and posture in which the
この推定画像を、設置するカメラ112ごとに生成しておき、カメラ運用端末130に、カメラIDと関連付けて画像データを記憶させる。なお、推定画像の記憶場所として、各カメラアダプタ116に記憶してもよく、各機器のメモリ容量やシステム構成に応じて適宜記憶場所を設定可能である。なお、推定画像は、カメラ運用端末130で生成してもよいし、カメラアダプタ116、制御ステーション170等で生成してもよい。また、本システムには含まれない別のPCなどの情報機器を用いて生成してもよい。
This estimated image is generated for each
図7(A)は、カメラ姿勢調整時に、調整作業の対象となるカメラが撮像しているリアルタイムな画像を、カメラ運用端末130で表示した一例である。また、調整対象となるカメラの推定画像の一例を図7(B)に示す。姿勢調整の作業としては、推定画像(図7(B))に対して、リアルタイム画像(図7(A))を合わせる。すなわち、作業担当者であるユーザは、リアルタイム画像として表示される画像が推定画像と略等しくなるように、雲台113を用いて、パン、チルト、そしてカメラ112の焦点距離(ズーム)を調整する。なお、調整の方法として、スタジアムの特徴点(例えば、観客席の角や、ゴールポストなどの競技固有の構造物)を目標として、合わせると作業がしやすい。また、推定画像の上に、調整すべき方向を示す矢印やガイド線などのガイド情報を重畳表示し、このガイド情報を用いて姿勢調整するようにしてもよい。
FIG. 7A is an example in which the
姿勢調整時のカメラ運用端末130の画面としては、例えば、図7(C)に示すように、リアルタイム画像(Rの表示)と推定画像(Sの表示)をオーバーレイ(重畳)させて表示させる。また、調整中に各々の画角が大きく異なる場合には、重畳表示では調整しにくい場合もあるので、図7(D)のようにリアルタイム画像と推定画像とを並べて表示させてもよい。また、図7(C)、(D)の表示をユーザの操作または自動で切り替えられるようにしてもよい。例えば、推定画像とリアルタイム画像とを画像解析することにより一致度(類似度)を判定し、各々の画角が大きく異なるときは図7(D)のように表示し、画角が所定の範囲内に近づくと図7(C)に切り替えるようにしてもよい。重畳表示と隣接表示のどちらの表示レイアウト(表示形態)をデフォルトで使用するかは、機器の設定として固定にしてもよいし、ユーザにより変更可能にしてもよい。
As the screen of the
続いて、図8を用いて、カメラの姿勢調整時の処理の流れについて説明する。なお、図8の処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。この処理は、例えば、図5(A)に示す画像からユーザから調整作業のカメラを指定することにより開始される。
Subsequently, the flow of processing at the time of adjusting the posture of the camera will be described with reference to FIG. The process of FIG. 8 is realized, for example, by the
まず、S801では、CPU1101は、調整作業の対象となるカメラIDを読み出す。次に、CPU1101は、読み出したカメラIDに対応する推定画像の読み出しを実行する(S802)。そして、同様にCPU1101は、カメラIDに対応するリアルタイム画像の読み出しを実行する(S803)。
First, in S801, the
S804では、CPU1101は、推定画像とリアルタイム画像のカメラ運用端末130における表示レイアウトの設定値を読み出す。この設定値は、上述したような推定画像とリアルタイム画像を並べて表示するか重畳して表示するかの設定を含む。
In S804, the
S805では、CPU1101は、読み出した設定値で示される表示レイアウトに従って、推定画像とリアルタイム画像とを同一画面上に表示する。S806では、カメラ運用端末130のユーザからの表示レイアウトの変更指示を受け付けたかどうかが判定される。表示レイアウト変更指示を受け付けた場合(S806でYES)は、S805に戻り、変更後の表示レイアウトに従って推定画像とリアルタイム画像とが表示される。変更指示を受けなかった場合(S806でNO)は、S807に進む。
In S805, the
ユーザはカメラ運用端末130に表示されているリアルタイム画像と推定画像を参照しながら、カメラ112の姿勢調整を実行することになる。また、カメラ運用端末130の表示内容や表示レイアウトの切替えを行いながら、設置作業を実行することになる。そして、姿勢調整が完了した場合、カメラ運用端末130において完了した旨の操作を行う。S807では、CPU1101は、姿勢調整が完了した旨のユーザ操作が行われたか否かを判定する。姿勢調整が完了した旨の操作が行われた場合(S807でYES)は、姿勢調整の処理を終了する。また、当該操作が行われると、図6の姿勢調整STATUS欄603に反映される。また、姿勢調整処理が終了すると、図5(A)の画面に表示を切り替えるようにしてもよい。
The user adjusts the posture of the
以上のように、本実施形態では、各カメラの設置作業を支援すべく、各カメラの設置すべき位置及び姿勢において撮影されるべき推定画像を予め生成しておく。そして、カメラの姿勢調整を行う際には、あらかじめ生成された推定画像を取得し、設置されたカメラにより撮像中のリアルタイム画像と共に表示する。ユーザは表示された推定画像とリアルタイム画像を見比べながらカメラの姿勢を調整することで、撮像領域にマーカーなどを設置せずとも、カメラの姿勢調整を効率的に行うことができる。 As described above, in the present embodiment, in order to support the installation work of each camera, an estimated image to be taken at the position and posture in which each camera should be installed is generated in advance. Then, when adjusting the posture of the camera, an estimated image generated in advance is acquired and displayed together with the real-time image being captured by the installed camera. By adjusting the posture of the camera while comparing the displayed estimated image with the real-time image, the user can efficiently adjust the posture of the camera without installing a marker or the like in the imaging area.
<第2の実施形態>
第1の実施形態においては、カメラの姿勢調整は、該当するカメラが設置・姿勢調整済の状態を各種パラメータとして与え、生成したシミュレーション画像(推定画像)を用いて、調整作業を実行した。しかしながら、スタジアムなどの施設においては、撮像領域のフィールドが広いため画角によっては、例えば芝生と競技種目のラインしか、撮影されない場合がある。こういった場合に、フィールドのどの位置に画角を合わせてよいか分かりにくい場合があった。本実施形態では、このようなケースにおいても調整作業の作業性を改善するための方法について説明する。
<Second embodiment>
In the first embodiment, the posture adjustment of the camera is performed by giving the state in which the corresponding camera has been installed and adjusted as various parameters and using the generated simulation image (estimated image). However, in facilities such as stadiums, since the field of the imaging area is wide, depending on the angle of view, for example, only the lawn and the line of the competition event may be photographed. In such a case, it was sometimes difficult to know which position in the field the angle of view should be adjusted. In the present embodiment, a method for improving the workability of the adjustment work will be described even in such a case.
図9は、本実施形態の調整作業を説明するための説明図である。調整作業対象のカメラの広角側リアルタイム画像(図9(A))および広角側推定画像(図9(B))、最終的な画角に調整中のリアルタイム画像(図9(C))、調整すべき画角の推定画像(図9(D))の例を示している。 FIG. 9 is an explanatory diagram for explaining the adjustment work of the present embodiment. Wide-angle side real-time image (Fig. 9 (A)) and wide-angle side estimated image (Fig. 9 (B)) of the camera to be adjusted, real-time image being adjusted to the final angle of view (Fig. 9 (C)), adjustment An example of an estimated image of the angle of view to be taken (FIG. 9 (D)) is shown.
本実施形態においては、最初から調整すべき画角の推定画像を表示させてリアルタイム画像を合わせこむのではなく、まずは広角側の推定画像を表示させ、広角側のリアルタイム画像を合わせる作業を実行する。広角側の画像には、例えばスタジアムの構造物(観客席など)が画角に入るように設定すると、推定画像に対してリアルタイム画像を合わせこむ作業(姿勢調整)が実行しやすい。そして、広角側で姿勢が調整できたならば、ユーザは、焦点距離を変更して、調整すべき画角に合わせるようにズームすればよい。なお、この広角側の姿勢調整は、厳密に行う必要はなく、最終的な画角において、正確に姿勢調整を行えばよい。 In the present embodiment, instead of displaying the estimated image of the angle of view to be adjusted from the beginning and matching the real-time image, the estimated image on the wide-angle side is first displayed and the real-time image on the wide-angle side is matched. .. If, for example, a stadium structure (audience seats, etc.) is set to fit in the angle of view of the image on the wide-angle side, it is easy to perform the work of matching the real-time image with the estimated image (posture adjustment). Then, if the posture can be adjusted on the wide-angle side, the user can change the focal length and zoom to match the angle of view to be adjusted. It is not necessary to strictly adjust the posture on the wide-angle side, and the posture may be adjusted accurately at the final angle of view.
また、焦点距離を変更(ズーム)後、調整すべき方向を示す画像(例えば901の矢印)をリアルタイム画像上に重畳させてもよい。また、設定すべき焦点距離を表示し、ユーザが焦点距離を調整するようにしてもよい。さらには、上述の例では、2段階の焦点距離での推定画像の表示の例について説明したが、広角側から調整すべき焦点距離まで、段階的に画角を変更したシミュレーション画像を用意して、表示を切り替えてもよい。すなわち、焦点距離の異なる複数の推定画像の中から、リアルタイム画像と共に表示する画像を選択的に切り替えて表示することができる。 Further, after changing (zooming) the focal length, an image indicating the direction to be adjusted (for example, the arrow 901) may be superimposed on the real-time image. Further, the focal length to be set may be displayed and the user may adjust the focal length. Furthermore, in the above example, an example of displaying an estimated image at two focal lengths has been described, but a simulation image in which the angle of view is changed stepwise from the wide-angle side to the focal length to be adjusted is prepared. , The display may be switched. That is, it is possible to selectively switch and display an image to be displayed together with a real-time image from a plurality of estimated images having different focal lengths.
図10を用いて、本実施形態の機材の設置時の調整処理の流れについて説明する。なお、図10の処理は、例えば、カメラ運用端末130のCPU1101がROM1102またはRAM1103に格納されたプログラムを実行することによって実現される。この処理は、図8の処理と同様に、例えば図5(A)に示す画像からユーザから調整作業のカメラを指定することにより開始される。
The flow of the adjustment process at the time of installing the equipment of the present embodiment will be described with reference to FIG. The process of FIG. 10 is realized, for example, by the
まず、S1001では、調整作業の対象となるカメラIDが読み出される。次に調整作業ステップ1として、当該カメラIDに対応する広角側の推定画像の読み出しが実行される(S1002)。そして、同様に当該カメラIDに対応するリアルタイム画像の読み出しが実行される(S1003)。 First, in S1001, the camera ID that is the target of the adjustment work is read out. Next, as the adjustment work step 1, reading of the estimated image on the wide-angle side corresponding to the camera ID is executed (S1002). Then, similarly, the real-time image corresponding to the camera ID is read out (S1003).
S1004では、読み出された広角側の推定画像と、リアルタイム画像が同一画面上に表示される。ここで、先述したようにユーザはリアルタイム画像を推定画像に対して合わせこむように、カメラ112の姿勢を調整する。S1005では、調整作業ステップ1の姿勢調整が完了したか否かが判定される。当該判定は、ユーザによる完了操作が行われたか否かによって判定される。ステップ1の姿勢調整が完了した旨の操作が行われた場合(S1005でYES)には、処理をS1006に進める。
In S1004, the read estimated image on the wide-angle side and the real-time image are displayed on the same screen. Here, as described above, the user adjusts the posture of the
S1006では、CPU1101は、対象となるカメラIDの焦点距離情報を読み出す。この焦点距離情報は、ユーザの操作により変更になった値が、カメラアダプタ116から逐次送信され、カメラ運用端末130で保持されている。CPU1101は、この焦点距離情報を用いて、調整作業用に表示する画像を切り替えるかどうかの判断を行う。この判断は、切り替える焦点距離の値を予め閾値として記憶し、その設定値を超えたかどうかを監視することによって実行される。焦点距離情報が設定値を超えた場合(S1006でYES)は、調整作業ステップ2で、画角調整作業用の画像を切り替える。
In S1006, the
調整作業ステップ2として、CPU1101は、カメラIDに対応する設置すべき画角の推定画像の読み出しを実行する(S1007)。そして、同様にCPU1101は、カメラIDに対応するリアルタイム画像の読み出しを実行する(S1008)。そして、S1009において、CPU1101は、読み出した推定画像とリアルタイム画像とを共に表示する。先述したようにユーザはリアルタイム画像を推定画像に対して合わせこむように、カメラ112の姿勢を調整する。S1010では、CPU1101は、ステップ2の姿勢調整が完了した旨のユーザ操作が行われたか否かを判定する。姿勢調整が完了した旨の操作を受け付けた場合(S1010でYES)は、姿勢調整の処理を終了する。
As the adjustment work step 2, the
なお、上記説明では、推定画像とリアルタイム画像の表示レイアウトについての説明は省略したが、第1の実施形態と同様に、重畳表示と隣接表示とを適宜切り替えながら行ってもよい。 In the above description, the description of the display layout of the estimated image and the real-time image has been omitted, but as in the first embodiment, the superimposed display and the adjacent display may be appropriately switched.
また、上記説明では、S1005にてユーザによるステップ1の姿勢調整が完了したかのユーザ操作が行われたことを待ってS1006に進むものとして説明したが、S1005の判定は省略してもかまわない。すなわち、焦点距離の値が上記閾値を超えたか否かを判定し、閾値を超えた場合にはステップ1の姿勢調整が完了したとみなして、S1007以降のステップ2の姿勢調整作業に進むようにしてもよい。 Further, in the above description, it has been described that the process proceeds to S1006 after waiting for the user's operation to confirm that the posture adjustment of step 1 has been completed by the user in S1005, but the determination of S1005 may be omitted. .. That is, even if it is determined whether or not the focal length value exceeds the threshold value, and if it exceeds the threshold value, it is considered that the posture adjustment in step 1 is completed, and the posture adjustment work in step 2 after S1007 is performed. Good.
また、S1006の判定処理を省略し、S1005にてユーザによるステップ1の調整作業が完了した旨の操作が行われたことをもって、S1007以降の処理に進むようにしても構わない。 Further, the determination process of S1006 may be omitted, and the process of S1007 or later may be proceeded when the operation to the effect that the adjustment work of step 1 is completed by the user is performed in S1005.
以上のように、本実施形態では、最終的に調整すべき画角の推定画像のほかに、より画角の広い推定画像を用意し、まずは当該広角側の推定画像とリアルタイム画像を比較することでカメラの姿勢調整を行う。そして、概ね姿勢調整が完了した段階で、最終的に調整すべき画角の推定画像に表示を切り替え、リアルタイム画像を合わせこむように姿勢調整を行う。これにより、最終的な画角の撮像範囲ではターゲットがわかりにくいような位置に設置されるカメラの姿勢調整であっても、効率的に行うことができる。 As described above, in the present embodiment, in addition to the estimated image of the angle of view to be finally adjusted, an estimated image having a wider angle of view is prepared, and first, the estimated image on the wide angle side is compared with the real-time image. Adjust the posture of the camera with. Then, when the posture adjustment is almost completed, the display is switched to the estimated image of the angle of view to be finally adjusted, and the posture is adjusted so as to match the real-time image. As a result, even the posture adjustment of the camera installed at a position where the target is difficult to understand in the imaging range of the final angle of view can be efficiently performed.
<その他の実施形態>
なお、上記説明では、カメラ112の姿勢調整が完了したことをユーザが判断し、ユーザの完了操作をもって姿勢調整を完了済みとする例について説明したが、姿勢調整が完了したか否かを自動的に判定するようにしてもよい。例えば、カメラ運用端末130において、公知の画像マッチング技術を用いて推定画像とリアルタイム画像の一致度(類似度)を算出し、算出した値に基づいて姿勢調整が完了したか否かを判定するようにしてもよい。また、カメラ112の姿勢調整についても、手動ではなく自動で調整するようにしてもよい。その場合も上記と同様に、カメラ運用端末130が推定画像とリアルタイムの一致度を算出し、推定画像とリアルタイム画像が一致するように、姿勢の調整指示をカメラアダプタ116に送信する。カメラアダプタ116は、受信した指示に基づいて雲台制御部333を制御することにより、カメラ112の姿勢を自動的に調整することができる。また、自動調整した後、微調整のためにユーザがさらに手動で調整しても構わない。
<Other Embodiments>
In the above description, an example has been described in which the user determines that the posture adjustment of the
また、上記説明では、2つの目標位置を設定し、26台のカメラ112がそのいずれに光軸を向けるよう姿勢を調整する例について説明したが、目標位置の数はこれに限るものではない。例えば、すべてのカメラ112の目標位置を異なる位置に設定した場合であっても、適用可能である。
Further, in the above description, an example of setting two target positions and adjusting the posture so that the 26
また、上記説明では、カメラ運用端末130において推定画像やリアルタイム画像を表示し、カメラ112の姿勢調整を支援する方法について説明したが、他の装置を用いても構わない。例えば、カメラアダプタ116や制御ステーション170にて上記の画面を表示し、調整作業を行うユーザを支援するようにしてもよい。その場合、例えば制御ステーション170から、推定画像を記憶しているカメラ運用端末130等に対して、調整対象のカメラIDを送信し、対応する推定画像を取得して表示するようにすればよい。また、制御ステーション170を操作している管理者は、カメラ112の調整作業をしているユーザに対して電話等で具体的な調整内容を指示してもよいし、カメラアダプタ116を介した遠隔操作によりカメラ112の姿勢を調整してもよい。
Further, in the above description, a method of displaying an estimated image or a real-time image on the
また、上記説明では、複数のカメラにより撮像領域を異なる方向から撮像した画像と、指定された仮想視点とに基づいて生成される仮想視点画像生成システムに関して説明したが、他のカメラシステムにも適用可能である。 Further, in the above description, the virtual viewpoint image generation system generated based on the images captured from different directions by a plurality of cameras and the designated virtual viewpoint has been described, but it is also applied to other camera systems. It is possible.
例えば、複数のカメラにより異なる方向から撮像した画像を、適宜切り替えて表示するシステムや、複数のカメラがそれぞれ異なる領域を撮影する監視カメラシステムにも適用可能である。また、複数のカメラで撮像するシステムに限らず、1台のカメラで撮像する場合であって、そのカメラの設置位置、姿勢を予め決められた位置、姿勢に調整するようなユースケースにも、適用可能である。 For example, it can be applied to a system in which images captured from different directions by a plurality of cameras are appropriately switched and displayed, and a surveillance camera system in which a plurality of cameras capture different areas. In addition, it is not limited to a system that captures images with multiple cameras, but also for use cases where the installation position and posture of the cameras are adjusted to predetermined positions and postures when imaging with one camera. Applicable.
以上のように、上記各実施形態では、撮像装置を設置すべき位置及び姿勢において撮像されるべき撮像範囲を示す画像を、実際に当該撮像装置が現在設置されている位置及び姿勢において撮像された画像と、を比較可能に表示する。これにより、撮像装置の設置作業を行うユーザは、当該画像を見比べながら撮像装置の姿勢を調整することで、撮像装置の姿勢調整を容易かつ効率的に行うことが可能となる。 As described above, in each of the above-described embodiments, the image indicating the imaging range to be imaged at the position and posture in which the imaging device should be installed is captured at the position and posture in which the imaging device is actually installed. The image is displayed in a comparable manner. As a result, the user who installs the image pickup device can easily and efficiently adjust the posture of the image pickup device by adjusting the posture of the image pickup device while comparing the images.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 画像処理システム
110 センサシステム
116 カメラアダプタ
120 スイッチングハブ
130 カメラ運用端末
140 画像コンピューティングサーバ
150 画像生成装置
160 仮想カメラ操作端末
170 制御ステーション
100 Image processing system 110
Claims (17)
前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像を取得する第1の取得工程と、
前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像を取得する第2の取得工程と、
前記第1の取得工程において取得した前記第1の画像と共に、前記第2の取得工程において取得した前記第2の画像を表示させる表示工程と、
を有することを特徴とする方法。 It is a method of supporting the adjustment of the posture of each imaging device in a system in which an imaging region is imaged from different directions by a plurality of imaging devices.
A first acquisition step of acquiring a first image which is an image to be captured by the image pickup device at a position and a posture in which one of the plurality of image pickup devices should be installed.
A second acquisition step of acquiring a second image which is an image captured by the image pickup device at the position and orientation in which the image pickup device is currently installed, and
A display step of displaying the second image acquired in the second acquisition step together with the first image acquired in the first acquisition step.
A method characterized by having.
前記表示工程では、焦点距離の異なる前記複数の画像の中から、前記第2の画像と共に表示させる画像を選択的に切り替えることを特徴とする請求項1から4のいずれか一項に記載の方法。 In the first acquisition step, a plurality of images having different focal lengths are acquired as the first image, and the images are acquired.
The method according to any one of claims 1 to 4, wherein in the display step, an image to be displayed together with the second image is selectively switched from the plurality of images having different focal lengths. ..
前記生成工程において生成された前記第1の画像を記憶させる記憶工程と、を有することを特徴とする請求項1から8のいずれか一項に記載の方法。 The generation step of generating the first image and
The method according to any one of claims 1 to 8, further comprising a storage step of storing the first image generated in the generation step.
前記記憶工程では、前記複数の撮像装置それぞれを識別するための識別情報に対応づけて、前記第1の画像が記憶されることを特徴とする請求項9または10記載の方法。 In the generation step, the first image is generated for each of the plurality of imaging devices.
The method according to claim 9 or 10, wherein in the storage step, the first image is stored in association with identification information for identifying each of the plurality of imaging devices.
前記複数の撮像装置のうちの一つの撮像装置が設置されるべき位置及び姿勢において前記撮像装置により撮像されるべき画像である第1の画像と、前記撮像装置が現在設置されている位置及び姿勢において前記撮像装置により撮像された画像である第2の画像と、を取得する取得手段と、
前記取得手段により取得した前記第1の画像と共に前記第2の画像を表示させる表示制御手段と、
を有することを特徴とする情報処理装置。 An information processing device that supports adjustment of the posture of each imaging device in a system that images an imaging region from different directions by a plurality of imaging devices.
The first image, which is an image to be captured by the imaging device at the position and orientation in which one of the plurality of imaging devices should be installed, and the position and orientation in which the imaging device is currently installed. A second image, which is an image captured by the image pickup device, and an acquisition means for acquiring the image.
A display control means for displaying the second image together with the first image acquired by the acquisition means, and
An information processing device characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019092774A JP2020188395A (en) | 2019-05-16 | 2019-05-16 | Method, information processing device, and program supporting adjustment of posture of imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019092774A JP2020188395A (en) | 2019-05-16 | 2019-05-16 | Method, information processing device, and program supporting adjustment of posture of imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020188395A true JP2020188395A (en) | 2020-11-19 |
Family
ID=73222154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019092774A Pending JP2020188395A (en) | 2019-05-16 | 2019-05-16 | Method, information processing device, and program supporting adjustment of posture of imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020188395A (en) |
-
2019
- 2019-05-16 JP JP2019092774A patent/JP2020188395A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11750792B2 (en) | Information processing apparatus, image generation method, control method, and storage medium | |
US20230283757A1 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
KR102129792B1 (en) | Information processing device, image generation method, control method and program | |
US11190673B2 (en) | Control device, control method, and program | |
JP6482498B2 (en) | Control device, control method, and program | |
JP2019191989A (en) | System for, method of, and program for generating virtual viewpoint image | |
JP2019036791A (en) | Image processing apparatus, image processing system, control method, and program | |
WO2020045186A1 (en) | Information processing device, method, and program | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
JPWO2013014872A1 (en) | Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program | |
JP2019134428A (en) | Control device, control method, and program | |
JP2019050593A (en) | Image processing system, image processor, control method, and program | |
JP2020188395A (en) | Method, information processing device, and program supporting adjustment of posture of imaging device | |
US20230328355A1 (en) | Information processing apparatus, information processing method, and program | |
JP2021087104A (en) | Method of supporting adjustment of posture of imaging apparatus, information processing device, and program | |
JP6632703B2 (en) | CONTROL DEVICE, CONTROL METHOD, AND PROGRAM | |
JP7129283B2 (en) | Processing device, control method, and program | |
JP2019075740A (en) | Image processing system, image processing apparatus, image transmission method, and program | |
JP7297969B2 (en) | Information processing device, program, generation method, and system | |
JP7204789B2 (en) | Control device, control method and program | |
JP2019096926A (en) | Image processing system, image processing method and program |