JP7289754B2 - 制御装置、制御方法、及びプログラム - Google Patents

制御装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP7289754B2
JP7289754B2 JP2019146278A JP2019146278A JP7289754B2 JP 7289754 B2 JP7289754 B2 JP 7289754B2 JP 2019146278 A JP2019146278 A JP 2019146278A JP 2019146278 A JP2019146278 A JP 2019146278A JP 7289754 B2 JP7289754 B2 JP 7289754B2
Authority
JP
Japan
Prior art keywords
imaging device
imaging
image
area
marker pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019146278A
Other languages
English (en)
Other versions
JP2021027544A5 (ja
JP2021027544A (ja
Inventor
靖 四方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019146278A priority Critical patent/JP7289754B2/ja
Priority to US16/940,810 priority patent/US11483470B2/en
Publication of JP2021027544A publication Critical patent/JP2021027544A/ja
Publication of JP2021027544A5 publication Critical patent/JP2021027544A5/ja
Application granted granted Critical
Publication of JP7289754B2 publication Critical patent/JP7289754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Processing Or Creating Images (AREA)
  • Focusing (AREA)

Description

本発明は、撮像装置を制御する制御技術に関する。
近年、複数の撮像装置を異なる位置に設置し、複数の撮像装置が同期して被写体を撮像し、その撮像で得られた複数の視点の画像を用いて、撮像装置の設置位置の画像だけでなく任意の視点の画像を仮想視点画像として生成する技術が注目されている。複数の視点の画像に基づく仮想視点画像の生成および閲覧は、例えば次のようにして実現することができる。まず、複数の撮像装置を、被写体を囲むように設置し、それら複数の撮像装置により撮像した画像がサーバなどの画像生成装置に集約される。そして、画像生成装置は、複数の撮像装置が撮像した画像を用いて、仮想視点に基づくレンダリングなどの処理を施して仮想視点画像を生成し、その仮想視点画像をユーザの視聴端末に送る。これによりユーザの視聴端末は、仮想視点画像を表示することができる。この仮想視点画像を生成する技術によれば、例えばサッカーやバスケットボールの試合を撮像した画像から、画像コンテンツ制作者により指定された視点に応じた仮想視点画像を生成することで、迫力のある視点のコンテンツの制作が可能となる。また、コンテンツを視聴しているユーザ自身が視聴端末に備えたコントローラやタブレット等を使用して視点を移動させ、画像生成装置がその視点に応じた仮想視点画像を生成することも可能である。この場合、ユーザは、自身の好みの視点で、試合を観戦することができる。このような仮想視点画像を用いたサービスは、視点を変更できない従来の撮像画像と比較して、ユーザにその場面にいるような臨場感を与えることができる。特許文献1には、注視点を囲むように複数の撮像装置を設置し、それら複数の撮像装置で撮像した画像を利用して、ユーザが指定した仮想視点から見た仮想視点画像を生成する技術が開示されている。
特開2014-215828号公報
複数の撮像装置で撮像した画像を用い、注視点付近で発生するシーンに対する仮想視点画像を生成するような場合、それら複数の撮像装置は注視点付近にフォーカスが合うようなフォーカス調整がなされている必要がある。そのフォーカス調整の方法として、設置されたマーカーを用いて、当該マーカーにフォーカスが合うように撮像装置のフォーカス調整が行われることが考えられる。
しかし、マーカーを設置する対象によっては、設置可能な時間が制限されるなど、フォーカス調整に十分な時間が確保できない可能性が生じる。そのため、各撮像装置のフォーカス調整は短い時間で行う必要がある。
そこで、本発明は、短い時間で撮像装置のフォーカス調整を実施可能にすることを目的とする。
本発明は、撮像装置を制御する制御装置であって、前記撮像装置を含む複数の撮像装置によって撮像される撮像対象領域内で、前記撮像装置のフォーカスを合わせる領域を特定する領域特定手段と、前記撮像装置により取得された画像から、前記撮像対象領域内で移動する特定のマーカーパターンを検出する検出手段と、前記撮像装置により取得された画像内で前記撮像装置のフォーカスを合わせる域か前記特定のマーカーパターン検出に基づき当該特定のマーカーパターンを使用して前記撮像装置のフォーカス調整を実施する実施手段と、を有することを特徴とする。
本発明によれば、短い時間で撮像装置のフォーカス調整を実施可能になる。
複数の撮像装置の配置例および撮像装置毎の注視点を示す図である。 システム構成例を示す図である。 第1の実施形態に係る制御部の構成例を示す図である。 被写体までの距離とボケ量の関係を示す図である。 フォーカス合わせの例を示す図である。 フォーカス合わせの他の例を示す図である。 フォーカスを合わすべきエリアを画面上に明示した例を示す図である。 各撮像装置とフィールドの3D座標空間での位置関係を示す図である。 撮像装置の撮像画像上の座標と3D座標との位置関係を示す図である。 第1の実施形態のマーカーパターン例を示す図である。 マーカーパターンを印刷したボードを人が持つ例を示す図である。 フィールド上でマーカーパターンを動かす例を示す図である。 第1の実施形態の制御部における処理のフローチャートである。 フォーカス領域特定処理のフローチャートである。 簡易位置推定処理のフローチャートである。 第2の実施形態に係る制御部の構成例を示す図である。 第2の実施形態の制御部における処理のフローチャートである。 第2の実施形態のマーカーパターン例を示す図である。 ハードウェア構成例を示す図である。
以下、本発明の実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1は、第1の実施形態の制御装置により制御される複数の撮像装置の概略的な配置例を示す図である。図1に示すように、複数の撮像装置101~110はそれぞれ異なる位置に設置され、それら撮像装置101~110は被写体等を同期撮像する。図1の例の場合、サッカースタジアムのフィールド130が撮像対象領域となされており、複数(10台)の撮像装置101~110がフィールド130を囲むように配置されている。撮像装置101~110は、それぞれオートフォーカス機能を備え、また、各々の撮影方向、レンズの焦点距離、およびフォーカス位置などの遠隔制御が可能となされている。
本実施形態の場合、撮像装置101~110は、それぞれ異なる注視点111~120の方向を向くように、それぞれの撮影方向が調整されている。注視点は、撮像装置の光軸とフィールドとの交点もしくはその交点近傍の点である。また、撮像装置101~110それぞれが向けられる注視点111~120は、着目位置として事前に設定されていてもよい。なお、図1では、撮像装置101~110がそれぞれ異なる注視点111~120の方向を向いた例を挙げたが、一つ以上の撮像装置からなるグループ(撮像装置群)毎に、それぞれ異なる注視点を持つように設定されていてもよい。
第1の実施形態では、撮像装置毎に注視点が異なる場合において、撮像装置101~110それぞれで実施されるフォーカス調整について述べる。なお、図1の例では、撮像装置の台数は10台となっているが、10台に限定されるものではない。また図1では、注視点111~120が、フィールド130の半面側に配置された例を挙げているが、これに限定されずフィールド全面に配置されてもよい。撮像装置101~110をそれぞれ設置する位置は、スタジアム毎に事前に調査し、観客の観戦を妨げないことや、仮想視点画像を生成するために必要となる撮像装置の設置間隔、設置方法等、様々な条件を考慮して決定される。このため、スタジアム毎に各撮像装置の設置位置や、撮像装置からフィールドまでの距離、撮像装置が設置されるフィールドからの高さ等は異なる。また、撮像装置のレンズの焦点距離は、各撮像装置から注視点までの間の距離と、仮想視点画像を生成する範囲、および生成される仮想視点画像の中に含まれる被写体画像の解像度等を考慮して決定される。
図2は、図1に示した撮像装置101~110と、制御装置200と、それら撮像装置101~110と制御装置200とを繋ぐハブ210と、を有したシステムの概略的な構成例を示す図である。
本実施形態の制御装置200は、撮像装置101~110をそれぞれ制御する機能と、それら撮像装置101~110が撮像した複数視点の画像を用いて任意の視点の仮想視点画像を生成する機能と、を有している。複数の撮像装置101~110によってそれぞれ撮像された画像データは、ハブ210を介して、制御装置200の仮想視点画像生成部230へ送られる。
仮想視点画像生成部230は、仮想視点生成部240によって設定された仮想撮像装置の位置と撮影方向とに基づいて仮想視点画像250を生成する。詳細説明は省略するが、仮想視点画像生成部230は、各撮像装置にて撮像された撮像画像から前景と背景を分離し、前景から3D(3次元)モデルを生成し、その3Dモデルに仮想撮像装置から見たときの色をレンダリングすることで仮想視点画像を生成する。なお仮想視点画像を生成するアルゴリズムはこれに限るものではなく、ビルボード方式など、3Dモデルを作らない方式であってもよい。
UI部260は、操作者が、各撮像装置における撮像や撮像装置の状態等を指示する際に使用されるユーザインタフェース部である。UI部260は、画像等を表示する表示装置と、操作者からの操作に応じた操作情報を取得する操作部とを有する。操作者は、UI部260への操作を通じて、撮像装置に対し、撮影開始や撮影終了、焦点距離の設定、シャッタースピードの設定、絞りの設定、感度の設定、およびフォーカス位置の設定等のための指示を行うことができる。
制御部220は、UI部260を介して操作者から入力された指示を基に、撮像装置101~110の撮影動作、撮影方向、焦点距離、シャッタースピード、絞り、感度、およびフォーカス位置等をそれぞれ制御する。
なお、システム構成は図2に示した例に限定されるものではなく、ハブ210を介さずに、撮像装置101~110が直接、制御部220や仮想視点画像生成部230に接続されていてもよい。また、撮像装置101~110は、デイジーチェーン接続されていてもよい。
図3は、制御部220が有する各機能を示した図である。なお図3には、ハブ210およびUI部260も描かれている。
制御部220は、画像取得部321、パラメータ取得部322、コマンド送信部323、被写界深度計算部324、およびフォーカス設定部325を有する。さらに、制御部220は、領域特定部326、マーカー検出部327、マーカー登録部328、位置推定部329、関連情報入力部330、および保存部331を有する。
画像取得部321は、ハブ210を介して、撮像装置101~110がそれぞれ連続的に撮像した画像データ(つまり動画の画像データ)を取得し、領域特定部326、位置推定部329、マーカー検出部327、保存部331、およびUI部260へ送る。
UI部260は、前述したように撮像装置101~110からの画像を表示装置に表示し、また操作部を介した操作者の操作に応じた操作情報を取得する。操作者は、撮像装置101~110からの画像を見ながら、操作部を操作することで、所望の撮像装置について、画角、撮影方向、あるいは絞り値による露出等を操作して、当該撮像装置に対する調整を行える。また操作者は、UI部260の表示装置に表示された画像により、各撮像装置におけるフォーカス状態についても目視確認することができる。さらに操作者は、UI部260の操作を通じて、撮像装置101~110の個々の撮像装置だけでなく、一つ以上の撮像装置からなるグループ毎の各撮像装置を操作すること、あるいは全ての撮像装置を一括して操作することも可能である。
パラメータ取得部322は、ハブ210を介して、撮像装置101~110からそれぞれ撮影パラメータを取得する。撮影パラメータは、撮像装置101~110のそれぞれの撮像装置における現在のズーム値、絞り値、露出値、フォーカス値、画面内のどの位置でフォーカスや露出を合わせているかなどの情報である。これらの撮影パラメータは、撮像装置101~110のそれぞれの撮像時における状態を表す情報でもある。
マーカー検出部327は、画像取得部321が取得した撮像画像から、後述する特定のマーカーパターンを検出し、そのマーカーパターンの画像内での座標を特定する。マーカーパターンに関する詳細説明は後述する。
マーカー登録部328は、一つ以上のマーカーパターン画像、もしくはそのマーカーパターン画像の特徴量が、登録(記憶)されている。マーカー登録部328は、ハードディスクもしくは半導体メモリに、それらマーカーパターン画像もしくは特徴量の情報を保存している。マーカー登録部328に登録されるマーカーパターン画像もしくは特徴量の情報は、予め用意されていてもよいし、外部装置等から取得されてもよい。
保存部331は、画像取得部321が取得した画像の一部もしくは全てを保存する。また保存部331は、保存した画像を撮像した撮像装置における前述した撮影パラメータの情報についても当該画像に対応付けて保存する。保存部331に保存された画像と撮影パラメータは、UI部260の表示装置上に表示することも可能である。撮像装置101~110でフォーカス処理等が実施された時に撮像された画像および撮影パラメータの情報をUI部260の表示装置上に表示した場合、操作者は、各撮像装置の状態を目視で確認することができる。つまり操作者は、各撮像装置で撮像された画像の状態、各撮像装置のフォーカス値および画像内でフォーカスが合った位置でのフォーカス状態、ズーム値、絞り値、および露出値などの、各撮像装置の状態を目視で確認することができる。
被写界深度計算部324は、パラメータ取得部322が撮像装置101~110から取得した撮影パラメータをもとに、撮像装置101~110のそれぞれの撮像装置について、フォーカスを合わせる位置における被写界深度を計算する。
関連情報入力部330は、外部から、スタジアム形状に関する情報を取得して保持する。スタジアム形状に関する情報は、スタジアムの3D形状モデルデータ、およびスタジアム内におけるフィールド130の位置および大きさを示す3次元座標情報を含んだ情報である。以後の説明ではこれらをまとめてスタジアム関連情報と記載する。関連情報入力部330は、スタジアム関連情報を、ハードディスクもしくは半導体メモリなどに記憶することで保持する。
位置推定部329は、撮像装置101~110の撮像装置毎に、フィールド130に対する撮像装置の相対的な位置、および、フィールド130に対する撮像装置の相対的な姿勢を推定する。位置推定部329は、関連情報入力部330が保持しているスタジアム関連情報と、画像取得部321が撮像装置101~110からそれぞれ取得した撮像画像とを基に、フィールド130に対する各撮像装置のそれぞれの相対的な位置および姿勢を推定する。
領域特定部326は、画像取得部321から取得した画像と、撮像装置101~110の各撮像装置とフィールド130との間のそれぞれの相対位置とから、撮像装置毎にフォーカスを合わすべき領域を特定する。撮像装置毎のフォーカスを合わすべき領域の説明は後述する。相対位置は、前述した位置推定部329によって推定された相対的な位置である。
フォーカス設定部325は、撮像装置の画角内、つまり撮像装置が撮像する領域内においてフォーカスを合わせる位置を、任意の位置に設定する。フォーカス設定部325は、画角中心(撮像装置が撮像する領域の中心)だけでなく、当該画角中心から外れた位置をも、フォーカスを合わせる位置として設定することができる。本実施形態の場合、フォーカス設定部325は、撮像対象領域であるフィールド130のなかで、ある撮像装置に対して領域特定部326がフォーカスを合わすべきとして特定した領域を、当該撮像装置のフォーカスを合わせる位置として設定する。フォーカスを合わすべきとして特定される領域の詳細は後述する。フォーカス設定部325は、撮像装置101~110の各撮像装置について、領域特定部326がフォーカスを合わすべきとしてそれぞれ特定した領域を、それぞれ対応した撮像装置のフォーカスを合わせる位置として設定する。
コマンド送信部323は、撮影制御に関連する各種のコマンドを生成し、それらコマンドを、ハブ210を介して撮像装置101~110のそれぞれ撮像装置に送信する。本実施形態の場合、コマンド送信部323は、撮影開始、撮影終了、ズーム設定、および絞り値設定などを指令するコマンドや、フォーカス処理に関するコマンドなどを生成して撮像装置101~110に送信する。本実施形態の場合、フォーカス処理に関するコマンドは、撮像装置におけるフォーカス処理の開始、中断、終了の指令、および撮像装置が画面内でフォーカスを合わせる位置などを、それぞれ指令するコマンドである。実際のフォーカス処理は、それぞれ撮像装置側で行われる。
ここで、本実施形態の場合、撮像装置101~110のフォーカス調整は、領域特定部326がフォーカスを合わせるべきとして特定した領域で行われる。以下、フォーカスを合わすべきとして特定される領域について説明する。
まず撮像装置(カメラ)のレンズのボケ量に関して説明する。
図4は、ある絞り値とフォーカス値において、撮像装置から被写体までの距離とボケ量との関係を示した図である。撮像装置のフォーカスは、被写体位置である合焦点440に合わせられているとする。なお合焦はフォーカスと同じ意味であるとする。このとき、合焦点440から手前側(撮像装置側)に近づくほどボケ量は急激に増加し、逆に遠方側(奥側)に離れるほどボケ量は少しずつ増加する。ここで、被写界深度および人間の目の解像度などを基に、人間が目で見て分からない程度のボケ量を許容ボケ量410と定義すると、フォーカスが合っているとみなせる範囲は、合焦範囲450として表せる。合焦範囲450の前端451は合焦点440からの距離がAで、後端453は合焦点440からの距離がB+Cであるとすると、合焦範囲450の中心452は、合焦点440よりも後方になる。なお、距離A+Bは距離Cと同じである。
図5は、撮像装置101~110のうちの一つを表した撮像装置501におけるフォーカス合わせの説明に用いる図である。図5の例において、撮像装置501のフォーカスは、注視点580に合っている(つまり注視点580が合焦点440である)とする。合焦範囲560は、図4の合焦範囲450のようにフォーカスが合っているとみなせる範囲であり、前端551は図4の前端451、後端553は図4の後端453であるとする。またフィールド520は、図1のフィールド130であるとする。
図5の例は、フィールド520よりも合焦範囲560が広い場合を示している。このようにフィールド520よりも合焦範囲560が広い場合、合焦範囲560の前端551と後端553とは、フィールド520の外になる。この場合、仮想視点画像を作成するために必要となる、合焦が保証されるべき領域(合焦保証領域570とする)は、撮像装置501に近い側のフィールド端(前端581)から遠い側のフィールド端(後端583)までの領域となる。
図6は、撮像装置501のフォーカス合わせの説明に用いる別の図であり、図5の例と同様に表されている。ただし、図6は、合焦範囲560よりもフィールド520の方が広い場合、換言するとフィールド520に対して合焦範囲560が狭い場合の例を示している。図6の例のように、合焦範囲560よりもフィールド520の方が広い場合、合焦範囲560の前端551と後端553とは、フィールド520の内側になる。そして図6の例の場合、仮想視点画像を作成するために必要となる、合焦が保証されるべき合焦保証領域570は、合焦範囲560で表される領域と同一になる。つまり、図6の例の場合、当該合焦保証領域570の前端581は合焦範囲560の前端551と一致し、合焦保証領域570の後端583は合焦範囲560の後端553と一致する。
そして、撮像装置501のフォーカス合わせは、少なくとも、注視点580とその近傍のエリア(注視点エリア530とする。)の中で行われる必要がある。さらにそれに加え、本実施形態の場合、合焦保証領域570の前端581を含むエリア(前方エリア540とする)と、合焦保証領域570の後端583を含むエリア(後方エリア550とする)の中でも撮像装置501のフォーカス合わせを行う。本実施形態の場合、領域特定部326が、撮像装置101~110の撮像装置毎に、当該撮像装置の撮像画像上で、注視点エリア530、前方エリア540、及び後方エリア550を、それぞれフォーカスを合わすべき領域として特定する。
図7は、撮像装置101~110のうち一つの撮像装置501の撮像画像が、UI部260の表示装置に表示された場合の撮像画面700の例を示した図である。領域特定部326によってフォーカスを合わすべき領域として特定された注視点エリア530、前方エリア540、及び後方エリア550を、撮像画面700上に表した場合には、図7に示すようになる。なお図7では、一つの撮像装置501の撮像画面700を例に挙げたが、撮像装置101~110の各撮像装置における撮像画面と注視点エリア、前方エリア、及び後方エリアはそれぞれ異なる。
ここで、それら注視点エリア530等において撮像装置501のフォーカス合わせを行うには、フィールド130の3D(3次元)座標空間内における撮像装置501の位置および姿勢と注視点580と合焦保証領域570との間の位置関係を求める必要がある。
図8は、3D座標空間内における撮像装置101~110の各位置および各姿勢とフィールド130との間の位置関係を表した図である。図8には、フィールド130の中心の3D座標を原点(0,0,0)とした場合の撮像装置101~110の3D座標(X1,Y1,Z1)~(X10,Y10,Z10)が示されている。また図8において、フィールド130のX軸上(長辺方向)の一方の端の3D座標は(Xf,0,0)、他方の端の3D座標は(-Xf,0,0)であるとする。同様に、フィールド130のY軸上(短辺方向)の一方の端の3D座標は(0,Yf,0)、他方の端の3D座標は(0,-Yf,0)であるとする。フィールド130の3D座標は、前述した関連情報入力部330が保持しているスタジアム関連情報に含まれる、フィールド130の3次元座標情報から得ることができる。また、フィールド130の実サイズは、フィールド130の3次元座標情報とスタジアムの3D形状モデルデータとから求めることができる。そして、フィールド130の実サイズがわかれば、撮像装置101~110のそれぞれからフィールド130の端までの距離や方向が把握できる。本実施形態の場合、位置推定部329が、スタジアム関連情報を用いた簡易的な処理によって、撮像装置101~110のそれぞれからフィールド130の端までの距離および方向を推定する。
また、位置推定部329は、撮像装置101~110のそれぞれズーム値に応じた撮像画像の2次元(2D)座標系と、撮像装置101~110に対して共通の前述した3次元座標系との間のマッピング情報も求める。ここでは、撮像装置101~110のうち、図8および図9に示した撮像装置109と、当該撮像装置109の注視点119とを例に挙げる。この例の場合、位置推定部329は、撮像装置109の注視点119の3次元座標(Xn,Yn,Zn)が、当該撮像装置109の撮像画像上(撮像装置109の撮像センサ面940上)における注視点930の2次元座標(Xm,Ym)に該当することを求める。
また本実施形態の場合、マーカー登録部328に登録されたマーカーパターンを印刷等したボードを動体により移動させ、当該動体が注視点エリア、前方エリア、及び後方エリアに入った際に、撮像装置のフォーカス合わせを行う。つまり、サッカーの試合などに用いられるフィールドは、撮像装置がフォーカス合わせを行える特徴が少ないため、動体に配されたボード上のマーカーパターンを用いてフォーカス合わせを行うようにする。
図10(A)~図10(C)は、特定のマーカーパターンの例を示した図である。図10(A)に示したマーカーパターンは、注視点エリアでのフォーカス合わせに使用される注視点用マーカーパターンの一例である。図10(B)に示したマーカーパターンは、前方エリアでのフォーカス合わせに使用される前方用マーカーパターンの一例である。図10(C)に示したマーカーパターンは、後方エリアでのフォーカス合わせに使用される後方用マーカーパターンの一例である。なお使用されるマーカーパターンの数(種類)は、この例より多くても、あるいは少なくてもよい。
図11は、マーカーパターンを印刷等したボードが配される動体の一例として人1101を挙げ、その人1101が、マーカーパターンの印刷等されたボードを保持(持つ)している状態を示した図である。マーカーパターンを印刷等したボードが配される動体は、人に限定されず、車両やドローンなどであってもよい。これら動体は、フィールド上を所定の速度で動く。なお、マーカーパターンは、動体が保持する場合の他、例えばプロジェクタによってフィールド上に投影されてもよい。
図12(A)と図12(B)は、人などの複数の動体、例えば少なくとも三つの動体1201~1202がフィールド1200(図1のフィールド130)上を動くルートの一例を示した図である。例えば動体1202はフィールド1200の中央部付近を図中の矢印に示すように移動し、動体1201と1203はそれぞれフィールド1200の端部付近を図中矢印で示すように移動する。これら動体1201~1203が移動するエリアは、前述した注視点エリアと前方エリアと後方エリアとでそれぞれ重複したエリアとなることが望ましい。また撮像装置101~110は、フィールド1200を囲むようにスタジアム内に配置されるため、各動体1201~1203は図12(A)のようにフィールド1200上を縦方向に移動した後、例えば図12(B)のように横方向に動くことが望ましい。
図13は、撮像装置101~110のうち一つの撮像装置において、フォーカス合わせのためのフォーカス処理が実施される際の、制御部220による処理の流れを示すフローチャートである。なお、撮像装置101~110は、既にスタジアムに設置されており、露出についても適正露出に設定されているとする。
まずステップS1301の処理として、マーカー登録部328は、例えば外部の装置から、一つ以上の特定のマーカーパターンのデータが供給されると、それらのマーカーパターンを登録する。マーカー登録部328に登録される一つ以上の特定のマーカーパターンは、後工程において撮像装置が撮像した画像から対応したマーカーパターンを検出する際に使用されるものである。なおマーカーパターンの登録処理は、スタジアムに撮像装置101~110が設置される前に行われてもよい。マーカー登録部328にマーカーパターンを供給する外部の装置は、特に限定しないが、パーソナルコンピュータなどが想定される。
次にステップS1302において、コマンド送信部323は、撮像装置に対してオートフォーカス処理(以下、AF処理とする。)を開始させるコマンド(AF処理実行開始コマンド)を送信する。ステップS1302におけるAF処理の開始コマンドの送信は、前述したマーカーパターンが印刷等されたボードを動体に配してフィールド上を移動させる作業の前に行われる。この時の撮像装置のけるAF処理は、スタジアムの芝、白線、ゴール、客席などを、マーカーパターンの代替としてフォーカス合わせを行うことになる。なおこの時の撮像装置におけるフォーカス合わせは、厳密なものである必要はなく、フィールド上にマーカーパターンが置かれていたとした場合に当該マーカーパターンを解像できるレベルであればよい。また本実施形態において、撮像装置のAF処理は、位相差検出方式、コントラスト差検出方式、或いはそれらを併用した方式のいずれかを使用して行われるとする。このステップS1302の処理は、撮像装置101~110のそれぞれ撮像装置毎に個別に並列して行われる。
次にステップS1303において、領域特定部326は、撮像装置のフォーカスを合わすべき領域を特定するフォーカス領域特定処理を行う。本実施形態の場合、フォーカス領域特定処理は、撮像装置101~110の撮像装置毎に、前述した注視点エリア、前方エリア、及び後方エリアを、それぞれフォーカスを合わすべき領域として特定する処理である。
ステップS1303までの処理が終わると、次のステップS1304の処理に進む。ステップS1304において、画像取得部321は、マーカーパターンが印刷等されたボードを保持した状態でフィールド上を動く複数の動体を、撮像装置101~110が連続的に撮像した撮像画像(つまり動画の画像)を取得する。そして、撮像装置101~110が撮像した撮像画像のデータは、ハブ210を介して制御部220に送られる。
次にステップS1305に進むと、マーカー検出部327は、撮像装置101~110から画像取得部321が取得した画像から、マーカー登録部328に登録されているマーカーパターンと一致するマーカーパターンを検出する。
ここで、例えば図10(A)に示した注視点用マーカーパターンのボードを保持した動体がフィールド上の注視点エリアに入った際に撮像装置が撮像した画像から、マーカー検出部327が、その注視点用マーカーパターンを検出したとする。この場合、コマンド送信部323は、ステップS1306において、その撮像画像を撮像した撮像装置に対して、AF処理の実行開始を指令するコマンドを送信する。これにより、当該撮像装置では、動体が保持したボード上の注視点用マーカーパターンにフォーカスを合わせるようなフォーカス処理が行われることになる。
AF処理の実行開始を指示するコマンドの送信後、次のステップS1307において、画像取得部321は、コマンド送信部323からAF処理の実行開始を指令するコマンドが送信された撮像装置から撮像画像を取得する。すなわちこのとき画像取得部321が撮像装置から取得する撮像画像は、注視点エリアに注視点用マーカーパターンが含まれる画像であって、撮像装置がその注視点マーカーパターンにフォーカス合わせを行って撮像した画像である。そして画像取得部321が取得した撮像画像は、保存部331に送られて保存される。保存部331に保存された画像は、注視点エリアにおいて撮像装置のフォーカス状態が適切であるかどうかを、操作者等のユーザが目視等で確認、あるいは制御部220が画像のコントラスト等を基に確認するために使用される。
次にステップS1308において、マーカー検出部327は、動体が前方エリアあるいは後方エリアに入ったときに撮像装置が撮像した画像についても前述同様にして、マーカーパターンの検出処理を行う。例えば図10(B)に示した前方用マーカーパターンのボードを保持した動体がフィールド上の前方エリアに入った際に撮像装置が撮像した画像から、マーカー検出部327が、当該前方用マーカーパターンを検出したとする。このときのコマンド送信部323は、その撮像画像を撮像した撮像装置に対してAF処理の実行開始を指令するコマンドを送信する。これにより、当該撮像装置では、動体が保持するボード上の前方用マーカーパターンのフォーカスを合わせる処理が行われる。同様に例えば図10(C)に示した後方用マーカーパターンのボードを保持した動体がフィールド上の後方エリアに入った際に撮像装置が撮像した画像から、マーカー検出部327が、当該後方用マーカーパターンを検出したとする。このときのコマンド送信部323は、その撮像画像を撮像した撮像装置に対してAF処理の実行開始を指令するコマンドを送信する。これにより、当該撮像装置では、動体が保持するボード上の後方用マーカーパターンのフォーカスを合わせるようなフォーカス処理が行われることになる。
その後、次のステップS1309において、画像取得部321は、撮像装置から撮像画像を取得する。このとき画像取得部321が撮像装置から取得する撮像画像は、前方エリア内の前方用マーカーパターンに撮像装置がフォーカスを合わせた画像、あるいは後方エリア内の後方用マーカーパターンに撮像装置がフォーカスを合わせた画像である。そして画像取得部321が取得した撮像画像は、保存部331に送られて保存される。保存部331に保存された画像は、前方エリアにおいて撮像装置のフォーカス状態が適切であるかどうかを、あるいは後方エリアにおいて撮像装置のフォーカス状態が適切であるかどうかを、ユーザ等が確認するために使用される。
すなわち本実施形態の場合、ステップS1307とステップS1309で保存された撮像画像は、注視点エリア、前方エリア、および後方エリアのすべてのエリアで、撮像装置のフォーカス状態が適切であるかどうかをユーザ等が確認するために使用される。
なお、各動体が保持するボード上のマーカーパターンが前方エリアや後方エリアに入るタイミングはそれぞれ異なる。そのため、マーカー検出部327は、前方エリアに入った前方用マーカーパターンを先に検知する。その後、マーカー検出部327は、後方エリアに入った後方用マーカーパターンを検知する。または、その逆もあり得る。更に、前方エリアに前方用マーカーパターンが入るとほぼ同時に、後方エリアに後方用マーカーパターンが入る場合もあり、この場合はそれらを同時に検出することも可能である。
図14は、図13のステップS1303で行われるフォーカス領域特定処理の詳細を示すフローチャートである。
まずステップS1401において、位置推定部329は、画像取得部321が撮像装置101~110からそれぞれ取得した画像と、関連情報入力部330が保持しているスタジアム関連情報とを取得する。そして、位置推定部329は、撮像装置101~110からの画像とスタジアム関連情報とを基に、撮像装置101~110のそれぞれとフィールド130との位置関係を推定する。
次にステップ1402において、被写界深度計算部324は、撮像装置101~110のそれぞれ現状のズーム値と注視点までの距離および絞り値とから、撮像装置101~110それぞれの被写界深度を算出する。
続いてステップS1403において、領域特定部326は、ステップS1401で推定された位置関係と、ステップS1402で得られた被写界深度とを基に、撮像装置101~110のそれぞれについて注視点エリア、前方エリア、及び後方エリアを特定する。そして、制御部220は、ステップS1403で特定された各エリアを表した図7に示したような画面を、UI部260の表示装置に表示させる。ステップS1403の後、制御部220は、図13のステップS1304に処理を進める。
図15は、図13のステップS1306で行われる簡易位置推定処理の詳細を示すフローチャートである。
まずステップS1501において、位置推定部329は、撮像装置101~110それぞれから画像取得部321が取得した画像から、撮像装置毎に一つ以上の画像を取得する。
次にステップS1502において、位置推定部329は、撮像装置101~110の各画像から自然特徴点を検出する。例えば、位置推定部329は、画像内の輝度の勾配や色の変化を自然特徴点として検出する。自然特徴点は、画像内の例えば芝、ゴール、白線、人、あるいは観客席などの部分で多く検出される。
次にステップS1503において、位置推定部329は、撮像装置101~110の各撮像画像間で自然特徴点をマッチングさせるマッチング処理を行う。
次にステップS1504において、位置推定部329は、撮像装置101~110の各撮像装置間の相対位置を推定する。すなわちステップS1503における自然特徴点のマッチング処理結果には誤差が含まれている可能性がある。このため、ステップS1504において、位置推定部329は、その誤差を最少化することで各撮像装置間の相対位置を求める。
次にステップS1505において、位置推定部329は、関連情報入力部330からスタジアム関連情報を取得する。
その後ステップS1506において、位置推定部329は、スタジアム関連情報を基に撮像装置間の相対位置とフィールドとの紐づけを行い、撮像装置間の相対位置をスタジアムの3D座標空間に対応した絶対位置に変換する。なお位置推定部329は、撮像装置間の相対位置とフィールドとの紐づけに3D形状モデルデータを使用してもよいし、予めフィールド上に既知の3D座標値がある場合はそれを用いて紐づけしてもよい。ステップS1506の後、制御部220は、図13のステップS1304に処理を進める。
以上のように、第1の実施形態においては、撮像装置のフォーカス調整は、フィールド上を移動する動体が保持したボードに印刷等されたマーカーパターンにフォーカスが合うようにする処理となっている。そして撮像装置のフォーカス合わせは、動体が保持するボード上の注視点用マーカーパターンが注視点エリアに入ったとき、また前方用マーカーパターンが前方エリアに入ったとき、および後方用マーカーパターンが後方エリアに入ったときに実施される。これにより、第1の実施形態によれば、注視点が多数ある場合でも、短い時間で撮像装置のフォーカス調整の作業を実施することができる。
<第2の実施形態>
第2の実施形態では、図1に示したように撮像装置毎に注視点が異なる場合のフォーカス調整だけでなく、各撮像装置の位置および姿勢等を求めるためのキャリブレーション作業をも短時間で実現する例について説明する。
図16は、第2の実施形態の制御部1620の構成を示した図である。図16に示した制御部1620において、画像取得部321から保存部331までは前述した図2の対応した参照符号が付された各部と同等であり、それらの説明は省略する。第2の実施形態の場合、制御部1620は、キャリブレーション計算部1632をさらに有している。キャリブレーション計算部1632は、画像取得部321が図1の撮像装置101~110から取得した画像を用いてキャリブレーション計算処理を行う。
以下、第2の実施形態の制御部1620が、撮像装置101~110のキャリブレーションを行うための処理について説明する。
前述したような仮想視点画像を生成する場合、撮像装置101~110によって取得した画像から被写体等の3次元形状が復元されることになる。このため、撮像装置101~110のそれぞれの位置および姿勢(位置姿勢とする。)は、高い精度で求めておく必要がある。また、撮像装置101~110の撮像画像の座標系は、それら撮像装置101~110で共通の座標系に対応付けておく必要がある。そこで、第2の実施形態の制御部220は、撮像装置101~110のそれぞれの位置姿勢を高い精度で求めると共に座標系の対応付けを行うためのキャリブレーション計算処理(カメラキャリブレーション計算処理)を行う。
第2の実施形態の場合、撮像装置のキャリブレーションを効率的に行うために、キャリブレーション用マーカーパターンを用いる。キャリブレーション用マーカーパターンは、例えばボードに印刷等され、そのボードが、複数の動体(人など)によって、撮像装置101~110の共通視野領域上つまり図1のフィールド130上を移動するように運ばれる。そして、制御部1620は、撮像装置101~110を同期撮像させて得られた画像からそれぞれキャリブレーション用マーカーパターンを検出し、それら検出したキャリブレーション用マーカーパターンを基に、各撮像装置のキャリブレーションを行う。
図17は、一つの撮像装置のフォーカス処理およびキャリブレーション計算処理が実施される際の、第2の実施形態に係る制御部1620の処理の流れを示すフローチャートである。なお図17のフローチャートにおいて、ステップS1303~ステップS1310までの処理は、前述した図13のそれぞれ対応した参照符号が付された各ステップの処理と同様であり、それらの説明は省略する。またこの例でも前述の実施形態と同様に、撮像装置101~110は、スタジアムに設置された後、適正露出に設定されていることを前提として説明する。
まずステップS1701において、マーカー登録部328は、外部の装置等からマーカーパターンのデータが供給されると、そのマーカーパターンを登録する。マーカー登録部328に登録されるマーカーパターンは、後工程において撮像装置からの撮像画像からマーカーパターンを検出するのに使用されるものであるが、第2の実施形態の場合のマーカーパターンはキャリブレーションのためのパターンを含んでいる。なお、マーカーパターンの登録処理は、スタジアムに撮像装置101~110が設置される前に行われてもよい。
図18(A)~図18(F)は、第2の実施形態に係る特定のマーカーパターンの例を示した図である。図18(A)と図18(B)に示したマーカーパターンは、前述の実施形態と同様の注視点エリアで使用される注視点用マーカーパターンであるとともに、キャリブレーション用マーカーパターンとしても使用される。図18(A)に示したマーカーパターンは、図10(A)に示したマーカーパターンにキャリブレーション用のマーカーID1801が重畳(付与)されたものとなっている。図18(B)のマーカーパターンは、図10(A)のマーカーパターンにキャリブレーション用のマーカーID1802が重畳(付与)されている。同様に図18(C)のマーカーパターンは前述の前方用マーカーパターンにキャリブレーション用のマーカーID1803が重畳され、図18(D)のマーカーパターンは前方用マーカーパターンにキャリブレーション用のマーカーID1804が重畳されている。同様に図18(E)のマーカーパターンは後方用マーカーパターンにキャリブレーション用のマーカーID1805が重畳され、図18(F)のマーカーパターンは後方用マーカーパターンにキャリブレーション用のマーカーID1806が重畳されている。なお使用されるマーカーパターンの数(種類)は、この例より多くても、あるいは少なくてもよい。
次にステップS1702において、コマンド送信部323は、撮像装置101~110に対し、撮像装置間で同期した撮像を開始するように指令するコマンドを送信する。これにより、撮像装置101~110では同期撮像が行われる。ステップS1702で撮像装置に同期撮影を行わせるのは、後工程のキャリブレーション計算処理において時刻同期がとれた画像間で同一のマーカーIDのマーカーパターンや自然特徴点を用いたマッチング処理を行うためである。以降のステップS1303~ステップS1310の処理は、前述の図13のフローチャートと同様であり、ステップS1310の後、制御部1620の処理は、ステップS1711に進む。
ステップS1711に進むと、コマンド送信部323は、撮像装置101~110に対し、同期撮像を続けてキャリブレーション計算に使用する画像の撮像を開始するように指令するコマンドを送信する。これにより、撮像装置101~110では、時刻同期が取れた画像(キャリブレーション計算に使用する画像)の撮像が行われる。
次にステップS1712において、画像取得部321は、撮像装置101~110で同期撮像されたことによる時刻同期が取れた各画像を取得する。そして、保存部331は、それら時刻同期が取れた各画像を、それぞれ撮像装置と対応付けて保存する。
次にステップ1713において、キャリブレーション計算部1632は、保存部331に保存されている時刻同期した各画像から、それぞれキャリブレーション用マーカーパターンの画像を検出する。なお、前述したようにキャリブレーション用マーカーパターンにはマーカーIDが含まれている。このため、キャリブレーション計算部1632は、保存部331に保存されている画像からマーカーIDを検出することで、当該画像がキャリブレーション計算向けの画像であることを識別可能である。キャリブレーション計算部1632は、時刻同期した画像間で同一のマーカーIDを有するマーカーパターンおよび自然特徴点を用いたマッチング処理を行って、キャリブレーション用マーカーパターンを検出してキャリブレーション計算処理を行う。キャリブレーション用マーカーパターンのような特定のマーカーパターンを用いて複数の撮像装置のキャリブレーション計算を行う手法については既知であるため、その説明は省略する。
以上説明したように、第2の実施形態においては、第1の実施形態の場合と同様に撮像装置101~110のフォーカス調整を行うことができるとともに、撮像装置101~110のキャリブレーションをも行うことができる。第2の実施形態によれば、フォーカス調整用のマーカーパターンと、キャリブレーション計算用のマーカーパターンとを共通化し、撮像装置101~110を同期撮像させることで、フォーカス調整とともにキャリブレーション処理の短縮が実現される。
図19は、前述した各実施形態の一適用例としての情報処理装置1900のハードウェア構成の一例を示す図であり、例えばパーソナルコンピュータであるとする。図19の情報処理装置1900は、CPU1911、ROM1912、RAM1913、補助記憶装置1914、表示部1915、操作部1916、通信I/F1917、及びバス1918を有する。バス1918は、情報処理装置1900の各部をつないで情報を伝達する。
CPU1911は、ROM1912やRAM1913に格納されているコンピュータプログラムやデータを用いて情報処理装置1900の全体を制御する。CPU1911は、前述した実施形態に係るプログラムやデータを用いて、前述した制御部220、仮想視点画像生成部230、仮想視点生成部240、およびUI部260の各部の処理を実行可能となされている。なお情報処理装置1900は、CPU1911とは異なる1又は複数の専用のハードウェアを有し、CPU1911による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1912は、変更を必要としないプログラムなどを格納する。RAM1913は、補助記憶装置1914から供給されるプログラムやデータ、及び通信I/F1917を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1914は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部1915は、例えば液晶ディスプレイやLED(発光ダイオード)等の表示装置を有し、操作者等のユーザが情報処理装置1900を操作するためのGUI(Graphical User Interface)や撮像装置の撮像画像等を画面表示する。操作部1916は、例えばキーボードやマウス、ジョイスティック、タッチパネル等を有し、ユーザによる操作を受けて各種の指示をCPU1911に入力する。これら表示部1915と操作部1916は、前述したUI部260に含まれる。
なおこの例では、表示部1915と操作部1916が情報処理装置1900の内部に存在するものとするが、表示部1915と操作部1916との少なくとも一方が情報処理装置1900の外部に別の装置として存在していてもよい。この場合、CPU1911が、表示部1915を制御する表示制御部、及び操作部1916を制御する操作制御部として動作してもよい。
通信I/F1917は、情報処理装置1900の外部の装置との通信に用いられる。例えば、情報処理装置1900が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1917に接続される。情報処理装置1900が外部の装置と無線通信する機能を有する場合には、通信I/F1917はアンテナを備える。情報処理装置1900は、通信I/F1917を通じ、前述したハブ210を介して撮像装置101~110と通信可能となされている。これにより、CPU1911は、撮像装置101~110の動作や設定等を制御することができる。
なお、前述した制御装置200における各部のうち、例えば制御部220、仮想視点画像生成部230等の処理については、人工知能(AI:artificial intelligence)を適用した処理であってもよい。例えば、それらの各部の代わりとして、機械学習された学習済みモデルを代わりに用いてもよい。その場合には、それら各部への入力データと出力データとの組合せを学習データとして複数個準備し、それらから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを生成する。この学習済みモデルは、例えばニューラルネットワークモデルで構成できる。そして、その学習済みモデルは、前述の各部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前述の各部の処理を行う。また、前述の学習済みモデルは、必要に応じて一定のデータを処理する毎に更新する等も可能である。
本発明に係る制御処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサにより読また出し実行されることで実現可能である。
前述の各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101~110:撮像装置、111~120:注視点、220:制御部、230:仮想視点画像生成部、240:仮想視点生成部、260:UI部

Claims (15)

  1. 撮像装置を制御する制御装置であって、
    前記撮像装置を含む複数の撮像装置によって撮像される撮像対象領域内で、前記撮像装置のフォーカスを合わせる領域を特定する領域特定手段と、
    前記撮像装置により取得された画像から、前記撮像対象領域内で移動する特定のマーカーパターンを検出する検出手段と、
    前記撮像装置により取得された画像内で前記撮像装置のフォーカスを合わせる域か前記特定のマーカーパターン検出に基づき当該特定のマーカーパターンを使用して前記撮像装置のフォーカス調整を実施する実施手段と、
    を有することを特徴とする制御装置。
  2. 前記フォーカス調整が実施されたときに、前記撮像装置により取得された画像と前記撮像装置の状態に関する情報とを保存する保存手段とをさらに有することを特徴とする請求項1に記載の制御装置。
  3. 前記フォーカス調整は、一つ以上の撮像装置を含む各グループが注視点を有するように配置された複数の前記撮像装置のそれぞれに対して実施されることを特徴とする請求項1または2に記載の制御装置。
  4. 前記撮像装置のフォーカスを合わせる領域は、前記撮像装置が撮像した画像と、前記撮像装置と前記撮像対象領域との間の相対的な位置関係とに基ついて特定されることを特徴とする請求項1乃至3のいずれか1項に記載の制御装置。
  5. 前記撮像装置のフォーカスを合わせる領域は、前記撮像装置から被写体までの距離と前記撮像装置が有するレンズによるボケ量とから決まる合焦範囲と、前記撮像装置が撮像した画像を用いた画像の生成のために保証すべき合焦保証領域とに基づいて、特定されることを特徴とする請求項4に記載の制御装置。
  6. 前記特定のマーカーパターンは前記撮像対象領域のなかを移動する動体に配されており、
    前記特定のマーカーパターンは、前記撮像装置が前記撮像対象領域を撮像した画像に写った前記動体の画像から検出されることを特徴とする請求項1乃至5のいずれか1項に記載の制御装置。
  7. 前記特定のマーカーパターンは、前記撮像装置が前記撮像対象領域を撮像した画像に写った一つ以上の前記動体のうち一つの動体の画像から検出されることを特徴とする請求項6に記載の制御装置。
  8. 前記撮像装置のフォーカスを合わせる領域は複数の領域を含み
    前記撮像装置のフォーカス調整は、前記撮像装置のフォーカスを合わせて撮像した画像の前記複数の領域のうちの一つの領域の画像から前記特定のマーカーパターン検出されたことに応じて実施されることを特徴とする請求項1乃至7のいずれか1項に記載の制御装置。
  9. 前記特定のマーカーパターンは、前記撮像装置の位置と方向を取得するためのキャリブレーション用のパターンを含むことを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
  10. 前記撮像装置が取得した画像は、当該撮像装置のフォーカスを合わせる領域内の前記特定のマーカーパターンを含むことを特徴とする請求項1乃至9のいずれか1項に記載の制御装置。
  11. 前記フォーカス調整は、前記複数の撮像装置のそれぞれに対して実施され、前記複数の撮像装置のそれぞれは複数の注視点のうちの一つに向けられることを特徴とする請求項1乃至10のいずれか1項に記載の制御装置。
  12. 前記特定のマーカーパターンを検出する前に、前記撮像装置のフォーカスを合わせる領域内の静止物体を使用して、当該撮像装置のフォーカス調整を実施する手段をさらに有することを特徴とする請求項1乃至11のいずれか1項に記載の制御装置。
  13. 前記保存手段は、前記撮像装置のフォーカスを合わせる領域に前記特定のマーカーパターンを含んで取得された画像と、前記撮像装置のフォーカスを合わせる別の領域に別の特定のマーカーパターンを含む別の画像とをさらに保存することを特徴とする請求項2に記載の制御装置。
  14. 撮像装置を制御する制御方法であって、
    前記撮像装置を含む複数の撮像装置によって撮像される撮像対象領域内で、前記撮像装置のフォーカスを合わせる領域を特定する工程と、
    前記撮像装置が取得した画像から、前記撮像対象領域内で移動する特定のマーカーパターンを検出する工程と、
    前記撮像装置が取得した画像内で前記撮像装置のフォーカスを合わせる領域の画像からの前記特定のマーカーパターンの検出に基づき、当該特定のマーカーパターンを使用して前記撮像装置のフォーカス調整を実施する工程と、
    を有することを特徴とする制御方法。
  15. コンピュータを、請求項1乃至13のいずれか1項に記載の制御装置が有する各手段として機能させるためのプログラム。
JP2019146278A 2019-08-08 2019-08-08 制御装置、制御方法、及びプログラム Active JP7289754B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019146278A JP7289754B2 (ja) 2019-08-08 2019-08-08 制御装置、制御方法、及びプログラム
US16/940,810 US11483470B2 (en) 2019-08-08 2020-07-28 Control apparatus, control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146278A JP7289754B2 (ja) 2019-08-08 2019-08-08 制御装置、制御方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021027544A JP2021027544A (ja) 2021-02-22
JP2021027544A5 JP2021027544A5 (ja) 2022-08-10
JP7289754B2 true JP7289754B2 (ja) 2023-06-12

Family

ID=74499029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146278A Active JP7289754B2 (ja) 2019-08-08 2019-08-08 制御装置、制御方法、及びプログラム

Country Status (2)

Country Link
US (1) US11483470B2 (ja)
JP (1) JP7289754B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000321486A (ja) 1999-05-17 2000-11-24 Canon Inc 焦点検出装置及び自動焦点カメラ
US20130222427A1 (en) 2012-02-29 2013-08-29 Electronics And Telecommunications Research Institute System and method for implementing interactive augmented reality
JP2015099338A (ja) 2013-11-20 2015-05-28 株式会社ニコン 撮像装置
US10269141B1 (en) 2018-06-04 2019-04-23 Waymo Llc Multistage camera calibration

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06138365A (ja) * 1992-10-28 1994-05-20 Canon Inc 視線検出装置を有するカメラ
JP2014215828A (ja) 2013-04-25 2014-11-17 シャープ株式会社 画像データ再生装置、および視点情報生成装置
JP6522768B2 (ja) 2015-09-30 2019-05-29 富士フイルム株式会社 撮像装置および撮像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000321486A (ja) 1999-05-17 2000-11-24 Canon Inc 焦点検出装置及び自動焦点カメラ
US20130222427A1 (en) 2012-02-29 2013-08-29 Electronics And Telecommunications Research Institute System and method for implementing interactive augmented reality
JP2015099338A (ja) 2013-11-20 2015-05-28 株式会社ニコン 撮像装置
US10269141B1 (en) 2018-06-04 2019-04-23 Waymo Llc Multistage camera calibration

Also Published As

Publication number Publication date
US20210044738A1 (en) 2021-02-11
JP2021027544A (ja) 2021-02-22
US11483470B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
US20210227201A1 (en) Display control apparatus, display control method, and storage medium
JP2019125929A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2019176713A1 (ja) 制御装置、画像処理システム、制御方法、及びプログラム
JP4700476B2 (ja) 多視点映像合成装置及び多視点映像合成システム
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
EP3912336B1 (en) Automatic generation of all-in-focus images with a mobile camera
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
KR20170027266A (ko) 영상 촬영 장치 및 그 동작 방법
JP7423251B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113870213A (zh) 图像显示方法、装置、存储介质以及电子设备
JP2020205549A (ja) 映像処理装置、映像処理方法、及びプログラム
JP7289754B2 (ja) 制御装置、制御方法、及びプログラム
KR100845274B1 (ko) 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치
TWI825982B (zh) 用於提供視覺內容的方法、主機以及電腦可讀儲存媒體
EP3599539B1 (en) Rendering objects in virtual views
JP6633140B2 (ja) 常時キャリブレーションシステム及びその方法
JP7297515B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP2022182119A (ja) 画像処理装置およびその制御方法、プログラム
JP7271095B2 (ja) 画像生成装置、画像生成方法、及びプログラム
JP2022038176A (ja) 制御装置、制御方法およびプログラム
JP2021144522A (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
US20240013499A1 (en) Image processing apparatus, image processing method, recording medium, and image processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R151 Written notification of patent or utility model registration

Ref document number: 7289754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151