JP5371686B2 - 撮像装置、撮像方法、及び撮像システム - Google Patents

撮像装置、撮像方法、及び撮像システム Download PDF

Info

Publication number
JP5371686B2
JP5371686B2 JP2009243290A JP2009243290A JP5371686B2 JP 5371686 B2 JP5371686 B2 JP 5371686B2 JP 2009243290 A JP2009243290 A JP 2009243290A JP 2009243290 A JP2009243290 A JP 2009243290A JP 5371686 B2 JP5371686 B2 JP 5371686B2
Authority
JP
Japan
Prior art keywords
image
camera
imaging
focal length
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009243290A
Other languages
English (en)
Other versions
JP2011091607A (ja
Inventor
龍一 清重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009243290A priority Critical patent/JP5371686B2/ja
Priority to US12/895,164 priority patent/US8581960B2/en
Publication of JP2011091607A publication Critical patent/JP2011091607A/ja
Application granted granted Critical
Publication of JP5371686B2 publication Critical patent/JP5371686B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体撮像等に利用するために、複数の撮像装置を連携させて、同一対象物をそれぞれ異なる位置から撮像するための撮像装置、撮像方法、及び撮像システムに関する。
遠隔制御によって複数のカメラに対して同時に撮影指示を行う機能がある。この機能を使用してパノラマや3Dなど様々な用途で複数のカメラによるシンクロ撮影が行われている。その際、撮影者が複数のカメラのフレーミングを一台ずつ調整して撮影を行う煩わしさを解決するために、特許文献1に記載されている方法がある。
特許文献1は、一体型複眼カメラと分離型複眼カメラの両方の利点を得ることができるとともに、画像の撮像時に構図の決定を容易に行うことが可能な撮像装置を提供している。具体的には、メインカメラがサブカメラへ相対位置検出信号を発信し、サブカメラがこの相対位置検出信号の受信時刻をメインカメラへ送信することで、メインカメラは相対位置を測定する。また、メインカメラ及びサブカメラ間でフレーミングを一致させるため、移動方向算出手段及び移動方向表示手段が備えられている。
特開2009−94724号公報
特許文献1では相対位置を検出するために時刻情報を使用するため、カメラ内部の時計の時刻が正確に合っていなければ正確な相対距離を得ることはできない問題がある。また、サブカメラ側では、メインカメラがフォーカスしている被写体であると認識する手段が無いため、ユーザ入力を介さずメインカメラとサブカメラで同じ被写体にフォーカスを合わせるためには、フォーカスしたい被写体がカメラの光軸中心、つまりフレーミングした中心に存在しなければいけない。
一眼レフカメラを使用した撮影テクニックとして、被写体を浮き上がらせる効果を狙って、被写界深度の浅い、背景をぼかした写真撮影手法がある。また、被写体毎に合焦したいポイントが異なるため、カメラは、利便性を考慮して複数のフォーカスポイントを備えており、作品性の高い写真を得るために、中心以外にフォーカスポイントを移動させ、合焦して撮影することがある。この時、被写体を浮き上がらせる効果を狙って被写界深度を浅くして撮影しようとすると、フォーカスポイントによっては同じフレーミングであっても、手前の被写体にピントが合うか遠方の被写体にピントが合うかで全く印象の違う写真になってしまう。複数のカメラで異なる位置から同じ被写体を撮影し立体写真などを生成する場合、立体感のある結果を得るためにはこの点が重要な要素である。
焦点距離が異なる場合においてもフォーカスポイントを決定することは重要である。撮影したい被写体がファインダの中心にあり、フォーカスポイントもファインダの中心(光軸中心)にあれば、カメラ間で焦点距離が異なっていても同じ被写体にピントを合わせることができる。しかしながら、フォーカスポイントがファインダ中心以外にある場合を考えると、同じ被写体にフォーカスする時、焦点距離によってファインダ内のフォーカスポイントの座標もカメラ間で異なる。
従って、特許文献1の方法で複数のカメラにおいて同じ被写体に対し正確にフォーカスを合わせるためには、ユーザが各カメラに対してフレーミングを確認した後、ユーザ入力によりフォーカス調整を行わなければならない問題がある。
本発明は、上述した課題に鑑みてなされたものであって、複数の撮像装置間でフォーカスを高速且つ簡単に合わせることができる撮像装置、撮像方法、及び撮像システムを提供することを目的とする。
本発明は、上記の課題を解決するためになされたもので、第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する端末から、前記第1の焦点距離を示す情報を受信する受信部と、第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成する撮像部と、前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出する抽出部と、前記特徴領域の画像に関する情報を前記端末に送信する送信部と、を有する撮像装置である。
また、本発明の撮像装置において、前記抽出部は更に、前記特徴領域の画像から前記被写体の特徴を抽出し、前記特徴領域の画像に関する情報は、前記被写体の特徴を示す情報を含む。
また、本発明の撮像装置において、前記送信部は更に、前記第2の焦点距離を示す情報を前記端末に送信する。
また、本発明は、第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する端末から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信する受信部と、第1の焦点距離で前記被写体を撮像して第1の撮像領域の画像を生成する撮像部と、前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定する領域決定部と、前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出する検出部と、前記検出の結果に基づいて前記被写体のフォーカス調整を行う制御部と、を有する撮像装置である。
また、本発明の撮像装置において、前記受信部は更に、前記端末から、前記被写体を前記第2の焦点距離で撮像したときの前記端末と前記被写体との相対的な位置関係に関する相対関係情報、及び前記被写体を前記第2の焦点距離で撮像したときの第2の撮像姿勢を示す情報を受信し、前記制御部は更に、前記相対関係情報、前記第2の撮像姿勢を示す情報、及び当該撮像装置が前記被写体を前記第1の焦点距離で撮像したときの第1の撮像姿勢を示す情報に基づいてフレーミング計算を行う。
また、本発明の撮像装置は、前記フレーミング計算の結果に基づいて前記第1の撮像姿勢を調整する調整部を更に有する。
また、本発明の撮像装置は、前記フレーミング計算の結果を表示する表示部を更に有する。
また、本発明の撮像装置において、前記制御部は、前記被写体の3D画像又はパノラマ画像を生成する際に、前記端末が前記被写体を撮像した画像とともに使用する画像を撮像するためのフレーミング計算を行う。
また、本発明の撮像装置は、前記第1の焦点距離を示す情報を前記端末に送信する送信部を更に備える。
また、本発明は、第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する端末から、前記被写体の第1の焦点距離を示す情報を受信するステップと、第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成し、前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出するステップと、前記特徴領域の画像に関する情報を前記端末に送信するステップと、を有する撮像方法である。
また、本発明は、第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する端末から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信するステップと、第1の焦点距離で前記被写体を撮像して第1の撮像領域の画像を生成するステップと、前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定するステップと、前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するステップと、前記検出の結果に基づいて前記被写体のフォーカス調整を行うステップと、を有する撮像方法である。
また、本発明は、第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する第1の撮像装置と、第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する第2の撮像装置とを有する撮像システムであって、前記第1の撮像装置は、前記第2の撮像装置から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信する第1の受信部と、前記第1の焦点距離で前記被写体を撮像して前記第1の撮像領域の画像を生成する第1の撮像部と、前記第1の焦点距離を示す情報を前記第2の撮像装置へ送信する第1の送信部と、前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定する領域決定部と、前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出する検出部と、前記検出の結果に基づいて前記被写体のフォーカス調整を行う制御部と、を有し、前記第2の撮像装置は、前記第1の撮像装置から、前記第1の焦点距離を示す情報を受信する第2の受信部と、第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成する第2の撮像部と、前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出する抽出部と、前記特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を前記第1の撮像装置に送信する第2の送信部と、を有する撮像システムである。
本発明によれば、複数の撮像装置のいずれかにおいて、その撮像装置で撮像された第1の撮像領域の画像のうち、他の撮像装置で撮像された特徴領域の画像に対応する画像が検出され、その検出の結果に基づいて被写体のフォーカス調整が行われる。これによって、複数の撮像装置間でフォーカスを高速且つ簡単に合わせることができる。
本発明の一実施形態による撮像システムの構成を示す構成図である。 本発明の一実施形態によるカメラの構成を示すブロック図である。 本発明の一実施形態によるカメラが相対位置関係を得る方法を説明するための参考図である。 本発明の一実施形態によるカメラが相対位置関係を得る方法を説明するための参考図である。 本発明の一実施形態によるカメラが相対位置関係を得る方法を説明するための参考図である。 本発明の一実施形態によるカメラが相対位置関係を得る方法を説明するための参考図である。 本発明の一実施形態によるカメラがフレーミングのための移動量を算出する方法を説明するための参考図である。 本発明の一実施形態によるカメラがフレーミングのための移動量を算出する方法を説明するための参考図である。 本発明の一実施形態によるカメラがフレーミングのための移動量を算出する方法を説明するための参考図である。 本発明の一実施形態によるカメラがフレーミングのための指示を表示する方法を説明するための参考図である。 本発明の一実施形態によるカメラが被写体を撮影しようとしている状態を示す参考図である。 本発明の一実施形態によるカメラが被写体を表示している状態を示す参考図である。 本発明の一実施形態によるカメラが被写体を表示している状態を示す参考図である。 本発明の一実施形態によるカメラのフレーミング指示動作を示すシーケンス図である。 本発明の一実施形態によるカメラのフレーミング指示動作を示すフローチャートである。 本発明の一実施形態によるカメラのフレーミング指示動作を示すシーケンス図である。 本発明の一実施形態によるカメラのフレーミング指示動作を示すフローチャートである。 本発明の一実施形態によるカメラがフォーカスを調整する方法を説明するための参考図である。 本発明の一実施形態によるカメラがフォーカスを調整する方法を説明するための参考図である。 本発明の一実施形態によるカメラのフォーカス調整動作を示すシーケンス図である。 本発明の一実施形態によるカメラのフォーカス調整動作を示すフローチャートである。 本発明の一実施形態によるカメラのフォーカス調整動作を示すフローチャートである。
以下、図面を参照し、本発明の実施形態を説明する。図1は、本発明の一実施形態による撮像システムの構成を示している。図1に示すように、2台のカメラ101、カメラ102があり、共に同じ被写体105を撮影する。本実施形態では、2台のカメラを用いる場合について説明するが、3台以上のカメラを用いてもよい。
カメラ101、カメラ102は通信機能を有し、互いに姿勢情報や位置情報を通信しながら、それらの情報から相手のカメラとの相対位置を演算することにより、相対位置関係を示す相対位置関係情報を得ている。姿勢情報は、X軸、Y軸、Z軸の各軸周りの回転量(角度)、及び方位によるカメラ101、カメラ102の姿勢を示している。位置情報は、基準位置に対するカメラ101、カメラ102の位置を示している。相対位置関係情報は、カメラ101とカメラ102のXY平面上の相対距離、及びカメラ101とカメラ102のZ軸方向の高さの差を示す情報を含む。
カメラ101、カメラ102は、どちらか一方で撮影操作が行われたタイミングでメインカメラ、サブカメラの役割を決定する。ユーザがカメラ101に対して撮影操作を行った場合、カメラ101はメインカメラの役割を担い、カメラ102はサブカメラの役割を担う。ここで、メインカメラの役割は、撮影やフレーミング、フォーカスに関する指示をサブカメラに通知することである。また、サブカメラの役割は、メインカメラからの上記通知に従ってフレーミングやフォーカス、撮影を行うことである。以下では、カメラ101がメインカメラの役割を担い、カメラ102がサブカメラの役割を担うものとする。
また、図1のように各カメラが雲台103、雲台104に取り付けられている場合、各カメラは雲台103、104に対して動作信号を通知する。ここで、雲台103、雲台104は電子式雲台であり、上記動作信号に応じて動作するものとする。尚、本発明は雲台の動作に関するものではないため、この雲台に対して深く言及しない。
カメラ102は、カメラ101から各種情報を取得して2台のカメラの相対位置関係及び姿勢を把握した上で、カメラ102がフレーミングを行うのに必要な移動量(調整量)を計算する。この調整量がカメラ102の表示部に表示され、ユーザは手動操作でカメラ102の姿勢を調整する。あるいは、この調整量が雲台104に通知され、雲台がカメラ102の姿勢を自動調整する。これによって、カメラ101とカメラ102が、同じ被写体105の方向を向くようにフレーミングを行うことができる。
また、カメラ101は、自身が撮像した画像の特徴抽出領域から画像の特徴を抽出し、その特徴を示す特徴データをカメラ102へ送信する。カメラ102は、カメラ101から特徴データを受信し、自身が撮像した画像において、カメラ101が撮像した画像の特徴抽出領域に対応する領域を検出し、その領域にフォーカスポイントを移動させてフォーカス調整を行う。
上記の特徴抽出領域は、カメラ101におけるフォーカスポイントを含む。また、特徴抽出領域に対応する領域は、カメラ102が撮像した画像において、特徴データが示す特徴に類似する特徴を有する領域である。従って、カメラ102において、この領域にフォーカスポイントを移動させてフォーカス調整を行うことによって、カメラ101とカメラ102が、同じ被写体105にフォーカスを合わせることができる。
図2はカメラ101の機能構成を示している。カメラ101及びカメラ102は同一の機能構成を有する。
カメラ101、カメラ102は、測距部201、撮像部202、画像処理部203、フォーカス調整部204、表示部205、特徴抽出部206、フレーミング演算部207、移動量検出部208、特徴照合部209、姿勢検出部210、相対位置演算部211、領域決定部212、通信部213、入力部214、記憶部215を有する。
測距部201は、被写体との距離を計測(測定)する。撮像部202は、被写体を撮像し、撮像領域に結像された被写体像に応じた画像データを生成する。画像処理部203は、撮像部202で得られた画像データを処理する。フォーカス調整部204は、測距部201から得られる被写体との距離に応じてレンズを駆動し被写体に対してフォーカスする。あるいは、フォーカス調整部204は、特徴照合部209で得られた領域に合焦するようにレンズを駆動し被写体に対してフォーカスする。
表示部205はファインダを有し、ユーザが撮影した写真を視認できるようにファインダに表示する。また、表示部205は、フレーミング演算部207で得られた情報に基づいて、ユーザに対するフレーミング指示やフォーカス位置をファインダに表示してユーザに操作を促す。特徴抽出部206は、領域決定部212で決定される特徴抽出領域に対応する画像データより画像の特徴を抽出する。この特徴抽出領域のサイズは、カメラ101、カメラ102の焦点距離に応じて変化する。
フレーミング演算部207は、相対位置演算部211で得られた相対位置関係情報及び姿勢情報に応じてフレーミングに必要な移動量(X軸、Y軸、Z軸の各軸周りの調整量)を演算する。移動量検出部208は、加速度センサなどを用いて、基準位置からの自身の移動量を計測する。特徴照合部209は、通信部213を介して他のカメラ(以下の例ではカメラ101)から受信される特徴データを用いて、画像処理部203で処理された画像データから、特徴データが示す特徴と類似する領域を抽出する。
姿勢検出部210は、方位センサや3軸センサなどを用いて、自身の向き(方位)や3軸方向の傾き情報を計測する。相対位置演算部211は、通信部213を介して通知される他のカメラの基準位置からの移動量及び姿勢情報と自身の姿勢情報とに基づいて、自身と他のカメラとの相対位置関係を算出する。領域決定部212は、カメラ101では、通信部213を介して得られる、他のカメラ(以下の例ではカメラ102)から通知された焦点距離情報と自身の焦点距離情報とに基づいて、特徴データを生成するための特徴抽出領域(特徴領域)を決定する。また、領域決定部212は、カメラ102では、通信部213を介して得られる、他のカメラ(以下の例ではカメラ101)から通知された焦点距離情報と自身の焦点距離情報とに基づいて、画像処理部203で処理された画像データから特徴データが示す特徴を有する領域を検出する処理の対象とする領域(検出対象領域)を決定する。
通信部213は、移動量、姿勢情報、焦点距離情報、特徴データを他のカメラと例えば近距離無線通信により送受信する。入力部214は、レリーズボタン等を有し、撮影などのユーザ操作を受け付ける。記憶部215は、画像データや特徴データ、カメラの移動量、相対位置関係情報、及び姿勢情報を記憶する。
(相対位置関係を得る例)
次に、カメラ101とカメラ102の間で相対位置関係を得る方法を説明する。前述したように、相対位置関係は、カメラ101とカメラ102のXY平面上の相対距離、及びカメラ101とカメラ102のZ軸方向の高さの差を含む。まず、カメラ同士の相対距離を得る方法を説明する。
(相対距離を得る第1の例)
以下、相対距離を得る第1の例を説明する。図3は、カメラ間で相対距離を得るための前準備として基準位置を決定する方法を示している。尚、カメラ101及びカメラ102のボディ表面に、他のカメラと接触可能な箇所が設けられているものとする。この箇所同士が重なるようにカメラ同士を重ねた状態のときのカメラの位置が基準位置であり、相対距離はゼロである。
図3は、カメラ同士を重ねた状態を示している。図3(a)は、カメラ101とカメラ102の底面同士を重ねた状態を示している。図3(b)は、カメラ101とカメラ102の側面同士を重ねた状態を示している。図3(c)は、カメラ101とカメラ102の背面同士を重ねた状態を示している。図3に示すように、カメラ同士の重ね方は特に問わない。
図4は、図3にようにして基準位置を求めた後、カメラ101、カメラ102を移動させた時の相対距離を計測する方法を示している。カメラ101、カメラ102を移動させる時、カメラ101、カメラ102において、移動量検出部208は、図3で説明した基準位置からのX軸、Y軸、Z軸の各軸方向の移動量を計測している。カメラ101、カメラ102は、互いに基準位置からのX軸、Y軸、Z軸の各軸方向の移動量を通知し合う。また、カメラ102において、相対位置演算部211は、その移動量に基づいて相対距離401を演算する。
(相対距離を得る第2の例)
以下、相対距離を得る第2の例を説明する。図5は、図3及び図4で説明した方法とは異なり、カメラ101、カメラ102が既に離れて配置されている状態の時に相対距離を計測する方法を示している。図5は、カメラ101、カメラ102を鉛直方向に見た状態を示している。
まず、図5のように、カメラ101は被写体105の方向を向いており、カメラ101のファインダに被写体105が捉えられている。この時、カメラ101が向いている方位502は北であるものとする。カメラ102は、カメラ101の位置を基準位置として、カメラ101との相対距離を測定する。その方法として、ユーザは、カメラ102の撮影方向をカメラ101に向け、カメラ101を被写体としてフレーミングを行う。この場合、カメラ102から見たカメラ101の方位503は東である。
続いて、ユーザはカメラ102の入力部214に測距操作(AF操作)を行い、カメラ101との相対距離の測定を指示する。カメラ102において、測距部201はカメラ101との相対距離501を計測する。これにより、カメラ102はカメラ101との相対距離を得ることができる。
(高さの差を得る例)
以下、高さの差を得る例を説明する。図6は、カメラ間で設定されている高さの差を測定する方法を示している。図4又は図5を用いて説明した方法により、X軸及びY軸方向の相対位置関係として相対距離を得ることはできるが、その後、フレーミングを行うためにカメラ間のZ軸方向の相対位置関係を把握する必要がある。
図6に示すように、ユーザはカメラ102の撮影方向をカメラ101に向ける。カメラ102において、姿勢検出部210は、水平方向を向いている初期状態時の仰角を基準として、カメラ101の方向を向いた時の仰角Aを計測する。相対位置演算部211は、得られた仰角Aに基づいて、カメラ101との高さの差601を算出する。具体的には、相対位置演算部211は、(カメラ101とカメラ102との相対距離)×sinAにより高さの差601を算出する。これにより、カメラ102はカメラ101との相対位置関係を得ることができる。
(フレーミングを合わせる例)
次に、前述した方法で取得した相対位置関係からフレーミングのための移動量(調整量)を算出し、カメラ間でフレーミングを合わせる方法を説明する。カメラの向きを動かしてフレーミングを行う際、Z軸方向(方位)、Y軸方向(仰角)、X軸方向(水平)の3つの軸を中心とする回転運動が必要となるが、以下にそれぞれの移動量を算出する方法を説明する。
図7は、カメラ102の撮影方向をカメラ101と同様に被写体105へ向けるためのZ軸周りの移動量を算出する方法を示している。カメラ101は、ユーザ操作などにより、被写体105の方向を向いており、カメラ101のファインダに被写体105が捉えられている。カメラ101において、測距部201は被写体105との距離Tを計測する。また、カメラ101において、姿勢検出部210は、カメラ101が向いている方向(方位)を検出する。この方位より、所定方位(図7では西)を基準とする角度Cを得ることができる。カメラ101はこれらの情報をカメラ102へ送信する。
カメラ102は、これらの情報を受信する。カメラ102において、相対位置演算部211は、前述した方法で得た相対距離から相対位置関係として角度Bを算出する。角度Cを90°とすると、tanB=T/Lの関係からB=tan−1T/Lにより角度Bを算出することができる。算出した角度Bに応じてカメラ102は表示部205のファインダにZ軸周りの移動量を表示し、ユーザがカメラの向きを変えるように促す。あるいは、カメラ102はZ軸周りの移動量を雲台104へ通知し、雲台104を制御してカメラ102の方向を被写体105の方へ向ける。これにより、カメラ102の撮影方向を被写体105の方向へ向けることができる。
図8は、カメラ102が被写体105の方向を向くためのY軸周りの移動量を算出する方法を示している。カメラ101において、姿勢検出部210は、水平方向を向いている初期状態時の仰角を基準として、仰角方向の角度Dを検出する。カメラ101は、この角度Dの情報をカメラ102へ送信する。カメラ102は、角度Dの情報を受信する。カメラ102において、フレーミング演算部207は、図6を用いて説明した角度Aと角度Dを合わせた仰角を算出する。カメラ102は、この仰角になるようにカメラ102の仰角を調整する指示を表示部205のファインダに表示する。あるいはカメラ102は雲台104へY軸周りの移動量を通知する。
図9はカメラ101及びカメラ102の水平方向の傾き(X軸周りの角度)を調整する方法を示している。カメラ101において、姿勢検出部210は水平方向の傾きを検出し角度Eを得る。カメラ101はその角度Eの情報をカメラ102へ送信する。カメラ102は、角度Eの情報を受信し、傾きの調整をユーザに促す指示を表示部205のファインダに表示する。あるいはカメラ102は雲台104へX軸周りの移動量を通知する。これにより、カメラ102は、カメラ101の撮影方向にある被写体105に対して素早くフレーミングを行うことができる。
(フレーミングを指示する表示の例)
次に、ユーザに対するフレーミングの指示を表示する方法を説明する。図10は、前述したようにしてフレーミングを合わせる際、ユーザに対するカメラの移動方向の指示を表示部205のファインダに表示した状態を示している。図10(a)はカメラ102の表示部205のファインダに指示を表示した状態を示している。図10(b)はカメラ101のファインダの状態を示している。
カメラ101は、フォーカス位置を定めるフォーカスフレーム1001を被写体に合わせている。カメラ102は、前述した方法で算出した各軸周りの移動量(調整量)をファインダに表示する。ここで表示する情報は、図7を用いて説明した被写体105の方向(方位)へカメラ102を向けるための方向移動量表示指標1003、図8で説明した仰角を指示する仰角移動量指示指標1004、図9で説明した水平方向の傾きを指示する水平方向指示指標1005である。各指標は、目的の位置にどれだけ移動させればよいかを例えば目盛で表示するような表示手段をとる。
また、カメラ102はフォーカス位置をフォーカスフレーム1002として表示する。ユーザが、カメラ102のファインダに表示される指標に従ってカメラ102を操作することで複数のカメラ間で同じ被写体の方向を向くことが可能になる。
(2台のカメラでフレーミングした例)
次に、同じ被写体にフレーミングを合わせる具体例を説明する。図11は、被写体105を別の角度から2台のカメラ101、カメラ102で撮影しようとしている状態を示している。この時、カメラ101、カメラ102のファインダは、図12に示すようにライブビュー画像が表示されている状態になる。図12(a)に示すように、カメラ101は被写体105を正面から捉えている。また、図12(b)に示すように、カメラ102は被写体105を側面から捉えている。
カメラ101が基準となりカメラ102の撮影方向を合わせたとしても、カメラ102の撮影操作が制限されるわけではない。このため、図13に示すようにカメラ101、カメラ102は、ズーム操作により一方はアップで、もう片方はワイドにして撮影するなど、同じ被写体に対する自由なフレーミング、自由な撮影が可能である。
(フレーミング指示動作に関する第1の例)
次に、フレーミングに関する動作を説明する。図14は、カメラの撮影方向に係るフレーミング指示が行われるまでの撮像システムの第1の動作例を示している。
まず、カメラ101、カメラ102は、カメラ間の相対位置関係を初期化する(ステップS1401)。この相対位置関係の初期化は、図3のようにカメラ間の相対距離をゼロとした後、図4のようにユーザがカメラ101、カメラ102を移動した場合(第1の場合)と、図5のようにカメラ101、カメラ102を配置した場合(第2の場合)とを含む。以下では、第1の場合について説明する。
続いて、カメラ101、カメラ102において、移動量検出部208は基準位置からの自身の移動量を計測する(ステップS1411,S1421)。また、カメラ101、カメラ102において、姿勢検出部210は自身の姿勢を計測する(ステップS1412,S1422)。この計測結果として生成される姿勢情報は、X軸、Y軸、Z軸の各軸周りの回転量(角度)及び方位の情報を含む。移動量及び姿勢情報は記憶部215に記憶される。
続いて、カメラ101において、測距部201は、ユーザによる入力部214のAF操作に基づいて被写体との距離を計測する(ステップS1413)。続いて、カメラ101の通信部213は、移動量、姿勢情報、被写体との距離を含む情報をカメラ102へ送信し、カメラ102の通信部213は、この情報を受信する(ステップS1402)。
カメラ102において、相対位置演算部211は、自身の移動量及び姿勢情報を記憶部215から読み出し、これらの情報と、カメラ101から受信された情報とに基づいて、カメラ101との相対位置関係を算出する(ステップS1423)。これにより、図4及び図6を用いて説明したように、カメラ101との相対距離及びカメラ101との高さの差を含む相対位置関係が算出される。
続いて、カメラ102において、フレーミング演算部207は、フレーミングに必要な移動量(調整量)を算出する(ステップS1424)。これにより、図7〜図9を用いて説明したように、Z軸方向(方位)、Y軸方向(仰角)、X軸方向(水平)の3つの軸を中心とする移動量(回転量)が算出される。
続いて、カメラ102において、表示部205のファインダは、例えば図10で説明したように移動量を表示し、ユーザに対して、カメラの撮影方向の移動を促す(ステップS1425)。あるいは、カメラ102は雲台104に電子的な信号を通知し、雲台104を稼動させる(ステップS1425)。
前述した第2の場合についても、上記とほぼ同様のシーケンスでフレーミング指示が行われる。ただし、カメラ101、カメラ102の移動が終了した状態でシーケンスが開始されるものとする。また、ステップS1401では、カメラ102の方向をカメラ101に向けた状態で、カメラ102の測距部201によって、カメラ101との相対距離の計測が行われる。
図15は、カメラの撮影方向に係るフレーミング指示が行われるまでのカメラ101、カメラ102の動作を示している。図15は図14に対応している。カメラ101、カメラ102は、初期状態ではどちらがメイン(基準)になりどちらがサブになるか、役割の区別は無い。
まず、カメラ間の相対位置関係が初期化され(ステップS1501)、移動量計測(ステップS1502)、姿勢計測(ステップS1503)が行われる。その後、ユーザは、カメラ101もしくはカメラ102のどちらかに対して、レリーズボタン等を押下する操作を行い、測距操作(AF操作)を行うタイミングで各カメラの役割を決定する。各カメラは、決定された役割を判定する(ステップS1504)。ここでは、AF操作をきっかけに役割を決定するため、ユーザの入力待ち状態となる。尚、役割を最初に決めてもよい。
ユーザが測距操作を行ったカメラがメインカメラ(カメラ101)となり、被写体との距離を計測する(ステップS1506)。続いて、メインカメラは、サブカメラとなったカメラ(カメラ102)へ、移動量、姿勢情報、及び被写体との距離を含む情報を送信する(ステップS1507)。
サブカメラは、メインカメラから情報が通知されなければ、役割判定(ステップS1504)及びメインカメラからの情報受信の監視(ステップS1505)を繰り返す。メインカメラから、移動量、姿勢情報、及び被写体との距離を含む情報を受信すると、サブカメラは、自身が計測した移動量及び姿勢情報と、メインカメラから受信した情報とに基づいて、メインカメラとの相対位置関係を算出する(ステップS1508)。
続いて、サブカメラは、フレーミングに必要な移動量(調整量)を算出する(ステップS1509)。さらに、サブカメラは、例えば図10で説明したように移動量を表示部205のファインダに表示し、ユーザに対して、カメラの撮影方向の移動を促す(ステップS1510)。あるいは、サブカメラは雲台に電子的な信号を通知し、雲台を稼動させる(ステップS1510)。
尚、カメラ間で連携しフレーミング指示を行う動作は、ユーザからの終了操作によって終了させることができる(ステップS1511)。ユーザからの終了操作がない場合、ステップS1504からの処理が再度行われる。また、ユーザからの終了操作があった場合、上記の動作が終了する。
上記の動作によって、レリーズボタンの押下等の撮影操作を受け付けたカメラの撮影方向を基準にして他のカメラの撮影方向を合わせることが可能になる。
(フレーミング指示動作に関する第2の例)
図16は、カメラの撮影方向に係るフレーミング指示が行われるまでの撮像システムの第2の動作例を示している。図14及び図15に示した第1の動作例では、カメラ間で役割を決め、一方のカメラを基準にして他方のカメラが撮影方向を調整するが、第2の動作例では、カメラ間で役割を明確にせず、双方向に移動量や姿勢情報をやりとりして、フレーミング指示を双方の表示部205のファインダへ表示する。
まず、カメラ101、カメラ102は、カメラ間の相対位置関係を初期化する(ステップS1601)。以下では、図3のようにカメラ間の相対距離をゼロとした後、図4のようにユーザがカメラ101、カメラ102を移動した場合について説明する。
続いて、カメラ101、カメラ102において、移動量検出部208は基準位置からの自身の移動量を計測する(ステップS1611,S1621)。また、カメラ101、カメラ102において、姿勢検出部210は自身の姿勢を計測する(ステップS1612,S1622)。この計測結果として生成される姿勢情報は、X軸、Y軸、Z軸の各軸周りの回転量(角度)及び方位の情報を含む。移動量及び姿勢情報は記憶部215に記憶される。
続いて、カメラ101、カメラ102において、測距部201は、ユーザによる入力部214のAF操作に基づいて被写体との距離を計測する(ステップS1613,S1623)。続いて、カメラ101の通信部213は、移動量、姿勢情報、被写体との距離を含む情報をカメラ102へ送信し、カメラ102の通信部213は、この情報を受信する(ステップS1614)。一方、カメラ102の通信部213は、移動量、姿勢情報、被写体との距離を含む情報をカメラ101へ送信し、カメラ101の通信部213は、この情報を受信する(ステップS1624)。このようにして、カメラ101、カメラ102は、お互いに情報を通知しあう。
続いて、カメラ101、カメラ102において、相対位置演算部211は、自身の移動量及び姿勢情報を記憶部215から読み出し、これらの情報と、カメラ101から受信された情報とに基づいて、カメラ101との相対位置関係を算出する(ステップS1615,S1625)。これにより、図4及び図6を用いて説明したように、相手のカメラとの相対距離及び相手のカメラとの高さの差を含む相対位置関係が算出される。
続いて、カメラ101、カメラ102において、フレーミング演算部207は、フレーミングに必要な移動量(調整量)を算出する(ステップS1615,S1625)。これにより、図7〜図9を用いて説明したように、Z軸方向(方位)、Y軸方向(仰角)、X軸方向(水平)の3つの軸を中心とする移動量(回転量)が算出される。
続いて、カメラ101、カメラ102において、表示部205のファインダは、例えば図10で説明したように移動量を表示し、ユーザに対して、カメラの撮影方向の移動を促す(ステップS1616,S1626)。上記の動作によって、カメラ101、カメラ102はともに、相手のカメラを基準とした相対位置関係及びフレーミングのための自身の移動量を算出し、表示することになる。ユーザは、カメラ101、カメラ102のうちの一方のファインダを見ながら、そのファインダを有するカメラの撮影方向を、もう一方のカメラの撮影方向にある被写体に合わせることができる。
カメラ間の相対位置関係の初期化は、図5のようにカメラ101、カメラ102を配置した状態で行ってもよい。その場合、カメラ101、カメラ102の移動が終了した状態でシーケンスが開始されるものとする。また、ステップS1601では、カメラ101、カメラ102において、自身の方向を相手のカメラに向けた状態で、測距部201によって、相手のカメラとの相対距離の計測が行われる。
図17は、カメラの撮影方向に係るフレーミング指示が行われるまでのカメラ101、カメラ102の動作を示している。図17は図16に対応している。まず、カメラ間の相対位置関係が初期化され(ステップS1701)、移動量計測(ステップS1702)、姿勢計測(ステップS1703)が行われる。その後、ユーザは、カメラ101、カメラ102のそれぞれに対して、レリーズボタン等を押下する操作により測距操作(AF操作)を行うと、カメラ101、カメラ102は被写体との距離を計測する(ステップS1704)。
続いて、カメラ101、カメラ102は、互いに相手のカメラへ、移動量、姿勢情報、及び被写体との距離を含む情報を送信し(ステップS1705)、相手のカメラから、移動量、姿勢情報、及び被写体との距離を含む情報を受信する(ステップS1706)。相手のカメラから情報を受信したカメラ101、カメラ102は、自身が計測した移動量及び姿勢情報と、相手のカメラから受信した情報とに基づいて、相手のカメラとの相対位置関係を算出する(ステップS1707)。
続いて、カメラ101、カメラ102は、フレーミングに必要な移動量(調整量)を算出する(ステップS1708)。さらに、カメラ101、カメラ102は、例えば図10で説明したように移動量を表示部205のファインダに表示し、ユーザに対して、カメラの撮影方向の移動を促す(ステップS1709)。これにより、一方のカメラを基準にして他方のカメラの撮影方向を合わせることが可能になる。
尚、カメラ間で連携しフレーミング指示を行う動作は、ユーザからの終了操作によって終了させることができる(ステップS1710)。ユーザからの終了操作がない場合、ステップS1702からの処理が再度行われる。また、ユーザからの終了操作があった場合、上記の動作が終了する。
上記の動作によって、カメラ101、カメラ102のどちらが基準になるという制約を受けずに、常に同じ被写体に対して撮影方向を合わせることが可能になる。
(フォーカスの調整方法)
次に、フレーミングの調整後にカメラ間で同じ対象物へフォーカスを合わせる方法を説明する。図18は、カメラ間でレンズの焦点距離が同じ場合のフォーカスの調整方法を示している。
カメラ101が測距(AF操作)を行うとする。この時、図18に示すように、カメラ101は被写体として人を捕らえている。カメラ101は、事前に決定された特徴抽出領域1811において、被写体の特徴データ1801を抽出する。特徴抽出領域の決定方法については後述する。特徴データとは、例えば被写体の色、明暗、形状など、画像データより取得可能な情報を意味する。図18では、一例として、特徴データとして画像の二値化データを使用している。
カメラ101は、抽出した特徴データ1801及び特徴抽出領域1811のサイズ情報をカメラ102へ送信する。これらを受信したカメラ102は、自身で生成された画像データに基づいて、特徴データ1801と類似する特徴を有する領域1812を抽出し、その領域1812にフォーカスポイントを移動し、フォーカスする。
図19は、カメラ間でレンズの焦点距離が異なる場合のフォーカスの調整方法を示している。この例は、カメラ101のレンズの焦点距離が短く(ズームイン)、カメラ102のレンズの焦点距離が長い(ズームアウト)場合に相当する。このような場合、カメラ101とカメラ102が各ファインダ像内でフォーカスポイントの座標を一致させると、全く的はずれな対象物にフォーカスすることになりかねない。
そこで、この場合、カメラ101は、カメラ101とカメラ102の焦点距離情報に基づいて適切な特徴抽出領域1911を決定する。特徴抽出領域1911は、各カメラの焦点距離に応じて拡大・縮小することになる。そして、カメラ101は、特徴抽出領域1911の特徴データ1901を抽出し、カメラ102へ特徴データ1901及び特徴抽出領域1911のサイズ情報を送信する。
これらを受信したカメラ102は、カメラ102で生成された画像データに基づいて、特徴データ1901と類似する特徴を有する領域1912を抽出し、その領域1912にフォーカスポイントを移動し、フォーカスする。これにより、焦点距離が異なる場合の撮影や、パノラマ撮影など、フォーカスポイントがファインダ像の中心に無い状況であってもカメラ間で同じ対象物にフォーカスを合わせることが可能になる。
(フォーカス調整動作の例)
図20は、フォーカスポイントを決定し、ピントを合わせる動作を示している。カメラ101、カメラ102は、前述したフレーミング調整方法によって、同じ被写体の方向を向いている(ステップS2001)。
続いて、カメラ101、カメラ102のそれぞれにおいて、通信部213は、撮像部202における焦点距離を示す焦点距離情報を相手のカメラへ送信する。また、通信部213は、相手のカメラから焦点距離情報を受信する。これにより、カメラ101、カメラ102はお互いに自身の現在の焦点距離を通知しあう(ステップS2002,S2003)。
ここで、カメラ101には、前述したようにメインカメラの役割が割り当てられているものとする。カメラ101において、領域決定部212は、カメラ102から受信した焦点距離情報と自身の焦点距離情報とに基づいて特徴抽出領域を決定する(ステップS2004)。この決定方法として、例えばカメラ間の焦点距離を比較し、特徴抽出領域のサイズを調整する方法が採られる。カメラ101とカメラ102の焦点距離の違いは、それぞれのカメラがファインダ内に収められる被写体の大きさを意味している。そこで、カメラ101とカメラ102の焦点距離の比率、すなわち表示される被写体の大きさの比率に応じて特徴抽出領域が決定される。
ファインダに表示される被写体の比率に大きな差異が無い場合は焦点距離の長い方のフォーカスフレームを基準に特徴抽出領域を決定すればよい。しかしながら、ファインダに表示される被写体の比率に大きな差異がある場合、焦点距離の長い方のフォーカスフレームが示す領域全体が、焦点距離の短い方のファインダ上に表示されているとは限らない。その場合は、焦点距離が短い方のファインダ像全体に相当する領域が特徴抽出領域として決定される。尚、特徴抽出領域の位置は、カメラ101のフォーカスポイントの位置に応じた位置に決定される。
続いて、カメラ101において、撮像部202は被写体を撮像して画像データを生成し、画像処理部203は画像データを処理する。さらに、特徴抽出部206は、画像処理部203によって処理された画像データにおいて、領域決定部212によって決定された特徴抽出領域に対応するデータから特徴を抽出し、特徴データを生成する(ステップS2005)。続いて、カメラ101の通信部213はカメラ102へ特徴データ及び特徴抽出領域のサイズ情報を送信し、カメラ102の通信部213はカメラ101から特徴データ及び特徴抽出領域のサイズ情報を受信する(ステップS2006)。
続いて、カメラ102において、領域決定部212は、カメラ101、カメラ102のそれぞれの焦点距離情報及び特徴抽出領域のサイズ情報に基づいて、特徴データが示す特徴を有する領域を検出する処理の対象とする領域(検出対象領域)を決定する。また、撮像部202は被写体を撮像して画像データを生成し、画像処理部203は画像データを処理する。さらに、特徴照合部209は、カメラ101から受信した特徴データが示す特徴に類似する箇所を、画像処理部203が処理した画像データのうち領域決定部212が決定した領域のデータから、テンプレートマッチング等の方法により検出する(ステップS2007)。
カメラ間で焦点距離が異なると、各カメラのファインダに表示される被写体の大きさが異なる。このため、ステップS2007で領域決定部212は、各カメラの焦点距離の比率を求めることにより、各カメラのファインダに表示されている被写体の比率(倍率)を算出し、特徴抽出領域のサイズに対して被写体の比率(倍率)を掛けることで、検出対象領域のサイズを決定する。また、ステップS2007で特徴照合部209は、画像処理部203によって処理された画像データが示す画像における検出対象領域の位置を画像上で移動させながら、特徴データが示す特徴に類似する箇所を検出する。
上記のように類似箇所を検出した後、フォーカス調整部204はフォーカスフレームを類似箇所に移動し(ステップS2008)、フォーカシング(ピントを合わす)を行う(ステップS2009)。尚、フォーカスフレームのサイズがカメラ間で異なる場合はそのサイズを相互通信にて交換してもよい。
図21は、フォーカス調整におけるカメラ101側(メイン、基準側)の動作を示している。まず、図14〜図17を用いて説明したフレーミング指示が行われる(ステップS2101)。続いて、カメラ101はカメラ102へ焦点距離情報を送信し(ステップS2102)、カメラ102から焦点距離情報を受信する(ステップS2103)。
続いて、カメラ101は、図20を用いて説明したようにカメラ101、カメラ102の焦点距離情報に基づいて特徴抽出領域を決定し(ステップS2104)、特徴抽出領域の画像データから特徴を抽出して特徴データを生成する(ステップS2105)。さらに、カメラ101はカメラ102へ特徴データを送信する(ステップS2106)。
図22は、フォーカス調整におけるカメラ102側(サブ側)の動作を示している。まず、図14〜図17を用いて説明したフレーミング指示が行われる(ステップS2201)。ここでは、ユーザがカメラ102を操作してフレーミングを行うものとする。続いて、カメラ102はカメラ101から焦点距離情報を受信し(ステップS2202)、カメラ101へ焦点距離情報を送信する(ステップS2203)。続いて、カメラ102はカメラ101から特徴データ及び特徴抽出領域のサイズ情報を受信する(ステップS2204)。
続いて、カメラ102は、カメラ101の撮影方向にある被写体に対してカメラ102が向いているか否かを判定する(ステップS2205)。ステップS2201のフレーミング指示シーケンスの中でカメラ102はフレーミングに必要な移動量(調整量)を算出している。ステップS2205でカメラ102は、ユーザがフレーミングに係る操作を行うことによって発生した移動量と、フレーミングに必要な移動量とを比較し、両者が一致している場合、カメラ101の撮影方向にある被写体に対してカメラ102が向いていると判定する。また、両者が一致していない場合、カメラ102は、カメラ101がフレーミングしている被写体に対してカメラ102がフレーミングしていないと判定する。
カメラ101の撮影方向にある被写体に対してカメラ102が向いていない場合、カメラ102は、ユーザに撮影方向の移動を促す指示を表示部205のファインダに表示する。ユーザは、この表示に従ってフレーミング操作を行う(ステップS2206)。
一方、カメラ101の撮影方向にある被写体に対してカメラ102が向いている場合、カメラ102は、ステップS2204で受信した特徴データに基づいて、自身が生成した画像データから、特徴データが示す特徴と類似する領域を検出する(ステップS2207)。特徴データが示す特徴と類似する領域が無ければ、カメラ102はフォーカシングせず、処理を終了する。一方、特徴データが示す特徴と類似する領域を検出した場合、カメラ102はその領域にフォーカスフレームを移動し(ステップS2208)、フォーカシングする(S2209)。
上記の動作によって、フォーカスポイントがファインダ像中心に無い場合であってもユーザが手動でフォーカスポイントを決定する必要はなく、カメラ間で同じ対象物に素早くフォーカスを合わせることが可能になる。
上述したように、本実施形態によれば、複数のカメラのいずれかにおいて、そのカメラで撮像された画像のうち、他のカメラで撮像された特徴領域の画像に対応する画像が検出され、その検出の結果に基づいて被写体のフォーカス調整が行われる。これによって、複数のカメラ間でフォーカスを高速且つ簡単に合わせることができる。
また、一方のカメラが他方のカメラから、被写体との相対距離を示す情報及び姿勢情報を受信し、これらの情報と自身の姿勢情報とに基づいてフレーミング計算を行うことによって、フレーミングに必要な移動量(調整量)を算出することができる。さらに、算出した移動量(調整量)を表示してユーザに撮影方向の移動を促す、あるいは算出した移動量(調整量)に基づいて雲台を制御して撮像姿勢を調整することによって、複数のカメラの撮像方向が同一の被写体の方向となるように複数のカメラ間でフレーミングを高速且つ簡単に合わせることができる。
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。例えば、被写体の3D画像又はパノラマ画像を生成する際に、一方のカメラにおいて、他方のカメラが被写体を撮像した画像とともに使用する画像を撮像するためにフレーミング計算を行ってもよい。
101,102・・・カメラ、103,104・・・雲台(調整部)、201・・・測距部、202・・・撮像部、203・・・画像処理部、204・・・フォーカス調整部(制御部)、205・・・表示部、206・・・特徴抽出部(抽出部)、207・・・フレーミング演算部、208・・・移動量検出部、209・・・特徴照合部(検出部)、210・・・姿勢検出部、211・・・相対位置演算部、212・・・領域決定部、213・・・通信部(受信部、送信部)、214・・・入力部、215・・・記憶部

Claims (12)

  1. 第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する端末から、前記第1の焦点距離を示す情報を受信する受信部と、
    第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成する撮像部と、
    前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出する抽出部と、
    前記特徴領域の画像に関する情報を前記端末に送信する送信部と、
    を有する撮像装置。
  2. 前記抽出部は更に、前記特徴領域の画像から前記被写体の特徴を抽出し、
    前記特徴領域の画像に関する情報は、前記被写体の特徴を示す情報を含む請求項1に記載の撮像装置。
  3. 前記送信部は更に、前記第2の焦点距離を示す情報を前記端末に送信する請求項1に記載の撮像装置。
  4. 第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する端末から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信する受信部と、
    第1の焦点距離で前記被写体を撮像して第1の撮像領域の画像を生成する撮像部と、
    前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定する領域決定部と、
    前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出する検出部と、
    前記検出の結果に基づいて前記被写体のフォーカス調整を行う制御部と、
    を有する撮像装置。
  5. 前記受信部は更に、前記端末から、前記被写体を前記第2の焦点距離で撮像したときの前記端末と前記被写体との相対的な位置関係に関する相対関係情報、及び前記被写体を前記第2の焦点距離で撮像したときの第2の撮像姿勢を示す情報を受信し、
    前記制御部は更に、前記相対関係情報、前記第2の撮像姿勢を示す情報、及び当該撮像装置が前記被写体を前記第1の焦点距離で撮像したときの第1の撮像姿勢を示す情報に基づいてフレーミング計算を行う請求項4に記載の撮像装置。
  6. 前記フレーミング計算の結果に基づいて前記第1の撮像姿勢を調整する調整部を更に有する請求項5に記載の撮像装置。
  7. 前記フレーミング計算の結果を表示する表示部を更に有する請求項5に記載の撮像装置。
  8. 前記制御部は、前記被写体の3D画像又はパノラマ画像を生成する際に、前記端末が前記被写体を撮像した画像とともに使用する画像を撮像するためのフレーミング計算を行う請求項5に記載の撮像装置。
  9. 前記第1の焦点距離を示す情報を前記端末に送信する送信部を更に備える請求項5に記載の撮像装置。
  10. 第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する端末から、前記被写体の第1の焦点距離を示す情報を受信するステップと、
    第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成し、前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出するステップと、
    前記特徴領域の画像に関する情報を前記端末に送信するステップと、
    を有する撮像方法。
  11. 第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する端末から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信するステップと、
    第1の焦点距離で前記被写体を撮像して第1の撮像領域の画像を生成するステップと、
    前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定するステップと、
    前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するステップと、
    前記検出の結果に基づいて前記被写体のフォーカス調整を行うステップと、
    を有する撮像方法。
  12. 第1の焦点距離で被写体を撮像して第1の撮像領域の画像を生成する第1の撮像装置と、第2の焦点距離で被写体を撮像して第2の撮像領域の画像を生成する第2の撮像装置とを有する撮像システムであって、
    前記第1の撮像装置は、
    前記第2の撮像装置から、前記第2の撮像領域の画像から抽出された前記被写体の特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を受信する第1の受信部と、
    前記第1の焦点距離で前記被写体を撮像して前記第1の撮像領域の画像を生成する第1の撮像部と、
    前記第1の焦点距離を示す情報を前記第2の撮像装置へ送信する第1の送信部と、
    前記特徴領域の画像に関する情報、前記第1の焦点距離を示す情報、及び前記第2の焦点距離を示す情報に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出するための検出対象領域を決定する領域決定部と、
    前記特徴領域の画像に関する情報及び前記第1の撮像領域中の前記検出対象領域の画像に基づいて、前記特徴領域の画像に対応する前記第1の撮像領域の画像を検出する検出部と、
    前記検出の結果に基づいて前記被写体のフォーカス調整を行う制御部と、を有し、
    前記第2の撮像装置は、
    前記第1の撮像装置から、前記第1の焦点距離を示す情報を受信する第2の受信部と、
    第2の焦点距離で前記被写体を撮像して第2の撮像領域の画像を生成する第2の撮像部と、
    前記第1の焦点距離を示す情報及び前記第2の焦点距離を示す情報に基づいて、前記第2の撮像領域の画像から前記被写体の特徴領域を抽出する抽出部と、
    前記特徴領域の画像に関する情報及び前記第2の焦点距離を示す情報を前記第1の撮像装置に送信する第2の送信部と、
    を有する撮像システム。
JP2009243290A 2009-10-22 2009-10-22 撮像装置、撮像方法、及び撮像システム Expired - Fee Related JP5371686B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009243290A JP5371686B2 (ja) 2009-10-22 2009-10-22 撮像装置、撮像方法、及び撮像システム
US12/895,164 US8581960B2 (en) 2009-10-22 2010-09-30 Imaging device, imaging method, and imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009243290A JP5371686B2 (ja) 2009-10-22 2009-10-22 撮像装置、撮像方法、及び撮像システム

Publications (2)

Publication Number Publication Date
JP2011091607A JP2011091607A (ja) 2011-05-06
JP5371686B2 true JP5371686B2 (ja) 2013-12-18

Family

ID=43898083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009243290A Expired - Fee Related JP5371686B2 (ja) 2009-10-22 2009-10-22 撮像装置、撮像方法、及び撮像システム

Country Status (2)

Country Link
US (1) US8581960B2 (ja)
JP (1) JP5371686B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9521398B1 (en) * 2011-04-03 2016-12-13 Gopro, Inc. Modular configurable camera system
US20120293630A1 (en) * 2011-05-19 2012-11-22 Qualcomm Incorporated Method and apparatus for multi-camera motion capture enhancement using proximity sensors
FR2978320B1 (fr) * 2011-07-22 2013-07-26 Thales Sa Systeme de prise de vues stereoscopiques comportant des moyens de calibration des objectifs de prise de vues
US8605189B2 (en) * 2012-05-01 2013-12-10 Xerox Corporation Product identification using mobile device
WO2014053069A1 (en) * 2012-10-05 2014-04-10 FLARM Technology GmbH Improved method and device for estimating a distance
US9602720B2 (en) * 2012-12-10 2017-03-21 Samsung Electronics Co., Ltd. Photographing apparatus
JP2014116790A (ja) * 2012-12-10 2014-06-26 Samsung R&D Institute Japan Co Ltd 撮像装置
JP6071670B2 (ja) * 2013-03-15 2017-02-01 オリンパス株式会社 撮像画像表示装置、撮像システム、撮像画像表示方法およびプログラム
JP5769757B2 (ja) * 2013-05-20 2015-08-26 オリンパス株式会社 撮像装置、撮像システム、撮像方法、およびプログラム
JP6245843B2 (ja) * 2013-05-21 2017-12-13 オリンパス株式会社 カメラ操作端末、撮像システム、撮像方法、およびプログラム
JP2014230087A (ja) 2013-05-22 2014-12-08 オリンパス株式会社 撮像制御端末、撮像端末、撮像システム、撮像方法、及びプログラム
JP6136662B2 (ja) * 2013-07-04 2017-05-31 カシオ計算機株式会社 カメラシステム、カメラ、撮影制御プログラム及び撮影方法
US9076241B2 (en) 2013-08-15 2015-07-07 Xerox Corporation Methods and systems for detecting patch panel ports from an image having perspective distortion
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
TWI554098B (zh) * 2014-10-07 2016-10-11 緯創資通股份有限公司 錄影裝置與錄影方法
JP2017092761A (ja) * 2015-11-12 2017-05-25 シャープ株式会社 撮像システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635038A (ja) * 1992-07-20 1994-02-10 Nikon Corp カメラシステムおよびこのシステムに使用されるカメラ
US6639625B1 (en) * 1997-07-16 2003-10-28 Minolta Co., Ltd. Image sensing device
JP2003158664A (ja) * 2001-11-21 2003-05-30 Matsushita Electric Ind Co Ltd カメラ制御装置
JP2009094724A (ja) 2007-10-05 2009-04-30 Fujifilm Corp 撮像装置
GB2473059A (en) * 2009-08-28 2011-03-02 Sony Corp A method and apparatus for forming a composite image

Also Published As

Publication number Publication date
US20110096142A1 (en) 2011-04-28
US8581960B2 (en) 2013-11-12
JP2011091607A (ja) 2011-05-06

Similar Documents

Publication Publication Date Title
JP5371686B2 (ja) 撮像装置、撮像方法、及び撮像システム
US8649574B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
JP5848561B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
US8648961B2 (en) Image capturing apparatus and image capturing method
US8379138B2 (en) Imaging apparatus, imaging apparatus control method, and computer program
KR20140140855A (ko) 촬영 장치의 자동 초점 조절 방법 및 장치
TWI250793B (en) Range-finding type digital camera
JP2011191568A (ja) 撮像装置、表示方法、および、プログラム
JP2006270274A (ja) 被写体認識装置、および被写体認識方法
JP5750696B2 (ja) 表示装置および表示プログラム
JP2014107750A (ja) 撮影機器
JP2001346090A (ja) 電子カメラシステム及び電子カメラ
JP5543870B2 (ja) カメラ、カメラの制御方法、及びプログラム
JP5428821B2 (ja) 解析装置、撮像装置、サーバ装置、解析方法、プログラム及び解析システム
JP2005266520A (ja) 撮像装置および撮像方法
JP2009008842A (ja) 撮影システム、撮影装置、方法およびプログラム
JP4468621B2 (ja) カメラ
JP7138472B2 (ja) 撮像システム及びその制御方法、撮像装置、プログラム、記憶媒体
JP2015233259A (ja) 被写体追尾装置
JP7479829B2 (ja) 制御装置、撮像装置、撮像システム、制御方法、および、プログラム
JP2005156356A (ja) 被写体距離測定表示装置および携帯端末装置
JP7233887B2 (ja) 画像処理装置
JP2010072659A (ja) カメラ
JP2009224900A (ja) 撮影装置、撮影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R151 Written notification of patent or utility model registration

Ref document number: 5371686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees