JP2015033066A - カメラシステム - Google Patents

カメラシステム Download PDF

Info

Publication number
JP2015033066A
JP2015033066A JP2013163033A JP2013163033A JP2015033066A JP 2015033066 A JP2015033066 A JP 2015033066A JP 2013163033 A JP2013163033 A JP 2013163033A JP 2013163033 A JP2013163033 A JP 2013163033A JP 2015033066 A JP2015033066 A JP 2015033066A
Authority
JP
Japan
Prior art keywords
tracking
digital camera
tracking information
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013163033A
Other languages
English (en)
Other versions
JP6152738B2 (ja
Inventor
英樹 石原
Hideki Ishihara
英樹 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013163033A priority Critical patent/JP6152738B2/ja
Publication of JP2015033066A publication Critical patent/JP2015033066A/ja
Application granted granted Critical
Publication of JP6152738B2 publication Critical patent/JP6152738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

【課題】被写体の動きに対する追尾性能を高めること。【解決手段】カメラシステムは、第1の撮影範囲10Aを所定周期で撮像して得られる第1画像に基づいて追尾対象物を検出し、第1追尾情報を生成する第1追尾部、および外部機器と通信する第1通信部を有する第1カメラ10と、第1の撮影範囲10Aと略等しい第2撮影範囲20Aを所定周期かつ第1カメラ10と異なるタイミングで撮像して得られる第2画像に基づいて追尾対象物を検出し、第2追尾情報を生成する第2追尾部、および外部機器と通信する第2通信部を有する第2カメラ20と、を備え、第2通信部は、第2追尾部で生成された第2追尾情報を第1カメラ10へ送信する。【選択図】図1

Description

本発明は、カメラシステムに関する。
入力画像から継続的にテンプレート画像を生成することにより、追尾精度を向上する技術が知られている(特許文献1参照)。
特開2009−111716号公報
従来技術では、被写体の動きに対してテンプレート画像の生成が間に合わなくなると、追尾性能が低下する。
本発明によるカメラシステムは、第1の撮影範囲を所定周期で撮像して得られる第1画像に基づいて追尾対象物を検出し、第1追尾情報を生成する第1追尾部、および外部機器と通信する第1通信部を有する第1カメラと、第1の撮影範囲と略等しい第2撮影範囲を所定周期かつ第1カメラと異なるタイミングで撮像して得られる第2画像に基づいて追尾対象物を検出し、第2追尾情報を生成する第2追尾部、および外部機器と通信する第2通信部を有する第2カメラと、を備え、第2通信部は、第2追尾部で生成された第2追尾情報を第1カメラへ送信することを特徴とする。
本発明によれば、従来技術に比べて、被写体の動きに対する追尾性能を高めることができる。
デジタルカメラによって構成されるカメラシステムの使用場面を例示する図である。 デジタルカメラの構成例を説明するブロック図である。 第一の実施形態における追尾処理シーケンスを説明する図である。 CPUが実行する処理の流れを説明するフローチャートである。 第二の実施形態における追尾処理シーケンスを説明する図である。
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<使用場面の説明>
図1は、本発明の第一の実施形態によるデジタルカメラ10、およびデジタルカメラ20によって構成されるカメラシステムの使用場面を例示する図である。図1において、第1のデジタルカメラ10と第2のデジタルカメラ20とが、それぞれ三脚に固定されている。デジタルカメラ10およびデジタルカメラ20が設置される位置は、デジタルカメラ10による撮影範囲10Aと、デジタルカメラ20による撮影範囲20Aとの間に重複する領域51を有する位置である。デジタルカメラ10およびデジタルカメラ20は、重複領域51を広く確保するように、近い位置に設置される。領域53および領域54は、撮影範囲10Aおよび撮影範囲20Aのいずれにも含まれない領域を表す。
撮影者は、あらかじめデジタルカメラ10およびデジタルカメラ20を設置し、デジタルカメラ10側に陣取ってデジタルカメラ10に対して撮影指示を行う。デジタルカメラ10およびデジタルカメラ20はそれぞれ、ライブビュー画像を取得しながら追尾対象物である主要被写体60に対する追尾処理を行う。ライブビュー画像は、撮影指示前において所定のフレームレート(例えば60fps)で撮像されるモニタ用の画像のことをいう。
デジタルカメラ10およびデジタルカメラ20は、互いの追尾情報(撮影範囲における主要被写体60の位置等)を他方のデジタルカメラへ送信する。デジタルカメラ10およびデジタルカメラ20間において相互に追尾情報を送信するのは、デジタルカメラ10とデジタルカメラ20との間で追尾情報を共有し、各デジタルカメラが継続して追尾処理を行うためである。
<ブロック図の説明>
図2は、デジタルカメラ10およびデジタルカメラ20の構成例を説明するブロック図である。本実施形態では、デジタルカメラ10およびデジタルカメラ20を同一の構成とする。図2において、デジタルカメラ10は、撮影光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理回路14と、LCDモニタ15と、RAM16と、フラッシュメモリ17と、CPU18と、通信制御回路19と、操作部材20とを備える。
画像処理回路14、LCDモニタ15、通信制御回路19、RAM16、フラッシュメモリ17、およびCPU18は、それぞれがバス21を介して接続されている。
撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図2を簡単にするため、撮影光学系11を単レンズとして図示している。
撮像素子12は、受光面に受光素子が二次元配列されたCMOSイメージセンサなどによって構成される。撮像素子12は、撮影光学系11を通過した光束による被写体像を光電変換し、アナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。
AFE回路13は、アナログ画像信号に対して所定のアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。デジタル画像データは画像処理回路14に入力される。画像処理回路14は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を施す。
LCDモニタ15は液晶パネルによって構成され、CPU18からの指示に応じて画像や操作メニュー画面などを表示する。RAM16はCPU18のワークメモリとして使用される。また、RAM16は、画像処理回路14による画像処理工程におけるデジタル画像データを一時的に記憶する。フラッシュメモリ17は、CPU18が実行するプログラムを記憶する。
CPU18は、フラッシュメモリ17が記憶するプログラムを実行することにより、デジタルカメラ10の動作を制御する。CPU18は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、例えば、追尾対象物に対応する画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。CPU18は、上述したライブビュー画像に基づいて逐次コントラスト情報を取得し、フォーカス調節を行う。露出(AE)演算は、例えば、追尾対象物が検出されている領域の画像信号に基づいて演算を行う。
操作部材20は、メインスイッチ、レリーズボタンおよびメニュースイッチなどを含む。操作部材20は、メインスイッチ操作やレリーズ操作、メニュー選択操作など、各操作に応じた操作信号をCPU18へ送出する。CPU18は、操作部材20からの操作信号の入力を監視する。
CPU18は、レリーズボタンの押下(全押し)操作を示す操作信号を受けると、図2の各ブロックへ指示を送って撮影処理を開始させる。通信制御回路19は、CPU18からの指示に応じて外部機器との間で無線通信を行う。通信制御回路19は、アンテナ19aを介して電波を送受信する。本実施形態では、デジタルカメラ10と同様の構成を有するデジタルカメラ20との間で無線通信を行う。
<連動する追尾処理>
上述したように、デジタルカメラ10およびデジタルカメラ20は、相互に追尾情報を共有し、各デジタルカメラが継続して追尾処理を行う。追尾情報を共有することによって、例えば、一方のデジタルカメラにおいて主要被写体60が撮影範囲の外へ移動した場合でも、他方のデジタルカメラの撮影範囲に主要被写体60が含まれていれば、他方のデジタルカメラから受けた追尾情報を用いて主要被写体60の位置推定を行う。また、他方のデジタルカメラから受けた追尾情報を用いることで、追尾処理性能を高める。詳細については後述する。
なお、追尾情報の共有は、相互に追尾情報を送信する場合に限らず、一方のデジタルカメラのみが他方のデジタルカメラに追尾情報を送信する場合も含まれる。すなわち、例えばデジタルカメラ10は、自身の追尾情報をデジタルカメラ20に送信せず、デジタルカメラ20の追尾情報の受信のみを行っても良い。これにより、少なくともデジタルカメラ10の追尾性能は向上する。
第一の実施形態においては、デジタルカメラ10およびデジタルカメラ20が、フレーム間(現フレーム画像と前フレーム画像との間)における主要被写体60の移動量が所定値より大きい場合に、他方のデジタルカメラに対して追尾情報を送信する。
デジタルカメラ10およびデジタルカメラ20は、同一のフレームレート(例えば60fps)でライブビュー画像を取得する。そして、デジタルカメラ10によるフレーム画像の取得タイミングとデジタルカメラ20によるフレーム画像の取得タイミングとを半周期ずらすことにより、一方のデジタルカメラによる一のフレーム画像の取得と次のフレーム画像の取得の間に、他方のデジタルカメラによるフレーム画像の取得が行われるようにする。なお、半周期は一例であり、所定の周期がずれていれば、2/5周期であっても3/7周期であってもよい。デジタルカメラ10およびデジタルカメラ20は、あらかじめ基準時刻が合わせられている。そして、例えば基準時刻から所定時間(オフセット)が経過したタイミングでフレーム画像の取り込みを開始するように構成されている。デジタルカメラ10およびデジタルカメラ20において、取り込み開始時刻(オフセット)を異なる値に設定することにより、互いのフレーム画像の取得タイミングをずらすことができる。
また、デジタルカメラ10およびデジタルカメラ20は、共通の主要被写体60を追尾対象物とし、相互に追尾情報を共有する。このためにデジタルカメラ10およびデジタルカメラ20で共通の座標系が用いられる。デジタルカメラ10の撮影範囲10Aおよびデジタルカメラ20の撮影範囲20Aとの間に重複する領域51が存在するので、例えば、領域51内のいずれかの位置(例えば中央)を原点とする座標系を共通の座標系として用いる。デジタルカメラ10およびデジタルカメラ20は、この座標原点を基準に主要被写体60の位置を表す。
<追尾処理シーケンスの説明>
図3は、追尾処理シーケンスを説明する図である。図3において上段は、デジタルカメラ10によるフレーム画像の取得タイミングを表す。図3において中段は、デジタルカメラ20によるフレーム画像の取得タイミングを表す。デジタルカメラ10は、時刻t1、t3、t5、…においてフレーム画像を取得する。デジタルカメラ20は、デジタルカメラ10によるフレーム画像の取得タイミングと半周期ずらした時刻t2、t4、t6、…においてフレーム画像を取得する。
主要被写体60は、例えば、当初は撮影範囲10Aのうち領域52(図1)に位置し、領域52から重複領域51内へ移動し、さらに重複領域51から撮影範囲20A内の領域55へ移動するものとする。図3において下段は、主要被写体60が含まれる領域を表す。
デジタルカメラ10は、取得時刻が異なる複数フレームの画像データを用いて公知のテンプレートマッチング処理を施すことにより、先に取得されたフレーム画像における追尾対象物(主要被写体60)と類似する領域を、後から取得されたフレーム画像から検出(追尾)する。なお、テンプレート画像(追尾対象画像)は必ずしも毎フレームごとに更新する必要はない。すなわち、複数のフレームについて同じテンプレート画像を用いてテンプレートマッチング処理を行っても良い。これにより追尾演算の負荷を軽減できる。
テンプレートマッチング処理とは、テンプレート画像(追尾対象物)と類似する領域を検出対象のフレーム画像の中から探索する処理である。探索は検出対象のフレーム画像の全領域で行ってもよいし、検出対象のフレーム画像の一部である所定の探索領域でのみ行ってもよい。所定の探索領域でのみ探索を行う場合、探索領域の設定が必要になる。探索領域は、例えば先のフレーム画像のテンプレートマッチング処理の結果に基づいて、設定されるようにしてもよい。
デジタルカメラ10は、後から取得されたフレーム画像における追尾対象物の位置と、先に取得されたフレーム画像における追尾対象物の位置との間の相対距離が所定値を超えている場合に、主要被写体60が大きく移動した(移動量:大)と判断する。デジタルカメラ10は、後から取得されたフレーム画像における追尾対象物の位置と、先に取得されたフレーム画像における追尾対象物の位置との間の相対距離が所定値を超えていない場合には、主要被写体60が大きく移動していない(移動量:小)と判断する。
デジタルカメラ10は、主要被写体60の移動量大を判断した場合、直近に取得したフレーム画像(図3の例では時刻t5において取得したフレーム画像)を用いて得た追尾情報をデジタルカメラ20へ送信する。追尾情報は、例えば主要被写体60の位置座標、主要被写体60のサイズ、主要被写体60が移動する向き、テンプレートマッチング処理用のテンプレート画像、フレーム画像の取得時刻を含む。主要被写体60のサイズは、例えば画面内の面積によって表される。テンプレート画像の代わりに、テンプレート画像の生成に用いる特徴量を含めてもよい。特徴量は、フレーム画像のうち主要被写体60を含む所定領域内の画像データから抽出される情報であり、例えば色情報などである。
デジタルカメラ10は、検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。通常、テンプレート画像は、デジタルカメラ10の撮像素子12が検出対象のフレーム画像を取得する前に取得したフレーム画像から生成される画像である。ここで、追尾情報をデジタルカメラ20から受信している場合は、デジタルカメラ20から受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。上述したように、追尾情報には、例えば、主要被写体60の位置座標、主要被写体60のサイズ、主要被写体60が移動する向き、テンプレートマッチング処理用のテンプレート画像、フレーム画像の取得時刻等、様々な情報が含まれており、デジタルカメラ10は追尾情報の中から必要な情報を用いて追尾演算をすることにより追尾性能を向上することができる。例えば、探索領域の設定に、主要被写体60の位置座標を用いることができる。
デジタルカメラ20から受信した追尾情報に、デジタルカメラ10の撮像素子12で取得したフレーム画像から生成されるテンプレート画像が含まれている場合、デジタルカメラ10は、検出対象フレーム画像と、デジタルカメラ20から受信した追尾情報に含まれるテンプレート画像とに基づいて追尾演算を行う。なお、デジタルカメラ20から受信した追尾情報は、必ずしもテンプレート画像を含んでいる必要はない。また、デジタルカメラ20から受信した追尾情報がテンプレート画像を含んでいたとしても、デジタルカメラ10は、デジタルカメラ20から受信した追尾情報に含まれるテンプレート画像を用いずに、デジタルカメラ10の撮像素子12が取得したフレーム画像から生成されるテンプレート画像を用いてもよい。
検出対象のフレーム画像と、例えば、時刻t6に対応する追尾情報(時刻t6で取得したフレーム画像の追尾演算の結果得られた追尾情報)をデジタルカメラ20から受けている場合、検出対象のフレーム画像(時刻t7)と、デジタルカメラ20から受信した最新の追尾情報(時刻t6)とに基づいて追尾演算をし、新たな追尾情報を得る。
デジタルカメラ10は、主要被写体60が領域55内へ進んだ時刻t9以降は、デジタルカメラ10自身で主要被写体60が含まれるフレーム画像を取得できない 。しかしながら、デジタルカメラ20から受信した追尾情報が存在する場合には、検出対象のフレーム画像(時刻t9)に対応する追尾情報を、例えば直近にデジタルカメラ20から受信した追尾情報(時刻t10)と、デジタルカメラ20から受信した前フレームに相当する追尾情報(時刻t8)とに基づいて推定するようにしても良い。
一方、デジタルカメラ20は、主要被写体60が領域52内に存在する時刻t2においては、デジタルカメラ20自身で主要被写体60が含まれるフレーム画像を取得できないが、主要被写体60が領域51内へ進んだ時刻t4以降は、デジタルカメラ20自身で主要被写体60が含まれるフレーム画像を取得できる。
なお、図3は実施形態の一例であり、主要被写体60が領域52内に存在する場合に、デジタルカメラ20は、常にデジタルカメラ10から追尾情報を受信するようにしても良い。また、主要被写体60が領域55内に存在する場合に、デジタルカメラ10は、常にデジタルカメラ20から追尾情報を受信するようにしても良い。
デジタルカメラ20は、主要被写体60の移動量大を判断した場合、上述したデジタルカメラ10の場合と同様に、直近に取得したフレーム画像(図3の例では時刻t6、t8、t10においてそれぞれ取得したフレーム画像)に基づいて得られる追尾情報を、その都度デジタルカメラ10へ送信する。
デジタルカメラ20は、デジタルカメラ20の撮像素子12が取得した検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。通常、テンプレート画像は、デジタルカメラ20の撮像素子12が検出対象のフレーム画像を取得する前に取得したフレーム画像から生成される画像である。デジタルカメラ10の場合と同様に、追尾情報をデジタルカメラ10から受信している場合は、デジタルカメラ10から受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。例えば、時刻t5に対応する追尾情報(時刻t5で取得したフレーム画像の追尾演算の結果得られた追尾情報)をデジタルカメラ10から受けている場合、直近に取得したフレーム画像(時刻t6)と、デジタルカメラ10から受信した最新の追尾情報(時刻t5)とに基づいて追尾演算をし、新たな追尾情報を得る。
<フローチャートの説明>
デジタルカメラ10のCPU18が実行する処理の流れについて、図4に例示するフローチャートを参照して説明する。CPU18は、連動する追尾処理モードに設定されている場合において、図4の処理を行うプログラムを実行する。連動する追尾処理モードへの切替えは、例えばメニュー設定処理によって行われる。
図4のステップS10において、CPU18は、初期化処理を行ってステップS30へ進む。初期化処理では、デジタルカメラ10およびデジタルカメラ20間で追尾情報を共有するための準備として、両デジタルカメラ間で共通する座標系の座標原点を合わせ、ズームレンズの画角を合わせ、ライブビュー画像の取得周期を合わせ、基準時刻を合わせる。デジタルカメラ10とデジタルカメラ20との間でライブビュー画像の取得周期が異なる場合は、遅い方の周期に合わせるものとする。また、設定されている撮影条件(シャッタースピード、絞り値、ISO感度など)が異なる場合は、デジタルカメラ10側の条件に揃えるものとする。
ステップS30において、CPU18は、撮像素子12にライブビュー画像を取得させてステップS40へ進む。これにより、新たなフレーム画像が取得される。ステップS40において、CPU18は、補間追尾情報が存在するか否かを判定する。ここで、デジタルカメラ20から受信した追尾情報を補間追尾情報と呼ぶことにする。CPU18は、デジタルカメラ20から受信した補間追尾情報を有している場合に、ステップS40を肯定判定してステップS50へ進む。CPU18は、デジタルカメラ20から補間追尾情報を受信していない場合には、ステップS40を否定判定してステップS60へ進む。
ステップS50において、CPU18は、ステップS30にて取得した検出対象のフレーム画像と、デジタルカメラ20から受信した補間追尾情報とに基づいて追尾演算をし、新たな追尾情報を得てステップS70へ進む。なお、テンプレート画像は、補間追尾情報に含まれるテンプレート画像を用いてもよいし、前フレーム画像から生成されたテンプレート画像を用いてもよい。
ステップS60 において、CPU18は、ステップS30にて取得した検出対象のフレーム画像と、前フレーム画像の追尾情報とに基づいて追尾演算をし、新たな追尾情報を得てステップS70へ進む。なお、テンプレート画像は、前フレーム画像から生成されたテンプレート画像を用いる。前フレーム画像から生成されたテンプレート画像は、前フレーム画像の追尾情報に含まれていてもよい。
ステップS70において、CPU18は、追尾演算によって追尾対象物(主要被写体60)を検出できたか否かを判定する。CPU18は、追尾対象物を検出できた場合にステップS70を肯定判定してステップS80へ進み、追尾対象物を検出できなかった場合にはステップS70を否定判定してステップS100へ進む。
ステップS80において、CPU18は、追尾対象物(主要被写体60)の移動量が所定値より大きいか否かを判定する。CPU18は、上述したように主要被写体60の移動量大を判断した場合に、ステップS80を肯定判定してステップS90へ進む。CPU18は、主要被写体60の移動量大を判断しない場合には、ステップS80を否定判定してステップS100へ進む。
ステップS90において、CPU18は通信制御回路19へ指示を送り、最新の追尾情報をデジタルカメラ20へ送信させてステップS100へ進む。デジタルカメラ10から送信する追尾情報は、デジタルカメラ20にとって補間追尾情報となる。
ステップS100において、CPU18は、全押し操作されたか否かを判定する。CPU18は、操作部材20からレリーズボタンの全押し操作信号が入力された場合にステップS100を肯定判定してステップS110へ進む。CPU18は、操作部材20からレリーズボタンの全押し操作信号が入力されていない場合には、ステップS100を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。
ステップS110において、CPU18は、設定されている撮影条件(シャッタースピード、絞り値、ISO感度など)に基づいて撮影処理を実行させて、図4による処理を終了する。
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)カメラシステムは、第1の撮影範囲10Aを例えば60fpsで撮像して得られる第1画像に基づいて主要被写体60を検出し、第1追尾情報を生成するCPU18、およびデジタルカメラ20と通信する通信制御回路19を有するデジタルカメラ10と、第1の撮影範囲10Aと略等しい第2撮影範囲20Aを例えば60fpsかつデジタルカメラ10と異なるタイミングで撮像して得られる第2画像に基づいて主要被写体60を検出し、第2追尾情報を生成するCPU18、およびデジタルカメラ10と通信する通信制御回路19を有するデジタルカメラ20と、を備え、デジタルカメラ20の通信制御回路19は、CPU18で生成された第2追尾情報をデジタルカメラ10の通信制御回路19へ送信するようにした。これにより、デジタルカメラ10のみで追尾を行う場合に比べて、被写体の動きに対する追尾性能を高めることができる。例えば、少なくともデジタルカメラ20の撮影範囲に主要被写体60が含まれていれば、デジタルカメラ10はデジタルカメラ20から受けた追尾情報を用いて追尾を継続できる。また、フレーム画像の取得タイミングを半周期ずらすことによって、みかけ上のフレームレートを2倍(120fps)に速めることができる。これにより、追尾演算を行うフレーム間隔が短くなり、追尾精度を向上することができる。
(2)デジタルカメラ10のCPU18は、第1画像または第2追尾情報に基づいて主要被写体60を検出し、デジタルカメラ20のCPU18は、第2画像または第1追尾情報に基づいて主要被写体60を検出するようにした。互いの追尾情報を共有することで、被写体の動きに対する追尾性能を高めることができる。
(3)デジタルカメラ10の通信制御回路19は、デジタルカメラ10のCPU18で検出された主要被写体60の移動量が所定値より大きい場合に第1追尾情報をデジタルカメラ20の通信制御回路19へ送信し、デジタルカメラ20の通信制御回路19は、デジタルカメラ20のCPU18で検出された主要被写体60の移動量が所定値より大きい場合に第2追尾情報をデジタルカメラ100の通信制御回路19へ送信する。追尾情報の送信を限定的にしたので、追尾情報を常に送信する場合に比べて、処理負担を軽減できる。
(4)デジタルカメラ10のCPU18は、主要被写体60を前回検出した以降に取得された第2追尾情報がデジタルカメラ10の通信制御回路19で受信されている場合に、第2追尾情報を用いて主要被写体60を検出し、デジタルカメラ20のCPU18は、主要被写体60を前回検出した以降に取得された第1追尾情報がデジタルカメラ20の通信制御回路19で受信されている場合に、第1追尾情報を用いて主要被写体60を検出するようにした。直近の追尾情報を共有することで、被写体の動きに対する追尾性能を、適切に高めることができる。
(第二の実施形態)
上述した第一の実施形態においては、デジタルカメラ10(デジタルカメラ20)が、主要被写体60の移動量大を判断した場合に、検出対象のフレーム画像を用いて得た追尾情報をデジタルカメラ20へ送信する例を説明した。第二の実施形態では、デジタルカメラ10(デジタルカメラ20)が、検出対象のフレーム画像を用いて得た追尾情報を、主要被写体60の移動量にかかわらずデジタルカメラ20へ送信する。
図5は、第二の実施形態における追尾処理シーケンスを説明する図である。図5において上段は、デジタルカメラ10によるフレーム画像の取得タイミングを表す。図5において中段は、デジタルカメラ20によるフレーム画像の取得タイミングを表す。図5において下段は、主要被写体60が含まれる領域を表す。
デジタルカメラ10が、時刻t1、t3、t5、…においてフレーム画像を取得する点、デジタルカメラ20が、デジタルカメラ10によるフレーム画像の取得タイミングと半周期ずらした時刻t2、t4、t6、…においてフレーム画像を取得する点、および、主要被写体60が、当初撮影範囲10Aのうち領域52(図1)に位置し、領域52から重複領域51内へ移動し、さらに重複領域51から撮影範囲20A内の領域55へ移動する点も、図3の場合と同様であるものとする。
図5より明らかなように、一方のデジタルカメラが、検出対象のフレーム画像を用いて得た追尾情報を、主要被写体60の移動量にかかわらず他方のデジタルカメラへ送信する。
以上説明した第二の実施形態によれば、第一の実施形態と同様に、デジタルカメラ10または20のみで追尾を行う場合に比べて、被写体の動きに対する追尾性能を高めることができる。
また、デジタルカメラ10の通信制御回路19は、デジタルカメラ10のCPU18によって第1追尾情報が取得されるごとに第1追尾情報をデジタルカメラ20の通信制御回路19へ送信し、デジタルカメラ20の通信制御回路19は、デジタルカメラ20のCPU18によって第2追尾情報が取得されるごとに第2追尾情報をデジタルカメラ10の通信制御回路19へ送信するようにしたので、デジタルカメラ10およびデジタルカメラ20間で追尾情報を共有する頻度が高まり、被写体の動きに対する追尾性能を、適切に高めることができる。
(変形例1)
デジタルカメラ10とデジタルカメラ20とでカメラシステムを構成する例を説明したが、デジタルカメラ10と、デジタルカメラ20と、デジタルカメラ30とでカメラシステムを構成してもよい。デジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、同一のフレームレート(例えば60fps)でライブビュー画像を取得する。そして、デジタルカメラ10によるフレーム画像の取得タイミングと、デジタルカメラ20によるフレーム画像の取得タイミングと、デジタルカメラ30によるフレーム画像の取得タイミングとを、それぞれ1/3周期ずらすことにより、各デジタルカメラが順番にフレーム画像を取得するようにする。このためにデジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、あらかじめ基準時刻が合わせられる。
また、デジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、共通の主要被写体60を追尾対象物とし、相互に追尾情報を共有する。このためにデジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、あらかじめ主要被写体60の位置を表す座標の基準点が合わせられる。例えばデジタルカメラ10の撮影範囲10A、デジタルカメラ20の撮影範囲20A、デジタルカメラ30の撮影範囲30Aとの間に重複する領域51を確保し、領域51内のいずれかの位置(例えば中央)を原点とする座標系の原点を基準に主要被写体60の位置を表す。
各デジタルカメラは、検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。ここで、追尾情報を他のデジタルカメラから受信している場合は、他のデジタルカメラから受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。
以上説明した変形例1の場合は、3台のデジタルカメラで追尾情報を共有することによって、少なくとも1台のデジタルカメラの撮影範囲に主要被写体60が含まれていれば、そのデジタルカメラから受けた追尾情報を用いて主要被写体60の位置推定を行うことができる。また、フレーム画像の取得タイミングを例えば1/3周期ずつずらすことによって、各デジタルカメラが順番にフレーム画像を取得するようにする。他のデジタルカメラから受けた追尾情報を用いることで、みかけ上のフレームレートを約3倍(180fps)に速めることが可能になる。それにより、追尾演算を行うフレーム間隔が短くなり、追尾精度を向上することができる。
(変形例2)
上記実施形態では、主要被写体を人物として説明しているが、人物以外の複数の移動体を主要被写体としてもよい。例えば、犬や猫などの動物を主要被写体としてもよいし、あるいは車などの移動体を主要被写体としてもよい。周知の手法(例えばテンプレートマッチング等の手法)を用いて主要被写体を特定できるのであれば、どのような移動体にも適用可能である。
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。
10、20…デジタルカメラ
10A、20A…撮影範囲
12…撮像素子
14…画像処理回路
15…LCDモニタ
18…CPU
19…通信制御回路
20…操作部材
51…重複領域
52、55…領域
60…主要被写体

Claims (8)

  1. 第1の撮影範囲を所定周期で撮像して得られる第1画像に基づいて追尾対象物を検出し、第1追尾情報を生成する第1追尾部、および外部機器と通信する第1通信部を有する第1カメラと、
    前記第1の撮影範囲と略等しい第2撮影範囲を前記所定周期かつ前記第1カメラと異なるタイミングで撮像して得られる第2画像に基づいて前記追尾対象物を検出し、第2追尾情報を生成する第2追尾部、および外部機器と通信する第2通信部を有する第2カメラと、を備え、
    前記第2通信部は、前記第2追尾部で生成された第2追尾情報を前記第1カメラへ送信する
    ことを特徴とするカメラシステム。
  2. 請求項1に記載のカメラシステムにおいて、
    前記第1追尾部は、前記第1追尾情報と前記第2カメラから受信した前記第2追尾情報の何れか一方と前記第1画像とに基づいて前記追尾対象物を検出することを特徴とするカメラシステム。
  3. 請求項1または2に記載のカメラシステムにおいて、
    前記第2通信部は、前記第2追尾部で検出された前記追尾対象物の移動量が所定値より大きい場合に前記第2追尾情報を前記第1カメラへ送信することを特徴とするカメラシステム。
  4. 請求項1または2に記載のカメラシステムにおいて、
    前記第2通信部は、前記第2追尾部によって前記第2追尾情報が生成されるごとに前記第2追尾情報を前記第1カメラへ送信することを特徴とするカメラシステム。
  5. 請求項1または2に記載のカメラシステムにおいて、
    前記第1通信部は、前記第1追尾部で生成された前記第1追尾情報を前記第2カメラへ送信し、
    前記第2追尾部は、前記第2追尾情報と前記カメラ1から受信した前記第1追尾情報の何れか一方と前記第2画像とに基づいて前記追尾対象物を検出することを特徴とするカメラシステム。
  6. 請求項5に記載のカメラシステムにおいて、
    前記第1通信部は、前記第1追尾部で検出された前記追尾対象物の移動量が所定値より大きい場合に前記第1追尾情報を前記第2カメラへ送信し、
    前記第2通信部は、前記第2追尾部で検出された前記追尾対象物の移動量が前記所定値より大きい場合に前記第2追尾情報を前記第1カメラへ送信することを特徴とするカメラシステム。
  7. 請求項5に記載のカメラシステムにおいて、
    前記第1通信部は、前記第1追尾部によって前記第1追尾情報が生成されるごとに前記第1追尾情報を前記第2カメラへ送信し、
    前記第2通信部は、前記第2追尾部によって前記第2追尾情報が生成されるごとに前記第2追尾情報を前記第1カメラへ送信することを特徴とするカメラシステム。
  8. 請求項1から7の何れか一項に記載のカメラシステムにおいて、
    前記第1追尾情報は前記第1画像から生成したテンプレート画像を含み、
    前記第2追尾情報は前記第2画像から生成したテンプレート画像を含むことを特徴とするカメラシステム。
JP2013163033A 2013-08-06 2013-08-06 カメラシステム Active JP6152738B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013163033A JP6152738B2 (ja) 2013-08-06 2013-08-06 カメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013163033A JP6152738B2 (ja) 2013-08-06 2013-08-06 カメラシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017107465A Division JP6485490B2 (ja) 2017-05-31 2017-05-31 カメラ

Publications (2)

Publication Number Publication Date
JP2015033066A true JP2015033066A (ja) 2015-02-16
JP6152738B2 JP6152738B2 (ja) 2017-06-28

Family

ID=52518032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013163033A Active JP6152738B2 (ja) 2013-08-06 2013-08-06 カメラシステム

Country Status (1)

Country Link
JP (1) JP6152738B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188297A (ja) * 2019-05-09 2020-11-19 キヤノン株式会社 撮像装置、撮像システム、およびその制御方法
GB2614051A (en) * 2021-12-16 2023-06-28 Peacock Tech Limited Image processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246307A (ja) * 2005-03-07 2006-09-14 Seiko Epson Corp 画像データ処理装置
JP2010021619A (ja) * 2008-07-08 2010-01-28 Mitsubishi Electric Corp 複数カメラ画像処理装置及び複数カメラ画像表示装置
WO2011010490A1 (ja) * 2009-07-22 2011-01-27 オムロン株式会社 監視カメラ端末
JP2012138671A (ja) * 2010-12-24 2012-07-19 Kyocera Corp ステレオカメラ装置
JP2012222526A (ja) * 2011-04-06 2012-11-12 Canon Inc 撮像装置、方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246307A (ja) * 2005-03-07 2006-09-14 Seiko Epson Corp 画像データ処理装置
JP2010021619A (ja) * 2008-07-08 2010-01-28 Mitsubishi Electric Corp 複数カメラ画像処理装置及び複数カメラ画像表示装置
WO2011010490A1 (ja) * 2009-07-22 2011-01-27 オムロン株式会社 監視カメラ端末
JP2012138671A (ja) * 2010-12-24 2012-07-19 Kyocera Corp ステレオカメラ装置
JP2012222526A (ja) * 2011-04-06 2012-11-12 Canon Inc 撮像装置、方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188297A (ja) * 2019-05-09 2020-11-19 キヤノン株式会社 撮像装置、撮像システム、およびその制御方法
JP7423196B2 (ja) 2019-05-09 2024-01-29 キヤノン株式会社 撮像装置、撮像システム、およびその制御方法
GB2614051A (en) * 2021-12-16 2023-06-28 Peacock Tech Limited Image processing

Also Published As

Publication number Publication date
JP6152738B2 (ja) 2017-06-28

Similar Documents

Publication Publication Date Title
KR101710633B1 (ko) 자동 초점 조절 방법, 자동 초점 조절 장치, 및 이를 포함하는 디지털 촬영장치
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
US20140198244A1 (en) Focus aid system
US20110110656A1 (en) Camera system and image forming apparatus
CN107850753B (zh) 检测设备、检测方法、检测程序和成像设备
JP2009133903A (ja) 撮像装置およびその撮像方法
US8447179B2 (en) Method and apparatus for applying multi-autofocusing (AF) using contrast AF
JP5618712B2 (ja) 自動焦点調節装置および撮像装置
JP2016142925A (ja) 撮像装置およびその制御方法、プログラム、記憶媒体
JP2010096962A (ja) Af枠自動追尾機能を備えたオートフォーカスシステム
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
KR20120106307A (ko) 자동 초점 조절 장치
US20090167931A1 (en) Imaging device
US8737831B2 (en) Digital photographing apparatus and method that apply high-speed multi-autofocusing (AF)
JP6152738B2 (ja) カメラシステム
JP6485490B2 (ja) カメラ
JP2015106851A (ja) デジタルカメラ
JP7131541B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN107659766B (zh) 控制设备和方法、摄像设备和系统、镜头设备和存储介质
JP2020167626A (ja) 撮像装置およびその制御方法
JP2016142924A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US10425574B2 (en) Imaging device and focusing evaluation device
WO2018181163A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2020205560A (ja) 撮像装置およびその制御方法
JP6645690B2 (ja) 自動焦点調節装置、撮像装置、および自動焦点調節方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170515

R150 Certificate of patent or registration of utility model

Ref document number: 6152738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250