JP6485490B2 - カメラ - Google Patents

カメラ Download PDF

Info

Publication number
JP6485490B2
JP6485490B2 JP2017107465A JP2017107465A JP6485490B2 JP 6485490 B2 JP6485490 B2 JP 6485490B2 JP 2017107465 A JP2017107465 A JP 2017107465A JP 2017107465 A JP2017107465 A JP 2017107465A JP 6485490 B2 JP6485490 B2 JP 6485490B2
Authority
JP
Japan
Prior art keywords
digital camera
tracking
image
tracking information
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017107465A
Other languages
English (en)
Other versions
JP2017195617A (ja
Inventor
英樹 石原
英樹 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017107465A priority Critical patent/JP6485490B2/ja
Publication of JP2017195617A publication Critical patent/JP2017195617A/ja
Application granted granted Critical
Publication of JP6485490B2 publication Critical patent/JP6485490B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、カメラに関する。
入力画像から継続的にテンプレート画像を生成することにより、追尾精度を向上する技術が知られている(特許文献1参照)。
特開2009−111716号公報
従来技術では、被写体の動きに対してテンプレート画像の生成が間に合わなくなると、追尾性能が低下する。
本発明の一態様によるカメラは、第1の撮影範囲を撮像する第1撮像部と、前記第1撮像部によって撮像された第1画像に基づいて追尾する被写体を検出し、第1追尾情報を生成する第1追尾部と、前記第1の撮影範囲と少なくとも一部重複する第2撮影範囲を撮像する第2撮像部によって前記第1撮像部と異なるタイミングで撮像された第2画像に基づいて、第2追尾部によって前記被写体が検出されて、生成された第2追尾情報を取得する取得部と、を備え、前記第1追尾部は、前記第2追尾部で検出される前記被写体の移動量が所定値より大きい場合に前記第2追尾情報と前記第1画像とに基づいて前記被写体を検出する。
本発明によれば、従来技術に比べて、被写体の動きに対する追尾性能を高めることができる。
デジタルカメラによって構成されるカメラシステムの使用場面を例示する図である。 デジタルカメラの構成例を説明するブロック図である。 第一の実施形態における追尾処理シーケンスを説明する図である。 CPUが実行する処理の流れを説明するフローチャートである。 第二の実施形態における追尾処理シーケンスを説明する図である。
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
<使用場面の説明>
図1は、本発明の第一の実施形態によるデジタルカメラ10、およびデジタルカメラ20によって構成されるカメラシステムの使用場面を例示する図である。図1において、第1のデジタルカメラ10と第2のデジタルカメラ20とが、それぞれ三脚に固定されている。デジタルカメラ10およびデジタルカメラ20が設置される位置は、デジタルカメラ10による撮影範囲10Aと、デジタルカメラ20による撮影範囲20Aとの間に重複する領域51を有する位置である。デジタルカメラ10およびデジタルカメラ20は、重複領域51を広く確保するように、近い位置に設置される。領域53および領域54は、撮影範囲10Aおよび撮影範囲20Aのいずれにも含まれない領域を表す。
撮影者は、あらかじめデジタルカメラ10およびデジタルカメラ20を設置し、デジタルカメラ10側に陣取ってデジタルカメラ10に対して撮影指示を行う。デジタルカメラ10およびデジタルカメラ20はそれぞれ、ライブビュー画像を取得しながら追尾対象物である主要被写体60に対する追尾処理を行う。ライブビュー画像は、撮影指示前において所定のフレームレート(例えば60fps)で撮像されるモニタ用の画像のことをいう。
デジタルカメラ10およびデジタルカメラ20は、互いの追尾情報(撮影範囲における主要被写体60の位置等)を他方のデジタルカメラへ送信する。デジタルカメラ10およびデジタルカメラ20間において相互に追尾情報を送信するのは、デジタルカメラ10とデジタルカメラ20との間で追尾情報を共有し、各デジタルカメラが継続して追尾処理を行うためである。
<ブロック図の説明>
図2は、デジタルカメラ10およびデジタルカメラ20の構成例を説明するブロック図である。本実施形態では、デジタルカメラ10およびデジタルカメラ20を同一の構成とする。図2において、デジタルカメラ10は、撮影光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理回路14と、LCDモニタ15と、RAM16と、フラッシュメモリ17と、CPU18と、通信制御回路19と、操作部材20とを備える。
画像処理回路14、LCDモニタ15、通信制御回路19、RAM16、フラッシュメモリ17、およびCPU18は、それぞれがバス21を介して接続されている。
撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図2を簡単にするため、撮影光学系11を単レンズとして図示している。
撮像素子12は、受光面に受光素子が二次元配列されたCMOSイメージセンサなどによって構成される。撮像素子12は、撮影光学系11を通過した光束による被写体像を光電変換し、アナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。
AFE回路13は、アナログ画像信号に対して所定のアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。デジタル画像データは画像処理回路14に入力される。画像処理回路14は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を施す。
LCDモニタ15は液晶パネルによって構成され、CPU18からの指示に応じて画像や操作メニュー画面などを表示する。RAM16はCPU18のワークメモリとして使用される。また、RAM16は、画像処理回路14による画像処理工程におけるデジタル画像データを一時的に記憶する。フラッシュメモリ17は、CPU18が実行するプログラムを記憶する。
CPU18は、フラッシュメモリ17が記憶するプログラムを実行することにより、デジタルカメラ10の動作を制御する。CPU18は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、例えば、追尾対象物に対応する画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。CPU18は、上述したライブビュー画像に基づいて逐次コントラスト情報を取得し、フォーカス調節を行う。露出(AE)演算は、例えば、追尾対象物が検出されている領域の画像信号に基づいて演算を行う。
操作部材20は、メインスイッチ、レリーズボタンおよびメニュースイッチなどを含む。操作部材20は、メインスイッチ操作やレリーズ操作、メニュー選択操作など、各操作に応じた操作信号をCPU18へ送出する。CPU18は、操作部材20からの操作信号の入力を監視する。
CPU18は、レリーズボタンの押下(全押し)操作を示す操作信号を受けると、図2の各ブロックへ指示を送って撮影処理を開始させる。通信制御回路19は、CPU18からの指示に応じて外部機器との間で無線通信を行う。通信制御回路19は、アンテナ19aを介して電波を送受信する。本実施形態では、デジタルカメラ10と同様の構成を有するデジタルカメラ20との間で無線通信を行う。
<連動する追尾処理>
上述したように、デジタルカメラ10およびデジタルカメラ20は、相互に追尾情報を共有し、各デジタルカメラが継続して追尾処理を行う。追尾情報を共有することによって、例えば、一方のデジタルカメラにおいて主要被写体60が撮影範囲の外へ移動した場合でも、他方のデジタルカメラの撮影範囲に主要被写体60が含まれていれば、他方のデジタルカメラから受けた追尾情報を用いて主要被写体60の位置推定を行う。また、他方のデジタルカメラから受けた追尾情報を用いることで、追尾処理性能を高める。詳細については後述する。
なお、追尾情報の共有は、相互に追尾情報を送信する場合に限らず、一方のデジタルカメラのみが他方のデジタルカメラに追尾情報を送信する場合も含まれる。すなわち、例えばデジタルカメラ10は、自身の追尾情報をデジタルカメラ20に送信せず、デジタルカメラ20の追尾情報の受信のみを行っても良い。これにより、少なくともデジタルカメラ10の追尾性能は向上する。
第一の実施形態においては、デジタルカメラ10およびデジタルカメラ20が、フレーム間(現フレーム画像と前フレーム画像との間)における主要被写体60の移動量が所定値より大きい場合に、他方のデジタルカメラに対して追尾情報を送信する。
デジタルカメラ10およびデジタルカメラ20は、同一のフレームレート(例えば60fps)でライブビュー画像を取得する。そして、デジタルカメラ10によるフレーム画像の取得タイミングとデジタルカメラ20によるフレーム画像の取得タイミングとを半周期ずらすことにより、一方のデジタルカメラによる一のフレーム画像の取得と次のフレーム画像の取得の間に、他方のデジタルカメラによるフレーム画像の取得が行われるようにする。なお、半周期は一例であり、所定の周期がずれていれば、2/5周期であっても3/7周期であってもよい。デジタルカメラ10およびデジタルカメラ20は、あらかじめ基準時刻が合わせられている。そして、例えば基準時刻から所定時間(オフセット)が経過したタイミングでフレーム画像の取り込みを開始するように構成されている。デジタルカメラ10およびデジタルカメラ20において、取り込み開始時刻(オフセット)を異なる値に設定することにより、互いのフレーム画像の取得タイミングをずらすことができる。
また、デジタルカメラ10およびデジタルカメラ20は、共通の主要被写体60を追尾対象物とし、相互に追尾情報を共有する。このためにデジタルカメラ10およびデジタルカメラ20で共通の座標系が用いられる。デジタルカメラ10の撮影範囲10Aおよびデジタルカメラ20の撮影範囲20Aとの間に重複する領域51が存在するので、例えば、領域51内のいずれかの位置(例えば中央)を原点とする座標系を共通の座標系として用いる。デジタルカメラ10およびデジタルカメラ20は、この座標原点を基準に主要被写体60の位置を表す。
<追尾処理シーケンスの説明>
図3は、追尾処理シーケンスを説明する図である。図3において上段は、デジタルカメラ10によるフレーム画像の取得タイミングを表す。図3において中段は、デジタルカメラ20によるフレーム画像の取得タイミングを表す。デジタルカメラ10は、時刻t1、t3、t5、…においてフレーム画像を取得する。デジタルカメラ20は、デジタルカメラ10によるフレーム画像の取得タイミングと半周期ずらした時刻t2、t4、t6、…においてフレーム画像を取得する。
主要被写体60は、例えば、当初は撮影範囲10Aのうち領域52(図1)に位置し、領域52から重複領域51内へ移動し、さらに重複領域51から撮影範囲20A内の領域55へ移動するものとする。図3において下段は、主要被写体60が含まれる領域を表す。
デジタルカメラ10は、取得時刻が異なる複数フレームの画像データを用いて公知のテンプレートマッチング処理を施すことにより、先に取得されたフレーム画像における追尾対象物(主要被写体60)と類似する領域を、後から取得されたフレーム画像から検出(追尾)する。なお、テンプレート画像(追尾対象画像)は必ずしも毎フレームごとに更新する必要はない。すなわち、複数のフレームについて同じテンプレート画像を用いてテンプレートマッチング処理を行っても良い。これにより追尾演算の負荷を軽減できる。
テンプレートマッチング処理とは、テンプレート画像(追尾対象物)と類似する領域を検出対象のフレーム画像の中から探索する処理である。探索は検出対象のフレーム画像の全領域で行ってもよいし、検出対象のフレーム画像の一部である所定の探索領域でのみ行ってもよい。所定の探索領域でのみ探索を行う場合、探索領域の設定が必要になる。探索領域は、例えば先のフレーム画像のテンプレートマッチング処理の結果に基づいて、設定されるようにしてもよい。
デジタルカメラ10は、後から取得されたフレーム画像における追尾対象物の位置と、先に取得されたフレーム画像における追尾対象物の位置との間の相対距離が所定値を超えている場合に、主要被写体60が大きく移動した(移動量:大)と判断する。デジタルカメラ10は、後から取得されたフレーム画像における追尾対象物の位置と、先に取得されたフレーム画像における追尾対象物の位置との間の相対距離が所定値を超えていない場合には、主要被写体60が大きく移動していない(移動量:小)と判断する。
デジタルカメラ10は、主要被写体60の移動量大を判断した場合、直近に取得したフレーム画像(図3の例では時刻t5において取得したフレーム画像)を用いて得た追尾情報をデジタルカメラ20へ送信する。追尾情報は、例えば主要被写体60の位置座標、主要被写体60のサイズ、主要被写体60が移動する向き、テンプレートマッチング処理用のテンプレート画像、フレーム画像の取得時刻を含む。主要被写体60のサイズは、例えば画面内の面積によって表される。テンプレート画像の代わりに、テンプレート画像の生成に用いる特徴量を含めてもよい。特徴量は、フレーム画像のうち主要被写体60を含む所定領域内の画像データから抽出される情報であり、例えば色情報などである。
デジタルカメラ10は、検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。通常、テンプレート画像は、デジタルカメラ10の撮像素子12が検出対象のフレーム画像を取得する前に取得したフレーム画像から生成される画像である。ここで、追尾情報をデジタルカメラ20から受信している場合は、デジタルカメラ20から受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。上述したように、追尾情報には、例えば、主要被写体60の位置座標、主要被写体60のサイズ、主要被写体60が移動する向き、テンプレートマッチング処理用のテンプレート画像、フレーム画像の取得時刻等、様々な情報が含まれており、デジタルカメラ10は追尾情報の中から必要な情報を用いて追尾演算をすることにより追尾性能を向上することができる。例えば、探索領域の設定に、主要被写体60の位置座標を用いることができる。
デジタルカメラ20から受信した追尾情報に、デジタルカメラ10の撮像素子12で取得したフレーム画像から生成されるテンプレート画像が含まれている場合、デジタルカメラ10は、検出対象フレーム画像と、デジタルカメラ20から受信した追尾情報に含まれるテンプレート画像とに基づいて追尾演算を行う。なお、デジタルカメラ20から受信した追尾情報は、必ずしもテンプレート画像を含んでいる必要はない。また、デジタルカメラ20から受信した追尾情報がテンプレート画像を含んでいたとしても、デジタルカメラ10は、デジタルカメラ20から受信した追尾情報に含まれるテンプレート画像を用いずに、デジタルカメラ10の撮像素子12が取得したフレーム画像から生成されるテンプレート画像を用いてもよい。
検出対象のフレーム画像と、例えば、時刻t6に対応する追尾情報(時刻t6で取得したフレーム画像の追尾演算の結果得られた追尾情報)をデジタルカメラ20から受けている場合、検出対象のフレーム画像(時刻t7)と、デジタルカメラ20から受信した最新の追尾情報(時刻t6)とに基づいて追尾演算をし、新たな追尾情報を得る。
デジタルカメラ10は、主要被写体60が領域55内へ進んだ時刻t9以降は、デジタルカメラ10自身で主要被写体60が含まれるフレーム画像を取得できない 。しかしながら、デジタルカメラ20から受信した追尾情報が存在する場合には、検出対象のフレーム画像(時刻t9)に対応する追尾情報を、例えば直近にデジタルカメラ20から受信した追尾情報(時刻t10)と、デジタルカメラ20から受信した前フレームに相当する追尾情報(時刻t8)とに基づいて推定するようにしても良い。
一方、デジタルカメラ20は、主要被写体60が領域52内に存在する時刻t2においては、デジタルカメラ20自身で主要被写体60が含まれるフレーム画像を取得できないが、主要被写体60が領域51内へ進んだ時刻t4以降は、デジタルカメラ20自身で主要被写体60が含まれるフレーム画像を取得できる。
なお、図3は実施形態の一例であり、主要被写体60が領域52内に存在する場合に、デジタルカメラ20は、常にデジタルカメラ10から追尾情報を受信するようにしても良い。また、主要被写体60が領域55内に存在する場合に、デジタルカメラ10は、常にデジタルカメラ20から追尾情報を受信するようにしても良い。
デジタルカメラ20は、主要被写体60の移動量大を判断した場合、上述したデジタルカメラ10の場合と同様に、直近に取得したフレーム画像(図3の例では時刻t6、t8、t10においてそれぞれ取得したフレーム画像)に基づいて得られる追尾情報を、その都度デジタルカメラ10へ送信する。
デジタルカメラ20は、デジタルカメラ20の撮像素子12が取得した検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。通常、テンプレート画像は、デジタルカメラ20の撮像素子12が検出対象のフレーム画像を取得する前に取得したフレーム画像から生成される画像である。デジタルカメラ10の場合と同様に、追尾情報をデジタルカメラ10から受信している場合は、デジタルカメラ10から受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。例えば、時刻t5に対応する追尾情報(時刻t5で取得したフレーム画像の追尾演算の結果得られた追尾情報)をデジタルカメラ10から受けている場合、直近に取得したフレーム画像(時刻t6)と、デジタルカメラ10から受信した最新の追尾情報(時刻t5)とに基づいて追尾演算をし、新たな追尾情報を得る。
<フローチャートの説明>
デジタルカメラ10のCPU18が実行する処理の流れについて、図4に例示するフローチャートを参照して説明する。CPU18は、連動する追尾処理モードに設定されている場合において、図4の処理を行うプログラムを実行する。連動する追尾処理モードへの切替えは、例えばメニュー設定処理によって行われる。
図4のステップS10において、CPU18は、初期化処理を行ってステップS30へ進む。初期化処理では、デジタルカメラ10およびデジタルカメラ20間で追尾情報を共有するための準備として、両デジタルカメラ間で共通する座標系の座標原点を合わせ、ズームレンズの画角を合わせ、ライブビュー画像の取得周期を合わせ、基準時刻を合わせる。デジタルカメラ10とデジタルカメラ20との間でライブビュー画像の取得周期が異なる場合は、遅い方の周期に合わせるものとする。また、設定されている撮影条件(シャッタースピード、絞り値、ISO感度など)が異なる場合は、デジタルカメラ10側の条件に揃えるものとする。
ステップS30において、CPU18は、撮像素子12にライブビュー画像を取得させてステップS40へ進む。これにより、新たなフレーム画像が取得される。ステップS40において、CPU18は、補間追尾情報が存在するか否かを判定する。ここで、デジタルカメラ20から受信した追尾情報を補間追尾情報と呼ぶことにする。CPU18は、デジタルカメラ20から受信した補間追尾情報を有している場合に、ステップS40を肯定判定してステップS50へ進む。CPU18は、デジタルカメラ20から補間追尾情報を受信していない場合には、ステップS40を否定判定してステップS60へ進む。
ステップS50において、CPU18は、ステップS30にて取得した検出対象のフレーム画像と、デジタルカメラ20から受信した補間追尾情報とに基づいて追尾演算をし、新たな追尾情報を得てステップS70へ進む。なお、テンプレート画像は、補間追尾情報に含まれるテンプレート画像を用いてもよいし、前フレーム画像から生成されたテンプレート画像を用いてもよい。
ステップS60において、CPU18は、ステップS30にて取得した検出対象のフレーム画像と、前フレーム画像の追尾情報とに基づいて追尾演算をし、新たな追尾情報を得てステップS70へ進む。なお、テンプレート画像は、前フレーム画像から生成されたテンプレート画像を用いる。前フレーム画像から生成されたテンプレート画像は、前フレーム画像の追尾情報に含まれていてもよい。
ステップS70において、CPU18は、追尾演算によって追尾対象物(主要被写体60)を検出できたか否かを判定する。CPU18は、追尾対象物を検出できた場合にステップS70を肯定判定してステップS80へ進み、追尾対象物を検出できなかった場合にはステップS70を否定判定してステップS100へ進む。
ステップS80において、CPU18は、追尾対象物(主要被写体60)の移動量が所定値より大きいか否かを判定する。CPU18は、上述したように主要被写体60の移動量大を判断した場合に、ステップS80を肯定判定してステップS90へ進む。CPU18は、主要被写体60の移動量大を判断しない場合には、ステップS80を否定判定してステップS100へ進む。
ステップS90において、CPU18は通信制御回路19へ指示を送り、最新の追尾情報をデジタルカメラ20へ送信させてステップS100へ進む。デジタルカメラ10から送信する追尾情報は、デジタルカメラ20にとって補間追尾情報となる。
ステップS100において、CPU18は、全押し操作されたか否かを判定する。CPU18は、操作部材20からレリーズボタンの全押し操作信号が入力された場合にステップS100を肯定判定してステップS110へ進む。CPU18は、操作部材20からレリーズボタンの全押し操作信号が入力されていない場合には、ステップS100を否定判定してステップS30へ戻る。ステップS30へ戻る場合は、上述した処理を繰り返す。
ステップS110において、CPU18は、設定されている撮影条件(シャッタースピード、絞り値、ISO感度など)に基づいて撮影処理を実行させて、図4による処理を終了する。
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)カメラシステムは、第1の撮影範囲10Aを例えば60fpsで撮像して得られる第1画像に基づいて主要被写体60を検出し、第1追尾情報を生成するCPU18、およびデジタルカメラ20と通信する通信制御回路19を有するデジタルカメラ10と、第1の撮影範囲10Aと略等しい第2撮影範囲20Aを例えば60fpsかつデジタルカメラ10と異なるタイミングで撮像して得られる第2画像に基づいて主要被写体60を検出し、第2追尾情報を生成するCPU18、およびデジタルカメラ10と通信する通信制御回路19を有するデジタルカメラ20と、を備え、デジタルカメラ20の通信制御回路19は、CPU18で生成された第2追尾情報をデジタルカメラ10の通信制御回路19へ送信するようにした。これにより、デジタルカメラ10のみで追尾を行う場合に比べて、被写体の動きに対する追尾性能を高めることができる。例えば、少なくともデジタルカメラ20の撮影範囲に主要被写体60が含まれていれば、デジタルカメラ10はデジタルカメラ20から受けた追尾情報を用いて追尾を継続できる。また、フレーム画像の取得タイミングを半周期ずらすことによって、みかけ上のフレームレートを2倍(120fps)に速めることができる。これにより、追尾演算を行うフレーム間隔が短くなり、追尾精度を向上することができる。
(2)デジタルカメラ10のCPU18は、第1画像または第2追尾情報に基づいて主要被写体60を検出し、デジタルカメラ20のCPU18は、第2画像または第1追尾情報に基づいて主要被写体60を検出するようにした。互いの追尾情報を共有することで、被写体の動きに対する追尾性能を高めることができる。
(3)デジタルカメラ10の通信制御回路19は、デジタルカメラ10のCPU18で検出された主要被写体60の移動量が所定値より大きい場合に第1追尾情報をデジタルカメラ20の通信制御回路19へ送信し、デジタルカメラ20の通信制御回路19は、デジタルカメラ20のCPU18で検出された主要被写体60の移動量が所定値より大きい場合に第2追尾情報をデジタルカメラ100の通信制御回路19へ送信する。追尾情報の送信を限定的にしたので、追尾情報を常に送信する場合に比べて、処理負担を軽減できる。
(4)デジタルカメラ10のCPU18は、主要被写体60を前回検出した以降に取得された第2追尾情報がデジタルカメラ10の通信制御回路19で受信されている場合に、第2追尾情報を用いて主要被写体60を検出し、デジタルカメラ20のCPU18は、主要被写体60を前回検出した以降に取得された第1追尾情報がデジタルカメラ20の通信制御回路19で受信されている場合に、第1追尾情報を用いて主要被写体60を検出するようにした。直近の追尾情報を共有することで、被写体の動きに対する追尾性能を、適切に高めることができる。
(第二の実施形態)
上述した第一の実施形態においては、デジタルカメラ10(デジタルカメラ20)が、主要被写体60の移動量大を判断した場合に、検出対象のフレーム画像を用いて得た追尾情報をデジタルカメラ20へ送信する例を説明した。第二の実施形態では、デジタルカメラ10(デジタルカメラ20)が、検出対象のフレーム画像を用いて得た追尾情報を、主要被写体60の移動量にかかわらずデジタルカメラ20へ送信する。
図5は、第二の実施形態における追尾処理シーケンスを説明する図である。図5において上段は、デジタルカメラ10によるフレーム画像の取得タイミングを表す。図5において中段は、デジタルカメラ20によるフレーム画像の取得タイミングを表す。図5において下段は、主要被写体60が含まれる領域を表す。
デジタルカメラ10が、時刻t1、t3、t5、…においてフレーム画像を取得する点、デジタルカメラ20が、デジタルカメラ10によるフレーム画像の取得タイミングと半周期ずらした時刻t2、t4、t6、…においてフレーム画像を取得する点、および、主要被写体60が、当初撮影範囲10Aのうち領域52(図1)に位置し、領域52から重複領域51内へ移動し、さらに重複領域51から撮影範囲20A内の領域55へ移動する点も、図3の場合と同様であるものとする。
図5より明らかなように、一方のデジタルカメラが、検出対象のフレーム画像を用いて得た追尾情報を、主要被写体60の移動量にかかわらず他方のデジタルカメラへ送信する。
以上説明した第二の実施形態によれば、第一の実施形態と同様に、デジタルカメラ10または20のみで追尾を行う場合に比べて、被写体の動きに対する追尾性能を高めることができる。
また、デジタルカメラ10の通信制御回路19は、デジタルカメラ10のCPU18によって第1追尾情報が取得されるごとに第1追尾情報をデジタルカメラ20の通信制御回路19へ送信し、デジタルカメラ20の通信制御回路19は、デジタルカメラ20のCPU18によって第2追尾情報が取得されるごとに第2追尾情報をデジタルカメラ10の通信制御回路19へ送信するようにしたので、デジタルカメラ10およびデジタルカメラ20間で追尾情報を共有する頻度が高まり、被写体の動きに対する追尾性能を、適切に高めることができる。
(変形例1)
デジタルカメラ10とデジタルカメラ20とでカメラシステムを構成する例を説明したが、デジタルカメラ10と、デジタルカメラ20と、デジタルカメラ30とでカメラシステムを構成してもよい。デジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、同一のフレームレート(例えば60fps)でライブビュー画像を取得する。そして、デジタルカメラ10によるフレーム画像の取得タイミングと、デジタルカメラ20によるフレーム画像の取得タイミングと、デジタルカメラ30によるフレーム画像の取得タイミングとを、それぞれ1/3周期ずらすことにより、各デジタルカメラが順番にフレーム画像を取得するようにする。このためにデジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、あらかじめ基準時刻が合わせられる。
また、デジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、共通の主要被写体60を追尾対象物とし、相互に追尾情報を共有する。このためにデジタルカメラ10、デジタルカメラ20、およびデジタルカメラ30は、あらかじめ主要被写体60の位置を表す座標の基準点が合わせられる。例えばデジタルカメラ10の撮影範囲10A、デジタルカメラ20の撮影範囲20A、デジタルカメラ30の撮影範囲30Aとの間に重複する領域51を確保し、領域51内のいずれかの位置(例えば中央)を原点とする座標系の原点を基準に主要被写体60の位置を表す。
各デジタルカメラは、検出対象のフレーム画像と、テンプレート画像とに基づいて追尾演算をし、新たな追尾情報を得る。ここで、追尾情報を他のデジタルカメラから受信している場合は、他のデジタルカメラから受信した最新の追尾情報を用いて追尾演算をし、新たな追尾情報を得る。
以上説明した変形例1の場合は、3台のデジタルカメラで追尾情報を共有することによって、少なくとも1台のデジタルカメラの撮影範囲に主要被写体60が含まれていれば、そのデジタルカメラから受けた追尾情報を用いて主要被写体60の位置推定を行うことができる。また、フレーム画像の取得タイミングを例えば1/3周期ずつずらすことによって、各デジタルカメラが順番にフレーム画像を取得するようにする。他のデジタルカメラから受けた追尾情報を用いることで、みかけ上のフレームレートを約3倍(180fps)に速めることが可能になる。それにより、追尾演算を行うフレーム間隔が短くなり、追尾精度を向上することができる。
(変形例2)
上記実施形態では、主要被写体を人物として説明しているが、人物以外の複数の移動体を主要被写体としてもよい。例えば、犬や猫などの動物を主要被写体としてもよいし、あるいは車などの移動体を主要被写体としてもよい。周知の手法(例えばテンプレートマッチング等の手法)を用いて主要被写体を特定できるのであれば、どのような移動体にも適用可能である。
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。
10、20…デジタルカメラ
10A、20A…撮影範囲
12…撮像素子
14…画像処理回路
15…LCDモニタ
18…CPU
19…通信制御回路
20…操作部材
51…重複領域
52、55…領域
60…主要被写体

Claims (3)

  1. 第1の撮影範囲を撮像する第1撮像部と、
    前記第1撮像部によって撮像された第1画像に基づいて追尾する被写体を検出し、第1追尾情報を生成する第1追尾部と、
    前記第1の撮影範囲と少なくとも一部重複する第2撮影範囲を撮像する第2撮像部によって前記第1撮像部と異なるタイミングで撮像された第2画像に基づいて、第2追尾部によって前記被写体が検出されて、生成された第2追尾情報を取得する取得部と、を備え、
    前記第1追尾部は、前記第2追尾部で検出される前記被写体の移動量が所定値より大きい場合に前記第2追尾情報と前記第1画像とに基づいて前記被写体を検出するカメラ。
  2. 請求項1に記載のカメラにおいて、
    前記取得部は、前記被写体の移動量が所定値より大きい場合に前記第2追尾情報を取得するカメラ。
  3. 請求項1または2に記載のカメラにおいて、
    前記第1追尾情報は前記第1画像から生成したテンプレート画像を含み、
    前記第2追尾情報は前記第2画像から生成したテンプレート画像を含むカメラ。
JP2017107465A 2017-05-31 2017-05-31 カメラ Active JP6485490B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017107465A JP6485490B2 (ja) 2017-05-31 2017-05-31 カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017107465A JP6485490B2 (ja) 2017-05-31 2017-05-31 カメラ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013163033A Division JP6152738B2 (ja) 2013-08-06 2013-08-06 カメラシステム

Publications (2)

Publication Number Publication Date
JP2017195617A JP2017195617A (ja) 2017-10-26
JP6485490B2 true JP6485490B2 (ja) 2019-03-20

Family

ID=60155674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107465A Active JP6485490B2 (ja) 2017-05-31 2017-05-31 カメラ

Country Status (1)

Country Link
JP (1) JP6485490B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287667B2 (ja) 2019-07-16 2023-06-06 i-PRO株式会社 監視カメラおよび情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503727B2 (en) * 2009-07-22 2013-08-06 Omron Corporation Monitoring camera terminal
WO2011114770A1 (ja) * 2010-03-15 2011-09-22 オムロン株式会社 監視カメラ端末

Also Published As

Publication number Publication date
JP2017195617A (ja) 2017-10-26

Similar Documents

Publication Publication Date Title
JP5048468B2 (ja) 撮像装置およびその撮像方法
CN109698905B (zh) 控制设备、摄像设备、控制方法和计算机可读存储介质
JP5618712B2 (ja) 自動焦点調節装置および撮像装置
JP2010096962A (ja) Af枠自動追尾機能を備えたオートフォーカスシステム
US20200244886A1 (en) Image pickup apparatus, control method of image pickup apparatus, and storage medium
JP2016142925A (ja) 撮像装置およびその制御方法、プログラム、記憶媒体
KR20120106307A (ko) 자동 초점 조절 장치
JP2019134335A (ja) 撮像装置、制御方法、およびプログラム
JP2018004918A (ja) 焦点調節装置及び方法、及び撮像装置
US20090167931A1 (en) Imaging device
JP7314204B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2013254166A (ja) 撮像装置及びその制御方法
JP6152738B2 (ja) カメラシステム
US8737831B2 (en) Digital photographing apparatus and method that apply high-speed multi-autofocusing (AF)
JP6485490B2 (ja) カメラ
JP6463402B2 (ja) 焦点調節装置および方法、および撮像装置
JP2015106851A (ja) デジタルカメラ
JP7131541B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2020167626A (ja) 撮像装置およびその制御方法
JP2016142924A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US11258943B2 (en) Imaging apparatus and method for controlling the same
JPH03149512A (ja) フォーカス制御回路
JP2002311327A (ja) 多点測距装置
WO2018181163A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6645690B2 (ja) 自動焦点調節装置、撮像装置、および自動焦点調節方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R150 Certificate of patent or registration of utility model

Ref document number: 6485490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250