JP2020057302A - Imaging device and control method of the same, and program - Google Patents
Imaging device and control method of the same, and program Download PDFInfo
- Publication number
- JP2020057302A JP2020057302A JP2018188925A JP2018188925A JP2020057302A JP 2020057302 A JP2020057302 A JP 2020057302A JP 2018188925 A JP2018188925 A JP 2018188925A JP 2018188925 A JP2018188925 A JP 2018188925A JP 2020057302 A JP2020057302 A JP 2020057302A
- Authority
- JP
- Japan
- Prior art keywords
- feature amount
- subject
- image
- area
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及びその制御方法、並びにプログラムに関する。 The present invention relates to an imaging device, a control method thereof, and a program.
デジタルカメラにおいて、得られた画像データから画像の特定領域(特徴量領域)の特徴量をもとに、被写体を追尾し、その被写体に対してピント、明るさ、色などの撮影条件を好適な状態に合わせて撮影することが一般的になっている。このとき、特許文献1のように、特徴量領域のサイズを広めに設定すると、被写体の追尾において、当該特徴量領域に対応する画像領域の探索に用いる情報が多くなるため、追尾性能が向上すると期待される。 In a digital camera, a subject is tracked based on a feature amount of a specific region (feature amount region) of an image based on obtained image data, and shooting conditions such as focus, brightness, and color for the subject are preferably adjusted. It is common to take pictures according to the state. At this time, if the size of the feature amount region is set to be large as in Patent Document 1, information used for searching for an image region corresponding to the feature amount region in tracking the subject increases, so that tracking performance is improved. Be expected.
しかし、特許文献1の技術は、画像を探索する際に、画像情報に基づき特徴量領域のサイズを変更するものではない。従って、仮に、特許文献1に係る技術を被写体の追尾における特徴量領域の探索に適用して、追尾性能の向上のために特徴量領域のサイズを大きくしたとすると、逆に、追尾が失敗してしまうことがある。 However, the technique of Patent Document 1 does not change the size of the feature amount area based on image information when searching for an image. Therefore, if the technology according to Patent Literature 1 is applied to search for a feature amount region in tracking a subject, and the size of the feature amount region is increased in order to improve tracking performance, conversely, tracking will fail. Sometimes.
例えば、特徴量領域が被写体領域よりも大きくなると、特徴量領域は、被写体の背景も含むことになる。この場合、被写体の追尾中に、例えば、カメラが大きく動く、被写体がそもそも動体であるなどといった状況が発生すると、特徴量領域内の背景情報が時間の経過に伴い変化することとなる。即ち、被写体(追尾対象)と背景との位置関係が大きく変わってしまい、同一特徴量が存在しなくなり、結果として、追尾が失敗してしまう。 For example, when the feature amount region is larger than the subject region, the feature amount region also includes the background of the subject. In this case, if, for example, a situation occurs in which the camera largely moves or the subject is originally a moving object during the tracking of the subject, the background information in the feature amount area changes over time. That is, the positional relationship between the subject (tracking target) and the background greatly changes, and the same feature amount does not exist. As a result, tracking fails.
本発明は、画像情報に基づき特徴量領域のサイズを決定することで、追尾状況によらず常に高い追尾性能を得ることが可能な撮像装置を提供することを目的とする。 An object of the present invention is to provide an imaging apparatus that can always obtain high tracking performance regardless of a tracking state by determining a size of a feature amount area based on image information.
本発明の例に係る撮像装置は、第1の画像及び第2の画像を時系列で取得可能な撮像装置であって、前記第1の画像から追尾対象としての被写体を検出する被写体検出手段と、前記第1の画像に基づき前記被写体を含む特徴量領域を登録する特徴量領域登録手段と、前記第1及び第2の画像に係る情報に基づき、前記特徴量領域登録手段に登録された前記特徴量領域のサイズの更新を行う特徴量領域更新手段と、前記第2の画像から、前記特徴量領域更新手段で更新された前記特徴量領域に対応する画像領域の探索を行うことで、前記被写体の追尾を行う被写体追尾手段と、を備える。 An imaging device according to an example of the present invention is an imaging device capable of acquiring a first image and a second image in a time series, and a subject detection unit that detects a subject as a tracking target from the first image. A feature amount region registration unit that registers a feature amount region including the subject based on the first image, and the feature amount region registration unit that is registered in the feature amount region registration unit based on information related to the first and second images. A feature amount region updating unit that updates the size of the feature amount region; and, from the second image, a search for an image region corresponding to the feature amount region updated by the feature amount region updating unit. Subject tracking means for tracking the subject.
本発明によれば、画像情報に基づき特徴量領域のサイズを決定することで、追尾状況によらず常に高い追尾性能を得ることが可能な撮像装置を提供できる。 According to the present invention, it is possible to provide an imaging apparatus that can always obtain high tracking performance regardless of a tracking state by determining the size of a feature amount area based on image information.
以下、本発明の実施形態について、図面を参照して詳細に説明する。
本発明は、被写体に対して特徴量領域を設定し、かつ当該特徴量領域に基づき、被写体を追尾すると共に当該被写体に対してピント、明るさ、色などの撮影条件を好適な状態に合わせる機能を有する撮像装置に関する。以下に説明する撮像装置は、ビデオカメラ、デジタルスチルカメラ、それらに使用可能な交換レンズなどの光学機器に適用される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
The present invention provides a function of setting a feature amount region for a subject, tracking the subject based on the feature amount region, and adjusting shooting conditions such as focus, brightness, and color to the subject in a suitable state. The present invention relates to an imaging device having: The imaging device described below is applied to an optical device such as a video camera, a digital still camera, and an interchangeable lens that can be used for them.
<撮像装置>
図1は、撮像装置の構成例を示す。
撮像装置100は、動画、静止画などの画像の撮影及び記録が可能である。撮像装置100内の各機能ブロックは、互いに通信可能な状態となるように、バス160により接続される。撮像装置100の各機能は、主制御部151がプログラムを実行して各機能ブロックを制御することにより実現される。
<Imaging device>
FIG. 1 illustrates a configuration example of an imaging device.
The
撮像装置100は、画像を解析し、かつその解析結果から特定の被写体領域を推定する被写体認識部161を備える。本実施形態は、被写体認識部161を用いて、画像情報(撮影時に得られる画像の情報)に基づき特徴量領域のサイズを変更可能とする点を特徴の一つとする。
The
ここで、画像情報は、撮影レンズ(レンズユニット)101、及び撮像素子141により、時系列で取得可能な複数の画像(複数のフレーム)に係る情報のことである。画像情報は、例えば、画面の平均輝度、WB(ホワイトバランス)、GPS機能による位置情報などを含む。また、画像情報は、後述するように、当該複数の画像から得られる情報、例えば、被写体の動き量、背景の動き量、さらには、それらから取得される被写体(追尾対象)と背景との位置関係の変化量なども含む。
Here, the image information refers to information relating to a plurality of images (a plurality of frames) that can be acquired in time series by the imaging lens (lens unit) 101 and the
このように、本実施形態では、被写体認識部161により特徴量領域のサイズを変更可能とすることで、追尾状況によらず常に高い追尾性能を得ることが可能な撮像装置を実現するものである。そのため、被写体認識部161は、被写体検出機能と、特徴量領域登録機能と、背景の動き量取得機能と、特徴量領域更新機能と、被写体追尾機能と、を有する。これらの機能の詳細については、後述する。
As described above, in the present embodiment, by making the size of the feature amount area changeable by the
撮影レンズ101は、固定1群レンズ102と、ズームレンズ111と、絞り103と、固定3群レンズ121と、フォーカスレンズ131と、ズームモータ112と、絞りモータ104と、フォーカスモータ132と、を備える。固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、及びフォーカスレンズ131は、撮影光学系を構成する。
The taking
尚、同図において、各レンズ102、111、121、131は、便宜上、1枚のレンズとして示しているが、複数のレンズの組み合わせから構成されてもよい。また、撮像装置100がカメラシステムを構成する場合、撮影レンズ101は、カメラ本体と一体化されてもよいし、又はカメラ本体から着脱可能なように構成されてもよい。
Although each of the
絞り制御部105は、絞り103を駆動する絞りモータ104の動作を制御する。即ち、絞り制御部105は、絞り103の開口径を変更する。ズーム制御部113は、ズームレンズ111を駆動するズームモータ112の動作を制御する。即ち、ズーム制御部113は、撮影レンズ101の焦点距離(画角)を変更する。
The
フォーカス制御部133は、撮像素子141から得られる1対の焦点検出用信号(A像及びB像)の位相差に基づき、撮影レンズ101のデフォーカス量及びデフォーカス方向を取得する。そして、フォーカス制御部133は、デフォーカス量及びデフォーカス方向をフォーカスモータ132の駆動量及び駆動方向に変換する。この駆動量及び駆動方向に基づき、フォーカス制御部133は、フォーカスモータ132の動作を制御し、フォーカスレンズ131を駆動することで、撮影レンズ101の焦点状態を制御する。
The
このように、フォーカス制御部133は、位相差検出方式の自動焦点検出(AF)を実施する。但し、フォーカス制御部133は、位相差検出方式によるAFに代えて、画像信号から得られるコントラスト評価値に基づくコントラスト検出方式を用いて、AFを実行してもよい。
As described above, the
撮影レンズ101によって撮像素子141の結像面に形成される被写体像は、撮像素子141内に配置された複数の画素のそれぞれが有する光電変換素子により電気信号(画像信号)に変換される。撮像素子141は、例えば、CCD、CMOSイメージセンサなどであり、水平方向m画素、及び垂直方向n画素の画素アレイを備える。但し、n及びmは、それぞれ2以上の自然数である。各画素は、2つの光電変換素子(光電変換領域)を有する。撮像制御部143は、主制御部151からの指示に基づき、撮像素子141からの画像信号の読み出しを制御する。
A subject image formed on the imaging surface of the
撮像素子141から読み出された画像信号は、画像信号処理部142に供給される。画像信号処理部142は、ノイズ低減処理、A/D変換処理、自動利得制御処理などの信号処理を画像信号に適用し、かつ当該信号処理が適用された画像信号を撮像制御部143に出力する。撮像制御部143は、画像信号処理部142から受信した画像信号をRAM(ランダム・アクセス・メモリ)154に保存する。
The image signal read from the
画像処理部152は、RAM154に記憶された画像信号に対して、予め定められた画像処理を適用する。画像処理部152が適用する画像処理は、例えば、ホワイトバランス調整処理、色補間(デモザイク)処理、ガンマ補正処理などのいわゆる現像処理を含む。また、当該画像処理は、信号形式変換処理、スケーリング処理などを含んでもよい。当該画像処理の例としては、これらに限定されず、上述以外の処理を行っても構わない。
The
画像処理部152は、自動露出制御(AE)に用いるための、被写体輝度に関する情報などを生成することもできる。特定の被写体領域に関する情報は、被写体認識部161から画像処理部152に供給され、例えば、ホワイトバランス調整処理に利用される。尚、コントラスト検出方式によるAFを行う場合、画像処理部152は、AF評価値を生成することも可能である。画像処理部152は、処理済の画像信号をRAM154に保存する。
The
主制御部151は、RAM154に一時的に保存された画像信号に所定のヘッダを追加することで、所定の記録形式のデータファイルを生成する。この時、画像圧縮解凍部153は、主制御部151からの指示に基づき、当該データファイルを符号化し、画像信号に関する情報量を圧縮してもよい。そして、主制御部151は、生成されたデータファイルを、例えば、メモリカードのような記録媒体157に記録する。
The
また、RAM154に保存された画像信号を表示する場合、主制御部151は、モニタディスプレイなどの表示部150の表示サイズに適合するように、画像処理部152に対して画像信号のスケーリング処理を指示する。この後、主制御部151は、スケーリング処理された画像信号を、表示画像データとしてRAM154のビデオメモリ領域(VRAM領域)に書き込む。表示部150は、RAM154のVRAM領域から表示画像データを読み出し、例えば、LCD、有機ELディスプレイなどの表示装置に表示する。
When displaying the image signal stored in the
本実施形態の撮像装置100は、動画撮影時(撮影スタンバイ状態、又は動画記録中)において、撮影された動画を表示部150に即時表示することで、表示部150を電子ビューファインダー(EVF)として機能させる。表示部150をEVFとして機能させる際に表示される動画像及びそのフレーム画像は、ライブビュー画像、又はスルー画像と呼ばれる。また、撮像装置100は、静止画撮影を行った場合にユーザが撮影結果を確認できるように、撮影した静止画を表示部150に一定時間表示する。これらの表示動作についても、主制御部151の制御によって実現される。
The
操作部156は、ユーザが撮像装置100に指示を入力するためのスイッチ、ボタン、キー、タッチパネルなどを備える。操作部156による入力は、バス160を経由して、主制御部151に転送される。主制御部151は、操作部156による入力に応じた動作を実現するために各部を制御する。
The
主制御部151は、CPU、MPUなどのプログラマブルプロセッサを1つ以上有する。主制御部151は、フラッシュメモリなどの記憶部155に記憶されたプログラムをRAM154に読み出し、かつ当該プログラムを実行することで、各部を制御し、撮像装置100の各機能又は各処理を実現する。また、主制御部151は、被写体輝度の情報に基づき、露出条件(シャッタースピード、蓄積時間、絞り値、感度など)を自動的に決定するAE処理を実行する。被写体輝度の情報は、例えば、画像処理部152から取得できる。主制御部151は、人物の顔などの被写体領域を基準として露出条件を決定することもできる。
The
主制御部151は、動画撮影時において、例えば、絞りを固定とし、電子シャッタスピード(蓄積時間)及びゲインの大きさを決定する。主制御部151は、この決定された露出条件(蓄積時間及びゲインの大きさ)を撮像制御部143に通知する。撮像制御部143は、主制御部151から通知された露出条件に従った撮影が行われるように、撮像素子141の動作を制御する。
The
被写体認識部161の結果は、例えば、焦点検出領域の自動設定に用いることができる。この場合、特定の被写体領域に対する追尾AF機能を実現できる。また、焦点検出領域の輝度情報に基づきAE処理を行ったり、焦点検出領域の画素値に基づき画像処理(例えば、ガンマ補正処理、ホワイトバランス調整処理など)を行ったりすることもできる。尚、主制御部151は、現在の被写体領域の位置を表す指標(例えば、当該被写体領域を囲む矩形枠)を表示画像に重畳表示させてもよい。
The result of the
バッテリ159は、電源管理部158により管理され、撮像装置100の全体に電源を供給する。記憶部155は、主制御部151が実行するプログラム、プログラムの実行に必要な設定値、GUIデータ、ユーザ設定値などを記憶する。例えば、操作部156の操作により電源オフ状態から電源オン状態への移行が指示されると、記憶部155に記憶されたプログラムがRAM154に読み込まれ、かつ主制御部151が当該プログラムを実行する。
The
<被写体認識部>
図2は、被写体認識部の構成例を示す。
被写体認識部161は、被写体検出部201と、特徴量領域登録部202と、背景の動き量取得部203と、特徴量領域更新部204と、被写体追尾部205と、を備える。
<Subject recognition unit>
FIG. 2 illustrates a configuration example of the subject recognition unit.
The
被写体検出部201は、撮像素子141により取得され、かつ画像処理部152で処理された画像に基づき、被写体(追尾対象)の位置及びサイズを検出する。例えば、被写体検出部201は、画像処理部152から時系列で画像(フレーム)を取得し、各画像に含まれる追尾対象としての被写体を検出する。また、被写体検出部201は、被写体の位置及びサイズから、各画像内において被写体が占める領域、即ち、被写体領域を求めると共に、当該被写体領域の信頼性に関する情報を生成する。
The
特徴量領域登録部202は、被写体検出部201によって検出された被写体領域に基づき被写体を含む特徴量領域を決定し、かつ当該特徴量領域を登録する。ここで、特徴量領域とは、追尾対象としての被写体を追尾するに当たって、nフレーム(第1の画像)で設定される被写体を含む画像領域のことである。但し、nは、自然数(1、2、3、…)であり、nが大きくなるほど、時間が後であることを意味する。そして、被写体の追尾は、後述するように、nフレームよりも後のフレーム、例えば、(n+1)フレーム(第2の画像)において、特徴量領域に対応する画像領域を探索することにより行う。
The feature amount
特徴量領域登録部202は、被写体検出部201によって第1の画像から検出された被写体領域に基づき特徴量領域を登録する場合、当該特徴領域のサイズをデフォルト値(初期値)に設定する。デフォルト値は、予め決定されている。但し、デフォルト値は、ユーザが操作部156などを介して自由に変更できるように構成してもよいし、又はプログラムが自動的に最適値を設定できるように構成してもよい。
When registering a feature amount region based on the subject region detected from the first image by the
尚、後述する被写体追尾部205が特徴量領域に対応する画像領域を見つけ出して、追尾が成功となる場合には、特徴量領域登録部202は、既に登録されている特徴量領域に代えて、当該画像領域を新たな特徴量領域として登録する。一方、後述する被写体追尾部205が特徴量領域に対応する画像領域を見つけ出せず、追尾が不成功となる場合には、特徴量領域登録部202は、既に登録されている特徴量領域を引き続き登録する。
Note that, when the
背景の動き量取得部203は、時系列で逐次供給される複数の画像に基づき、背景の動き量を取得する。背景の動き量取得部203は、例えば、当該複数の画像から背景を推定し、かつ推定された背景に基づき、複数の画像間の動きベクトルを検出する。これにより、背景の動き量取得部203は、当該動きベクトルに基づき、背景の動き量を取得できる。
The background motion
また、背景の動き量取得部203は、ジャイロセンサ及び加速度センサのうちの少なくとも1つを用いて撮像装置100の動きを検出し、かつ撮像装置100の動きに基づき、背景の動き量を取得することもできる。尚、背景の動き量取得部203の動作の詳細については、後述する。
Further, the background motion
特徴量領域更新部204は、時系列で逐次供給される複数の画像に係る情報に基づき、特徴量領域登録部202に登録された特徴量領域のサイズの更新を行う。例えば、特徴量領域更新部204は、背景の動き量取得部203によって取得された背景の動き量と、後述する被写体追尾部205によって取得された被写体の動き量とに基づき、被写体と背景との位置関係の変化量を取得する。そして、特徴量領域更新部204は、当該変化量に基づき、特徴量領域登録部202に登録された特徴量領域のサイズの更新を行う。
The feature amount
ここで、特徴量領域登録部202が最初に登録する特徴量領域のサイズ(デフォルト値)は、過去に最も多く発生した被写体と背景との位置関係の変化量を基準値Δrefとした場合に、当該基準値Δrefに対応するサイズとするのが望ましい。基準値Δrefとデフォルト値との関係については、後述する。
Here, the size (default value) of the feature amount area registered first by the feature amount
そして、特徴量領域更新部204は、被写体と背景との変化量が基準値Δrefよりも大きい場合に、特徴量領域のサイズをデフォルト値よりも小さくする。また、特徴量領域更新部204は、当該変化量が基準値Δrefよりも小さい場合に、特徴量領域のサイズをデフォルト値よりも大きくする。さらに、特徴量領域更新部204は、当該変化量が大きくなるに従い特徴量領域のサイズを小さくし、かつ当該変化量が小さくなるに従い特徴量領域のサイズを大きくする。但し、特徴量領域更新部204は、当該変化量が閾値よりも大きい場合には、特徴量領域のサイズを一定とする。
Then, when the amount of change between the subject and the background is greater than the reference value Δref, the feature amount
被写体追尾部205は、時系列で逐次供給される複数の画像から、特徴量領域更新部204で更新された特徴量領域に対応する画像領域の探索を行うことで、被写体の追尾を行う。例えば、被写体追尾部205は、特徴量領域更新部204で更新された特徴量領域と類似度が最も高い画像領域を当該特徴量領域に対応する画像領域とし、当該画像領域に基づき被写体の追尾を行う。
The
ここで、類似度は、例えば、所定の関数で規定される評価値により判断し、被写体追尾部205は、当該評価値が最も低い領域を類似度が最も高い領域として決定する。また、被写体追尾部205は、評価値の最小値が閾値よりも大きい場合には、特徴量領域に対応する画像領域が見つけ出せなかったと結論付けることもできる。尚、探索結果は、画像内における被写体領域、信頼性、被写体の動き量などの情報を備え、主制御部151での各種処理に利用される。
Here, the similarity is determined based on, for example, an evaluation value defined by a predetermined function, and the
<撮像装置の動作例>
図3は、撮像装置の動作例を示す。
本実施形態では、被写体検出処理、被写体追尾処理、並びに、被写体及び背景の動き量を検出する動き量検出処理を伴う動画撮影動作に関して説明する。動画撮影動作は、撮影スタンバイ時又は動画記録時に実行される。
<Operation example of imaging device>
FIG. 3 shows an operation example of the imaging apparatus.
In the present embodiment, a moving image shooting operation including a subject detection process, a subject tracking process, and a motion amount detection process for detecting a motion amount of a subject and a background will be described. The moving image shooting operation is executed at the time of shooting standby or at the time of moving image recording.
尚、撮影スタンバイ時と動画記録時とでは、取り扱う画像(フレーム)の解像度など、細部において異なるが、被写体検出処理、被写体追尾処理、並びに、被写体及び背景の動き量を検出する動き量検出処理に係る内容は、基本的に同じである。従って、以下では、特に、撮影スタンバイ時と動画記録時とを区別することなく、説明する。 Although details such as resolution of an image (frame) to be handled are different between the shooting standby mode and the moving image recording mode, the processing is performed in the subject detection processing, the subject tracking processing, and the motion detection processing for detecting the motion of the subject and the background. Such contents are basically the same. Therefore, the following description will be made without distinguishing between the shooting standby mode and the moving image recording mode.
まず、S301において、主制御部151は、撮像装置100の電源スイッチがオンであるか否かを判定する。電源スイッチがオフであれば、本フローを終了し、電源スイッチがオンであれば、本フローをS302に進める。
First, in S301, the
次に、S302において、主制御部151は、各部を制御して、1フレーム分の撮像処理を実行した後、本フローをS303に進める。本実施形態では、撮像処理として、1対の視差画像と、1画面分の撮像画像とを取得し、これらをRAM154に保存する。また、S303において、主制御部151は、被写体認識処理を実行するように、被写体認識部161に指示を出す。ここで、被写体認識処理は、被写体検出処理、被写体追尾処理、並びに、被写体及び背景の動き量を検出する動き量検出処理を含む。被写体認識部161での被写体認識処理の詳細については、後述する。
Next, in S302, the
この後、被写体領域の位置、サイズ、及び動き量が被写体認識部161から主制御部151に通知され、かつRAM154に保存される。主制御部151は、通知された被写体領域に基づき、焦点検出領域を設定する。
Thereafter, the position, size, and amount of movement of the subject area are notified from the
次に、S304において、主制御部151は、フォーカス制御部133に焦点検出処理を実行させる。フォーカス制御部133は、1対の視差画像の焦点検出領域に含まれる複数の画素のうち、同一行に配置された複数の画素から得られる複数のA信号を繋ぎ合わせてA像を生成し、かつ複数のB信号を繋ぎ合わせてB像を生成する。そして、フォーカス制御部133は、A像とB像との相対的な位置をずらしながらA像とB像の相関量を演算し、A像とB像との類似度が最も高くなる相対位置をA像とB像との位相差(ずれ量)として求める。さらに、フォーカス制御部133は、当該位相差をデフォーカス量及びデフォーカス方向に変換する。
Next, in S304, the
次に、S305において、フォーカス制御部133は、S304で求めたデフォーカス量及びデフォーカス方向に対応するレンズ駆動量及び駆動方向に従ってフォーカスモータ132を駆動し、フォーカスレンズ131を移動させる。また、レンズ駆動処理が終了すると、主制御部151は、本フローをS301に戻す。
Next, in S305, the
以後、S301で電源スイッチがオフと判定されるまで、S302〜S305の処理が繰り返し実行される。これにより、時系列で逐次供給される複数の画像(フレーム)に対して追尾対象としての被写体の探索が行われ、被写体追尾機能が実現される。尚、図3では被写体追尾処理を逐次供給されるフレーム毎に実行するが、主制御部151の処理負荷及び消費電力の軽減を目的として、被写体追尾処理を数フレーム毎に行ってもよい。
Thereafter, the processing of S302 to S305 is repeatedly executed until it is determined in S301 that the power switch is turned off. Thus, a plurality of images (frames) sequentially supplied in time series are searched for a subject as a tracking target, and a subject tracking function is realized. In FIG. 3, the subject tracking process is performed for each sequentially supplied frame. However, the subject tracking process may be performed for every several frames for the purpose of reducing the processing load and power consumption of the
<被写体認識処理>
図4は、被写体認識処理の例を示す。
このフローチャートは、図3のS303のサブルーチンである。
<Subject recognition processing>
FIG. 4 shows an example of subject recognition processing.
This flowchart is a subroutine of S303 in FIG.
まず、S401において、被写体認識部161は、撮像制御部143から画像(フレーム)を取得する。この後、S402において、被写体検出部201は、撮像制御部143からの画像に対して、中心位置及びサイズが異なる複数の評価領域を設定し、かつ各評価領域から被写体を検出する。被写体を検出する処理の詳細については、後述する。
First, in S401, the
次に、S403において、特徴量領域登録部202は、被写体検出部201によって検出された被写体領域、又は被写体追尾部206によって検出された前フレームの特徴量領域に対応する画像領域に基づき、特徴量領域を登録する。本実施形態では、特徴量領域の登録は、最初の1フレームでは、被写体検出部201の結果に基づき行われ、それ以降のフレームでは、被写体追尾部206の結果に基づき行われる。
Next, in S403, the feature amount
次に、S404において、背景の動き量取得部203は、時系列で逐次供給される複数の画像に基づき、背景の動き量を取得する。背景の動き量を取得する処理の詳細については、後述する。この後、S405において、特徴量領域更新部204は、S404によって取得された背景の動き量と、後述するS406によって取得される前フレームの被写体の動き量とに基づき、特徴量領域のサイズの更新を行う。特徴量領域のサイズを更新する処理の詳細については、後述する。
Next, in S404, the background motion
次に、S406において、被写体追尾部205は、時系列で逐次供給される複数の画像から、S405で更新された特徴量領域に対応する画像領域を探索する。例えば、被写体追尾部205は、当該特徴量領域と類似度が最も高い領域を当該特徴量領域に対応する画像領域とし、当該画像領域に基づき被写体の追尾を行う。被写体を追尾する処理の詳細については、後述する。
Next, in step S <b> 406, the
<被写体検出処理>
図5は、被写体検出処理の例を示す。
このフローチャートは、図4のS402のサブルーチンである。
<Subject detection processing>
FIG. 5 shows an example of the subject detection processing.
This flowchart is a subroutine of S402 in FIG.
まず、S501において、被写体検出部201は、画像の評価を行う評価領域を決定する。例えば、図6において、601は、入力画像であり、602は、評価画素であり、603は、評価領域候補である。図6(A)、図6(B)、及び図6(C)に示すように、各評価領域候補603は、互いに異なるサイズに設定される。評価画素602は、入力画像601の全画素からラスタ処理で順次選択される。
First, in step S501, the
次に、S502において、被写体検出部201は、評価領域に対する外側評価領域を決定する。例えば、図7において、701は、入力画像であり、702は、評価画素であり、703は、評価領域であり、704は、外側評価領域である。図7に示すように、外側評価領域704の中心位置は、評価領域703の中心位置と同一である。また、外側評価領域704の中心位置から外枠までのサイズは、評価領域703の中心位置から外枠までのサイズよりも大きい。即ち、外側評価領域704は、評価領域703に対応する領域を除いたリング状の領域である。尚、外側評価領域704の中心位置から外枠までのサイズと、評価領域703の中心位置から外枠までのサイズとの差は、入力画像701のサイズに基づき決定し、例えば、入力画像701の水平サイズの10%とする。
Next, in S502, the
次に、S503において、被写体検出部201は、評価領域と外側評価領域に対応する画像信号の相違度を評価値として算出する。
Next, in step S <b> 503, the
評価値Dは、以下の式により算出される。
但し、dHは、評価領域及び外側評価領域の色相情報から算出された相違度であり、pHiは、評価領域の色相情報がiである画素の数を表し、qHiは、外側評価領域のうち、色相情報がiである画素の数を表す。dS、pSi、qSiは、それぞれ、彩度情報に関する値であり、dV、pVi、qViは、輝度情報に関する値である。また、mは、色相情報、彩度情報、輝度情報が取り得る最大値である。 Here, d H is the difference calculated from the hue information of the evaluation area and the outer evaluation area, p Hi represents the number of pixels whose hue information of the evaluation area is i, and q Hi is the outer evaluation area. Represents the number of pixels whose hue information is i. d S , p Si , and q Si are values relating to chroma information, respectively, and d V , p Vi , and q Vi are values relating to luminance information. M is the maximum value that can be taken by hue information, saturation information, and luminance information.
次に、S504において、被写体検出部201は、未処理の評価領域があるか否か判定を行う。未処理の評価領域があれば、被写体検出部201は、本フローをS501に戻し、一連の処理を繰り返す。また、未処理の評価領域がなければ、被写体検出部201は、本フローをS505に進める。
Next, in S504, the
次に、S505において、被写体検出部201は、被写体を決定する。即ち、被写体検出部201は、S503において算出した評価値のうち、最も高い評価値を有する領域を被写体として決定する。
尚、ここで説明した方法は、一例であり、被写体は、図5のフロー以外の方法により決定することも可能である。例えば、図5のフローにおいて、画像の奥行情報を加味して被写体を決定することも可能である。
Next, in S505, the
Note that the method described here is an example, and the subject can be determined by a method other than the flow in FIG. For example, in the flow of FIG. 5, it is also possible to determine a subject in consideration of depth information of an image.
<背景の動き量の取得処理>
図8は、背景動き量の取得処理の例を示す。
このフローチャートは、図4のS404のサブルーチンである。
<Process of acquiring the amount of background motion>
FIG. 8 illustrates an example of a process of acquiring a background motion amount.
This flowchart is a subroutine of S404 in FIG.
図8(A)は、推定された背景から、背景の動き量を取得する例である。
まず、S8011において、背景の動き量取得部202は、S401で逐次取得される複数の画像に基づいて、背景の推定を行う。例えば、背景の動き量取得部202は、S402の被写体検出処理により被写体が検出された場合に、当該被写体以外の画像領域を背景と推定することができる。
FIG. 8A is an example in which the amount of motion of the background is obtained from the estimated background.
First, in step S8011, the background motion
次に、S8012において、背景の動き量取得部202は、S401で逐次取得される複数の画像のうち、現フレームに係る画像と、それよりも1フレーム前のフレームに係る画像とを使用し、推定された背景(画像)から背景の動きベクトルを算出する。
Next, in step S8012, the background motion
最後に、S8013において、背景の動き量取得部202は、背景の動きベクトルに基づき、背景の動き量を取得する。
Finally, in step S8013, the background motion
図8(B)は、特徴点マッチングにより複数の動きベクトルを算出し、これらから背景の動きベクトルを選択することで、背景の動き量を取得する例である。
まず、S8021において、背景の動き量取得部202は、S401で取得される画像内に複数の特徴点を均一に分布させ、これら均一に分布させた複数の特徴点から、特徴点毎に動きベクトルを算出する。
FIG. 8B is an example in which a plurality of motion vectors are calculated by feature point matching, and a background motion vector is selected from these to obtain a background motion amount.
First, in S8021, the background motion
次に、S8022において、背景の動き量取得部202は、算出された複数の動きベクトルから背景の動きベクトルを選択する。背景の動きベクトルを選択する方法は、公知の手法を用いることができる。例えば、背景の動き量取得部202は、S8021で算出された複数の動きベクトルをヒストグラム化し、最大個数のビンに係る動きベクトルを背景の動きベクトルとして決定する。
Next, in S8022, the background motion
最後に、S8023において、背景の動き量取得部202は、背景の動きベクトルに基づき、背景の動き量を取得する。
Finally, in S8023, the background motion
尚、背景の動きベクトルを算出するに当たり、現フレームに係る画像の1フレーム前のフレームに係る画像から当該動きベクトルの始点を検出し、かつ現フレームに係る画像から当該動きベクトルの終点を検出するのが望ましい。但し、背景の動きベクトルから取得される背景の動き量の時間に対する方向が、後述する被写体の動き量の時間に対する方向と同じであれば、当該動きベクトルの始点と終点を逆にしてもよい。 In calculating the background motion vector, the start point of the motion vector is detected from the image of the frame immediately before the image of the current frame, and the end point of the motion vector is detected from the image of the current frame. It is desirable. However, if the direction of the amount of motion of the background obtained from the motion vector of the background with respect to time is the same as the direction of the amount of motion of the subject described later with respect to time, the start point and the end point of the motion vector may be reversed.
また、本実施形態では、背景の動き量を取得するに当たり、画像から算出される動きベクトルを使用したが、これに代えて、ジャイロセンサ、加速度センサなどで撮像装置の動きを検出し、当該撮像装置の動きに基づき背景の動き量を決定してもよい。 Further, in the present embodiment, the motion vector calculated from the image is used to obtain the amount of movement of the background. Alternatively, the motion of the imaging device is detected by a gyro sensor, an acceleration sensor, or the like, and The amount of movement of the background may be determined based on the movement of the device.
<特徴量領域の更新処理>
図9は、特徴量領域の更新処理の例を示す。
このフローチャートは、図4のS405のサブルーチンである。
<Feature amount area update processing>
FIG. 9 illustrates an example of a process of updating a feature amount area.
This flowchart is a subroutine of S405 in FIG.
まず、S901において、特徴量領域更新部204は、S8013又はS8023で取得した背景の動き量と、被写体の動き量との差を算出する。この差は、被写体と背景との位置関係の変化量に相当する。ここで、被写体の動き量は、被写体追尾部205が現フレームよりも前のフレームに係る画像から既に取得済みであり、例えば、RAM154に記憶されている。
First, in step S901, the feature amount
被写体の動き量と背景の動き量との差に関しては、特徴量領域更新部204は、画像の水平方向での差の絶対値と、画像の垂直方向での差の絶対値とを算出し、それらの一方、又はそれらを足し合わせた値を、被写体の動き量と背景の動き量との差とする。例えば、特徴量領域更新部204は、水平方向における差の絶対値、及び垂直方向における差の絶対値うち、大きな値を有するほうを、被写体の動き量と背景の動き量との差として決定する。
Regarding the difference between the amount of movement of the subject and the amount of movement of the background, the feature amount
次に、S902において、特徴量領域更新部204は、被写体の動き量と背景の動き量との差に基づき、特徴量領域登録部202に登録された特徴量領域のサイズの更新を行い、本フローを終了する。
Next, in step S902, the feature amount
ここで、S902において、特徴量領域のサイズの更新を行う場合、特徴量領域更新部204は、被写体の動き量と背景の動き量との差、即ち、被写体と背景との位置関係の変化量が大きくなるに従い、特徴量領域のサイズを小さくする。また、特徴量領域更新部204は、被写体の動き量と背景の動き量との差が小さくなるに従い、特徴量領域のサイズを大きくする。
Here, in S902, when updating the size of the feature amount area, the feature amount
図10は、特徴量領域のサイズと、被写体と背景との動き量の差との関係を示す。
デフォルト値(初期値)は、特徴量領域登録部202に最初に登録される特徴量領域のサイズである。デフォルト値に対応する動き量の差は、基準値Δrefである。
FIG. 10 shows the relationship between the size of the feature amount area and the difference in the amount of movement between the subject and the background.
The default value (initial value) is the size of the feature amount area registered first in the feature amount
同図によれば、動き量の差が基準値Δrefよりも大きい場合(ΔH)には、特徴量領域のサイズは、デフォルト値からそれよりも小さい値に変化する(矢印A)。また、動き量の差が基準値Δrefよりも小さい場合(ΔL)には、特徴量領域のサイズは、デフォルト値からそれよりも大きい値に変化する(矢印B)。即ち、動き量の差が大きくなるに従い、特徴量領域のサイズは、小さくなり、動き量の差が小さくなるに従い、特徴量領域のサイズは、大きくなる。但し、動き量の差が閾値Δthよりも大きい場合には、特徴量領域のサイズは、一定となる。 According to the figure, when the difference in the amount of motion is larger than the reference value Δref (ΔH), the size of the feature amount area changes from the default value to a value smaller than that (arrow A). When the difference between the motion amounts is smaller than the reference value Δref (ΔL), the size of the feature amount region changes from the default value to a larger value (arrow B). That is, as the difference in the amount of motion increases, the size of the feature amount region decreases, and as the difference in the amount of motion decreases, the size of the feature amount region increases. However, when the difference between the motion amounts is larger than the threshold value Δth, the size of the feature amount region is constant.
図11は、特徴量領域のサイズと動き量の差との関係を模式的に示す。
同図(A)は、nフレームに係る画像であり、S403で登録された特徴量領域1101を示す。特徴量領域1101のサイズは、例えば、デフォルト値を有するものとする。同図(B)は、(n+1)フレームに係る画像であり、同図(A)の画像に対して、動き量の差が無いか、又はほとんど無い場合である。同図(D)は、(n+1)フレームに係る画像であり、同図(A)の画像に対して、動き量の差が大きい場合である。
FIG. 11 schematically shows the relationship between the size of the feature amount area and the difference in the amount of motion.
FIG. 7A shows an image related to n frames, and shows the
同図(B)の場合、S405において、特徴量領域更新部204は、動き量の差が基準値Δrefよりも小さいと判断する。従って、同図(C)に示すように、特徴量領域更新部204は、特徴量領域1102のサイズを、同図(A)に示す特徴量領域1101のサイズよりも大きい値に更新する。
In the case of FIG. 11B, in S405, the feature amount
この場合、特徴量領域1102は、被写体領域よりも大きくなり、被写体と背景の情報を含むことになる。即ち、(n+2)フレームに係る画像において、特徴量領域1102に対応する画像領域を探索する際に、探索に用いる情報が多くなり、追尾性能を向上させることができる。しかも、特徴量領域1102に含まれる背景情報は、変化しないか、又はほとんど変化しないため、背景情報の変化により追尾が失敗するといった事態も発生しない。
In this case, the
また、同図(D)の場合、S405において、特徴量領域更新部204は、動き量の差が基準値Δrefよりも大きいと判断する。従って、同図(E)に示すように、特徴量領域更新部204は、特徴量領域1103のサイズを、同図(A)に示す特徴量領域1101のサイズよりも小さい値に更新する。
In the case of FIG. 11D, in S405, the feature amount
この場合、特徴量領域1103は、被写体領域とほぼ同じサイズとなり、背景を全く含まないか、又はほとんど含まなくなる。即ち、(n+2)フレームに係る画像において、特徴量領域1103に対応する画像領域を探索する際に、特徴量領域1103の背景情報の変化により、追尾が失敗してしまうといった事態が発生することはない。
In this case, the
<被写体追尾処理>
次に、図12を参照して、S405における被写体追尾処理について説明する。
被写体追尾部205は、S404で更新された特徴量領域に対応する画像領域を探索する。探索結果は、被写体追尾部205の出力情報として出力される。
<Subject tracking processing>
Next, the subject tracking processing in S405 will be described with reference to FIG.
The
図12は、テンプレートマッチングの例を示す。
特徴量領域に対応する画像領域の探索は、テンプレートマッチングにより行うことが可能である。テンプレートマッチングは、画素パターンをテンプレートとして設定し、テンプレートとの類似度が最も高い領域を画像内で探索する技術である。テンプレートと画像領域との類似度としては、対応画素間の差分絶対値和のような相関量を用いることができる。
FIG. 12 shows an example of template matching.
The search for the image area corresponding to the feature amount area can be performed by template matching. The template matching is a technique of setting a pixel pattern as a template and searching for an area having the highest similarity with the template in the image. As the similarity between the template and the image area, a correlation amount such as a sum of absolute differences between corresponding pixels can be used.
図12(A)は、テンプレート1201と、その構成例1202と、を模式的に示す。テンプレートマッチングを行う場合、テンプレート1201の画素パターンが予め設定される。本実施形態では、テンプレート1201は、水平画素数W、及び垂直画素数Hのサイズを有する。そして、テンプレートマッチングは、テンプレート1201に含まれる画素の輝度値を用いて実行される。
FIG. 12A schematically shows a
テンプレート1201の特徴量T(i,j)は、図12(A)に示すような座標系を設定した場合、以下の式で表わされる。
図12(B)は、探索領域1203内の画像領域1204と、その構成例1205と、を模式的に示す。探索領域1203は、被写体の追尾を行う後フレームに係る画像においてパターンマッチングを行う範囲を表す。探索領域1203は、当該画像の全体であってもよいし、又は一部であってよい。
FIG. 12B schematically shows an
探索領域1203内の座標は、(x,y)で表すものとする。画像領域1204は、探索領域1203から、テンプレート1201に対して最も類似度が高い画像領域を探索するためのもので、探索領域1203内をシフトする。このため、探索領域1203のサイズは、テンプレート1201のサイズ(水平画素数W、垂直画素数H)と同じに設定する。
The coordinates in the
被写体追尾部205は、画像領域1204をシフトさせる度に、画像領域1204に含まれる各画素の輝度値と、テンプレート1201に含まれる各画素の輝度値との類似度を算出する(パターンマッチング)。ここで、画像領域1204の特徴量S(i,j)は、図12(B)に示すような座標系を設定した場合、以下の式で表わされる。
また、テンプレート1201と画像領域1204との類似性を表す評価値をV(x,y)とすると、V(x,y)は、以下の式に示す差分絶対和(SAD:Sum of Absolute Difference)で表される。
そして、被写体追尾部205は、画像領域1204を、探索領域1203の左上(x=0、y=0)から右方向(x方向)に1画素ずつシフトさせ、各位置において評価値V(x,y)を算出する。また、被写体追尾部205は、画像領域1204が探索領域1203の右端(x=X−W)に達すると、次に、画像領域1204を、左端(x=0)に戻し、かつ下方向(y方向)に1画素シフトさせる(y=1)。そして、被写体追尾部205は、再び、探索領域1203の左端(x=0、y=1)から右方向(x方向)に1画素ずつシフトさせ、各位置において評価値V(x,y)を算出する。
Then, the
被写体追尾部205は、以上の動作を、探索領域1203が探索領域1203の右下(x=X−W、y=Y−H)に達するまで、繰り返す。但し、Xは、探索領域1203の水平画素数(x方向の画素数)であり、Yは、探索領域1203の垂直画素数(y方向の画素数)である。また、被写体追尾部205は、各位置において算出された各評価値V(x,y)のうち、最も低い評価値を有する位置V(x,y)での画像領域1204が、テンプレート1201に対して類似度が最も高い画像領域であると判断する。
The
このように、被写体追尾部205は、評価値V(x,y)が最小値を示す画素領域1204の位置を、特徴量領域に対応する画素領域の位置、即ち、被写体(追尾対象)の位置として決定する。尚、被写体追尾部205は、探索結果の信頼性が低い場合、例えば、評価値V(x,y)の最小値が閾値よりも大きい場合には、特徴量領域に対応する画像領域が見つけ出せなかったと決定してもよい。
As described above, the
本実施形態では、パターンマッチングにおいて、特徴量として輝度値を用いる例を説明したが、輝度値以外の要素(明度、色相、彩度など)を用いてもよい。また、パターンマッチングにおける評価値V(x,y)は、複数の要素(輝度値、明度、色相、彩度など)を考慮して決定してもよい。さらに、評価値V(x,y)は、SADに代えて、正規化相互相関(NCC: Normalized Cross−Correlation)、ZNCCなどにより表すことも可能である。 In the present embodiment, an example in which a luminance value is used as a feature amount in pattern matching has been described. However, elements (lightness, hue, saturation, and the like) other than the luminance value may be used. Further, the evaluation value V (x, y) in pattern matching may be determined in consideration of a plurality of elements (such as luminance value, lightness, hue, and saturation). Further, the evaluation value V (x, y) can be represented by a normalized cross-correlation (NCC), a ZNCC, or the like instead of the SAD.
<その他の実施形態>
上述の実施形態の各機能又は各処理を実現するプログラムは、予め撮像装置100内のフラッシュメモリ155、又はこれに代えてROM(図示せず)にインストールしておくことが可能である。また、上述の実施形態の1以上の機能又は処理を実現するプログラムは、ネットワーク又は記憶媒体を介して撮像装置100に供給することも可能である。この場合、撮像装置100内の主制御部151、又はこれに代えて少なくとも1つのプロセッサ(図示せず)が当該供給されたプログラムを実行することで、上述の実施形態の各機能又は各処理が実現される。
<Other embodiments>
A program for realizing each function or each process of the above-described embodiment can be installed in advance in the
また、上述の実施形態の各機能又は各処理は、上述のように、コンピュータにインストールされたプログラム(ソフトウェア)により実現可能であると共に、ハードウェア(回路)によっても実現可能である。例えば、上述の実施形態の1以上の機能又は処理は、ASIC(Application Specific IC)、FPGA(Field Programmable Gate Array)などの回路でも実現可能である。 Further, as described above, each function or each process of the above-described embodiment can be realized by a program (software) installed in a computer and also by hardware (circuit). For example, one or more functions or processes of the above-described embodiment can be realized by a circuit such as an ASIC (Application Specific IC) or an FPGA (Field Programmable Gate Array).
<むすび>
以上、本発明によれば、画像情報に基づき特徴量領域のサイズを決定することで、追尾状況によらず常に高い追尾性能を得ることが可能な撮像装置を提供できる。例えば、被写体と背景の位置関係が大きく変化する条件下での追尾においては、特徴量領域を被写体領域とほぼ同じサイズとし、被写体と背景の位置関係がほとんど変化しない条件下での追尾においては、特徴量領域を被写体領域よりも大きくする。これにより、追尾状況によらず常に高い追尾性能を得ることが可能となる。
<Conclusion>
As described above, according to the present invention, it is possible to provide an imaging apparatus that can always obtain high tracking performance regardless of a tracking situation by determining the size of a feature amount area based on image information. For example, in tracking under conditions in which the positional relationship between the subject and the background changes significantly, the feature amount region is set to be approximately the same size as the subject region, and in tracking under conditions in which the positional relationship between the subject and the background hardly changes, The feature amount area is made larger than the subject area. This makes it possible to always obtain high tracking performance regardless of the tracking situation.
161: 被写体認識部
201: 被写体検出部
202: 特徴量領域登録部
203: 背景の動き量取得部
204: 特徴量領域更新部
205: 被写体追尾部
161: subject recognition unit 201: subject detection unit 202: feature amount region registration unit 203: background motion amount acquisition unit 204: feature amount region update unit 205: subject tracking unit
Claims (15)
前記第1の画像から追尾対象としての被写体を検出する被写体検出手段と、
前記第1の画像に基づき前記被写体を含む特徴量領域を登録する特徴量領域登録手段と、
前記第1及び第2の画像に係る情報に基づき、前記特徴量領域登録手段に登録された前記特徴量領域のサイズの更新を行う特徴量領域更新手段と、
前記第2の画像から、前記特徴量領域更新手段で更新された前記特徴量領域に対応する画像領域の探索を行うことで、前記被写体の追尾を行う被写体追尾手段と、を備える、
ことを特徴とする撮像装置。 An imaging device capable of acquiring a first image and a second image in time series,
Subject detection means for detecting a subject as a tracking target from the first image;
Feature amount region registration means for registering a feature amount region including the subject based on the first image;
A feature amount area update unit that updates a size of the feature amount area registered in the feature amount area registration unit based on information related to the first and second images;
Subject tracking means for tracking the subject by performing a search for an image area corresponding to the feature quantity area updated by the feature quantity area updating means from the second image.
An imaging device characterized by the above-mentioned.
ことを特徴とする請求項1に記載の撮像装置。 The feature amount area registration unit sets a size of the feature amount area to be registered based on the first image as an initial value.
The imaging device according to claim 1, wherein:
ことを特徴とする請求項2に記載の撮像装置。 The feature amount area update unit, when the amount of change in the positional relationship between the subject and its background is larger than a reference value, makes the size of the feature amount area smaller than the initial value, and the amount of change is smaller than the initial value. When smaller than a reference value, the size of the feature amount region is larger than the initial value,
The imaging device according to claim 2, wherein:
ことを特徴とする請求項3に記載の撮像装置。 The feature amount area update unit reduces the size of the feature amount area as the change amount increases, and increases the size of the feature amount area as the change amount decreases.
The imaging device according to claim 3, wherein:
ことを特徴とする請求項4に記載の撮像装置。 The feature amount area update unit, when the change amount is larger than a threshold, makes the size of the feature amount area constant,
The imaging device according to claim 4, wherein:
ことを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 When the search by the subject tracking unit is performed and the tracking is successful, the feature amount region registration unit replaces the already registered feature amount region with the feature amount region used in the search. Register a new,
The imaging device according to claim 1, wherein:
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The information includes at least one of an average brightness of a screen, a white balance, and positional information based on a GPS function.
The imaging device according to claim 1, wherein:
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The information includes a motion amount of the subject and a motion amount of a background of the subject.
The imaging device according to claim 1, wherein:
前記被写体追尾手段は、前記第1及び第2の画像から前記被写体の動き量を取得し、
前記特徴量領域更新手段は、前記被写体の動き量及び前記背景の動き量に基づき前記特徴量領域のサイズの更新を行う、
ことを特徴とする請求項8に記載の撮像装置。 The image processing apparatus further includes a background motion amount acquisition unit that acquires the background motion amount from the first and second images,
The subject tracking means acquires a motion amount of the subject from the first and second images,
The feature amount region update unit updates the size of the feature amount region based on the amount of movement of the subject and the amount of movement of the background.
The imaging device according to claim 8, wherein:
前記第1及び第2の画像から前記背景を推定し、
前記推定された背景に基づき、前記第1及び第2の画像間の動きベクトルを検出し、
前記動きベクトルに基づき、前記背景の動き量を取得する、
ことを特徴とする請求項9に記載の撮像装置。 The background motion amount obtaining means includes:
Estimating the background from the first and second images;
Detecting a motion vector between the first and second images based on the estimated background;
Obtaining the amount of motion of the background based on the motion vector;
The imaging device according to claim 9, wherein:
ジャイロセンサ及び加速度センサの少なくとも1つにより前記撮像装置の動きを検出し、
前記撮像装置の動きに基づき、前記背景の動き量を取得する、
ことを特徴とする請求項9に記載の撮像装置。 The background motion amount obtaining means includes:
Detecting the movement of the imaging device by at least one of a gyro sensor and an acceleration sensor,
Acquiring the amount of movement of the background based on the movement of the imaging device;
The imaging device according to claim 9, wherein:
ことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。 The apparatus further includes control means for controlling a shooting condition for the subject based on tracking of the subject.
The imaging device according to claim 1, wherein:
前記第1の画像及び前記第2の画像を処理する少なくとも1つのプロセッサと、を備え、
前記少なくとも1つのプロセッサは、
前記第1の画像から追尾対象としての被写体を検出する被写体検出手段と、
前記第1の画像に基づき前記被写体を含む特徴量領域を登録する特徴量領域登録手段と、
前記第1及び第2の画像に係る情報に基づき、前記特徴量領域登録手段に登録された前記特徴量領域のサイズの更新を行う特徴量領域更新手段と、
前記第2の画像から、前記特徴量領域更新手段で更新された前記特徴量領域に対応する画像領域の探索を行うことで、前記被写体の追尾を行う被写体追尾手段と、を備える、
ことを特徴とする撮像装置。 An image sensor that captures the first image and the second image in time series;
At least one processor for processing the first image and the second image,
The at least one processor comprises:
Subject detection means for detecting a subject as a tracking target from the first image;
Feature amount region registration means for registering a feature amount region including the subject based on the first image;
A feature amount area update unit that updates a size of the feature amount area registered in the feature amount area registration unit based on information related to the first and second images;
Subject tracking means for tracking the subject by performing a search for an image area corresponding to the feature quantity area updated by the feature quantity area updating means from the second image.
An imaging device characterized by the above-mentioned.
前記第1の画像から追尾対象としての被写体を検出する被写体検出工程と、
前記第1の画像に基づき前記被写体を含む特徴量領域を登録する特徴量領域登録工程と、
前記第1及び第2の画像に係る情報に基づき、前記特徴量領域登録手段に登録された前記特徴量領域のサイズの更新を行う特徴量領域更新工程と、
前記第2の画像から、前記特徴量領域更新手段で更新された前記特徴量領域に対応する画像領域の探索を行うことで、前記被写体の追尾を行う被写体追尾工程と、を備える、
ことを特徴とする制御方法。 A control method of an imaging device capable of acquiring a first image and a second image in time series,
A subject detection step of detecting a subject as a tracking target from the first image;
A feature amount region registration step of registering a feature amount region including the subject based on the first image;
A feature amount region updating step of updating the size of the feature amount region registered in the feature amount region registration unit based on information on the first and second images;
A subject tracking step of performing tracking of the subject by performing a search for an image area corresponding to the feature amount area updated by the feature amount area updating unit from the second image.
A control method characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188925A JP7278737B2 (en) | 2018-10-04 | 2018-10-04 | IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018188925A JP7278737B2 (en) | 2018-10-04 | 2018-10-04 | IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020057302A true JP2020057302A (en) | 2020-04-09 |
JP7278737B2 JP7278737B2 (en) | 2023-05-22 |
Family
ID=70107384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018188925A Active JP7278737B2 (en) | 2018-10-04 | 2018-10-04 | IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7278737B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206320A (en) * | 2002-12-25 | 2004-07-22 | Matsushita Electric Ind Co Ltd | Image recognition device and method |
JP2005346425A (en) * | 2004-06-03 | 2005-12-15 | Matsushita Electric Ind Co Ltd | Automatic tracking system and automatic tracking method |
JP2007068008A (en) * | 2005-09-01 | 2007-03-15 | Matsushita Electric Ind Co Ltd | Automatic tracking apparatus |
JP2008011497A (en) * | 2006-06-01 | 2008-01-17 | Canon Inc | Camera apparatus |
JP2012073997A (en) * | 2010-09-01 | 2012-04-12 | Ricoh Co Ltd | Object tracking device, object tracking method, and program thereof |
JP2017151535A (en) * | 2016-02-22 | 2017-08-31 | 株式会社リコー | Image processing device, object recognition device, equipment control system, image processing method, and program |
JP2017215525A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Imaging device and method for controlling the same, program, and storage medium |
JP2018018393A (en) * | 2016-07-29 | 2018-02-01 | オムロン株式会社 | Image processing device and image processing method |
-
2018
- 2018-10-04 JP JP2018188925A patent/JP7278737B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206320A (en) * | 2002-12-25 | 2004-07-22 | Matsushita Electric Ind Co Ltd | Image recognition device and method |
JP2005346425A (en) * | 2004-06-03 | 2005-12-15 | Matsushita Electric Ind Co Ltd | Automatic tracking system and automatic tracking method |
JP2007068008A (en) * | 2005-09-01 | 2007-03-15 | Matsushita Electric Ind Co Ltd | Automatic tracking apparatus |
JP2008011497A (en) * | 2006-06-01 | 2008-01-17 | Canon Inc | Camera apparatus |
JP2012073997A (en) * | 2010-09-01 | 2012-04-12 | Ricoh Co Ltd | Object tracking device, object tracking method, and program thereof |
JP2017151535A (en) * | 2016-02-22 | 2017-08-31 | 株式会社リコー | Image processing device, object recognition device, equipment control system, image processing method, and program |
JP2017215525A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Imaging device and method for controlling the same, program, and storage medium |
JP2018018393A (en) * | 2016-07-29 | 2018-02-01 | オムロン株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP7278737B2 (en) | 2023-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6106921B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4914045B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP7223079B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS | |
JP6656035B2 (en) | Image processing apparatus, imaging apparatus, and control method for image processing apparatus | |
JP2009213114A (en) | Imaging device and program | |
KR102592745B1 (en) | Posture estimating apparatus, posture estimating method and computer program stored in recording medium | |
JP2019101996A (en) | Image processing apparatus and image processing method reducing noise by composing plural captured images | |
JP6564284B2 (en) | Image processing apparatus and image processing method | |
JP2012120152A (en) | Imaging apparatus and control method of the same | |
US20210256713A1 (en) | Image processing apparatus and image processing method | |
JP4807582B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP6178646B2 (en) | Imaging apparatus and image shake correction processing method | |
JP5067047B2 (en) | Imaging device | |
JP7278737B2 (en) | IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM | |
JP5451364B2 (en) | Subject tracking device and control method thereof | |
JP6218520B2 (en) | Image processing apparatus, image processing method, and program | |
JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
US12008773B2 (en) | Object tracking apparatus and control method thereof using weight map based on motion vectors | |
JP2020043544A (en) | Imaging device, control method therefor, program, and storage medium | |
JP6493746B2 (en) | Image tracking device and image tracking method | |
JP6381212B2 (en) | Imaging apparatus and control method thereof | |
US20220270264A1 (en) | Image processing device, control method thereof, imaging device, and recording medium | |
JP7170452B2 (en) | Imaging device and its control method | |
JP2018072941A (en) | Image processing device, image processing method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230510 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7278737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |