JP2010197467A - Image capturing apparatus, and program - Google Patents
Image capturing apparatus, and program Download PDFInfo
- Publication number
- JP2010197467A JP2010197467A JP2009039284A JP2009039284A JP2010197467A JP 2010197467 A JP2010197467 A JP 2010197467A JP 2009039284 A JP2009039284 A JP 2009039284A JP 2009039284 A JP2009039284 A JP 2009039284A JP 2010197467 A JP2010197467 A JP 2010197467A
- Authority
- JP
- Japan
- Prior art keywords
- image
- tracking
- search block
- frame image
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体像を追尾する撮影装置に関する。 The present invention relates to a photographing apparatus that tracks a subject image.
撮影装置により順次撮影されるフレーム画像において、特定の被写体の動きを追尾する追尾処理が知られている。このような追尾処理は、例えば、移動する被写体の動きを追尾しながらオートフォーカスを行なうために用いられる。 A tracking process for tracking the movement of a specific subject in frame images sequentially photographed by a photographing apparatus is known. Such tracking processing is used, for example, to perform autofocus while tracking the movement of a moving subject.
従来の追尾処理の手法について簡単に説明する。従来の追尾処理においては、まず、最初に撮影されたフレーム画像の特定領域に写る被写体の画像が、追尾対象の画像として初期設定される。以降、追尾処理においては、前フレーム画像における追尾対象の画像と、現フレーム画像における所定の探索ブロック内の画像とのパターンマッチングが行なわれる。パターンマッチングにより、前フレーム画像における追尾対象の画像との相関度が閾値以上であると判定された現フレーム画像における領域が、現フレーム画像における追尾対象の画像として設定される。以降、この処理がくり返されることにより、移動する被写体が追尾される。 A conventional tracking method will be briefly described. In the conventional tracking process, first, an image of a subject that appears in a specific area of a frame image that is first captured is initially set as an image to be tracked. Thereafter, in the tracking process, pattern matching is performed between an image to be tracked in the previous frame image and an image in a predetermined search block in the current frame image. An area in the current frame image in which the degree of correlation with the image to be tracked in the previous frame image is determined to be greater than or equal to the threshold by pattern matching is set as the image to be tracked in the current frame image. Thereafter, by repeating this process, the moving subject is tracked.
この追尾処理に関する技術として、特許文献1に、撮影画像上において、追尾対象である移動物体が予め指定された特定領域内に侵入した場合、移動物体が特定領域から出てくるまで追尾処理を停止させ、移動物体が特定領域から出た後に移動物体を再び追尾する技術が提案されている。
As a technique related to this tracking process, in
例えば、フレーム画像上において、追尾対象である移動物体が風に揺れる草木に重なった場合、移動物体と風に揺れる草木の区別が付かなくなるために、草木を追尾対象であると誤判断してしまう可能性がある。しかし、特許文献1に記載の技術によれば、このような場合においても、風に揺れる草木が特定領域として指定すれば、追尾対象である移動物体と風に揺れる草木とが重なっている間には追尾処理が停止されるので、風に揺れる草木が追尾対象であると誤判断される可能性を低減できる。
For example, if a moving object that is a tracking target overlaps with a swaying vegetation on a frame image, the moving object and the swaying vegetation cannot be distinguished, so that the vegetation is erroneously determined to be a tracking target. there is a possibility. However, according to the technique described in
しかしながら、特許文献1に記載の技術では、特定領域の周囲の所定領域を探索ブロックとして設定し、その探索ブロックに対しパターンマッチングを行うことで、特定領域から出た移動物体を再び検出するようにしている。このため、特許文献1に記載の技術では、例えば、追尾対象である移動する第1の被写体と追尾対象ではない移動する第2の被写体とが交差する場合、本来追尾対象ではない第2の被写体が特定領域の周囲に設定された探索ブロックに侵入してしまう場合がある。この場合、追尾処理を再開する際に、第2の被写体までもがパターンマッチングの対象となるので、本来追尾対象ではない第2の被写体を誤って追尾してしまう可能性があるという問題があった。
However, in the technique described in
そこで、本発明の目的は、移動するユーザ不所望の被写体を追尾対象であると誤判断することを防止することにある。 Accordingly, an object of the present invention is to prevent erroneous determination that a moving user-desired subject is a tracking target.
上記目的を達成するために、本発明は、
被写体のフレーム画像を順次撮影する撮影手段と、
ユーザの操作を受け付け、複数の方向のうちユーザから受け付けた操作に応じた方向を指示する操作手段と、
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段と、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段と、
を備えることを特徴とする。
In order to achieve the above object, the present invention provides:
Photographing means for sequentially photographing frame images of the subject;
Operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
It is characterized by providing.
本発明によれば、移動するユーザ不所望の被写体を追尾対象であると誤判断することを防止することができる。 According to the present invention, it is possible to prevent a moving user's undesired subject from being erroneously determined as a tracking target.
以下、図面に基づき、本発明の一実施形態に係る撮影装置100について説明する。
Hereinafter, based on the drawings, a photographing
図1は、本実施形態に係る撮影装置100の外観を示す図である。図1に示されるように、撮影装置100の背面には、十字ボタン26a、メニューボタン26c、液晶ディスプレイ28aが設けられている。
FIG. 1 is a diagram illustrating an external appearance of a photographing
十字ボタン26aは、十字配列されている4つのボタンである左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aで構成されている。十字ボタン26aは、メニュー画面に表示される各種項目をユーザが選択するためのカーソルの移動などために操作される。また、本実施形態においては、十字ボタン26aは、追尾処理においてパターンマッチングの対象となる探索ブロックをフレーム画像に設定するために操作される。メニューボタンは、メニュー画面を液晶ディスプレイ28aに表示させる際に操作される。液晶ディスプレイ28aは、撮影モードではライブビュー画像を表示する電子ビューファインダとして使用され、再生モードでは記録されている撮影画像が表示される。 The cross button 26a includes a left button 261a, a lower button 262a, a right button 263a, and an upper button 264a which are four buttons arranged in a cross shape. The cross button 26a is operated to move the cursor for the user to select various items displayed on the menu screen. In the present embodiment, the cross button 26a is operated to set a search block to be subjected to pattern matching in the tracking process as a frame image. The menu button is operated when a menu screen is displayed on the liquid crystal display 28a. The liquid crystal display 28a is used as an electronic viewfinder that displays a live view image in the shooting mode, and displays a recorded shot image in the playback mode.
また、撮影装置100の上面には、シャッタボタン26bが設けられている。シャッタボタン26bは、撮影準備(合焦動作など)を指示するための半押し操作と、撮影を指示するための全押し操作とをユーザから受け付けることが可能な構成である。
A shutter button 26b is provided on the upper surface of the photographing
図2は、本実施形態に係る撮影装置100の機能的構成を示すブロック図である。図2を用いて、撮影装置100の構成を説明する。撮影装置100は、デジタルカメラなどにより構成することができる。
FIG. 2 is a block diagram illustrating a functional configuration of the photographing
撮影装置100は、制御部10と、RAM11と、ROM12と、光学レンズ装置13と、光学系制御部14と、光学系駆動部15と、シャッタ装置16と、シャッタ制御部17と、シャッタ駆動部18と、撮像素子19と、撮像素子駆動部20と、前処理部21と、画像入力コントローラ22と、画像メモリ23と、画像処理部24と、AF評価部25と、操作部26と、表示制御部27と、表示部28と、記録媒体29と、被写体追尾部30と、を備える。
The photographing
制御部10は、撮影装置100全体の動作を制御する。制御部10は、CPU(Central Processing Unit)や、計時回路であるリアルタイムクロック(Real Time Clock)などにより構成される。
The
RAM11は、制御部10が各処理を実行する際にワーキングエリアとして機能する。RAM11は、DRAM(Dynamic Random Access Memory)などから構成される。ROM12は、撮影装置100が各処理を実行するのに必要なプログラムやデータを記憶する。ROM12は、フラッシュメモリなどから構成される。制御部10は、RAM11をワーキングエリアとして、ROM12に記憶されているプログラムとの協働により各処理を実行する。
The RAM 11 functions as a working area when the
光学レンズ装置13は、フォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、被写体像を撮像素子19の受光面に結像させるためレンズである。 The optical lens device 13 includes a focus lens, a zoom lens, and the like. The focus lens is a lens for forming a subject image on the light receiving surface of the image sensor 19.
光学系制御部14は、制御部10による制御に従って光学系駆動部15を制御することにより、光学系駆動部15に、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。これにより、フォーカスレンズの位置が変化して焦点が調節される。光学系駆動部13は、ステッピングモータなどで構成される。光学系制御部14は、光学系駆動部15を制御する制御回路などで構成される。
The optical
シャッタ装置16は、撮像素子19へ入射する光束を遮断する機械式シャッタとして機能するとともに、撮像素子19へ入射する光束の光量を調節する絞りとしても機能する機構である。シャッタ装置16は、シャッタ羽根などから構成される。
The
シャッタ制御部17は、制御部10による制御に従って、シャッタ駆動部18を駆動させる。具体的には、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16のシャッタ羽根を開閉させる。また、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16の絞りを調節させる。シャッタ駆動部18は、シャッタ羽根を開閉させる電磁アクチュエータなどで構成される。駆動制御部17は、シャッタ駆動部18に電流を供給する回路などで構成される。
The shutter control unit 17 drives the
撮像素子19は、光学レンズ装置13から入射されて受光面に結像した被写体像を光電変換(撮影)する素子である。撮像素子19の受光面には、光電変換素子であるフォトダイオードが行列状に配置されている。これらフォトダイオードが撮像素子19の各画素を構成している。各フォトダイオード上には、ベイヤ方式の配列に従って、R(赤)、G(緑)B(青)の色フィルタが配置されている。撮像素子19は、撮像素子駆動部20による制御に従って、所定時間毎に被写体像を光電変換して画像信号を蓄積し、蓄積した画像信号を順次出力する。撮像素子19は、CCD(Charge Coupled Device)型のイメージセンサなどから構成される。
The image sensor 19 is an element that photoelectrically converts (shoots) a subject image that is incident from the optical lens device 13 and formed on the light receiving surface. On the light receiving surface of the image sensor 19, photodiodes that are photoelectric conversion elements are arranged in a matrix. These photodiodes constitute each pixel of the image sensor 19. On each photodiode, color filters of R (red), G (green), and B (blue) are arranged according to the Bayer arrangement. The image sensor 19 photoelectrically converts the subject image at predetermined time intervals to store image signals according to control by the image
撮像素子駆動部20は、制御部10による制御に従って撮像素子19を駆動する。撮像素子駆動部20は、制御部10による制御に従って各種クロックパルス等を生成する。撮像素子駆動部20は,生成した各種クロックパルスおよび制御回路10から供給される制御信号に基づいて、一定時間毎に撮像素子19から画像信号を読み出す。撮像素子駆動部20は、各種クロックパルス等を生成するタイミングジェネレータや、走査回路などから構成される。
The image
前処理部21は、撮像素子19から供給された画像信号に対し、相関二重サンプリング処理、利得制御処理、A/D(Analog/Digital)変換処理などの各種信号処理を施すことによりディジタル信号を生成して、生成したディジタル信号を出力する。前処理部21は、A/D変換器などにより構成される。
The
画像入力コントローラ22は、前処理部21から供給されたディジタル信号を画像メモリ23に記憶させる。
The image input controller 22 stores the digital signal supplied from the preprocessing
画像メモリ23は、前処理部21により生成された画像信号や、画像処理部24により生成される画像データを一時的に記憶する。また、画像メモリ23には、画像処理部24がベイヤデータから画像データを生成する際にワーキングエリアとしても使用される。画像メモリ21は、DRAM(Dynamic Random Access Memory)などから構成される。
The
画像処理部24は、画像メモリ23に記憶された画像信号に対し、ホワイトバランス補正処理、γ補正処理、YC変換処理などの画像処理を施して、輝度信号と色差信号とが重畳した画像データを生成する。この画像データにより表現される画像が、フレーム画像である。また、画像処理部24は、シャッタボタン26bが全押し操作されたときは、比較的高画質で大容量のフレーム画像を生成する。一方、画像処理部24は、ライブビュー画像を表示するときは、比較的低画質で小容量のフレーム画像を生成する。画像処理部24は、DSP(Digital Signal Processor)などから構成される。
The
AF評価部25は、フレーム画像における所定のAF枠に対応する輝度信号をハイパスフィルタに通過させることにより高周波数成分を抽出し、抽出した高周波数成分の絶対値の積算値を算出する。AF評価部25は、算出した積算値をAF評価値として制御部10に供給する。制御部10は、合焦動作時に、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させる。そして、制御部10は、AF評価部25に、フォーカスレンズが各レンズ位置にあるときに撮影されたフレーム画像からAF評価値を算出させる。そして、制御部10は、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。
The
操作部26は、ユーザから各種ボタンの操作を受け付ける。操作部26は、電源ボタン(不図示)、十字ボタン26a、シャッタボタン26b、メニューボタン26cなどを備える。操作部26は、ユーザから受け付けた操作に応じた信号を制御部10に供給する。例えば、操作部26は、ユーザにより十字ボタン26aの左ボタン261aの操作を受け付けた場合には、左方向を指示する信号を制御部10に供給する。同様に、操作部26は、ユーザにより十字ボタン26aの下ボタン262a、右ボタン263a、上ボタン264aの操作を受け付けた場合には、それぞれ、下方向を指示する信号、右方向を指示する信号、上方向を指示する信号を制御部10に供給する。制御部10は、操作部26からこれらの信号を受信すると、受信した信号に基づいた処理を実行する。
The
表示制御部27は、制御部10による制御に従って、画像メモリ23に記憶されている画像データをアナログ信号に変換して出力する。表示制御部27は、VRAM(Video Random Access Memory)やD/A(Digital/Analog)変換器などから構成される。
The
表示部28は、表示制御部27から供給されたアナログ信号により表現される画像などを表示する。表示部28は、撮影装置100の背面に設けられた液晶ディスプレイ28aなどから構成される。
The
記録媒体29は、画像処理部24により生成された画像データを記録する。記録媒体29は、撮影装置100に着脱可能な半導体メモリカードなどから構成される。
The
被写体追尾部30は、順次撮影されるフレーム画像に写る被写体を追尾する。被写体追尾部30には、探索ブロック設定部30aと、マッチング判定部30bと、追尾画像メモリ30cと、追尾ブロック設定部30dと、が設けられている。
The
図3から図5を用いて、被写体追尾部30が行う本実施形態に係る追尾処理の手法について説明する。
A tracking processing method according to the present embodiment performed by the
今、フレーム周期が経過するごとに、第1、第2、第3、・・・、第(n−1)、第n、第(n+1)フレームがこの順番で訪れるものとする(nは2以上の整数)。そして、第1、第2、第3、・・・、第(n−1)、第nフレーム、第(n+1)にて得られた撮影画像を、それぞれ、フレーム画像F(1)、フレーム画像F(2)、フレーム画像F(3)、・・・、フレーム画像F(n−1)及びフレーム画像F(n)、フレーム画像F(n+1)と呼ぶこととする。以下の説明においては、フレーム画像F(n)が現在時点で撮影されているものとし、このフレーム画像F(n)を現フレーム画像F(n)と呼び、フレーム画像F(n−1)を前フレーム画像F(n−1)と呼び、フレーム画像F(n+1)を次フレーム画像F(n+1)と呼び呼ぶことにする。 Now, every time the frame period elapses, the first, second, third,..., (N−1) th, nth, (n + 1) th frames are visited in this order (n is 2). Or an integer). Then, the captured images obtained in the first, second, third,..., (N−1) th, nth frame, and (n + 1) th are respectively converted into a frame image F (1) and a frame image. F (2), frame image F (3),..., Frame image F (n−1), frame image F (n), and frame image F (n + 1). In the following description, it is assumed that the frame image F (n) is taken at the current time point, this frame image F (n) is called the current frame image F (n), and the frame image F (n−1) is The previous frame image F (n + 1) is called, and the frame image F (n + 1) is called the next frame image F (n + 1).
図3において、符号F(n−1)は、前フレーム画像F(n−1)を示す。符号P(n−1)は、この前フレーム画像F(n−1)に設定された追尾ブロックを示す。追尾ブロックは、追尾対象となった被写体の移動に追尾するように各フレーム画像に順次設定されるものである。符号O(n−1)は、追尾ブロックP(n−1)の中心を示す。 In FIG. 3, the symbol F (n−1) indicates the previous frame image F (n−1). A symbol P (n−1) indicates a tracking block set in the previous frame image F (n−1). The tracking block is sequentially set for each frame image so as to track the movement of the subject that is the tracking target. A symbol O (n−1) indicates the center of the tracking block P (n−1).
図4、図5において、符号F(n)は、現フレーム画像F(n)を示す。符号S(n)は、追尾処理におけるパターンマッチングにおいて、テンプレート画像である追尾ブロックP(n−1)が移動し得る領域である探索ブロックを表す。本実施形態では、各フレーム画像に対し設定される探索ブロックS(n)のサイズは、フレーム画像を9分割した各画像領域のうちの1つ分の画像領域のサイズに等しいものとする。 4 and 5, the symbol F (n) indicates the current frame image F (n). Symbol S (n) represents a search block that is an area in which the tracking block P (n−1), which is a template image, can move in pattern matching in tracking processing. In the present embodiment, the size of the search block S (n) set for each frame image is assumed to be equal to the size of one image area of each image area obtained by dividing the frame image into nine.
マッチング判定部30bは、テンプレート画像である追尾ブロックP(n−1)と探索ブロックS(n)との間の相関値Eを算出するパターンマッチングを行う。パターンマッチングの際、マッチング判定部30bは、テンプレート画像である追尾ブロックP(n−1)を探索ブロックS(n)内で1画素ずつ左右方向又は上下方向に移動させて、テンプレート画像が1画素移動する度に相関値Eを算出する。相関値E1は、例えば、テンプレート画像と探索ブロックS(n)との間において、同じ位置にある各画素の輝度差の絶対値の総和とされる。この相関値Eは、一般的にSAD(Sum of Absolute Difference)と呼ばれる。なお、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。
The matching
相関値E(各画素の輝度差など)は、テンプレート画像である追尾ブロックP(n−1)と探索ブロックS(n)との間の類似度が高いほど小さくなる。従って、相関値Eが最も小さくなる探索ブロックS(n)内の位置を求めれば、追尾ブロックP(n−1)の最も類似する画像が、現フレーム画像の探索ブロックS(n)内のどこに位置しているかを求めることができる。マッチング判定部30bは、パターンマッチングが完了した後、探索ブロックS(n)において相関値Eが最も小さくなる位置を示す信号を追尾ブロック設定部30dに供給する。
The correlation value E (such as the luminance difference of each pixel) decreases as the similarity between the tracking block P (n−1), which is a template image, and the search block S (n) increases. Therefore, if the position in the search block S (n) having the smallest correlation value E is obtained, the most similar image of the tracking block P (n−1) is located in the search block S (n) of the current frame image. It can be determined whether it is located. After the pattern matching is completed, the matching
追尾ブロック設定部30dは、現フレーム画像F(n)に対して、マッチング判定部30bから供給された信号が示す位置(相関値Eが最も小さくなる探索ブロックS(n)内の位置)に、追尾ブロックP(n)を設定する。
The tracking
追尾画像メモリ30cは、追尾ブロック内の画像を表現する画像データを記憶する。追尾ブロック設定部30dは、フレーム画像に対し追尾ブロックを設定する度にフレーム画像から追尾ブロック内の画像を切り出す。そして、切り出した画像を表現する画像データを、次フレーム画像に対して行うパターンマッチングのためのテンプレート画像として追尾画像メモリ30cに記憶させる。これにより、追尾画像メモリ30cに記憶されるテンプレート画像が最新のものに更新される。マッチング判定部30bは、パターンマッチングを行う際に、追尾画像メモリ30cからテンプレート画像である追尾ブロック内の画像を読み出して、読み出した画像とフレーム画像における探索ブロックとのパターンマッチングを行う。
The tracking image memory 30c stores image data representing an image in the tracking block. The tracking
ここで、本実施形態に係る追尾処理においては、探索ブロック設定部30aが、ユーザの十字ボタン26aの操作に応じて探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザによる十字キー26aの異なる操作に応じて、探索ブロックS(n)が異なる位置に設定される。かかる処理をくり返すことにより、ユーザにより十字キー26aが操作されている間は、順次撮影される各フレーム画像に対して、ユーザの十字ボタン26aの操作に応じた位置に探索ブロックS(n)が順次設定される。 Here, in the tracking process according to the present embodiment, the search block setting unit 30a specifies the center of the search block S (n) in accordance with the user's operation of the cross button 26a. Then, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). Thus, the search block S (n) is set at a different position in accordance with a different operation of the cross key 26a by the user. By repeating such processing, while the cross key 26a is operated by the user, the search block S (n) is positioned at a position corresponding to the operation of the cross button 26a of the user with respect to each sequentially captured frame image. Are set sequentially.
図4は、ユーザにより十字ボタン26aが操作された場合に設定される探索ブロックS(n)の例を示す図である。 FIG. 4 is a diagram illustrating an example of the search block S (n) that is set when the cross button 26a is operated by the user.
ユーザにより十字ボタン26aの左ボタン261aが操作されると、制御部10は、この左ボタン261aの操作に応じた信号(左方向を指示する信号)を受信して、受信した信号を探索ブロック設定部30aに供給する。この場合、探索ブロック設定部30aは、例えば図4(a)に示されるように、制御部10から供給された信号に応答して、探索ブロックS(n)の右端部の水平方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)設定する。このとき、設定された探索ブロックS(n)の中心の垂直方向における位置と、中心O(n−1)の位置とは一致する。これにより、ユーザによる左ボタン261aの操作に応じて、探索ブロックS(n)の中心が、追尾ブロックP(n−1)の中心O(n−1)の左側に配置されるように、探索ブロックS(n)が設定される。
When the user operates the left button 261a of the cross button 26a, the
同様にして、ユーザにより十字ボタン26aの下ボタン262aが操作されると、探索ブロック設定部30aは、図4(b)に示されるように、探索ブロックS(n)の上端部の垂直方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の下側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の水平方向における位置は、中心O(n−1)の位置に一致する。 Similarly, when the user operates the lower button 262a of the cross button 26a, the search block setting unit 30a in the vertical direction of the upper end portion of the search block S (n) as shown in FIG. 4B. The center of the search block S (n) is designated so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). As a result, the current frame image F (n) is arranged such that the center of the search block S (n) is located below the center O (n−1) of the tracking block in the previous frame image F (n−1). A search block S (n) is set for. At this time, the position in the horizontal direction of the center of the set search block S (n) coincides with the position of the center O (n−1).
また、ユーザにより十字ボタン26aの右ボタン263aが操作されると、探索ブロック設定部30aは、図4(c)に示されるように、探索ブロックS(n)の左端部の水平方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の右側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の垂直方向における位置は、中心O(n−1)の位置に一致する。 Further, when the right button 263a of the cross button 26a is operated by the user, the search block setting unit 30a indicates that the position in the horizontal direction of the left end portion of the search block S (n) is as shown in FIG. The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). Thereby, the center of the search block S (n) is arranged in the current frame image F (n) so as to be arranged on the right side of the tracking block center O (n−1) in the previous frame image F (n−1). On the other hand, a search block S (n) is set. At this time, the position in the vertical direction of the center of the set search block S (n) coincides with the position of the center O (n−1).
また、ユーザにより十字ボタン26aの上ボタン264aが操作されると、探索ブロック設定部30aは、図4(d)に示されるように、探索ブロックS(n)の下端部の垂直方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の上側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の水平方向における位置と、中心O(n−1)の位置に一致する。 When the upper button 264a of the cross button 26a is operated by the user, the search block setting unit 30a determines that the position of the lower end portion of the search block S (n) in the vertical direction is as shown in FIG. The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). As a result, the current frame image F (n) is arranged such that the center of the search block S (n) is arranged above the center O (n-1) of the tracking block in the previous frame image F (n-1). On the other hand, a search block S (n) is set. At this time, the position in the horizontal direction of the center of the set search block S (n) coincides with the position of the center O (n−1).
図5は、ユーザにより十字ボタン26aが操作されなかった場合に設定される探索ブロックS(n)の例を示す図である。ユーザにより十字ボタン26aが操作されなかった場合、探索ブロック設定部30aは、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)を、探索ブロックS(n)の中心として指定する。そして、図5に示されるように、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザにより十字ボタン26aが操作されなかった場合、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に一致するように、探索ブロックS(n)が設定される。 FIG. 5 is a diagram illustrating an example of the search block S (n) set when the cross button 26a is not operated by the user. When the cross button 26a is not operated by the user, the search block setting unit 30a sets the center O (n-1) of the tracking block in the previous frame image F (n-1) as the center of the search block S (n). specify. Then, as shown in FIG. 5, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). . Thereby, when the cross button 26a is not operated by the user, the center of the search block S (n) matches the center O (n-1) of the tracking block in the previous frame image F (n-1). A search block S (n) is set.
図6は、本実施形態に係る撮影装置100の追尾AFモードにおける処理の流れを示すフローチャートである。図6を用いて、撮影装置100が実行する追尾AFモードにおける処理の流れを説明する。
FIG. 6 is a flowchart showing the flow of processing in the tracking AF mode of the
ユーザの操作部26に対する所定の操作により追尾AFモードが設定されると、撮影装置100は、ROM12に記憶されているプログラムを読み出して、このプログラムとの協働により追尾AFモードの処理を開始する。
When the tracking AF mode is set by a predetermined operation of the user's
まずステップS1において、制御部10は、ライブビュー表示を開始する。具体的には、制御部10は、画像処理部24により順次生成されるフレーム画像を表示制御部27に順次供給することにより、表示制御部27に、フレーム画像をライブビュー画像として表示部28に表示させる。
First, in step S1, the
次にステップS2において、制御部10は、ユーザによりシャッタボタン26bが半押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタン26bの半押し操作に応じた信号を監視することにより、ユーザによりシャッタボタン26bが半押し操作されているか否かを判断する。制御部10は、シャッタボタン26bが半押し操作されていないと判断した場合(ステップS2:NO)、シャッタボタン26bの半押し操作に応じた信号を検知するまでライブビュー表示を継続させる。一方、制御部10は、シャッタボタン26bが半押し操作されていると判断した場合(ステップS2:YES)、ステップS3に処理を進める。
Next, in step S2, the
次にステップS3において、制御部10は、追尾処理の初期設定を実行する。具体的には、制御部10は、追尾ブロック設定部30dに、ステップS3の時点で撮影されたフレーム画像上の所定の中央領域に規定されたAF枠内の画像を切り出させ、この切り出した画像を表現する画像データを、初期設定される追尾ブロックの画像データとして第1追尾画像メモリ30cに記憶させる。また、制御部10は、追尾ブロック設定部30dに、ステップS3の時点で撮影されたフレーム画像を9分割した各画像領域のうち中央に位置する画像領域を、初期状態における探索ブロックとして設定させる。
Next, in step S <b> 3, the
本実施形態においては、まずユーザが自身の手に構えている撮影装置100の姿勢を変化させることにより、ユーザが追尾を所望する被写体の顔がライブビュー画像の中央領域に位置するAF枠内に収まる状態になるように構図を調整する。そして、この状態においてユーザがシャッタボタン26bを半押し操作すると、制御部10は、追尾ブロック設定部30dに、AF枠内の画像をフレーム画像から切り出させ、切り出した画像を追尾ブロックとして追尾画像メモリ30cに記憶させる。本実施形態においては、追尾ブロックのサイズとAF枠のサイズとは等しくなる。
In the present embodiment, first, by changing the posture of the photographing
さらに、制御部10は、初期設定した探索ブロックの境界線を規定する外枠を、フレーム画像上に表示させる。以降、制御部10は、各フレーム画像に探索ブロックが設定される度に、設定された探索ブロックの外枠をフレーム画像上に表示させる。
Furthermore, the
図8は、追尾処理の初期設定として設定される追尾ブロックと探索ブロックの例を示す図である。符号F(1)は、制御部10がシャッタボタン26bの半押し操作を検知してから1番目に撮影された第1フレーム画像を示す。このフレーム画像F(1)には、ユーザが追尾を所望する被写体OB1と、ユーザが追尾を所望しない被写体OB2とが写っている。符号P(1)は、フレーム画像F(1)に対し初期設定された追尾ブロックである。符号S(2)は、第2フレーム画像F(2)に対して初期設定される探索ブロックである。フレーム画像を9分割した各画像領域のうち中央に位置する画像領域が、初期設定される探索ブロックS(2)として設定される。このとき、図8において実線で示されるように、探索ブロックS(2)の外枠がフレーム画像F(1)上に表示される。
FIG. 8 is a diagram illustrating an example of a tracking block and a search block that are set as initial settings for tracking processing. Reference numeral F (1) denotes a first frame image that is first taken after the
また、制御部10は、ステップS3において、追尾処理の初期設定として合焦動作を行う。合焦動作に際して、制御部10は、AF評価部25に、ステップS3の時点で順次生成される画像信号におけるAF枠内に対応する輝度信号からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠内の被写体の顔に焦点が合うこととなる。
In step S3, the
図6に戻り、次にステップS4において、制御部10は、追尾処理を実行する。この追尾処理の詳細な手順は後述する。また、後述するように、この追尾処理によりAF枠は追尾ブロックと同じ位置に設定されるので、AF枠も被写体の移動に追従することとなる。
Returning to FIG. 6, next, in step S <b> 4, the
次にステップS5において、制御部10は、所定時間(例えば3秒)が経過したか否かを判断する。具体的には、制御部10は、制御部10内の計時回路が示す直前の合焦動作が完了した時点からの経過時間が、所定時間に達したか否か経過したか否かを判断する。制御部10は、所定時間が経過していないと判断した場合(ステップS5:NO)、ステップS7に処理を進める。一方、制御部10は、所定時間が経過したと判断した場合(ステップS5:YES)、ステップS6に処理を進める。
Next, in step S5, the
ステップS6において、制御部10は、合焦動作を行う。具体的には、制御部10は、AF評価部25に、ステップS6の時点で順次撮影されるフレーム画像上のAF枠(追尾ブロック)に対応する輝度信号からAF評価値を抽出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠(追尾ブロック)内の被写体の顔などに焦点が合うこととなる。
In step S6, the
次にステップS7において、制御部10は、ユーザによりシャッタボタン26bが全押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタン26bの全押し操作に応じた信号を監視することにより、ユーザによりシャッタボタン26bが全押し操作されているか否かを判断する。制御部10は、シャッタボタン26bが全押し操作されていないと判断した場合(ステップS7:NO)、ステップS4に処理を戻す。一方、制御部10は、シャッタボタン26bが全押し操作されていると判断した場合(ステップS7:YES)、ステップS8に処理を進める。
Next, in step S7, the
次にステップS8において、制御部10は、撮影を実行する。具体的には、制御部10は、シャッタ制御部17を制御することにより、シャッタ駆動部18にシャッタ装置16を開閉させる。これにより、撮像素子19が被写体像を撮影して画像信号を出力する。前処理部21がこの電気信号からディジタル信号を生成する。そして、制御部10は、画像処理部24に、ディジタル信号から画像データを生成させて、生成した画像データをJPEG(Joint Photographic Experts Group)方式で圧縮させる。そして、制御部10は、圧縮された画像データを記録媒体29に記録させる。
Next, in step S8, the
制御部10は、ステップS8の処理の後、図6のフローチャートに示される処理を終了させる。
After the process of step S8, the
図7は、図6に示されるステップS4の追尾処理の詳細な手順を示すフローチャートである。図7を用いて、ステップS4の追尾処理の手順を説明する。この追尾処理は、ステップS3の処理の後またはステップS7の否定判断の後に開始される。 FIG. 7 is a flowchart showing a detailed procedure of the tracking process in step S4 shown in FIG. The procedure of the tracking process in step S4 will be described using FIG. This tracking process is started after the process of step S3 or after a negative determination in step S7.
まずステップS41において、制御部10は、ユーザにより十字ボタン26aが操作されているか否かを判断する。具体的には、制御部10は、操作部26からの十字ボタン26aにおける左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号を監視する。制御部10は、左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号のいずれか1つを受信した場合、ユーザにより十字ボタン26aが操作されたと判断する。一方、制御部10は、左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号のいずれも受信しなかった場合、ユーザにより十字ボタン26aが操作されていないと判断する。制御部10は、十字ボタン26aが操作されていないと判断した場合(ステップS41:NO)、ステップS43に処理を進める。一方、制御部10は、十字ボタン26aが全押し操作されていると判断した場合(ステップS41:YES)、ステップS42に処理を進める。
First, in step S41, the
ステップS42において、制御部10は、ユーザによる十字ボタンの操作に応じて探索ブロックS(n)を設定する。ここで、ユーザにより十字ボタン26aの左ボタン261aが操作された場合について説明する。この場合、探索ブロック設定部30aは、例えば図9に示されるように、現フレーム画像F(n)に設定される探索ブロックS(n)の右端部の水平方向における位置が、追尾ブロックP(n−1)の中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザによる左ボタン261aの操作に応じて、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の左側に配置されるように、探索ブロックS(n)が設定される。このとき、制御部10は、設定された探索ブロックS(n)の外枠を現フレーム画像F(n)上に表示させる。
In step S42, the
今、図9に示されるように、現フレーム画像F(n)において、ユーザが追尾を所望する被写体OB1が左方向に移動し、かつ、ユーザが追尾を所望しない被写体OB2が右方向に移動することにより、被写体OB1と被写体OB2が互いに交差する場合を想定する。この場合であっても、被写体OB1と被写体OB2が互いに交差する直前において、被写体OB2が被写体OB1の左側にいるときには、ユーザが十字ボタン26aの右ボタン263aを操作すれば、ユーザが追尾を所望しない被写体OB2の顔の領域と重ならない位置に探索ブロックS(n)が設定される。また、被写体OB1と被写体OB2が互いに交差することにより、被写体OB2が被写体OB1の右側に位置したときには、ユーザが十字ボタン26aの左ボタン261aを操作すれば、図9に示されるように、ユーザが追尾を所望しない被写体OB2の顔の領域と重ならない位置に探索ブロックS(n)が設定される。これにより、ユーザが追尾を所望しない被写体OB2の顔の領域がパターンマッチングの対象から外れるので、被写体OB2の顔への誤追尾を防止できる。 As shown in FIG. 9, in the current frame image F (n), the subject OB1 that the user wants to track moves to the left, and the subject OB2 that the user does not want to track moves to the right. Accordingly, it is assumed that the subject OB1 and the subject OB2 intersect each other. Even in this case, when the subject OB2 is on the left side of the subject OB1 immediately before the subject OB1 and the subject OB2 cross each other, if the user operates the right button 263a of the cross button 26a, the user does not desire tracking. A search block S (n) is set at a position that does not overlap the face area of the subject OB2. Further, when the subject OB1 and the subject OB2 cross each other so that the subject OB2 is positioned on the right side of the subject OB1, if the user operates the left button 261a of the cross button 26a, as shown in FIG. The search block S (n) is set at a position that does not overlap with the face area of the subject OB2 for which tracking is not desired. As a result, the area of the face of the subject OB2 that the user does not want to track is excluded from the pattern matching target, so that erroneous tracking of the face of the subject OB2 can be prevented.
同様に、ユーザにより十字ボタン26aの下ボタン262aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の下側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。また、ユーザにより十字ボタン26aの右ボタン263aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の右側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。また、ユーザにより十字ボタン26aの上ボタン264aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の上側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。 Similarly, when the user operates the lower button 262a of the cross button 26a, the center of the search block S (n) is arranged below the center O (n-1) of the tracking block P (n-1). Thus, the search block S (n) is set for the current frame image F (n). When the user operates the right button 263a of the cross button 26a, the center of the search block S (n) is arranged on the right side of the center O (n-1) of the tracking block P (n-1). A search block S (n) is set for the current frame image F (n). When the user operates the upper button 264a of the cross button 26a, the center of the search block S (n) is arranged above the center O (n-1) of the tracking block P (n-1). A search block S (n) is set for the current frame image F (n).
一方、ステップS43において、制御部10は、探索ブロックの中心と追尾ブロックの中心とが一致するように探索ブロックを設定する。具体的には、制御部10は、探索ブロック設定部30aに、現フレーム画像F(n)に対して、探索ブロックS(n)の中心と、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)とが一致するように、現フレーム画像F(n)に対して探索ブロックS(n)を設定させる。このとき、制御部10は、設定された探索ブロックS(n)の外枠を現フレーム画像F(n)上に表示させる。
On the other hand, in step S43, the
今、図10に示されるように、現フレーム画像F(n)において、被写体OB1が左方向に移動し、かつ被写体OB2が右方向に移動することにより、被写体OB1と被写体OB2が互いに交差する場合を想定する。この場合には、ユーザが十字ボタンを何も操作しなければ、現フレーム画像F(n)において、被写体OB2の顔の領域と重なる位置に探索ブロックS(n)が設定されてしまう。このため、ユーザが追尾を所望しない被写体OB2の顔の領域がパターンマッチングの対象となるので、被写体OB2の顔が誤追尾される可能性がある。 Now, as shown in FIG. 10, in the current frame image F (n), the subject OB1 and the subject OB2 cross each other due to the subject OB1 moving leftward and the subject OB2 moving rightward. Is assumed. In this case, if the user does not operate the cross button, the search block S (n) is set at a position overlapping the face area of the subject OB2 in the current frame image F (n). For this reason, the area of the face of the subject OB2 that the user does not want to track is subject to pattern matching, and thus the face of the subject OB2 may be mistracked.
次にステップS44において、制御部10は、マッチング処理を行う。具体的には、制御部10は、マッチング判定部30bに、追尾画像メモリ30cに記憶されている追尾ブロックP(n−1)をテンプレート画像として、このテンプレート画像と探索ブロックS(n)との間の相関値Eを算出するパターンマッチングを行わせる。これにより、相関値Eが最も小さくなる探索ブロックS(n)内の位置を求められる。
Next, in step S44, the
次にステップS45において、制御部10は、追尾ブロックを設定する。具体的には、制御部10は、追尾ブロック設定部30dに、相関値Eが最も小さくなる探索ブロックS(n)内の位置を、フレーム画像F(n)における追尾ブロックP(n)の位置として、現フレーム画像F(n)に対し追尾ブロックP(n)を設定させる。
Next, in step S45, the
次にステップS46において、制御部10は、テンプレート画像を更新する。具体的には、制御部10は、追尾ブロック設定部30dに、ステップS45の処理により設定された追尾ブロックP(n)内の画像を現フレーム画像F(n)から切り出させる。そして、切り出した画像を表現する画像データを、次のフレーム画像F(n+1)に対して行うパターンマッチングのためのテンプレート画像として追尾画像メモリ30cに記憶させる。これにより、追尾画像メモリ30cに記憶されるテンプレート画像が最新のものに更新される。
Next, in step S46, the
次にステップS47において、制御部10は、AF枠を設定する。具体的には、制御部10は、現フレーム画像F(n)における追尾ブロックP(n)と同じ位置に、この追尾ブロックP(n)と同じサイズのAF枠を設定する。これにより、フレーム画像上に表示されるAF枠も被写体の移動に追従することとなる。そして、制御部10は、設定したAF枠を、ライブビュー画像としての現フレームF(n)上に表示させる。
Next, in step S47, the
ステップS47の処理の後、制御部10は、ステップS4の追尾処理を終了させて、ステップS5に処理を進める。
After the process of step S47, the
以上説明したように、本実施形態に係る撮影装置100は、ユーザによる十字ボタン26aの操作に応じて、探索ブロックを設定するようにした。このため、フレーム画像において、ユーザが追尾を所望する第1の被写体と、ユーザが追尾を所望しない第2の被写体とが重なるときでも、このときにユーザが十字キー26aを操作して第2の被写体から外れた領域に探索ブロックを設定させることにより、第2の被写体への誤追尾を防止できる。
As described above, the photographing
そして、ユーザが追尾を所望しない第2の被写体が移動しているときであっても、例えば、ユーザが十字ボタン26aを操作することによって、現フレーム画像において第2の被写体から外れる領域に探索ブロックを設定すれば、移動する第2の被写体をパターンマッチングの対象から除外することができる。これにより、ユーザが追尾を所望しない第2の被写体が移動している場合であっても、この第2の被写体への誤追尾を防止できる。 Even when the second subject that the user does not want to track is moving, for example, when the user operates the cross button 26a, the search block is located in an area outside the second subject in the current frame image. Can be excluded from the pattern matching target. Thereby, even when the second subject that the user does not want to track is moving, the erroneous tracking to the second subject can be prevented.
また、本実施形態に係る撮影装置100においては、ユーザが十字ボタン26aを操作することによって、現フレーム画像に対し設定される探索ブロックの中心が、前フレーム画像における追尾ブロックの中心に対して、第1の被写体の移動方向と同じ方向にずれるように探索ブロックを設定すれば、動きが速いために探索ブロックから外れやすい被写体であっても探索ブロック内に収めることができる。これにより、動きが速いために探索ブロックから外れやすい被写体を追尾対象とする場合であっても、被写体の追尾に失敗する可能性を低減できる。
Further, in the photographing
また、本実施形態に係る撮影装置100は、各フレーム画像に設定された探索ブロックの外枠を、各フレーム画像(ライブビュー画像)上に表示させるようにした。これにより、ユーザは、探索ブロックのフレーム画像(ライブビュー画像)上での大きさを容易に把握することができるので、十字ボタン26aを操作することによって、追尾を所望しない被写体を探索ブロックから容易に除外することができる。
In addition, the photographing
また、本実施形態に係る撮影装置100においては、AF枠と位置が一致する追尾ブロック内の画像に焦点を合わせるので、ユーザが追尾を所望しない被写体に誤って焦点が合うことを防止できる。
Further, in the photographing
(変形例)
本実施形態に係る撮影装置100においては、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に対して、ユーザの十字ボタン26aの操作に応じた上下左右のいずれか方向にずれるように、探索ブロックS(n)を設定するようにした。しかし、図11に示されるように、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に対して、ユーザの十字ボタン26aの操作に応じた斜め方向にずれるように、探索ブロックS(n)を設定するようにしてもよい。
(Modification)
In the
ユーザにより左ボタン261aと下ボタン262aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(a)に示されるように、探索ブロックS(n)の右上の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。 When the user operates the left button 261a and the lower button 262a at the same time, the search block setting unit 30a indicates that the position of the upper right vertex of the search block S (n) is, for example, as shown in FIG. The search block S (n) may be set for the current frame F (n) so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). .
同様に、ユーザにより下ボタン262aと右ボタン263aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(b)に示されるように、探索ブロックS(n)の左上の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。 Similarly, when the user operates the lower button 262a and the right button 263a at the same time, the search block setting unit 30a displays the top left vertex of the search block S (n) as shown in FIG. 11B, for example. The search block S (n) is set for the current frame F (n) so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). May be.
また、ユーザにより右ボタン263aと上ボタン264aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(c)に示されるように、探索ブロックS(n)の左下の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。 When the user operates the right button 263a and the upper button 264a at the same time, the search block setting unit 30a, for example, as shown in FIG. 11C, the position of the lower left vertex of the search block S (n) Is set so that the search block S (n) is set for the current frame F (n) so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). Also good.
また、ユーザにより上ボタン264aと左ボタン261aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(d)に示されるように、探索ブロックS(n)の右下の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。 In addition, when the user operates the upper button 264a and the left button 261a at the same time, the search block setting unit 30a, for example, as shown in FIG. 11 (d), displays the lower right vertex of the search block S (n). The search block S (n) is set for the current frame F (n) so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). May be.
本実施形態に係る撮影装置100においては、S(n)におけるユーザの十字ボタン26aの操作に応じた端部の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)を設定するようにした。しかし、ユーザにより十字ボタン26aが操作された場合、この操作に応じた方向において、探索ブロックS(n)の中心と、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)とが、所定の距離(例えば、100画素)だけずれるように、探索ブロックS(n)を設定するようにしてもよい。
In the photographing
上記の実施形態は本発明の単なる例に過ぎず、本発明を限定する趣旨のものではない。したがって、本実施形態に対してなされ得る変形はすべて本発明に含まれるものである。 The above-described embodiments are merely examples of the present invention and are not intended to limit the present invention. Accordingly, all modifications that can be made to the present embodiment are included in the present invention.
100・・・撮影装置、10・・・制御部、11・・・RAM、12・・・ROM、13・・・光学レンズ装置、14・・・光学系制御部、15・・・光学系駆動部、16・・・シャッタ装置、17・・・シャッタ制御部、18・・・シャッタ駆動部、19・・・撮像素子、20・・・撮像素子駆動部、21・・・前処理部、22・・・画像入力コントローラ、23・・・画像メモリ、24・・・画像処理部、25・・・AF評価部、26・・・操作部、27・・・表示制御部、28・・・表示部、29・・・記録媒体、30・・・被写体追尾部。
DESCRIPTION OF
Claims (5)
ユーザの操作を受け付け、複数の方向のうちユーザから受け付けた操作に応じた方向を指示する操作手段と、
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段と、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段と、
を備えることを特徴とする撮影装置。 Photographing means for sequentially photographing frame images of the subject;
Operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
An imaging apparatus comprising:
前記第2の設定手段により、現在時点で撮影された現フレーム画像よりも過去に撮影された前フレーム画像に設定された追尾ブロックであり、
前記第1の設定手段は、
前記探索ブロックの中心の位置が、前記前フレーム画像に設定された追尾ブロックの中心に対して前記操作手段が指示した方向にずれるように、前記現フレーム画像に対し前記探索ブロックの位置を設定する
ことを特徴とする請求項1に記載の撮影装置。 The template image is
The tracking block set in the previous frame image captured in the past by the second setting means than the current frame image captured at the current time point,
The first setting means includes
The position of the search block is set with respect to the current frame image so that the position of the center of the search block is shifted in the direction instructed by the operation means with respect to the center of the tracking block set in the previous frame image. The imaging apparatus according to claim 1, wherein:
さらに備えることを特徴とする請求項1または2に記載の撮影装置。 Display control means for displaying an outer frame of the search block set by the first setting means on the frame image;
The imaging apparatus according to claim 1, further comprising:
前記追尾ブロック内の被写体に焦点を合わせるように、前記合焦手段を制御する合焦制御手段と、
をさらに備えることを特徴とする請求項1から3いずれか1項に記載の撮影装置。 A focusing means for focusing on the subject;
Focusing control means for controlling the focusing means so as to focus on the subject in the tracking block;
The photographing apparatus according to claim 1, further comprising:
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段、
として機能させるプログラム。 A computer comprising imaging means for sequentially capturing frame images of a subject and operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009039284A JP2010197467A (en) | 2009-02-23 | 2009-02-23 | Image capturing apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009039284A JP2010197467A (en) | 2009-02-23 | 2009-02-23 | Image capturing apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010197467A true JP2010197467A (en) | 2010-09-09 |
Family
ID=42822277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009039284A Pending JP2010197467A (en) | 2009-02-23 | 2009-02-23 | Image capturing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010197467A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01180188A (en) * | 1988-01-11 | 1989-07-18 | Olympus Optical Co Ltd | Focus detector |
JP2000348180A (en) * | 1999-06-01 | 2000-12-15 | Fujitsu Ltd | Method and device for tracing moving area and recording medium |
JP2006058431A (en) * | 2004-08-18 | 2006-03-02 | Fujinon Corp | Autofocusing system |
JP2009033738A (en) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | Imaging apparatus, data structure of image file |
-
2009
- 2009-02-23 JP JP2009039284A patent/JP2010197467A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01180188A (en) * | 1988-01-11 | 1989-07-18 | Olympus Optical Co Ltd | Focus detector |
JP2000348180A (en) * | 1999-06-01 | 2000-12-15 | Fujitsu Ltd | Method and device for tracing moving area and recording medium |
JP2006058431A (en) * | 2004-08-18 | 2006-03-02 | Fujinon Corp | Autofocusing system |
JP2009033738A (en) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | Imaging apparatus, data structure of image file |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4674471B2 (en) | Digital camera | |
JP5893713B1 (en) | Imaging apparatus, imaging method, and processing program | |
JP4697606B2 (en) | Imaging apparatus and focus control method | |
JP4657960B2 (en) | Imaging method and apparatus | |
JP4654887B2 (en) | Imaging device | |
JP2005215040A (en) | Autofocus system | |
JP2015216532A (en) | Imaging device, imaging method, and program | |
JP2013013050A (en) | Imaging apparatus and display method using imaging apparatus | |
JP2006259688A (en) | Image capture device and program | |
JP2005031200A (en) | Imaging apparatus | |
JP2007215091A (en) | Imaging apparatus and program therefor | |
JP4552997B2 (en) | Imaging apparatus and program | |
JP4645413B2 (en) | Imaging device | |
JP6644641B2 (en) | Imaging device, control method, and program | |
JP5614425B2 (en) | Imaging apparatus and program | |
JP4606486B2 (en) | Image processing apparatus and photographing apparatus | |
JP6717690B2 (en) | Imaging device, imaging method, and program | |
JP2010239277A (en) | Imaging device and imaging method | |
JP4792929B2 (en) | Digital camera | |
JP5429588B2 (en) | Imaging apparatus and imaging method | |
JP6706167B2 (en) | Imaging device, image synthesizing method, and program | |
JP2007225897A (en) | Focusing position determination device and method | |
JP2010062987A (en) | Imaging apparatus and method | |
JP2004328606A (en) | Imaging device | |
JP5326613B2 (en) | Imaging apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131210 |