JP2010197467A - Image capturing apparatus, and program - Google Patents

Image capturing apparatus, and program Download PDF

Info

Publication number
JP2010197467A
JP2010197467A JP2009039284A JP2009039284A JP2010197467A JP 2010197467 A JP2010197467 A JP 2010197467A JP 2009039284 A JP2009039284 A JP 2009039284A JP 2009039284 A JP2009039284 A JP 2009039284A JP 2010197467 A JP2010197467 A JP 2010197467A
Authority
JP
Japan
Prior art keywords
image
tracking
search block
frame image
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009039284A
Other languages
Japanese (ja)
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009039284A priority Critical patent/JP2010197467A/en
Publication of JP2010197467A publication Critical patent/JP2010197467A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a moving object which is not required as a tracking object by a user from being erroneously determined as a tracking object. <P>SOLUTION: In an image capturing apparatus 100, a search block (n) is set on the present frame image so that the center of the search block S(n) may be shifted from the center O(n-1) of the tracking block P(n-1) in the previous frame image in either of four directions according to the user's operation of pressing a cross button 26. By having the constitution, even if the second object OB2 which is not required as the tracking object by the user moves on the frame image and overlaps with the first object OB1 which is required as the tracking object by the user, the second object OB2 is removed from the search block, accordingly, the second object OB2 is prevented from being erroneously tracked. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体像を追尾する撮影装置に関する。   The present invention relates to a photographing apparatus that tracks a subject image.

撮影装置により順次撮影されるフレーム画像において、特定の被写体の動きを追尾する追尾処理が知られている。このような追尾処理は、例えば、移動する被写体の動きを追尾しながらオートフォーカスを行なうために用いられる。   A tracking process for tracking the movement of a specific subject in frame images sequentially photographed by a photographing apparatus is known. Such tracking processing is used, for example, to perform autofocus while tracking the movement of a moving subject.

従来の追尾処理の手法について簡単に説明する。従来の追尾処理においては、まず、最初に撮影されたフレーム画像の特定領域に写る被写体の画像が、追尾対象の画像として初期設定される。以降、追尾処理においては、前フレーム画像における追尾対象の画像と、現フレーム画像における所定の探索ブロック内の画像とのパターンマッチングが行なわれる。パターンマッチングにより、前フレーム画像における追尾対象の画像との相関度が閾値以上であると判定された現フレーム画像における領域が、現フレーム画像における追尾対象の画像として設定される。以降、この処理がくり返されることにより、移動する被写体が追尾される。   A conventional tracking method will be briefly described. In the conventional tracking process, first, an image of a subject that appears in a specific area of a frame image that is first captured is initially set as an image to be tracked. Thereafter, in the tracking process, pattern matching is performed between an image to be tracked in the previous frame image and an image in a predetermined search block in the current frame image. An area in the current frame image in which the degree of correlation with the image to be tracked in the previous frame image is determined to be greater than or equal to the threshold by pattern matching is set as the image to be tracked in the current frame image. Thereafter, by repeating this process, the moving subject is tracked.

この追尾処理に関する技術として、特許文献1に、撮影画像上において、追尾対象である移動物体が予め指定された特定領域内に侵入した場合、移動物体が特定領域から出てくるまで追尾処理を停止させ、移動物体が特定領域から出た後に移動物体を再び追尾する技術が提案されている。   As a technique related to this tracking process, in Patent Document 1, when a moving object to be tracked enters a specific area specified in advance on a captured image, the tracking process is stopped until the moving object comes out of the specific area. Thus, a technique has been proposed in which the moving object is tracked again after the moving object leaves the specific area.

例えば、フレーム画像上において、追尾対象である移動物体が風に揺れる草木に重なった場合、移動物体と風に揺れる草木の区別が付かなくなるために、草木を追尾対象であると誤判断してしまう可能性がある。しかし、特許文献1に記載の技術によれば、このような場合においても、風に揺れる草木が特定領域として指定すれば、追尾対象である移動物体と風に揺れる草木とが重なっている間には追尾処理が停止されるので、風に揺れる草木が追尾対象であると誤判断される可能性を低減できる。   For example, if a moving object that is a tracking target overlaps with a swaying vegetation on a frame image, the moving object and the swaying vegetation cannot be distinguished, so that the vegetation is erroneously determined to be a tracking target. there is a possibility. However, according to the technique described in Patent Document 1, even in such a case, if a vegetation swaying in the wind is specified as a specific region, the moving object to be tracked and the vegetation swaying in the wind overlap each other. Since the tracking process is stopped, it is possible to reduce the possibility that a swaying vegetation is erroneously determined to be the tracking target.

特開2006−311099号公報JP 2006-311099 A

しかしながら、特許文献1に記載の技術では、特定領域の周囲の所定領域を探索ブロックとして設定し、その探索ブロックに対しパターンマッチングを行うことで、特定領域から出た移動物体を再び検出するようにしている。このため、特許文献1に記載の技術では、例えば、追尾対象である移動する第1の被写体と追尾対象ではない移動する第2の被写体とが交差する場合、本来追尾対象ではない第2の被写体が特定領域の周囲に設定された探索ブロックに侵入してしまう場合がある。この場合、追尾処理を再開する際に、第2の被写体までもがパターンマッチングの対象となるので、本来追尾対象ではない第2の被写体を誤って追尾してしまう可能性があるという問題があった。   However, in the technique described in Patent Document 1, a predetermined area around a specific area is set as a search block, and pattern matching is performed on the search block so that a moving object that has left the specific area is detected again. ing. For this reason, in the technique described in Patent Document 1, for example, when a moving first subject that is a tracking target and a moving second subject that is not a tracking target intersect, a second subject that is not originally a tracking target. May enter a search block set around a specific area. In this case, since the second subject is subject to pattern matching when the tracking process is resumed, there is a possibility that the second subject that is not originally the subject of tracking may be mistakenly tracked. It was.

そこで、本発明の目的は、移動するユーザ不所望の被写体を追尾対象であると誤判断することを防止することにある。   Accordingly, an object of the present invention is to prevent erroneous determination that a moving user-desired subject is a tracking target.

上記目的を達成するために、本発明は、
被写体のフレーム画像を順次撮影する撮影手段と、
ユーザの操作を受け付け、複数の方向のうちユーザから受け付けた操作に応じた方向を指示する操作手段と、
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段と、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段と、
を備えることを特徴とする。
In order to achieve the above object, the present invention provides:
Photographing means for sequentially photographing frame images of the subject;
Operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
It is characterized by providing.

本発明によれば、移動するユーザ不所望の被写体を追尾対象であると誤判断することを防止することができる。   According to the present invention, it is possible to prevent a moving user's undesired subject from being erroneously determined as a tracking target.

本発明の実施形態に係る撮影装置の外観を示す図である。It is a figure which shows the external appearance of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮影装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る追尾処理の手法を説明するための図である。It is a figure for demonstrating the method of the tracking process which concerns on embodiment of this invention. 本発明の実施形態に係る追尾処理の手法を説明するための図である。It is a figure for demonstrating the method of the tracking process which concerns on embodiment of this invention. 本発明の実施形態に係る追尾処理の手法を説明するための図である。It is a figure for demonstrating the method of the tracking process which concerns on embodiment of this invention. 本発明の実施形態に係る追尾AFモードにおける処理の流れを示す図である。It is a figure which shows the flow of a process in tracking AF mode which concerns on embodiment of this invention. 本発明の実施形態に係る追尾処理の手順を示す図である。It is a figure which shows the procedure of the tracking process which concerns on embodiment of this invention. 追尾処理において初期設定される追尾ブロックと探索ブロックの例を示す図である。It is a figure which shows the example of the tracking block and search block which are initially set in a tracking process. フレーム画像に設定される探索ブロックの例を示す図である。It is a figure which shows the example of the search block set to a frame image. フレーム画像に設定される探索ブロックの例を示す図である。It is a figure which shows the example of the search block set to a frame image. 本発明の変形例に係る追尾処理の手法を説明するための図である。It is a figure for demonstrating the method of the tracking process which concerns on the modification of this invention.

以下、図面に基づき、本発明の一実施形態に係る撮影装置100について説明する。   Hereinafter, based on the drawings, a photographing apparatus 100 according to an embodiment of the present invention will be described.

図1は、本実施形態に係る撮影装置100の外観を示す図である。図1に示されるように、撮影装置100の背面には、十字ボタン26a、メニューボタン26c、液晶ディスプレイ28aが設けられている。   FIG. 1 is a diagram illustrating an external appearance of a photographing apparatus 100 according to the present embodiment. As shown in FIG. 1, a cross button 26a, a menu button 26c, and a liquid crystal display 28a are provided on the back of the photographing apparatus 100.

十字ボタン26aは、十字配列されている4つのボタンである左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aで構成されている。十字ボタン26aは、メニュー画面に表示される各種項目をユーザが選択するためのカーソルの移動などために操作される。また、本実施形態においては、十字ボタン26aは、追尾処理においてパターンマッチングの対象となる探索ブロックをフレーム画像に設定するために操作される。メニューボタンは、メニュー画面を液晶ディスプレイ28aに表示させる際に操作される。液晶ディスプレイ28aは、撮影モードではライブビュー画像を表示する電子ビューファインダとして使用され、再生モードでは記録されている撮影画像が表示される。   The cross button 26a includes a left button 261a, a lower button 262a, a right button 263a, and an upper button 264a which are four buttons arranged in a cross shape. The cross button 26a is operated to move the cursor for the user to select various items displayed on the menu screen. In the present embodiment, the cross button 26a is operated to set a search block to be subjected to pattern matching in the tracking process as a frame image. The menu button is operated when a menu screen is displayed on the liquid crystal display 28a. The liquid crystal display 28a is used as an electronic viewfinder that displays a live view image in the shooting mode, and displays a recorded shot image in the playback mode.

また、撮影装置100の上面には、シャッタボタン26bが設けられている。シャッタボタン26bは、撮影準備(合焦動作など)を指示するための半押し操作と、撮影を指示するための全押し操作とをユーザから受け付けることが可能な構成である。   A shutter button 26b is provided on the upper surface of the photographing apparatus 100. The shutter button 26b is configured to accept from the user a half-pressing operation for instructing shooting preparation (focusing operation or the like) and a full-pressing operation for instructing shooting.

図2は、本実施形態に係る撮影装置100の機能的構成を示すブロック図である。図2を用いて、撮影装置100の構成を説明する。撮影装置100は、デジタルカメラなどにより構成することができる。   FIG. 2 is a block diagram illustrating a functional configuration of the photographing apparatus 100 according to the present embodiment. The configuration of the photographing apparatus 100 will be described with reference to FIG. The photographing apparatus 100 can be configured by a digital camera or the like.

撮影装置100は、制御部10と、RAM11と、ROM12と、光学レンズ装置13と、光学系制御部14と、光学系駆動部15と、シャッタ装置16と、シャッタ制御部17と、シャッタ駆動部18と、撮像素子19と、撮像素子駆動部20と、前処理部21と、画像入力コントローラ22と、画像メモリ23と、画像処理部24と、AF評価部25と、操作部26と、表示制御部27と、表示部28と、記録媒体29と、被写体追尾部30と、を備える。   The photographing apparatus 100 includes a control unit 10, a RAM 11, a ROM 12, an optical lens device 13, an optical system control unit 14, an optical system drive unit 15, a shutter device 16, a shutter control unit 17, and a shutter drive unit. 18, an image sensor 19, an image sensor drive unit 20, a pre-processing unit 21, an image input controller 22, an image memory 23, an image processing unit 24, an AF evaluation unit 25, an operation unit 26, and a display A control unit 27, a display unit 28, a recording medium 29, and a subject tracking unit 30 are provided.

制御部10は、撮影装置100全体の動作を制御する。制御部10は、CPU(Central Processing Unit)や、計時回路であるリアルタイムクロック(Real Time Clock)などにより構成される。   The control unit 10 controls the overall operation of the image capturing apparatus 100. The control unit 10 includes a CPU (Central Processing Unit), a real-time clock (Real Time Clock) that is a timing circuit, and the like.

RAM11は、制御部10が各処理を実行する際にワーキングエリアとして機能する。RAM11は、DRAM(Dynamic Random Access Memory)などから構成される。ROM12は、撮影装置100が各処理を実行するのに必要なプログラムやデータを記憶する。ROM12は、フラッシュメモリなどから構成される。制御部10は、RAM11をワーキングエリアとして、ROM12に記憶されているプログラムとの協働により各処理を実行する。   The RAM 11 functions as a working area when the control unit 10 executes each process. The RAM 11 is composed of a DRAM (Dynamic Random Access Memory) or the like. The ROM 12 stores programs and data necessary for the photographing apparatus 100 to execute each process. The ROM 12 is composed of a flash memory or the like. The control unit 10 uses the RAM 11 as a working area to execute each process in cooperation with a program stored in the ROM 12.

光学レンズ装置13は、フォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、被写体像を撮像素子19の受光面に結像させるためレンズである。   The optical lens device 13 includes a focus lens, a zoom lens, and the like. The focus lens is a lens for forming a subject image on the light receiving surface of the image sensor 19.

光学系制御部14は、制御部10による制御に従って光学系駆動部15を制御することにより、光学系駆動部15に、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。これにより、フォーカスレンズの位置が変化して焦点が調節される。光学系駆動部13は、ステッピングモータなどで構成される。光学系制御部14は、光学系駆動部15を制御する制御回路などで構成される。   The optical system control unit 14 controls the optical system driving unit 15 according to the control by the control unit 10 to cause the optical system driving unit 15 to advance and retract the focus lens of the optical lens device 13 in the optical axis direction. Thereby, the position of the focus lens changes to adjust the focus. The optical system driving unit 13 is configured by a stepping motor or the like. The optical system control unit 14 includes a control circuit that controls the optical system driving unit 15.

シャッタ装置16は、撮像素子19へ入射する光束を遮断する機械式シャッタとして機能するとともに、撮像素子19へ入射する光束の光量を調節する絞りとしても機能する機構である。シャッタ装置16は、シャッタ羽根などから構成される。   The shutter device 16 is a mechanism that functions as a mechanical shutter that blocks a light beam incident on the image sensor 19 and also functions as an aperture that adjusts the amount of light beam incident on the image sensor 19. The shutter device 16 includes shutter blades and the like.

シャッタ制御部17は、制御部10による制御に従って、シャッタ駆動部18を駆動させる。具体的には、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16のシャッタ羽根を開閉させる。また、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16の絞りを調節させる。シャッタ駆動部18は、シャッタ羽根を開閉させる電磁アクチュエータなどで構成される。駆動制御部17は、シャッタ駆動部18に電流を供給する回路などで構成される。   The shutter control unit 17 drives the shutter drive unit 18 according to control by the control unit 10. Specifically, the shutter control unit 17 controls the shutter drive unit 18 according to the control by the control unit 10 to cause the shutter drive unit 18 to open and close the shutter blades of the shutter device 16. Further, the shutter control unit 17 controls the shutter drive unit 18 according to the control by the control unit 10, thereby causing the shutter drive unit 18 to adjust the aperture of the shutter device 16. The shutter drive unit 18 includes an electromagnetic actuator that opens and closes shutter blades. The drive control unit 17 includes a circuit that supplies a current to the shutter drive unit 18.

撮像素子19は、光学レンズ装置13から入射されて受光面に結像した被写体像を光電変換(撮影)する素子である。撮像素子19の受光面には、光電変換素子であるフォトダイオードが行列状に配置されている。これらフォトダイオードが撮像素子19の各画素を構成している。各フォトダイオード上には、ベイヤ方式の配列に従って、R(赤)、G(緑)B(青)の色フィルタが配置されている。撮像素子19は、撮像素子駆動部20による制御に従って、所定時間毎に被写体像を光電変換して画像信号を蓄積し、蓄積した画像信号を順次出力する。撮像素子19は、CCD(Charge Coupled Device)型のイメージセンサなどから構成される。   The image sensor 19 is an element that photoelectrically converts (shoots) a subject image that is incident from the optical lens device 13 and formed on the light receiving surface. On the light receiving surface of the image sensor 19, photodiodes that are photoelectric conversion elements are arranged in a matrix. These photodiodes constitute each pixel of the image sensor 19. On each photodiode, color filters of R (red), G (green), and B (blue) are arranged according to the Bayer arrangement. The image sensor 19 photoelectrically converts the subject image at predetermined time intervals to store image signals according to control by the image sensor driving unit 20, and sequentially outputs the stored image signals. The image sensor 19 is composed of a CCD (Charge Coupled Device) type image sensor or the like.

撮像素子駆動部20は、制御部10による制御に従って撮像素子19を駆動する。撮像素子駆動部20は、制御部10による制御に従って各種クロックパルス等を生成する。撮像素子駆動部20は,生成した各種クロックパルスおよび制御回路10から供給される制御信号に基づいて、一定時間毎に撮像素子19から画像信号を読み出す。撮像素子駆動部20は、各種クロックパルス等を生成するタイミングジェネレータや、走査回路などから構成される。   The image sensor driving unit 20 drives the image sensor 19 according to the control by the control unit 10. The image sensor driving unit 20 generates various clock pulses and the like according to control by the control unit 10. The image sensor driving unit 20 reads an image signal from the image sensor 19 at regular intervals based on the generated various clock pulses and the control signal supplied from the control circuit 10. The image sensor driving unit 20 includes a timing generator that generates various clock pulses, a scanning circuit, and the like.

前処理部21は、撮像素子19から供給された画像信号に対し、相関二重サンプリング処理、利得制御処理、A/D(Analog/Digital)変換処理などの各種信号処理を施すことによりディジタル信号を生成して、生成したディジタル信号を出力する。前処理部21は、A/D変換器などにより構成される。   The pre-processing unit 21 performs various signal processing such as correlated double sampling processing, gain control processing, and A / D (Analog / Digital) conversion processing on the image signal supplied from the image pickup device 19 to obtain a digital signal. Generate and output the generated digital signal. The preprocessing unit 21 is configured by an A / D converter or the like.

画像入力コントローラ22は、前処理部21から供給されたディジタル信号を画像メモリ23に記憶させる。   The image input controller 22 stores the digital signal supplied from the preprocessing unit 21 in the image memory 23.

画像メモリ23は、前処理部21により生成された画像信号や、画像処理部24により生成される画像データを一時的に記憶する。また、画像メモリ23には、画像処理部24がベイヤデータから画像データを生成する際にワーキングエリアとしても使用される。画像メモリ21は、DRAM(Dynamic Random Access Memory)などから構成される。   The image memory 23 temporarily stores the image signal generated by the preprocessing unit 21 and the image data generated by the image processing unit 24. The image memory 23 is also used as a working area when the image processing unit 24 generates image data from Bayer data. The image memory 21 includes a DRAM (Dynamic Random Access Memory) or the like.

画像処理部24は、画像メモリ23に記憶された画像信号に対し、ホワイトバランス補正処理、γ補正処理、YC変換処理などの画像処理を施して、輝度信号と色差信号とが重畳した画像データを生成する。この画像データにより表現される画像が、フレーム画像である。また、画像処理部24は、シャッタボタン26bが全押し操作されたときは、比較的高画質で大容量のフレーム画像を生成する。一方、画像処理部24は、ライブビュー画像を表示するときは、比較的低画質で小容量のフレーム画像を生成する。画像処理部24は、DSP(Digital Signal Processor)などから構成される。   The image processing unit 24 performs image processing such as white balance correction processing, γ correction processing, and YC conversion processing on the image signal stored in the image memory 23 to obtain image data in which the luminance signal and the color difference signal are superimposed. Generate. An image represented by this image data is a frame image. Further, the image processing unit 24 generates a large-capacity frame image with a relatively high image quality when the shutter button 26b is fully pressed. On the other hand, when displaying the live view image, the image processing unit 24 generates a frame image having a relatively low image quality and a small capacity. The image processing unit 24 includes a DSP (Digital Signal Processor) or the like.

AF評価部25は、フレーム画像における所定のAF枠に対応する輝度信号をハイパスフィルタに通過させることにより高周波数成分を抽出し、抽出した高周波数成分の絶対値の積算値を算出する。AF評価部25は、算出した積算値をAF評価値として制御部10に供給する。制御部10は、合焦動作時に、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させる。そして、制御部10は、AF評価部25に、フォーカスレンズが各レンズ位置にあるときに撮影されたフレーム画像からAF評価値を算出させる。そして、制御部10は、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。   The AF evaluation unit 25 extracts a high-frequency component by passing a luminance signal corresponding to a predetermined AF frame in the frame image through a high-pass filter, and calculates an integrated value of absolute values of the extracted high-frequency component. The AF evaluation unit 25 supplies the calculated integrated value to the control unit 10 as an AF evaluation value. The control unit 10 controls the optical system drive unit 15 via the optical system control unit 14 during the focusing operation, thereby causing the optical system drive unit 15 to advance and retract the focus lens in the optical axis direction. Then, the control unit 10 causes the AF evaluation unit 25 to calculate an AF evaluation value from a frame image taken when the focus lens is at each lens position. Then, the control unit 10 stops the focus lens at the lens position where the AF evaluation value supplied from the AF evaluation unit 25 is the highest.

操作部26は、ユーザから各種ボタンの操作を受け付ける。操作部26は、電源ボタン(不図示)、十字ボタン26a、シャッタボタン26b、メニューボタン26cなどを備える。操作部26は、ユーザから受け付けた操作に応じた信号を制御部10に供給する。例えば、操作部26は、ユーザにより十字ボタン26aの左ボタン261aの操作を受け付けた場合には、左方向を指示する信号を制御部10に供給する。同様に、操作部26は、ユーザにより十字ボタン26aの下ボタン262a、右ボタン263a、上ボタン264aの操作を受け付けた場合には、それぞれ、下方向を指示する信号、右方向を指示する信号、上方向を指示する信号を制御部10に供給する。制御部10は、操作部26からこれらの信号を受信すると、受信した信号に基づいた処理を実行する。   The operation unit 26 receives various button operations from the user. The operation unit 26 includes a power button (not shown), a cross button 26a, a shutter button 26b, a menu button 26c, and the like. The operation unit 26 supplies a signal corresponding to the operation received from the user to the control unit 10. For example, when the operation unit 26 receives an operation of the left button 261a of the cross button 26a by the user, the operation unit 26 supplies a signal indicating the left direction to the control unit 10. Similarly, when the operation unit 26 receives an operation of the lower button 262a, the right button 263a, and the upper button 264a of the cross button 26a by the user, the operation unit 26 indicates a signal indicating the downward direction, a signal indicating the right direction, A signal indicating the upward direction is supplied to the control unit 10. When these signals are received from the operation unit 26, the control unit 10 executes processing based on the received signals.

表示制御部27は、制御部10による制御に従って、画像メモリ23に記憶されている画像データをアナログ信号に変換して出力する。表示制御部27は、VRAM(Video Random Access Memory)やD/A(Digital/Analog)変換器などから構成される。   The display control unit 27 converts the image data stored in the image memory 23 into an analog signal and outputs it under the control of the control unit 10. The display control unit 27 includes a VRAM (Video Random Access Memory), a D / A (Digital / Analog) converter, and the like.

表示部28は、表示制御部27から供給されたアナログ信号により表現される画像などを表示する。表示部28は、撮影装置100の背面に設けられた液晶ディスプレイ28aなどから構成される。   The display unit 28 displays an image or the like expressed by the analog signal supplied from the display control unit 27. The display unit 28 includes a liquid crystal display 28 a provided on the back surface of the photographing apparatus 100.

記録媒体29は、画像処理部24により生成された画像データを記録する。記録媒体29は、撮影装置100に着脱可能な半導体メモリカードなどから構成される。   The recording medium 29 records the image data generated by the image processing unit 24. The recording medium 29 includes a semiconductor memory card that can be attached to and detached from the photographing apparatus 100.

被写体追尾部30は、順次撮影されるフレーム画像に写る被写体を追尾する。被写体追尾部30には、探索ブロック設定部30aと、マッチング判定部30bと、追尾画像メモリ30cと、追尾ブロック設定部30dと、が設けられている。   The subject tracking unit 30 tracks subjects that appear in frame images that are sequentially captured. The subject tracking unit 30 includes a search block setting unit 30a, a matching determination unit 30b, a tracking image memory 30c, and a tracking block setting unit 30d.

図3から図5を用いて、被写体追尾部30が行う本実施形態に係る追尾処理の手法について説明する。   A tracking processing method according to the present embodiment performed by the subject tracking unit 30 will be described with reference to FIGS. 3 to 5.

今、フレーム周期が経過するごとに、第1、第2、第3、・・・、第(n−1)、第n、第(n+1)フレームがこの順番で訪れるものとする(nは2以上の整数)。そして、第1、第2、第3、・・・、第(n−1)、第nフレーム、第(n+1)にて得られた撮影画像を、それぞれ、フレーム画像F(1)、フレーム画像F(2)、フレーム画像F(3)、・・・、フレーム画像F(n−1)及びフレーム画像F(n)、フレーム画像F(n+1)と呼ぶこととする。以下の説明においては、フレーム画像F(n)が現在時点で撮影されているものとし、このフレーム画像F(n)を現フレーム画像F(n)と呼び、フレーム画像F(n−1)を前フレーム画像F(n−1)と呼び、フレーム画像F(n+1)を次フレーム画像F(n+1)と呼び呼ぶことにする。   Now, every time the frame period elapses, the first, second, third,..., (N−1) th, nth, (n + 1) th frames are visited in this order (n is 2). Or an integer). Then, the captured images obtained in the first, second, third,..., (N−1) th, nth frame, and (n + 1) th are respectively converted into a frame image F (1) and a frame image. F (2), frame image F (3),..., Frame image F (n−1), frame image F (n), and frame image F (n + 1). In the following description, it is assumed that the frame image F (n) is taken at the current time point, this frame image F (n) is called the current frame image F (n), and the frame image F (n−1) is The previous frame image F (n + 1) is called, and the frame image F (n + 1) is called the next frame image F (n + 1).

図3において、符号F(n−1)は、前フレーム画像F(n−1)を示す。符号P(n−1)は、この前フレーム画像F(n−1)に設定された追尾ブロックを示す。追尾ブロックは、追尾対象となった被写体の移動に追尾するように各フレーム画像に順次設定されるものである。符号O(n−1)は、追尾ブロックP(n−1)の中心を示す。   In FIG. 3, the symbol F (n−1) indicates the previous frame image F (n−1). A symbol P (n−1) indicates a tracking block set in the previous frame image F (n−1). The tracking block is sequentially set for each frame image so as to track the movement of the subject that is the tracking target. A symbol O (n−1) indicates the center of the tracking block P (n−1).

図4、図5において、符号F(n)は、現フレーム画像F(n)を示す。符号S(n)は、追尾処理におけるパターンマッチングにおいて、テンプレート画像である追尾ブロックP(n−1)が移動し得る領域である探索ブロックを表す。本実施形態では、各フレーム画像に対し設定される探索ブロックS(n)のサイズは、フレーム画像を9分割した各画像領域のうちの1つ分の画像領域のサイズに等しいものとする。   4 and 5, the symbol F (n) indicates the current frame image F (n). Symbol S (n) represents a search block that is an area in which the tracking block P (n−1), which is a template image, can move in pattern matching in tracking processing. In the present embodiment, the size of the search block S (n) set for each frame image is assumed to be equal to the size of one image area of each image area obtained by dividing the frame image into nine.

マッチング判定部30bは、テンプレート画像である追尾ブロックP(n−1)と探索ブロックS(n)との間の相関値Eを算出するパターンマッチングを行う。パターンマッチングの際、マッチング判定部30bは、テンプレート画像である追尾ブロックP(n−1)を探索ブロックS(n)内で1画素ずつ左右方向又は上下方向に移動させて、テンプレート画像が1画素移動する度に相関値Eを算出する。相関値E1は、例えば、テンプレート画像と探索ブロックS(n)との間において、同じ位置にある各画素の輝度差の絶対値の総和とされる。この相関値Eは、一般的にSAD(Sum of Absolute Difference)と呼ばれる。なお、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。   The matching determination unit 30b performs pattern matching to calculate a correlation value E between the tracking block P (n-1) that is a template image and the search block S (n). At the time of pattern matching, the matching determination unit 30b moves the tracking block P (n-1), which is a template image, in the search block S (n) one pixel at a time in the horizontal direction or the vertical direction, so that the template image is one pixel. Correlation value E is calculated every time it moves. The correlation value E1 is, for example, a sum of absolute values of luminance differences between pixels at the same position between the template image and the search block S (n). This correlation value E is generally called SAD (Sum of Absolute Difference). Note that the correlation value may be obtained by the sum of squares of luminance difference (Sum of Squared Difference) or the like.

相関値E(各画素の輝度差など)は、テンプレート画像である追尾ブロックP(n−1)と探索ブロックS(n)との間の類似度が高いほど小さくなる。従って、相関値Eが最も小さくなる探索ブロックS(n)内の位置を求めれば、追尾ブロックP(n−1)の最も類似する画像が、現フレーム画像の探索ブロックS(n)内のどこに位置しているかを求めることができる。マッチング判定部30bは、パターンマッチングが完了した後、探索ブロックS(n)において相関値Eが最も小さくなる位置を示す信号を追尾ブロック設定部30dに供給する。   The correlation value E (such as the luminance difference of each pixel) decreases as the similarity between the tracking block P (n−1), which is a template image, and the search block S (n) increases. Therefore, if the position in the search block S (n) having the smallest correlation value E is obtained, the most similar image of the tracking block P (n−1) is located in the search block S (n) of the current frame image. It can be determined whether it is located. After the pattern matching is completed, the matching determination unit 30b supplies a signal indicating the position where the correlation value E is the smallest in the search block S (n) to the tracking block setting unit 30d.

追尾ブロック設定部30dは、現フレーム画像F(n)に対して、マッチング判定部30bから供給された信号が示す位置(相関値Eが最も小さくなる探索ブロックS(n)内の位置)に、追尾ブロックP(n)を設定する。   The tracking block setting unit 30d has, for the current frame image F (n), the position indicated by the signal supplied from the matching determination unit 30b (the position in the search block S (n) where the correlation value E is the smallest). A tracking block P (n) is set.

追尾画像メモリ30cは、追尾ブロック内の画像を表現する画像データを記憶する。追尾ブロック設定部30dは、フレーム画像に対し追尾ブロックを設定する度にフレーム画像から追尾ブロック内の画像を切り出す。そして、切り出した画像を表現する画像データを、次フレーム画像に対して行うパターンマッチングのためのテンプレート画像として追尾画像メモリ30cに記憶させる。これにより、追尾画像メモリ30cに記憶されるテンプレート画像が最新のものに更新される。マッチング判定部30bは、パターンマッチングを行う際に、追尾画像メモリ30cからテンプレート画像である追尾ブロック内の画像を読み出して、読み出した画像とフレーム画像における探索ブロックとのパターンマッチングを行う。   The tracking image memory 30c stores image data representing an image in the tracking block. The tracking block setting unit 30d cuts out an image in the tracking block from the frame image every time a tracking block is set for the frame image. Then, the image data representing the clipped image is stored in the tracking image memory 30c as a template image for pattern matching performed on the next frame image. As a result, the template image stored in the tracking image memory 30c is updated to the latest one. When performing pattern matching, the matching determination unit 30b reads an image in a tracking block that is a template image from the tracking image memory 30c, and performs pattern matching between the read image and a search block in a frame image.

ここで、本実施形態に係る追尾処理においては、探索ブロック設定部30aが、ユーザの十字ボタン26aの操作に応じて探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザによる十字キー26aの異なる操作に応じて、探索ブロックS(n)が異なる位置に設定される。かかる処理をくり返すことにより、ユーザにより十字キー26aが操作されている間は、順次撮影される各フレーム画像に対して、ユーザの十字ボタン26aの操作に応じた位置に探索ブロックS(n)が順次設定される。   Here, in the tracking process according to the present embodiment, the search block setting unit 30a specifies the center of the search block S (n) in accordance with the user's operation of the cross button 26a. Then, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). Thus, the search block S (n) is set at a different position in accordance with a different operation of the cross key 26a by the user. By repeating such processing, while the cross key 26a is operated by the user, the search block S (n) is positioned at a position corresponding to the operation of the cross button 26a of the user with respect to each sequentially captured frame image. Are set sequentially.

図4は、ユーザにより十字ボタン26aが操作された場合に設定される探索ブロックS(n)の例を示す図である。   FIG. 4 is a diagram illustrating an example of the search block S (n) that is set when the cross button 26a is operated by the user.

ユーザにより十字ボタン26aの左ボタン261aが操作されると、制御部10は、この左ボタン261aの操作に応じた信号(左方向を指示する信号)を受信して、受信した信号を探索ブロック設定部30aに供給する。この場合、探索ブロック設定部30aは、例えば図4(a)に示されるように、制御部10から供給された信号に応答して、探索ブロックS(n)の右端部の水平方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)設定する。このとき、設定された探索ブロックS(n)の中心の垂直方向における位置と、中心O(n−1)の位置とは一致する。これにより、ユーザによる左ボタン261aの操作に応じて、探索ブロックS(n)の中心が、追尾ブロックP(n−1)の中心O(n−1)の左側に配置されるように、探索ブロックS(n)が設定される。   When the user operates the left button 261a of the cross button 26a, the control unit 10 receives a signal (a signal indicating the left direction) according to the operation of the left button 261a and sets the received signal as a search block. To the unit 30a. In this case, for example, as shown in FIG. 4A, the search block setting unit 30a determines the position of the right end portion of the search block S (n) in the horizontal direction in response to the signal supplied from the control unit 10. The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). Then, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). At this time, the position in the vertical direction of the center of the set search block S (n) matches the position of the center O (n−1). Thus, the search is performed so that the center of the search block S (n) is arranged on the left side of the center O (n−1) of the tracking block P (n−1) according to the operation of the left button 261a by the user. Block S (n) is set.

同様にして、ユーザにより十字ボタン26aの下ボタン262aが操作されると、探索ブロック設定部30aは、図4(b)に示されるように、探索ブロックS(n)の上端部の垂直方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の下側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の水平方向における位置は、中心O(n−1)の位置に一致する。   Similarly, when the user operates the lower button 262a of the cross button 26a, the search block setting unit 30a in the vertical direction of the upper end portion of the search block S (n) as shown in FIG. 4B. The center of the search block S (n) is designated so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). As a result, the current frame image F (n) is arranged such that the center of the search block S (n) is located below the center O (n−1) of the tracking block in the previous frame image F (n−1). A search block S (n) is set for. At this time, the position in the horizontal direction of the center of the set search block S (n) coincides with the position of the center O (n−1).

また、ユーザにより十字ボタン26aの右ボタン263aが操作されると、探索ブロック設定部30aは、図4(c)に示されるように、探索ブロックS(n)の左端部の水平方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の右側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の垂直方向における位置は、中心O(n−1)の位置に一致する。   Further, when the right button 263a of the cross button 26a is operated by the user, the search block setting unit 30a indicates that the position in the horizontal direction of the left end portion of the search block S (n) is as shown in FIG. The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). Thereby, the center of the search block S (n) is arranged in the current frame image F (n) so as to be arranged on the right side of the tracking block center O (n−1) in the previous frame image F (n−1). On the other hand, a search block S (n) is set. At this time, the position in the vertical direction of the center of the set search block S (n) coincides with the position of the center O (n−1).

また、ユーザにより十字ボタン26aの上ボタン264aが操作されると、探索ブロック設定部30aは、図4(d)に示されるように、探索ブロックS(n)の下端部の垂直方向における位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。これにより、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の上側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。このとき、設定された探索ブロックS(n)の中心の水平方向における位置と、中心O(n−1)の位置に一致する。   When the upper button 264a of the cross button 26a is operated by the user, the search block setting unit 30a determines that the position of the lower end portion of the search block S (n) in the vertical direction is as shown in FIG. The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). As a result, the current frame image F (n) is arranged such that the center of the search block S (n) is arranged above the center O (n-1) of the tracking block in the previous frame image F (n-1). On the other hand, a search block S (n) is set. At this time, the position in the horizontal direction of the center of the set search block S (n) coincides with the position of the center O (n−1).

図5は、ユーザにより十字ボタン26aが操作されなかった場合に設定される探索ブロックS(n)の例を示す図である。ユーザにより十字ボタン26aが操作されなかった場合、探索ブロック設定部30aは、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)を、探索ブロックS(n)の中心として指定する。そして、図5に示されるように、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザにより十字ボタン26aが操作されなかった場合、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に一致するように、探索ブロックS(n)が設定される。   FIG. 5 is a diagram illustrating an example of the search block S (n) set when the cross button 26a is not operated by the user. When the cross button 26a is not operated by the user, the search block setting unit 30a sets the center O (n-1) of the tracking block in the previous frame image F (n-1) as the center of the search block S (n). specify. Then, as shown in FIG. 5, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). . Thereby, when the cross button 26a is not operated by the user, the center of the search block S (n) matches the center O (n-1) of the tracking block in the previous frame image F (n-1). A search block S (n) is set.

図6は、本実施形態に係る撮影装置100の追尾AFモードにおける処理の流れを示すフローチャートである。図6を用いて、撮影装置100が実行する追尾AFモードにおける処理の流れを説明する。   FIG. 6 is a flowchart showing the flow of processing in the tracking AF mode of the imaging apparatus 100 according to the present embodiment. A process flow in the tracking AF mode executed by the image capturing apparatus 100 will be described with reference to FIG.

ユーザの操作部26に対する所定の操作により追尾AFモードが設定されると、撮影装置100は、ROM12に記憶されているプログラムを読み出して、このプログラムとの協働により追尾AFモードの処理を開始する。   When the tracking AF mode is set by a predetermined operation of the user's operation unit 26, the photographing apparatus 100 reads a program stored in the ROM 12 and starts processing of the tracking AF mode in cooperation with this program. .

まずステップS1において、制御部10は、ライブビュー表示を開始する。具体的には、制御部10は、画像処理部24により順次生成されるフレーム画像を表示制御部27に順次供給することにより、表示制御部27に、フレーム画像をライブビュー画像として表示部28に表示させる。   First, in step S1, the control unit 10 starts live view display. Specifically, the control unit 10 sequentially supplies frame images sequentially generated by the image processing unit 24 to the display control unit 27, thereby causing the display control unit 27 to display the frame image as a live view image on the display unit 28. Display.

次にステップS2において、制御部10は、ユーザによりシャッタボタン26bが半押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタン26bの半押し操作に応じた信号を監視することにより、ユーザによりシャッタボタン26bが半押し操作されているか否かを判断する。制御部10は、シャッタボタン26bが半押し操作されていないと判断した場合(ステップS2:NO)、シャッタボタン26bの半押し操作に応じた信号を検知するまでライブビュー表示を継続させる。一方、制御部10は、シャッタボタン26bが半押し操作されていると判断した場合(ステップS2:YES)、ステップS3に処理を進める。   Next, in step S2, the control unit 10 determines whether or not the user has pressed the shutter button 26b halfway. Specifically, the control unit 10 determines whether or not the shutter button 26b is half-pressed by the user by monitoring a signal corresponding to the half-press operation of the shutter button 26b from the operation unit 26. When it is determined that the shutter button 26b is not half-pressed (step S2: NO), the control unit 10 continues the live view display until a signal corresponding to the half-press operation of the shutter button 26b is detected. On the other hand, when the control unit 10 determines that the shutter button 26b is half-pressed (step S2: YES), the process proceeds to step S3.

次にステップS3において、制御部10は、追尾処理の初期設定を実行する。具体的には、制御部10は、追尾ブロック設定部30dに、ステップS3の時点で撮影されたフレーム画像上の所定の中央領域に規定されたAF枠内の画像を切り出させ、この切り出した画像を表現する画像データを、初期設定される追尾ブロックの画像データとして第1追尾画像メモリ30cに記憶させる。また、制御部10は、追尾ブロック設定部30dに、ステップS3の時点で撮影されたフレーム画像を9分割した各画像領域のうち中央に位置する画像領域を、初期状態における探索ブロックとして設定させる。   Next, in step S <b> 3, the control unit 10 performs an initial setting of the tracking process. Specifically, the control unit 10 causes the tracking block setting unit 30d to cut out an image within an AF frame defined in a predetermined central area on the frame image taken at the time of step S3, and this cut-out image Is stored in the first tracking image memory 30c as image data of the tracking block that is initially set. In addition, the control unit 10 causes the tracking block setting unit 30d to set the image region located in the center among the image regions obtained by dividing the frame image captured at the time of step S3 into nine as search blocks in the initial state.

本実施形態においては、まずユーザが自身の手に構えている撮影装置100の姿勢を変化させることにより、ユーザが追尾を所望する被写体の顔がライブビュー画像の中央領域に位置するAF枠内に収まる状態になるように構図を調整する。そして、この状態においてユーザがシャッタボタン26bを半押し操作すると、制御部10は、追尾ブロック設定部30dに、AF枠内の画像をフレーム画像から切り出させ、切り出した画像を追尾ブロックとして追尾画像メモリ30cに記憶させる。本実施形態においては、追尾ブロックのサイズとAF枠のサイズとは等しくなる。   In the present embodiment, first, by changing the posture of the photographing apparatus 100 that the user holds in his / her hand, the face of the subject that the user desires to track is within the AF frame located in the central region of the live view image. Adjust the composition so that it fits. When the user presses the shutter button 26b halfway in this state, the control unit 10 causes the tracking block setting unit 30d to cut out the image in the AF frame from the frame image, and uses the cut out image as a tracking block as a tracking image memory. Store in 30c. In the present embodiment, the size of the tracking block is equal to the size of the AF frame.

さらに、制御部10は、初期設定した探索ブロックの境界線を規定する外枠を、フレーム画像上に表示させる。以降、制御部10は、各フレーム画像に探索ブロックが設定される度に、設定された探索ブロックの外枠をフレーム画像上に表示させる。   Furthermore, the control unit 10 displays an outer frame that defines the boundary line of the initially set search block on the frame image. Thereafter, every time a search block is set for each frame image, the control unit 10 causes the outer frame of the set search block to be displayed on the frame image.

図8は、追尾処理の初期設定として設定される追尾ブロックと探索ブロックの例を示す図である。符号F(1)は、制御部10がシャッタボタン26bの半押し操作を検知してから1番目に撮影された第1フレーム画像を示す。このフレーム画像F(1)には、ユーザが追尾を所望する被写体OB1と、ユーザが追尾を所望しない被写体OB2とが写っている。符号P(1)は、フレーム画像F(1)に対し初期設定された追尾ブロックである。符号S(2)は、第2フレーム画像F(2)に対して初期設定される探索ブロックである。フレーム画像を9分割した各画像領域のうち中央に位置する画像領域が、初期設定される探索ブロックS(2)として設定される。このとき、図8において実線で示されるように、探索ブロックS(2)の外枠がフレーム画像F(1)上に表示される。   FIG. 8 is a diagram illustrating an example of a tracking block and a search block that are set as initial settings for tracking processing. Reference numeral F (1) denotes a first frame image that is first taken after the control unit 10 detects a half-pressing operation of the shutter button 26b. In this frame image F (1), a subject OB1 that the user desires to track and a subject OB2 that the user does not want to track are shown. The code P (1) is a tracking block that is initially set for the frame image F (1). Reference sign S (2) is a search block that is initially set for the second frame image F (2). An image region located in the center among the image regions obtained by dividing the frame image into nine is set as a search block S (2) to be initialized. At this time, as indicated by a solid line in FIG. 8, the outer frame of the search block S (2) is displayed on the frame image F (1).

また、制御部10は、ステップS3において、追尾処理の初期設定として合焦動作を行う。合焦動作に際して、制御部10は、AF評価部25に、ステップS3の時点で順次生成される画像信号におけるAF枠内に対応する輝度信号からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠内の被写体の顔に焦点が合うこととなる。   In step S3, the control unit 10 performs a focusing operation as an initial setting for the tracking process. During the focusing operation, the control unit 10 causes the AF evaluation unit 25 to calculate an AF evaluation value from the luminance signal corresponding to the AF frame in the image signals sequentially generated at the time of step S3. Then, the control unit 10 controls the optical system driving unit 15 via the optical system control unit 14 to cause the optical system driving unit 15 to advance and retract the focus lens in the optical axis direction, and is supplied from the AF evaluation unit 25. The focus lens is stopped at the lens position with the highest AF evaluation value. As a result, the subject's face within the AF frame is focused.

図6に戻り、次にステップS4において、制御部10は、追尾処理を実行する。この追尾処理の詳細な手順は後述する。また、後述するように、この追尾処理によりAF枠は追尾ブロックと同じ位置に設定されるので、AF枠も被写体の移動に追従することとなる。   Returning to FIG. 6, next, in step S <b> 4, the control unit 10 executes a tracking process. The detailed procedure of this tracking process will be described later. As will be described later, since the AF frame is set at the same position as the tracking block by this tracking process, the AF frame follows the movement of the subject.

次にステップS5において、制御部10は、所定時間(例えば3秒)が経過したか否かを判断する。具体的には、制御部10は、制御部10内の計時回路が示す直前の合焦動作が完了した時点からの経過時間が、所定時間に達したか否か経過したか否かを判断する。制御部10は、所定時間が経過していないと判断した場合(ステップS5:NO)、ステップS7に処理を進める。一方、制御部10は、所定時間が経過したと判断した場合(ステップS5:YES)、ステップS6に処理を進める。   Next, in step S5, the control unit 10 determines whether or not a predetermined time (for example, 3 seconds) has elapsed. Specifically, the control unit 10 determines whether or not the elapsed time from the time when the focusing operation immediately before indicated by the timing circuit in the control unit 10 has reached a predetermined time or not. . When it is determined that the predetermined time has not elapsed (step S5: NO), the control unit 10 advances the process to step S7. On the other hand, when the control unit 10 determines that the predetermined time has elapsed (step S5: YES), the control unit 10 proceeds to step S6.

ステップS6において、制御部10は、合焦動作を行う。具体的には、制御部10は、AF評価部25に、ステップS6の時点で順次撮影されるフレーム画像上のAF枠(追尾ブロック)に対応する輝度信号からAF評価値を抽出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部25から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠(追尾ブロック)内の被写体の顔などに焦点が合うこととなる。   In step S6, the control unit 10 performs a focusing operation. Specifically, the control unit 10 causes the AF evaluation unit 25 to extract an AF evaluation value from the luminance signal corresponding to the AF frame (tracking block) on the frame images sequentially captured at the time of step S6. Then, the control unit 10 controls the optical system driving unit 15 via the optical system control unit 14 to cause the optical system driving unit 15 to advance and retract the focus lens in the optical axis direction, and is supplied from the AF evaluation unit 25. The focus lens is stopped at the lens position with the highest AF evaluation value. Thereby, the subject's face in the AF frame (tracking block) is focused.

次にステップS7において、制御部10は、ユーザによりシャッタボタン26bが全押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタン26bの全押し操作に応じた信号を監視することにより、ユーザによりシャッタボタン26bが全押し操作されているか否かを判断する。制御部10は、シャッタボタン26bが全押し操作されていないと判断した場合(ステップS7:NO)、ステップS4に処理を戻す。一方、制御部10は、シャッタボタン26bが全押し操作されていると判断した場合(ステップS7:YES)、ステップS8に処理を進める。   Next, in step S7, the control unit 10 determines whether or not the shutter button 26b is fully pressed by the user. Specifically, the control unit 10 determines whether or not the shutter button 26b is fully pressed by the user by monitoring a signal corresponding to the full-pressing operation of the shutter button 26b from the operation unit 26. When it is determined that the shutter button 26b has not been fully pressed (step S7: NO), the control unit 10 returns the process to step S4. On the other hand, when the control unit 10 determines that the shutter button 26b is fully pressed (step S7: YES), the control unit 10 proceeds to step S8.

次にステップS8において、制御部10は、撮影を実行する。具体的には、制御部10は、シャッタ制御部17を制御することにより、シャッタ駆動部18にシャッタ装置16を開閉させる。これにより、撮像素子19が被写体像を撮影して画像信号を出力する。前処理部21がこの電気信号からディジタル信号を生成する。そして、制御部10は、画像処理部24に、ディジタル信号から画像データを生成させて、生成した画像データをJPEG(Joint Photographic Experts Group)方式で圧縮させる。そして、制御部10は、圧縮された画像データを記録媒体29に記録させる。   Next, in step S8, the control unit 10 performs shooting. Specifically, the control unit 10 controls the shutter control unit 17 to cause the shutter drive unit 18 to open and close the shutter device 16. As a result, the image sensor 19 captures a subject image and outputs an image signal. The preprocessing unit 21 generates a digital signal from this electrical signal. Then, the control unit 10 causes the image processing unit 24 to generate image data from the digital signal, and compresses the generated image data using a JPEG (Joint Photographic Experts Group) method. Then, the control unit 10 records the compressed image data on the recording medium 29.

制御部10は、ステップS8の処理の後、図6のフローチャートに示される処理を終了させる。   After the process of step S8, the control unit 10 ends the process shown in the flowchart of FIG.

図7は、図6に示されるステップS4の追尾処理の詳細な手順を示すフローチャートである。図7を用いて、ステップS4の追尾処理の手順を説明する。この追尾処理は、ステップS3の処理の後またはステップS7の否定判断の後に開始される。   FIG. 7 is a flowchart showing a detailed procedure of the tracking process in step S4 shown in FIG. The procedure of the tracking process in step S4 will be described using FIG. This tracking process is started after the process of step S3 or after a negative determination in step S7.

まずステップS41において、制御部10は、ユーザにより十字ボタン26aが操作されているか否かを判断する。具体的には、制御部10は、操作部26からの十字ボタン26aにおける左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号を監視する。制御部10は、左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号のいずれか1つを受信した場合、ユーザにより十字ボタン26aが操作されたと判断する。一方、制御部10は、左ボタン261a、下ボタン262a、右ボタン263a、上ボタン264aの各操作に応じた信号のいずれも受信しなかった場合、ユーザにより十字ボタン26aが操作されていないと判断する。制御部10は、十字ボタン26aが操作されていないと判断した場合(ステップS41:NO)、ステップS43に処理を進める。一方、制御部10は、十字ボタン26aが全押し操作されていると判断した場合(ステップS41:YES)、ステップS42に処理を進める。   First, in step S41, the control unit 10 determines whether or not the cross button 26a is operated by the user. Specifically, the control unit 10 monitors signals corresponding to respective operations of the left button 261a, the lower button 262a, the right button 263a, and the upper button 264a in the cross button 26a from the operation unit 26. The control unit 10 determines that the cross button 26a has been operated by the user when receiving any one of the signals corresponding to the operations of the left button 261a, the lower button 262a, the right button 263a, and the upper button 264a. On the other hand, the control unit 10 determines that the cross button 26a is not operated by the user when none of the signals corresponding to the operations of the left button 261a, the lower button 262a, the right button 263a, and the upper button 264a is received. To do. When the control unit 10 determines that the cross button 26a has not been operated (step S41: NO), the process proceeds to step S43. On the other hand, when the control unit 10 determines that the cross button 26a is fully pressed (step S41: YES), the control unit 10 proceeds to step S42.

ステップS42において、制御部10は、ユーザによる十字ボタンの操作に応じて探索ブロックS(n)を設定する。ここで、ユーザにより十字ボタン26aの左ボタン261aが操作された場合について説明する。この場合、探索ブロック設定部30aは、例えば図9に示されるように、現フレーム画像F(n)に設定される探索ブロックS(n)の右端部の水平方向における位置が、追尾ブロックP(n−1)の中心O(n−1)の位置に一致するように、探索ブロックS(n)の中心を指定する。そして、探索ブロック設定部30aは、指定した中心を探索ブロックS(n)の中心として、現フレーム画像F(n)に対して探索ブロックS(n)を設定する。これにより、ユーザによる左ボタン261aの操作に応じて、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の左側に配置されるように、探索ブロックS(n)が設定される。このとき、制御部10は、設定された探索ブロックS(n)の外枠を現フレーム画像F(n)上に表示させる。   In step S42, the control unit 10 sets the search block S (n) according to the operation of the cross button by the user. Here, a case where the user operates the left button 261a of the cross button 26a will be described. In this case, for example, as shown in FIG. 9, the search block setting unit 30a determines that the position of the right end portion of the search block S (n) set in the current frame image F (n) in the horizontal direction is the tracking block P ( The center of the search block S (n) is designated so as to coincide with the position of the center O (n-1) of (n-1). Then, the search block setting unit 30a sets the search block S (n) for the current frame image F (n) with the designated center as the center of the search block S (n). Thereby, according to the operation of the left button 261a by the user, the center of the search block S (n) is arranged on the left side of the center O (n-1) of the tracking block in the previous frame image F (n-1). Thus, the search block S (n) is set. At this time, the control unit 10 displays the outer frame of the set search block S (n) on the current frame image F (n).

今、図9に示されるように、現フレーム画像F(n)において、ユーザが追尾を所望する被写体OB1が左方向に移動し、かつ、ユーザが追尾を所望しない被写体OB2が右方向に移動することにより、被写体OB1と被写体OB2が互いに交差する場合を想定する。この場合であっても、被写体OB1と被写体OB2が互いに交差する直前において、被写体OB2が被写体OB1の左側にいるときには、ユーザが十字ボタン26aの右ボタン263aを操作すれば、ユーザが追尾を所望しない被写体OB2の顔の領域と重ならない位置に探索ブロックS(n)が設定される。また、被写体OB1と被写体OB2が互いに交差することにより、被写体OB2が被写体OB1の右側に位置したときには、ユーザが十字ボタン26aの左ボタン261aを操作すれば、図9に示されるように、ユーザが追尾を所望しない被写体OB2の顔の領域と重ならない位置に探索ブロックS(n)が設定される。これにより、ユーザが追尾を所望しない被写体OB2の顔の領域がパターンマッチングの対象から外れるので、被写体OB2の顔への誤追尾を防止できる。   As shown in FIG. 9, in the current frame image F (n), the subject OB1 that the user wants to track moves to the left, and the subject OB2 that the user does not want to track moves to the right. Accordingly, it is assumed that the subject OB1 and the subject OB2 intersect each other. Even in this case, when the subject OB2 is on the left side of the subject OB1 immediately before the subject OB1 and the subject OB2 cross each other, if the user operates the right button 263a of the cross button 26a, the user does not desire tracking. A search block S (n) is set at a position that does not overlap the face area of the subject OB2. Further, when the subject OB1 and the subject OB2 cross each other so that the subject OB2 is positioned on the right side of the subject OB1, if the user operates the left button 261a of the cross button 26a, as shown in FIG. The search block S (n) is set at a position that does not overlap with the face area of the subject OB2 for which tracking is not desired. As a result, the area of the face of the subject OB2 that the user does not want to track is excluded from the pattern matching target, so that erroneous tracking of the face of the subject OB2 can be prevented.

同様に、ユーザにより十字ボタン26aの下ボタン262aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の下側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。また、ユーザにより十字ボタン26aの右ボタン263aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の右側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。また、ユーザにより十字ボタン26aの上ボタン264aが操作されると、探索ブロックS(n)の中心が追尾ブロックP(n−1)の中心O(n−1)の上側に配置されるように、現フレーム画像F(n)に対して探索ブロックS(n)が設定される。   Similarly, when the user operates the lower button 262a of the cross button 26a, the center of the search block S (n) is arranged below the center O (n-1) of the tracking block P (n-1). Thus, the search block S (n) is set for the current frame image F (n). When the user operates the right button 263a of the cross button 26a, the center of the search block S (n) is arranged on the right side of the center O (n-1) of the tracking block P (n-1). A search block S (n) is set for the current frame image F (n). When the user operates the upper button 264a of the cross button 26a, the center of the search block S (n) is arranged above the center O (n-1) of the tracking block P (n-1). A search block S (n) is set for the current frame image F (n).

一方、ステップS43において、制御部10は、探索ブロックの中心と追尾ブロックの中心とが一致するように探索ブロックを設定する。具体的には、制御部10は、探索ブロック設定部30aに、現フレーム画像F(n)に対して、探索ブロックS(n)の中心と、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)とが一致するように、現フレーム画像F(n)に対して探索ブロックS(n)を設定させる。このとき、制御部10は、設定された探索ブロックS(n)の外枠を現フレーム画像F(n)上に表示させる。   On the other hand, in step S43, the control unit 10 sets the search block so that the center of the search block matches the center of the tracking block. Specifically, the control unit 10 instructs the search block setting unit 30a to track the center of the search block S (n) and the tracking block in the previous frame image F (n−1) with respect to the current frame image F (n). The search block S (n) is set for the current frame image F (n) such that the center O (n−1) of the current frame image F (n−1) matches. At this time, the control unit 10 displays the outer frame of the set search block S (n) on the current frame image F (n).

今、図10に示されるように、現フレーム画像F(n)において、被写体OB1が左方向に移動し、かつ被写体OB2が右方向に移動することにより、被写体OB1と被写体OB2が互いに交差する場合を想定する。この場合には、ユーザが十字ボタンを何も操作しなければ、現フレーム画像F(n)において、被写体OB2の顔の領域と重なる位置に探索ブロックS(n)が設定されてしまう。このため、ユーザが追尾を所望しない被写体OB2の顔の領域がパターンマッチングの対象となるので、被写体OB2の顔が誤追尾される可能性がある。   Now, as shown in FIG. 10, in the current frame image F (n), the subject OB1 and the subject OB2 cross each other due to the subject OB1 moving leftward and the subject OB2 moving rightward. Is assumed. In this case, if the user does not operate the cross button, the search block S (n) is set at a position overlapping the face area of the subject OB2 in the current frame image F (n). For this reason, the area of the face of the subject OB2 that the user does not want to track is subject to pattern matching, and thus the face of the subject OB2 may be mistracked.

次にステップS44において、制御部10は、マッチング処理を行う。具体的には、制御部10は、マッチング判定部30bに、追尾画像メモリ30cに記憶されている追尾ブロックP(n−1)をテンプレート画像として、このテンプレート画像と探索ブロックS(n)との間の相関値Eを算出するパターンマッチングを行わせる。これにより、相関値Eが最も小さくなる探索ブロックS(n)内の位置を求められる。   Next, in step S44, the control unit 10 performs a matching process. Specifically, the control unit 10 uses the tracking block P (n−1) stored in the tracking image memory 30c as a template image to the matching determination unit 30b, and sets the template image and the search block S (n). The pattern matching for calculating the correlation value E is performed. As a result, the position in the search block S (n) having the smallest correlation value E is obtained.

次にステップS45において、制御部10は、追尾ブロックを設定する。具体的には、制御部10は、追尾ブロック設定部30dに、相関値Eが最も小さくなる探索ブロックS(n)内の位置を、フレーム画像F(n)における追尾ブロックP(n)の位置として、現フレーム画像F(n)に対し追尾ブロックP(n)を設定させる。   Next, in step S45, the control unit 10 sets a tracking block. Specifically, the control unit 10 instructs the tracking block setting unit 30d to set the position in the search block S (n) with the smallest correlation value E to the position of the tracking block P (n) in the frame image F (n). The tracking block P (n) is set for the current frame image F (n).

次にステップS46において、制御部10は、テンプレート画像を更新する。具体的には、制御部10は、追尾ブロック設定部30dに、ステップS45の処理により設定された追尾ブロックP(n)内の画像を現フレーム画像F(n)から切り出させる。そして、切り出した画像を表現する画像データを、次のフレーム画像F(n+1)に対して行うパターンマッチングのためのテンプレート画像として追尾画像メモリ30cに記憶させる。これにより、追尾画像メモリ30cに記憶されるテンプレート画像が最新のものに更新される。   Next, in step S46, the control unit 10 updates the template image. Specifically, the control unit 10 causes the tracking block setting unit 30d to cut out the image in the tracking block P (n) set by the process of step S45 from the current frame image F (n). Then, the image data representing the clipped image is stored in the tracking image memory 30c as a template image for pattern matching performed on the next frame image F (n + 1). As a result, the template image stored in the tracking image memory 30c is updated to the latest one.

次にステップS47において、制御部10は、AF枠を設定する。具体的には、制御部10は、現フレーム画像F(n)における追尾ブロックP(n)と同じ位置に、この追尾ブロックP(n)と同じサイズのAF枠を設定する。これにより、フレーム画像上に表示されるAF枠も被写体の移動に追従することとなる。そして、制御部10は、設定したAF枠を、ライブビュー画像としての現フレームF(n)上に表示させる。   Next, in step S47, the control unit 10 sets an AF frame. Specifically, the control unit 10 sets an AF frame having the same size as the tracking block P (n) at the same position as the tracking block P (n) in the current frame image F (n). As a result, the AF frame displayed on the frame image also follows the movement of the subject. Then, the control unit 10 displays the set AF frame on the current frame F (n) as a live view image.

ステップS47の処理の後、制御部10は、ステップS4の追尾処理を終了させて、ステップS5に処理を進める。   After the process of step S47, the control unit 10 ends the tracking process of step S4 and advances the process to step S5.

以上説明したように、本実施形態に係る撮影装置100は、ユーザによる十字ボタン26aの操作に応じて、探索ブロックを設定するようにした。このため、フレーム画像において、ユーザが追尾を所望する第1の被写体と、ユーザが追尾を所望しない第2の被写体とが重なるときでも、このときにユーザが十字キー26aを操作して第2の被写体から外れた領域に探索ブロックを設定させることにより、第2の被写体への誤追尾を防止できる。   As described above, the photographing apparatus 100 according to the present embodiment sets the search block in accordance with the operation of the cross button 26a by the user. For this reason, even when the first subject that the user desires to track and the second subject that the user does not want to track overlap in the frame image, the user operates the cross key 26a at this time to set the second subject. By setting a search block in a region outside the subject, erroneous tracking to the second subject can be prevented.

そして、ユーザが追尾を所望しない第2の被写体が移動しているときであっても、例えば、ユーザが十字ボタン26aを操作することによって、現フレーム画像において第2の被写体から外れる領域に探索ブロックを設定すれば、移動する第2の被写体をパターンマッチングの対象から除外することができる。これにより、ユーザが追尾を所望しない第2の被写体が移動している場合であっても、この第2の被写体への誤追尾を防止できる。   Even when the second subject that the user does not want to track is moving, for example, when the user operates the cross button 26a, the search block is located in an area outside the second subject in the current frame image. Can be excluded from the pattern matching target. Thereby, even when the second subject that the user does not want to track is moving, the erroneous tracking to the second subject can be prevented.

また、本実施形態に係る撮影装置100においては、ユーザが十字ボタン26aを操作することによって、現フレーム画像に対し設定される探索ブロックの中心が、前フレーム画像における追尾ブロックの中心に対して、第1の被写体の移動方向と同じ方向にずれるように探索ブロックを設定すれば、動きが速いために探索ブロックから外れやすい被写体であっても探索ブロック内に収めることができる。これにより、動きが速いために探索ブロックから外れやすい被写体を追尾対象とする場合であっても、被写体の追尾に失敗する可能性を低減できる。   Further, in the photographing apparatus 100 according to the present embodiment, when the user operates the cross button 26a, the center of the search block set for the current frame image is set to the center of the tracking block in the previous frame image. If the search block is set so as to deviate in the same direction as the moving direction of the first subject, even a subject that is likely to deviate from the search block due to fast movement can be accommodated in the search block. Accordingly, even when a subject that easily moves out of the search block due to a fast movement is set as the tracking target, the possibility that the tracking of the subject fails may be reduced.

また、本実施形態に係る撮影装置100は、各フレーム画像に設定された探索ブロックの外枠を、各フレーム画像(ライブビュー画像)上に表示させるようにした。これにより、ユーザは、探索ブロックのフレーム画像(ライブビュー画像)上での大きさを容易に把握することができるので、十字ボタン26aを操作することによって、追尾を所望しない被写体を探索ブロックから容易に除外することができる。   In addition, the photographing apparatus 100 according to the present embodiment displays the outer frame of the search block set in each frame image on each frame image (live view image). Accordingly, the user can easily grasp the size of the search block on the frame image (live view image), and therefore, by operating the cross button 26a, a subject that does not require tracking can be easily detected from the search block. Can be excluded.

また、本実施形態に係る撮影装置100においては、AF枠と位置が一致する追尾ブロック内の画像に焦点を合わせるので、ユーザが追尾を所望しない被写体に誤って焦点が合うことを防止できる。   Further, in the photographing apparatus 100 according to the present embodiment, since an image in the tracking block whose position matches the AF frame is focused, it is possible to prevent the user from accidentally focusing on a subject that the user does not desire to track.

(変形例)
本実施形態に係る撮影装置100においては、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に対して、ユーザの十字ボタン26aの操作に応じた上下左右のいずれか方向にずれるように、探索ブロックS(n)を設定するようにした。しかし、図11に示されるように、探索ブロックS(n)の中心が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)に対して、ユーザの十字ボタン26aの操作に応じた斜め方向にずれるように、探索ブロックS(n)を設定するようにしてもよい。
(Modification)
In the imaging device 100 according to the present embodiment, the center of the search block S (n) is the user's cross button 26a with respect to the center O (n-1) of the tracking block in the previous frame image F (n-1). The search block S (n) is set so as to deviate in any of the up, down, left, and right directions according to the above operation. However, as shown in FIG. 11, the center of the search block S (n) is the center of the tracking block O (n−1) in the previous frame image F (n−1) and the cross button 26a of the user is The search block S (n) may be set so as to shift in an oblique direction according to the operation.

ユーザにより左ボタン261aと下ボタン262aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(a)に示されるように、探索ブロックS(n)の右上の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。   When the user operates the left button 261a and the lower button 262a at the same time, the search block setting unit 30a indicates that the position of the upper right vertex of the search block S (n) is, for example, as shown in FIG. The search block S (n) may be set for the current frame F (n) so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). .

同様に、ユーザにより下ボタン262aと右ボタン263aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(b)に示されるように、探索ブロックS(n)の左上の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。   Similarly, when the user operates the lower button 262a and the right button 263a at the same time, the search block setting unit 30a displays the top left vertex of the search block S (n) as shown in FIG. 11B, for example. The search block S (n) is set for the current frame F (n) so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). May be.

また、ユーザにより右ボタン263aと上ボタン264aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(c)に示されるように、探索ブロックS(n)の左下の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。   When the user operates the right button 263a and the upper button 264a at the same time, the search block setting unit 30a, for example, as shown in FIG. 11C, the position of the lower left vertex of the search block S (n) Is set so that the search block S (n) is set for the current frame F (n) so as to coincide with the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). Also good.

また、ユーザにより上ボタン264aと左ボタン261aとが同時に操作された場合、探索ブロック設定部30aは、例えば図11(d)に示されるように、探索ブロックS(n)の右下の頂点の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、現フレームF(n)に対し探索ブロックS(n)を設定するようにしてもよい。   In addition, when the user operates the upper button 264a and the left button 261a at the same time, the search block setting unit 30a, for example, as shown in FIG. 11 (d), displays the lower right vertex of the search block S (n). The search block S (n) is set for the current frame F (n) so that the position matches the position of the center O (n-1) of the tracking block in the previous frame image F (n-1). May be.

本実施形態に係る撮影装置100においては、S(n)におけるユーザの十字ボタン26aの操作に応じた端部の位置が、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)の位置に一致するように、探索ブロックS(n)を設定するようにした。しかし、ユーザにより十字ボタン26aが操作された場合、この操作に応じた方向において、探索ブロックS(n)の中心と、前フレーム画像F(n−1)における追尾ブロックの中心O(n−1)とが、所定の距離(例えば、100画素)だけずれるように、探索ブロックS(n)を設定するようにしてもよい。   In the photographing apparatus 100 according to the present embodiment, the position of the end according to the user's operation of the cross button 26a in S (n) is the center O (n−) of the tracking block in the previous frame image F (n−1). The search block S (n) is set so as to coincide with the position of 1). However, when the cross button 26a is operated by the user, the center of the search block S (n) and the center O (n−1) of the tracking block in the previous frame image F (n−1) in the direction corresponding to the operation. The search block S (n) may be set so as to be shifted by a predetermined distance (for example, 100 pixels).

上記の実施形態は本発明の単なる例に過ぎず、本発明を限定する趣旨のものではない。したがって、本実施形態に対してなされ得る変形はすべて本発明に含まれるものである。   The above-described embodiments are merely examples of the present invention and are not intended to limit the present invention. Accordingly, all modifications that can be made to the present embodiment are included in the present invention.

100・・・撮影装置、10・・・制御部、11・・・RAM、12・・・ROM、13・・・光学レンズ装置、14・・・光学系制御部、15・・・光学系駆動部、16・・・シャッタ装置、17・・・シャッタ制御部、18・・・シャッタ駆動部、19・・・撮像素子、20・・・撮像素子駆動部、21・・・前処理部、22・・・画像入力コントローラ、23・・・画像メモリ、24・・・画像処理部、25・・・AF評価部、26・・・操作部、27・・・表示制御部、28・・・表示部、29・・・記録媒体、30・・・被写体追尾部。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 10 ... Control part, 11 ... RAM, 12 ... ROM, 13 ... Optical lens apparatus, 14 ... Optical system control part, 15 ... Optical system drive , 16 ... shutter device, 17 ... shutter control unit, 18 ... shutter drive unit, 19 ... image sensor, 20 ... image sensor drive unit, 21 ... pre-processing unit, 22 ... Image input controller, 23 ... Image memory, 24 ... Image processing unit, 25 ... AF evaluation unit, 26 ... Operation unit, 27 ... Display control unit, 28 ... Display Part, 29 ... recording medium, 30 ... subject tracking part.

Claims (5)

被写体のフレーム画像を順次撮影する撮影手段と、
ユーザの操作を受け付け、複数の方向のうちユーザから受け付けた操作に応じた方向を指示する操作手段と、
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段と、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段と、
を備えることを特徴とする撮影装置。
Photographing means for sequentially photographing frame images of the subject;
Operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
An imaging apparatus comprising:
前記テンプレート画像は、
前記第2の設定手段により、現在時点で撮影された現フレーム画像よりも過去に撮影された前フレーム画像に設定された追尾ブロックであり、
前記第1の設定手段は、
前記探索ブロックの中心の位置が、前記前フレーム画像に設定された追尾ブロックの中心に対して前記操作手段が指示した方向にずれるように、前記現フレーム画像に対し前記探索ブロックの位置を設定する
ことを特徴とする請求項1に記載の撮影装置。
The template image is
The tracking block set in the previous frame image captured in the past by the second setting means than the current frame image captured at the current time point,
The first setting means includes
The position of the search block is set with respect to the current frame image so that the position of the center of the search block is shifted in the direction instructed by the operation means with respect to the center of the tracking block set in the previous frame image. The imaging apparatus according to claim 1, wherein:
前記第1の設定手段により設定された探索ブロックの外枠を、前記フレーム画像上に表示させる表示制御手段を、
さらに備えることを特徴とする請求項1または2に記載の撮影装置。
Display control means for displaying an outer frame of the search block set by the first setting means on the frame image;
The imaging apparatus according to claim 1, further comprising:
被写体に焦点を合わせる合焦手段と、
前記追尾ブロック内の被写体に焦点を合わせるように、前記合焦手段を制御する合焦制御手段と、
をさらに備えることを特徴とする請求項1から3いずれか1項に記載の撮影装置。
A focusing means for focusing on the subject;
Focusing control means for controlling the focusing means so as to focus on the subject in the tracking block;
The photographing apparatus according to claim 1, further comprising:
被写体のフレーム画像を順次撮影する撮影手段と、ユーザの操作を受け付け、複数の方向のうちユーザから受け付けた操作に応じた方向を指示する操作手段と、を備えるコンピュータを、
前記フレーム画像に対して、前記操作手段が指示した方向に応じた位置に探索ブロックを設定する第1の設定手段、
テンプレート画像と前記設定手段により設定された探索ブロックの画像とのマッチング処理の結果に応じて、被写体を追尾するための追尾ブロックを前記フレーム画像に対して順次設定する第2の設定手段、
として機能させるプログラム。
A computer comprising imaging means for sequentially capturing frame images of a subject and operation means for accepting a user operation and instructing a direction according to an operation accepted from the user among a plurality of directions;
First setting means for setting a search block at a position corresponding to the direction instructed by the operation means with respect to the frame image;
Second setting means for sequentially setting a tracking block for tracking a subject with respect to the frame image in accordance with a result of a matching process between a template image and an image of a search block set by the setting means;
Program to function as.
JP2009039284A 2009-02-23 2009-02-23 Image capturing apparatus, and program Pending JP2010197467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009039284A JP2010197467A (en) 2009-02-23 2009-02-23 Image capturing apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009039284A JP2010197467A (en) 2009-02-23 2009-02-23 Image capturing apparatus, and program

Publications (1)

Publication Number Publication Date
JP2010197467A true JP2010197467A (en) 2010-09-09

Family

ID=42822277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009039284A Pending JP2010197467A (en) 2009-02-23 2009-02-23 Image capturing apparatus, and program

Country Status (1)

Country Link
JP (1) JP2010197467A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180188A (en) * 1988-01-11 1989-07-18 Olympus Optical Co Ltd Focus detector
JP2000348180A (en) * 1999-06-01 2000-12-15 Fujitsu Ltd Method and device for tracing moving area and recording medium
JP2006058431A (en) * 2004-08-18 2006-03-02 Fujinon Corp Autofocusing system
JP2009033738A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus, data structure of image file

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01180188A (en) * 1988-01-11 1989-07-18 Olympus Optical Co Ltd Focus detector
JP2000348180A (en) * 1999-06-01 2000-12-15 Fujitsu Ltd Method and device for tracing moving area and recording medium
JP2006058431A (en) * 2004-08-18 2006-03-02 Fujinon Corp Autofocusing system
JP2009033738A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus, data structure of image file

Similar Documents

Publication Publication Date Title
JP4674471B2 (en) Digital camera
JP5893713B1 (en) Imaging apparatus, imaging method, and processing program
JP4697606B2 (en) Imaging apparatus and focus control method
JP4657960B2 (en) Imaging method and apparatus
JP4654887B2 (en) Imaging device
JP2005215040A (en) Autofocus system
JP2015216532A (en) Imaging device, imaging method, and program
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2006259688A (en) Image capture device and program
JP2005031200A (en) Imaging apparatus
JP2007215091A (en) Imaging apparatus and program therefor
JP4552997B2 (en) Imaging apparatus and program
JP4645413B2 (en) Imaging device
JP6644641B2 (en) Imaging device, control method, and program
JP5614425B2 (en) Imaging apparatus and program
JP4606486B2 (en) Image processing apparatus and photographing apparatus
JP6717690B2 (en) Imaging device, imaging method, and program
JP2010239277A (en) Imaging device and imaging method
JP4792929B2 (en) Digital camera
JP5429588B2 (en) Imaging apparatus and imaging method
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP2007225897A (en) Focusing position determination device and method
JP2010062987A (en) Imaging apparatus and method
JP2004328606A (en) Imaging device
JP5326613B2 (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131210