JP2010183145A - Photographing device and program - Google Patents

Photographing device and program Download PDF

Info

Publication number
JP2010183145A
JP2010183145A JP2009022362A JP2009022362A JP2010183145A JP 2010183145 A JP2010183145 A JP 2010183145A JP 2009022362 A JP2009022362 A JP 2009022362A JP 2009022362 A JP2009022362 A JP 2009022362A JP 2010183145 A JP2010183145 A JP 2010183145A
Authority
JP
Japan
Prior art keywords
image
focusing
tracking
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009022362A
Other languages
Japanese (ja)
Other versions
JP5326613B2 (en
Inventor
Motohisa Nakamori
元央 中森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009022362A priority Critical patent/JP5326613B2/en
Publication of JP2010183145A publication Critical patent/JP2010183145A/en
Application granted granted Critical
Publication of JP5326613B2 publication Critical patent/JP5326613B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a useless focusing operation, without rebooting a focusing operation if a distance to an object to be tracked does not change, once the object to be tracked is focused. <P>SOLUTION: When focusing operation of a contrast detection system is performed in continuous AF mode, the photographing device 100 moves a tracking block so as to track for a main object M. Once the main object M is focused, the photographing device 100 subsequently computes a correlation value E2 between a tracking block in the newest frame image and a tracking block in a frame image photographed at the last focusing operation point. When it is determined that the correlation value E2 is smaller than a threshold Eth, the photographing device 100 does not reboot the focusing operation. Thereby, a useless focusing operation can be prevented. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影装置に関し、特に、焦点を合わせる撮影装置に関する。   The present invention relates to a photographing apparatus, and more particularly, to a photographing apparatus for focusing.

従来、デジタルカメラは、一般的に、焦点を自動的に合わせるオートフォーカス(以下、AFと略記する)機能を有している。そのオートフォーカスの方法としては、従来から、コントラスト検出方式が広く用いられている。このコントラスト検出方式では、AF評価値を合焦位置(焦点が合うときのフォーカスレンズのレンズ位置)の判断に用いている。このAF評価値とは、焦点が合っている度合いを示す評価値である。デジタルカメラは、撮像素子から得られる画像の高周波成分または画像上の近接画素の輝度差の成分をAF評価値としている。   Conventionally, a digital camera generally has an autofocus (hereinafter abbreviated as AF) function for automatically focusing. Conventionally, a contrast detection method has been widely used as an autofocus method. In this contrast detection method, the AF evaluation value is used to determine the in-focus position (the lens position of the focus lens when in focus). This AF evaluation value is an evaluation value indicating the degree of focus. In a digital camera, an AF evaluation value is a high-frequency component of an image obtained from an image sensor or a luminance difference component of adjacent pixels on the image.

デジタルカメラは、フォーカスレンズを光軸方向に進退させながら、フォーカスレンズが各レンズ位置にあるとき撮影した画像のAF評価値を順次取得する。そして、AF評価値が最も大きくなったときのフォーカスレンズのレンズ位置に、フォーカスレンズを停止させて合焦動作を完了させている。   The digital camera sequentially acquires AF evaluation values of images taken when the focus lens is at each lens position while moving the focus lens back and forth in the optical axis direction. Then, the focus lens is stopped at the lens position of the focus lens when the AF evaluation value becomes the largest, and the focusing operation is completed.

しかしながら、合焦動作によってデジタルカメラが被写体に焦点を合わせても、その後に被写体が移動して被写体までの距離が変化してしまうと、移動後の被写体に焦点が合わなくなる。   However, even when the digital camera focuses on the subject by the focusing operation, if the subject moves and the distance to the subject changes after that, the subject after the movement cannot be focused.

そこで、合焦動作を連続的に再起動させることにより、被写体に常時焦点を合わせておくコンティニュアスオートフォーカス(以下、「コンティニュアスAF」と略記する)モードを設定可能なデジタルカメラがある。コンティニュアスAFによれば、被写体が移動しても合焦動作を再起動するので、動く被写体にも常時焦点を合わせることができる。   Therefore, there is a digital camera capable of setting a continuous autofocus (hereinafter abbreviated as “continuous AF”) mode in which the subject is always focused by continuously restarting the focusing operation. . According to the continuous AF, since the focusing operation is restarted even when the subject moves, it is possible to always focus on the moving subject.

このコンティニュアスAFモードにおいてコントラスト検出方式で合焦動作を再起動させる方式としては、フォーカスレンズを移動させる合焦動作を一旦終えてから、一定の時間間隔(例えば1秒)で、無条件に合焦動作を再起動させてフォーカスレンズを再び移動させる方式がある。   In this continuous AF mode, as a method of restarting the focusing operation by the contrast detection method, the focusing operation for moving the focus lens is temporarily ended and then unconditionally at a fixed time interval (for example, 1 second). There is a method of restarting the focusing operation and moving the focus lens again.

しかしながら、コンティニュアスAF方式により合焦動作を再起動させる従来の方式には、以下の問題がある。一定の時間間隔で合焦動作を再起動させる従来の方式では、前回の合焦動作における合焦状態(焦点が合っている状態)が維持されているか否かに関わらず、無条件で合焦動作が再起動される。このため、前回の合焦動作における合焦状態が維持されている場合に合焦動作が再起動されると、無駄なフォーカスレンズの移動が行われることになる。さらには、合焦動作中にモータなどの駆動手段により無駄なフォーカスレンズの移動が行われると、消費電流が増加して電池の寿命が短くなってしまう。   However, the conventional method of restarting the focusing operation by the continuous AF method has the following problems. In the conventional method in which the focusing operation is restarted at regular time intervals, focusing is performed unconditionally regardless of whether or not the focusing state (in-focus state) in the previous focusing operation is maintained. The operation is restarted. For this reason, if the focusing operation is restarted when the in-focus state in the previous focusing operation is maintained, useless movement of the focus lens is performed. Furthermore, if the focus lens is moved unnecessarily by driving means such as a motor during the focusing operation, the current consumption increases and the battery life is shortened.

そこで、特許文献1に記載の技術は、コンティニュアスAFモードの設定時には、ライブビュー表示のために所定時間ごとに得られる最新画像と、その直前の画像である前回画像との相関値に基づいて、フレーミングの変化や特定領域に位置する主要被写体の移動を検出する(図7等参照)。そして、特許文献1に記載の技術は、シャッタボタンが半押しされたときに合焦動作を一旦実行しておく。そして、そこからフレーミングが変化したと判断した場合でも、特定領域に位置する主要被写体が移動していないために合焦状態が維持されているとさらに判断した場合には、合焦動作を再起動しないようにしている。   Therefore, the technique described in Patent Document 1 is based on the correlation value between the latest image obtained every predetermined time for live view display and the previous image that is the immediately preceding image when the continuous AF mode is set. Thus, a change in framing and a movement of a main subject located in a specific area are detected (see FIG. 7 and the like). The technique described in Patent Document 1 once executes a focusing operation when the shutter button is half-pressed. Even if it is determined that the framing has changed, the focus operation is restarted if it is further determined that the in-focus state is maintained because the main subject located in the specific area has not moved. I try not to.

特許文献1に記載の技術では、フレーミングの変化や特定領域に位置する主要被写体の移動が検知された場合に限って合焦動作を再起動させるため、コンティニュアスAF方式における無駄な合焦動作を防止できる。   In the technique described in Patent Document 1, since the focusing operation is restarted only when a change in framing or a movement of a main subject located in a specific area is detected, useless focusing operation in the continuous AF method Can be prevented.

特開2003−244520号公報JP 2003-244520 A

しかしながら、特許文献1に記載の技術では、主要被写体の移動に関しては、特定領域に位置する主要被写体の移動しか判断していない。つまり、特許文献1に記載の技術では、特定領域以外の任意の領域に位置する主要被写体が移動したか否かを判断することができない。そのため、特許文献1に記載の技術では、特定領域以外の任意の領域に位置する主要被写体が移動していないことにより合焦状態が維持されている場合であっても、フレーミングが変化した場合には常に合焦動作を再起動するため、無駄な合焦動作をいまだ十分に防止できないという問題がった。   However, in the technique described in Patent Document 1, only the movement of the main subject located in the specific area is determined with respect to the movement of the main subject. That is, with the technique described in Patent Document 1, it cannot be determined whether or not the main subject located in an arbitrary area other than the specific area has moved. Therefore, in the technique described in Patent Document 1, even when the main subject located in an arbitrary area other than the specific area is not moved and the focused state is maintained, the framing is changed. Always restarts the focusing operation, so that there is still a problem that the unnecessary focusing operation cannot be sufficiently prevented.

そこで、本発明の目的は、無駄な合焦動作を防止することにある。   Therefore, an object of the present invention is to prevent useless focusing operation.

上記目的を達成するために、本発明の第1の態様は、
被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段と、
を備えることを特徴とする。
In order to achieve the above object, the first aspect of the present invention provides:
Photographing means for photographing an image of a subject;
Focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculation unit is smaller than a predetermined threshold;
It is characterized by providing.

上記目的を達成するために、本発明の第2の態様は、
被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値以上である場合にのみ、前記合焦手段に合焦動作を行わせる合焦制御手段と、
を備えることを特徴とする。
In order to achieve the above object, the second aspect of the present invention provides:
Photographing means for photographing an image of a subject;
A focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that causes the focusing unit to perform a focusing operation only when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
It is characterized by providing.

本発明によれば、無駄な合焦動作を防止できる。   According to the present invention, useless focusing operation can be prevented.

本発明の実施形態に係る撮影装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る追尾処理の手法を説明するための図である。It is a figure for demonstrating the method of the tracking process which concerns on embodiment of this invention. 追尾画像メモリに記憶領域の構成を示す図である。It is a figure which shows the structure of a storage area in a tracking image memory. 本発明の実施形態に係るコンティニュアスAFモードにおける動作の流れを示す図である。It is a figure which shows the flow of operation | movement in the continuous AF mode which concerns on embodiment of this invention. 追尾ブロックと探索ブロックの初期状態を示す図である。It is a figure which shows the initial state of a tracking block and a search block. 主要被写体の移動に伴う追尾ブロックと探索ブロックとの移動を示す図である。It is a figure which shows the movement of a tracking block and a search block accompanying the movement of a main subject.

以下、図面に基づき、本発明の一実施形態に係る撮影装置100について説明する。   Hereinafter, based on the drawings, a photographing apparatus 100 according to an embodiment of the present invention will be described.

<撮影装置の構成>
図1は、本実施形態に係る撮影装置100の機能的構成を示すブロック図である。図1を用いて、本実施形態に係る撮影装置100の構成を説明する。撮影装置100は、デジタルカメラなどにより構成することができる。
<Configuration of photographing apparatus>
FIG. 1 is a block diagram showing a functional configuration of the photographing apparatus 100 according to the present embodiment. The configuration of the photographing apparatus 100 according to the present embodiment will be described with reference to FIG. The photographing apparatus 100 can be configured by a digital camera or the like.

撮影装置100は、制御部10と、RAM11と、ROM12と、光学レンズ装置13と、光学系制御部14と、光学系駆動部15と、シャッタ装置16と、シャッタ制御部17と、シャッタ駆動部18と、撮像素子19と、撮像素子駆動部20と、前処理部21と、画像メモリ22と、画像処理部23と、表示制御部24と、表示部25と、操作部26と、記録媒体27と、被写体追尾部28と、追尾画像メモリ29と、AF評価部30と、相関値算出部31と、を備える。   The photographing apparatus 100 includes a control unit 10, a RAM 11, a ROM 12, an optical lens device 13, an optical system control unit 14, an optical system drive unit 15, a shutter device 16, a shutter control unit 17, and a shutter drive unit. 18, an image sensor 19, an image sensor drive unit 20, a pre-processing unit 21, an image memory 22, an image processing unit 23, a display control unit 24, a display unit 25, an operation unit 26, and a recording medium 27, a subject tracking unit 28, a tracking image memory 29, an AF evaluation unit 30, and a correlation value calculation unit 31.

制御部10は、撮影装置100全体の動作を制御する。制御部10は、CPU(Central Processing Unit)や、計時回路であるリアルタイムクロック(Real Time Clock)などにより構成される。   The control unit 10 controls the overall operation of the image capturing apparatus 100. The control unit 10 includes a CPU (Central Processing Unit), a real-time clock (Real Time Clock) that is a timing circuit, and the like.

RAM11は、制御部10が各処理を実行する際にワーキングエリアとして機能する。RAM11は、DRAM(Dynamic Random Access Memory)などから構成される。ROM12は、撮影装置100が各処理を実行するのに必要なプログラムやデータを記憶する。ROM12は、フラッシュメモリなどから構成される。制御部10は、RAM11をワーキングエリアとして、ROM12に記憶されているプログラムとの協働により各処理を実行する。   The RAM 11 functions as a working area when the control unit 10 executes each process. The RAM 11 is composed of a DRAM (Dynamic Random Access Memory) or the like. The ROM 12 stores programs and data necessary for the photographing apparatus 100 to execute each process. The ROM 12 is composed of a flash memory or the like. The control unit 10 uses the RAM 11 as a working area to execute each process in cooperation with a program stored in the ROM 12.

光学レンズ装置13は、フォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、被写体像を撮像素子19の受光面に結像させるためレンズである。   The optical lens device 13 includes a focus lens, a zoom lens, and the like. The focus lens is a lens for forming a subject image on the light receiving surface of the image sensor 19.

光学系制御部14は、制御部10による制御に従って光学系駆動部15を制御することにより、光学系駆動部15に、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。これにより、フォーカスレンズの位置が変化して焦点が調節される。光学系駆動部13は、ステッピングモータなどで構成される。光学系制御部14は、光学系駆動部15を制御する制御回路などで構成される。   The optical system control unit 14 controls the optical system driving unit 15 according to the control by the control unit 10 to cause the optical system driving unit 15 to advance and retract the focus lens of the optical lens device 13 in the optical axis direction. Thereby, the position of the focus lens changes to adjust the focus. The optical system driving unit 13 is configured by a stepping motor or the like. The optical system control unit 14 includes a control circuit that controls the optical system driving unit 15.

シャッタ装置16は、機械式のシャッタとして機能するとともに、撮像素子19へ入射する被写体像の光量を調節する絞りとしても機能する機構である。シャッタ装置16は、シャッタ羽根などから構成される。   The shutter device 16 is a mechanism that functions as a mechanical shutter and also functions as an aperture that adjusts the amount of light of a subject image incident on the image sensor 19. The shutter device 16 includes shutter blades and the like.

シャッタ制御部17は、制御部10による制御に従って、シャッタ駆動部18を駆動させる。具体的には、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16のシャッタ羽根を開閉させる。また、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16の絞りを調節させる。シャッタ駆動部18は、シャッタ羽根を蹴飛ばすレバーなどで構成される。駆動制御部17は、シャッタ駆動部18を制御する制御回路などで構成される。   The shutter control unit 17 drives the shutter drive unit 18 according to control by the control unit 10. Specifically, the shutter control unit 17 controls the shutter drive unit 18 according to the control by the control unit 10 to cause the shutter drive unit 18 to open and close the shutter blades of the shutter device 16. Further, the shutter control unit 17 controls the shutter drive unit 18 according to the control by the control unit 10, thereby causing the shutter drive unit 18 to adjust the aperture of the shutter device 16. The shutter drive unit 18 includes a lever that kicks the shutter blades. The drive control unit 17 includes a control circuit that controls the shutter drive unit 18.

撮像素子19は、光学レンズ装置13から入射されて受光面に結像した被写体像を光電変換(撮影)する素子である。撮像素子19の受光面には、光電変換素子であるフォトダイオードが行列状に配置されている。これらフォトダイオードが撮像素子19の各画素を構成している。各フォトダイオード上には、ベイヤ方式の配列に従って、R(赤)、G(緑)B(青)の色フィルタが配置されている。撮像素子19は、撮像素子駆動部20による制御に従って、所定時間毎に被写体像を光電変換して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。撮像素子19は、CCD(Charge Coupled Device)型のイメージセンサなどから構成される。   The image sensor 19 is an element that photoelectrically converts (shoots) a subject image that is incident from the optical lens device 13 and formed on the light receiving surface. On the light receiving surface of the image sensor 19, photodiodes that are photoelectric conversion elements are arranged in a matrix. These photodiodes constitute each pixel of the image sensor 19. On each photodiode, color filters of R (red), G (green), and B (blue) are arranged according to the Bayer arrangement. The image sensor 19 photoelectrically converts the subject image at predetermined time intervals to store image signals under the control of the image sensor driving unit 20, and sequentially outputs the stored image signals as analog signals. The image sensor 19 is composed of a CCD (Charge Coupled Device) type image sensor or the like.

撮像素子駆動部20は、制御部10による制御に従って撮像素子19を駆動する。撮像素子駆動部20は、制御部10による制御に従って各種クロックパルス等を生成する。撮像素子駆動部20は,生成した各種クロックパルスおよび制御回路10から供給される制御信号に基づいて、一定時間毎に撮像素子19から被写体像を表現するアナログ信号を読み出す。撮像素子駆動部20は、各種クロックパルス等を生成するタイミングジェネレータや、走査回路などから構成される。   The image sensor driving unit 20 drives the image sensor 19 according to the control by the control unit 10. The image sensor driving unit 20 generates various clock pulses and the like according to control by the control unit 10. The image sensor driving unit 20 reads out an analog signal representing the subject image from the image sensor 19 at regular intervals based on the generated various clock pulses and the control signal supplied from the control circuit 10. The image sensor driving unit 20 includes a timing generator that generates various clock pulses, a scanning circuit, and the like.

前処理部21は、撮像素子19から供給されたアナログ信号に対し、相関二重サンプリング処理、利得制御処理、A/D(Analog/Digital)変換処理などの各種信号処理を施してディジタル信号であるベイヤデータを生成して出力する。前処理部21は、A/D変換器などにより構成される。   The pre-processing unit 21 performs various signal processing such as correlated double sampling processing, gain control processing, and A / D (Analog / Digital) conversion processing on the analog signal supplied from the image sensor 19 to obtain a digital signal. Generate and output Bayer data. The preprocessing unit 21 is configured by an A / D converter or the like.

画像メモリ22は、前処理部21により生成されたベイヤデータや、画像処理部23により生成される画像データを一時的に記憶する。また、画像メモリ21には、画像処理部22がベイヤデータから画像データを生成する際にワーキングエリアとしても使用される。画像メモリ21は、DRAM(Dynamic Random Access Memory)などから構成される。   The image memory 22 temporarily stores the Bayer data generated by the preprocessing unit 21 and the image data generated by the image processing unit 23. The image memory 21 is also used as a working area when the image processing unit 22 generates image data from Bayer data. The image memory 21 includes a DRAM (Dynamic Random Access Memory) or the like.

画像処理部23は、画像メモリ22に記憶されたベイヤデータに対し、ホワイトバランス補正処理、γ補正処理、YC変換処理などの画像処理を施して、輝度信号と色差信号とが重畳した画像データを生成する。この画像データにより被写体が表現される。また、画像処理部23は、シャッタボタンが全押し操作されたときは、比較的高画質で大容量の撮影画像用の画像データを生成する。一方、画像処理部23は、ライブビュー画像を表示するときは、比較的低画質で小容量のライブビュー画像用の画像データを生成する。画像処理部23は、例えば、DSP(Digital Signal Processor)などから構成される。   The image processing unit 23 performs image processing such as white balance correction processing, γ correction processing, and YC conversion processing on the Bayer data stored in the image memory 22 to generate image data in which the luminance signal and the color difference signal are superimposed. To do. A subject is expressed by this image data. Further, when the shutter button is fully pressed, the image processing unit 23 generates image data for a captured image with a relatively high image quality and a large capacity. On the other hand, when displaying a live view image, the image processing unit 23 generates image data for a live view image with a relatively low image quality and a small capacity. The image processing unit 23 includes, for example, a DSP (Digital Signal Processor).

表示制御部24は、制御部10による制御に従って、画像メモリ22に記憶されている画像データをアナログ信号に変換して出力する。表示制御部24は、VRAM(Video Random Access Memory)やD/A(Digital/Analog)変換器などから構成される。   The display control unit 24 converts the image data stored in the image memory 22 into an analog signal and outputs it under the control of the control unit 10. The display control unit 24 includes a VRAM (Video Random Access Memory), a D / A (Digital / Analog) converter, and the like.

表示部25は、表示制御部24から供給されたアナログ信号により表現される画像などを表示する。表示部25は、撮影装置100の筐体の背面に設けられた液晶ディスプレイなどから構成される。   The display unit 25 displays an image represented by an analog signal supplied from the display control unit 24. The display unit 25 includes a liquid crystal display provided on the back surface of the housing of the photographing apparatus 100.

操作部26は、ユーザから各種ボタンの操作を受け付ける。操作部25は、電源ボタン、シャッタボタン、ズームボタン、カーソルキー、決定ボタン、メニューボタンなどを備える。操作部26は、ユーザから受け付けた各種のキー操作を示す信号を制御部10に供給する。シャッタボタンは、撮影準備(合焦動作など)を指示するための半押し操作と、撮影を指示するための全押し操作とをユーザから受け付けることが可能な構成である。制御部10は、操作部26からこれらの信号を受信すると、受信した信号に基づいた処理を実行する。   The operation unit 26 receives various button operations from the user. The operation unit 25 includes a power button, a shutter button, a zoom button, a cursor key, a determination button, a menu button, and the like. The operation unit 26 supplies signals indicating various key operations received from the user to the control unit 10. The shutter button is configured to accept from the user a half-press operation for instructing shooting preparation (focusing operation or the like) and a full-press operation for instructing shooting. When these signals are received from the operation unit 26, the control unit 10 executes processing based on the received signals.

記録媒体27は、画像処理部23により生成された画像データを記録する。記録媒体27は、撮影装置100に着脱可能な半導体メモリカードなどから構成される。   The recording medium 27 records the image data generated by the image processing unit 23. The recording medium 27 includes a semiconductor memory card that can be attached to and detached from the photographing apparatus 100.

被写体追尾部28は、ライブビュー画像に写る被写体を追尾する。1つの追尾ブロックを追尾する手法としては様々な手法が公知となっている。被写体追尾部28は、それらの何れの手法をも採用可能である。本実施形態に係る撮影装置100は、追尾処理の手法として公知のブロックマッチング法を採用する。   The subject tracking unit 28 tracks a subject shown in the live view image. Various methods are known as methods for tracking one tracking block. The subject tracking unit 28 can employ any of these methods. The imaging apparatus 100 according to the present embodiment employs a known block matching method as a tracking processing method.

図2を用いて、本実施形態における追尾処理の手法について簡単に説明する。図2(a)において、符号F(n−1)は、(n−1)番目に撮影されたフレーム画像を示す(nは任意の自然数)。符号P(n−1)は、この(n−1)番目のフレーム画像における追尾ブロックを示す。図2(b)において、符号F(n)は、n番目に撮影されたフレーム画像を示す。符号C(n)は、このn番目のフレーム画像における候補ブロックを示す。符号S(n)は、候補ブロックC(n)が移動しうる探索ブロックを表す。本実施形態では、順次撮影される各フレーム画像における探索ブロックS(n)のサイズは、フレーム画像を9分割した各画像領域のうちの1つ分の画像領域のサイズに等しいものとする。   With reference to FIG. 2, the tracking processing method in the present embodiment will be briefly described. In FIG. 2A, the symbol F (n-1) indicates the (n-1) th frame image (n is an arbitrary natural number). A symbol P (n−1) indicates a tracking block in the (n−1) -th frame image. In FIG. 2B, the symbol F (n) indicates the nth frame image taken. A symbol C (n) indicates a candidate block in the nth frame image. The code S (n) represents a search block to which the candidate block C (n) can move. In the present embodiment, it is assumed that the size of the search block S (n) in each sequentially captured frame image is equal to the size of one image area of each image area obtained by dividing the frame image into nine.

被写体追尾部28は、追尾ブロックP(n−1)と候補ブロックC(n)との間の相関値E1を算出する。この際、候補ブロックC(n)は、探索ブロックS(n)内で水平方向又は垂直方向に1画素ずつ移動させられ、その移動の度に相関値E1が算出される。相関値E1は、例えば、追尾ブロックP(n−1)と候補ブロックC(n)との間において、同じ位置にある各画素の輝度差の絶対値の総和とされる。この相関値E1は、一般的にSAD(Sum of Absolute Difference)と呼ばれる。なお、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。   The subject tracking unit 28 calculates a correlation value E1 between the tracking block P (n−1) and the candidate block C (n). At this time, the candidate block C (n) is moved one pixel at a time in the horizontal direction or the vertical direction in the search block S (n), and the correlation value E1 is calculated for each movement. The correlation value E1 is, for example, the sum of the absolute values of the luminance differences of the pixels at the same position between the tracking block P (n−1) and the candidate block C (n). This correlation value E1 is generally called SAD (Sum of Absolute Difference). Note that the correlation value may be obtained by the sum of squares of luminance difference (Sum of Squared Difference) or the like.

相関値E1(各画素の輝度差など)は、追尾ブロックP(n−1)と候補ブロックC(n)の画像との間の類似度が高いほど小さくなる。従って、相関値E1が最も小さくなる候補ブロックC(n)の位置を求めれば、追尾ブロックP(n−1)が、n番目のフレーム画像内のどこに位置しているかを求めることができる。これにより、(n−1)番目のフレーム画像のP(n−1)とn番目のフレーム画像の追尾ブロックP(n)との動きベクトルが求まる。被写体追尾部28は、時間的に隣接するフレーム画像間で動きベクトルを繰り返し求め、動きベクトルに応じて追尾ブロックを逐次移動させることにより、追尾ブロック内に収まる被写体を追尾する。   The correlation value E1 (such as the luminance difference of each pixel) becomes smaller as the similarity between the tracking block P (n−1) and the candidate block C (n) is higher. Therefore, if the position of the candidate block C (n) having the smallest correlation value E1 is obtained, it can be determined where the tracking block P (n-1) is located in the nth frame image. As a result, a motion vector between P (n−1) of the (n−1) th frame image and the tracking block P (n) of the nth frame image is obtained. The subject tracking unit 28 repeatedly obtains a motion vector between temporally adjacent frame images, and sequentially moves the tracking block according to the motion vector, thereby tracking a subject that falls within the tracking block.

図1に戻り、追尾画像メモリ29は、追尾ブロック内の画像を表現する画像データを記憶する。追尾画像メモリ29は、DRAM(Dynamic Random Access Memory)などから構成される。   Returning to FIG. 1, the tracking image memory 29 stores image data representing an image in the tracking block. The tracking image memory 29 is composed of a DRAM (Dynamic Random Access Memory) or the like.

図3は、追尾画像メモリ29の記憶領域の構成を示す図である。図3に示されるように、追尾画像メモリ29の記憶領域は、第1追尾画像記憶領域29aと、第2追尾画像記憶領域29bとを含む。第1追尾画像記憶領域29aは、最新のフレーム画像(現在時点で撮影されたフレーム画像)における追尾ブロック内を表現する画像データを記憶する記憶領域である。第1追尾画像記憶領域29aでは、新しい画像データが記憶される度に、直前に記憶されていた画像データが上書きされて消去される。第2追尾画像記憶領域29bは、直前の合焦時点(直前の合焦動作により被写体に焦点が合った時点)で撮影されたフレーム画像における追尾ブロック内を表現する画像データを記憶する記憶領域である。第2追尾画像記憶領域29bでは、新しい画像データが記憶される度に、直前に記憶されていた画像データが上書きされて消去される。   FIG. 3 is a diagram showing the configuration of the storage area of the tracking image memory 29. As shown in FIG. 3, the storage area of the tracking image memory 29 includes a first tracking image storage area 29a and a second tracking image storage area 29b. The first tracking image storage area 29a is a storage area for storing image data representing the inside of the tracking block in the latest frame image (the frame image taken at the current time point). In the first tracking image storage area 29a, every time new image data is stored, the image data stored immediately before is overwritten and deleted. The second tracking image storage area 29b is a storage area for storing image data representing the inside of the tracking block in the frame image taken at the previous focusing point (when the subject is focused by the previous focusing operation). is there. In the second tracking image storage area 29b, every time new image data is stored, the image data stored immediately before is overwritten and deleted.

図1に戻り、AF評価部30は、画像メモリ22に記憶された画像データから高周波数成分であるAF評価値を抽出して、抽出したAF評価値を制御部10に供給する。制御部10は、合焦動作時に、光学系制御部14を制御することにより光学系駆動部15を駆動させて、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。そして、制御部10は、AF評価部30に、フォーカスレンズが各位置にあるときに得られた画像データからAF評価値を抽出させる。そして、制御部10は、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる合焦動作を行う。   Returning to FIG. 1, the AF evaluation unit 30 extracts an AF evaluation value that is a high-frequency component from the image data stored in the image memory 22, and supplies the extracted AF evaluation value to the control unit 10. During the focusing operation, the control unit 10 drives the optical system driving unit 15 by controlling the optical system control unit 14 to move the focus lens of the optical lens device 13 forward and backward in the optical axis direction. Then, the control unit 10 causes the AF evaluation unit 30 to extract the AF evaluation value from the image data obtained when the focus lens is at each position. Then, the control unit 10 performs a focusing operation to stop the focus lens at the lens position where the AF evaluation value supplied from the AF evaluation unit 30 is the highest.

相関値算出部31は、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの相関値E2を算出する。つまり、相関値算出部31は、第1追尾画像記憶領域29aに記憶されている画像データと、第2追尾画像記憶領域29bに記憶されている画像データとの相関値E2を算出する。相関値E2は、例えば、これらの画像データ間で同じ位置にある各画素の輝度差の絶対値の総和(SAD)とされる。なお、輝度差の2乗和などによって相関値E2を求めてもよい。   The correlation value calculation unit 31 calculates a correlation value E2 between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before the focusing. That is, the correlation value calculation unit 31 calculates the correlation value E2 between the image data stored in the first tracking image storage area 29a and the image data stored in the second tracking image storage area 29b. The correlation value E2 is, for example, the sum of absolute values (SAD) of the luminance differences of the pixels located at the same position between these image data. Note that the correlation value E2 may be obtained by the sum of squares of the luminance difference or the like.

ここで、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとにおいて、相関値E2(各画素の輝度差)が小さいということは、両者が類似しているということを示している。即ち、上記算出方法では、相関値E2の値が小さいほど、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの類似度が大きくなる。   Here, the correlation value E2 (luminance difference of each pixel) is small between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before focusing. It shows that there is. That is, in the above calculation method, the smaller the value of the correlation value E2, the greater the similarity between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before the focusing.

相関値E2が所定の閾値Eth以上の場合には、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に、追尾ブロックに写っていた被写体の大きさが変化したと考えられる。この場合、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられる。一方、相関値E2が所定の閾値Ethより小さい場合には、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に、追尾ブロックに写っていた被写体の大きさが変化していないと考えられる。この場合、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられる。なお、所定の閾値Ethは、実際に合焦動作の再起動が良好に作用する値(実験値など)とする。   When the correlation value E2 is equal to or greater than the predetermined threshold Eth, the size of the subject in the tracking block has changed between the time when the frame image at the time of focusing was taken and the time when the latest frame image was taken. Conceivable. In this case, it is considered that the distance to the subject existing in the tracking block of the frame image shot at the time of focusing has changed between the shooting time of the frame image at the focusing time and the shooting time of the latest frame image. . On the other hand, when the correlation value E2 is smaller than the predetermined threshold Eth, the size of the subject shown in the tracking block changes between the time when the frame image at the time of focusing is taken and the time when the latest frame image is taken. It is thought that it is not. In this case, the distance to the subject existing in the tracking block of the frame image captured at the time of focusing is not changed between the time of capturing the frame image at the time of focusing and the time of capturing the latest frame image. Conceivable. Note that the predetermined threshold Eth is a value (experimental value or the like) at which the reactivation of the focusing operation actually works well.

<撮影装置の動作>
図4は、本実施形態に係る撮影装置100のコンティニュアスAFモードにおける動作を示すフローチャートである。図4を用いて、撮影装置100が実行するコンティニュアスAFモードにおける動作を説明する。
<Operation of the photographing device>
FIG. 4 is a flowchart showing an operation in the continuous AF mode of the photographing apparatus 100 according to the present embodiment. The operation in the continuous AF mode performed by the image capturing apparatus 100 will be described with reference to FIG.

本実施形態に係るコンティニュアスAFモードにおいても、通常のコンティニュアスAFモードと同様に、自動的に合焦動作がくり返し実行される。ここで、一旦合焦された被写体までの距離が変化していない場合には、合焦動作を再起動する必要はない。そこで、本実施形態に係るコンティニュアスAFモードにおいては、撮影装置100は、合焦動作により追尾される被写体が一旦合焦されると、追尾される被写体までの距離が変化していないと考えられる場合には合焦動作を再起動しないようにしている。これにより、無駄な合焦動作を防止できる。また、無駄な合焦動作を防止できるので、合焦動作に要する電力を低減して電池寿命を長くすることができる。   Also in the continuous AF mode according to the present embodiment, the focusing operation is automatically executed repeatedly as in the normal continuous AF mode. Here, when the distance to the subject once focused has not changed, it is not necessary to restart the focusing operation. Therefore, in the continuous AF mode according to the present embodiment, the imaging apparatus 100 considers that the distance to the tracked subject has not changed once the subject tracked by the focusing operation is focused. In such a case, the focusing operation is not restarted. Thereby, useless focusing operation can be prevented. Moreover, since useless focusing operation can be prevented, the power required for the focusing operation can be reduced and the battery life can be extended.

ユーザの操作部26に対する所定の操作によりコンティニュアスAFモードが設定されると、撮影装置100は、ROM12に記憶されているプログラムを読み出して、このプログラムとの協働により図4のフローチャートにより示される処理を開始する。   When the continuous AF mode is set by a predetermined operation on the operation unit 26 by the user, the photographing apparatus 100 reads out the program stored in the ROM 12 and shows it by the flowchart of FIG. 4 in cooperation with this program. Start processing.

まずステップS1において、制御部10は、ライブビュー表示を開始する。具体的には、制御部10は、画像処理部23により順次生成されるフレーム画像を表示制御部24に順次供給することにより、表示制御部24に、フレーム画像をライブビュー画像として表示部25に表示させる。   First, in step S1, the control unit 10 starts live view display. Specifically, the control unit 10 sequentially supplies frame images sequentially generated by the image processing unit 23 to the display control unit 24, thereby causing the display control unit 24 to display the frame image as a live view image on the display unit 25. Display.

次にステップS2において、制御部10は、ユーザによりシャッタボタンが半押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタンの半押し操作に応じた信号を監視することにより、ユーザによりシャッタボタンが半押し操作されているか否かを判断する。制御部10は、シャッタボタンが半押し操作されていないと判断した場合(ステップS2:NO)、シャッタボタンの半押し操作に応じた信号を検知するまでライブビュー表示を継続させる。一方、制御部10は、シャッタボタンが半押し操作されていると判断した場合(ステップS2:YES)、ステップS3に処理を進める。   Next, in step S2, the control unit 10 determines whether or not the shutter button is half-pressed by the user. Specifically, the control unit 10 determines whether the shutter button is half-pressed by the user by monitoring a signal corresponding to the half-press operation of the shutter button from the operation unit 26. When determining that the shutter button is not half-pressed (step S2: NO), the control unit 10 continues the live view display until a signal corresponding to the half-press operation of the shutter button is detected. On the other hand, when it is determined that the shutter button is half-pressed (step S2: YES), the control unit 10 advances the process to step S3.

次にステップS3において、制御部10は、追尾処理の初期設定を実行する。具体的には、制御部10は、被写体追尾部28に、ステップS3の時点で撮影されたフレーム画像上の所定の中央領域に位置するAF枠内の画像を切り出させ、この切り出した画像を表現する画像データを、初期状態における追尾ブロックの画像データとして第1追尾画像記憶領域29aに記憶させる。また、制御部10は、被写体追尾部28に、ステップS3の時点で撮影されたフレーム画像を9分割した各画像領域のうち中央に位置する画像領域を、初期状態における探索ブロックとして設定させる。   Next, in step S <b> 3, the control unit 10 performs an initial setting of the tracking process. Specifically, the control unit 10 causes the subject tracking unit 28 to cut out an image within an AF frame located in a predetermined central area on the frame image taken at the time of step S3, and expresses the cut out image. The image data to be stored is stored in the first tracking image storage area 29a as the image data of the tracking block in the initial state. Further, the control unit 10 causes the subject tracking unit 28 to set the image region located at the center among the image regions obtained by dividing the frame image captured at the time of step S3 into nine as search blocks in the initial state.

図5は、初期状態における追尾ブロックP(1)と初期状態における探索ブロックS(2)とを示す図である。追尾ブロックP(1)は、制御部10がシャッタボタンの半押し操作を検知してから1番目に撮影されたフレーム画像における追尾ブロックである。探索ブロックS(2)は、1番目のフレーム画像の次に撮影された2番目のフレーム画像における探索ブロックである。   FIG. 5 is a diagram illustrating the tracking block P (1) in the initial state and the search block S (2) in the initial state. The tracking block P (1) is a tracking block in the first frame image taken after the control unit 10 detects a half-press operation of the shutter button. The search block S (2) is a search block in the second frame image photographed after the first frame image.

本実施形態においては、図5に示されるように、まずユーザが自身の手に構えている撮影装置100の姿勢を変化させることにより、主要被写体Mの顔がライブビュー画像の中央領域に位置するAF枠内に収まる状態になるように構図を調整する。そして、この状態においてユーザがシャッタボタンを半押し操作すると、AF枠内の主要被写体Mの顔を表現する画像データが、初期状態における追尾ブロックP(1)の画像データとして第1追尾画像メモリ29aに記憶される。このとき、ライブビュー画像(1番目のフレーム画像)を9分割した各画像領域のうち中央に位置する画像領域が、初期状態における探索ブロックS(2)として設定される。   In the present embodiment, as shown in FIG. 5, the face of the main subject M is positioned in the central region of the live view image by first changing the posture of the photographing apparatus 100 that the user holds in his / her hand. The composition is adjusted so as to be within the AF frame. In this state, when the user presses the shutter button halfway, the image data representing the face of the main subject M in the AF frame is the first tracking image memory 29a as the image data of the tracking block P (1) in the initial state. Is remembered. At this time, the image area located in the center among the image areas obtained by dividing the live view image (first frame image) into nine is set as the search block S (2) in the initial state.

また、制御部10は、ステップS3において、追尾処理の初期設定としてコントラスト検出方式に従う1回目の合焦動作を行う。合焦動作に際して、制御部10は、AF評価部30に、ステップS3の時点で順次撮影されるフレーム画像におけるAF枠内の画像領域からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠内の主要被写体Mの顔に焦点が合うこととなる。   In step S3, the control unit 10 performs a first focusing operation according to the contrast detection method as an initial setting of the tracking process. During the focusing operation, the control unit 10 causes the AF evaluation unit 30 to calculate the AF evaluation value from the image area within the AF frame in the frame images sequentially captured at the time of step S3. Then, the control unit 10 controls the optical system driving unit 15 via the optical system control unit 14 to cause the optical system driving unit 15 to advance and retract the focus lens in the optical axis direction, and is supplied from the AF evaluation unit 30. The focus lens is stopped at the lens position with the highest AF evaluation value. As a result, the face of the main subject M in the AF frame is focused.

図4に戻り、ステップS4において、制御部10は、追尾処理を実行する。具体的には、制御部10は、被写体追尾部28に、ステップS4の時点での最新のフレーム画像であるn番目のフレーム画像において、候補ブロックC(n)を探索ブロックS(n)内で水平方向又は垂直方向に1画素ずつ移動させる。被写体追尾部28は、この移動の度に、(n−1)番目のフレーム画像における追尾ブロックP(n−1)と候補ブロックC(n)との相関値E1を算出する。被写体追尾部28は、この相関値E1が最も小さくなるときの候補ブロックC(n)の位置を、n番目のフレーム画像における追尾ブロックP(n)の位置として設定する。このようにして主要被写体Mの動きに合わせて追尾ブロックの位置が設定されることにより、主要被写体Mが追尾される。制御部10は、被写体追尾部28に、n番目のフレーム画像から追尾ブロックP(n)を表現する画像データを切り出させ、切り出した画像データを第1追尾画像記憶領域29aに記憶させる。これにより、第1追尾画像記憶領域29aに記憶される画像データが、追尾ブロックP(n−1)の画像データから追尾ブロックP(n)の画像データへと更新される。   Returning to FIG. 4, in step S <b> 4, the control unit 10 executes a tracking process. Specifically, the control unit 10 causes the subject tracking unit 28 to select a candidate block C (n) in the search block S (n) in the nth frame image that is the latest frame image at the time of step S4. Move one pixel at a time in the horizontal or vertical direction. The subject tracking unit 28 calculates a correlation value E1 between the tracking block P (n−1) and the candidate block C (n) in the (n−1) th frame image each time this movement is performed. The subject tracking unit 28 sets the position of the candidate block C (n) when the correlation value E1 is the smallest as the position of the tracking block P (n) in the nth frame image. Thus, the main subject M is tracked by setting the position of the tracking block in accordance with the movement of the main subject M. The control unit 10 causes the subject tracking unit 28 to cut out image data representing the tracking block P (n) from the n-th frame image, and stores the cut-out image data in the first tracking image storage area 29a. As a result, the image data stored in the first tracking image storage area 29a is updated from the image data of the tracking block P (n-1) to the image data of the tracking block P (n).

また、被写体追尾部28は、(n+1)番目のフレーム画像における探索ブロックS(n+1)の中心が追尾ブロックP(n)の中心と一致するように、(n+1)番目のフレーム画像に対して探索ブロックS(n+1)の位置を設定する。   In addition, the subject tracking unit 28 searches the (n + 1) th frame image so that the center of the search block S (n + 1) in the (n + 1) th frame image coincides with the center of the tracking block P (n). The position of block S (n + 1) is set.

図6は、追尾処理により追尾される主要被写体Mの様子を示す図である。ライブビュー画像において、主要被写体Mが移動すると、追尾ブロックPが主要被写体Mの動きに追従して移動するとともに、追尾ブロックPの動きに追従するように探索ブロックSも移動する。また、図6に示されるように、制御部10は、ライブビュー画像に表示されるAF枠も主要被写体Mの移動に合わせて移動させる。   FIG. 6 is a diagram illustrating a state of the main subject M tracked by the tracking process. When the main subject M moves in the live view image, the tracking block P moves following the movement of the main subject M, and the search block S also moves so as to follow the movement of the tracking block P. Further, as illustrated in FIG. 6, the control unit 10 moves the AF frame displayed in the live view image in accordance with the movement of the main subject M.

図4に戻り、ステップS5において、制御部10は、所定時間(例えば1秒)が経過したか否かを判断する。具体的には、制御部10は、制御部10内の計時回路が示す直前のステップS5の判断がYESになったときからの経過時間が、所定時間に達したか否か経過したか否かを判断する。制御部10は、所定時間が経過していないと判断した場合(ステップS5:NO)、ステップS10に処理を進める。一方、制御部10は、所定時間が経過したと判断した場合(ステップS5:YES)、ステップS6に処理を進める。   Returning to FIG. 4, in step S <b> 5, the control unit 10 determines whether or not a predetermined time (for example, 1 second) has elapsed. Specifically, the control unit 10 determines whether or not the elapsed time from when the determination in step S5 immediately before indicated by the timing circuit in the control unit 10 is YES has reached a predetermined time. Judging. When it is determined that the predetermined time has not elapsed (step S5: NO), the control unit 10 advances the process to step S10. On the other hand, when the control unit 10 determines that the predetermined time has elapsed (step S5: YES), the control unit 10 proceeds to step S6.

次にステップS6において、制御部10は、追尾ブロックの相関値を算出する。具体的には、制御部10は、相関値算出部31に、最新のフレーム画像における追尾ブロックの画像データと、直前の合焦時点に撮影されたフレーム画像における追尾ブロックの画像データとを取得させる。つまり、被写体追尾部28は、ステップS6の時点で、第1追尾画像記憶領域29aに記憶されている画像データを読み出すとともに、第2追尾画像記憶領域29bに記憶されている画像データから読み出す。そして、制御部10は、相関値算出部31に、読み出したこれらの画像データ間の相関値E2を算出させる。   Next, in step S6, the control unit 10 calculates a correlation value of the tracking block. Specifically, the control unit 10 causes the correlation value calculation unit 31 to acquire the image data of the tracking block in the latest frame image and the image data of the tracking block in the frame image captured immediately before the focusing. . That is, the subject tracking unit 28 reads out the image data stored in the first tracking image storage area 29a and the image data stored in the second tracking image storage area 29b at the time of step S6. Then, the control unit 10 causes the correlation value calculation unit 31 to calculate a correlation value E2 between the read image data.

次にステップS7において、制御部10は、直前のステップS6の処理により算出された相関値E2が閾値Eth以上であるか否かを判断する。制御部10は、相関値E2が閾値Ethより小さいと判断した場合(ステップS7:NO)、合焦動作を行うことなくステップS10に処理を進める。一方、制御部10は、相関値E2が閾値Eth以上であると判断した場合(ステップS7:YES)、ステップS8に処理を進める。上述の通り、相関値E2が所定の閾値Eth以上の場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられる。一方、相関値E2が所定の閾値Ethより小さい場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられる。   Next, in step S7, the control unit 10 determines whether or not the correlation value E2 calculated by the process of immediately preceding step S6 is equal to or greater than the threshold value Eth. If the control unit 10 determines that the correlation value E2 is smaller than the threshold value Eth (step S7: NO), the control unit 10 proceeds to step S10 without performing the focusing operation. On the other hand, when the control unit 10 determines that the correlation value E2 is equal to or greater than the threshold value Eth (step S7: YES), the control unit 10 proceeds to step S8. As described above, when the correlation value E2 is equal to or greater than the predetermined threshold Eth, the distance to the subject existing in the tracking block of the frame image shot at the time of focusing is the latest from the shooting time of the frame image at the focusing time. It is considered that the frame image changed until the time when the frame image was taken. On the other hand, when the correlation value E2 is smaller than the predetermined threshold Eth, the distance to the subject existing in the tracking block of the frame image shot at the time of focusing is the latest frame from the shooting time of the frame image at the focusing time. It is considered that there has been no change until the time of image capture.

次にステップS8において、制御部10は、コントラスト検出方式の合焦動作を行う。合焦動作に際して、制御部10は、AF評価部30に、ステップS8の時点で順次撮影されるフレーム画像における追尾ブロック内の画像領域からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、追尾ブロック内の主要被写体Mの顔に焦点が合うこととなる。   Next, in step S8, the control unit 10 performs a focus detection type focusing operation. During the focusing operation, the control unit 10 causes the AF evaluation unit 30 to calculate an AF evaluation value from the image area in the tracking block in the frame images sequentially captured at the time of step S8. Then, the control unit 10 controls the optical system driving unit 15 via the optical system control unit 14 to cause the optical system driving unit 15 to advance and retract the focus lens in the optical axis direction, and is supplied from the AF evaluation unit 30. The focus lens is stopped at the lens position with the highest AF evaluation value. As a result, the face of the main subject M in the tracking block is focused.

次にステップS9において、制御部10は、被写体追尾部28に、直前のステップS8の処理における合焦時点で撮影されたフレーム画像における追尾ブロックの画像を切り出させ、この切り出した画像を表現する画像データを第2追尾画像記憶領域29bに記憶させる。これにより、第2追尾画像記憶領域29bに記憶される画像データが、前回のステップS9での合焦時点で撮影されたフレーム画像上の追尾ブロックの画像データから、今回のステップS9での合焦時点で撮影されたフレーム画像上の追尾ブロックの画像データへと更新される。   Next, in step S9, the control unit 10 causes the subject tracking unit 28 to cut out the image of the tracking block in the frame image photographed at the time of focusing in the immediately preceding step S8, and represents the cut-out image. Data is stored in the second tracking image storage area 29b. As a result, the image data stored in the second tracking image storage area 29b is changed from the image data of the tracking block on the frame image taken at the time of focusing in the previous step S9 to the focus in the current step S9. It is updated to the image data of the tracking block on the frame image taken at the time.

ステップS10において、制御部10は、ユーザによりシャッタボタンが全押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタンの全押し操作に応じた信号を監視することにより、ユーザによりシャッタボタンが全押し操作されているか否かを判断する。制御部10は、シャッタボタンが全押し操作されていないと判断した場合(ステップS10:NO)、ステップS4に処理を戻す。一方、制御部10は、シャッタボタンが全押し操作されていると判断した場合(ステップS10:YES)、ステップS11に処理を進める。   In step S10, the control unit 10 determines whether or not the shutter button is fully pressed by the user. Specifically, the control unit 10 determines whether or not the user has fully pressed the shutter button by monitoring a signal corresponding to the full pressing operation of the shutter button from the operation unit 26. When it is determined that the shutter button has not been fully pressed (step S10: NO), the control unit 10 returns the process to step S4. On the other hand, when it is determined that the shutter button is fully pressed (step S10: YES), the control unit 10 advances the process to step S11.

次にステップS11において、制御部10は、撮影を実行する。具体的には、制御部10は、シャッタ制御部17を制御することにより、シャッタ駆動部18にシャッタ装置16を開閉させる。これにより、撮像素子19が被写体像を撮影して電気信号を蓄積し、前処理部21がこの電気信号からディジタル信号を生成する。そして、制御部10は、画像処理部23に、ディジタル信号から画像データを生成させて、生成した画像データをJPEG(Joint Photographic Experts Group)方式で圧縮させる。そして、制御部10は、圧縮された画像データを記録媒体27に記録させる。   Next, in step S11, the control unit 10 performs shooting. Specifically, the control unit 10 controls the shutter control unit 17 to cause the shutter drive unit 18 to open and close the shutter device 16. As a result, the image sensor 19 captures the subject image and accumulates the electrical signal, and the preprocessing unit 21 generates a digital signal from the electrical signal. Then, the control unit 10 causes the image processing unit 23 to generate image data from the digital signal, and compresses the generated image data using a JPEG (Joint Photographic Experts Group) method. Then, the control unit 10 records the compressed image data on the recording medium 27.

制御部10は、ステップS11の処理の後、図4のフローチャートに示される処理を終了させる。   After the process of step S11, the control unit 10 ends the process shown in the flowchart of FIG.

以上説明したように、相関値E2が閾値Ethより小さい場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられるので、合焦動作を再起動させる必要がない。これとは逆に、相関値E2が閾値Eth以上である場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられるので、合焦動作を再起動させる必要がある。   As described above, when the correlation value E2 is smaller than the threshold Eth, the distance to the subject existing in the tracking block of the frame image shot at the time of focusing is the latest from the shooting time of the frame image at the focusing time. Since it is considered that there has been no change until the time point when the frame image is captured, there is no need to restart the focusing operation. On the contrary, when the correlation value E2 is equal to or greater than the threshold value Eth, the distance to the subject existing in the tracking block of the frame image captured at the time of focusing is determined from the time of capturing the frame image at the time of focusing. Since it is considered that it has changed between the time of shooting the latest frame image, it is necessary to restart the focusing operation.

そこで、本実施形態に係る撮影装置100は、合焦動作をくり返し実行するコンティニュアスAFモードにおいて、最新のフレーム画像(現在時点で撮影されたフレーム画像)における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの相関値E2を算出する。そして、撮影装置100は、算出した相関値E2が閾値Ethより小さいと判断した場合には、合焦動作を再起動させないようにした。換言すれば、撮影装置100は、算出した相関値E2が閾値Eth以上である判断した場合にのみ、合焦動作を再起動させるようにした。このため、本実施形態に係る撮影装置100によれば、無駄な合焦動作を防止できる。また、無駄な合焦動作を防止できるので、合焦動作に要する電力を低減して電池寿命を長くすることができる。   Therefore, in the continuous AF mode in which the focusing operation is repeatedly performed, the imaging device 100 according to the present embodiment and the tracking block in the latest frame image (the frame image captured at the current time point) and the immediately previous focusing time point The correlation value E2 with the tracking block in the frame image photographed in is calculated. The imaging apparatus 100 is configured not to restart the focusing operation when it is determined that the calculated correlation value E2 is smaller than the threshold value Eth. In other words, the imaging apparatus 100 restarts the focusing operation only when it is determined that the calculated correlation value E2 is greater than or equal to the threshold Eth. For this reason, according to the imaging device 100 according to the present embodiment, a wasteful focusing operation can be prevented. Moreover, since useless focusing operation can be prevented, the power required for the focusing operation can be reduced and the battery life can be extended.

また、本実施形態に係る撮影装置100は、最新のフレーム画像上で主要被写体Mが位置する追尾ブロックと、直前の合焦時点で撮影されたフレーム画像上で主要被写体Mが位置していた追尾ブロックとの相関値E2を算出するようにした。これにより、撮影装置100は、最新のフレーム画像上で任意の領域に位置している主要被写体Mについても、最新のフレーム画像と直前の合焦時点で撮影されたフレーム画像との間における相関値E2を算出できる。すなわち、撮影装置100は、最新のフレーム画像上で任意の領域に位置している主要被写体Mについても、その主要被写体Mが直前の合焦時点から移動したか否かを判断することができる。   In addition, the imaging apparatus 100 according to the present embodiment has a tracking block in which the main subject M is positioned on the latest frame image and a tracking in which the main subject M is positioned on the frame image captured immediately before the focusing. The correlation value E2 with the block is calculated. As a result, the imaging apparatus 100 also uses the correlation value between the latest frame image and the frame image captured at the previous in-focus point for the main subject M located in an arbitrary region on the latest frame image. E2 can be calculated. That is, the imaging apparatus 100 can determine whether or not the main subject M has moved from the previous in-focus point for the main subject M located in an arbitrary area on the latest frame image.

上記の実施形態は本発明の単なる例に過ぎず、本発明を限定する趣旨のものではない。したがって、本実施形態に対してなされ得る変形はすべて本発明に含まれるものである。   The above-described embodiments are merely examples of the present invention and are not intended to limit the present invention. Accordingly, all modifications that can be made to the present embodiment are included in the present invention.

100・・・撮影装置、10・・・制御部、11・・・RAM、12・・・ROM、13・・・光学レンズ装置、14・・・光学系制御部、15・・・光学系駆動部、16・・・シャッタ装置、17・・・シャッタ制御部、18・・・シャッタ駆動部、19・・・撮像素子、20・・・撮像素子駆動部、21・・・前処理部、22・・・画像メモリ、23・・・画像処理部、24・・・表示制御部、25・・・表示部、26・・・操作部、27・・・記録媒体、28・・・被写体追尾部、29・・・追尾画像メモリ、30・・・AF評価部、31・・・相関値算出部。   DESCRIPTION OF SYMBOLS 100 ... Imaging device, 10 ... Control part, 11 ... RAM, 12 ... ROM, 13 ... Optical lens apparatus, 14 ... Optical system control part, 15 ... Optical system drive , 16 ... shutter device, 17 ... shutter control unit, 18 ... shutter drive unit, 19 ... image sensor, 20 ... image sensor drive unit, 21 ... pre-processing unit, 22 ... Image memory, 23 ... Image processing unit, 24 ... Display control unit, 25 ... Display unit, 26 ... Operation unit, 27 ... Recording medium, 28 ... Subject tracking unit 29 ... Tracking image memory, 30 ... AF evaluation unit, 31 ... Correlation value calculation unit.

Claims (5)

被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段と、
を備えることを特徴とする撮影装置。
Photographing means for photographing an image of a subject;
A focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculation unit is smaller than a predetermined threshold;
An imaging apparatus comprising:
前記第1の追尾ブロックの画像データを記憶する第1の記憶領域と、前記第2の追尾ブロックの画像データを記憶する第2の記憶領域と、を有する追尾画像メモリを、さらに備え、
前記算出手段は、前記第1の記憶領域に記憶されている画像データと前記第2の記憶領域に記憶されている画像データとの相関値を算出する
ことを特徴とする請求項1に記載の撮影装置。
A tracking image memory having a first storage area for storing the image data of the first tracking block and a second storage area for storing the image data of the second tracking block;
2. The calculation unit according to claim 1, wherein the calculation unit calculates a correlation value between the image data stored in the first storage area and the image data stored in the second storage area. Shooting device.
被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値以上である場合にのみ、前記合焦手段に合焦動作を行わせる合焦制御手段と、
を備えることを特徴とする撮影装置。
Photographing means for photographing an image of a subject;
Focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that causes the focusing unit to perform a focusing operation only when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
An imaging apparatus comprising:
被写体の画像を撮影する撮影手段と、被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、を備えるコンピュータを、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段、
として機能させるプログラム。
A computer comprising photographing means for photographing an image of a subject and focusing means for repeatedly performing a focusing operation for focusing on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is executed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculating unit is smaller than a predetermined threshold;
Program to function as.
被写体の画像を撮影する撮影手段と、被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、を備えるコンピュータを、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段、
前記算出手段により算出された相関値が所定の閾値以上である場合に、前記合焦手段に合焦動作を行わせる合焦制御手段、
として機能させるプログラム。
A computer comprising photographing means for photographing an image of a subject and focusing means for repeatedly performing a focusing operation for focusing on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is executed;
A focusing control unit that causes the focusing unit to perform a focusing operation when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
Program to function as.
JP2009022362A 2009-02-03 2009-02-03 Imaging apparatus and program Expired - Fee Related JP5326613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009022362A JP5326613B2 (en) 2009-02-03 2009-02-03 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009022362A JP5326613B2 (en) 2009-02-03 2009-02-03 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2010183145A true JP2010183145A (en) 2010-08-19
JP5326613B2 JP5326613B2 (en) 2013-10-30

Family

ID=42764376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009022362A Expired - Fee Related JP5326613B2 (en) 2009-02-03 2009-02-03 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5326613B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012099175A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Auto focus system
JP2017142318A (en) * 2016-02-09 2017-08-17 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, program, and storage medium
JP2018071979A (en) * 2016-10-24 2018-05-10 キヤノン株式会社 Distance detector and distance detection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244520A (en) * 2002-02-20 2003-08-29 Minolta Co Ltd Photographing device
JP2007052061A (en) * 2005-08-15 2007-03-01 Sharp Corp Imaging device, focusing operation control method, and electronic information apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244520A (en) * 2002-02-20 2003-08-29 Minolta Co Ltd Photographing device
JP2007052061A (en) * 2005-08-15 2007-03-01 Sharp Corp Imaging device, focusing operation control method, and electronic information apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012099175A1 (en) * 2011-01-18 2012-07-26 富士フイルム株式会社 Auto focus system
JP5914364B2 (en) * 2011-01-18 2016-05-11 富士フイルム株式会社 Auto focus system
US9402019B2 (en) 2011-01-18 2016-07-26 Fujifilm Corporation Autofocus system
JP2017142318A (en) * 2016-02-09 2017-08-17 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, program, and storage medium
JP2018071979A (en) * 2016-10-24 2018-05-10 キヤノン株式会社 Distance detector and distance detection method

Also Published As

Publication number Publication date
JP5326613B2 (en) 2013-10-30

Similar Documents

Publication Publication Date Title
JP3867687B2 (en) Imaging device
JP5954336B2 (en) Image processing apparatus, image processing method, and recording medium
US8634016B2 (en) Imaging device and main photographic subject recognition method
JP5775679B2 (en) Digital camera
JP3823921B2 (en) Imaging device
TW200925756A (en) Image capture device
JP2007074394A (en) Image pickup device and control method of same
JP2003307669A (en) Camera
JP2006091915A (en) Imaging apparatus
JP2003244520A (en) Photographing device
JP2007052061A (en) Imaging device, focusing operation control method, and electronic information apparatus
JP2009169282A (en) Imaging apparatus and its program
JP5407373B2 (en) Imaging apparatus and program
JP2007101907A (en) Autofocus controller, image forming apparatus using same and autofocus control method
JP2009175821A (en) Detection method and photographing device for specific image
JP5326613B2 (en) Imaging apparatus and program
JP5836761B2 (en) Focus adjustment apparatus and control method thereof
JP5858658B2 (en) Imaging device
JP2003295040A (en) Camera
JP5430309B2 (en) Imaging device
JP2008287050A (en) Automatic focusing device and imaging apparatus
JP2006217249A (en) Electronic camera, electronic camera system and program
JP5877228B2 (en) Digital camera and control method of digital camera
JP4055463B2 (en) camera
JP2009267893A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Ref document number: 5326613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees