JP2011044764A - Image capturing apparatus - Google Patents

Image capturing apparatus Download PDF

Info

Publication number
JP2011044764A
JP2011044764A JP2009189764A JP2009189764A JP2011044764A JP 2011044764 A JP2011044764 A JP 2011044764A JP 2009189764 A JP2009189764 A JP 2009189764A JP 2009189764 A JP2009189764 A JP 2009189764A JP 2011044764 A JP2011044764 A JP 2011044764A
Authority
JP
Japan
Prior art keywords
image data
information
tracking
area
tracking area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009189764A
Other languages
Japanese (ja)
Inventor
Yuki Miura
夕季 三浦
Eiji Abu
栄二 阿武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009189764A priority Critical patent/JP2011044764A/en
Publication of JP2011044764A publication Critical patent/JP2011044764A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus capable of continuously tracking a subject with high accuracy when tracking the subject on a photographing screen. <P>SOLUTION: The image capturing apparatus includes: an imaging means of imaging subject images to sequentially generate image data; a storage means of storing location information, color information, and contrast information of a tracking area set to one portion of the image data; a discrimination means of setting a discrimination area based on the location information of the tracking area to discriminate whether the inside and outside of the discrimination area can be separated by color information; a first setting means of setting a tracking area to the image data, based on the color information stored in the storage means, when it is discriminated that the separation can be made by the discrimination means; and a second setting means of setting the tracking area to image data, based on the contrast information stored in the storage means, when it is discriminated that no separation can be made by the discrimination means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタルカメラ等の撮像装置に関する。より詳しくは、撮影画面内の被写体に対して追尾領域を継続して設定できる撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera. More specifically, the present invention relates to an imaging apparatus that can continuously set a tracking area for a subject in a shooting screen.

従来の撮像装置には、特許文献1に記載されるものが存在する。特許文献1の撮像装置は、撮影画面内の輝度情報のみに基づいて撮影画面上の一部に合焦領域を設定する第1の追尾手段と、撮影画面内のコントラスト情報のみに基づいて撮影画面上の一部に合焦領域を設定する第2の追尾手段とを備えるものである。そして特許文献1の撮像装置では、被写体と背景の輝度差が小さくなった場合、第1の追尾手段から第2の追尾手段に切り換えることが記載されている。   There exist some which are described in patent document 1 in the conventional imaging device. The imaging apparatus disclosed in Patent Literature 1 includes a first tracking unit that sets a focusing area in a part on a shooting screen based only on luminance information in the shooting screen, and a shooting screen based only on contrast information in the shooting screen. And a second tracking means for setting a focusing area in a part of the upper part. And in the imaging device of patent document 1, when the brightness | luminance difference of a to-be-photographed object and a background becomes small, switching from a 1st tracking means to a 2nd tracking means is described.

一方、他の撮像装置では、被写体の色の特徴(色情報)を記憶し、この記憶した色情報を利用して、被写体の移動を追尾するものがある。このような撮像装置では、撮影画面上の一部に設定される追尾領域内の色情報を記憶する。そして撮像装置は、記憶した色情報に基づき、次に生成される撮影画面上に追尾領域を設定する。このようにして、撮像素子から順次生成される撮影画面(画像データ)上に追尾領域を継続して設定できるようにしている。   On the other hand, there are other imaging devices that store the color characteristics (color information) of the subject and track the movement of the subject using the stored color information. In such an imaging apparatus, color information in a tracking area set in a part on the shooting screen is stored. Then, the imaging device sets a tracking area on the next generated shooting screen based on the stored color information. In this way, the tracking area can be set continuously on the shooting screen (image data) sequentially generated from the image sensor.

特開平1−231578号公報JP-A-1-231578

ところで、上記記載した他の撮像装置では、被写体の色情報を利用して撮影画面(画像データ)上に追尾領域を設定するため、被写体の色と背景の色が同色に近づくと追尾精度が下がる。   By the way, in the other imaging devices described above, since the tracking area is set on the shooting screen (image data) using the color information of the subject, the tracking accuracy decreases when the subject color and the background color approach the same color. .

そこで本発明は、撮影画面上の被写体を追尾する場合において、より高い精度で被写体の追尾を継続できる撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging apparatus capable of continuing tracking of a subject with higher accuracy when tracking a subject on a shooting screen.

すなわち、本発明の撮像装置は、被写体像を撮像し、画像データを順次生成する撮像手段と、前記画像データの一部に設定される追尾領域の位置情報、色情報及びコントラスト情報を記憶する記憶手段と、前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する判別手段と、前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された色情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、前記判別手段で近似すると判別された場合、前記記憶手段に記憶されたコントラスト情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、を備える。   That is, the imaging apparatus of the present invention captures an image of a subject and sequentially generates image data, and a storage that stores position information, color information, and contrast information of a tracking area set in a part of the image data. A determination area based on the position information of the tracking area, a determination means for determining whether or not color information inside and outside the determination area is approximated, and A first setting unit that sets a tracking area in the image data generated by the imaging unit based on the color information stored in the storage unit and a case where the determination unit approximates the image data is stored in the storage unit. Second setting means for setting a tracking area in the image data generated by the imaging means based on the contrast information.

このようにすれば、被写体を色情報で追尾している場合において、被写体の色と背景の色が近づいた場合であっても、より高い精度で被写体の追尾を継続できる。   In this way, when the subject is tracked with color information, tracking of the subject can be continued with higher accuracy even when the subject color and the background color are close to each other.

また、好ましくは、前記第2の設定手段は、前記判別手段で近似すると判別された場合、前記コントラスト情報に基づき前記画像データに追尾領域を設定すると共に、前記色情報に基づき前記画像データに仮追尾領域を探索し、前記記憶手段は、前記設定された追尾領域のコントラスト情報と前記探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する。   Preferably, the second setting unit sets a tracking region in the image data based on the contrast information and temporarily sets the image data based on the color information when it is determined that the determination unit approximates. The tracking means searches for a tracking area, and the storage means uses the contrast information of the set tracking area and the color information of the searched temporary tracking area as information for setting a tracking area for new image data. Remember.

このようにすれば、コントラスト情報に基づく追尾動作中においても、色情報に基づく追尾動作を継続する。したがって、被写体と背景の色情報が近似した後において、被写体と背景の色情報が近似しなくなった場合においても、より高い精度で被写体の追尾を継続できるようになる。   In this way, the tracking operation based on the color information is continued even during the tracking operation based on the contrast information. Therefore, even when the color information of the subject and the background is not approximated after the color information of the subject and the background is approximated, the tracking of the subject can be continued with higher accuracy.

本発明によれば、より高い精度で被写体の追尾を継続できる。   According to the present invention, tracking of a subject can be continued with higher accuracy.

本発明の実施の形態に係るデジタルカメラの斜視図The perspective view of the digital camera which concerns on embodiment of this invention 本発明の実施の形態に係るデジタルカメラの構成図1 is a configuration diagram of a digital camera according to an embodiment of the present invention. 本発明の実施の形態に係る表示画面用の画像データの遷移例を示す図The figure which shows the example of a transition of the image data for display screens concerning embodiment of this invention 本発明の実施の形態に係る表示画面用の画像データの遷移例を示す図The figure which shows the example of a transition of the image data for display screens concerning embodiment of this invention 本発明の実施の形態に係る色情報に基づく追尾機能を説明するための図The figure for demonstrating the tracking function based on the color information which concerns on embodiment of this invention 本発明の実施の形態に係るコントラスト情報に基づく追尾機能を説明するための図The figure for demonstrating the tracking function based on the contrast information which concerns on embodiment of this invention 本発明の実施の形態に係る被写体の色と背景の色の関係を説明するための図The figure for demonstrating the relationship between the color of a to-be-photographed object and the color of a background which concerns on embodiment of this invention 本発明の実施の形態に係る色情報のヒストグラムを説明するための図The figure for demonstrating the histogram of the color information which concerns on embodiment of this invention 本発明の実施の形態に係るデジタルカメラの動作例を説明するためのフローチャートThe flowchart for demonstrating the operation example of the digital camera which concerns on embodiment of this invention. 本発明の実施の形態に係るデジタルカメラの動作例を説明するためのフローチャートThe flowchart for demonstrating the operation example of the digital camera which concerns on embodiment of this invention.

(実施の形態1)
本実施の形態について、図面を参照して説明を行なう。以下、本実施の形態のデジタルカメラ1を具体的に説明する。
(Embodiment 1)
The present embodiment will be described with reference to the drawings. Hereinafter, the digital camera 1 of the present embodiment will be specifically described.

<1.本実施の形態の概要>
デジタルカメラ1は、色情報に基づいて被写体を追尾している領域内外の色情報が近似した場合、コントラスト情報に基づいて追尾領域を設定する。これによって、デジタルカメラ1は、被写体の色と背景の色が近似した場合であっても、コントラスト情報に基づいて追尾を継続できるため、より高い精度で被写体の追尾を継続できるようになる。
<1. Overview of the present embodiment>
The digital camera 1 sets the tracking area based on the contrast information when the color information inside and outside the area tracking the subject is approximated based on the color information. Thus, the digital camera 1 can continue tracking of the subject with higher accuracy because the tracking can be continued based on the contrast information even when the subject color and the background color are approximate.

すなわち、デジタルカメラ1は、画像データの一部に設定された追尾領域の位置情報、色情報及びコントラスト情報を記憶する。デジタルカメラ1は、新たな画像データに対して追尾領域を設定する際、以前の画像データにおける追尾領域の位置情報に基づいて、新たな画像データに判別領域を設定する。そして、デジタルカメラ1は、設定された判別領域内外の色情報が近似しているか否かを判別する。デジタルカメラ1は、判別領域内外の色情報が近似していない場合、色情報に基づいて画像データに追尾領域を設定する。一方で、デジタルカメラ1は、判別領域内外の色情報が近似している場合、コントラスト情報に基づいて画像データに追尾領域を設定する。   That is, the digital camera 1 stores tracking area position information, color information, and contrast information set as part of the image data. When the digital camera 1 sets a tracking area for new image data, the digital camera 1 sets a determination area for the new image data based on position information of the tracking area in the previous image data. Then, the digital camera 1 determines whether or not the color information inside and outside the set determination area is approximate. When the color information inside and outside the discrimination area is not approximate, the digital camera 1 sets a tracking area in the image data based on the color information. On the other hand, when the color information inside and outside the discrimination area is approximate, the digital camera 1 sets a tracking area in the image data based on the contrast information.

なお、デジタルカメラ1は、判別領域内外の色情報が近似している場合、コントラスト情報に基づいて画像データに追尾領域を設定すると共に、色情報に基づいて画像データに仮追尾領域を設定する。この際、デジタルカメラ1は、画像データ及び追尾領域を表示画面として表示する。つまり、デジタルカメラ1は、仮追尾領域を表示しない。   The digital camera 1 sets a tracking area in the image data based on the contrast information and sets a temporary tracking area in the image data based on the color information when the color information inside and outside the discrimination area is approximate. At this time, the digital camera 1 displays the image data and the tracking area as a display screen. That is, the digital camera 1 does not display the temporary tracking area.

このようにコントラスト情報に基づく追尾動作中も色情報に基づく追尾動作を継続することで、デジタルカメラ1は、被写体の色と背景の色が近似している状態からしない状態に変化した場合においても、より高い精度で色情報に基づく追尾動作に戻ることができる。上記のように構成する理由は、画像データ内の被写体の色情報が時間経過と伴に変化するので、記憶した色情報も変化させる必要があるためである。   As described above, by continuing the tracking operation based on the color information even during the tracking operation based on the contrast information, the digital camera 1 can be used even when the subject color and the background color are changed from the approximate state to the non-existing state. It is possible to return to the tracking operation based on the color information with higher accuracy. The reason for configuring as described above is that the color information of the subject in the image data changes with time, so the stored color information must also be changed.

<2.構成例(図1、2)>
本実施の形態のデジタルカメラ1の構成を説明する。図1は、本実施の形態に係るデジタルカメラ1の斜視図である。図2は、本実施の形態に係るデジタルカメラ1の構成を示すブロック図である。以下、構成の具体例を説明する。
<2. Configuration example (FIGS. 1 and 2)>
The configuration of the digital camera 1 of the present embodiment will be described. FIG. 1 is a perspective view of a digital camera 1 according to the present embodiment. FIG. 2 is a block diagram showing a configuration of the digital camera 1 according to the present embodiment. Hereinafter, a specific example of the configuration will be described.

光学系11は、被写体からの光学信号を集光してCCDイメージセンサー12上に被写体像を形成する。光学系11は、対物レンズ111とズームレンズ112とフォーカスレンズ113と絞り/シャッタ114とを含む。   The optical system 11 collects optical signals from the subject and forms a subject image on the CCD image sensor 12. The optical system 11 includes an objective lens 111, a zoom lens 112, a focus lens 113, and an aperture / shutter 114.

ズームレンズ112は、ズーム駆動部115によって駆動され、被写体像の写る範囲(画角)を調整する。すなわち、ズームレンズ112は、焦点距離を調整可能である。フォーカスレンズ113は、フォーカス駆動部116によって駆動され、ピントの調節を行なう。ズーム駆動部115は、ズームレンズ112を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、ズームレンズ112を駆動させる。フォーカス駆動部116は、フォーカスレンズ113を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成される。フォーカス駆動部116は、コントローラ17からの制御に応じて、フォーカスレンズ113を駆動させる。   The zoom lens 112 is driven by the zoom driving unit 115 and adjusts the range (view angle) in which the subject image is captured. That is, the zoom lens 112 can adjust the focal length. The focus lens 113 is driven by the focus drive unit 116 to adjust the focus. The zoom drive unit 115 includes a cam mechanism for moving the zoom lens 112 and an actuator for driving the cam mechanism, and drives the zoom lens 112 in accordance with control from the controller 17. The focus driving unit 116 includes a cam mechanism for moving the focus lens 113, an actuator for driving the cam mechanism, and the like. The focus driving unit 116 drives the focus lens 113 in accordance with control from the controller 17.

また、絞り/シャッタ114は、絞りとシャッタを兼用した部材である。絞り/シャッタ114は、絞り/シャッタ駆動部117によって駆動される。絞りは、5枚の羽根によって構成され、光学系11を通る光の量を調整するものである。また、シャッタは、開けたり閉じられたりして、CCDイメージセンサー12に当たる光の量を時間的に調整するものである。絞り/シャッタ駆動部117は、カム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、絞り/シャッタを駆動する。   The diaphragm / shutter 114 is a member that serves as both a diaphragm and a shutter. The aperture / shutter 114 is driven by an aperture / shutter driver 117. The stop is composed of five blades and adjusts the amount of light passing through the optical system 11. The shutter is opened and closed to adjust the amount of light hitting the CCD image sensor 12 with time. The aperture / shutter drive unit 117 includes a cam mechanism and an actuator for driving the cam mechanism, and drives the aperture / shutter in accordance with control from the controller 17.

CCDイメージセンサー12は、光学系11によって形成された被写体像を撮像して画像データを生成する。CCDイメージセンサー12は、タイミングジェネレータ121から供給されるパルス信号に基づいて、被写体像を撮像し、画像データを生成する。タイミングジェネレータ121は、LSIなどの集積回路によって構成され、CCDイメージセンサー12にパルス信号を供給する。ここでタイミングジェネレータ121がCCDイメージセンサー12に供給するパルス信号は、例えば、1秒間に30回のフレーム読み出しパルス信号を供給する。これによって、CCDイメージセンサー12では、30分の1秒ごとのフレームの画像データを取得できるようになる。なお、CCDイメージセンサー12には、原色フィルターが設けられ、RGB信号が生成されているものとする。   The CCD image sensor 12 captures a subject image formed by the optical system 11 and generates image data. The CCD image sensor 12 captures a subject image based on the pulse signal supplied from the timing generator 121 and generates image data. The timing generator 121 is configured by an integrated circuit such as an LSI and supplies a pulse signal to the CCD image sensor 12. Here, the pulse signal that the timing generator 121 supplies to the CCD image sensor 12 supplies, for example, 30 frame readout pulse signals per second. As a result, the CCD image sensor 12 can acquire image data of a frame every 1/30 second. The CCD image sensor 12 is provided with a primary color filter, and an RGB signal is generated.

ADコンバータ13は、CCDイメージセンサー12で生成された画像データをデジタルデータに変換する。   The AD converter 13 converts the image data generated by the CCD image sensor 12 into digital data.

画像処理部14は、ADコンバータ13でデジタルデータに変換された画像データに対して所定の処理を施す。所定の処理としては、ガンマ変換、YC変換、電子ズーム処理、圧縮処理、伸張処理などが考えられるが、これに限定されるものではない。   The image processing unit 14 performs predetermined processing on the image data converted into digital data by the AD converter 13. As the predetermined processing, gamma conversion, YC conversion, electronic zoom processing, compression processing, expansion processing, and the like can be considered, but are not limited thereto.

画像処理部14は、ADコンバータ13から出力された画像データに対して、ホワイトバランスのゲイン乗算処理とガンマ変換を行なった後、YC変換を行なう。画像処理部14は、YC変換によって、Y信号と、Cb信号と、Cr信号とを含む画像データを生成する。   The image processing unit 14 performs YC conversion after performing white balance gain multiplication processing and gamma conversion on the image data output from the AD converter 13. The image processing unit 14 generates image data including a Y signal, a Cb signal, and a Cr signal by YC conversion.

そして画像処理部14は、YC変換した画像データを用いて、一部に設定される領域内の色情報を取得する。同様に、画像処理部14は、YC変換した画像データを用いて、一部に設定される領域内のコントラスト情報を取得する。これらの情報を用いて、画像処理部14は追尾動作を実現している。   Then, the image processing unit 14 acquires color information in a region set in a part using the image data subjected to YC conversion. Similarly, the image processing unit 14 acquires contrast information in a region set in a part using the image data subjected to YC conversion. Using these pieces of information, the image processing unit 14 realizes a tracking operation.

画像処理部14の処理を具体的に説明する。まず、色情報を取得する処理を説明する。画像処理部14は、領域内の画像データを取得する。画像処理部14は、領域内の各画素の色相を求める。色相は、0〜359度の位相角で表すことができる。本実施の形態では、赤色を0度に対応させている。   The processing of the image processing unit 14 will be specifically described. First, a process for acquiring color information will be described. The image processing unit 14 acquires image data in the area. The image processing unit 14 obtains the hue of each pixel in the area. The hue can be represented by a phase angle of 0 to 359 degrees. In the present embodiment, red is associated with 0 degrees.

このようにして求められた位相を利用して、本実施の形態では、色情報を記録できるようにしている。なお、本実施の形態では、0〜359度の位相角を40分割して、分割された各単位に、各画素を割り当てている。そのため、画像処理部14は、分割された各単位(色単位「0」〜「39」、例えば、色単位「0」は0〜8度に対応)に対応する画素が、どれだけ存在するかを計算して、色情報としてバッファメモリ15に記録している。例えば、色情報は、色単位「0」が100画素、色単位「1」が48画素、色単位「2」が23画素、・・・のような情報である。このように計算された色情報を、ヒストグラムで表現すると、例えば、図8のようになる。図8の横軸は、分割した各単位(色単位)を示し、縦軸は、画素数を示す。   In this embodiment, color information can be recorded using the phase thus obtained. In the present embodiment, the phase angle of 0 to 359 degrees is divided into 40, and each pixel is assigned to each divided unit. Therefore, the image processing unit 14 determines how many pixels corresponding to each divided unit (color units “0” to “39”, for example, color unit “0” corresponds to 0 to 8 degrees). And is recorded in the buffer memory 15 as color information. For example, the color information is information such that the color unit “0” is 100 pixels, the color unit “1” is 48 pixels, the color unit “2” is 23 pixels,. When the color information calculated in this way is represented by a histogram, for example, it is as shown in FIG. The horizontal axis of FIG. 8 indicates each divided unit (color unit), and the vertical axis indicates the number of pixels.

次に、コントラスト情報を取得する画像処理部14の処理を説明する。画像処理部14は、領域内の画像データを取得する。画像処理部14は、領域内の高周波成分を計算する。具体的に画像処理部14は、領域内の画像データに対して、DCT(離散的コサイン変換)を行う。これによって、画像処理部14は、領域内の画像データについて、高周波成分と低周波成分の割合を数値化したコントラスト情報を取得する。画像処理部14は、取得したコントラスト情報を、バッファメモリ15に記憶する。   Next, processing of the image processing unit 14 that acquires contrast information will be described. The image processing unit 14 acquires image data in the area. The image processing unit 14 calculates a high frequency component in the region. Specifically, the image processing unit 14 performs DCT (discrete cosine transform) on the image data in the region. Thereby, the image processing unit 14 acquires contrast information obtained by quantifying the ratio of the high frequency component and the low frequency component for the image data in the region. The image processing unit 14 stores the acquired contrast information in the buffer memory 15.

バッファメモリ15は、画像処理部14で画像処理を行う際、および、コントローラ17で制御処理を行う際に、ワークメモリとして作用する。バッファメモリ15は、例えば、DRAMなどで実現可能である。   The buffer memory 15 functions as a work memory when the image processing unit 14 performs image processing and when the controller 17 performs control processing. The buffer memory 15 can be realized by, for example, a DRAM.

フラッシュメモリ16は、内蔵メモリとして用いられる。フラッシュメモリ16は、画像処理された画像データの他に、コントローラ17の制御のためのプログラムや設定値などを記憶可能である。   The flash memory 16 is used as a built-in memory. The flash memory 16 can store programs for controlling the controller 17 and setting values in addition to the image processed image data.

コントローラ17は、デジタルカメラ1の各部を制御する。コントローラ17は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現しても良い。   The controller 17 controls each part of the digital camera 1. The controller 17 may be realized by a microcomputer or a hard-wired circuit.

カードスロット18は、メモリカード19を着脱するためのスロットである。カードスロット18は、メモリカード19を制御する機能を有するようにしてもよい。メモリカード19は、フラッシュメモリなどを内蔵する。メモリカード19は、画像処理部14によって画像処理された画像データを格納可能である。   The card slot 18 is a slot for inserting and removing the memory card 19. The card slot 18 may have a function of controlling the memory card 19. The memory card 19 includes a flash memory or the like. The memory card 19 can store the image data image-processed by the image processing unit 14.

液晶モニタ20は、画像データおよびデジタルカメラ1の各種設定等を表示する。   The liquid crystal monitor 20 displays image data and various settings of the digital camera 1.

操作部21は、デジタルカメラ1の外装に取り付けられた操作部材の総称である。操作部21としては、十字キーや押下釦等が考えられる。   The operation unit 21 is a general term for operation members attached to the exterior of the digital camera 1. The operation unit 21 may be a cross key or a push button.

本実施の形態では、操作部の一つの押下釦として、シャッタスイッチ211がある。シャッタスイッチ211は、デジタルカメラ1の上面に設けられるものであり、使用者からの半押しおよび全押しを検知できるようにしたものである。使用者によって半押し又は全押し操作が行なわれると、シャッタスイッチ211は操作に応じた操作信号をコントローラ17に出力する。   In the present embodiment, there is a shutter switch 211 as one push button of the operation unit. The shutter switch 211 is provided on the upper surface of the digital camera 1 and can detect half-press and full-press from the user. When a half-press or full-press operation is performed by the user, the shutter switch 211 outputs an operation signal corresponding to the operation to the controller 17.

また本実施の形態では、操作部21の一つの部材としてズームレバー212が備えられている。ズームレバー212は、使用者からの操作に応じて、デジタルカメラ1の焦点距離を変更するものである。ズームレバー212は、使用者に操作されると、操作信号をコントローラ17に出力する。これによって、コントローラ17は、ズームレンズ112に対して焦点距離を変更するための制御信号を送ることができる。   In the present embodiment, a zoom lever 212 is provided as one member of the operation unit 21. The zoom lever 212 changes the focal length of the digital camera 1 in accordance with an operation from the user. The zoom lever 212 outputs an operation signal to the controller 17 when operated by the user. As a result, the controller 17 can send a control signal for changing the focal length to the zoom lens 112.

<3.動作例(図9〜10)>
本実施の形態に係るデジタルカメラ1の動作例を説明する。図9〜10は、デジタルカメラ1の動作例を示すフローチャートである。以下、具体的に説明する。
<3. Example of operation (FIGS. 9 to 10)>
An operation example of the digital camera 1 according to the present embodiment will be described. 9 to 10 are flowcharts illustrating an operation example of the digital camera 1. This will be specifically described below.

<3.1 ユーザによる追尾領域の設定動作(図9)>
まず、CCDイメージセンサー12で生成される画像データに対して、ユーザの指示により、追尾領域を設定する動作(図9)を説明する。コントローラ17は、タイミングジェネレータ121を制御して、CCDイメージセンサー12に画像データを生成させる。画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(S1)。コントローラ17は、操作部21(図示しない十字キー及び決定ボタン)が操作されて、追尾すべき被写体が決定されたか否かを判別する(S2)。より詳しくは、コントローラ17は、液晶モニタ20の中央に、被写体を決定するため決定領域を表示する。そして、コントローラ17は、ユーザからの十字キーに対する操作に応じて、決定領域を移動させる。そして、コントローラ17は、ユーザからの決定キーに対する操作に応じて、決定領域の位置に存在する被写体を追尾すべき被写体として決定する。つまり、ユーザは、十字キーの操作によって決定領域を移動し、決定キーの操作によって決定領域内に存在する被写体を追尾すべき被写体として決定する。
<3.1 Tracking Area Setting Operation by User (FIG. 9)>
First, an operation (FIG. 9) for setting a tracking area in response to a user instruction for image data generated by the CCD image sensor 12 will be described. The controller 17 controls the timing generator 121 to cause the CCD image sensor 12 to generate image data. The image processing unit 14 acquires the image data generated by the CCD image sensor 12 (S1). The controller 17 determines whether or not the subject to be tracked has been determined by operating the operation unit 21 (a cross key and a determination button (not shown)) (S2). More specifically, the controller 17 displays a determination area for determining a subject in the center of the liquid crystal monitor 20. Then, the controller 17 moves the determination area in accordance with an operation on the cross key from the user. Then, the controller 17 determines the subject existing at the position of the determination region as the subject to be tracked in accordance with the operation on the determination key from the user. That is, the user moves the determination area by operating the cross key, and determines the subject existing in the determination area as the subject to be tracked by operating the determination key.

コントローラ17は、ステップS2で追尾すべき被写体が決定されていなければ、ステップS1の動作を繰り返す。この際、画像処理部14は、取得した画像データを表示画面として液晶モニタ20に表示させる(S9)。一方、コントローラ17は、ステップS2で追尾すべき被写体が決定された場合、その被写体に対して追尾領域を設定するよう画像処理部14を制御する(S3)。例えば、画像処理部14は、図3のように、画像データT1に対して追尾領域を設定する。この際画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する(S3)。例えば、画像処理部14は、追尾領域内の左上端の画素の位置(m,n)をバッファメモリ15に記憶する。そして、コントローラ17は、画像処理部14を制御して、追尾領域内の色情報をバッファメモリ15に記憶させる(S4)。また、コントローラ17は、画像処理部14を制御して、追尾領域内のコントラスト情報をバッファメモリ15に記憶させる(S5)。コントローラ17は、画像処理部14を制御して、追尾領域が設定された画像データを表示画面として液晶モニタ20に表示させる(S6)。   If the subject to be tracked is not determined in step S2, the controller 17 repeats the operation in step S1. At this time, the image processing unit 14 displays the acquired image data on the liquid crystal monitor 20 as a display screen (S9). On the other hand, when the subject to be tracked is determined in step S2, the controller 17 controls the image processing unit 14 to set a tracking area for the subject (S3). For example, the image processing unit 14 sets a tracking area for the image data T1 as shown in FIG. At this time, the image processing unit 14 stores the position of the screen (first position information) in which the tracking area is set in the buffer memory 15 (S3). For example, the image processing unit 14 stores the position (m, n) of the upper left pixel in the tracking area in the buffer memory 15. Then, the controller 17 controls the image processing unit 14 to store the color information in the tracking area in the buffer memory 15 (S4). Further, the controller 17 controls the image processing unit 14 to store the contrast information in the tracking area in the buffer memory 15 (S5). The controller 17 controls the image processing unit 14 to display the image data in which the tracking area is set on the liquid crystal monitor 20 as a display screen (S6).

この後、コントローラ17は、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(S7)。そしてコントローラ17は、画像処理部14を制御して、図10の追尾継続動作を行なう。なお、コンティニュアスAFの動作は、一般的な動作であるため、説明は省略する。   Thereafter, the controller 17 performs a continuous AF operation on the image data in the tracking area (S7). Then, the controller 17 controls the image processing unit 14 to perform the tracking continuation operation of FIG. Note that the operation of the continuous AF is a general operation and will not be described.

<3.2 追尾継続動作(図10)>
次に、ユーザ操作によって追尾領域が設定された後の追尾継続動作(図10)を説明する。図10の動作については、コントローラ17の制御に基づく画像処理部14の動作であるため、画像処理部14を主体にして動作を説明する。
<3.2 Tracking operation (Fig. 10)>
Next, the tracking continuation operation (FIG. 10) after the tracking area is set by the user operation will be described. Since the operation in FIG. 10 is the operation of the image processing unit 14 based on the control of the controller 17, the operation will be described with the image processing unit 14 as a main component.

以下では、図10の動作例について、図3及び図4に基づいて説明する。図3において、画像データT1〜T5は、CCDイメージセンサー12で順次生成された画像データを示している。また、図3において、画像データT1は、追尾領域設定時の画像データを示し、画像データT2は、被写領域内の色と背景の色が近似しない場合の画像データを示し、画像データT3は、被写領域内の色と背景の色が近似した場合の画像データを示している。図4において、画像データT4は、被写領域内の色と背景の色が近似した場合の画像データを示し、画像データT5は、被写領域内の色と背景の色が近似しない場合の画像データを示している。この図3から図4にかけての画像データの遷移における各動作例を一つ一つ説明する。   Hereinafter, the operation example of FIG. 10 will be described with reference to FIGS. 3 and 4. In FIG. 3, image data T <b> 1 to T <b> 5 indicate image data sequentially generated by the CCD image sensor 12. In FIG. 3, image data T1 indicates image data at the time of setting the tracking area, image data T2 indicates image data when the color in the captured area and the background color are not approximate, and image data T3 is The image data in the case where the color in the subject area approximates the color of the background is shown. In FIG. 4, image data T4 indicates image data when the color in the captured area approximates the background color, and image data T5 indicates an image when the color in the captured area does not approximate the background color. Data are shown. Each operation example in the transition of the image data from FIG. 3 to FIG. 4 will be described one by one.

<3.2.1 画像データT2に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT1で得られた第1の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.1 Example of Operation when Setting Tracking Area for Image Data T2>
In this operation example, the buffer memory 15 stores first position information, color information, and contrast information obtained from the image data T1. This will be specifically described below.

画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて判別領域を設定する。   The image processing unit 14 acquires the image data generated by the CCD image sensor 12 (V1). Next, the image processing unit 14 sets a discrimination area in the image data acquired in step V1 based on the position information stored in the buffer memory 15 (V2). At this time, since the first position information is stored in the buffer memory 15, the image processing unit 14 sets a determination area based on the first position information.

次に画像処理部14は、判別領域内外の色情報が近似しているか否かを判別する(V3)。
ステップV3の具体的動作を以下に説明する。まず、画像処理部14は、判別領域内の色情報を取得する。また、画像処理部14は、判別領域外に設けられる背景領域内の色情報を取得する。本実施の形態では、画像処理部14は、図7のような位置に背景領域を設定して、判別領域の左右に設けられた2つの背景領域内から色情報を取得する。画像処理部14は、取得された判別領域内の色情報と背景領域内の色情報を比較し、少なくとも1つ以上が近似するか否かを判別する。つまり、本実施の形態では、画像処理部14は、少なくとも1つ以上が近似した場合、判別領域内外が近似したと判断する。
Next, the image processing unit 14 determines whether the color information inside and outside the determination region is approximate (V3).
The specific operation of step V3 will be described below. First, the image processing unit 14 acquires color information in the discrimination area. In addition, the image processing unit 14 acquires color information in the background area provided outside the determination area. In the present embodiment, the image processing unit 14 sets a background area at a position as shown in FIG. 7 and acquires color information from the two background areas provided on the left and right sides of the determination area. The image processing unit 14 compares the color information in the acquired determination area and the color information in the background area, and determines whether at least one is approximate. In other words, in the present embodiment, the image processing unit 14 determines that the inside and outside of the determination region are approximated when at least one or more approximates.

ここで本実施の形態において、判別領域と背景領域の色情報が近似しているとは、色情報うち、分解した各単位に含まれる画素数の一番の多い単位が一致することをいう。例えば、判別領域の色情報において、色単位「1」の画素数が最も多い場合であって、背景領域の色情報において、色単位「1」の画素数が最も多い場合、判別領域と背景領域は近似すると判断できる。一方、判別領域の色情報において、色単位「1」の画素数が最も多い場合であって、背景領域の色情報において、色単位「5」の画素数が最も多い場合、判別領域と背景領域は近似しないと判断できる。これは一例であるが、画像処理部14は、このようにして判別領域と背景領域内の色情報の近似を判断できる。例えば、図7では、左の図が近似しない場合の例を示し、右の図が近似した場合の例を示している。   Here, in the present embodiment, the fact that the color information of the discrimination area and the background area is approximate means that the unit having the largest number of pixels included in each unit of the color information matches among the color information. For example, when the number of pixels of the color unit “1” is the largest in the color information of the discrimination area and the number of pixels of the color unit “1” is the largest in the color information of the background area, the discrimination area and the background area Can be determined to be approximate. On the other hand, when the number of pixels of the color unit “1” is the largest in the color information of the discrimination area and the number of pixels of the color unit “5” is the largest in the color information of the background area, the discrimination area and the background area Can be determined not to approximate. This is an example, but the image processing unit 14 can determine the approximation of the color information in the determination area and the background area in this way. For example, FIG. 7 shows an example when the left diagram is not approximated, and shows an example when the right diagram is approximated.

図10の説明に戻って、画像処理部14は、ステップV3において判別領域内外の色情報が近似しないと判別された場合(例えば、図3の画像データT2のような画像の場合)、色情報に基づいて画像データに追尾領域を設定する(V4)。具体的に、画像処理部14は、図5のような位置に、バッファメモリ15に記憶された位置情報に基づいて、探索領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて探索領域を設定する。   Returning to the description of FIG. 10, when it is determined in step V3 that the color information inside and outside the determination area is not approximate (for example, in the case of an image like the image data T2 in FIG. 3), the color information Based on the above, a tracking area is set in the image data (V4). Specifically, the image processing unit 14 sets a search area at a position as shown in FIG. 5 based on the position information stored in the buffer memory 15. At this time, since the first position information is stored in the buffer memory 15 in the image processing unit 14, a search area is set based on the first position information.

そして、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて、探索領域内の最も色情報が近い領域を探索する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図3の画像データT2のように追尾領域が設定される。   Then, based on the color information stored in the buffer memory 15, the image processing unit 14 searches for an area having the closest color information in the search area. The image processing unit 14 sets the searched closest area as the tracking area in the image data. For example, a tracking area is set like the image data T2 in FIG.

ステップV4において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。   In step V <b> 4, the image processing unit 14 stores the position (first position information) of the screen where the tracking area is set in the buffer memory 15. That is, the first position information stored in the buffer memory 15 is updated.

そして、画像処理部14は、設定した追尾領域内の色情報をバッファメモリ15に記憶する(V5)。また、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V6)。色情報及びコントラスト情報も上記と同様にバッファメモリ15の情報が更新される。なお、バッファメモリ15には、第2の位置情報は記憶されていないため、ステップV13の動作は実施されない。   Then, the image processing unit 14 stores the color information in the set tracking area in the buffer memory 15 (V5). Further, the image processing unit 14 stores the contrast information in the set tracking area in the buffer memory 15 (V6). The color information and contrast information are also updated in the buffer memory 15 as described above. Note that since the second position information is not stored in the buffer memory 15, the operation of Step V13 is not performed.

そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。   The image processing unit 14 displays the image data including the tracking area on the liquid crystal monitor 20 as a display screen (V11). Thereafter, the controller 17 executes a continuous AF operation on the image data in the tracking area (V12).

<3.2.2 画像データT3に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT2で得られた第1の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.2 Example of Operation when Setting Tracking Area for Image Data T3>
In this operation example, the buffer memory 15 stores first position information, color information, and contrast information obtained from the image data T2. This will be specifically described below.

画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて判別領域を設定する。   The image processing unit 14 acquires the image data generated by the CCD image sensor 12 (V1). Next, the image processing unit 14 sets a discrimination area in the image data acquired in step V1 based on the position information stored in the buffer memory 15 (V2). At this time, since the first position information is stored in the buffer memory 15, the image processing unit 14 sets a determination area based on the first position information.

画像処理部14は、ステップV3において画像処理部14からの情報を基に判別領域内外の色情報が近似すると判別した場合(例えば、図3の画像データT3のような画像の場合)、コントラスト情報に基づいて画像データに追尾領域を設定する(V7)。例えば、画像処理部14は、図6のような位置に、バッファメモリ15に記憶された位置情報に基づいて、補助領域(A〜E)を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて補助領域を設定する。なお、過去の追尾領域と同じ位置に設定された領域が補助領域Eである。   When the image processing unit 14 determines in step V3 that the color information inside and outside the determination region is approximate based on the information from the image processing unit 14 (for example, in the case of an image such as the image data T3 in FIG. 3), the contrast information Based on the above, a tracking area is set in the image data (V7). For example, the image processing unit 14 sets auxiliary areas (A to E) at positions as shown in FIG. 6 based on the position information stored in the buffer memory 15. At this time, since the first position information is stored in the buffer memory 15 in the image processing unit 14, an auxiliary area is set based on the first position information. The area set at the same position as the past tracking area is the auxiliary area E.

そして、画像処理部14は、バッファメモリ15に記憶されたコントラスト情報に基づいて、補助領域内の最もコントラストが近い領域を選択する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図3の画像データT3の上図のように追尾領域が設定される。   Then, the image processing unit 14 selects an area having the closest contrast in the auxiliary area based on the contrast information stored in the buffer memory 15. The image processing unit 14 sets the searched closest area as the tracking area in the image data. For example, the tracking area is set as shown in the upper diagram of the image data T3 in FIG.

また、ステップV7において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。   In step V <b> 7, the image processing unit 14 stores the position of the screen (first position information) where the tracking area is set in the buffer memory 15. That is, the first position information stored in the buffer memory 15 is updated.

そして、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V8)。つまり、バッファメモリ15に記憶されたコントラスト情報が更新される。   Then, the image processing unit 14 stores the contrast information in the set tracking area in the buffer memory 15 (V8). That is, the contrast information stored in the buffer memory 15 is updated.

次に、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて画像データから仮追尾領域を探索する(V9)。例えば、図3の画像データT3の下図のように仮追尾領域が探索される。この場合、バッファメモリ15には第1の位置情報が記憶されているので、仮追尾領域を探索するための探索領域は、バッファメモリ15に記憶された第1の位置情報を利用する。   Next, the image processing unit 14 searches for a temporary tracking area from the image data based on the color information stored in the buffer memory 15 (V9). For example, the temporary tracking area is searched as shown in the lower diagram of the image data T3 in FIG. In this case, since the first position information is stored in the buffer memory 15, the first position information stored in the buffer memory 15 is used as the search area for searching for the temporary tracking area.

また、ステップV9において、画像処理部14は、仮追尾領域が探索された画面の位置(第2の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に第2の位置情報が新たに記憶される。   In step V <b> 9, the image processing unit 14 stores the position of the screen (second position information) where the temporary tracking area is searched for in the buffer memory 15. That is, the second position information is newly stored in the buffer memory 15.

そして、画像処理部14は、設定した仮追尾領域内の色情報をバッファメモリ15に記憶する(V10)。つまり、バッファメモリ15に記憶された色情報が更新される。   Then, the image processing unit 14 stores the color information in the set temporary tracking area in the buffer memory 15 (V10). That is, the color information stored in the buffer memory 15 is updated.

そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。   The image processing unit 14 displays the image data including the tracking area on the liquid crystal monitor 20 as a display screen (V11). Thereafter, the controller 17 executes a continuous AF operation on the image data in the tracking area (V12).

<3.2.3 画像データT4に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT3で得られた第1の位置情報と第2の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.3 Example of Operation when Setting Tracking Area for Image Data T4>
In this operation example, the buffer memory 15 stores first position information, second position information, color information, and contrast information obtained from the image data T3. This will be specifically described below.

画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、判別領域を設定する。このように構成する理由は、コントラスト情報に基づく追尾を行なっている際においても、色情報に基づく追尾を行なわせるためである。つまり、画像データT2からの色情報の追尾を継続するためである。   The image processing unit 14 acquires the image data generated by the CCD image sensor 12 (V1). Next, the image processing unit 14 sets a discrimination area in the image data acquired in step V1 based on the position information stored in the buffer memory 15 (V2). At this time, since the first position information and the second position information are stored in the buffer memory 15, the image processing unit 14 sets the determination area using the second position information. The reason for configuring in this way is to perform tracking based on color information even when tracking based on contrast information is performed. That is, the tracking of the color information from the image data T2 is continued.

画像処理部14は、ステップV3において画像処理部14からの情報を基に判別領域内外の色情報が近似すると判別した場合(例えば、図4の画像データT4のような画像の場合)、コントラスト情報に基づいて画像データに追尾領域を設定する(V7)。具体的に、画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、補助領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第1の位置情報を利用して、補助領域を設定する。これは、画像データT3のコントラスト情報に基づく追尾を継続するためである。   If the image processing unit 14 determines in step V3 that the color information inside and outside the determination region is approximate based on the information from the image processing unit 14 (for example, an image such as the image data T4 in FIG. 4), the contrast information Based on the above, a tracking area is set in the image data (V7). Specifically, the image processing unit 14 sets an auxiliary area based on the position information stored in the buffer memory 15. At this time, since the first position information and the second position information are stored in the buffer memory 15 in the image processing unit 14, the auxiliary area is set using the first position information. This is to continue tracking based on the contrast information of the image data T3.

そして、画像処理部14は、バッファメモリ15に記憶されたコントラスト情報に基づいて、補助領域内の最もコントラストが近い領域を選択する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図4の画像データT4の上図のように追尾領域が設定される。   Then, the image processing unit 14 selects an area having the closest contrast in the auxiliary area based on the contrast information stored in the buffer memory 15. The image processing unit 14 sets the searched closest area as the tracking area in the image data. For example, the tracking area is set as shown in the upper diagram of the image data T4 in FIG.

また、ステップV7において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。   In step V <b> 7, the image processing unit 14 stores the position of the screen (first position information) where the tracking area is set in the buffer memory 15. That is, the first position information stored in the buffer memory 15 is updated.

そして、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V8)。つまり、バッファメモリ15に記憶されたコントラスト情報が更新される。   Then, the image processing unit 14 stores the contrast information in the set tracking area in the buffer memory 15 (V8). That is, the contrast information stored in the buffer memory 15 is updated.

次に、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて画像データから仮追尾領域を探索する(V9)。例えば、図3の画像データT4の下図のように仮追尾領域が探索される。この場合、バッファメモリ15には第1の位置情報及び第2の位置情報が記憶されているので、仮追尾領域を探索するための探索領域は、第2の位置情報を利用する。これは、画像データT3の色情報に基づく追尾を継続するためである。   Next, the image processing unit 14 searches for a temporary tracking area from the image data based on the color information stored in the buffer memory 15 (V9). For example, the temporary tracking area is searched as shown in the lower diagram of the image data T4 in FIG. In this case, since the first position information and the second position information are stored in the buffer memory 15, the second position information is used as the search area for searching the temporary tracking area. This is to continue tracking based on the color information of the image data T3.

また、ステップV9において、画像処理部14は、仮追尾領域が探索された画面の位置(第2の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第2の位置情報が更新される。   In step V <b> 9, the image processing unit 14 stores the position of the screen (second position information) where the temporary tracking area is searched for in the buffer memory 15. That is, the second position information stored in the buffer memory 15 is updated.

そして、画像処理部14は、設定した仮追尾領域内の色情報をバッファメモリ15に記憶する(V10)。つまり、バッファメモリ15に記憶された色情報が更新される。   Then, the image processing unit 14 stores the color information in the set temporary tracking area in the buffer memory 15 (V10). That is, the color information stored in the buffer memory 15 is updated.

そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。   The image processing unit 14 displays the image data including the tracking area on the liquid crystal monitor 20 as a display screen (V11). Thereafter, the controller 17 executes a continuous AF operation on the image data in the tracking area (V12).

<3.2.4 画像データT5に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT4で得られた第1の位置情報と第2の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.4 Operation Example when Setting Tracking Area for Image Data T5>
In this operation example, the buffer memory 15 stores first position information, second position information, color information, and contrast information obtained from the image data T4. This will be specifically described below.

画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、判別領域を設定する。このように構成する理由は、コントラスト情報に基づく追尾を行なっている際においても、色情報に基づく追尾を行なわせるためである。つまり、画像データT2からの色情報の追尾を継続するためである。   The image processing unit 14 acquires the image data generated by the CCD image sensor 12 (V1). Next, the image processing unit 14 sets a discrimination area in the image data acquired in step V1 based on the position information stored in the buffer memory 15 (V2). At this time, since the first position information and the second position information are stored in the buffer memory 15, the image processing unit 14 sets the determination area using the second position information. The reason for configuring in this way is to perform tracking based on color information even when tracking based on contrast information is performed. That is, the tracking of the color information from the image data T2 is continued.

次に画像処理部14は、判別領域内外の色情報が近似しているか否かを判別する(V3)。   Next, the image processing unit 14 determines whether the color information inside and outside the determination region is approximate (V3).

画像処理部14は、ステップV3において判別領域内外の色情報が近似しないと判別された場合(例えば、図4の画像データT5のような画像の場合)、色情報に基づいて画像データに追尾領域を設定する(V4)。具体的に、画像処理部14は、図5のように、バッファメモリ15に記憶された位置情報に基づいて、探索領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、探索領域を設定する。このように構成する理由は、画像データT2からの色情報に基づく追尾動作をより高い精度で継続させるためのである。   When it is determined in step V3 that the color information inside and outside the determination area is not approximate (for example, in the case of an image such as the image data T5 in FIG. 4), the image processing unit 14 adds the tracking area to the image data based on the color information. Is set (V4). Specifically, the image processing unit 14 sets a search area based on position information stored in the buffer memory 15 as shown in FIG. At this time, since the first position information and the second position information are stored in the buffer memory 15 in the image processing unit 14, the search area is set using the second position information. The reason for configuring in this way is to continue the tracking operation based on the color information from the image data T2 with higher accuracy.

また、ステップV4において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。   In step V <b> 4, the image processing unit 14 stores the position of the screen (first position information) where the tracking area is set in the buffer memory 15. That is, the first position information stored in the buffer memory 15 is updated.

そして、画像処理部14は、設定した追尾領域内の色情報をバッファメモリ15に記憶する(V5)。また、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V6)。つまり、バッファメモリ15に記憶された色情報及びコントラスト情報が更新される。そして、画像処理部14は、バッファメモリ15に記憶された第2の位置情報を破棄する(V13)。   Then, the image processing unit 14 stores the color information in the set tracking area in the buffer memory 15 (V5). Further, the image processing unit 14 stores the contrast information in the set tracking area in the buffer memory 15 (V6). That is, the color information and contrast information stored in the buffer memory 15 are updated. Then, the image processing unit 14 discards the second position information stored in the buffer memory 15 (V13).

そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。   The image processing unit 14 displays the image data including the tracking area on the liquid crystal monitor 20 as a display screen (V11). Thereafter, the controller 17 executes a continuous AF operation on the image data in the tracking area (V12).

このように上記4つの動作の何れかを実施することによって、本実施の形態では、追尾動作を、より高い精度で継続できるようにしている。   In this embodiment, the tracking operation can be continued with higher accuracy by performing any one of the above four operations.

<4.まとめ>
本実施の形態では、被写体像を撮像し、画像データを順次生成するCCDイメージセンサー12と、画像データの一部に設定される追尾領域の第1の位置情報、色情報及びコントラスト情報を記憶するバッファメモリ15と、追尾領域の第1の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する画像処理部14と、画像処理部14で近似しないと判別された場合、バッファメモリ15に記憶された色情報に基づいてCCDイメージセンサー12で生成される画像データに追尾領域を設定する画像処理部14と、画像処理部14で近似すると判別された場合、バッファメモリ15に記憶されたコントラスト情報に基づいてCCDイメージセンサー12で生成される画像データに追尾領域を設定する画像処理部14と、を備える。
<4. Summary>
In the present embodiment, a CCD image sensor 12 that captures a subject image and sequentially generates image data, and first position information, color information, and contrast information of a tracking area set in a part of the image data are stored. A determination area is set based on the buffer memory 15 and the first position information of the tracking area, and the image processing section 14 that determines whether or not the color information inside and outside the determination area approximates, and the image processing section 14 does not approximate. Is determined based on the color information stored in the buffer memory 15, the image processing unit 14 that sets the tracking area in the image data generated by the CCD image sensor 12, and the image processing unit 14 determine that the approximation is performed. In this case, the image processing for setting the tracking area in the image data generated by the CCD image sensor 12 based on the contrast information stored in the buffer memory 15. Comprises a section 14, the.

このようにすれば、被写体に対してより高い精度で追尾を継続できる。   In this way, tracking can be continued with higher accuracy for the subject.

また、好ましくは、画像処理部14は、近似すると判別した場合、コントラスト情報に基づき画像データに追尾領域を設定すると共に、色情報に基づき画像データから仮追尾領域を探索し、バッファメモリ15は、設定された追尾領域のコントラスト情報と探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する。   Preferably, when it is determined that the image processing unit 14 approximates, the image processing unit 14 sets a tracking area in the image data based on the contrast information, searches for the temporary tracking area from the image data based on the color information, and the buffer memory 15 The contrast information of the set tracking area and the color information of the searched temporary tracking area are stored as information for setting the tracking area for new image data.

このようにすれば、被写体に対してより高い精度で追尾を継続できる。
(他の実施の形態)
本発明の実施の形態として、上記実施の形態を例示した。しかし、本発明は、上記実施の形態に限定されず、他の実施の形態においても実現可能である。そこで、本発明の他の実施の形態を以下まとめて説明する。
In this way, tracking can be continued with higher accuracy for the subject.
(Other embodiments)
The above embodiment has been exemplified as an embodiment of the present invention. However, the present invention is not limited to the above embodiment, and can be implemented in other embodiments. Therefore, other embodiments of the present invention will be described collectively below.

本実施の形態では、撮像素子として、CCDイメージセンサー12を用いた。しかし、これに限られず、CMOSイメージセンサーを用いてもよい。このように構成すれば、装置全体の消費電力を抑えることが可能になる。   In the present embodiment, the CCD image sensor 12 is used as the imaging device. However, the present invention is not limited to this, and a CMOS image sensor may be used. If comprised in this way, it will become possible to suppress the power consumption of the whole apparatus.

本実施の形態では、判別領域の内外が近似するか否かを判別する際、ステップV3の動作例を説明した。しかし、これに限られず、被写体と背景の色情報が近似しているか否かを判別できるものであれば、どのような構成であってもかまわない。   In the present embodiment, the operation example of step V3 has been described when determining whether the inside and outside of the determination area are approximate. However, the present invention is not limited to this, and any configuration may be used as long as it can determine whether or not the color information of the subject and the background is approximate.

本実施の形態では、絞りとシャッタを兼用した絞り/シャッタ114を備えるようにしたが、これに限られず、絞りとシャッタとを別々に設けるようにしても良い。この場合、例えば、シャッタは光学系内に設けず、絞りだけを光学系に設けるとよい。この際、シャッタは、光学系とCCDイメージセンサーの間に設けるとよい。このようにすれば、シャッタを光学系と別の部材で設けたので、レンズ交換タイプのデジタルカメラにも適用できるようになる。   In the present embodiment, the diaphragm / shutter 114 that serves both as a diaphragm and a shutter is provided. However, the present invention is not limited to this, and the diaphragm and the shutter may be provided separately. In this case, for example, the shutter is not provided in the optical system, and only the diaphragm is provided in the optical system. At this time, the shutter may be provided between the optical system and the CCD image sensor. In this way, since the shutter is provided by a member different from the optical system, it can be applied to a lens exchange type digital camera.

本実施の形態では、表示部として液晶モニタ20を用いた。しかし、これ限られず、有機ELディスプレイを用いることもできる。   In the present embodiment, the liquid crystal monitor 20 is used as the display unit. However, the present invention is not limited to this, and an organic EL display can also be used.

本実施の形態では、色情報に基づく追尾動作として、探索領域を用いた動作を説明した。しかし、これに限られず、色情報に基づいて追尾動作を実現できるものであれば、どのような動作であってもかまわない。   In the present embodiment, the operation using the search area has been described as the tracking operation based on the color information. However, the present invention is not limited to this, and any operation is possible as long as the tracking operation can be realized based on the color information.

本実施の形態では、コントラスト情報に基づく追尾動作として、補助領域を用いた動作を説明した。しかし、これに限られず、コントラスト情報に基づいて追尾動作を実現できものであればどのような動作であってもかまわない。   In the present embodiment, the operation using the auxiliary region has been described as the tracking operation based on the contrast information. However, the present invention is not limited to this, and any operation may be used as long as the tracking operation can be realized based on the contrast information.

また、本実施の形態では、色情報の分離を、色相角を用いて行なうようにした。しかし、これに限られず、色情報の分離を、色相角と彩度を用いるようにしてもよい。この場合、本実施の形態では、位相角全体を40分割としているところを、他の実施の形態では、例えば、位相角全体を20分割し、彩度を2分割すればよい。また、色情報の分離を、彩度のみで行ってもよい。   In the present embodiment, the color information is separated using the hue angle. However, the present invention is not limited to this, and color information may be separated using the hue angle and saturation. In this case, in the present embodiment, the entire phase angle is divided into 40, but in the other embodiments, for example, the entire phase angle may be divided into 20 and the saturation may be divided into 2. Further, color information may be separated only by saturation.

また、本実施の形態において、判別領域と背景領域の色情報が近似しているか否かを、色情報うち、分解した各単位に含まれる画素数の一番の多い単位が一致するか否かで判断するようにした。しかし、これに限られず、画像処理部は、判別領域と背景領域間での各単位(色領域)の画素の一致度の合計を利用して判断するようにしてもよい。例えば、画像処理部は、判別領域と背景領域の間で、各単位(色領域)の画素数がどれだけ一致しているかを判断する。そして、画像処理部は、一致した画素数の合計が、所定閾値以上である場合、判別領域と背景領域が近似していると判断すればよい。   Also, in the present embodiment, whether the color information of the discrimination area and the background area is approximate or not is determined based on whether or not the unit with the largest number of pixels included in each decomposed unit of the color information matches. I decided to judge. However, the present invention is not limited to this, and the image processing unit may make the determination by using the total degree of coincidence of pixels of each unit (color region) between the discrimination region and the background region. For example, the image processing unit determines how much the number of pixels in each unit (color region) matches between the discrimination region and the background region. Then, the image processing unit may determine that the determination area and the background area are approximate when the total number of matched pixels is equal to or greater than a predetermined threshold.

また、本実施の形態では、図6に示すように、画像データに対して補助領域A〜Eを重ねて設定するようにした。しかし、これに限られず、画像データに対して複数の補助領域を重ならないようにして設定してもよい。また、本実施の形態では、画像データに対して5個の補助領域を設定するようにした。他の実施の形態では、これに限られず、いくつの補助領域を設定してもよい。例えば、9個や13個の補助領域を設けることができる。9個の補助領域を設けるようにすれば、5個よりも高い精度でコントラスト追尾が実現できる。また、13個の補助領域を設けるようにすれば、補助領域をさらに広い範囲に設定できるので、高速な被写体移動に対応できるようになる。   Further, in the present embodiment, as shown in FIG. 6, the auxiliary areas A to E are set so as to overlap the image data. However, the present invention is not limited to this, and a plurality of auxiliary areas may be set so as not to overlap with the image data. In this embodiment, five auxiliary areas are set for image data. In other embodiments, the present invention is not limited to this, and any number of auxiliary regions may be set. For example, nine or thirteen auxiliary regions can be provided. If nine auxiliary regions are provided, contrast tracking can be realized with higher accuracy than five. Further, if 13 auxiliary areas are provided, the auxiliary area can be set in a wider range, so that it is possible to cope with high-speed subject movement.

すなわち、本発明は上記実施の形態に限られず、様々な形態で実施可能である。   That is, the present invention is not limited to the above embodiment, and can be implemented in various forms.

本発明は、デジタルスチルカメラ、デジタルビデオカメラ、カメラ付き携帯電話等に適用することが可能である。   The present invention can be applied to a digital still camera, a digital video camera, a camera-equipped mobile phone, and the like.

1 デジタルカメラ
11 光学系
111 対物レンズ
112 ズームレンズ
113 フォーカスレンズ
114 絞り/シャッタ
115 ズーム駆動部
116 フォーカス駆動部
117 絞り/シャッタ駆動部
12 CCDイメージセンサー
121 タイミングジェネレータ
13 ADコンバータ
14 画像処理部
15 バッファメモリ
16 フラッシュメモリ
17 コントローラ
20 液晶モニタ
21 操作部
DESCRIPTION OF SYMBOLS 1 Digital camera 11 Optical system 111 Objective lens 112 Zoom lens 113 Focus lens 114 Aperture / shutter 115 Zoom drive part 116 Focus drive part 117 Aperture / shutter drive part 12 CCD image sensor 121 Timing generator 13 AD converter 14 Image processing part 15 Buffer memory 16 Flash memory 17 Controller 20 LCD monitor 21 Operation unit

Claims (3)

被写体像を撮像し、画像データを順次生成する撮像手段と、
前記画像データの一部に設定される追尾領域の位置情報、色情報及びコントラスト情報を記憶する記憶手段と、
前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する判別手段と、
前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された色情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、
前記判別手段で近似すると判別された場合、前記記憶手段に記憶されたコントラスト情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、
を備える撮像装置。
Imaging means for capturing a subject image and sequentially generating image data;
Storage means for storing position information, color information and contrast information of a tracking area set in a part of the image data;
A determination unit that sets a determination region based on position information of the tracking region, and determines whether or not the color information inside and outside the determination region approximates;
A first setting unit configured to set a tracking area in the image data generated by the imaging unit based on the color information stored in the storage unit when the determination unit determines that the approximation is not performed;
A second setting unit that sets a tracking area in the image data generated by the imaging unit based on contrast information stored in the storage unit when it is determined that the determination unit approximates;
An imaging apparatus comprising:
前記第2の設定手段は、
前記判別手段で近似すると判別された場合、前記コントラスト情報に基づき前記画像データに追尾領域を設定すると共に、前記色情報に基づき前記画像データに仮追尾領域を探索し、
前記記憶手段は、前記設定された追尾領域のコントラスト情報と前記探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する、
請求項1に記載の撮像装置。
The second setting means includes
When it is determined that the determination means approximates, a tracking area is set in the image data based on the contrast information, and a temporary tracking area is searched for in the image data based on the color information.
The storage means stores contrast information of the set tracking area and color information of the searched temporary tracking area as information for setting a tracking area for new image data.
The imaging device according to claim 1.
被写体像を撮像し、画像データを順次生成する撮像手段と、
前記画像データの一部に設定される追尾領域の位置情報、第1特徴情報及び第2特徴情報を記憶する記憶手段と、
前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の第1特徴情報が近似するか否かを判別する判別手段と、
前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された第1特徴情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、
前記判別手段で近似すると判別された場合、前記記憶手段に記憶された第2特徴情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、
を備える撮像装置。
Imaging means for capturing a subject image and sequentially generating image data;
Storage means for storing position information, first feature information, and second feature information of a tracking area set in a part of the image data;
A determination unit that sets a determination region based on position information of the tracking region and determines whether or not the first feature information inside and outside the determination region approximates;
A first setting unit configured to set a tracking area in the image data generated by the imaging unit based on the first feature information stored in the storage unit when the determination unit determines that the approximation is not performed;
A second setting unit that sets a tracking region in the image data generated by the imaging unit based on the second feature information stored in the storage unit when it is determined that the determination unit approximates;
An imaging apparatus comprising:
JP2009189764A 2009-08-19 2009-08-19 Image capturing apparatus Pending JP2011044764A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189764A JP2011044764A (en) 2009-08-19 2009-08-19 Image capturing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189764A JP2011044764A (en) 2009-08-19 2009-08-19 Image capturing apparatus

Publications (1)

Publication Number Publication Date
JP2011044764A true JP2011044764A (en) 2011-03-03

Family

ID=43831895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189764A Pending JP2011044764A (en) 2009-08-19 2009-08-19 Image capturing apparatus

Country Status (1)

Country Link
JP (1) JP2011044764A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001940A1 (en) * 2011-06-29 2013-01-03 オリンパスイメージング株式会社 Tracking device, and tracking method
JP2013098935A (en) * 2011-11-04 2013-05-20 Olympus Imaging Corp Tracking apparatus and tracking method
JP2013157725A (en) * 2012-01-27 2013-08-15 Olympus Imaging Corp Tracking device and tracking method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013001940A1 (en) * 2011-06-29 2013-01-03 オリンパスイメージング株式会社 Tracking device, and tracking method
JP5226903B1 (en) * 2011-06-29 2013-07-03 オリンパスイメージング株式会社 TRACKING DEVICE AND TRACKING METHOD
US8878940B2 (en) 2011-06-29 2014-11-04 Olympus Imaging Corp. Tracking apparatus for tracking target subject in input image
JP2013098935A (en) * 2011-11-04 2013-05-20 Olympus Imaging Corp Tracking apparatus and tracking method
US9412008B2 (en) 2011-11-04 2016-08-09 Olympus Corporation Tracking apparatus and tracking method
JP2013157725A (en) * 2012-01-27 2013-08-15 Olympus Imaging Corp Tracking device and tracking method

Similar Documents

Publication Publication Date Title
US7301563B1 (en) Image pickup apparatus
JP4919160B2 (en) Imaging apparatus and program thereof
JP2008009263A (en) Imaging device and program therefor
KR20090071471A (en) Imaging device and its shutter drive mode selection method
WO2017037978A1 (en) Detection device, detection method, detection program, and imaging device
US20120257091A1 (en) Digital image photographing apparatus and method of controlling the same
JP2010165012A (en) Imaging apparatus, image retrieval method, and program
JP2010045625A (en) Imaging apparatus
JP4775644B2 (en) Imaging apparatus and program thereof
JP4640198B2 (en) Electronic camera, multi-point simultaneous focusing frame display method, and program
JP2009048136A (en) Focusing device and focusing method
JP2007129310A (en) Imaging apparatus
US20130120642A1 (en) Digital photographing apparatus and method of controlling the same
JP2008278354A (en) Imaging device
JP2007052061A (en) Imaging device, focusing operation control method, and electronic information apparatus
JP2010239277A (en) Imaging device and imaging method
JP2005055746A (en) Imaging apparatus, focusing control method and program
JP2012231520A (en) Imaging apparatus, control apparatus, and control method therefor
JP2011044764A (en) Image capturing apparatus
US9357133B2 (en) Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method
JP2011112853A (en) Circuit for auto-focus adjustment, imaging apparatus and method for auto-focus adjustment
JP2003219244A (en) Digital camera
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP2009272799A (en) Imaging device and program