JP2011044764A - Image capturing apparatus - Google Patents
Image capturing apparatus Download PDFInfo
- Publication number
- JP2011044764A JP2011044764A JP2009189764A JP2009189764A JP2011044764A JP 2011044764 A JP2011044764 A JP 2011044764A JP 2009189764 A JP2009189764 A JP 2009189764A JP 2009189764 A JP2009189764 A JP 2009189764A JP 2011044764 A JP2011044764 A JP 2011044764A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- information
- tracking
- area
- tracking area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラ等の撮像装置に関する。より詳しくは、撮影画面内の被写体に対して追尾領域を継続して設定できる撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera. More specifically, the present invention relates to an imaging apparatus that can continuously set a tracking area for a subject in a shooting screen.
従来の撮像装置には、特許文献1に記載されるものが存在する。特許文献1の撮像装置は、撮影画面内の輝度情報のみに基づいて撮影画面上の一部に合焦領域を設定する第1の追尾手段と、撮影画面内のコントラスト情報のみに基づいて撮影画面上の一部に合焦領域を設定する第2の追尾手段とを備えるものである。そして特許文献1の撮像装置では、被写体と背景の輝度差が小さくなった場合、第1の追尾手段から第2の追尾手段に切り換えることが記載されている。 There exist some which are described in patent document 1 in the conventional imaging device. The imaging apparatus disclosed in Patent Literature 1 includes a first tracking unit that sets a focusing area in a part on a shooting screen based only on luminance information in the shooting screen, and a shooting screen based only on contrast information in the shooting screen. And a second tracking means for setting a focusing area in a part of the upper part. And in the imaging device of patent document 1, when the brightness | luminance difference of a to-be-photographed object and a background becomes small, switching from a 1st tracking means to a 2nd tracking means is described.
一方、他の撮像装置では、被写体の色の特徴(色情報)を記憶し、この記憶した色情報を利用して、被写体の移動を追尾するものがある。このような撮像装置では、撮影画面上の一部に設定される追尾領域内の色情報を記憶する。そして撮像装置は、記憶した色情報に基づき、次に生成される撮影画面上に追尾領域を設定する。このようにして、撮像素子から順次生成される撮影画面(画像データ)上に追尾領域を継続して設定できるようにしている。 On the other hand, there are other imaging devices that store the color characteristics (color information) of the subject and track the movement of the subject using the stored color information. In such an imaging apparatus, color information in a tracking area set in a part on the shooting screen is stored. Then, the imaging device sets a tracking area on the next generated shooting screen based on the stored color information. In this way, the tracking area can be set continuously on the shooting screen (image data) sequentially generated from the image sensor.
ところで、上記記載した他の撮像装置では、被写体の色情報を利用して撮影画面(画像データ)上に追尾領域を設定するため、被写体の色と背景の色が同色に近づくと追尾精度が下がる。 By the way, in the other imaging devices described above, since the tracking area is set on the shooting screen (image data) using the color information of the subject, the tracking accuracy decreases when the subject color and the background color approach the same color. .
そこで本発明は、撮影画面上の被写体を追尾する場合において、より高い精度で被写体の追尾を継続できる撮像装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an imaging apparatus capable of continuing tracking of a subject with higher accuracy when tracking a subject on a shooting screen.
すなわち、本発明の撮像装置は、被写体像を撮像し、画像データを順次生成する撮像手段と、前記画像データの一部に設定される追尾領域の位置情報、色情報及びコントラスト情報を記憶する記憶手段と、前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する判別手段と、前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された色情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、前記判別手段で近似すると判別された場合、前記記憶手段に記憶されたコントラスト情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、を備える。 That is, the imaging apparatus of the present invention captures an image of a subject and sequentially generates image data, and a storage that stores position information, color information, and contrast information of a tracking area set in a part of the image data. A determination area based on the position information of the tracking area, a determination means for determining whether or not color information inside and outside the determination area is approximated, and A first setting unit that sets a tracking area in the image data generated by the imaging unit based on the color information stored in the storage unit and a case where the determination unit approximates the image data is stored in the storage unit. Second setting means for setting a tracking area in the image data generated by the imaging means based on the contrast information.
このようにすれば、被写体を色情報で追尾している場合において、被写体の色と背景の色が近づいた場合であっても、より高い精度で被写体の追尾を継続できる。 In this way, when the subject is tracked with color information, tracking of the subject can be continued with higher accuracy even when the subject color and the background color are close to each other.
また、好ましくは、前記第2の設定手段は、前記判別手段で近似すると判別された場合、前記コントラスト情報に基づき前記画像データに追尾領域を設定すると共に、前記色情報に基づき前記画像データに仮追尾領域を探索し、前記記憶手段は、前記設定された追尾領域のコントラスト情報と前記探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する。 Preferably, the second setting unit sets a tracking region in the image data based on the contrast information and temporarily sets the image data based on the color information when it is determined that the determination unit approximates. The tracking means searches for a tracking area, and the storage means uses the contrast information of the set tracking area and the color information of the searched temporary tracking area as information for setting a tracking area for new image data. Remember.
このようにすれば、コントラスト情報に基づく追尾動作中においても、色情報に基づく追尾動作を継続する。したがって、被写体と背景の色情報が近似した後において、被写体と背景の色情報が近似しなくなった場合においても、より高い精度で被写体の追尾を継続できるようになる。 In this way, the tracking operation based on the color information is continued even during the tracking operation based on the contrast information. Therefore, even when the color information of the subject and the background is not approximated after the color information of the subject and the background is approximated, the tracking of the subject can be continued with higher accuracy.
本発明によれば、より高い精度で被写体の追尾を継続できる。 According to the present invention, tracking of a subject can be continued with higher accuracy.
(実施の形態1)
本実施の形態について、図面を参照して説明を行なう。以下、本実施の形態のデジタルカメラ1を具体的に説明する。
(Embodiment 1)
The present embodiment will be described with reference to the drawings. Hereinafter, the digital camera 1 of the present embodiment will be specifically described.
<1.本実施の形態の概要>
デジタルカメラ1は、色情報に基づいて被写体を追尾している領域内外の色情報が近似した場合、コントラスト情報に基づいて追尾領域を設定する。これによって、デジタルカメラ1は、被写体の色と背景の色が近似した場合であっても、コントラスト情報に基づいて追尾を継続できるため、より高い精度で被写体の追尾を継続できるようになる。
<1. Overview of the present embodiment>
The digital camera 1 sets the tracking area based on the contrast information when the color information inside and outside the area tracking the subject is approximated based on the color information. Thus, the digital camera 1 can continue tracking of the subject with higher accuracy because the tracking can be continued based on the contrast information even when the subject color and the background color are approximate.
すなわち、デジタルカメラ1は、画像データの一部に設定された追尾領域の位置情報、色情報及びコントラスト情報を記憶する。デジタルカメラ1は、新たな画像データに対して追尾領域を設定する際、以前の画像データにおける追尾領域の位置情報に基づいて、新たな画像データに判別領域を設定する。そして、デジタルカメラ1は、設定された判別領域内外の色情報が近似しているか否かを判別する。デジタルカメラ1は、判別領域内外の色情報が近似していない場合、色情報に基づいて画像データに追尾領域を設定する。一方で、デジタルカメラ1は、判別領域内外の色情報が近似している場合、コントラスト情報に基づいて画像データに追尾領域を設定する。 That is, the digital camera 1 stores tracking area position information, color information, and contrast information set as part of the image data. When the digital camera 1 sets a tracking area for new image data, the digital camera 1 sets a determination area for the new image data based on position information of the tracking area in the previous image data. Then, the digital camera 1 determines whether or not the color information inside and outside the set determination area is approximate. When the color information inside and outside the discrimination area is not approximate, the digital camera 1 sets a tracking area in the image data based on the color information. On the other hand, when the color information inside and outside the discrimination area is approximate, the digital camera 1 sets a tracking area in the image data based on the contrast information.
なお、デジタルカメラ1は、判別領域内外の色情報が近似している場合、コントラスト情報に基づいて画像データに追尾領域を設定すると共に、色情報に基づいて画像データに仮追尾領域を設定する。この際、デジタルカメラ1は、画像データ及び追尾領域を表示画面として表示する。つまり、デジタルカメラ1は、仮追尾領域を表示しない。 The digital camera 1 sets a tracking area in the image data based on the contrast information and sets a temporary tracking area in the image data based on the color information when the color information inside and outside the discrimination area is approximate. At this time, the digital camera 1 displays the image data and the tracking area as a display screen. That is, the digital camera 1 does not display the temporary tracking area.
このようにコントラスト情報に基づく追尾動作中も色情報に基づく追尾動作を継続することで、デジタルカメラ1は、被写体の色と背景の色が近似している状態からしない状態に変化した場合においても、より高い精度で色情報に基づく追尾動作に戻ることができる。上記のように構成する理由は、画像データ内の被写体の色情報が時間経過と伴に変化するので、記憶した色情報も変化させる必要があるためである。 As described above, by continuing the tracking operation based on the color information even during the tracking operation based on the contrast information, the digital camera 1 can be used even when the subject color and the background color are changed from the approximate state to the non-existing state. It is possible to return to the tracking operation based on the color information with higher accuracy. The reason for configuring as described above is that the color information of the subject in the image data changes with time, so the stored color information must also be changed.
<2.構成例(図1、2)>
本実施の形態のデジタルカメラ1の構成を説明する。図1は、本実施の形態に係るデジタルカメラ1の斜視図である。図2は、本実施の形態に係るデジタルカメラ1の構成を示すブロック図である。以下、構成の具体例を説明する。
<2. Configuration example (FIGS. 1 and 2)>
The configuration of the digital camera 1 of the present embodiment will be described. FIG. 1 is a perspective view of a digital camera 1 according to the present embodiment. FIG. 2 is a block diagram showing a configuration of the digital camera 1 according to the present embodiment. Hereinafter, a specific example of the configuration will be described.
光学系11は、被写体からの光学信号を集光してCCDイメージセンサー12上に被写体像を形成する。光学系11は、対物レンズ111とズームレンズ112とフォーカスレンズ113と絞り/シャッタ114とを含む。
The
ズームレンズ112は、ズーム駆動部115によって駆動され、被写体像の写る範囲(画角)を調整する。すなわち、ズームレンズ112は、焦点距離を調整可能である。フォーカスレンズ113は、フォーカス駆動部116によって駆動され、ピントの調節を行なう。ズーム駆動部115は、ズームレンズ112を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、ズームレンズ112を駆動させる。フォーカス駆動部116は、フォーカスレンズ113を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成される。フォーカス駆動部116は、コントローラ17からの制御に応じて、フォーカスレンズ113を駆動させる。
The
また、絞り/シャッタ114は、絞りとシャッタを兼用した部材である。絞り/シャッタ114は、絞り/シャッタ駆動部117によって駆動される。絞りは、5枚の羽根によって構成され、光学系11を通る光の量を調整するものである。また、シャッタは、開けたり閉じられたりして、CCDイメージセンサー12に当たる光の量を時間的に調整するものである。絞り/シャッタ駆動部117は、カム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、絞り/シャッタを駆動する。
The diaphragm /
CCDイメージセンサー12は、光学系11によって形成された被写体像を撮像して画像データを生成する。CCDイメージセンサー12は、タイミングジェネレータ121から供給されるパルス信号に基づいて、被写体像を撮像し、画像データを生成する。タイミングジェネレータ121は、LSIなどの集積回路によって構成され、CCDイメージセンサー12にパルス信号を供給する。ここでタイミングジェネレータ121がCCDイメージセンサー12に供給するパルス信号は、例えば、1秒間に30回のフレーム読み出しパルス信号を供給する。これによって、CCDイメージセンサー12では、30分の1秒ごとのフレームの画像データを取得できるようになる。なお、CCDイメージセンサー12には、原色フィルターが設けられ、RGB信号が生成されているものとする。
The
ADコンバータ13は、CCDイメージセンサー12で生成された画像データをデジタルデータに変換する。
The
画像処理部14は、ADコンバータ13でデジタルデータに変換された画像データに対して所定の処理を施す。所定の処理としては、ガンマ変換、YC変換、電子ズーム処理、圧縮処理、伸張処理などが考えられるが、これに限定されるものではない。
The
画像処理部14は、ADコンバータ13から出力された画像データに対して、ホワイトバランスのゲイン乗算処理とガンマ変換を行なった後、YC変換を行なう。画像処理部14は、YC変換によって、Y信号と、Cb信号と、Cr信号とを含む画像データを生成する。
The
そして画像処理部14は、YC変換した画像データを用いて、一部に設定される領域内の色情報を取得する。同様に、画像処理部14は、YC変換した画像データを用いて、一部に設定される領域内のコントラスト情報を取得する。これらの情報を用いて、画像処理部14は追尾動作を実現している。
Then, the
画像処理部14の処理を具体的に説明する。まず、色情報を取得する処理を説明する。画像処理部14は、領域内の画像データを取得する。画像処理部14は、領域内の各画素の色相を求める。色相は、0〜359度の位相角で表すことができる。本実施の形態では、赤色を0度に対応させている。
The processing of the
このようにして求められた位相を利用して、本実施の形態では、色情報を記録できるようにしている。なお、本実施の形態では、0〜359度の位相角を40分割して、分割された各単位に、各画素を割り当てている。そのため、画像処理部14は、分割された各単位(色単位「0」〜「39」、例えば、色単位「0」は0〜8度に対応)に対応する画素が、どれだけ存在するかを計算して、色情報としてバッファメモリ15に記録している。例えば、色情報は、色単位「0」が100画素、色単位「1」が48画素、色単位「2」が23画素、・・・のような情報である。このように計算された色情報を、ヒストグラムで表現すると、例えば、図8のようになる。図8の横軸は、分割した各単位(色単位)を示し、縦軸は、画素数を示す。
In this embodiment, color information can be recorded using the phase thus obtained. In the present embodiment, the phase angle of 0 to 359 degrees is divided into 40, and each pixel is assigned to each divided unit. Therefore, the
次に、コントラスト情報を取得する画像処理部14の処理を説明する。画像処理部14は、領域内の画像データを取得する。画像処理部14は、領域内の高周波成分を計算する。具体的に画像処理部14は、領域内の画像データに対して、DCT(離散的コサイン変換)を行う。これによって、画像処理部14は、領域内の画像データについて、高周波成分と低周波成分の割合を数値化したコントラスト情報を取得する。画像処理部14は、取得したコントラスト情報を、バッファメモリ15に記憶する。
Next, processing of the
バッファメモリ15は、画像処理部14で画像処理を行う際、および、コントローラ17で制御処理を行う際に、ワークメモリとして作用する。バッファメモリ15は、例えば、DRAMなどで実現可能である。
The
フラッシュメモリ16は、内蔵メモリとして用いられる。フラッシュメモリ16は、画像処理された画像データの他に、コントローラ17の制御のためのプログラムや設定値などを記憶可能である。
The
コントローラ17は、デジタルカメラ1の各部を制御する。コントローラ17は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現しても良い。
The
カードスロット18は、メモリカード19を着脱するためのスロットである。カードスロット18は、メモリカード19を制御する機能を有するようにしてもよい。メモリカード19は、フラッシュメモリなどを内蔵する。メモリカード19は、画像処理部14によって画像処理された画像データを格納可能である。
The
液晶モニタ20は、画像データおよびデジタルカメラ1の各種設定等を表示する。 The liquid crystal monitor 20 displays image data and various settings of the digital camera 1.
操作部21は、デジタルカメラ1の外装に取り付けられた操作部材の総称である。操作部21としては、十字キーや押下釦等が考えられる。
The
本実施の形態では、操作部の一つの押下釦として、シャッタスイッチ211がある。シャッタスイッチ211は、デジタルカメラ1の上面に設けられるものであり、使用者からの半押しおよび全押しを検知できるようにしたものである。使用者によって半押し又は全押し操作が行なわれると、シャッタスイッチ211は操作に応じた操作信号をコントローラ17に出力する。
In the present embodiment, there is a
また本実施の形態では、操作部21の一つの部材としてズームレバー212が備えられている。ズームレバー212は、使用者からの操作に応じて、デジタルカメラ1の焦点距離を変更するものである。ズームレバー212は、使用者に操作されると、操作信号をコントローラ17に出力する。これによって、コントローラ17は、ズームレンズ112に対して焦点距離を変更するための制御信号を送ることができる。
In the present embodiment, a
<3.動作例(図9〜10)>
本実施の形態に係るデジタルカメラ1の動作例を説明する。図9〜10は、デジタルカメラ1の動作例を示すフローチャートである。以下、具体的に説明する。
<3. Example of operation (FIGS. 9 to 10)>
An operation example of the digital camera 1 according to the present embodiment will be described. 9 to 10 are flowcharts illustrating an operation example of the digital camera 1. This will be specifically described below.
<3.1 ユーザによる追尾領域の設定動作(図9)>
まず、CCDイメージセンサー12で生成される画像データに対して、ユーザの指示により、追尾領域を設定する動作(図9)を説明する。コントローラ17は、タイミングジェネレータ121を制御して、CCDイメージセンサー12に画像データを生成させる。画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(S1)。コントローラ17は、操作部21(図示しない十字キー及び決定ボタン)が操作されて、追尾すべき被写体が決定されたか否かを判別する(S2)。より詳しくは、コントローラ17は、液晶モニタ20の中央に、被写体を決定するため決定領域を表示する。そして、コントローラ17は、ユーザからの十字キーに対する操作に応じて、決定領域を移動させる。そして、コントローラ17は、ユーザからの決定キーに対する操作に応じて、決定領域の位置に存在する被写体を追尾すべき被写体として決定する。つまり、ユーザは、十字キーの操作によって決定領域を移動し、決定キーの操作によって決定領域内に存在する被写体を追尾すべき被写体として決定する。
<3.1 Tracking Area Setting Operation by User (FIG. 9)>
First, an operation (FIG. 9) for setting a tracking area in response to a user instruction for image data generated by the
コントローラ17は、ステップS2で追尾すべき被写体が決定されていなければ、ステップS1の動作を繰り返す。この際、画像処理部14は、取得した画像データを表示画面として液晶モニタ20に表示させる(S9)。一方、コントローラ17は、ステップS2で追尾すべき被写体が決定された場合、その被写体に対して追尾領域を設定するよう画像処理部14を制御する(S3)。例えば、画像処理部14は、図3のように、画像データT1に対して追尾領域を設定する。この際画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する(S3)。例えば、画像処理部14は、追尾領域内の左上端の画素の位置(m,n)をバッファメモリ15に記憶する。そして、コントローラ17は、画像処理部14を制御して、追尾領域内の色情報をバッファメモリ15に記憶させる(S4)。また、コントローラ17は、画像処理部14を制御して、追尾領域内のコントラスト情報をバッファメモリ15に記憶させる(S5)。コントローラ17は、画像処理部14を制御して、追尾領域が設定された画像データを表示画面として液晶モニタ20に表示させる(S6)。
If the subject to be tracked is not determined in step S2, the
この後、コントローラ17は、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(S7)。そしてコントローラ17は、画像処理部14を制御して、図10の追尾継続動作を行なう。なお、コンティニュアスAFの動作は、一般的な動作であるため、説明は省略する。
Thereafter, the
<3.2 追尾継続動作(図10)>
次に、ユーザ操作によって追尾領域が設定された後の追尾継続動作(図10)を説明する。図10の動作については、コントローラ17の制御に基づく画像処理部14の動作であるため、画像処理部14を主体にして動作を説明する。
<3.2 Tracking operation (Fig. 10)>
Next, the tracking continuation operation (FIG. 10) after the tracking area is set by the user operation will be described. Since the operation in FIG. 10 is the operation of the
以下では、図10の動作例について、図3及び図4に基づいて説明する。図3において、画像データT1〜T5は、CCDイメージセンサー12で順次生成された画像データを示している。また、図3において、画像データT1は、追尾領域設定時の画像データを示し、画像データT2は、被写領域内の色と背景の色が近似しない場合の画像データを示し、画像データT3は、被写領域内の色と背景の色が近似した場合の画像データを示している。図4において、画像データT4は、被写領域内の色と背景の色が近似した場合の画像データを示し、画像データT5は、被写領域内の色と背景の色が近似しない場合の画像データを示している。この図3から図4にかけての画像データの遷移における各動作例を一つ一つ説明する。
Hereinafter, the operation example of FIG. 10 will be described with reference to FIGS. 3 and 4. In FIG. 3, image data T <b> 1 to T <b> 5 indicate image data sequentially generated by the
<3.2.1 画像データT2に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT1で得られた第1の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.1 Example of Operation when Setting Tracking Area for Image Data T2>
In this operation example, the
画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて判別領域を設定する。
The
次に画像処理部14は、判別領域内外の色情報が近似しているか否かを判別する(V3)。
ステップV3の具体的動作を以下に説明する。まず、画像処理部14は、判別領域内の色情報を取得する。また、画像処理部14は、判別領域外に設けられる背景領域内の色情報を取得する。本実施の形態では、画像処理部14は、図7のような位置に背景領域を設定して、判別領域の左右に設けられた2つの背景領域内から色情報を取得する。画像処理部14は、取得された判別領域内の色情報と背景領域内の色情報を比較し、少なくとも1つ以上が近似するか否かを判別する。つまり、本実施の形態では、画像処理部14は、少なくとも1つ以上が近似した場合、判別領域内外が近似したと判断する。
Next, the
The specific operation of step V3 will be described below. First, the
ここで本実施の形態において、判別領域と背景領域の色情報が近似しているとは、色情報うち、分解した各単位に含まれる画素数の一番の多い単位が一致することをいう。例えば、判別領域の色情報において、色単位「1」の画素数が最も多い場合であって、背景領域の色情報において、色単位「1」の画素数が最も多い場合、判別領域と背景領域は近似すると判断できる。一方、判別領域の色情報において、色単位「1」の画素数が最も多い場合であって、背景領域の色情報において、色単位「5」の画素数が最も多い場合、判別領域と背景領域は近似しないと判断できる。これは一例であるが、画像処理部14は、このようにして判別領域と背景領域内の色情報の近似を判断できる。例えば、図7では、左の図が近似しない場合の例を示し、右の図が近似した場合の例を示している。
Here, in the present embodiment, the fact that the color information of the discrimination area and the background area is approximate means that the unit having the largest number of pixels included in each unit of the color information matches among the color information. For example, when the number of pixels of the color unit “1” is the largest in the color information of the discrimination area and the number of pixels of the color unit “1” is the largest in the color information of the background area, the discrimination area and the background area Can be determined to be approximate. On the other hand, when the number of pixels of the color unit “1” is the largest in the color information of the discrimination area and the number of pixels of the color unit “5” is the largest in the color information of the background area, the discrimination area and the background area Can be determined not to approximate. This is an example, but the
図10の説明に戻って、画像処理部14は、ステップV3において判別領域内外の色情報が近似しないと判別された場合(例えば、図3の画像データT2のような画像の場合)、色情報に基づいて画像データに追尾領域を設定する(V4)。具体的に、画像処理部14は、図5のような位置に、バッファメモリ15に記憶された位置情報に基づいて、探索領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて探索領域を設定する。
Returning to the description of FIG. 10, when it is determined in step V3 that the color information inside and outside the determination area is not approximate (for example, in the case of an image like the image data T2 in FIG. 3), the color information Based on the above, a tracking area is set in the image data (V4). Specifically, the
そして、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて、探索領域内の最も色情報が近い領域を探索する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図3の画像データT2のように追尾領域が設定される。
Then, based on the color information stored in the
ステップV4において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。
In step V <b> 4, the
そして、画像処理部14は、設定した追尾領域内の色情報をバッファメモリ15に記憶する(V5)。また、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V6)。色情報及びコントラスト情報も上記と同様にバッファメモリ15の情報が更新される。なお、バッファメモリ15には、第2の位置情報は記憶されていないため、ステップV13の動作は実施されない。
Then, the
そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。
The
<3.2.2 画像データT3に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT2で得られた第1の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.2 Example of Operation when Setting Tracking Area for Image Data T3>
In this operation example, the
画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて判別領域を設定する。
The
画像処理部14は、ステップV3において画像処理部14からの情報を基に判別領域内外の色情報が近似すると判別した場合(例えば、図3の画像データT3のような画像の場合)、コントラスト情報に基づいて画像データに追尾領域を設定する(V7)。例えば、画像処理部14は、図6のような位置に、バッファメモリ15に記憶された位置情報に基づいて、補助領域(A〜E)を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報が記憶されているので、第1の位置情報に基づいて補助領域を設定する。なお、過去の追尾領域と同じ位置に設定された領域が補助領域Eである。
When the
そして、画像処理部14は、バッファメモリ15に記憶されたコントラスト情報に基づいて、補助領域内の最もコントラストが近い領域を選択する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図3の画像データT3の上図のように追尾領域が設定される。
Then, the
また、ステップV7において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。
In step V <b> 7, the
そして、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V8)。つまり、バッファメモリ15に記憶されたコントラスト情報が更新される。
Then, the
次に、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて画像データから仮追尾領域を探索する(V9)。例えば、図3の画像データT3の下図のように仮追尾領域が探索される。この場合、バッファメモリ15には第1の位置情報が記憶されているので、仮追尾領域を探索するための探索領域は、バッファメモリ15に記憶された第1の位置情報を利用する。
Next, the
また、ステップV9において、画像処理部14は、仮追尾領域が探索された画面の位置(第2の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に第2の位置情報が新たに記憶される。
In step V <b> 9, the
そして、画像処理部14は、設定した仮追尾領域内の色情報をバッファメモリ15に記憶する(V10)。つまり、バッファメモリ15に記憶された色情報が更新される。
Then, the
そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。
The
<3.2.3 画像データT4に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT3で得られた第1の位置情報と第2の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.3 Example of Operation when Setting Tracking Area for Image Data T4>
In this operation example, the
画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、判別領域を設定する。このように構成する理由は、コントラスト情報に基づく追尾を行なっている際においても、色情報に基づく追尾を行なわせるためである。つまり、画像データT2からの色情報の追尾を継続するためである。
The
画像処理部14は、ステップV3において画像処理部14からの情報を基に判別領域内外の色情報が近似すると判別した場合(例えば、図4の画像データT4のような画像の場合)、コントラスト情報に基づいて画像データに追尾領域を設定する(V7)。具体的に、画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、補助領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第1の位置情報を利用して、補助領域を設定する。これは、画像データT3のコントラスト情報に基づく追尾を継続するためである。
If the
そして、画像処理部14は、バッファメモリ15に記憶されたコントラスト情報に基づいて、補助領域内の最もコントラストが近い領域を選択する。画像処理部14は、探索した最も近い領域を追尾領域として画像データに設定する。例えば、図4の画像データT4の上図のように追尾領域が設定される。
Then, the
また、ステップV7において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。
In step V <b> 7, the
そして、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V8)。つまり、バッファメモリ15に記憶されたコントラスト情報が更新される。
Then, the
次に、画像処理部14は、バッファメモリ15に記憶された色情報に基づいて画像データから仮追尾領域を探索する(V9)。例えば、図3の画像データT4の下図のように仮追尾領域が探索される。この場合、バッファメモリ15には第1の位置情報及び第2の位置情報が記憶されているので、仮追尾領域を探索するための探索領域は、第2の位置情報を利用する。これは、画像データT3の色情報に基づく追尾を継続するためである。
Next, the
また、ステップV9において、画像処理部14は、仮追尾領域が探索された画面の位置(第2の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第2の位置情報が更新される。
In step V <b> 9, the
そして、画像処理部14は、設定した仮追尾領域内の色情報をバッファメモリ15に記憶する(V10)。つまり、バッファメモリ15に記憶された色情報が更新される。
Then, the
そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。
The
<3.2.4 画像データT5に対して追尾領域を設定する際の動作例>
この動作例では、バッファメモリ15に、画像データT4で得られた第1の位置情報と第2の位置情報と色情報とコントラスト情報が記憶されている。以下、具体的に説明する。
<3.2.4 Operation Example when Setting Tracking Area for Image Data T5>
In this operation example, the
画像処理部14は、CCDイメージセンサー12で生成された画像データを取得する(V1)。次に画像処理部14は、バッファメモリ15に記憶された位置情報に基づいて、ステップV1で取得した画像データに判別領域を設定する(V2)。この際、画像処理部14は、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、判別領域を設定する。このように構成する理由は、コントラスト情報に基づく追尾を行なっている際においても、色情報に基づく追尾を行なわせるためである。つまり、画像データT2からの色情報の追尾を継続するためである。
The
次に画像処理部14は、判別領域内外の色情報が近似しているか否かを判別する(V3)。
Next, the
画像処理部14は、ステップV3において判別領域内外の色情報が近似しないと判別された場合(例えば、図4の画像データT5のような画像の場合)、色情報に基づいて画像データに追尾領域を設定する(V4)。具体的に、画像処理部14は、図5のように、バッファメモリ15に記憶された位置情報に基づいて、探索領域を設定する。この際、画像処理部14には、バッファメモリ15に第1の位置情報及び第2の位置情報が記憶されているので、第2の位置情報を利用して、探索領域を設定する。このように構成する理由は、画像データT2からの色情報に基づく追尾動作をより高い精度で継続させるためのである。
When it is determined in step V3 that the color information inside and outside the determination area is not approximate (for example, in the case of an image such as the image data T5 in FIG. 4), the
また、ステップV4において、画像処理部14は、追尾領域が設定された画面の位置(第1の位置情報)をバッファメモリ15に記憶する。つまり、バッファメモリ15に記憶された第1の位置情報が更新される。
In step V <b> 4, the
そして、画像処理部14は、設定した追尾領域内の色情報をバッファメモリ15に記憶する(V5)。また、画像処理部14は、設定した追尾領域内のコントラスト情報をバッファメモリ15に記憶する(V6)。つまり、バッファメモリ15に記憶された色情報及びコントラスト情報が更新される。そして、画像処理部14は、バッファメモリ15に記憶された第2の位置情報を破棄する(V13)。
Then, the
そして画像処理部14は、追尾領域を含む画像データを表示画面として液晶モニタ20に表示させる(V11)。この後、コントローラ17では、追尾領域内の画像データに対してコンティニュアスAF動作を実行する(V12)。
The
このように上記4つの動作の何れかを実施することによって、本実施の形態では、追尾動作を、より高い精度で継続できるようにしている。 In this embodiment, the tracking operation can be continued with higher accuracy by performing any one of the above four operations.
<4.まとめ>
本実施の形態では、被写体像を撮像し、画像データを順次生成するCCDイメージセンサー12と、画像データの一部に設定される追尾領域の第1の位置情報、色情報及びコントラスト情報を記憶するバッファメモリ15と、追尾領域の第1の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する画像処理部14と、画像処理部14で近似しないと判別された場合、バッファメモリ15に記憶された色情報に基づいてCCDイメージセンサー12で生成される画像データに追尾領域を設定する画像処理部14と、画像処理部14で近似すると判別された場合、バッファメモリ15に記憶されたコントラスト情報に基づいてCCDイメージセンサー12で生成される画像データに追尾領域を設定する画像処理部14と、を備える。
<4. Summary>
In the present embodiment, a
このようにすれば、被写体に対してより高い精度で追尾を継続できる。 In this way, tracking can be continued with higher accuracy for the subject.
また、好ましくは、画像処理部14は、近似すると判別した場合、コントラスト情報に基づき画像データに追尾領域を設定すると共に、色情報に基づき画像データから仮追尾領域を探索し、バッファメモリ15は、設定された追尾領域のコントラスト情報と探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する。
Preferably, when it is determined that the
このようにすれば、被写体に対してより高い精度で追尾を継続できる。
(他の実施の形態)
本発明の実施の形態として、上記実施の形態を例示した。しかし、本発明は、上記実施の形態に限定されず、他の実施の形態においても実現可能である。そこで、本発明の他の実施の形態を以下まとめて説明する。
In this way, tracking can be continued with higher accuracy for the subject.
(Other embodiments)
The above embodiment has been exemplified as an embodiment of the present invention. However, the present invention is not limited to the above embodiment, and can be implemented in other embodiments. Therefore, other embodiments of the present invention will be described collectively below.
本実施の形態では、撮像素子として、CCDイメージセンサー12を用いた。しかし、これに限られず、CMOSイメージセンサーを用いてもよい。このように構成すれば、装置全体の消費電力を抑えることが可能になる。
In the present embodiment, the
本実施の形態では、判別領域の内外が近似するか否かを判別する際、ステップV3の動作例を説明した。しかし、これに限られず、被写体と背景の色情報が近似しているか否かを判別できるものであれば、どのような構成であってもかまわない。 In the present embodiment, the operation example of step V3 has been described when determining whether the inside and outside of the determination area are approximate. However, the present invention is not limited to this, and any configuration may be used as long as it can determine whether or not the color information of the subject and the background is approximate.
本実施の形態では、絞りとシャッタを兼用した絞り/シャッタ114を備えるようにしたが、これに限られず、絞りとシャッタとを別々に設けるようにしても良い。この場合、例えば、シャッタは光学系内に設けず、絞りだけを光学系に設けるとよい。この際、シャッタは、光学系とCCDイメージセンサーの間に設けるとよい。このようにすれば、シャッタを光学系と別の部材で設けたので、レンズ交換タイプのデジタルカメラにも適用できるようになる。
In the present embodiment, the diaphragm /
本実施の形態では、表示部として液晶モニタ20を用いた。しかし、これ限られず、有機ELディスプレイを用いることもできる。 In the present embodiment, the liquid crystal monitor 20 is used as the display unit. However, the present invention is not limited to this, and an organic EL display can also be used.
本実施の形態では、色情報に基づく追尾動作として、探索領域を用いた動作を説明した。しかし、これに限られず、色情報に基づいて追尾動作を実現できるものであれば、どのような動作であってもかまわない。 In the present embodiment, the operation using the search area has been described as the tracking operation based on the color information. However, the present invention is not limited to this, and any operation is possible as long as the tracking operation can be realized based on the color information.
本実施の形態では、コントラスト情報に基づく追尾動作として、補助領域を用いた動作を説明した。しかし、これに限られず、コントラスト情報に基づいて追尾動作を実現できものであればどのような動作であってもかまわない。 In the present embodiment, the operation using the auxiliary region has been described as the tracking operation based on the contrast information. However, the present invention is not limited to this, and any operation may be used as long as the tracking operation can be realized based on the contrast information.
また、本実施の形態では、色情報の分離を、色相角を用いて行なうようにした。しかし、これに限られず、色情報の分離を、色相角と彩度を用いるようにしてもよい。この場合、本実施の形態では、位相角全体を40分割としているところを、他の実施の形態では、例えば、位相角全体を20分割し、彩度を2分割すればよい。また、色情報の分離を、彩度のみで行ってもよい。 In the present embodiment, the color information is separated using the hue angle. However, the present invention is not limited to this, and color information may be separated using the hue angle and saturation. In this case, in the present embodiment, the entire phase angle is divided into 40, but in the other embodiments, for example, the entire phase angle may be divided into 20 and the saturation may be divided into 2. Further, color information may be separated only by saturation.
また、本実施の形態において、判別領域と背景領域の色情報が近似しているか否かを、色情報うち、分解した各単位に含まれる画素数の一番の多い単位が一致するか否かで判断するようにした。しかし、これに限られず、画像処理部は、判別領域と背景領域間での各単位(色領域)の画素の一致度の合計を利用して判断するようにしてもよい。例えば、画像処理部は、判別領域と背景領域の間で、各単位(色領域)の画素数がどれだけ一致しているかを判断する。そして、画像処理部は、一致した画素数の合計が、所定閾値以上である場合、判別領域と背景領域が近似していると判断すればよい。 Also, in the present embodiment, whether the color information of the discrimination area and the background area is approximate or not is determined based on whether or not the unit with the largest number of pixels included in each decomposed unit of the color information matches. I decided to judge. However, the present invention is not limited to this, and the image processing unit may make the determination by using the total degree of coincidence of pixels of each unit (color region) between the discrimination region and the background region. For example, the image processing unit determines how much the number of pixels in each unit (color region) matches between the discrimination region and the background region. Then, the image processing unit may determine that the determination area and the background area are approximate when the total number of matched pixels is equal to or greater than a predetermined threshold.
また、本実施の形態では、図6に示すように、画像データに対して補助領域A〜Eを重ねて設定するようにした。しかし、これに限られず、画像データに対して複数の補助領域を重ならないようにして設定してもよい。また、本実施の形態では、画像データに対して5個の補助領域を設定するようにした。他の実施の形態では、これに限られず、いくつの補助領域を設定してもよい。例えば、9個や13個の補助領域を設けることができる。9個の補助領域を設けるようにすれば、5個よりも高い精度でコントラスト追尾が実現できる。また、13個の補助領域を設けるようにすれば、補助領域をさらに広い範囲に設定できるので、高速な被写体移動に対応できるようになる。 Further, in the present embodiment, as shown in FIG. 6, the auxiliary areas A to E are set so as to overlap the image data. However, the present invention is not limited to this, and a plurality of auxiliary areas may be set so as not to overlap with the image data. In this embodiment, five auxiliary areas are set for image data. In other embodiments, the present invention is not limited to this, and any number of auxiliary regions may be set. For example, nine or thirteen auxiliary regions can be provided. If nine auxiliary regions are provided, contrast tracking can be realized with higher accuracy than five. Further, if 13 auxiliary areas are provided, the auxiliary area can be set in a wider range, so that it is possible to cope with high-speed subject movement.
すなわち、本発明は上記実施の形態に限られず、様々な形態で実施可能である。 That is, the present invention is not limited to the above embodiment, and can be implemented in various forms.
本発明は、デジタルスチルカメラ、デジタルビデオカメラ、カメラ付き携帯電話等に適用することが可能である。 The present invention can be applied to a digital still camera, a digital video camera, a camera-equipped mobile phone, and the like.
1 デジタルカメラ
11 光学系
111 対物レンズ
112 ズームレンズ
113 フォーカスレンズ
114 絞り/シャッタ
115 ズーム駆動部
116 フォーカス駆動部
117 絞り/シャッタ駆動部
12 CCDイメージセンサー
121 タイミングジェネレータ
13 ADコンバータ
14 画像処理部
15 バッファメモリ
16 フラッシュメモリ
17 コントローラ
20 液晶モニタ
21 操作部
DESCRIPTION OF SYMBOLS 1
Claims (3)
前記画像データの一部に設定される追尾領域の位置情報、色情報及びコントラスト情報を記憶する記憶手段と、
前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の色情報が近似するか否かを判別する判別手段と、
前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された色情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、
前記判別手段で近似すると判別された場合、前記記憶手段に記憶されたコントラスト情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、
を備える撮像装置。 Imaging means for capturing a subject image and sequentially generating image data;
Storage means for storing position information, color information and contrast information of a tracking area set in a part of the image data;
A determination unit that sets a determination region based on position information of the tracking region, and determines whether or not the color information inside and outside the determination region approximates;
A first setting unit configured to set a tracking area in the image data generated by the imaging unit based on the color information stored in the storage unit when the determination unit determines that the approximation is not performed;
A second setting unit that sets a tracking area in the image data generated by the imaging unit based on contrast information stored in the storage unit when it is determined that the determination unit approximates;
An imaging apparatus comprising:
前記判別手段で近似すると判別された場合、前記コントラスト情報に基づき前記画像データに追尾領域を設定すると共に、前記色情報に基づき前記画像データに仮追尾領域を探索し、
前記記憶手段は、前記設定された追尾領域のコントラスト情報と前記探索された仮追尾領域の色情報とを、新たな画像データに対して追尾領域を設定するための情報として記憶する、
請求項1に記載の撮像装置。 The second setting means includes
When it is determined that the determination means approximates, a tracking area is set in the image data based on the contrast information, and a temporary tracking area is searched for in the image data based on the color information.
The storage means stores contrast information of the set tracking area and color information of the searched temporary tracking area as information for setting a tracking area for new image data.
The imaging device according to claim 1.
前記画像データの一部に設定される追尾領域の位置情報、第1特徴情報及び第2特徴情報を記憶する記憶手段と、
前記追尾領域の位置情報に基づいて判別領域を設定し、判別領域内外の第1特徴情報が近似するか否かを判別する判別手段と、
前記判別手段で近似しないと判別された場合、前記記憶手段に記憶された第1特徴情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第1の設定手段と、
前記判別手段で近似すると判別された場合、前記記憶手段に記憶された第2特徴情報に基づいて前記撮像手段で生成される画像データに追尾領域を設定する第2の設定手段と、
を備える撮像装置。 Imaging means for capturing a subject image and sequentially generating image data;
Storage means for storing position information, first feature information, and second feature information of a tracking area set in a part of the image data;
A determination unit that sets a determination region based on position information of the tracking region and determines whether or not the first feature information inside and outside the determination region approximates;
A first setting unit configured to set a tracking area in the image data generated by the imaging unit based on the first feature information stored in the storage unit when the determination unit determines that the approximation is not performed;
A second setting unit that sets a tracking region in the image data generated by the imaging unit based on the second feature information stored in the storage unit when it is determined that the determination unit approximates;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009189764A JP2011044764A (en) | 2009-08-19 | 2009-08-19 | Image capturing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009189764A JP2011044764A (en) | 2009-08-19 | 2009-08-19 | Image capturing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011044764A true JP2011044764A (en) | 2011-03-03 |
Family
ID=43831895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009189764A Pending JP2011044764A (en) | 2009-08-19 | 2009-08-19 | Image capturing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011044764A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013001940A1 (en) * | 2011-06-29 | 2013-01-03 | オリンパスイメージング株式会社 | Tracking device, and tracking method |
JP2013098935A (en) * | 2011-11-04 | 2013-05-20 | Olympus Imaging Corp | Tracking apparatus and tracking method |
JP2013157725A (en) * | 2012-01-27 | 2013-08-15 | Olympus Imaging Corp | Tracking device and tracking method |
-
2009
- 2009-08-19 JP JP2009189764A patent/JP2011044764A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013001940A1 (en) * | 2011-06-29 | 2013-01-03 | オリンパスイメージング株式会社 | Tracking device, and tracking method |
JP5226903B1 (en) * | 2011-06-29 | 2013-07-03 | オリンパスイメージング株式会社 | TRACKING DEVICE AND TRACKING METHOD |
US8878940B2 (en) | 2011-06-29 | 2014-11-04 | Olympus Imaging Corp. | Tracking apparatus for tracking target subject in input image |
JP2013098935A (en) * | 2011-11-04 | 2013-05-20 | Olympus Imaging Corp | Tracking apparatus and tracking method |
US9412008B2 (en) | 2011-11-04 | 2016-08-09 | Olympus Corporation | Tracking apparatus and tracking method |
JP2013157725A (en) * | 2012-01-27 | 2013-08-15 | Olympus Imaging Corp | Tracking device and tracking method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7301563B1 (en) | Image pickup apparatus | |
JP4919160B2 (en) | Imaging apparatus and program thereof | |
JP2008009263A (en) | Imaging device and program therefor | |
KR20090071471A (en) | Imaging device and its shutter drive mode selection method | |
WO2017037978A1 (en) | Detection device, detection method, detection program, and imaging device | |
US20120257091A1 (en) | Digital image photographing apparatus and method of controlling the same | |
JP2010165012A (en) | Imaging apparatus, image retrieval method, and program | |
JP2010045625A (en) | Imaging apparatus | |
JP4775644B2 (en) | Imaging apparatus and program thereof | |
JP4640198B2 (en) | Electronic camera, multi-point simultaneous focusing frame display method, and program | |
JP2009048136A (en) | Focusing device and focusing method | |
JP2007129310A (en) | Imaging apparatus | |
US20130120642A1 (en) | Digital photographing apparatus and method of controlling the same | |
JP2008278354A (en) | Imaging device | |
JP2007052061A (en) | Imaging device, focusing operation control method, and electronic information apparatus | |
JP2010239277A (en) | Imaging device and imaging method | |
JP2005055746A (en) | Imaging apparatus, focusing control method and program | |
JP2012231520A (en) | Imaging apparatus, control apparatus, and control method therefor | |
JP2011044764A (en) | Image capturing apparatus | |
US9357133B2 (en) | Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method | |
JP2011112853A (en) | Circuit for auto-focus adjustment, imaging apparatus and method for auto-focus adjustment | |
JP2003219244A (en) | Digital camera | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2009272799A (en) | Imaging device and program |