JP2011059977A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2011059977A
JP2011059977A JP2009208890A JP2009208890A JP2011059977A JP 2011059977 A JP2011059977 A JP 2011059977A JP 2009208890 A JP2009208890 A JP 2009208890A JP 2009208890 A JP2009208890 A JP 2009208890A JP 2011059977 A JP2011059977 A JP 2011059977A
Authority
JP
Japan
Prior art keywords
tracking
information
image data
area
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009208890A
Other languages
Japanese (ja)
Inventor
Yuki Miura
夕季 三浦
Eiji Abu
栄二 阿武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009208890A priority Critical patent/JP2011059977A/en
Publication of JP2011059977A publication Critical patent/JP2011059977A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To track a subject image by adjusting a tracking domain to have a more suitable size, even when a subject is moved in the far-and-near direction to an imaging device. <P>SOLUTION: This imaging device is equipped with: an imaging means imaging the subject image and generating image data successively; a tracking domain setting means setting a tracking domain to image data generated successively by the imaging means based on tracking information for tracking the subject image; and a relational information acquisition means acquiring relational information between determination domains from a first determination domain set on a part of the image data and a second determination domain having a different size from the first determination domain. When setting a tracking domain to the image data, the tracking domain setting means adjusts the size of the tracking domain corresponding to the size of change of second relational information acquired by the relational information acquisition means in the image data and first relational information acquired by the relational information acquisition means in the image data acquired beforehand. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影画像に対して追跡領域を設定し、追跡領域で被写体像を追跡可能な撮像装置に関する。より詳しくは、被写体像を追跡する追跡領域の大きさを自動調整可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of setting a tracking area for a captured image and tracking a subject image in the tracking area. More specifically, the present invention relates to an imaging apparatus capable of automatically adjusting the size of a tracking area for tracking a subject image.

従来の撮像装置としては、特許文献1に記載されるようなものが存在する。   As a conventional imaging device, there is one as described in Patent Document 1.

特許文献1の撮像装置では、移動する被写体に対して最適な大きさの追跡領域を設定することを目的としたものである。この撮像装置では、前記目的を達成するため、撮像レンズの焦点距離に基づいて追跡領域の大きさを調整するものである。   The imaging device disclosed in Patent Document 1 is intended to set a tracking area having an optimum size for a moving subject. In this imaging apparatus, the size of the tracking area is adjusted based on the focal length of the imaging lens in order to achieve the object.

特開平7−30801号公報Japanese Patent Laid-Open No. 7-30801

ところで、ある撮像装置では、被写体の特徴情報に基づき、撮影画像内の被写体像を一定の大きさの追跡領域で追跡するようにしたものがある。   Some imaging apparatuses track a subject image in a captured image in a tracking area of a certain size based on subject characteristic information.

このような撮像装置では、被写体が近づいたり、遠ざかったりすると、追跡領域が一定の大きさであるため、追跡精度が悪化する。例えば、図17に示すように、撮像装置に被写体が近づくと、撮影画像内に占める被写体像の割合が大きくなる。このため、撮像装置は、撮影画像内に追跡領域を設定する際、撮影画像内に特徴情報と似た情報が増えてしまい、一定の大きさの追跡領域をより適切な位置に設定できなくなる。また、撮像装置から被写体が遠ざかると、撮影画像内に占める被写体像の割合が小さくなる。このため、撮像装置は、撮影画像内に追跡領域を設定する際、撮影画像内に特徴情報と似た情報が減ってしまい、一定の大きさの追跡領域をより適切な位置に設定できなくなる。   In such an imaging apparatus, when the subject approaches or moves away, the tracking accuracy is deteriorated because the tracking area has a certain size. For example, as shown in FIG. 17, when the subject approaches the imaging device, the proportion of the subject image in the captured image increases. For this reason, when the tracking area is set in the captured image, the imaging apparatus increases information similar to the feature information in the captured image, and the tracking area having a certain size cannot be set at a more appropriate position. Further, when the subject moves away from the imaging device, the proportion of the subject image in the captured image decreases. For this reason, when the tracking device sets a tracking area in a captured image, information similar to feature information is reduced in the captured image, and a tracking region having a certain size cannot be set at a more appropriate position.

そこで本発明は、上記課題を解決するため、被写体が撮像装置に対して遠近方向で移動した場合であっても、より最適な大きさに追跡領域を調整して被写体像を追跡できる撮像装置を提供することを目的とする。   Therefore, in order to solve the above-described problem, the present invention provides an imaging apparatus capable of tracking a subject image by adjusting a tracking area to a more optimal size even when the subject moves in a perspective direction with respect to the imaging apparatus. The purpose is to provide.

すなわち、本発明の撮像装置は、被写体像を撮像して、画像データを順次生成する撮像手段と、被写体像を追跡するための追跡情報に基づいて、前記撮像手段で順次生成される画像データに追跡領域を設定する追跡領域設定手段と、前記画像データの一部に設定される第1判定領域及び当該第1判定領域と異なるサイズの第2判定領域から判定領域間の関係情報を取得する関係情報取得手段と、を備える。そして前記追跡領域設定手段は、ある画像データに対して追跡領域を設定する際、当該画像データで前記関係情報取得手段により取得される第2関係情報、及び、以前に取得した画像データで前記関係情報取得手段により取得される第1関係情報の変化に基づいて、前記追跡領域の大きさを調整する。   That is, the imaging apparatus of the present invention captures subject images and sequentially generates image data, and based on tracking information for tracking the subject image, the image data sequentially generated by the imaging unit. A tracking area setting means for setting a tracking area, a relationship for acquiring relation information between determination areas from a first determination area set in a part of the image data and a second determination area having a different size from the first determination area Information acquisition means. When the tracking area setting means sets a tracking area for certain image data, the relation information is acquired with the second relation information acquired by the relation information acquisition means with the image data, and the image data acquired previously. The size of the tracking area is adjusted based on the change in the first relation information acquired by the information acquisition means.

このようにすれば、撮像装置は、ある画像データの関係情報と以前の画像データの関係情報の変化に基づいて追跡領域の大きさを調整できる。そのため、被写体が撮像装置に対して遠近方向で移動した場合であっても、より最適な大きさに追跡領域を調整して被写体像を追跡できる。   In this way, the imaging apparatus can adjust the size of the tracking area based on the change in the relationship information of certain image data and the relationship information of previous image data. Therefore, even when the subject moves in the perspective direction with respect to the imaging apparatus, the subject image can be tracked by adjusting the tracking area to a more optimal size.

本発明によれば、撮像装置は、被写体が撮像装置に対して遠近方向で移動した場合であっても、より最適な大きさに追跡領域を調整して被写体像を追跡できる。   According to the present invention, the imaging device can track the subject image by adjusting the tracking area to a more optimal size even when the subject moves in the perspective direction with respect to the imaging device.

本実施の形態に係るデジタルカメラの斜視図The perspective view of the digital camera which concerns on this Embodiment 本実施の形態に係るデジタルカメラの構成図Configuration diagram of a digital camera according to the present embodiment 本実施の形態に係るデジタルカメラの表示画面の遷移例を説明するための図The figure for demonstrating the example of a transition of the display screen of the digital camera which concerns on this Embodiment 本実施の形態に係る画像データAに追跡領域が設定された際の動作を説明するための図The figure for demonstrating operation | movement when a tracking area | region is set to the image data A which concerns on this Embodiment. 本実施の形態に係る画像データAに追跡領域が設定された際の具体的動作を説明するための図The figure for demonstrating the specific operation | movement when a tracking area | region is set to the image data A which concerns on this Embodiment. 本実施の形態に係る画像データのBM情報を説明するための図The figure for demonstrating BM information of the image data which concerns on this Embodiment 本実施の形態に係る色割合の取得方法を説明するための図The figure for demonstrating the acquisition method of the color ratio which concerns on this Embodiment. 本実施の形態に係る追跡情報の取得方法を説明するための図The figure for demonstrating the acquisition method of the tracking information which concerns on this Embodiment 本実施の形態に係る追跡領域に基づいて、判定領域の設定動作を説明するための図The figure for demonstrating the setting operation | movement of a determination area | region based on the tracking area | region which concerns on this Embodiment. 本実施の形態に係る画像データBにおいて、追跡領域が設定された際の動作を説明するための図The figure for demonstrating operation | movement when the tracking area | region is set in the image data B which concerns on this Embodiment. 本実施の形態に係る画像データBにおいて、追跡領域のサイズを調整する動作を説明するための図The figure for demonstrating the operation | movement which adjusts the size of a tracking area | region in the image data B which concerns on this Embodiment. 本実施の形態に係る画像データにおいて、追跡領域のサイズを調整する動作を説明するための図The figure for demonstrating the operation | movement which adjusts the size of a tracking area | region in the image data which concerns on this Embodiment. 他の実施の形態に係る追跡領域及び判定領域の関係を説明するための図The figure for demonstrating the relationship of the tracking area | region and determination area | region which concerns on other embodiment. 本実施の形態に係るデジタルカメラの動作例を示すフローチャートA flowchart showing an operation example of the digital camera according to the present embodiment 本実施の形態に係るデジタルカメラの動作例を示すフローチャートA flowchart showing an operation example of the digital camera according to the present embodiment 本実施の形態に係る追跡領域設定動作時の追跡領域の大きさの調整動作を説明するための図The figure for demonstrating the adjustment operation | movement of the magnitude | size of the tracking area at the time of the tracking area setting operation | movement which concerns on this Embodiment. 課題を説明するための図Illustration for explaining the problem

(実施の形態1)
本発明の一実施の形態について、図面を参照して説明を行なう。以下、具体的に説明する。本実施の形態では、デジタルカメラ1を例にして説明を行なう。
(Embodiment 1)
An embodiment of the present invention will be described with reference to the drawings. This will be specifically described below. In the present embodiment, the digital camera 1 will be described as an example.

<1.本実施の形態の概要>
デジタルカメラ1は、CCDイメージセンサー12で生成される画像データに対して、追跡領域を設定する。一方で、デジタルカメラ1は、過去と現在の画像データの一部に設定される第1及び第2判定領域における関係情報(図11や図12の近似度)の変化に基づき、追跡領域のサイズを調整する。すなわち、被写体がデジタルカメラ1に近づいた場合、第1判定領域と第2判定領域の関係情報の差が過去と比べて小さくなる(図11)。一方で被写体がデジタルカメラ1から遠ざかった場合、第1判定領域と第2判定領域の関係情報の差が過去と比べて大きくなる(図12)。この関係を利用して本実施の形態では、追跡領域のサイズを調整するようにしている。
<1. Overview of the present embodiment>
The digital camera 1 sets a tracking area for the image data generated by the CCD image sensor 12. On the other hand, the digital camera 1 determines the size of the tracking area based on the change in the relationship information (approximation in FIGS. 11 and 12) in the first and second determination areas set in a part of the past and current image data. Adjust. That is, when the subject approaches the digital camera 1, the difference in the relationship information between the first determination area and the second determination area is smaller than in the past (FIG. 11). On the other hand, when the subject moves away from the digital camera 1, the difference in the relationship information between the first determination area and the second determination area becomes larger than in the past (FIG. 12). In this embodiment, the size of the tracking area is adjusted using this relationship.

なお、デジタルカメラ1は、画像データ、及び、サイズが調整された追跡領域を、表示画面として液晶モニタ20に表示する。例えば、撮像装置の液晶モニタ20には、例えば、図3に示すように、画像データ及び追跡領域71〜74が表示画面として表示される。   The digital camera 1 displays the image data and the tracking area whose size has been adjusted on the liquid crystal monitor 20 as a display screen. For example, image data and tracking areas 71 to 74 are displayed on the liquid crystal monitor 20 of the imaging apparatus as a display screen, for example, as shown in FIG.

これによって、デジタルカメラ1は、被写体が遠近方向で移動した場合であっても、より最適な大きさに追跡領域を調整して被写体像を追跡できる。   As a result, the digital camera 1 can track the subject image by adjusting the tracking area to a more optimal size even when the subject moves in the perspective direction.

<2.構成例(図1、図2)>
図1は、本実施の形態に係るデジタルカメラ1の斜視図である。図2は、本実施の形態に係るデジタルカメラ1の構成を示すブロック図である。以下、具体的構成を説明する。
<2. Configuration Example (FIGS. 1 and 2)>
FIG. 1 is a perspective view of a digital camera 1 according to the present embodiment. FIG. 2 is a block diagram showing a configuration of the digital camera 1 according to the present embodiment. A specific configuration will be described below.

光学系11は、被写体からの光学信号を集光してCCDイメージセンサー12上に被写体像を形成する。光学系11は、対物レンズ111とズームレンズ112とフォーカスレンズ113と絞り/シャッタ114とを含む。   The optical system 11 collects optical signals from the subject and forms a subject image on the CCD image sensor 12. The optical system 11 includes an objective lens 111, a zoom lens 112, a focus lens 113, and an aperture / shutter 114.

ズームレンズ112は、ズーム駆動部115によって駆動され、被写体像の写る範囲(画角)を調整する。すなわち、ズームレンズ112は、焦点距離を調整可能である。フォーカスレンズ113は、フォーカス駆動部116によって駆動され、ピントの調節を行なう。ズーム駆動部115は、ズームレンズ112を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、ズームレンズ112を駆動させる。フォーカス駆動部116は、フォーカスレンズ113を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成される。フォーカス駆動部116は、コントローラ17からの制御に応じて、フォーカスレンズ113を駆動させる。   The zoom lens 112 is driven by the zoom driving unit 115 and adjusts the range (view angle) in which the subject image is captured. That is, the zoom lens 112 can adjust the focal length. The focus lens 113 is driven by the focus drive unit 116 to adjust the focus. The zoom drive unit 115 includes a cam mechanism for moving the zoom lens 112 and an actuator for driving the cam mechanism, and drives the zoom lens 112 in accordance with control from the controller 17. The focus driving unit 116 includes a cam mechanism for moving the focus lens 113, an actuator for driving the cam mechanism, and the like. The focus driving unit 116 drives the focus lens 113 in accordance with control from the controller 17.

また、絞り/シャッタ114は、絞りとシャッタを兼用した部材である。絞り/シャッタ114は、絞り/シャッタ駆動部117によって駆動される。絞りは、5枚の羽根によって構成され、光学系11を通る光の量を調整するものである。また、シャッタは、開けたり閉じられたりして、CCDイメージセンサー12に当たる光の量を時間的に調整するものである。絞り/シャッタ駆動部117は、カム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、絞り/シャッタを駆動する。   The diaphragm / shutter 114 is a member that serves as both a diaphragm and a shutter. The aperture / shutter 114 is driven by an aperture / shutter driver 117. The stop is composed of five blades and adjusts the amount of light passing through the optical system 11. The shutter is opened and closed to adjust the amount of light hitting the CCD image sensor 12 with time. The aperture / shutter drive unit 117 includes a cam mechanism and an actuator for driving the cam mechanism, and drives the aperture / shutter in accordance with control from the controller 17.

なお、本実施の形態では、絞りとシャッタを兼用した絞り/シャッタ114を備えるようにしたが、これに限られず、絞りとシャッタとを別々に設けるようにしても良い。この場合、例えば、シャッタは光学系内に設けず、絞りだけを光学系に設けるとよい。この際、シャッタは、光学系とCCDイメージセンサーの間に設けるとよい。このようにすれば、シャッタを光学系と別の部材で設けたので、レンズ交換タイプのデジタルカメラにも適用できるようになる。   In the present embodiment, the diaphragm / shutter 114 that serves both as a diaphragm and a shutter is provided. However, the present invention is not limited to this, and the diaphragm and the shutter may be provided separately. In this case, for example, the shutter is not provided in the optical system, and only the diaphragm is provided in the optical system. At this time, the shutter may be provided between the optical system and the CCD image sensor. In this way, since the shutter is provided by a member different from the optical system, it can be applied to a lens exchange type digital camera.

CCDイメージセンサー12は、光学系11によって形成された被写体像を撮像して画像データを生成する。CCDイメージセンサー12は、タイミングジェネレータ121から供給されるパルス信号に基づいて、被写体像を撮像し、画像データを生成する。タイミングジェネレータ121は、LSIなどの集積回路によって構成され、CCDイメージセンサー12にパルス信号を供給する。ここでタイミングジェネレータ121がCCDイメージセンサー12に供給するパルス信号は、例えば、1秒間に30回のフレーム読み出しパルス信号を供給する。これによって、CCDイメージセンサー12では、30分の1秒ごとのフレームの画像データを取得できるようになる。なお、カラーフィルターには、原色フィルターが用いられている。   The CCD image sensor 12 captures a subject image formed by the optical system 11 and generates image data. The CCD image sensor 12 captures a subject image based on the pulse signal supplied from the timing generator 121 and generates image data. The timing generator 121 is configured by an integrated circuit such as an LSI and supplies a pulse signal to the CCD image sensor 12. Here, the pulse signal that the timing generator 121 supplies to the CCD image sensor 12 supplies, for example, 30 frame readout pulse signals per second. As a result, the CCD image sensor 12 can acquire image data of a frame every 1/30 second. A primary color filter is used as the color filter.

ADコンバータ13は、CCDイメージセンサー12で生成された画像データをデジタルデータに変換する。   The AD converter 13 converts the image data generated by the CCD image sensor 12 into digital data.

画像処理部14は、デジタルデータに変換された画像データに対して所定の処理を施す。所定の処理としては、補間処理、ガンマ変換、YC変換、電子ズーム処理、圧縮処理、伸張処理などが考えられるが、これに限定されるものではない。ここで本実施の形態で画像処理部14は、デジタルデータに変換された画像データを、BMデータとYCデータに変換する。つまり、画像処理部14では、BMデータとYCデータが生成されることになる。BMデータは、画像データにおける色の割合を示す情報である。このBMデータの詳細については、3章で説明する。画像処理部14は、例えば、LSIで実現可能である。   The image processing unit 14 performs predetermined processing on the image data converted into digital data. Examples of the predetermined process include an interpolation process, a gamma conversion, a YC conversion, an electronic zoom process, a compression process, and an expansion process, but are not limited thereto. Here, in the present embodiment, the image processing unit 14 converts the image data converted into digital data into BM data and YC data. That is, the image processing unit 14 generates BM data and YC data. The BM data is information indicating the color ratio in the image data. Details of the BM data will be described in Chapter 3. The image processing unit 14 can be realized by an LSI, for example.

バッファメモリ15は、画像処理部14で画像処理を行う際、および、コントローラ17で制御処理を行う際に、ワークメモリとして作用する。バッファメモリ15は、例えば、DRAMなどで実現可能である。   The buffer memory 15 functions as a work memory when the image processing unit 14 performs image processing and when the controller 17 performs control processing. The buffer memory 15 can be realized by, for example, a DRAM.

フラッシュメモリ16は、内蔵メモリとして用いられる。フラッシュメモリ16は、画像処理された画像データ(補間処理後データ)の他に、コントローラ17の制御のためのプログラムや設定値などを記憶可能である。本実施の形態では、顔情報が記憶されている。顔情報は、画像データ内から人物の顔を検出するために用いられるものである。つまり、顔情報は、画像データ内に、顔情報が存在するか否かを判別する際に用いられるものである。顔情報には、例えば、顔全体の輪郭や顔の構成要素(目、鼻、耳など)に対応したテンプレート情報が考えられる。   The flash memory 16 is used as a built-in memory. The flash memory 16 can store a program for controlling the controller 17, a set value, and the like in addition to image data subjected to image processing (data after interpolation processing). In the present embodiment, face information is stored. The face information is used to detect a person's face from the image data. That is, the face information is used when determining whether face information exists in the image data. As the face information, for example, template information corresponding to the contour of the entire face and facial components (eyes, nose, ears, etc.) can be considered.

コントローラ17は、デジタルカメラ1の各部を制御する。コントローラ17は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現しても良い。なお、コントローラ17の各種制御は、後ほど詳細を説明する。   The controller 17 controls each part of the digital camera 1. The controller 17 may be realized by a microcomputer or a hard-wired circuit. The various controls of the controller 17 will be described in detail later.

ぶれ検出器30は、ジャイロセンサーなどで構成されるものであり、自装置の振動を検出する。ぶれ検出器30は、デジタルカメラ1の水平軸を中心とした上下方向の回転振動を検知する第1のジャイロセンサーと、デジタルカメラ1の鉛直軸を中心とした左右方向の回転振動を検知する第2のジャイロセンサーとを備える。つまり、ぶれ検出器30は、デジタルカメラ1の動き角速度を検出する。なお、コントローラ17は、ぶれ検出器30から動き角速度を取得して、この角速度を積分して、デジタルカメラ1の角速度を算出する。この角速度が、デジタルカメラ1のぶれ量である。ぶれ量は、例えば、−300〜300deg/secのような値で算出される。   The shake detector 30 is composed of a gyro sensor or the like, and detects vibration of the own device. The shake detector 30 detects a first gyro sensor that detects rotational vibration in the vertical direction around the horizontal axis of the digital camera 1 and a first gyro sensor that detects rotational vibration in the horizontal direction around the vertical axis of the digital camera 1. 2 gyro sensors. That is, the shake detector 30 detects the motion angular velocity of the digital camera 1. The controller 17 obtains the motion angular velocity from the shake detector 30 and integrates this angular velocity to calculate the angular velocity of the digital camera 1. This angular velocity is the shake amount of the digital camera 1. The shake amount is calculated by a value such as −300 to 300 deg / sec, for example.

カードスロット18は、メモリカード19を着脱するためのスロットである。カードスロット18は、メモリカード19を制御する機能を有するようにしてもよい。メモリカード19は、フラッシュメモリなどを内蔵する。メモリカード19は、画像処理部14によって画像処理された画像データ(補間処理後データ)を格納可能である。   The card slot 18 is a slot for inserting and removing the memory card 19. The card slot 18 may have a function of controlling the memory card 19. The memory card 19 includes a flash memory or the like. The memory card 19 can store image data (data after interpolation processing) that has been subjected to image processing by the image processing unit 14.

液晶モニタ20は、画像データおよびデジタルカメラ1の各種設定等を表示する。なお、液晶モニタ20に替えて、有機ELディスプレイなどを用いることもできる。   The liquid crystal monitor 20 displays image data and various settings of the digital camera 1. Note that an organic EL display or the like can be used instead of the liquid crystal monitor 20.

操作部21は、デジタルカメラ1の外装に取り付けられた操作部材の総称である。操作部21としては、十字キーや押下釦等が考えられる。   The operation unit 21 is a general term for operation members attached to the exterior of the digital camera 1. The operation unit 21 may be a cross key or a push button.

本実施の形態では、操作部の一つの押下釦として、シャッタスイッチ211がある。シャッタスイッチ211は、デジタルカメラ1の上面に設けられるものであり、使用者からの半押しおよび全押しを検知できるようにしたものである。使用者によって半押し又は全押し操作が行なわれると、シャッタスイッチ211は操作に応じた操作信号をコントローラ17に出力する。   In the present embodiment, there is a shutter switch 211 as one push button of the operation unit. The shutter switch 211 is provided on the upper surface of the digital camera 1 and can detect half-press and full-press from the user. When a half-press or full-press operation is performed by the user, the shutter switch 211 outputs an operation signal corresponding to the operation to the controller 17.

また本実施の形態では、操作部21の一つの部材としてズームレバー212が備えられている。ズームレバー212は、使用者からの操作に応じて、デジタルカメラ1の焦点距離を変更するものである。ズームレバー212は、使用者に操作されると、操作信号をコントローラ17に出力する。これによって、コントローラ17は、ズームレンズ112に対して焦点距離を変更するための制御信号を送ることができる。   In the present embodiment, a zoom lever 212 is provided as one member of the operation unit 21. The zoom lever 212 changes the focal length of the digital camera 1 in accordance with an operation from the user. The zoom lever 212 outputs an operation signal to the controller 17 when operated by the user. As a result, the controller 17 can send a control signal for changing the focal length to the zoom lens 112.

<3.画像処理部によって生成されるBMデータとYCデータ>
画像処理部14では、CCDイメージセンサー12で生成された画像データから、BMデータ及びYCデータを生成することが可能である。BMデータは、関係情報を取得するため、及び、WBの調整のため、露出を調整するためなどに用いられる。また、YCデータは、追跡情報に基づき追跡領域を設定するため、及び、液晶モニタ20の表示画面を生成するため、メモリカード19に記録する画像データを生成するためなどに用いられる。
<3. BM data and YC data generated by image processing unit>
The image processing unit 14 can generate BM data and YC data from the image data generated by the CCD image sensor 12. The BM data is used for obtaining relationship information, adjusting WB, adjusting exposure, and the like. The YC data is used to set a tracking area based on the tracking information, to generate a display screen of the liquid crystal monitor 20, and to generate image data to be recorded on the memory card 19.

<3.1 ADコンバータ13から入力される画像データ(画像処理前)>
ADコンバータ13から入力される画像データは、各画素の電荷データである。CCDイメージセンサー12に原色フィルターが設けられている場合、各画素が赤、緑、又は、青に対応する。したがって、画像処理部14は、原色フィルターの色の配置を予め記憶すれば、画像データにおいて、各画素がどの色に対応するかを判別できる。
<3.1 Image Data Input from AD Converter 13 (Before Image Processing)>
Image data input from the AD converter 13 is charge data of each pixel. When the CCD image sensor 12 is provided with a primary color filter, each pixel corresponds to red, green, or blue. Therefore, the image processing unit 14 can determine which color each pixel corresponds to in the image data if the arrangement of the primary color filters is stored in advance.

<3.2 BMデータ>
BMデータは、画像データを複数に分割した場合において、各分割した領域(以下、分割領域)の色の割合を示す情報である。画像処理部は、画像データを、16×16の領域に分割している。画像処理部は、各分割領域から色の割合を取得するようにしている。以下、図6を用いて、画像処理部14のBMデータ取得方法を説明する。
<3.2 BM data>
The BM data is information indicating the color ratio of each divided area (hereinafter, divided area) when the image data is divided into a plurality of parts. The image processing unit divides the image data into 16 × 16 areas. The image processing unit acquires the color ratio from each divided region. Hereinafter, the BM data acquisition method of the image processing unit 14 will be described with reference to FIG.

画像処理部14は、ADコンバータ13から入力された情報を、領域毎で分割する。例えば、ある分割領域Aにおける画素毎の電荷データを取得する。そして画像処理部14は、どの画素がどの色に対応するかを判別できるので、領域毎に得られる情報に基づいて、赤、緑、青の各々について情報を積算する(図6)。これによって、画像処理部は、各領域内における赤、緑、青毎の色の大きさを取得することができる。なお、画像処理部14では、例えば、各領域内の各BMサイズを12bitで表現するように構成されている。したがって、R,G,Bの各々の値は、0〜4095の値を取る。   The image processing unit 14 divides the information input from the AD converter 13 for each region. For example, charge data for each pixel in a certain divided area A is acquired. Since the image processing unit 14 can determine which pixel corresponds to which color, the information is accumulated for each of red, green, and blue based on the information obtained for each region (FIG. 6). As a result, the image processing unit can acquire the size of each color of red, green, and blue in each region. The image processing unit 14 is configured to express each BM size in each region with 12 bits, for example. Therefore, each value of R, G, B takes a value of 0-4095.

<3.3 YCデータ>
YCデータは、画像データに補間処理を施した後、YC(YCbCr)変換を施したものである。画像処理部14は、YC(YCbCr)変換によって、各画素に、明るさ「Y(輝度情報)」と、色情報「Cb(輝度信号と青色の色差)、Cr(輝度信号と赤色の色差)」とを得ることができる。
<3.3 YC data>
The YC data is obtained by performing YC (YCbCr) conversion after performing interpolation processing on image data. The image processing unit 14 converts the brightness “Y (luminance information)”, color information “Cb (luminance signal and blue color difference), and Cr (luminance signal and red color difference) into each pixel by YC (YCbCr) conversion. Can be obtained.

図8を用いて、画像処理部14のYCデータ取得方法を説明する。画像処理部14は、入力された画像データにガンマ処理及びホワイトバランスゲインを施した後、補間処理を施す。補間処理は、例えば、R/Gr/Gb/BからR/G/BへのBayer−RGB変換で実現できる。これによって、各画素が、RGB全ての情報を含むようになる。そして画像処理部14は、各画素のRGB情報を、YCbCrに変換する。これによって、画像処理部14は、YCデータを得ることができる。なお、YC変換は、一般的な技術であるため、説明を省略する。   The YC data acquisition method of the image processing unit 14 will be described with reference to FIG. The image processing unit 14 performs gamma processing and white balance gain on the input image data, and then performs interpolation processing. The interpolation processing can be realized by, for example, Bayer-RGB conversion from R / Gr / Gb / B to R / G / B. As a result, each pixel includes all the information of RGB. Then, the image processing unit 14 converts the RGB information of each pixel into YCbCr. Thus, the image processing unit 14 can obtain YC data. Note that YC conversion is a general technique, and thus description thereof is omitted.

<4.画像処理部で得られ関係情報及び色情報(図4、5、7、8)>
本実施の形態では、画像処理部14は、図4に示すように、画像データから、近似度(関係情報の一例)及び色情報(追跡情報の一例)を取得可能に構成されている。具体的に、画像処理部14は、図5に示すように、BMデータを基に、第1判定領域81と第2判定領域91の近似度を求めることができる。また、画像処理部14は、図5に示すように、YCデータを基に、ある追跡領域71の色情報を求めることができる。以下、詳細を説明する。
<4. Relation Information and Color Information Obtained by Image Processing Unit (FIGS. 4, 5, 7, and 8)>
In the present embodiment, as shown in FIG. 4, the image processing unit 14 is configured to be able to acquire the degree of approximation (an example of relationship information) and color information (an example of tracking information) from image data. Specifically, as shown in FIG. 5, the image processing unit 14 can obtain the degree of approximation between the first determination area 81 and the second determination area 91 based on the BM data. Further, as shown in FIG. 5, the image processing unit 14 can obtain the color information of a certain tracking area 71 based on the YC data. Details will be described below.

<4.1.判定領域間の近似度(関係情報)>
判定領域間の近似度の求め方を、図4を用いて説明する。図4は、BMデータに基づいて得られる第1判定領域81の色割合と第2判定領域91の色割合を示したものである。
<4.1. Approximation between judgment areas (related information)>
A method of obtaining the degree of approximation between the determination areas will be described with reference to FIG. FIG. 4 shows the color ratio of the first determination area 81 and the color ratio of the second determination area 91 obtained based on the BM data.

第1判定領域81及び第2判定領域91は、画像データAのYCデータ(図示せず)に対して、設定されている。つまり、第1判定領域81と第2判定領域91は、画像データの画素に対応する形で、画像データAに設定されている(図7)。例えば、画像データAが横1600×縦1600画素と仮定した場合、第1判定領域81は、左上端(750,720)と右下端(900,880)の位置に設定される。また、第2判定領域91は、左上端(650,690)と右下端(950,910)の位置に設定される。このようにして、第1判定領域及び第2判定領域は、YCデータの一部に設定される。   The first determination area 81 and the second determination area 91 are set for YC data (not shown) of the image data A. That is, the first determination area 81 and the second determination area 91 are set in the image data A so as to correspond to the pixels of the image data (FIG. 7). For example, when the image data A is assumed to be 1600 × 1600 pixels, the first determination area 81 is set at the positions of the upper left end (750, 720) and the lower right end (900, 880). The second determination area 91 is set at the positions of the upper left end (650, 690) and the lower right end (950, 910). In this way, the first determination area and the second determination area are set as part of the YC data.

画像処理部14は、このように設定された第1判定領域81を用いて、BMデータから第1判定領域81の色割合を取得する。この際、画像処理部14は、第1判定領域81内の画素が少なくとも一部に含まれる分割領域を抽出する。例えば、図7の右上図では、斜線部分が抽出対象の分割領域となる。そして画像処理部14は、抽出した分割領域において、各々の領域の色割合(赤、緑、青)を取得し、積算する。このようにして、画像処理部14は、第1判定領域81の色割合を求めることができる。同様の方法で、画像処理部14は、第2判定領域91の色割合を求めることができる。   The image processing unit 14 acquires the color ratio of the first determination region 81 from the BM data using the first determination region 81 set in this way. At this time, the image processing unit 14 extracts a divided region that includes at least part of the pixels in the first determination region 81. For example, in the upper right diagram in FIG. Then, the image processing unit 14 acquires and integrates the color ratios (red, green, and blue) of each region in the extracted divided regions. In this way, the image processing unit 14 can obtain the color ratio of the first determination area 81. In a similar manner, the image processing unit 14 can obtain the color ratio of the second determination area 91.

次に、画像処理部14は、第1判定領域81の色割合と第2判定領域91の色割合を用いて、近似度を算出する。ここで、第1判定領域81と第2判定領域91は、領域の大きさが異なる。そのため、この状態で近似度を求めると、計算が複雑になる。そこで、本実施の形態では、第1判定領域81と第2判定領域91を同じ面積に換算した場合の各々の色割合を求める。そして、求めた色割合を減算することで、近似度を求める。   Next, the image processing unit 14 calculates the degree of approximation using the color ratio of the first determination area 81 and the color ratio of the second determination area 91. Here, the first determination area 81 and the second determination area 91 have different area sizes. For this reason, calculating the approximation degree in this state complicates the calculation. Therefore, in the present embodiment, the respective color ratios when the first determination region 81 and the second determination region 91 are converted to the same area are obtained. Then, the degree of approximation is obtained by subtracting the obtained color ratio.

例えば、図7のように第1判定領域81と第2判定領域91の面積比が1:4である場合、第2判定領域の各々(R/G/B)の色割合を4で除算する。そして、第1判定領域81の色割合と第2判定領域91の色割合を減算する。このようにして、画像処理部14は、第1判定領域81と第2判定領域91の近似度を求めることができる。   For example, when the area ratio between the first determination region 81 and the second determination region 91 is 1: 4 as shown in FIG. 7, the color ratio of each of the second determination regions (R / G / B) is divided by 4. . Then, the color ratio of the first determination area 81 and the color ratio of the second determination area 91 are subtracted. In this way, the image processing unit 14 can obtain the degree of approximation between the first determination area 81 and the second determination area 91.

<4.2.追跡領域内の色情報>
追跡領域内の色情報の求め方を、図8を用いて説明する。図8は、YCデータに基づいて得られる色情報を示す図である。図8では、YC変換後の画像データに、ある追跡領域71が設定されている。追跡領域71は、判定領域と同様、画像データの画素に対応する形で、画像データに設定されている。
<4.2. Color information in the tracking area>
A method for obtaining the color information in the tracking area will be described with reference to FIG. FIG. 8 is a diagram showing color information obtained based on YC data. In FIG. 8, a tracking area 71 is set in the image data after YC conversion. Similar to the determination area, the tracking area 71 is set in the image data in a form corresponding to the pixels of the image data.

画像処理部14は、このように設定された追跡領域71を用いて、YCデータから色情報を取得する。詳しく説明すると、画像処理部14は、追跡領域内におけるYCデータの各画素を色相角(0〜359度)に変換する。つまり、画像処理部14は、各画素が色相角でいう何度に該当するかを取得する。例えば、ある画素は、色相角5度となる。そして画像処理部14は、色相角に変換された各画素を、色相角全体を40分割した色領域に振り分けていく。色領域は、色相角全体を40分割しているので、第1色領域が0〜8度、第2色領域が9〜17度、・・・のように分割される。そのため、画像処理部14は、例えば、ある画素が色相角5度に変換された場合、この画素を、第1色領域(0〜8度)に振り分ける。画像処理部14は、上記のようにして振り分けられた画素の数を、色領域毎に計算する。   The image processing unit 14 acquires color information from the YC data using the tracking area 71 set in this way. More specifically, the image processing unit 14 converts each pixel of YC data in the tracking area into a hue angle (0 to 359 degrees). That is, the image processing unit 14 acquires how many times each pixel corresponds to the hue angle. For example, a certain pixel has a hue angle of 5 degrees. Then, the image processing unit 14 distributes each pixel converted into the hue angle into a color region obtained by dividing the entire hue angle by 40. Since the entire color angle is divided into 40, the color area is divided such that the first color area is 0 to 8 degrees, the second color area is 9 to 17 degrees, and so on. Therefore, for example, when a certain pixel is converted to a hue angle of 5 degrees, the image processing unit 14 distributes the pixel to the first color region (0 to 8 degrees). The image processing unit 14 calculates the number of pixels distributed as described above for each color region.

このようにして、画像処理部14は、YCデータからある追跡領域の色情報を取得できるようにしている。   In this way, the image processing unit 14 can acquire color information of a certain tracking area from the YC data.

なお、YCデータの各画素を色相角に変換する方法は、例えば、YCbCrをRGBに変換する。そして、RGBを色相角に変換することで可能である。また、これに限らず、例えば、テーブル情報に基づいて、YCbCrを直接色相角に変換してもよい。   In addition, the method of converting each pixel of YC data into a hue angle converts, for example, YCbCr into RGB. This can be done by converting RGB into hue angle. For example, YCbCr may be directly converted into a hue angle based on table information.

<4.動作例(図14、図15、図4〜12)>
次に、本実施の形態に係るデジタルカメラ1の動作例を説明する。以下では、ユーザ操作によって、画像データに追跡領域を設定する際の動作と、画像データの一部に設定された追跡領域を、順次生成される画像データに継続して設定する動作を説明する。
<4. Example of Operation (FIGS. 14, 15, and 4 to 12)>
Next, an operation example of the digital camera 1 according to the present embodiment will be described. Hereinafter, an operation for setting a tracking area in image data by a user operation and an operation for continuously setting a tracking area set in a part of the image data in sequentially generated image data will be described.

<4.1.ユーザ操作による追跡領域の設定動作(図14)>
まず、ユーザ操作により、撮像装置が画像データに追跡領域を設定する動作を説明する。図14は、追跡領域の設定動作を説明するフローチャートである。
<4.1. Tracking region setting operation by user operation (FIG. 14)>
First, an operation in which the imaging apparatus sets a tracking area in image data by a user operation will be described. FIG. 14 is a flowchart for explaining the tracking region setting operation.

画像処理部14は、画像データを取得する(S1)。この際、画像処理部14は、画像データから、YCデータとBMデータを生成する。画像処理部14は、ユーザ操作によって、追跡領域が設定されたか否かを検知する(S2)。画像処理部14は、ユーザによって所定のボタンが操作されたことを検知すると、画像データ(YCデータ)の中央部に位置する被写体に対して追跡領域が設定されたと判断する。本実施の形態において、所定のボタンとは、十字キーの下ボタンのことである。すなわち、ユーザは、追跡領域で被写体を追跡する場合、デジタルカメラ1のアングルを移動して、追跡したい被写体を画像データ(YCデータ)の中央部に移動させる。そして、ユーザは、画像データの中央部に、追跡したい被写体が移動したところで、下ボタンを押下する。これによって、ユーザは、追跡したい被写体に対して、追跡領域を設定できる。   The image processing unit 14 acquires image data (S1). At this time, the image processing unit 14 generates YC data and BM data from the image data. The image processing unit 14 detects whether a tracking area is set by a user operation (S2). When the image processing unit 14 detects that a predetermined button has been operated by the user, the image processing unit 14 determines that a tracking region has been set for the subject located at the center of the image data (YC data). In the present embodiment, the predetermined button is a lower button of the cross key. That is, when the user tracks the subject in the tracking area, the user moves the angle of the digital camera 1 to move the subject to be tracked to the center of the image data (YC data). Then, the user presses the down button when the subject to be tracked moves to the center of the image data. Thus, the user can set a tracking area for the subject to be tracked.

図14の説明に戻って、画像処理部14は、追跡領域の大きさを調整する(S3)。具体的には以下の方法で実現できる。   Returning to the description of FIG. 14, the image processing unit 14 adjusts the size of the tracking region (S3). Specifically, it can be realized by the following method.

画像処理部14は、画像データ(YCデータ)において、設定された追跡領域と対応する位置に、図16のパターン1のような仮領域と補助領域を設ける。画像処理部14は、このようにして設定された仮領域と第1補助領域と第2補助領域から、色情報を取得する。画像処理部14は、仮領域と補助領域の色情報が分離できるか否かを判別する。ここで仮領域と補助領域の色情報が分離できるとは、色情報において画素数が最も多い色領域が一致しないことをいう。したがって、画像処理部14は、例えば、仮領域の色情報において第1色領域(0〜8度)の画素数が最も多く、第1補助領域の色情報において第2色領域(9〜17度)の画素数が最も多い場合、仮領域と第1補助領域の色情報は分離できると判断する。なお、仮領域と補助領域内の色情報は、追跡領域の色情報と同様の方法で取得できる。   In the image data (YC data), the image processing unit 14 provides a temporary area and an auxiliary area such as the pattern 1 in FIG. 16 at a position corresponding to the set tracking area. The image processing unit 14 acquires color information from the temporary area, the first auxiliary area, and the second auxiliary area set in this way. The image processing unit 14 determines whether the color information of the temporary area and the auxiliary area can be separated. Here, the color information of the temporary area and the auxiliary area can be separated means that the color area having the largest number of pixels in the color information does not match. Therefore, for example, the image processing unit 14 has the largest number of pixels in the first color area (0 to 8 degrees) in the color information of the temporary area, and the second color area (9 to 17 degrees in the color information of the first auxiliary area). ) Is the largest in number, it is determined that the color information of the temporary area and the first auxiliary area can be separated. Note that the color information in the temporary area and the auxiliary area can be acquired by the same method as the color information in the tracking area.

本実施の形態では、画像処理部14は、仮領域の色情報が、第1補助領域及び第2補助領域の両方の色情報と分離できるか否かを判別する。したがって、画像処理部14は、仮領域の色情報が、第1補助領域及び第2補助領域の両方の色情報と分離できる場合、現在の仮領域の大きさを、追跡領域の大きさに決定する。一方画像処理部14は、仮領域の色情報が、第1補助領域及び第2補助領域の両方の色情報と分離できない場合、図16のパターン2のような、先ほどの仮領域より大きい仮領域と補助領域を設ける。このようにして、画像処理部14は、仮領域と補助領域が分離できるまで、仮領域の大きさを大きくしていく。これによって、画像処理部14は、追跡領域の設定時において、追跡領域の大きさをより最適なサイズに調整できるようにしている。このようにして画像処理部14は、ステップS2で設定された追跡領域の大きさを調整する(S3)。   In the present embodiment, the image processing unit 14 determines whether or not the color information of the temporary area can be separated from the color information of both the first auxiliary area and the second auxiliary area. Therefore, when the color information of the temporary area can be separated from the color information of both the first auxiliary area and the second auxiliary area, the image processing unit 14 determines the size of the current temporary area as the size of the tracking area. To do. On the other hand, when the color information of the temporary area cannot be separated from the color information of both the first auxiliary area and the second auxiliary area, the image processing unit 14 has a temporary area larger than the temporary area, such as the pattern 2 in FIG. And an auxiliary area. In this way, the image processing unit 14 increases the size of the temporary area until the temporary area and the auxiliary area can be separated. Thus, the image processing unit 14 can adjust the size of the tracking area to a more optimal size when setting the tracking area. In this way, the image processing unit 14 adjusts the size of the tracking area set in step S2 (S3).

この後、画像処理部14は、追跡領域内の色情報を取得し、バッファメモリ15に記憶する(S4)。この追跡領域内の色情報が追跡情報の一例である。なお、画像処理部14は、画像データ(YCデータ)における、追跡領域の設定位置・サイズを示す情報を記憶する。例えば、追跡領域の設定位置・サイズを示す情報は、左上端(750,720)と右下端(900,880)のような情報となる。   Thereafter, the image processing unit 14 acquires color information in the tracking area and stores it in the buffer memory 15 (S4). The color information in this tracking area is an example of tracking information. The image processing unit 14 stores information indicating the set position / size of the tracking area in the image data (YC data). For example, the information indicating the set position / size of the tracking area is information such as the upper left end (750, 720) and the lower right end (900, 880).

次に画像処理部14は、画像データ(YCデータ)において、追跡領域と同じ位置に第1の判定領域を設定する。また、画像処理部14は、画像データ(YCデータ)において、第1の判定領域に対して縦横が2倍である第2の判定領域を設定する。画像処理部14は、例えば、画像データA(YCデータ)の図9のような位置に、第1判定領域81及び第2判定領域91を設定する。   Next, the image processing unit 14 sets a first determination area at the same position as the tracking area in the image data (YC data). In addition, the image processing unit 14 sets a second determination area in the image data (YC data) that is twice as long as the first determination area. For example, the image processing unit 14 sets the first determination region 81 and the second determination region 91 at the position of the image data A (YC data) as shown in FIG.

そして画像処理部14は、図7に示すように、画像データA(BMデータ)において、画像データA(YCデータ)に設定された第1判定領域81及び第2判定領域91に対応する位置から、色割合を取得する(S5)。また、画像処理部14は、図7のように、取得した色割合に基づいて、第1判定領域81及び第2判定領域82の近似度を算出し、バッファメモリ15に記憶する(S6)。ここで画像処理部14が算出して記憶した近似度を、第1近似度と呼ぶ。   Then, as shown in FIG. 7, the image processing unit 14 starts from a position corresponding to the first determination area 81 and the second determination area 91 set in the image data A (YC data) in the image data A (BM data). The color ratio is acquired (S5). Further, as shown in FIG. 7, the image processing unit 14 calculates the degree of approximation of the first determination area 81 and the second determination area 82 based on the acquired color ratio, and stores it in the buffer memory 15 (S6). Here, the degree of approximation calculated and stored by the image processing unit 14 is referred to as a first degree of approximation.

ここで、画像処理部14は、上記設定した第1及び第2判定領域の設定位置及びサイズを示す情報を記憶する(S7)。例えば、第1判定領域の設定位置・サイズを示す情報は、追跡領域と同様に、左上端(750,720)と右下端(900,880)のような情報となる。また、第2判定領域の設定位置・サイズを示す情報は、左上端(650,690)と右下端(950,910)のような情報となる。   Here, the image processing unit 14 stores information indicating the set positions and sizes of the set first and second determination areas (S7). For example, the information indicating the set position / size of the first determination area is information such as the upper left end (750, 720) and the lower right end (900, 880), as in the tracking area. Information indicating the set position / size of the second determination area is information such as the upper left end (650, 690) and the lower right end (950, 910).

画像処理部14は、画像データ及び追跡領域を表示画面として液晶モニタ20に表示させる(S8)。例えば、図3の画像データAが表示画面として表示されることになる。この後、画像処理部14は、画像データに対する追跡動作を繰り返す(S9)。   The image processing unit 14 displays the image data and the tracking area on the liquid crystal monitor 20 as a display screen (S8). For example, the image data A in FIG. 3 is displayed as a display screen. Thereafter, the image processing unit 14 repeats the tracking operation for the image data (S9).

<4.2.画像データに対する追跡動作(繰り返し)(図15)>
画像処理部14における画像データに対する追跡動作を説明する。図15は、追跡動作を説明するためのフローチャートである。
<4.2. Tracking operation for image data (repetition) (FIG. 15)>
A tracking operation for image data in the image processing unit 14 will be described. FIG. 15 is a flowchart for explaining the tracking operation.

まず、画像処理部14は、新たな画像データをADコンバータ13から取得する(T1)。この際、画像処理部14は、画像データから、YCデータとBMデータを生成する。画像処理部14は、バッファメモリ15に記憶した追跡領域内の色情報に基づいて、ステップT1で取得した画像データ(YCデータ)に新たな追跡領域を設定する(T2)。   First, the image processing unit 14 acquires new image data from the AD converter 13 (T1). At this time, the image processing unit 14 generates YC data and BM data from the image data. The image processing unit 14 sets a new tracking area in the image data (YC data) acquired in step T1 based on the color information in the tracking area stored in the buffer memory 15 (T2).

色情報に基づく新たな追跡領域の設定方法を説明する。画像処理部14は、過去の追跡領域の設定位置・サイズを示す情報に基づいて、ステップT1で取得した画像データ(YCデータ)に、過去の追跡領域よりも大きい検索領域を設定する。画像処理部14は、検索領域内の画像データ(YCデータ)において、追跡領域の色情報と最も近似する領域を探索する。画像処理部14は、このようにして探索した領域に、新たな追跡領域を設定する。この際、画像処理部14が設定する追跡領域は、過去の追跡領域と同じサイズになる。   A method for setting a new tracking area based on color information will be described. The image processing unit 14 sets a search area larger than the past tracking area in the image data (YC data) acquired in step T <b> 1 based on information indicating the set position / size of the past tracking area. The image processing unit 14 searches the image data (YC data) in the search area for an area that most closely matches the color information of the tracking area. The image processing unit 14 sets a new tracking area in the area searched in this way. At this time, the tracking area set by the image processing unit 14 has the same size as the past tracking area.

図15の説明に戻って、画像処理部14は、ステップS4で追跡領域を設定した際、追跡精度が悪化したか否かを判別する(T3)。ここで、追跡精度の悪化の判別は、例えば、以下の方法で実現できる。   Returning to the description of FIG. 15, the image processing unit 14 determines whether or not the tracking accuracy has deteriorated when the tracking area is set in step S4 (T3). Here, the determination of the deterioration of the tracking accuracy can be realized by the following method, for example.

追跡領域の悪化は、例えば、バッファメモリ15に記憶された追跡領域の色情報と、ステップT2で設定された追跡領域内の色情報との比較によって判別できる。例えば、本実施の形態では、画像処理部14は、バッファメモリ15に記憶された色情報に最も多く含まれる色領域の画素数と、ステップT2で設定された追跡領域内の色情報に最も多く含まれる色領域の画素数を比較する。そして画像処理部14は、色領域の画素数の差が、ある閾値以上である場合、追跡精度が悪化したと判断する。一方で画像処理部14は、色領域の画素数の差が、ある閾値未満である場合、追跡精度は悪化していないと判断する。これによって、画像処理部14は、追跡精度が悪化したか否かを判断できる。   The deterioration of the tracking area can be determined, for example, by comparing the color information of the tracking area stored in the buffer memory 15 with the color information in the tracking area set in step T2. For example, in the present embodiment, the image processing unit 14 has the largest number of pixels in the color area that is included most in the color information stored in the buffer memory 15 and the color information in the tracking area set in step T2. The number of pixels in the included color area is compared. The image processing unit 14 determines that the tracking accuracy has deteriorated when the difference in the number of pixels in the color region is equal to or greater than a certain threshold value. On the other hand, the image processing unit 14 determines that the tracking accuracy has not deteriorated when the difference in the number of pixels in the color region is less than a certain threshold. Accordingly, the image processing unit 14 can determine whether or not the tracking accuracy has deteriorated.

画像処理部14は、追跡精度が悪化していない場合、ステップT9に移行する。一方、画像処理部14は、追跡精度が悪化している場合、図10のように、バッファメモリ15に記憶された第1及び第2判定領域の設定位置・サイズの情報に基づき、ステップT1で取得した画像データ(BMデータ)に、第1判定領域82及び第2判定領域92を設定する。そして、画像処理部14は、第1判定領域82及び第2判定領域92に対応する位置から、各々の色割合を取得する(T4)。この後、画像処理部14は、第1判定領域82の色割合と第2判定領域92の色割合を基に、第1及び第2判定領域の近似度を算出する(T5)。本実施の形態では、このステップT5で算出した近似度を、第2近似度と呼ぶ。   If the tracking accuracy has not deteriorated, the image processing unit 14 proceeds to Step T9. On the other hand, when the tracking accuracy is deteriorated, the image processing unit 14 determines whether or not the setting position / size information of the first and second determination areas stored in the buffer memory 15 as shown in FIG. A first determination area 82 and a second determination area 92 are set in the acquired image data (BM data). Then, the image processing unit 14 acquires the respective color ratios from the positions corresponding to the first determination area 82 and the second determination area 92 (T4). Thereafter, the image processing unit 14 calculates the degree of approximation of the first and second determination areas based on the color ratio of the first determination area 82 and the color ratio of the second determination area 92 (T5). In the present embodiment, the degree of approximation calculated in step T5 is referred to as a second degree of approximation.

画像処理部14は、バッファメモリ15に記憶された近似度(第1近似度)及びステップT5で算出した近似度(第2近似度)を比較する。具体的には、画像処理部14は、第1近似度と第2近似度の差が所定値以上か否かを判別する(T61)。画像処理部14は、第1近似度と第2近似度の差が所定値未満である場合、ステップT9に移行する。つまり、画像処理部14では、被写体の大きさは大きく変化していないとして、追跡領域の大きさの変更は行なわない。   The image processing unit 14 compares the approximation degree (first approximation degree) stored in the buffer memory 15 with the approximation degree (second approximation degree) calculated in step T5. Specifically, the image processing unit 14 determines whether or not the difference between the first approximation degree and the second approximation degree is equal to or greater than a predetermined value (T61). If the difference between the first approximation degree and the second approximation degree is less than the predetermined value, the image processing unit 14 proceeds to Step T9. That is, the image processing unit 14 does not change the size of the tracking area, assuming that the size of the subject has not changed significantly.

一方、画像処理部14は、第1近似度と第2近似度の差が所定値以上である場合、第2近似度が第1近似度よりも小さいか否かを判別する(T62)
画像処理部14は、第2近似度が第1近似度よりも小さい場合、追跡領域の大きさを拡大するように調整する(T7)。この場合、図11に示すように、画像処理部14は、被写体が撮像装置に近づいたと判断している。一方、画像処理部14は、第2近似度が第1近似度よりも小さくない場合、追跡領域の大きさを縮小するように調整する。この場合、図12に示すように、画像処理部14は、被写体が撮像装置から遠ざかったと判断している。
On the other hand, when the difference between the first approximation degree and the second approximation degree is greater than or equal to a predetermined value, the image processing unit 14 determines whether or not the second approximation degree is smaller than the first approximation degree (T62).
If the second degree of approximation is smaller than the first degree of approximation, the image processing unit 14 adjusts the size of the tracking area to be enlarged (T7). In this case, as illustrated in FIG. 11, the image processing unit 14 determines that the subject has approached the imaging apparatus. On the other hand, when the second approximation is not smaller than the first approximation, the image processing unit 14 adjusts the size of the tracking area to be reduced. In this case, as illustrated in FIG. 12, the image processing unit 14 determines that the subject has moved away from the imaging device.

ここで追跡領域の調整方法は、例えば、以下の方法で実現できる。2つの方法を例示するが、これに限られない。本実施の形態では、1つ目の方法で実現しているものとする。   Here, the tracking region adjustment method can be realized by the following method, for example. Although two methods are illustrated, it is not restricted to this. In this embodiment, it is assumed that the first method is used.

1つ目の方法は、予め規定された追尾領域のサイズを1段階大きく、又は、小さくする方法である。   The first method is a method of increasing or decreasing the size of the tracking area defined in advance by one step.

追跡領域は、予め複数のサイズで規定されているものとする。例えば、画面全体がQVA160×120画素である場合、画像処理部は、16×16画素、20×20画素、24×24画素、・・・48×48画素を追跡領域のサイズとして規定できる。20×20画素の追跡領域で追跡を行なっていた場合を例にして説明を行なう。画像処理部14は、第2近似度が第1近似度よりも小さい場合、追跡領域のサイズを1段階拡大する。つまり、画像処理部14は、追尾領域を、24×24画素に変更する。一方、画像処理部14は、第2近似度が第1近似度よりも小さくない場合、追跡領域のサイズを1段階縮小する。例えば、画像処理部14は、追尾領域を、16×16画素に変更する。このように追跡領域のサイズを調整する。このようにすれば、追尾領域のサイズを段階的に変更することになる。このため、追跡領域の変化を滑らかにできる。   The tracking area is defined in advance with a plurality of sizes. For example, when the entire screen is QVA 160 × 120 pixels, the image processing unit can define 16 × 16 pixels, 20 × 20 pixels, 24 × 24 pixels,... 48 × 48 pixels as the size of the tracking area. An explanation will be given taking as an example a case where tracking is performed in a tracking area of 20 × 20 pixels. When the second approximation is smaller than the first approximation, the image processing unit 14 increases the size of the tracking area by one step. That is, the image processing unit 14 changes the tracking area to 24 × 24 pixels. On the other hand, if the second approximation is not smaller than the first approximation, the image processing unit 14 reduces the size of the tracking area by one step. For example, the image processing unit 14 changes the tracking area to 16 × 16 pixels. In this way, the size of the tracking area is adjusted. In this way, the size of the tracking area is changed stepwise. For this reason, the change of the tracking area can be smoothed.

2つ目の方法は、第2近似度の大きさに応じて、追跡領域のサイズを調整するものである。具体的に説明する。   The second method is to adjust the size of the tracking area according to the magnitude of the second approximation. This will be specifically described.

本実施の形態では、画像処理部は、第2近似度のR画素、G画素、B画素から、一つの画素を選択する。例えば、画像処理部は、第1判別領域82の色割合のうち、最も大きい値を持つ画素を選択する。つまり、画像処理部は、第1判別領域82の色割合のうち、R画素の値が、G及びB画素よりも大きければ、R画素を選択する。   In the present embodiment, the image processing unit selects one pixel from the R pixel, the G pixel, and the B pixel having the second approximation degree. For example, the image processing unit selects a pixel having the largest value among the color ratios of the first determination area 82. That is, the image processing unit selects the R pixel if the value of the R pixel is larger than the G and B pixels in the color ratio of the first determination region 82.

そして、画像処理部は、第2近似度のR画素の値に基づいて、追跡領域のサイズを調整する。ここで本実施の形態では、第1判別領域82と第2判別領域92の面積比を1:4にしている。そのため、第2近似度(第1判別領域と第2判別領域内の色割合の差)のR画素の値が0である場合、追跡領域の面積を4倍にすべきと仮定できる。反対に、第2近似度のR画素の値が所定値(Z)である場合、追跡領域の面積を1/4倍にすべきと仮定できる。よって、画像処理部は、第2近似度のR画素の値が0であれば4倍、第2近似度のR画素の値が所定値(Z)であれば1/4倍という情報から、線形補間を用いて、第2近似度のR画素の値に基づく拡大倍率を計算する。画像処理部は、拡大倍率に応じて、追跡領域のサイズを調整する。   Then, the image processing unit adjusts the size of the tracking area based on the value of the R pixel having the second degree of approximation. Here, in the present embodiment, the area ratio of the first discrimination region 82 and the second discrimination region 92 is 1: 4. Therefore, when the value of the R pixel of the second degree of approximation (the difference in color ratio between the first discrimination region and the second discrimination region) is 0, it can be assumed that the area of the tracking region should be quadrupled. On the contrary, when the value of the R pixel of the second approximation degree is a predetermined value (Z), it can be assumed that the area of the tracking region should be ¼ times. Therefore, the image processing unit uses the information that the value of the R pixel of the second approximation degree is 4 times if the value is 0, and the information that the value of the R pixel of the second approximation degree is 1/4 times if the value is the predetermined value (Z), Using linear interpolation, the enlargement magnification based on the value of the R pixel of the second degree of approximation is calculated. The image processing unit adjusts the size of the tracking area according to the enlargement magnification.

なお、画像処理部14は、追跡領域のサイズを調整する際、ステップT2で設定された領域の略中心を基準にして、拡大又は縮小する。このようにして、画像処理部14は、図3のように、追跡領域のサイズを調整できる。   Note that, when adjusting the size of the tracking area, the image processing unit 14 enlarges or reduces the area based on the approximate center of the area set in step T2. In this way, the image processing unit 14 can adjust the size of the tracking area as shown in FIG.

画像処理部14は、サイズ調整後の追跡領域内の画像データ(YCデータ)から色情報を取得し、バッファメモリ15に記憶する(T9)。そして画像処理部14は、画像データ(YCデータ)において、サイズ調整後の追跡領域に対応する第1判定領域及び第2判定領域を設定する。具体的に画像処理部14は、画像データ(YCデータ)において、サイズ調整後の追跡領域と同じ位置で、かつ、同じサイズの第1の判定領域を設定する。また、画像処理部14は、画像データ(YCデータ)において、第1の判定領域に対して縦横が2倍である第2の判定領域を設定する。   The image processing unit 14 acquires color information from the image data (YC data) in the tracking area after the size adjustment, and stores it in the buffer memory 15 (T9). Then, the image processing unit 14 sets a first determination region and a second determination region corresponding to the tracking region after the size adjustment in the image data (YC data). Specifically, the image processing unit 14 sets a first determination area having the same position and the same size as the tracking area after the size adjustment in the image data (YC data). In addition, the image processing unit 14 sets a second determination area in the image data (YC data) that is twice as long as the first determination area.

この後、画像処理部14は、画像データ(BMデータ)において、画像データ(YCデータ)に設定された第1判定領域及び第2判定領域に対応する位置から、色割合を取得する。また、画像処理部14は、取得した色割合に基づいて、第1判定領域及び第2判定領域の近似度を算出し、バッファメモリ15に記憶する(T10)。つまり、画像処理部14は、バッファメモリ15に記憶された第1近似度を更新する。   Thereafter, the image processing unit 14 acquires the color ratio from the positions corresponding to the first determination region and the second determination region set in the image data (YC data) in the image data (BM data). Further, the image processing unit 14 calculates the degree of approximation of the first determination region and the second determination region based on the acquired color ratio, and stores it in the buffer memory 15 (T10). That is, the image processing unit 14 updates the first approximation stored in the buffer memory 15.

次に、画像処理部14は、ステップT10で設定した第1及び第2判定領域の設定位置及びサイズを示す情報を記憶する(T11)。この後、画像処理部14は、図3の画像データBのように、画像データ及びサイズ調整後の追跡領域を表示画面として液晶モニタ20に表示させる(T12)。   Next, the image processing unit 14 stores information indicating the setting positions and sizes of the first and second determination areas set in step T10 (T11). After that, the image processing unit 14 displays the image data and the tracking area after the size adjustment on the liquid crystal monitor 20 as a display screen as in the image data B of FIG. 3 (T12).

このようにして、画像処理部14は、ある画像データに対して追跡動作を実現できる。画像処理部14は、上記動作を繰り返して、CCDイメージセンサー12から順次生成される画像データに対し、追跡領域の設定動作を繰り返す。例えば、図3のように、順次生成される画像データに対して、追跡領域73,74が設定される。   In this way, the image processing unit 14 can realize a tracking operation for certain image data. The image processing unit 14 repeats the above operation to repeat the tracking region setting operation for the image data sequentially generated from the CCD image sensor 12. For example, as shown in FIG. 3, tracking areas 73 and 74 are set for sequentially generated image data.

<5.まとめ>
デジタルカメラ1は、被写体像を撮像して、画像データを順次生成するCCDイメージセンサー12と、被写体像を追跡するための追跡情報に基づいて、CCDイメージセンサー12で順次生成される画像データに追跡領域を設定する画像処理部14と、画像データの一部に設定される第1判定領域及び第2判定領域から近似度を取得する画像処理部14と、を備える。そして画像処理部14は、ある画像データに対して追跡領域を設定する際、この画像データで取得される第2近似度、及び、以前に取得した画像データで取得される第1近似度の変化の大きさに応じて、追跡領域の大きさを調整する。
<5. Summary>
The digital camera 1 captures a subject image and sequentially generates image data, and the image data sequentially generated by the CCD image sensor 12 is traced based on tracking information for tracking the subject image. An image processing unit 14 that sets an area, and an image processing unit 14 that acquires a degree of approximation from a first determination area and a second determination area set in a part of the image data. When the image processing unit 14 sets a tracking area for certain image data, the second approximation obtained with the image data and the change in the first approximation obtained with the previously acquired image data. The size of the tracking area is adjusted according to the size of.

このようにすれば、デジタルカメラは、ある画像データの近似度と以前の画像データの近似度の変化の大きさに応じて追跡領域の大きさを調整できる。そのため、被写体がデジタルカメラに対して遠近方向で移動した場合であっても、より適切な大きさに追跡領域を調整して被写体像を追跡できる。
(他の実施の形態)
本発明の実施の形態として、上記実施の形態を例示した。しかし、本発明は、上記実施の形態に限定されず、他の実施の形態においても実現可能である。そこで、本発明の他の実施の形態を以下まとめて説明する。
In this way, the digital camera can adjust the size of the tracking area in accordance with the degree of change in the degree of approximation of certain image data and the degree of approximation of previous image data. Therefore, even when the subject moves in the perspective direction with respect to the digital camera, the subject image can be tracked by adjusting the tracking area to a more appropriate size.
(Other embodiments)
The above embodiment has been exemplified as an embodiment of the present invention. However, the present invention is not limited to the above embodiment, and can be implemented in other embodiments. Therefore, other embodiments of the present invention will be described collectively below.

本実施の形態では、第1の判定領域を追跡領域と同じ位置に設定するようにした。しかし、これに限られず、第1判定領域は、追跡領域とは異なる位置に設定してもかまわない。例えば、図13に示すように、他の実施の形態Aのように、被写体の違う箇所に判定領域を設定してもよい。また、他の実施の形態Bのように、被写体が保持している物に判定領域を設定してもよい。   In the present embodiment, the first determination area is set at the same position as the tracking area. However, the present invention is not limited to this, and the first determination area may be set at a position different from the tracking area. For example, as shown in FIG. 13, as in other embodiment A, determination areas may be set at different locations of the subject. Further, as in the other embodiment B, the determination area may be set for an object held by the subject.

また、本実施の形態では、画像処理部14は、ステップT4及びT5で第2の近似度を算出する際、第1の判定領域と第2の判定領域を、過去の画像データで設定された位置と同じ位置に設定するようにした。しかし、これに限られず、画像処理部は、パンニングによって撮影画像に画角ズレが生じた場合は、ステップT4〜T8の動作を行なわないようにしてもよい。ここでパンニングによって撮影画像に画角ズレが発生したか否かは、ぶれ検出器30の出力が、画像データ間で所定閾値以上になったか否かで判断すればよい。また、画像処理部は、パンニングによって撮影画像に画角ズレが生じた場合、ぶれ検出器の出力に応じて、ステップT4で設定する判定領域の位置をずらすようにしてもよい。このようにすれば、撮像装置がパンニングされることによって、画角ズレが生じた場合であっても、追跡領域の大きさをより適切な大きさに調整できるようになる。   In the present embodiment, when the image processing unit 14 calculates the second approximation degree in steps T4 and T5, the first determination area and the second determination area are set with past image data. Set to the same position as the position. However, the present invention is not limited to this, and the image processing unit may not perform the operations in steps T4 to T8 when the angle of view shift occurs in the captured image due to panning. Here, whether or not the angle-of-view deviation has occurred in the captured image due to panning may be determined by whether or not the output of the shake detector 30 has exceeded a predetermined threshold value between the image data. Further, the image processing unit may shift the position of the determination region set in step T4 in accordance with the output of the shake detector when the angle of view shift occurs in the captured image due to panning. In this way, the size of the tracking area can be adjusted to a more appropriate size even when the angle of view is shifted by panning the imaging device.

また、本実施の形態では、色情報の分離を、色相角を用いて行なうようにした。しかし、これに限られず、色情報の分離を、色相角と彩度を用いるようにしてもよい。この場合、本実施の形態では、位相角全体を40分割としているところを、他の実施の形態では、例えば、位相角全体を20分割し、彩度を2分割すればよい。また、色情報の分離を、彩度のみで実現でしてもよい。   In the present embodiment, the color information is separated using the hue angle. However, the present invention is not limited to this, and color information may be separated using the hue angle and saturation. In this case, in the present embodiment, the entire phase angle is divided into 40, but in the other embodiments, for example, the entire phase angle may be divided into 20 and the saturation may be divided into 2. Further, separation of color information may be realized only by saturation.

さらに、本実施の形態では、仮領域内の色情報と補助領域内の色情報が分離できるか否かを判別する際、色情報において画素数が最も多い色領域が一致するか否かで判断するようにした。しかし、これに限られず、画像処理部は、各色領域(単位)の一致度の合計を利用して判断するようにしてもよい。例えば、画像処理部は、各色領域(単位)の画素数がどれだけ一致しているかを判断する。そして、画像処理部は、一致した画素数の合計が、所定閾値以上である場合、仮領域と補助領域が色情報で分離できないと判断すればよい。   Furthermore, in this embodiment, when determining whether or not the color information in the temporary area and the color information in the auxiliary area can be separated, it is determined by whether or not the color area having the largest number of pixels matches in the color information. I tried to do it. However, the present invention is not limited to this, and the image processing unit may make the determination using the total degree of coincidence of each color region (unit). For example, the image processing unit determines how much the number of pixels in each color region (unit) matches. Then, the image processing unit may determine that the temporary area and the auxiliary area cannot be separated by the color information when the total number of matched pixels is equal to or greater than a predetermined threshold.

すなわち、本発明は、上記実施の形態に限られず、様々な形態で実現できる。   That is, the present invention is not limited to the above embodiment, and can be realized in various forms.

本発明は、デジタルスチルカメラ、デジタルビデオカメラ、カメラ付き携帯電話等に適用することが可能である。   The present invention can be applied to a digital still camera, a digital video camera, a camera-equipped mobile phone, and the like.

1 デジタルカメラ
11 光学系
12 CCDイメージセンサー
121 タイミングジェネレータ
13 ADコンバータ
14 画像処理部
15 バッファメモリ
16 フラッシュメモリ
17 コントローラ
20 液晶モニタ
21 操作部
71、72、73、74 追跡領域
81、82 第1判定領域
91、92 第2判定領域
DESCRIPTION OF SYMBOLS 1 Digital camera 11 Optical system 12 CCD image sensor 121 Timing generator 13 AD converter 14 Image processing part 15 Buffer memory 16 Flash memory 17 Controller 20 Liquid crystal monitor 21 Operation part 71, 72, 73, 74 Tracking area | region 81, 82 1st determination area | region 91, 92 Second determination area

Claims (10)

被写体像を撮像して、画像データを順次生成する撮像手段と、
被写体像を追跡するための追跡情報に基づいて、前記撮像手段で順次生成される画像データに追跡領域を設定する追跡領域設定手段と、
前記画像データの一部に設定される追跡領域に関連する第1の判定領域及び当該第1の判定領域と異なるサイズの第2の判定領域から判定領域間の関係情報を取得する関係情報取得手段と、
前期関係情報取得手段によって前記撮像手段で生成された第1画像データから取得される第1の関係情報と、前記関係情報取得手段によって前記第1画像データよりも後に取得される第2画像データから取得される第2の関係情報とに基づいて、前記追跡領域設定手段で設定された第2画像データの追跡領域のサイズを調整する追跡領域調整手段と、
を備える撮像装置。
Imaging means for capturing a subject image and sequentially generating image data;
Based on tracking information for tracking a subject image, tracking area setting means for setting a tracking area in image data sequentially generated by the imaging means;
Relationship information acquisition means for acquiring relationship information between determination regions from a first determination region related to a tracking region set in a part of the image data and a second determination region having a size different from that of the first determination region. When,
From the first relationship information acquired from the first image data generated by the imaging unit by the previous period relationship information acquisition unit, and from the second image data acquired after the first image data by the relationship information acquisition unit Tracking area adjusting means for adjusting the size of the tracking area of the second image data set by the tracking area setting means based on the acquired second relationship information;
An imaging apparatus comprising:
前記撮像手段によって生成された画像データの一部に設定される追跡領域に基づいて、被写体像を追跡するための追跡情報を取得する追跡情報取得手段をさらに備え、
前記追跡領域設定手段は、前記追跡情報取得手段で取得した追跡情報に基づいて、追跡領域を設定する、
請求項1に記載の撮像装置。
Tracking information acquisition means for acquiring tracking information for tracking the subject image based on a tracking area set in a part of the image data generated by the imaging means;
The tracking area setting means sets a tracking area based on the tracking information acquired by the tracking information acquisition means;
The imaging device according to claim 1.
前記撮像手段で生成された画像データ及び当該画像データに設定される追跡領域を示す表示画面を表示する表示手段と、をさらに備える請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising: a display unit configured to display a display screen indicating image data generated by the imaging unit and a tracking area set in the image data. 前記追跡領域と前記第1の判定領域は同じ領域である、請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the tracking area and the first determination area are the same area. 前記撮像手段で生成された画像データから、色の割合を示す色割合情報を取得する色割合取得手段をさらに備え、
前記関係情報取得手段は、前記色割合取得手段で取得した色割合情報を用いて、前記関係情報を取得する、
請求項1に記載の撮像装置。
Color ratio acquisition means for acquiring color ratio information indicating a color ratio from the image data generated by the imaging means,
The relationship information acquisition means acquires the relationship information using the color ratio information acquired by the color ratio acquisition means.
The imaging device according to claim 1.
前記追跡情報と前記関係情報は、同じ指標の情報である、請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the tracking information and the relationship information are information of the same index. 前記追跡情報及び前記関係情報には、色に関する情報が用いられる、請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein color information is used for the tracking information and the relationship information. 前記追跡情報及び前記関係情報には、コントラストに関する情報が用いられる、請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein information regarding contrast is used for the tracking information and the relationship information. 前記追跡情報と前記関係情報は、異なる指標の情報である、請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the tracking information and the relationship information are information of different indexes. 被写体像を撮像して、画像データを順次生成する撮像手段と、
前記生成される画像データの一部に設けられる追跡領域の第1特徴情報、当該追跡領域と関連する第1の判定領域の第2特徴情報、及び、前記第1の判定領域と同じ位置に設けられ、当該第1の判定領域とサイズが異なる第2の判定領域の第2特徴情報を取得する特徴情報取得手段と、
前記取得手段で取得された前記第1の判定領域の第2特徴情報及び前記第2の判定領域の第2特徴情報に基づいて、前記判定領域間の関係情報を取得する関係情報取得手段と、
前記撮像手段で生成された第1画像データの一部に設定される追跡領域の第1特徴情報に基づいて、前記第1画像データの後に生成される第2画像データに追跡領域の設定する追跡領域設定手段と、
前記第1画像データにおいて前記関係取得手段で取得される第1関係情報と、前記第2画像データにおいて前記関係取得手段で取得される第2関係情報とに基づいて、前記追跡領域設定手段で設定された第2画像データの追跡領域のサイズを調整する調整手段と、
を備える撮像装置。
Imaging means for capturing a subject image and sequentially generating image data;
Provided at the same position as the first feature information of the tracking area provided in a part of the generated image data, the second feature information of the first determination area related to the tracking area, and the first determination area Feature information acquisition means for acquiring second feature information of a second determination region having a size different from that of the first determination region;
Relation information acquisition means for acquiring relation information between the determination areas based on the second characteristic information of the first determination area and the second characteristic information of the second determination area acquired by the acquisition means;
Tracking that sets the tracking region in the second image data generated after the first image data based on the first feature information of the tracking region set in a part of the first image data generated by the imaging unit Region setting means;
Set by the tracking area setting unit based on the first relationship information acquired by the relationship acquisition unit in the first image data and the second relationship information acquired by the relationship acquisition unit in the second image data. Adjusting means for adjusting the size of the tracking area of the second image data that has been obtained;
An imaging apparatus comprising:
JP2009208890A 2009-09-10 2009-09-10 Imaging device Pending JP2011059977A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009208890A JP2011059977A (en) 2009-09-10 2009-09-10 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009208890A JP2011059977A (en) 2009-09-10 2009-09-10 Imaging device

Publications (1)

Publication Number Publication Date
JP2011059977A true JP2011059977A (en) 2011-03-24

Family

ID=43947533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009208890A Pending JP2011059977A (en) 2009-09-10 2009-09-10 Imaging device

Country Status (1)

Country Link
JP (1) JP2011059977A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235914B2 (en) 2012-07-25 2016-01-12 Panasonic Intellectual Property Management Co., Ltd. Image editing apparatus
JP2020134538A (en) * 2019-02-12 2020-08-31 浜松ホトニクス株式会社 Image acquisition device and image acquisition method
WO2022045509A1 (en) * 2020-08-31 2022-03-03 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235914B2 (en) 2012-07-25 2016-01-12 Panasonic Intellectual Property Management Co., Ltd. Image editing apparatus
JP2020134538A (en) * 2019-02-12 2020-08-31 浜松ホトニクス株式会社 Image acquisition device and image acquisition method
JP7209557B2 (en) 2019-02-12 2023-01-20 浜松ホトニクス株式会社 Image acquisition device and image acquisition method
WO2022045509A1 (en) * 2020-08-31 2022-03-03 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11758259B2 (en) 2020-08-31 2023-09-12 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof

Similar Documents

Publication Publication Date Title
JP5409189B2 (en) Imaging apparatus and control method thereof
US7995852B2 (en) Imaging device and imaging method
TWI468770B (en) Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP5163676B2 (en) Imaging apparatus, imaging method, and program
KR20090071471A (en) Imaging device and its shutter drive mode selection method
JP6863284B2 (en) Detection device, detection method, detection program and imaging device
KR101728042B1 (en) Digital photographing apparatus and control method thereof
JP2004212556A (en) Imaging apparatus
JP2009010616A (en) Imaging device and image output control method
JP2000188713A (en) Automatic focus controller and method for determining its focusing
JP2009169282A (en) Imaging apparatus and its program
JP2010239277A (en) Imaging device and imaging method
JP2007166011A (en) Imaging apparatus and its program
JP2009081636A (en) Image recording apparatus and photographing method
JP2011059977A (en) Imaging device
JP2008090059A (en) Imaging apparatus and autofocus control method therefor
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP2020008886A (en) Focusing position detection device and focusing position detection method
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP5160655B2 (en) Image processing apparatus and method, and program
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP2011044764A (en) Image capturing apparatus
JP5892211B2 (en) Imaging apparatus and program
JP2008283477A (en) Image processor, and image processing method
JP2009225236A (en) Imaging apparatus