JP2009171191A - Image pickup device and image pickup method - Google Patents

Image pickup device and image pickup method Download PDF

Info

Publication number
JP2009171191A
JP2009171191A JP2008006687A JP2008006687A JP2009171191A JP 2009171191 A JP2009171191 A JP 2009171191A JP 2008006687 A JP2008006687 A JP 2008006687A JP 2008006687 A JP2008006687 A JP 2008006687A JP 2009171191 A JP2009171191 A JP 2009171191A
Authority
JP
Japan
Prior art keywords
image data
tracking
value
area
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008006687A
Other languages
Japanese (ja)
Inventor
Masahiro Yokohata
正大 横畠
Masahiko Yamada
晶彦 山田
Hideto Fujita
日出人 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008006687A priority Critical patent/JP2009171191A/en
Publication of JP2009171191A publication Critical patent/JP2009171191A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device that accurately detects a tracking target on the basis of a color signal of an image to be imaged while preventing the tracking target from being lost, and to provide an image pickup method. <P>SOLUTION: In the image pickup device, before setting a tracking region of image data (a STEP 11), brightness correction of the image data is executed (a STEP 10). In the brightness correction, brightness is matched with that of the previously-stored color signal of the tracking target. Consequently, it is possible to set the tracking region on the basis of uniform image data when setting the tracking region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、デジタルビデオカメラに代表される撮像装置や、その撮像方法に関するものであり、特に追尾機能を備えた撮像装置やその撮像方法に関するものである。   The present invention relates to an image pickup apparatus represented by a digital video camera and an image pickup method thereof, and more particularly to an image pickup apparatus having a tracking function and an image pickup method thereof.

近年、デジタルスチルカメラやデジタルビデオカメラのようなデジタル方式の撮像装置が広く普及している。このような撮像装置には、ユーザを補助する機能として、焦点や露出などを自動的に制御する機能を備えるものがある。   In recent years, digital imaging devices such as digital still cameras and digital video cameras have become widespread. Some of such imaging devices have a function of automatically controlling the focus, exposure, and the like as a function to assist the user.

また、このような撮像装置において、ユーザが追尾対象として決定した物体を検出する追尾機能を備えるものがある。追尾方法としては、例えば、追尾対象が発する音や、追尾対象に装着した発信器から発せられる電波などを撮像装置が認識して追尾する方法がある。しかしながら、これらの方法を用いて追尾を行うこととすると、追尾対象が制限されたものとなってしまう。   In addition, some imaging apparatuses include a tracking function that detects an object determined by a user as a tracking target. As a tracking method, for example, there is a method in which the imaging apparatus recognizes and tracks a sound emitted from a tracking target or a radio wave emitted from a transmitter attached to the tracking target. However, if tracking is performed using these methods, the tracking target is limited.

そこで、撮像する画像データの色の信号に基づいて追尾対象を検出し、追尾する方法が特許文献1において提案されている。このような方法で追尾を行うこととすると、視認できる物体であればどのようなものでも追尾対象とすることができる。
特開平5−284411号公報
Therefore, Patent Document 1 proposes a method of detecting and tracking a tracking target based on a color signal of image data to be captured. If tracking is performed by such a method, any object that can be visually recognized can be set as a tracking target.
JP-A-5-284411

しかしながら、撮像する画像データの色の信号に基づいて追尾する方法では、周囲の環境によって画像データが大きく変動すると、追尾対象を検出し難くなる問題が生じる。特に、明るさが変動する場合においては、画像全体が明るくなったり暗くなったりするために、画像データから追尾すべき色を正確に検出して判定することが困難となる。そのため、撮像装置が追尾対象を検出できずに見失うことが発生し易くなり、このような場合には追尾が不可能となってしまう。   However, in the method of tracking based on the color signal of the image data to be captured, there is a problem that it becomes difficult to detect the tracking target if the image data greatly varies depending on the surrounding environment. In particular, when the brightness fluctuates, the entire image becomes brighter or darker, making it difficult to accurately detect and determine the color to be tracked from the image data. For this reason, the imaging apparatus cannot easily detect the tracking target and easily loses its sight, and in such a case, tracking becomes impossible.

そこで、本発明は、撮像する画像データの色の信号に基づいて正確に追尾対象を検出するとともに、追尾対象を見失いにくくする撮像装置及び撮像方法を提供することを目的とする。   Therefore, an object of the present invention is to provide an imaging apparatus and an imaging method that accurately detect a tracking target based on a color signal of image data to be captured and make it difficult to lose track of the tracking target.

上記目的を達成するために、本発明における撮像装置は、入力される光学像から画像データを作成する撮像部と、入力される画像データに基づいて、画像データ内の追尾対象の位置を示す追尾領域を設定する追尾領域設定部と、を備えた撮像装置において、前記追尾対象を示す信号である追尾対象色信号を記憶する記憶部と、前記追尾領域設定部に入力される画像データの明るさを補正する明るさ補正部と、を備え、前記明るさ補正部が、前記追尾領域設定部に入力される画像データの所定の領域における明るさを、前記追尾対象色信号の明るさに近づける補正を行うとともに、前記追尾領域設定部が、前記明るさ補正部によって補正された画像データに含まれる色の信号と、前記追尾対象色信号とに基づいて前記追尾領域を設定することを特徴とする撮像装置。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging unit that creates image data from an input optical image, and a tracking that indicates the position of a tracking target in the image data based on the input image data. A tracking area setting unit that sets an area; and a brightness of image data input to the tracking area setting unit, a storage unit that stores a tracking target color signal that is a signal indicating the tracking target A brightness correction unit that corrects the brightness, and the brightness correction unit corrects the brightness in a predetermined area of the image data input to the tracking area setting unit to be close to the brightness of the tracking target color signal. And the tracking region setting unit sets the tracking region based on the color signal included in the image data corrected by the brightness correction unit and the tracking target color signal. Imaging device according to symptoms.

また、上記構成の撮像装置において、画像データの全体的な明るさを測定した結果に基づいて全体測光値を算出するとともに、画像データの前記追尾領域を含む領域である第1測光領域の明るさを測定した結果に基づいて対象測光値を算出する測光部と、前記全体測光値と、前記対象測光値と、のそれぞれに所定の加算割合を乗じて加算することで加重加算値を得るとともに、当該加重加算値に基づいて前記撮像部を制御して、前記撮像部から出力される画像データの明るさを制御する露出制御部と、をさらに備えることとしても構わない。   In the imaging apparatus having the above-described configuration, the overall photometric value is calculated based on the result of measuring the overall brightness of the image data, and the brightness of the first photometric area that is the area including the tracking area of the image data. A photometric unit that calculates a target photometric value based on the measurement result, the overall photometric value, and the target photometric value are each multiplied by a predetermined addition ratio to obtain a weighted addition value, An exposure control unit that controls the imaging unit based on the weighted addition value and controls the brightness of image data output from the imaging unit may be further provided.

このように構成することによって、明るさ補正部だけでなく、露出制御部によっても画像データの明るさが制御できることとなる。また、露出補正部は光学像から画像データを作成する撮像部の制御を行うものであるため、画像データの根本的な補正を行うことが可能となる。そのため、追尾処理を行うために最適な画像データを容易に得ることが可能となる。   With this configuration, the brightness of the image data can be controlled not only by the brightness correction unit but also by the exposure control unit. Further, since the exposure correction unit controls the imaging unit that creates image data from the optical image, it is possible to perform fundamental correction of the image data. Therefore, it is possible to easily obtain optimal image data for performing the tracking process.

また、上記構成の撮像装置において、前記対象測光値が第1範囲外の値となるときに、前記加重加算値における前記対象測光値に乗じられる加算割合が、前記対象測光値が前記第1範囲内の値である場合以上の大きさの値に設定されることとしても構わない。   In the imaging apparatus having the above configuration, when the target photometric value is out of the first range, an addition ratio by which the target photometric value is multiplied by the weighted addition value is set so that the target photometric value is in the first range. If it is a value within the range, it may be set to a value larger than that.

このように構成することによって、対象測光値の値が正常の範囲である第1範囲を逸脱した際に、追尾対象付近の領域の測光値に重点をおいた露出制御を行うことが可能となる。そのため、より追尾対象を捉えやすくすることができる。   With this configuration, when the target photometric value deviates from the first range, which is the normal range, it is possible to perform exposure control with an emphasis on the photometric value in the region near the tracking target. . Therefore, it is possible to make it easier to catch the tracking target.

また、上記構成の撮像装置において、前記対象測光値が継続して前記第1範囲内の値となるときに、前記加重加算値における前記対象測光値に乗じられる加算割合が、通常露出補正割合値に設定されることとしても構わない。さらに、通常露出補正割合値が、設定され得る最低の値であっても構わないし、0であっても構わない。   In the imaging apparatus having the above-described configuration, when the target photometric value continues to be a value within the first range, an addition ratio to be multiplied by the target photometric value in the weighted addition value is a normal exposure correction ratio value. It does not matter as being set to. Further, the normal exposure correction ratio value may be the lowest value that can be set or may be zero.

このように構成することによって、対象測光値が正常であるという範囲を示す第1範囲内に継続して収まっていれば、対象測光値に乗じられる加算割合を、通常露出割合値に設定することができる。さらに、設定され得る最低の値、特に0に設定されることとすると、全体測光値にのみ基づいて露出補正が行われるようになる。そのため、良好な追尾を行うことができる場合は、画像データの全体が良好な明るさを有するものとなる。   With this configuration, if the target photometry value is continuously within the first range indicating the normal range, the addition ratio to be multiplied by the target photometry value is set to the normal exposure ratio value. Can do. Furthermore, if the lowest value that can be set, especially 0 is set, exposure correction is performed based only on the total photometric value. Therefore, when good tracking can be performed, the entire image data has good brightness.

また、上記構成の撮像装置において、前記対象測光値が前記第1範囲外の値から前記第1範囲内の値になるとともに、その後継続して前記第1範囲内の値となる場合に、前記加重加算値における前記対象測光値に乗じられる加算割合が、少なくとも一回前記通常補正割合値以外の値に設定された後に、前記通常露出補正割合値に設定されて維持されることとしても構わない。   In the imaging device having the above-described configuration, when the target photometric value becomes a value within the first range from a value outside the first range, and then continuously becomes a value within the first range, The addition ratio to be multiplied by the target metering value in the weighted addition value may be set and maintained at the normal exposure correction ratio value after being set to a value other than the normal correction ratio value at least once. .

このように構成することによって、一旦正常の範囲である第1範囲を逸脱してから第1範囲内に戻った際に、対象測光値に乗じられる加算割合が小さい値に設定されることを抑制することができる。即ち、加算割合が小さい値に設定されて露出制御が行われることによって、再度対象測光値が第1範囲を逸脱することを防止することができる。これにより、露出が大きく変動するように制御されることが抑制され、画像データ全体の明るさの変動が低減される。   By configuring in this way, it is possible to prevent the addition ratio to be multiplied by the target photometric value from being set to a small value when it once deviates from the first range which is the normal range and then returns to the first range. can do. That is, by performing exposure control with the addition ratio set to a small value, it is possible to prevent the target photometric value from deviating from the first range again. As a result, the exposure is controlled not to fluctuate greatly, and the brightness variation of the entire image data is reduced.

また、上記構成の撮像装置において、前記対象測光値が第2範囲外の値となるときに、前記第1測光領域が、前記対象測光値が前記第2範囲内にある場合よりも大きく設定されることとしても構わない。また、前記第2範囲が、前記第1範囲と同じ範囲を示すものであっても構わない。   In the imaging apparatus having the above-described configuration, when the target photometric value is outside the second range, the first photometric area is set larger than when the target photometric value is within the second range. It does not matter as well. The second range may be the same range as the first range.

このように構成することによって、対象測光値が正常であるという範囲を示す第2範囲を逸脱した場合に、第1測光領域を大きくすることとなる。即ち、現フレームの画像データにおいて追尾が困難であるために追尾領域が設定できなかったとしても、次回の測光を行う際に、第1測光領域内に追尾対象が存在する確率を上げることができる。したがって、次回の追尾処理を良好に行うことが可能となる。また、第1範囲及び第2範囲は、それぞれ対象測光値が正常であるとする範囲を示すものであり、同質のものである。そのため、同じ範囲としてまとめることで追尾処理を容易とすることができる。   By configuring in this way, the first photometric area is enlarged when it deviates from the second range indicating the range in which the target photometric value is normal. That is, even if the tracking area cannot be set because it is difficult to track in the image data of the current frame, the probability that the tracking target exists in the first photometry area can be increased when the next photometry is performed. . Therefore, the next tracking process can be performed satisfactorily. Further, the first range and the second range indicate ranges where the target photometric values are normal, and are of the same quality. For this reason, the tracking process can be facilitated by collecting the same range.

また、上記構成の撮像装置において、前記対象測光値が、前記第1測光領域の明るさを測定した値と、前記第1測光領域の周辺の領域である周辺領域の明るさを測定した値と、のそれぞれに所定の加算割合を乗じて加算した値に基づいて算出されることとしても構わない。また、前記第1測光領域に乗算される加算割合が、前記周辺領域に乗算される加算割合よりも大きい値としても構わない。   In the imaging apparatus having the above-described configuration, the target photometric value is a value obtained by measuring the brightness of the first photometric area, and a value obtained by measuring the brightness of a peripheral area that is a peripheral area of the first photometric area. It may be calculated on the basis of a value obtained by multiplying each of these by a predetermined addition ratio. The addition ratio multiplied by the first photometric area may be larger than the addition ratio multiplied by the peripheral area.

このように構成することによって、追尾対象を包含した領域に基づいて測光が行われる確率を上げることができる。また、第1測光領域及び周辺領域の加算割合をそれぞれ設定することによって、例えば、追尾対象を見失った場合や良好な場合など、場合に応じた測光を行うことができる。また、第1測光領域に乗算される加算割合を大きくすることによって、より追尾対象が存在する確率が大きい第1測光領域に重点をおいて加重加算を行うことが可能となる。   By configuring in this way, it is possible to increase the probability that the photometry is performed based on the region including the tracking target. In addition, by setting the addition ratios of the first photometry area and the peripheral area, photometry according to the case can be performed, for example, when the tracking target is lost or good. In addition, by increasing the addition ratio multiplied by the first photometry area, it is possible to perform weighted addition with an emphasis on the first photometry area where the probability that a tracking target exists is greater.

また、上記構成の撮像装置において、入力される画像データを記録する記録部をさらに備え、当該記録部に入力される画像データが、前記明るさ補正部によって補正されていない画像データであることとしても構わない。   The imaging apparatus having the above-described configuration further includes a recording unit that records input image data, and the image data input to the recording unit is image data that has not been corrected by the brightness correction unit. It doesn't matter.

このように構成することによって、記録される画像データは追尾処理のための明るさ補正がなされていないものとなる。そのため、例えば追尾対象周辺だけが明瞭であり周囲が不明瞭であるようなバランスの悪い画像データが記録されることを抑制することができる。   With this configuration, the recorded image data is not subjected to brightness correction for tracking processing. Therefore, for example, it is possible to suppress recording of unbalanced image data in which only the periphery of the tracking target is clear and the periphery is unclear.

また、本発明における撮像方法は、追尾対象を示す信号である追尾対象色信号を記憶する第1ステップと、画像データを作成する第2ステップと、当該第2ステップにおいて作成された画像データの所定の領域の明るさが、前記第1ステップにおいて記憶された追尾対象色信号に近づくように制御する第3ステップと、当該第3ステップにおいて補正された画像データに含まれる色の信号と、前記第1ステップにおいて記憶された追尾対象色信号とに基づいて、画像データ内の追尾対象の位置を示す追尾領域を設定する第4ステップと、を備えることを特徴とする。   The imaging method according to the present invention includes a first step of storing a tracking target color signal that is a signal indicating a tracking target, a second step of generating image data, and a predetermined step of image data generated in the second step. A third step for controlling the brightness of the region to approach the tracking target color signal stored in the first step, a color signal included in the image data corrected in the third step, and the first step And a fourth step of setting a tracking region indicating the position of the tracking target in the image data based on the tracking target color signal stored in one step.

本発明の構成とすることによって、追尾処理を行う画像データの明るさを、追尾対象色信号の明るさに近づける補正が可能となる。そのため、均質な画像データに基づいて追尾領域の設定を行うことができるようになるため、検出する色を誤認するなどして追尾対象の位置を誤ることを抑制することができる。したがって、正確な追尾を行うことが可能となる。   By adopting the configuration of the present invention, it is possible to perform correction so that the brightness of the image data subjected to the tracking process approaches the brightness of the tracking target color signal. Therefore, since the tracking area can be set based on the homogeneous image data, it is possible to suppress erroneous tracking target position by misidentifying the color to be detected. Therefore, accurate tracking can be performed.

本発明における撮像装置の実施形態について、図面を参照して説明する。また、撮像装置として、デジタルスチルカメラやデジタルビデオカメラなどの音声、動画及び静止画の記録が可能な撮像装置を例に挙げて説明する。なお、以下では、動画像データ及び静止画像データのどちらも画像データとして説明する。   An embodiment of an imaging apparatus according to the present invention will be described with reference to the drawings. As an imaging apparatus, an imaging apparatus capable of recording audio, moving images, and still images, such as a digital still camera and a digital video camera, will be described as an example. Hereinafter, both moving image data and still image data will be described as image data.

(撮像装置の基本構成)
まず、撮像装置の基本構成について、図1に基づいて説明する。図1は、本発明の実施形態における撮像装置の構成を示すブロック図である。
(Basic configuration of imaging device)
First, the basic configuration of the imaging apparatus will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention.

図1に示すように、撮像装置1は、入射される光を電気信号に変換するCCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子から成るイメージセンサ2と、被写体の光学像をイメージセンサ2に結像させるとともに光量などの調整を行うレンズ部3と、を備える。レンズ部3とイメージセンサ2とで撮像部が構成され、この撮像部によって画像データが作成される。   As shown in FIG. 1, an imaging apparatus 1 includes an image sensor 2 including a solid-state imaging device such as a CCD (Charge Coupled Devices) or a CMOS (Complementary Metal Oxide Semiconductor) sensor that converts incident light into an electrical signal, and a subject. And the lens unit 3 that adjusts the amount of light and the like. The lens unit 3 and the image sensor 2 constitute an imaging unit, and image data is created by the imaging unit.

さらに、撮像装置1は、イメージセンサ2から出力されるアナログ信号の画像データをデジタル信号に変換するとともにゲインの調整を行うAFE(Analog Front End)4と、入力される音声を電気信号に変換するマイク5と、AFE4から出力されるR(赤)G(緑)B(青)のデジタル信号の画像データをY(輝度信号)U,V(色差信号)を用いた信号に変換するとともに画像データに各種画像処理を施す画像処理部6と、マイク5から出力されるアナログ信号の音声データをデジタル信号に変換する音声処理部7と、画像処理部6から出力される画像データに対してJPEG(Joint Photographic Experts Group)圧縮方式などの静止画用の圧縮符号化処理を施したり画像処理部6から出力される画像データと音声処理部7からの音声データとに対してMPEG(Moving Picture Experts Group)圧縮方式などの動画用の圧縮符号化処理を施したりする圧縮処理部8と、圧縮処理部8で圧縮符号化されたデータを記録する外部メモリ20と、画像データを外部メモリ20に記録したり読み出したりするドライバ部9と、ドライバ部9において外部メモリ20から読み出した圧縮符号化されたデータを伸長して復号する伸長処理部10と、を備える。   Further, the imaging apparatus 1 converts the analog signal image data output from the image sensor 2 into a digital signal and converts the input sound into an electric signal and an AFE (Analog Front End) 4 that adjusts the gain. The image data of the digital signal of R (red) G (green) B (blue) output from the microphone 5 and the AFE 4 is converted into a signal using Y (luminance signal) U, V (color difference signal) and image data. The image processing unit 6 that performs various image processing, the audio processing unit 7 that converts analog audio data output from the microphone 5 into a digital signal, and the image data output from the image processing unit 6 are JPEG ( (Joint Photographic Experts Group) The image data output from the image processing unit 6 and the audio data from the audio processing unit 7 are subjected to compression encoding processing for still images such as a compression method. A compression processing unit 8 that performs compression encoding processing for moving images such as MPEG (Moving Picture Experts Group) compression method, an external memory 20 that records data encoded by the compression processing unit 8, and image data A driver unit 9 that records / reads data in / from the external memory 20 and a decompression processing unit 10 that decompresses and decodes the compression-encoded data read from the external memory 20 in the driver unit 9 are provided.

また、撮像装置1は、伸長処理部10で復号された画像データをディスプレイなどの表示装置(不図示)で表示するためにアナログ信号に変換する画像出力回路部11と、伸長処理部10で復号された音声データをスピーカなどの再生装置(不図示)で再生するためにアナログ信号に変換する音声出力回路部12と、を備える。   In addition, the imaging apparatus 1 includes an image output circuit unit 11 that converts the image data decoded by the expansion processing unit 10 into an analog signal for display on a display device (not shown) such as a display, and the expansion processing unit 10 decodes the image data. And an audio output circuit unit 12 for converting the audio data into an analog signal for reproduction by a reproduction device (not shown) such as a speaker.

また、撮像装置1は、撮像装置1内全体の動作を制御するCPU(Central Processing Unit)13と、入力される画像データから追尾対象を検出して追尾処理を行う追尾処理部14と、各処理を行うための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ15と、撮像を開始するボタンや画像の補正条件を選択するボタン等のユーザからの指示が入力される操作部16と、各部の動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)部17と、CPU13と各部との間でデータのやりとりを行うためのバス回線18と、メモリ15と各部との間でデータのやりとりを行うためのバス回線19と、を備える。   In addition, the imaging device 1 includes a CPU (Central Processing Unit) 13 that controls the overall operation of the imaging device 1, a tracking processing unit 14 that detects a tracking target from input image data and performs a tracking process, and each process A memory 15 for storing each program for performing the program and temporarily storing data when the program is executed, and an operation unit to which an instruction from the user such as a button for starting imaging or a button for selecting an image correction condition is input 16, a timing generator (TG) unit 17 that outputs a timing control signal for matching the operation timing of each unit, a bus line 18 for exchanging data between the CPU 13 and each unit, a memory 15, and each unit And a bus line 19 for exchanging data with each other.

また、レンズ部3は、ズームレンズやフォーカスレンズなどの各種レンズ(不図示)や、イメージセンサ2に入力される光量を調整する絞り(不図示)などを備える。   The lens unit 3 includes various lenses (not shown) such as a zoom lens and a focus lens, and a diaphragm (not shown) that adjusts the amount of light input to the image sensor 2.

なお、外部メモリ20は画像データや音声データを記録することができればどのようなものでも構わない。例えば、SD(Secure Digital)カードのような半導体メモリ、DVDなどの光ディスク、ハードディスクなどの磁気ディスクなどをこの外部メモリ20として使用することができる。また、外部メモリ20を撮像装置1から着脱自在としても構わない。   The external memory 20 may be anything as long as it can record image data and audio data. For example, a semiconductor memory such as an SD (Secure Digital) card, an optical disk such as a DVD, a magnetic disk such as a hard disk, or the like can be used as the external memory 20. Further, the external memory 20 may be detachable from the imaging device 1.

(撮像装置の基本動作)
次に、撮像装置1の基本動作について図1を用いて説明する。まず、撮像装置1は、レンズ部3より入射される光をイメージセンサ2において光電変換することによって、電気信号である画像データを取得する。そして、イメージセンサ部2は、TG部17から入力されるタイミング制御信号に同期して、所定のフレーム周期(例えば、1/60秒)で順次AFE4に画像データを出力する。
(Basic operation of the imaging device)
Next, the basic operation of the imaging apparatus 1 will be described with reference to FIG. First, the imaging apparatus 1 acquires image data that is an electrical signal by photoelectrically converting light incident from the lens unit 3 in the image sensor 2. Then, the image sensor unit 2 sequentially outputs image data to the AFE 4 at a predetermined frame period (for example, 1/60 second) in synchronization with the timing control signal input from the TG unit 17.

そして、AFE4によってアナログ信号からデジタル信号へと変換された画像データは、画像処理部6に入力される。画像処理部6では、画像データがYUVを用いた信号に変換されるとともに、階調補正や輪郭強調等の各種画像処理が施される。また、メモリ15はフレームメモリとして動作し、画像処理部6が処理を行なう際に画像データを一時的に保持する。   Then, the image data converted from the analog signal to the digital signal by the AFE 4 is input to the image processing unit 6. In the image processing unit 6, the image data is converted into a signal using YUV, and various image processing such as gradation correction and contour enhancement is performed. The memory 15 operates as a frame memory, and temporarily holds image data when the image processing unit 6 performs processing.

また、このとき画像処理部6に入力される画像データに基づき、レンズ部3において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、ユーザの指示に基づいて手動で行われたりする。   At this time, based on the image data input to the image processing unit 6, the lens unit 3 adjusts the position of various lenses to adjust the focus, or adjusts the aperture and adjusts the exposure. It is done. This adjustment of focus and exposure is automatically performed based on a predetermined program so as to be in an optimum state, or manually performed based on a user instruction.

ここで、追尾処理を行うようにユーザから指示されている場合は、追尾処理部14が画像処理部6から入力される画像データに基づいて追尾処理を行う。なお、追尾処理の詳細については後述する。   Here, when the user instructs to perform the tracking process, the tracking processing unit 14 performs the tracking process based on the image data input from the image processing unit 6. Details of the tracking process will be described later.

動画を記録する場合であれば、画像データだけでなく音声データも記録される。マイク5において電気信号に変換されて出力される音声データは音声処理部7に入力されてデジタル化されるとともにノイズ除去などの処理が施される。そして、画像処理部6から出力される画像データと、音声処理部7から出力される音声データと、はともに圧縮処理部8に入力され、圧縮処理部8において所定の圧縮方式で圧縮される。このとき、画像データと音声データとは時間的に関連付けられており、再生時に画像と音とがずれないように構成される。そして、圧縮された画像データ及び音声データはドライバ部9を介して外部メモリ20に記録される。   In the case of recording a moving image, not only image data but also audio data is recorded. Audio data that is converted into an electrical signal and output by the microphone 5 is input to the audio processing unit 7 and digitized and subjected to processing such as noise removal. The image data output from the image processing unit 6 and the audio data output from the audio processing unit 7 are both input to the compression processing unit 8 and compressed by the compression processing unit 8 using a predetermined compression method. At this time, the image data and the sound data are temporally associated with each other, and are configured so that the image and the sound are not shifted during reproduction. The compressed image data and audio data are recorded in the external memory 20 via the driver unit 9.

一方、静止画や音声のみを記録する場合であれば、画像データまたは音声データが圧縮処理部8において所定の圧縮方法で圧縮され、外部メモリ20に記録される。なお、動画を記録する場合と静止画を記録する場合とで、画像処理部6において行われる処理を異なるものとしても構わない。   On the other hand, when only a still image or audio is recorded, the image data or audio data is compressed by the compression processing unit 8 by a predetermined compression method and recorded in the external memory 20. Note that the processing performed in the image processing unit 6 may be different depending on whether a moving image is recorded or a still image is recorded.

外部メモリ20に記録された圧縮後の画像データ及び音声データは、ユーザの指示に基づいて伸張処理部10に読み出される。伸張処理部10では、圧縮された画像データ及び音声データを伸張し、画像データを画像出力回路部11、音声データを音声出力回路部12にそれぞれ出力する。そして、画像出力回路部11や音声出力回路部12において、表示装置やスピーカにおいて再生可能な形式に変換されて出力される。   The compressed image data and audio data recorded in the external memory 20 are read to the expansion processing unit 10 based on a user instruction. The decompression processing unit 10 decompresses the compressed image data and audio data, and outputs the image data to the image output circuit unit 11 and the audio data to the audio output circuit unit 12, respectively. Then, in the image output circuit unit 11 and the audio output circuit unit 12, it is converted into a format that can be reproduced by a display device or a speaker and output.

なお、表示装置やスピーカは、撮像装置1と一体となっているものでも構わないし、別体となっており、撮像装置1に備えられる端子とケーブル等を用いて接続されるようなものでも構わない。   The display device and the speaker may be integrated with the imaging device 1 or may be separated and connected to a terminal provided in the imaging device 1 using a cable or the like. Absent.

また、画像データの記録を行わずに表示装置などに表示される画像をユーザが確認する、所謂プレビューモードである場合に、画像処理部6から出力される画像データを圧縮せずに画像出力回路部11に出力することとしても構わない。また、動画の画像データを記録する際に、圧縮処理部8で圧縮して外部メモリ20に記録するのと並行して、画像出力回路部11を介して表示装置などに画像データを出力することとしても構わない。   Further, in a so-called preview mode in which the user confirms an image displayed on a display device or the like without recording the image data, the image output circuit without compressing the image data output from the image processing unit 6 It may be output to the unit 11. In addition, when recording the image data of the moving image, the image data is output to the display device or the like via the image output circuit unit 11 in parallel with the compression processing unit 8 compressing it and recording it in the external memory 20. It does not matter.

(追尾処理部の構成)
次に、追尾処理部14の構成について図2を用いて説明する。図2は、追尾処理部の構成を示すブロック図である。図2に示すように、追尾処理部14は、入力される画像データの測光を行う測光部14aと、測光部14aの測光結果に応じて露出制御信号を出力する露出制御部14bと、測光部14aによる測光後に追尾対象色信号と画像データとに基づいて画像データの明るさ補正を行う明るさ補正部14cと、明るさ補正部14cにより明るさ補正が行われた画像データに基づいて追尾領域の設定を行い追尾結果信号を出力する追尾領域設定部14dと、を備える。各部の詳細な動作や各信号については、以下の追尾処理動作の説明において説明する。
(Configuration of tracking processing unit)
Next, the configuration of the tracking processing unit 14 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a configuration of the tracking processing unit. As shown in FIG. 2, the tracking processing unit 14 includes a photometric unit 14 a that performs photometry of input image data, an exposure control unit 14 b that outputs an exposure control signal according to a photometric result of the photometric unit 14 a, and a photometric unit A brightness correction unit 14c that corrects the brightness of the image data based on the tracking target color signal and the image data after the photometry by 14a, and a tracking area based on the image data that has been subjected to the brightness correction by the brightness correction unit 14c. And a tracking region setting unit 14d that outputs a tracking result signal. Detailed operations and signals of each part will be described in the following description of the tracking processing operation.

(追尾処理動作)
本発明の実施形態における撮像装置1の追尾処理動作について図1〜図12を用いて説明する。ここで、追尾処理の全体的な動作について図3に示す。図3は、本発明の実施形態における撮像装置の追尾処理について示したフローチャートである。
(Tracking operation)
The tracking processing operation of the imaging apparatus 1 according to the embodiment of the present invention will be described with reference to FIGS. Here, the overall operation of the tracking process is shown in FIG. FIG. 3 is a flowchart illustrating the tracking process of the imaging apparatus according to the embodiment of the present invention.

図3に示すように、追尾処理が開始されると、最初に追尾対象の選択が行われる(STEP1)。具体的な選択方法としては、例えば表示装置にカラーマップやカラーパレットなどの複数の色を表示するとともにユーザに追尾対象の色を選択させる方法がある。   As shown in FIG. 3, when the tracking process is started, a tracking target is first selected (STEP 1). As a specific selection method, for example, there is a method of displaying a plurality of colors such as a color map and a color palette on a display device and allowing the user to select a color to be tracked.

STEP1の他の方法としては、図4(a)の追尾処理の対象となる画像データの模式図に示すように、撮像画像(静止画または動画)と矢印カーソル21などを表示装置に表示させ、ユーザに矢印カーソル21を使用させて追尾対象を選択させる方法がある。また、表示装置の表示部をタッチパネルとして、ユーザに直接的に追尾対象を選択させる構成としてもよい。この方法とすると、追尾したい物体を選択するだけで追尾対象が選択されるため、操作が非常に容易となる。   As another method of STEP 1, as shown in the schematic diagram of image data to be tracked in FIG. 4A, a captured image (still image or moving image) and an arrow cursor 21 are displayed on a display device. There is a method in which the user uses the arrow cursor 21 to select a tracking target. Moreover, it is good also as a structure which makes a user select a tracking object directly by using the display part of a display apparatus as a touch panel. With this method, the tracking target is selected simply by selecting the object to be tracked, and therefore the operation becomes very easy.

STEP1の別の設定方法としては、図4(b)に示すように、表示装置に撮像画像(静止画または動画)を表示するとともに追尾処理部14によって検出された追尾対象候補の色をいくつか表示して、選択カーソル22aによってユーザに選択させる方法がある。この方法を適用する場合、近い信号を有する画素の集まり毎に領域を分割し、それぞれの領域を追尾対象候補としても構わない。また、図4(b)に示すように、検出された追尾対象候補毎の境界22bを強調表示しても構わない。さらに、後述するような移動体検出方法を利用し、検出された移動体を追尾対象候補としても構わない。このようにユーザに追尾対象及びその色を決定させることとすると、追尾処理部14によって正確に追尾対象の色及び領域が認識されているか否かを確認することも可能となる。   As another setting method of STEP 1, as shown in FIG. 4B, a captured image (still image or moving image) is displayed on the display device, and several tracking target candidate colors detected by the tracking processing unit 14 are used. There is a method of displaying and allowing the user to select with the selection cursor 22a. When this method is applied, a region may be divided for each group of pixels having close signals, and each region may be set as a tracking target candidate. Further, as shown in FIG. 4B, the boundary 22b for each detected tracking target candidate may be highlighted. Furthermore, the detected moving body may be used as a tracking target candidate by using a moving body detection method as described later. As described above, when the user determines the tracking target and its color, it is possible to confirm whether or not the tracking target color and area are accurately recognized by the tracking processing unit 14.

なお、上述したSTEP1における追尾対象の選択方法は一例であり、追尾対象が選択できる構成であればどのような方法であっても構わない。   The tracking target selection method in STEP 1 described above is an example, and any method may be used as long as the tracking target can be selected.

STEP1において追尾対象が選択されると、次に追尾領域及び初期探索領域の設定が行われる(STEP2)。この動作は、例えば、追尾処理部14が入力される画像データの中から追尾対象の色と近い色となる領域を検出して追尾領域を設定し、追尾領域に基づいて初期探索領域を設定する方法などによって行われる。また、例えば、初期探索領域が追尾領域を含む周囲の領域となるように設定される。   When the tracking target is selected in STEP 1, the tracking area and the initial search area are set (STEP 2). In this operation, for example, the tracking processing unit 14 detects a region close to the tracking target color from the input image data, sets a tracking region, and sets an initial search region based on the tracking region. It is done by methods. Further, for example, the initial search area is set to be a surrounding area including the tracking area.

また、STEP2の他の方法としては、STEP1においてユーザによって選択された領域に基づいて、追尾領域及び初期探索領域を設定するなどの方法がある。   As another method of STEP2, there is a method of setting a tracking area and an initial search area based on the area selected by the user in STEP1.

上述したSTEP2における追尾領域及び初期探索領域の設定方法は一例であり、画像データから追尾対象を含む領域を検出して追尾領域とするとともに、初期探索領域を設定できる方法であれば、他のどのような方法であっても構わない。また、STEP1及びSTEP2における動作は、追尾処理部14の追尾領域設定部14dが行っても構わない。   The method for setting the tracking area and the initial search area in STEP 2 described above is an example, and any other method can be used as long as the area including the tracking target is detected from the image data as the tracking area and the initial search area can be set. Such a method may be used. The operations in STEP1 and STEP2 may be performed by the tracking area setting unit 14d of the tracking processing unit 14.

また、追尾領域及び初期探索領域が設定された際の画像データの模式図を図4(c)に示す。図4(c)では、追尾対象が人物の上着の色(図中の波線で表現される色)である場合について示しており、追尾領域23及び初期探索領域24aが上着の一部分の領域となっている。追尾領域23及び初期探索領域24aは模式的に円形で示しているが、それぞれ四角形であっても他の形であっても構わない。また、追尾領域23が追尾対象の色と同様の色の部分を全て含む形状であっても構わない。   FIG. 4C is a schematic diagram of image data when the tracking area and the initial search area are set. FIG. 4C shows a case where the tracking target is the color of a person's jacket (color represented by a wavy line in the figure), and the tracking area 23 and the initial search area 24a are partial areas of the jacket. It has become. The tracking area 23 and the initial search area 24a are schematically shown as circles, but may be square or other shapes. Further, the tracking area 23 may have a shape including all the same color portions as the tracking target color.

STEP2において追尾領域が設定されると、次に追尾領域に含まれる画素の信号、即ち、追尾対象色信号が例えばメモリ15などに記憶される(STEP3)。なお、STEP1において選択及び決定される追尾対象の色を、そのまま追尾対象色信号としても構わない。   When the tracking area is set in STEP 2, the signal of the pixel included in the tracking area, that is, the tracking target color signal is stored in, for example, the memory 15 (STEP 3). Note that the tracking target color selected and determined in STEP 1 may be used as the tracking target color signal as it is.

追尾対象色信号には、画素の輝度に関する信号と色に関する信号とが含まれる。なお、追尾対象色信号は、例えばYUVで表現される信号やRGBで表現される信号など、どのような形式であっても構わない。   The tracking target color signal includes a signal related to pixel luminance and a signal related to color. The tracking target color signal may be in any format such as a signal expressed in YUV or a signal expressed in RGB.

STEP3において記憶される追尾対象色信号は以降の動作を行う際の基準値として用いられる。そのため、追尾領域23及び初期探索領域24aを設定する際に用いられる画像データは、露出やフォーカスなどが適正であり良好なものとなっていると好ましい。   The tracking target color signal stored in STEP 3 is used as a reference value when performing the subsequent operations. Therefore, it is preferable that the image data used when setting the tracking area 23 and the initial search area 24a have good exposure and focus and the like.

また、STEP3において追尾対象色信号が記憶されると、追尾処理を終了する指示が出されているか否かが確認される(STEP4)。追尾処理を終了する指示が出されている場合は追尾処理を終了する(STEP4、YES)。一方、追尾処理を終了する指示が出されていない場合は追尾処理を続行する(STEP4、NO)。   When the tracking target color signal is stored in STEP 3, it is confirmed whether or not an instruction to end the tracking process is issued (STEP 4). If an instruction to end the tracking process has been issued, the tracking process ends (STEP 4, YES). On the other hand, if the instruction to end the tracking process is not issued, the tracking process is continued (STEP 4, NO).

追尾処理を続行する場合は(STEP4、NO)、次フレームの画像データの取り込みを行う(STEP5)。そして、このとき取り込まれるフレームの画像データに対して追尾処理部14が以降の処理を行う。まず、追尾処理部14の測光部14aが、このフレームの画像データの測光を行う(STEP6)。   When the tracking process is continued (STEP 4, NO), image data of the next frame is captured (STEP 5). Then, the tracking processing unit 14 performs the subsequent processing on the image data of the frame captured at this time. First, the photometry unit 14a of the tracking processing unit 14 performs photometry of the image data of this frame (STEP 6).

STEP6における測光は、STEP5において取り込んだフレームの画像データの測光値が求められることによって行われる。このとき得られる測光値は、例えば、輝度信号や、AE評価値(輝度信号やRGBの信号などの画素の信号から算出される値)、AFE4から出力されるRAWデータ(一つの画素が1色のデータのみを持つデータ、イメージセンサ2から出力されるアナログ信号をデジタル化した信号))などの明るさを評価することができるデータを用いて求められる。なお、測光値を求めるために用いられるデータは上述したデータやこれらを組み合わせたものであっても構わないし、これら以外のデータを用いても構わない。   The photometry in STEP 6 is performed by obtaining the photometric value of the image data of the frame captured in STEP 5. The photometric values obtained at this time are, for example, luminance signals, AE evaluation values (values calculated from pixel signals such as luminance signals and RGB signals), and RAW data output from the AFE 4 (one pixel has one color) Data having only the above-mentioned data, a signal obtained by digitizing an analog signal output from the image sensor 2, and the like)). The data used for obtaining the photometric value may be the above-described data, a combination of these, or other data.

また、図4(d)の測光領域の模式図に示すように、この測光は探索領域24周辺の周辺領域25を含めた測光領域26で行われる。初めて測光を行う場合はSTEP2において設定された初期探索領域24aが探索領域24となる。   In addition, as shown in the schematic diagram of the photometry area in FIG. 4D, this photometry is performed in the photometry area 26 including the peripheral area 25 around the search area 24. When photometry is performed for the first time, the initial search area 24 a set in STEP 2 becomes the search area 24.

そして、探索領域24の測光値の平均値と、周辺領域の測光値の平均値と、に加重加算を行い、対象測光値を得る。具体的には、以下の式(I)のように計算する。
(探索領域測光値の平均値)×α+(周辺領域の測光値の平均値)×β … (I)
これにより対象測光値を得る。ここで、α+β=1としても構わない。
Then, a weighted addition is performed on the average value of the photometric values in the search area 24 and the average value of the photometric values in the surrounding area to obtain the target photometric value. Specifically, it is calculated as in the following formula (I).
(Average value of search area photometric value) × α + (Average value of photometric value of surrounding area) × β (I)
Thus, the target photometric value is obtained. Here, α + β = 1 may be set.

STEP6によって測光が行われ対象測光値が得られると、次に対象測光値の判定を行う(STEP7)。このときの判定は、対象測光値が許容範囲内にあるか否かの判定となる。この判定について図5を用いて説明する。図5は、測光、対象測光値判定及び探索領域設定が行われるフレームの画像データの模式図である。   When photometry is performed in STEP 6 and the target photometry value is obtained, the target photometry value is next determined (STEP 7). The determination at this time is a determination as to whether or not the target photometric value is within an allowable range. This determination will be described with reference to FIG. FIG. 5 is a schematic diagram of image data of a frame in which photometry, target photometric value determination, and search area setting are performed.

図5(a)は、対象測光値が小さく許容範囲内に含まれない場合について示している。このとき、画像全体が暗くなるため、追尾処理部14の追尾領域設定部14dが画像データから追尾対象色信号と同様となる部分を検出することが困難となる。そのため、後述する追尾領域位置決定(STEP11)を行う際に画像データの色が正確に認識されず、追尾領域を誤った位置として決定する確率が高くなる。   FIG. 5A shows a case where the target photometric value is small and not included in the allowable range. At this time, since the entire image becomes dark, it becomes difficult for the tracking region setting unit 14d of the tracking processing unit 14 to detect a portion that is similar to the tracking target color signal from the image data. Therefore, when the tracking area position determination (STEP 11) described later is performed, the color of the image data is not accurately recognized, and the probability of determining the tracking area as an incorrect position is increased.

反対に、図5(d)は、対象測光値が大きく許容範囲内に含まれない場合について示している。このとき、画像全体が明るくなるため、追尾処理部14の追尾領域設定部14dが画像データから追尾対象である色を検出することが困難となる。そのため、暗くなる場合と同様に、後述する追尾領域位置決定(STEP11)において画像データの色が正確に認識されないため、追尾領域を誤った位置として決定する確率が高くなる。   Conversely, FIG. 5D shows a case where the target photometric value is large and not included in the allowable range. At this time, since the entire image becomes bright, it becomes difficult for the tracking region setting unit 14d of the tracking processing unit 14 to detect the color that is the tracking target from the image data. For this reason, as in the case of darkening, the color of the image data is not accurately recognized in tracking area position determination (STEP 11), which will be described later, so that the probability of determining the tracking area as an incorrect position is high.

そこで、図5(a)、(d)のように対象測光値が許容範囲外となってしまう場合は、探索領域24が広げられて設定される(STEP8)。例えば、許容範囲から乖離した分だけ探索領域24が広げられることとする。   Therefore, when the target photometric value falls outside the allowable range as shown in FIGS. 5A and 5D, the search area 24 is set to be expanded (STEP 8). For example, it is assumed that the search area 24 is expanded by an amount deviating from the allowable range.

このとき、探索領域24は、現フレームの次に追尾処理部14に入力される次フレームの画像データのために拡大されて設定される。このように探索領域24を拡大させることで、次フレームの画像データにおいて追尾対象が動いていたとしても、追尾対象を含んだ部分の測光(STEP6)が行われる確率が高くなる。なお、次フレームのための探索領域24の拡大に応じて測光領域26を拡大しても構わないし、さらに上述した式(I)のαやβの値を変更しても構わない。例えば、測光領域26を拡大するとともにαを大きくしても構わない。   At this time, the search area 24 is enlarged and set for the image data of the next frame that is input to the tracking processing unit 14 next to the current frame. By enlarging the search area 24 in this way, even if the tracking target is moving in the image data of the next frame, the probability that the photometry (STEP 6) of the portion including the tracking target is performed is increased. Note that the photometric area 26 may be enlarged in accordance with the enlargement of the search area 24 for the next frame, and the values of α and β in the above-described formula (I) may be changed. For example, the photometric area 26 may be enlarged and α may be increased.

また、図5(b)、(c)のように、対象測光値が低い又は高い場合であっても、許容範囲内であれば後述する明るさ補正(STEP10)によって調整可能である。この調整によって後述する追尾領域位置決定(STEP11)が正常に行われる確率が高いため、ここでは次フレームのための探索領域24の拡大を行わないこととする。   Further, as shown in FIGS. 5B and 5C, even if the target photometric value is low or high, it can be adjusted by brightness correction (STEP 10) described later if within the allowable range. Since there is a high probability that tracking area position determination (STEP 11), which will be described later, is normally performed by this adjustment, the search area 24 for the next frame is not enlarged here.

そして、以上のように次フレームのための探索領域24が設定されると、次に追尾処理部14の露出制御部14bによって露出制御が行われる(STEP9)。この露出制御について、二つの場合に分けて説明する。まず、図5(b)、(c)に示したような、対象測光値が許容範囲内となる場合について図6を用いて説明する。図6は、露出制御が行われるフレームの画像データの模式図と、画像データの輝度分布及び測光値を示すグラフである。   When the search area 24 for the next frame is set as described above, exposure control is performed by the exposure control unit 14b of the tracking processing unit 14 (STEP 9). This exposure control will be described separately in two cases. First, the case where the target photometric value is within the allowable range as shown in FIGS. 5B and 5C will be described with reference to FIG. FIG. 6 is a schematic diagram of image data of a frame for which exposure control is performed, and a graph showing the luminance distribution and photometric value of the image data.

図6(a)は、対象測光値が許容範囲となる画像データの模式図であり、測光領域26を併せて示したものである。なお、本図で示す測光領域26は、現フレームにおけるものであり、STEP6において測光が行われた領域を示すものである。即ち、図4(d)の測光領域26を示している。   FIG. 6A is a schematic diagram of image data in which the target photometric value falls within the allowable range, and shows the photometric area 26 together. Note that the photometric area 26 shown in this figure is in the current frame and indicates the area where photometry was performed in STEP 6. That is, the photometric area 26 in FIG.

図6(b)は図6(a)に示す画像データの輝度分布を示したヒストグラムであり、図中の範囲26aが図6(a)中の測光領域26の測光値が分布する範囲を示している。また、図6(c)は画像データ全体の測光値A、測光領域26の測光値C、画像データ全体の測光値Aと測光領域26の測光値Cとを加重加算した測光値B、の3つの測光値を示したグラフである。画像データ全体の測光値Aは、測光領域26と関係なく画像データ全体に対して測光値を算出したものである。なお、画像データ全体の測光値Aは、画像データの中央部分などの所定のエリアから算出することとしても構わないし、画像データの全てが含まれる領域から算出することとしても構わない。   FIG. 6B is a histogram showing the luminance distribution of the image data shown in FIG. 6A, and a range 26a in the figure indicates a range in which the photometric values in the photometric area 26 in FIG. 6A are distributed. ing. FIG. 6C shows a photometric value A of the entire image data, a photometric value C of the photometric area 26, and a photometric value B obtained by weighted addition of the photometric value A of the entire image data and the photometric value C of the photometric area 26. It is the graph which showed one photometric value. The photometric value A for the entire image data is obtained by calculating the photometric value for the entire image data regardless of the photometric area 26. Note that the photometric value A of the entire image data may be calculated from a predetermined area such as the central portion of the image data, or may be calculated from an area including all of the image data.

また、画像データ全体の測光値Aと測光領域26の測光値Cとを加重加算した測光値Bは、以下の式(II)のように計算する。
B=γ×A+δ×C … (II)
この式(II)によって得られる測光値Bが目標測光値Ytargetとなるように露出制御を行う。そして、図6に示すように測光領域26の測光値Cが許容範囲内である場合は、γ=1、δ=0と設定される。すると、B=Aとなり、画像データ全体の測光値Aにのみ基づいた露出制御が行われる。即ち、通常の露出制御と同様の方法で露出制御が行われる。
A photometric value B obtained by weighted addition of the photometric value A of the entire image data and the photometric value C of the photometric area 26 is calculated as in the following formula (II).
B = γ × A + δ × C (II)
Exposure control is performed so that the photometric value B obtained by the formula (II) becomes the target photometric value Y target . Then, as shown in FIG. 6, when the photometric value C of the photometric area 26 is within the allowable range, γ = 1 and δ = 0 are set. Then, B = A, and exposure control based only on the photometric value A of the entire image data is performed. That is, exposure control is performed in the same manner as normal exposure control.

図6(d)、(e)に、次フレームの画像データの輝度分布と測光値のグラフを示す。図6(d)、(e)は、現フレームについて示した図6(b)(c)にそれぞれ相当するものである。上述のように制御されることによって、次フレームにおいて、画像データ全体の測光値A及び加重加算した測光値Bがより目標測光値Ytargetに近い値となる。 FIGS. 6D and 6E show graphs of luminance distribution and photometric values of the image data of the next frame. FIGS. 6D and 6E correspond to FIGS. 6B and 6C shown for the current frame, respectively. By controlling as described above, in the next frame, the photometric value A and the weighted photometric value B of the entire image data are closer to the target photometric value Y target .

次に、図5(a)、(d)に示したような、測光領域26の測光値が許容範囲外である場合について図7を用いて説明する。ここでは、図5(d)に示したような、測光領域26の測光値が大きく許容範囲外となった場合を例に挙げて説明する。図7は、露出制御が行われるフレームの画像データの模式図と、画像データの輝度分布及び測光値を示すグラフであり、図6と同様のものである。また、図6と同様に、本図で示す測光領域26は現フレームにおけるものであり、STEP6において測光が行われた領域を示すものである。即ち、図4(d)の測光領域26を示している。   Next, the case where the photometric value in the photometric area 26 is outside the allowable range as shown in FIGS. 5A and 5D will be described with reference to FIG. Here, a case where the photometric value in the photometric area 26 is largely outside the allowable range as shown in FIG. 5D will be described as an example. FIG. 7 is a schematic diagram of image data of a frame for which exposure control is performed, and a graph showing the luminance distribution and photometric values of the image data, which are the same as those in FIG. Similarly to FIG. 6, the photometric area 26 shown in this figure is in the current frame, and indicates the area where photometry was performed in STEP6. That is, the photometric area 26 in FIG.

本例では、図7(b)に示す輝度分布のヒストグラムにおいて、範囲26aが測光値の大きい部分となり図7(c)の測光領域26の測光値Cが許容範囲を超えている。このように、測光領域26の測光値Cが許容範囲外となる場合、上述した式(II)のγが1より小さくなり、δが0より大きくなるように設定される。本例の場合、γ=0.8、δ=0.2としている。このようにγ、δを変化させることで、加重加算した測光値Bに占める測光領域26の測光値Cの割合が増大する。   In this example, in the histogram of the luminance distribution shown in FIG. 7B, the range 26a is a portion where the photometric value is large, and the photometric value C of the photometric area 26 in FIG. 7C exceeds the allowable range. Thus, when the photometric value C in the photometric area 26 is outside the allowable range, γ in the above-described formula (II) is set to be smaller than 1 and δ is set to be larger than 0. In this example, γ = 0.8 and δ = 0.2. Thus, by changing γ and δ, the ratio of the photometric value C of the photometric area 26 to the photometric value B subjected to weighted addition increases.

そして、図7(d)、(e)に示すように、次フレームにおいて加重加算した測光値Bに基づいた露出制御が行われると、測光領域26の測光値Cの影響が反映されるため、測光領域26の測光値Cが許容範囲内に収まり易くなる。また、画像データ全体の測光値Aの値も大きく反映されるため、画像データ全体の明るさが不適なものとなることが抑制される。したがって、追尾対象周辺の測光値に重点を置いた画像データの露出制御を行うことが可能となる。   Then, as shown in FIGS. 7D and 7E, when exposure control is performed based on the photometric value B weighted and added in the next frame, the influence of the photometric value C in the photometric area 26 is reflected. The photometric value C in the photometric area 26 is likely to be within the allowable range. In addition, since the photometric value A of the entire image data is greatly reflected, it is possible to prevent the brightness of the entire image data from becoming inappropriate. Therefore, it is possible to perform exposure control of image data with emphasis on the photometric value around the tracking target.

また、γ及びδは序々に変化するように制御される。この制御方法の具体例について図8を用いて説明する。図8は、露出制御が行われるフレームの画像データの測光値を示すグラフである。また、図7に示した例について引き続き説明するものとし、図8(a)と図7(e)とは同じグラフを示すものとする。さらに、図8(a)、(b)と、図8(c)、(d)と、図8(e)と、はそれぞれ同じフレームの画像データにおける測光値のグラフを示している。   In addition, γ and δ are controlled to change gradually. A specific example of this control method will be described with reference to FIG. FIG. 8 is a graph showing photometric values of image data of a frame for which exposure control is performed. Further, the example shown in FIG. 7 will be further described, and FIG. 8A and FIG. 7E show the same graph. Further, FIGS. 8A, 8B, 8C, 8D, and 8E show graphs of photometric values in the same frame of image data.

図8(a)では、γ=0.8、δ=0.2で加重加算した測光値Bが目標測光値Ytargetと略等しくなっている場合について示している。このとき、探索領域26の測光値Cが許容範囲内になったため、γ=0.9、δ=0.1となるように段階を踏んだ調整が行われるものとする。 FIG. 8A shows a case where the photometric value B weighted and added at γ = 0.8 and δ = 0.2 is substantially equal to the target photometric value Y target . At this time, since the photometric value C of the search area 26 is within the allowable range, it is assumed that adjustment is performed step by step so that γ = 0.9 and δ = 0.1.

すると、図8(b)に示すグラフのように、加重加算した測光値Bが目標測光値Ytargetより小さいものとなる。そこで、この加重加算した測光値Bが目標測光値Ytargetとなるように露出制御を行う。なお、この段階ではまだ次フレームを取り込んでないため、画像データ全体の測光値A、測光領域26の測光値Cの値は変化していない。 Then, as shown in the graph of FIG. 8B, the weighted photometric value B becomes smaller than the target photometric value Y target . Therefore, exposure control is performed so that the weighted photometric value B becomes the target photometric value Y target . At this stage, since the next frame has not yet been captured, the photometric value A of the entire image data and the photometric value C of the photometric area 26 have not changed.

次のフレームでは、図8(c)のように加重加算した測光値Bが目標測光値Ytargetに近い値となる。このとき、図8(c)に示すように探索領域26の測光値Cが許容範囲内となる場合は、図8(d)のようにγ=1、δ=0に設定して露出制御を行っても構わないし、γ=0.9、δ=0.1に維持しても構わない。一方、測光領域26の測光値Cが再び許容範囲外となるようなことがあれば、γ=0.8、δ=0.2に戻しても構わない。なお、このように測光値の変動を抑制しながら露出制御を行う方法であれば、どのような方法でも構わない。 In the next frame, the photometric value B obtained by weighted addition as shown in FIG. 8C is close to the target photometric value Y target . At this time, when the photometric value C of the search area 26 is within the allowable range as shown in FIG. 8C, exposure control is performed by setting γ = 1 and δ = 0 as shown in FIG. 8D. Or may be maintained at γ = 0.9 and δ = 0.1. On the other hand, if the photometric value C in the photometric area 26 falls outside the allowable range again, γ = 0.8 and δ = 0.2 may be returned. Note that any method may be used as long as exposure control is performed while suppressing fluctuations in photometric values.

以上のような制御を継続している間に撮像環境が変化したり、露出が適正なものに設定されたりする。そして、最終的に図8(e)に示すようにγ=1、δ=0で測光領域26の測光値Cが許容範囲内に収まるようになる。このような状態となると、測光領域26の測光値Cが許容範囲外とならない限り、以降の露出制御においてγ=1、δ=0に固定して露出制御を行う。   While the above control is continued, the imaging environment changes or the exposure is set to an appropriate value. Finally, as shown in FIG. 8E, when γ = 1 and δ = 0, the photometric value C in the photometric area 26 falls within the allowable range. In such a state, unless the photometric value C of the photometric area 26 falls outside the allowable range, exposure control is performed with γ = 1 and δ = 0 fixed in the subsequent exposure control.

以上のSTEP9における露出制御は、追尾処理部14の露出制御部14bにおいて行われ、露出制御部14bが露出制御信号を出力することによって行われる。例えば、露出制御信号に基づいて、CPU13がレンズ部3の絞りやイメージセンサ2の蓄積時間などを制御することによって行われる。   The exposure control in STEP 9 described above is performed in the exposure control unit 14b of the tracking processing unit 14, and is performed by the exposure control unit 14b outputting an exposure control signal. For example, this is performed by the CPU 13 controlling the aperture of the lens unit 3 and the accumulation time of the image sensor 2 based on the exposure control signal.

STEP9において露出制御が行われると、次に明るさ補正が行われる(STEP10)。この明るさ補正は、後述する追尾領域位置決定(STEP11)を正確に行うために、現フレームの画像データの明るさを補正するものである。これにより、例えば画像データに含まれる画素の輝度信号やRGBの信号の各色の値など、明るさを示す信号が補正される。   If exposure control is performed in STEP 9, brightness correction is performed next (STEP 10). This brightness correction is to correct the brightness of the image data of the current frame in order to accurately perform tracking area position determination (STEP 11) described later. Thereby, for example, a signal indicating brightness, such as a luminance signal of a pixel included in the image data and a value of each color of the RGB signal, is corrected.

ここで、画像処理部6から圧縮処理部8に送られる記録用の画像データや、プレビュー時などにおいて表示装置に送られる再生用の画像データにはSTEP10における明るさ補正が行われないこととする。一方、追尾処理に用いられる画像データは、明るさ補正部14cにおいて明るさ補正が行われる。ただし、STEP9における露出制御は、レンズ部3やイメージセンサ2などを制御することによって行われるものであるため、イメージセンサ2に入力される光学像やAFE4に入力されるアナログの画像データ自体が変化する。そのため、記録用や再生用の画像データも変化することとなる。なお、記録用や再生用の画像データに対して、画像処理部6が、例えばガンマ補正などの画像処理を別途施すこととしても構わない。   Here, the brightness correction in STEP 10 is not performed on the recording image data sent from the image processing unit 6 to the compression processing unit 8 or the reproduction image data sent to the display device during preview or the like. . On the other hand, the image data used for the tracking process is subjected to brightness correction in the brightness correction unit 14c. However, since the exposure control in STEP 9 is performed by controlling the lens unit 3, the image sensor 2, and the like, the optical image input to the image sensor 2 and the analog image data itself input to the AFE 4 change. To do. For this reason, image data for recording and reproduction also changes. Note that the image processing unit 6 may separately perform image processing such as gamma correction on the image data for recording or reproduction.

STEP10における明るさ補正について具体的に説明する。この明るさ補正は追尾処理部14の明るさ補正部14cによって行われる。ここでは、STEP3において記憶した追尾対象色信号の明るさに、追尾領域に含まれる画素の信号の明るさが近づくようにするために行われる。   The brightness correction in STEP 10 will be specifically described. This brightness correction is performed by the brightness correction unit 14c of the tracking processing unit 14. Here, it is performed in order to make the brightness of the signal of the pixel included in the tracking area approach the brightness of the tracking target color signal stored in STEP3.

例えば、設定されている追尾領域における現フレームの画素の信号と、STEP3で記憶した追尾対象色信号と、を比較することによって行われる。そして、その比較結果に基づいて、明るさ補正部14cが現フレームの画像データの明るさ補正を行う。これにより、現フレームの画像データの明るさが補正され、追尾対象色信号の明るさに近づくこととなる。   For example, this is performed by comparing the pixel signal of the current frame in the set tracking area with the tracking target color signal stored in STEP 3. Based on the comparison result, the brightness correction unit 14c corrects the brightness of the image data of the current frame. As a result, the brightness of the image data of the current frame is corrected and approaches the brightness of the tracking target color signal.

このとき補正される部分は、画像データ全体としても構わないし、追尾領域やその周辺の領域だけとしても構わない。また、補正される部分を、探索領域や探索領域を含む周辺領域とすることも可能である。探索領域は上述したように追尾が困難になると拡大されるため、探索領域まで含めることとすると、追尾対象が存在する領域に対して明るさ補正が行われる確率を上げることができる。   The part to be corrected at this time may be the entire image data, or only the tracking area and its surrounding area. Further, the corrected portion can be a search area or a peripheral area including the search area. Since the search area is enlarged when tracking becomes difficult as described above, including the search area can increase the probability that brightness correction is performed on the area where the tracking target exists.

次に、STEP10において明るさ補正が行われた画像データに基づいて、追尾処理部14の追尾領域設定部14dが追尾領域の位置の決定を行う(STEP11)。追尾領域の位置を決定する方法として、例えば、背景差分法、フレーム間差分法、オプティカルフローによる推定方法などの移動体検出方法を利用する方法がある。   Next, the tracking area setting unit 14d of the tracking processing unit 14 determines the position of the tracking area based on the image data that has been subjected to brightness correction in STEP 10 (STEP 11). As a method for determining the position of the tracking region, for example, there is a method using a moving object detection method such as a background difference method, an interframe difference method, or an estimation method based on an optical flow.

なお、本発明の実施形態における撮像装置1では、明るさ補正が行われた画像データに基づいて追尾領域の位置が決定される方法であればどのような方法を利用しても構わない。ここで、具体例として以下にこれらの移動体検出方法を利用した追尾領域の位置の決定方法について説明する。   In the imaging apparatus 1 according to the embodiment of the present invention, any method may be used as long as the position of the tracking region is determined based on image data that has been subjected to brightness correction. Here, as a specific example, a method for determining the position of the tracking region using these moving object detection methods will be described below.

まず、背景差分法を利用する場合について図9を用いて説明する。図9は背景差分法について示す画像データの模式図である。背景差分法は、背景画像データを対象フレームの画像データから減算して移動体が含まれる領域を検出する方法である。そのため、定点カメラなど固定使用する撮像装置に適用する場合は、予め背景となる画像を撮像することによって背景画像データをメモリ15などに記憶させる。一方、固定使用しない撮像装置に適用する場合は、数フレーム分の画像データの平均や分散をとることにより、背景画像データを作成してメモリ15などに記憶させる。   First, the case of using the background difference method will be described with reference to FIG. FIG. 9 is a schematic diagram of image data showing the background subtraction method. The background subtraction method is a method for detecting a region including a moving object by subtracting background image data from image data of a target frame. For this reason, when applied to an imaging apparatus that is fixedly used such as a fixed point camera, background image data is stored in the memory 15 or the like by capturing an image as a background in advance. On the other hand, when applied to an imaging apparatus that is not used in a fixed manner, background image data is created and stored in the memory 15 or the like by taking the average or variance of several frames of image data.

例えば、図9(a)に示すような追尾領域を決定しようとする対象フレームの画像データから、図9(b)に示すような背景画像データを減算することによって、図9(c)に示すような差分の画像データを得る。そして、この差分の画像データにおいて、移動体が含まれる領域27aが抽出される。   For example, by subtracting the background image data as shown in FIG. 9B from the image data of the target frame for which the tracking area as shown in FIG. 9A is to be determined, it is shown in FIG. 9C. Such difference image data is obtained. Then, in this difference image data, an area 27a including a moving object is extracted.

背景差分法は、明るさなどの環境変化に非常に弱い。具体的には、環境が変化すると画像データのほぼ全ての信号が変化してしまうため、ほぼ全ての部分が移動体であるとみなされてしまう。しかしながら、本発明の実施形態における撮像装置1では、STEP10において明るさ補正を行っているために画像データの環境変化が低減される。そのため、背景差分法を用いたとしても環境変化の影響を受けにくく、正確に移動体が含まれる領域27aを抽出することができる。   The background subtraction method is very vulnerable to environmental changes such as brightness. Specifically, when the environment changes, almost all signals of the image data change, so that almost all parts are regarded as moving objects. However, in the imaging device 1 according to the embodiment of the present invention, since brightness correction is performed in STEP 10, the environmental change of the image data is reduced. Therefore, even if the background subtraction method is used, it is difficult to be affected by environmental changes, and the region 27a including the moving object can be accurately extracted.

次に、フレーム間差分法を用いる場合について図10を用いて説明する。図10はフレーム間差分法について示す画像データの模式図である。フレーム間差分法は、図10(a)に示すような(n−1)フレームの画像データと、図10(b)に示すようなnフレームの画像データと、のように時系列的に隣接するフレームの画像データの差分をとることによって移動体を検出する。そして、図10(c)に示すような差分の画像データを得て、この画像データにおいて移動体が含まれる領域27bを抽出する。   Next, the case of using the interframe difference method will be described with reference to FIG. FIG. 10 is a schematic diagram of image data showing the interframe difference method. The inter-frame difference method is such that (n−1) frame image data as shown in FIG. 10A and n frame image data as shown in FIG. 10B are adjacent in time series. The moving object is detected by taking the difference between the image data of the frames to be performed. Then, difference image data as shown in FIG. 10C is obtained, and a region 27b including a moving object is extracted from the image data.

このフレーム間差分法も上述した背景差分法と同様に明るさなどの環境変化に非常に弱く、環境が変化すると画像データのほぼ全ての部分が移動したとみなされてしまう。しかしながら、本発明の実施形態における撮像装置1では、STEP10において明るさ補正を行っているために画像データにおいては環境変化が低減されている。そのため、フレーム間差分法を用いたとしても環境変化の影響を受けにくく、正確に移動体が含まれる領域27bを抽出することができる。   This inter-frame difference method is also very weak to environmental changes such as brightness as in the background difference method described above, and if the environment changes, it is considered that almost all parts of the image data have moved. However, in the imaging device 1 according to the embodiment of the present invention, since the brightness correction is performed in STEP 10, the environmental change is reduced in the image data. Therefore, even if the inter-frame difference method is used, it is difficult to be affected by the environmental change, and the region 27b including the moving object can be accurately extracted.

以上のような移動体検出方法を用いることによって、画像データ中の移動体が含まれる領域27a、27bを検出することができる。そして、所定の特徴量(例えば、追尾対象色データや前フレームの追尾領域に含まれる画素から得られる色相情報、以下同様とする)と、移動体が含まれる領域27a、27bの画素の色相情報と、を用いて相関の高低を判定するとともに追尾領域の位置決定を行う。例えば、色相情報の差分に基づいて相関値を得て、その相関値が所定の値以下となる領域を相関が高い領域と判定しても構わない。そして、このような手法により相関が高いと判定された領域の位置を追尾領域の位置として決定しても構わない。   By using the moving object detection method as described above, the areas 27a and 27b including the moving object in the image data can be detected. Then, predetermined feature values (for example, tracking target color data and hue information obtained from pixels included in the tracking area of the previous frame, and so on), and hue information of pixels in the areas 27a and 27b including the moving object And determining the level of the correlation and determining the position of the tracking region. For example, a correlation value may be obtained based on a difference in hue information, and a region where the correlation value is a predetermined value or less may be determined as a region having a high correlation. Then, the position of the area determined to have a high correlation by such a method may be determined as the position of the tracking area.

背景差分法とフレーム間差分法を利用する場合、背景画像データや各フレームの画像データから所定の特徴量と相関の高い領域を抽出し、これらの差分をとることによって追尾領域の位置を決定する方法としても構わない。   When using the background subtraction method and the interframe subtraction method, a region having a high correlation with a predetermined feature amount is extracted from background image data or image data of each frame, and the position of the tracking region is determined by taking these differences. It does not matter as a method.

また、オプティカルフローによる推定方法、特に、ブロックマッチング法を利用する場合について図11を用いて説明する。図11は、ブロックマッチング法について示す画像データの模式図である。図11(a)は、第(n−1)フレームの画像データを表しており、第(n−1)フレームの画像データにおける追尾ブロック101が、追尾対象である上着部分に設定されている場合を示している。また、図11(b)は、第nフレームの画像データを表しており、第nフレームの画像データにおいて、候補ブロック111及び探索ブロック112が設定されている。   In addition, an estimation method using an optical flow, in particular, a case where a block matching method is used will be described with reference to FIG. FIG. 11 is a schematic diagram of image data shown for the block matching method. FIG. 11A shows the image data of the (n−1) th frame, and the tracking block 101 in the image data of the (n−1) th frame is set to the outer jacket portion to be tracked. Shows the case. FIG. 11B shows the image data of the nth frame, and the candidate block 111 and the search block 112 are set in the image data of the nth frame.

この方法では、追尾ブロック101と候補ブロック111との間のブロック相関値が算出される。この際、候補ブロック111は、探索ブロック112内で水平方向または垂直方向に1画素ずつ移動させられ、その移動の度にブロック相関値が算出される。ブロック相関値は、追尾ブロック101と候補ブロック111との間における輝度信号の差分などに基づいて算出される。   In this method, a block correlation value between the tracking block 101 and the candidate block 111 is calculated. At this time, the candidate block 111 is moved one pixel at a time in the horizontal direction or the vertical direction in the search block 112, and a block correlation value is calculated for each movement. The block correlation value is calculated based on a difference in luminance signal between the tracking block 101 and the candidate block 111.

また、ブロック相関値は追尾ブロック101内の画素の信号と候補ブロック111内の画素の信号との間の相関が高いほど小さくなる。したがって、ブロック相関値が最も小さくなる候補ブロック111の位置を求めることによって、第nフレームの画像データ内における追尾ブロック101の位置が求められる。また、このとき第(n−1)フレームの画像データと第nフレームの画像データとの間の追尾ブロック101の動きベクトルが求められる。   The block correlation value decreases as the correlation between the pixel signal in the tracking block 101 and the pixel signal in the candidate block 111 increases. Therefore, the position of the tracking block 101 in the image data of the nth frame is obtained by obtaining the position of the candidate block 111 having the smallest block correlation value. At this time, the motion vector of the tracking block 101 between the image data of the (n−1) th frame and the image data of the nth frame is obtained.

そして、時系列的に隣接するフレーム間で動きベクトルを繰り返し求め、動きベクトルに応じて追跡ブロック101を逐次移動させることによって、追跡ブロック101が設定される。このようにして得られる追跡ブロック101が移動体が含まれる領域となり、この領域の画素の信号と所定の特徴量との相関をとることによって、追尾領域の位置が決定される。   Then, the tracking block 101 is set by repeatedly obtaining a motion vector between adjacent frames in time series and sequentially moving the tracking block 101 in accordance with the motion vector. The tracking block 101 obtained in this way becomes a region including a moving object, and the position of the tracking region is determined by correlating the pixel signal of this region with a predetermined feature amount.

なお、探索ブロック112を上述した探索領域としても構わないし、探索領域に基づいて探索ブロック112が設定されることとしても構わない。また、追尾ブロック101と候補ブロック111におけるブロック相関値を、色相情報の差分から求めることとしても構わない。   The search block 112 may be the search area described above, or the search block 112 may be set based on the search area. Also, the block correlation value between the tracking block 101 and the candidate block 111 may be obtained from the difference in hue information.

以上の具体例に示すような方法によって、STEP11において追尾領域の位置が決定される。しかしながら、場合によっては撮像環境が変化し過ぎており、追尾領域における色相情報の相関が低く信頼性が低い場合がある。そのため、次に決定された追尾領域の信頼性を判定する(STEP12)。   The position of the tracking area is determined in STEP 11 by the method shown in the above specific example. However, in some cases, the imaging environment has changed too much, and the correlation of hue information in the tracking area may be low and reliability may be low. Therefore, the reliability of the tracking area determined next is determined (STEP 12).

STEP11において高い相関が得られなかったために追尾領域の信頼性が低い場合、追尾領域を設定できないものと判定する(STEP12、NO)。この場合、STEP11において位置が決定された追尾領域の設定は行わない。即ち、追尾領域は前回設定された場所と同じ場所となり、維持される。また、追尾領域設定部14dは、追尾領域の位置を前回と変わらないものとする旨の追尾結果信号を出力する。そして、STEP4に戻り追尾処理を終了する指示が入力されているか否かを確認し、以下上述した処理と同様の処理を行う。   If the reliability of the tracking area is low because a high correlation was not obtained in STEP 11, it is determined that the tracking area cannot be set (STEP 12, NO). In this case, the tracking area whose position is determined in STEP 11 is not set. That is, the tracking area is the same location as the previously set location and is maintained. The tracking area setting unit 14d outputs a tracking result signal indicating that the position of the tracking area is not changed from the previous time. Then, the process returns to STEP 4 to check whether or not an instruction to end the tracking process is input, and the same process as the process described above is performed.

一方、STEP11において高い相関が得られている場合は、追尾領域を設定できると判定する(STEP12、YES)。この場合、STEP11で決定された位置に追尾領域の位置が設定される(STEP13)。さらに、探索領域も追尾領域の周辺となるように設定される(STEP14)。このとき、追尾領域設定部14dから、追尾領域及び探索領域の位置を変更する旨の追尾結果信号が出力される。   On the other hand, when a high correlation is obtained in STEP 11, it is determined that the tracking area can be set (STEP 12, YES). In this case, the position of the tracking area is set at the position determined in STEP 11 (STEP 13). Further, the search area is set to be around the tracking area (STEP 14). At this time, a tracking result signal indicating that the positions of the tracking area and the search area are to be changed is output from the tracking area setting unit 14d.

そして、STEP4に戻り追尾処理を終了する指示が入力されているか否かを確認し、以下上述した処理と同様の処理を行う。   Then, the process returns to STEP 4 to check whether or not an instruction to end the tracking process is input, and the same process as the process described above is performed.

STEP4〜STEP14を繰り返す処理、即ち、複数のフレームに対して連続的に行われる追尾処理について図12を用いて説明する。図12は、本発明の実施形態における撮像装置の追尾処理の一例を示すシーケンス図である。また、図12は、図3におけるSTEP12またはSTEP14が終了して、STEP4に戻る際の状態について示している。   A process of repeating STEP4 to STEP14, that is, a tracking process that is continuously performed on a plurality of frames will be described with reference to FIG. FIG. 12 is a sequence diagram illustrating an example of the tracking process of the imaging apparatus according to the embodiment of the present invention. FIG. 12 shows a state when STEP 12 or STEP 14 in FIG. 3 ends and the process returns to STEP 4.

図12(a)〜(f)は、それぞれ第m〜(m+5)フレームの画像データを示したものである。また、図12では簡単のために図4〜図7に示したような画像データの具体例を省略している。   FIGS. 12A to 12F show the image data of the m-th to (m + 5) frames, respectively. In FIG. 12, for the sake of simplicity, specific examples of the image data as shown in FIGS. 4 to 7 are omitted.

まず、第m及び(m+1)フレームの画像データを示す図12(a)及び(b)では、上述した図3のSTEP6において算出する対象測光値が、STEP7において許容範囲内と判定されている。そのため、探索領域24はSTEP8において拡大して設定されず、通常の範囲となっている。   First, in FIGS. 12A and 12B showing the image data of the m-th and (m + 1) th frames, the target photometric value calculated in STEP 6 of FIG. 3 described above is determined to be within the allowable range in STEP 7. Therefore, the search area 24 is not enlarged and set in STEP 8, but is a normal range.

また、STEP7において測光値が許容範囲内であるため、STEP9の露出制御では上述した式(II)においてγ=1、δ=0が設定されている。即ち、露出制御が画像データ全体の測光値に基づいて行われており、通常の露出制御と同様の露出制御が行われている。また、STEP10における明るさ補正は行われており、STEP11で追尾領域を決定する前に、画像データの明るさが追尾対象色信号に近づけられている。そして、図12(a)、(b)共に、STEP11において設定した追尾領域23が相関の高いものであったため、STEP13及びSTEP14において追尾領域23及び探索領域24がそれぞれ設定されている。   Further, since the photometric value is within the allowable range in STEP 7, in the exposure control in STEP 9, γ = 1 and δ = 0 are set in the above-described formula (II). That is, exposure control is performed based on the photometric value of the entire image data, and exposure control similar to normal exposure control is performed. Further, the brightness correction in STEP 10 is performed, and the brightness of the image data is brought close to the tracking target color signal before the tracking area is determined in STEP 11. 12A and 12B, since the tracking area 23 set in STEP 11 has a high correlation, the tracking area 23 and the search area 24 are set in STEP 13 and STEP 14, respectively.

これに対して、(m+2)フレームの画像データを示す図12(c)では、撮像環境に変化が生じたためにSTEP7の対象測光値判定において許容範囲外と判定されている。そのため、STEP8において探索領域24が拡大されて設定されている。また、STEP9における露出制御では、式(II)のγが1より小さくδが0より大きい値となり、測光領域の測光値に重点が置かれた露出制御が行われる。   On the other hand, in FIG. 12C showing the image data of the (m + 2) frame, since the imaging environment has changed, it is determined that the target photometric value determination in STEP 7 is outside the allowable range. Therefore, the search area 24 is enlarged and set in STEP8. Further, in the exposure control in STEP 9, γ in the formula (II) is smaller than 1 and δ is larger than 0, and exposure control is performed with emphasis on the photometric value in the photometric area.

さらに図12(c)では、STEP10で明るさ補正を行うものの、STEP12で追尾領域23を設定できるほど高い相関が得られないと判定されている。この場合、追尾領域23は図12(b)で設定された領域と同じ領域となる。   Further, in FIG. 12C, although the brightness correction is performed in STEP 10, it is determined that the correlation is not high enough to set the tracking region 23 in STEP 12. In this case, the tracking area 23 is the same area as the area set in FIG.

図12(c)に示す第(m+2)フレームの画像データの処理において、探索領域24の拡大や、探索領域24を含む測光領域に重点を置いた露出制御が行なわれることによって、図12(d)に示す第(m+3)フレーム目の画像データでは、対象測光値が許容範囲に近づいている。しかしながら、このフレームの画像データにおいても対称測光値が許容範囲内となっていない。また、STEP10の明るさ補正を行ってもSTEP12で追尾領域23を設定できるほど高い相関が得られないと判定されている。この場合、図12(c)と同様に、追尾領域23が図12(b)で設定された領域と同じ領域で維持される。   In the processing of the (m + 2) -th frame image data shown in FIG. 12C, the search area 24 is enlarged, and exposure control is performed with emphasis on the photometric area including the search area 24, so that FIG. In the image data of the (m + 3) th frame shown in (), the target photometric value is approaching the allowable range. However, the symmetrical photometric value is not within the allowable range even in the image data of this frame. Further, it is determined that even if the brightness correction of STEP 10 is performed, a correlation high enough to set the tracking area 23 in STEP 12 cannot be obtained. In this case, as in FIG. 12C, the tracking area 23 is maintained in the same area as the area set in FIG.

図12(c)、(d)に示す第(m+2)、(m+3)フレームの画像データの処理において、探索領域24の拡大や測光領域に重点を置いた露出制御を継続して行なうことによって、図12(e)に示す第(m+4)フレームの画像データの処理において、対象測光値が許容範囲から僅かに外れたものとなるまで回復している。そのため、僅かに探索領域24が縮小される。また、このときSTEP12において追尾領域23を設定できる判定が得られたために、新たに追尾領域23が設定されている。   In the processing of the image data of the (m + 2) th and (m + 3) th frames shown in FIGS. 12C and 12D, by continuously performing the exposure control with emphasis on the search area 24 and the photometry area, In the processing of the image data of the (m + 4) th frame shown in FIG. 12E, the target photometric value is recovered until it is slightly outside the allowable range. Therefore, the search area 24 is slightly reduced. At this time, since it has been determined in STEP 12 that the tracking area 23 can be set, the tracking area 23 is newly set.

そして、図12(f)に示す第(m+5)フレームの画像データの処理において、対象測光値が許容範囲内に入り、追尾領域23も設定されている。ここで、STEP9における露出制御では、式(II)のγが1に近づき、δが0に近づく。これにより、測光領域の測光値の加算割合が以降減少していくこととなる。そして、対象測光値が以降許容範囲内で維持されると、最終的には画像データ全体の測光値のみに基づいて露出制御が行われるようになる。   Then, in the processing of the image data of the (m + 5) th frame shown in FIG. 12 (f), the target photometric value is within the allowable range, and the tracking area 23 is also set. Here, in the exposure control in STEP 9, γ in formula (II) approaches 1 and δ approaches 0. As a result, the addition ratio of the photometric values in the photometric area subsequently decreases. When the target photometric value is maintained within the allowable range thereafter, exposure control is finally performed based only on the photometric value of the entire image data.

以上のように追尾処理を行うことによって、追尾対象の明るさを一定のものとしながら追尾領域23の決定を行うことが可能となる。そのため、追尾処理部14の追尾領域設定部14dが、画像データの色を誤って認識することを低減することができる。したがって、撮像環境の変化を受けにくい確実な追尾処理を継続して行うことが可能となる。   By performing the tracking process as described above, the tracking region 23 can be determined while keeping the brightness of the tracking target constant. Therefore, it is possible to reduce the tracking region setting unit 14d of the tracking processing unit 14 from erroneously recognizing the color of the image data. Therefore, it is possible to continue to perform reliable tracking processing that is less susceptible to changes in the imaging environment.

また、対象測光値が許容範囲を超える場合に探索領域が拡大されるため、現フレームの画像データにおいて追尾領域が設定されないために前回の位置で維持されたとしても、次フレームの画像データにおいて追尾領域が探索領域外となることを抑制することができる。そのため、次フレームにおいて追尾領域が設定される確率を上げることができる。   In addition, since the search area is expanded when the target photometric value exceeds the allowable range, the tracking area is not set in the image data of the current frame, and the tracking is maintained in the image data of the next frame even if the tracking area is maintained at the previous position. It is possible to suppress the region from being outside the search region. Therefore, the probability that the tracking area is set in the next frame can be increased.

また、STEP9において露出制御を行う際に、測光領域の測光値の成分のみに基づいて露出制御を行わず、画像データ全体の測光値との加重加算に基づいて露出制御を行うこととしている。そのため、入力される画像データ全体の明るさの劣化を抑制することができる。特に、露出制御は記録用や再生用の画像データにも影響を与えるものである。そのため、このように露出制御を行うこととすると、追尾処理を行うことによって記録用や再生用画像データが劣化することを抑制することができる。   Further, when performing exposure control in STEP 9, exposure control is performed based on weighted addition with the photometric value of the entire image data, without performing exposure control based only on the photometric value component of the photometric area. Therefore, it is possible to suppress the deterioration of the brightness of the entire input image data. In particular, the exposure control affects the image data for recording and reproduction. Therefore, when exposure control is performed in this way, it is possible to suppress degradation of image data for recording or reproduction by performing tracking processing.

また、測光領域の測光値が許容範囲に入った際に、対象測光値における測光領域の測光値の加算割合(上述の式(II)のδ)を即座に0にしないで序々に0に近づける構成としている。そのため、画像データ全体の明るさが急激に変動することを抑制することができる。したがって、急激な露出補正が行われることにより発生する画像データ全体の明るさの変動を低減することが可能となり、追尾処理が良好に行われるとともに記録用や再生用の画像データの劣化を抑制することができる。   Further, when the photometric value of the photometric area falls within the allowable range, the addition ratio of the photometric value of the photometric area in the target photometric value (δ in the above formula (II)) is gradually approached to 0 without immediately setting it to 0. It is configured. Therefore, it is possible to suppress a sudden change in the brightness of the entire image data. Therefore, it is possible to reduce fluctuations in the brightness of the entire image data caused by abrupt exposure correction, so that tracking processing is performed well and deterioration of image data for recording and reproduction is suppressed. be able to.

また、以上のような追尾処理を行うことによって、画像データ内の追尾対象の位置を検出することが可能となる。そのため、追尾領域設定部14dから出力される追尾結果信号に基づいて、例えば、追尾対象にフォーカスを合わせる制御や、追尾対象を画像データの中心に配する撮像制御などを行うことが可能となる。   Further, by performing the tracking process as described above, the position of the tracking target in the image data can be detected. Therefore, based on the tracking result signal output from the tracking area setting unit 14d, for example, it is possible to perform control for focusing on the tracking target, imaging control for arranging the tracking target at the center of the image data, and the like.

追尾対象にフォーカスを合わせる制御方法としては、例えば、追尾領域の画素の輝度の高周波成分が大きくなるように行う方法などがある。また、追尾対象を画像データの中心に配する方法としては、撮像装置や光学系の方向を制御する機械的な方法や、得られた画像データから追尾対象とその周辺領域のみを抜き出して編集するような画像処理的な方法がある。これらの追尾結果信号の利用方法は一例に過ぎず、追尾結果信号をどのように用いても構わない。   As a control method for focusing on the tracking target, for example, there is a method in which the high frequency component of the luminance of the pixel in the tracking area is increased. In addition, as a method of arranging the tracking target at the center of the image data, a mechanical method for controlling the direction of the imaging device or the optical system, or a tracking target and its peripheral region are extracted from the obtained image data and edited. There are such image processing methods. The method of using these tracking result signals is merely an example, and the tracking result signal may be used in any way.

また、STEP1〜STEP3において追尾対象色信号や初期探索領域の設定を行う前に、設定元となる画像データが良好であるか否かの判定を行い、良好な画像データに基づいてこれらの設定が行なわれるようにしても構わない。例えば、露出やフォーカスなどが適正であるか否かを判定しても構わないし、STEP6及びSTEP7のような測光値の測定及び判定を行っても構わない。   Further, before setting the tracking target color signal and the initial search area in STEP 1 to STEP 3, it is determined whether or not the image data that is the setting source is good, and these settings are determined based on the good image data. It may be performed. For example, it may be determined whether exposure, focus, etc. are appropriate, or photometric values such as STEP 6 and STEP 7 may be measured and determined.

このような判定を行うことで、STEP11において追尾領域設定部14dが誤認識したり、相関が低くなったりすることをさらに抑制することができる。また、上述した露出やフォーカスなどの判定には、画像データの所定領域における画素の輝度信号の平均値や高周波成分など、どのような値を用いても構わない。   By making such a determination, it is possible to further suppress the tracking region setting unit 14d from erroneously recognizing or lowering the correlation in STEP11. In addition, for the above-described determination of exposure, focus, etc., any value such as an average value of luminance signals of pixels in a predetermined area of image data or a high frequency component may be used.

また、追尾処理を行っている間、ユーザに対して追尾対象色信号を表示装置などに表示することとしても構わない。このように表示を行うことで、追尾対象色信号が正確に記憶されているか否かをユーザに確認させることができる。また、追尾対象に枠をつけて表示しても構わない。このように表示することで正確に追尾が行われているか否かをユーザに確認させることができる。   Further, while the tracking process is being performed, the tracking target color signal may be displayed on the display device or the like to the user. By displaying in this way, it is possible to make the user confirm whether or not the tracking target color signal is accurately stored. Further, the tracking target may be displayed with a frame. By displaying in this way, it is possible to make the user confirm whether tracking is being performed accurately.

また、STEP11において相関値を求めるために用いる色相情報が、HSB(Hue、Saturation、Brightness)やHSV(Hue、Saturation、Value)、HSL(Hue、Saturation、Lightness)などの形式で表現される色空間の、H成分を指すものとしても構わない。また、H成分が角度によって表されるものとしても構わない。例えば、0°を赤、120°を緑、240°を青と定義して、それぞれの間の角度にはそれぞれの中間色が入る構成としても構わない。そして、相関値を求める際に角度の差分を算出することとしても構わない。   Further, the color space used for obtaining the correlation value in STEP 11 is expressed in a format such as HSB (Hue, Saturation, Brightness), HSV (Hue, Saturation, Value), or HSL (Hue, Saturation, Lightness). The H component may be indicated. Further, the H component may be represented by an angle. For example, 0 ° may be defined as red, 120 ° may be defined as green, and 240 ° may be defined as blue, and the respective intermediate colors may be included in the angles therebetween. Then, the angle difference may be calculated when obtaining the correlation value.

このように色相情報を設定することで、追尾対象色信号から検出される色の信号と、STEP10において明るさが追尾対象色信号に近づけられた画像データから検出される色の信号と、を用いて相関値を求めることとなる。そのため、変動しやすい輝度に関する信号がなくなり、相関値を正確に算出することが可能となる。   By setting the hue information in this way, the color signal detected from the tracking target color signal and the color signal detected from the image data whose brightness is close to the tracking target color signal in STEP 10 are used. Thus, the correlation value is obtained. For this reason, there is no signal relating to luminance that tends to fluctuate, and the correlation value can be calculated accurately.

また、STEP10の明るさ補正の一例として、前回の追尾領域に含まれる現フレームの画像データの画素の信号と、追尾対象色信号と、を比較して現フレームの明るさを補正するとした。しかしながら、本発明では他の方法を用いて明るさ補正することも可能である。例えば、前回の追尾領域を求める際に動きベクトルを検出し、それによって現フレームにおける追尾領域を予測して、その予測された追尾領域に含まれる画素の信号と追尾対象色信号とを比較して明るさ補正を行っても構わない。この動きベクトルは、例えばSTEP13において設定された追尾領域と、設定前の追尾領域と、を比較することによって求めても構わないし、上述したブロックマッチング法のように追尾領域を求める際に算出される動きベクトルを使用しても構わない。   Further, as an example of the brightness correction in STEP 10, the brightness of the current frame is corrected by comparing the pixel signal of the image data of the current frame included in the previous tracking area with the tracking target color signal. However, in the present invention, it is also possible to correct the brightness using other methods. For example, the motion vector is detected when the previous tracking area is obtained, and thereby the tracking area in the current frame is predicted, and the pixel signal included in the predicted tracking area is compared with the tracking target color signal. Brightness correction may be performed. For example, the motion vector may be obtained by comparing the tracking area set in STEP 13 with the tracking area before setting, or is calculated when the tracking area is obtained as in the block matching method described above. You may use a motion vector.

このように、STEP10における明るさ補正を行うことで、現フレームにおける追尾対象の明るさが、直接的に補正される確率を上げることができる。例えば、追尾対象の移動量が大きく、前フレームの画像データと現フレームの画像データとにおいて追尾対象の重なりが少ないような場合などにおいても、この方法を用いることで対応することができる。   In this way, by performing the brightness correction in STEP 10, it is possible to increase the probability that the brightness of the tracking target in the current frame is directly corrected. For example, this method can be used even when the amount of movement of the tracking target is large and the overlapping of the tracking target is small between the image data of the previous frame and the image data of the current frame.

また、図12(e)に示す例では、対象測光値が許容範囲に十分近づいたために探索領域24を縮小することとしているが、STEP13の追尾領域23の設定が行われるまでは、探索領域24を最大限に設定することとしても構わない。即ち、対象測光値が許容範囲に十分近づく、または、許容範囲内になったとしても、追尾領域23が設定されなければ探索領域24を最大限の大きさに設定することとしても構わない。   In the example shown in FIG. 12E, the search area 24 is reduced because the target photometric value is sufficiently close to the allowable range. However, the search area 24 is set until the tracking area 23 of STEP 13 is set. It is also possible to set as much as possible. That is, even if the target photometric value is sufficiently close to or within the allowable range, if the tracking area 23 is not set, the search area 24 may be set to the maximum size.

また、STEP13で追尾領域が設定されることによって、STEP14において探索領域を縮小して設定することとしても構わない。以上のように構成することによって、追尾対象が探索領域外になることを抑制するとともに、STEP6の測光を行う際に、測光領域の追尾対象が含まれない部分をより低減することが可能となる。   Further, by setting the tracking area in STEP 13, the search area may be set to be reduced in STEP 14. By configuring as described above, it is possible to suppress the tracking target from being outside the search region, and it is possible to further reduce the portion of the photometry region that does not include the tracking target when performing the photometry in STEP 6. .

また、STEP7において探索領域を拡大するか否かを判定する許容範囲と、STEP9において露出制御を行う際の加重加算の割合を設定するために用いる許容範囲と、が異なる範囲としても構わないし、同じ範囲としても構わない。なお、上述した例では同じ範囲としている。そして、この許容範囲を超えた際に追尾が困難となると想定されるために、探索領域の拡大及び測光領域の割合を大きくした加重加算を行うこととしている。   Further, the allowable range for determining whether or not to expand the search area in STEP 7 may be different from the allowable range used for setting the weighted addition ratio when performing exposure control in STEP 9. It does not matter as a range. In the above example, the same range is used. Then, since it is assumed that tracking becomes difficult when the allowable range is exceeded, weighted addition is performed by enlarging the search area and increasing the ratio of the photometric area.

また、上述した追尾処理を、イメージセンサ2から出力される全てのフレームの画像データに対して行っても構わないし、数フレーム毎に行っても構わない。どちらの場合であったとしても、上述するフレームの番号(n、mなど)は、追尾処理部14に入力されるフレームの番号を示すものとする。   The tracking process described above may be performed on the image data of all the frames output from the image sensor 2 or may be performed every several frames. In either case, the frame number (n, m, etc.) described above indicates the frame number input to the tracking processing unit 14.

また、上述した追尾処理は、動画または静止画の撮像を行う場合に利用可能である。動画を撮像する場合は、画像データを記録しないプレビュー時と、記録時と、の両方において利用することができる。一方、静止画を撮像する場合には、主に静止画の記録指示が出される前、例えばプレビュー時などにおいて利用することができる。また、複数のフレームの画像データに基づいて静止画の画像データを作成する場合には、静止画の撮像中にも利用することができる。   The tracking process described above can be used when capturing a moving image or a still image. When a moving image is captured, it can be used both at the time of preview without recording image data and at the time of recording. On the other hand, when a still image is captured, it can be used mainly before a still image recording instruction is issued, for example, during preview. In addition, when image data of a still image is created based on image data of a plurality of frames, it can be used during still image capturing.

また、本発明の実施形態における撮像装置1について、画像処理部6や音声処理部7、圧縮処理部8、伸張処理部10、追尾処理部14(測光部14a、露出制御部14b、明るさ補正部14c、追尾領域設定部14d)などのそれぞれの動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。   Moreover, about the imaging device 1 in the embodiment of the present invention, the image processing unit 6, the audio processing unit 7, the compression processing unit 8, the expansion processing unit 10, the tracking processing unit 14 (photometry unit 14 a, exposure control unit 14 b, brightness correction). Each of the operations of the unit 14c, the tracking area setting unit 14d) and the like may be performed by a control device such as a microcomputer. Further, all or part of the functions realized by such a control device is described as a program, and the program is executed on a program execution device (for example, a computer) to realize all or part of the functions. It doesn't matter if you do.

また、上述した場合に限らず、図1の撮像装置1及び図2の追尾処理部14は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いて撮像装置1や追尾処理部14を構成する場合、ソフトウェアによって実現される部位についてのブロック図は、その部位の機能ブロック図を表すこととする。   In addition to the above-described case, the imaging apparatus 1 in FIG. 1 and the tracking processing unit 14 in FIG. 2 can be realized by hardware or a combination of hardware and software. Further, when the imaging apparatus 1 and the tracking processing unit 14 are configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

以上、本発明における撮像装置の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。   The embodiment of the imaging device according to the present invention has been described above, but the scope of the present invention is not limited to this, and various modifications can be made without departing from the spirit of the invention.

本発明は、デジタルビデオカメラに代表される撮像装置や、その撮像方法に関するものである。特に画像データの色の信号を利用して追尾を行う機能を備えた撮像装置やその撮像方法に適用すると好適である。   The present invention relates to an imaging apparatus represented by a digital video camera and an imaging method thereof. In particular, the present invention is preferably applied to an imaging apparatus having a function of performing tracking using a color signal of image data and an imaging method thereof.

は、本発明の実施形態における撮像装置の構成を示すブロック図である。These are block diagrams which show the structure of the imaging device in embodiment of this invention. は、本発明の実施形態における撮像装置の追尾処理部の構成を示すブロック図であるThese are block diagrams which show the structure of the tracking process part of the imaging device in embodiment of this invention. は、本発明の実施形態における撮像装置の追尾処理について示したフローチャートである。These are the flowcharts shown about the tracking process of the imaging device in embodiment of this invention. は、追尾処理の対象となる画像データの模式図である。These are schematic diagrams of image data to be subjected to tracking processing. は、測光、対象測光値判定及び探索領域設定が行われるフレームの画像データの模式図である。FIG. 5 is a schematic diagram of image data of a frame in which photometry, target photometric value determination, and search area setting are performed. は、露出制御が行われるフレームの画像データの模式図と、画像データの輝度分布及び測光値を示すグラフである。These are the schematic diagram of the image data of the flame | frame in which exposure control is performed, and the graph which shows the luminance distribution and photometric value of image data. は、露出制御が行われるフレームの画像データの模式図と、画像データの輝度分布及び測光値を示すグラフである。These are the schematic diagram of the image data of the flame | frame in which exposure control is performed, and the graph which shows the luminance distribution and photometric value of image data. は、露出制御が行われるフレームの画像データの測光値を示すグラフである。These are graphs showing photometric values of image data of frames for which exposure control is performed. は、背景差分法について示す画像データの模式図である。These are the schematic diagrams of the image data shown about the background subtraction method. は、フレーム間差分法について示す画像データの模式図である。These are the schematic diagrams of the image data shown about the interframe difference method. は、ブロックマッチング法について示す画像データの模式図である。These are the schematic diagrams of the image data shown about a block matching method. は、本発明の実施形態における撮像装置の追尾処理の一例を示すシーケンス図である。These are sequence diagrams which show an example of the tracking process of the imaging device in the embodiment of the present invention.

符号の説明Explanation of symbols

1 撮像装置
2 イメージセンサ
3 レンズ部
4 AFE
5 マイク
6 画像処理部
7 音声処理部
8 圧縮処理部
9 ドライバ部
10 伸張処理部
11 画像出力回路部
12 音声出力回路部
13 CPU
14 追尾処理部
14a 測光部
14b 露出制御部
14c 明るさ補正部
14d 追尾領域設定部
15 メモリ
16 操作部
17 TG部
18 バス
19 バス
20 外部メモリ
21 カーソル
22a 選択カーソル
22b 境界
23 追尾領域
24 探索領域
24a 初期探索領域
25 周辺領域
26、26a 測光領域
27a、27b 移動体が含まれる領域
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Image sensor 3 Lens part 4 AFE
5 Microphone 6 Image Processing Unit 7 Audio Processing Unit 8 Compression Processing Unit 9 Driver Unit 10 Decompression Processing Unit 11 Image Output Circuit Unit 12 Audio Output Circuit Unit 13 CPU
DESCRIPTION OF SYMBOLS 14 Tracking process part 14a Photometry part 14b Exposure control part 14c Brightness correction part 14d Tracking area setting part 15 Memory 16 Operation part 17 TG part 18 Bus 19 Bus 20 External memory 21 Cursor 22a Selection cursor 22b Boundary 23 Tracking area 24 Search area 24a Initial search area 25 Peripheral area 26, 26a Photometric area 27a, 27b Area including moving object

Claims (9)

入力される光学像から画像データを作成する撮像部と、
入力される画像データに基づいて、画像データ内の追尾対象の位置を示す追尾領域を設定する追尾領域設定部と、を備えた撮像装置において、
前記追尾対象を示す信号である追尾対象色信号を記憶する記憶部と、
前記追尾領域設定部に入力される画像データの明るさを補正する明るさ補正部と、を備え、
前記明るさ補正部が、前記追尾領域設定部に入力される画像データの所定の領域における明るさを、前記追尾対象色信号の明るさに近づける補正を行うとともに、
前記追尾領域設定部が、前記明るさ補正部によって補正された画像データに含まれる色の信号と、前記追尾対象色信号とに基づいて前記追尾領域を設定することを特徴とする撮像装置。
An imaging unit that creates image data from the input optical image;
In an imaging apparatus comprising: a tracking area setting unit that sets a tracking area indicating a position of a tracking target in image data based on input image data;
A storage unit for storing a tracking target color signal which is a signal indicating the tracking target;
A brightness correction unit for correcting the brightness of the image data input to the tracking region setting unit,
The brightness correction unit corrects the brightness in a predetermined area of the image data input to the tracking area setting unit to be close to the brightness of the tracking target color signal, and
The imaging apparatus, wherein the tracking area setting unit sets the tracking area based on a color signal included in the image data corrected by the brightness correction unit and the tracking target color signal.
画像データの全体的な明るさを測定した結果に基づいて全体測光値を算出するとともに、画像データの前記追尾領域を含む領域である第1測光領域の明るさを測定した結果に基づいて対象測光値を算出する測光部と、
前記全体測光値と、前記対象測光値と、のそれぞれに所定の加算割合を乗じて加算することで加重加算値を得るとともに、当該加重加算値に基づいて前記撮像部を制御して、前記撮像部から出力される画像データの明るさを制御する露出制御部と、
をさらに備えることを特徴とする請求項1に記載の撮像装置。
The total photometric value is calculated based on the result of measuring the overall brightness of the image data, and the target photometry is based on the result of measuring the brightness of the first photometric area that is the area including the tracking area of the image data. A metering unit for calculating a value;
A weighted addition value is obtained by multiplying each of the overall photometry value and the target photometry value by a predetermined addition ratio, and the imaging unit is controlled based on the weighted addition value, thereby performing the imaging An exposure control unit that controls the brightness of image data output from the unit;
The imaging apparatus according to claim 1, further comprising:
前記対象測光値が第1範囲外の値となるときに、前記加重加算値における前記対象測光値に乗じられる加算割合が、前記対象測光値が前記第1範囲内の値である場合以上の大きさの値に設定されることを特徴とする請求項2に記載の撮像装置。   When the target photometric value is outside the first range, the addition ratio multiplied by the target photometric value in the weighted addition value is greater than when the target photometric value is within the first range. The imaging device according to claim 2, wherein the imaging device is set to a value of the height. 前記対象測光値が継続して前記第1範囲内の値となるときに、前記加重加算値における前記対象測光値に乗じられる加算割合が、通常露出補正割合値に設定されることを特徴とする請求項3に記載の撮像装置。   When the target photometry value continues to be a value within the first range, an addition ratio to be multiplied by the target photometry value in the weighted addition value is set to a normal exposure correction ratio value. The imaging device according to claim 3. 前記対象測光値が前記第1範囲外の値から前記第1範囲内の値になるとともに、その後継続して前記第1範囲内の値となる場合に、前記加重加算値における前記対象測光値に乗じられる加算割合が、少なくとも一回前記通常補正割合値以外の値に設定された後に、前記通常露出補正割合値に設定されて維持されることを特徴とする請求項4に記載の撮像装置。   When the target photometric value changes from a value outside the first range to a value within the first range, and subsequently becomes a value within the first range, the target photometric value is changed to the target photometric value in the weighted addition value. The imaging apparatus according to claim 4, wherein the addition ratio to be multiplied is set and maintained at the normal exposure correction ratio value after being set to a value other than the normal correction ratio value at least once. 前記対象測光値が第2範囲外の値となるときに、前記第1測光領域が、前記対象測光値が前記第2範囲内にある場合よりも大きく設定されることを特徴とする請求項2〜請求項5のいずれかに記載の撮像装置。   The said 1st photometry area | region is set larger than the case where the said object photometry value exists in the said 2nd range when the said object photometry value becomes a value outside a 2nd range. The imaging device according to claim 5. 前記対象測光値が、前記第1測光領域の明るさを測定した値と、前記第1測光領域の周辺の領域である周辺領域の明るさを測定した値と、のそれぞれに所定の加算割合を乗じて加算した値に基づいて算出されることを特徴とする請求項2〜請求項6のいずれかに記載の撮像装置。   The target metering value includes a predetermined addition ratio for each of a value obtained by measuring the brightness of the first photometric area and a value obtained by measuring the brightness of a peripheral area that is a peripheral area of the first photometric area. The imaging device according to claim 2, wherein the imaging device is calculated based on a value obtained by multiplication and addition. 入力される画像データを記録する記録部をさらに備え、
当該記録部に入力される画像データが、前記明るさ補正部によって補正されていない画像データであることを特徴とする請求項1〜請求項7のいずれかに記載の撮像装置。
A recording unit for recording input image data;
The image pickup apparatus according to claim 1, wherein the image data input to the recording unit is image data that has not been corrected by the brightness correction unit.
追尾対象を示す信号である追尾対象色信号を記憶する第1ステップと、
画像データを作成する第2ステップと、
当該第2ステップにおいて作成された画像データの所定の領域の明るさが、前記第1ステップにおいて記憶された追尾対象色信号に近づくように制御する第3ステップと、
当該第3ステップにおいて補正された画像データに含まれる色の信号と、前記第1ステップにおいて記憶された追尾対象色信号とに基づいて、画像データ内の追尾対象の位置を示す追尾領域を設定する第4ステップと、
を備えることを特徴とする撮像方法。
A first step of storing a tracking target color signal that is a signal indicating the tracking target;
A second step of creating image data;
A third step of controlling the brightness of a predetermined area of the image data created in the second step to approach the tracking target color signal stored in the first step;
Based on the color signal included in the image data corrected in the third step and the tracking target color signal stored in the first step, a tracking area indicating the position of the tracking target in the image data is set. The fourth step;
An imaging method comprising:
JP2008006687A 2008-01-16 2008-01-16 Image pickup device and image pickup method Pending JP2009171191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008006687A JP2009171191A (en) 2008-01-16 2008-01-16 Image pickup device and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008006687A JP2009171191A (en) 2008-01-16 2008-01-16 Image pickup device and image pickup method

Publications (1)

Publication Number Publication Date
JP2009171191A true JP2009171191A (en) 2009-07-30

Family

ID=40971889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008006687A Pending JP2009171191A (en) 2008-01-16 2008-01-16 Image pickup device and image pickup method

Country Status (1)

Country Link
JP (1) JP2009171191A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044428A (en) * 2010-08-18 2012-03-01 Canon Inc Tracker, tracking method and program
WO2019171691A1 (en) * 2018-03-06 2019-09-12 ソニー株式会社 Image processing device, imaging device, and image processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044428A (en) * 2010-08-18 2012-03-01 Canon Inc Tracker, tracking method and program
WO2019171691A1 (en) * 2018-03-06 2019-09-12 ソニー株式会社 Image processing device, imaging device, and image processing method
CN111788824A (en) * 2018-03-06 2020-10-16 索尼公司 Image processing apparatus, imaging apparatus, and image processing method
JPWO2019171691A1 (en) * 2018-03-06 2021-03-04 ソニー株式会社 Image processing device, imaging device, and image processing method
CN111788824B (en) * 2018-03-06 2022-07-08 索尼公司 Image processing apparatus, imaging apparatus, and image processing method
US11663708B2 (en) 2018-03-06 2023-05-30 Sony Corporation Image processing apparatus, imaging apparatus, and image processing method
JP7363765B2 (en) 2018-03-06 2023-10-18 ソニーグループ株式会社 Image processing device, imaging device, and image processing method

Similar Documents

Publication Publication Date Title
US7817202B2 (en) Image processing method, imaging apparatus, and storage medium storing control program of image processing method executable by computer
US8724981B2 (en) Imaging apparatus, focus position detecting method, and computer program product
US7680402B2 (en) Image shooting device with camera shake correction function
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
US20100277620A1 (en) Imaging Device
US8878946B2 (en) Image processing apparatus and control method therefor
JP6202860B2 (en) Imaging apparatus and imaging method
KR20120084696A (en) Imaging apparatus and imaging method for taking moving image
CN107533756B (en) Image processing device, imaging device, image processing method, and storage medium storing image processing program for image processing device
JP6574878B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
KR101728042B1 (en) Digital photographing apparatus and control method thereof
US20110128415A1 (en) Image processing device and image-shooting device
JP5166860B2 (en) Image processing apparatus and method, and imaging apparatus
US20150358552A1 (en) Image combining apparatus, image combining system, and image combining method
JP6253245B2 (en) Imaging apparatus and imaging method
JP2007124292A (en) Imaging apparatus, imaging method, and imaging program
KR101594000B1 (en) Auto focusing method medium for recording the method auto focusing apparatus
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5569361B2 (en) Imaging apparatus and white balance control method
US20130121534A1 (en) Image Processing Apparatus And Image Sensing Apparatus
JP2015177510A (en) camera system, image processing method and program
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2009171191A (en) Image pickup device and image pickup method
JP2009069740A (en) Image pickup device
US10003736B2 (en) Image pickup device