JP5353499B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5353499B2
JP5353499B2 JP2009160920A JP2009160920A JP5353499B2 JP 5353499 B2 JP5353499 B2 JP 5353499B2 JP 2009160920 A JP2009160920 A JP 2009160920A JP 2009160920 A JP2009160920 A JP 2009160920A JP 5353499 B2 JP5353499 B2 JP 5353499B2
Authority
JP
Japan
Prior art keywords
determination
imaging
unit
determination unit
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009160920A
Other languages
Japanese (ja)
Other versions
JP2011018996A (en
Inventor
浩一 坂本
佑子 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009160920A priority Critical patent/JP5353499B2/en
Publication of JP2011018996A publication Critical patent/JP2011018996A/en
Application granted granted Critical
Publication of JP5353499B2 publication Critical patent/JP5353499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

撮影対象である光学像に基づき生成された画像データから当該画像データの特徴を表わす特徴量を抽出し、この特徴量が予め決められている判定条件を満たすか否かを判断し、特徴量が判定条件を満たすと判断した場合、判定条件を満たした撮像対象に適する露出時の撮像条件を選択して撮像系を制御するものがある(特許文献1参照)。   A feature amount representing the feature of the image data is extracted from the image data generated based on the optical image to be photographed, and it is determined whether or not the feature amount satisfies a predetermined determination condition. When it is determined that the determination condition is satisfied, there is an apparatus that controls an imaging system by selecting an imaging condition at the time of exposure suitable for an imaging target that satisfies the determination condition (see Patent Document 1).

特開2002−10135号公報JP 2002-10135 A

しかしながら、判定条件を満たすか否かの境界付近において特徴量が頻繁に変動すると、選択される撮像条件も頻繁に変動するおそれがあり、撮像条件の判断結果が不安定になる問題がある。特に、同一の撮像対象を連続的に撮影しているにもかかわらず撮像条件が頻繁に変動すると、選択された撮像条件に対しての信頼性が低いとユーザに誤解されるおそれがある。   However, if the feature amount frequently fluctuates in the vicinity of the boundary of whether or not the determination condition is satisfied, there is a possibility that the selected imaging condition may also fluctuate frequently and the determination result of the imaging condition becomes unstable. In particular, if the imaging conditions frequently fluctuate even though the same imaging target is continuously photographed, the user may be misunderstood that the reliability for the selected imaging conditions is low.

本発明は、このような事情を考慮し、上記の問題を解決すべくなされたものであって、その目的は、判定条件の境界付近における撮像条件の変動を低減させる撮像装置を提供することにある。   The present invention has been made in consideration of such circumstances, and has been made to solve the above-described problems, and an object of the present invention is to provide an imaging apparatus that can reduce fluctuations in imaging conditions in the vicinity of the boundary of determination conditions. is there.

上記問題を解決するために、本発明に係る撮像装置は、被写体を撮像し、画像データを生成する撮像部を、選択された撮像条件に従って制御する制御部と、前記撮像部による撮像によって得られた情報と判定基準とに基づき、前記撮像条件を選択する判定部と、前記撮像部による撮像によって得られた情報に基づき、撮像対象の変化量を算出し、前記判定部によって選択された前記撮像条件が変更されない変化量として許容されている許容範囲内に前記撮像対象の変化量があるか否かを判定する解析部と、前記解析部によって前記許容範囲内に前記撮像対象の変化量があると判定された場合、前記撮像条件が変更されない値に前記判定基準を変更する管制部と、を備え、前記制御部は、前記画像データに基づき輝度色差信号を生成し、前記解析部は、異なる時間間隔で得られた複数の前記輝度色差信号の差分に対して、前記時間間隔毎に異なる重み係数を乗算して得られる情報に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第3判定部を含むことを特徴とする。 In order to solve the above-described problem, an imaging apparatus according to the present invention is obtained by imaging a subject and controlling an imaging unit that generates image data according to selected imaging conditions, and imaging by the imaging unit. based was on the information criterion, a determination unit for selecting the imaging condition, based on the information obtained by imaging by the imaging unit, and calculates the amount of change in an imaging object, wherein selected by the determination unit An analysis unit that determines whether or not there is a change amount of the imaging target within an allowable range that is allowed as a change amount that does not change the imaging condition, and the change amount of the imaging target is within the allowable range by the analysis unit. A control unit that changes the determination criterion to a value that does not change the imaging condition when the image capturing condition is determined to be present, the control unit generates a luminance color difference signal based on the image data, and A change amount of the imaging target based on information obtained by multiplying a difference between the plurality of luminance color difference signals obtained at different time intervals by a different weighting factor for each time interval. It is characterized by including the 3rd determination part which determines whether it is inside.

本発明によれば、判定条件の境界付近における撮像条件の変動を低減させることができる。   According to the present invention, it is possible to reduce the fluctuation of the imaging condition in the vicinity of the boundary of the determination condition.

本発明の一実施形態に係る撮像装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置に含まれるCPUの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of CPU contained in the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置に含まれるシーン解析部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the scene analysis part contained in the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置における輝度色差信号の方法の一例を説明する概略図である。It is the schematic explaining an example of the method of the brightness | luminance color difference signal in the imaging device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る撮像装置のシーン判定方法の一例について説明するための参考図である。It is a reference figure for explaining an example of a scene judging method of an imaging device concerning one embodiment of the present invention. 本発明の一実施形態に係る撮像装置のシーン判定方法の一例について説明するための参考図である。It is a reference figure for explaining an example of a scene judging method of an imaging device concerning one embodiment of the present invention.

以下、図面を参照して、本発明に係る撮像装置の一実施形態について説明する。図1は、本発明の一実施の形態に係る撮像装置1の構成を示す概略図である。
図1に示すとおり、本実施形態に係る撮像装置1は、撮像部10と、CPU(Central processing unit)11と、操作部12、画像処理部13と、表示部14と、記憶部15と、バッファメモリ部16と、通信部17と、バス18とを備える。
また、本実施形態に係る撮像装置1は、撮像によって得られた画像データのCPU11による解析結果や撮像部10によって制御されるレンズの位置を表わす位置情報等に基づき撮像対象が何であるかを判定し、判定した撮像対象に適した撮像条件を判断するシーン判定機能を有する。このシーン判定機能とは、例えば、「マクロ」、「風景」、「夜景」、「逆光」、「ポートレート」等のように、予め決められた撮像対象(以下、シーンという)の中から、撮像装置1がこれから撮像しようとする撮像対象に適したシーンを判定する機能である。そして、撮像装置1は、シーン判定機能により判定されたそれぞれのシーンの撮像に適した予め決められている撮像条件に従って撮像系を制御する。
Hereinafter, an embodiment of an imaging apparatus according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing a configuration of an imaging apparatus 1 according to an embodiment of the present invention.
As illustrated in FIG. 1, the imaging device 1 according to the present embodiment includes an imaging unit 10, a CPU (Central processing unit) 11, an operation unit 12, an image processing unit 13, a display unit 14, a storage unit 15, A buffer memory unit 16, a communication unit 17, and a bus 18 are provided.
In addition, the imaging apparatus 1 according to the present embodiment determines what the imaging target is based on the analysis result of the CPU 11 on the image data obtained by imaging, the position information indicating the position of the lens controlled by the imaging unit 10, and the like. And a scene determination function for determining an imaging condition suitable for the determined imaging target. The scene determination function is, for example, a predetermined imaging target (hereinafter referred to as a scene) such as “macro”, “landscape”, “night view”, “backlight”, “portrait”, etc. This is a function of determining a scene suitable for an imaging target to be imaged by the imaging apparatus 1 from now on. Then, the imaging apparatus 1 controls the imaging system in accordance with predetermined imaging conditions suitable for imaging each scene determined by the scene determination function.

撮像部10は、光学系101と、撮像素子102と、A/D(Analog/Digital)変換部103と、レンズ駆動部104と、測光素子105とを含み、設定された撮像条件(例えば絞り値、露出値等)に従ってCPU11により制御され、光学系101による光学像を撮像素子102に結像させて、A/D変換部103によってデジタル信号に変換された当該光学像に基づく画像データを生成する。
光学系101は、ズームレンズ101aと、焦点調整レンズ(以下、AF(Auto Focus)レンズという)101bと、分光部材101cとを備える。光学系101は、ズームレンズ101a、AFレンズ101bおよび分光部材101cを通過した光学像を撮像素子102の受光面に導く。また、光学系101は、AFレンズ101bと撮像素子102との間で分光部材101cによって分離された光学像を測光素子105の受光面に導く。
撮像素子102は、例えば、25(5×5)個に分割された光電変換面(以下、分割領域という)を含み、受光面に結像した光学像を電気信号に変換して、A/D変換部103に出力する。
また、撮像素子102は、操作部12を介して撮影指示を受け付けた際に得られる画像データを、撮影された静止画の撮影画像データとして、記憶媒体20に記憶させる。一方、撮像素子102は、操作部12を介して撮像指示を受け付けていない状態において、連続的に得られる画像データをスルー画データとして、CPU11および表示部14に出力する。
The imaging unit 10 includes an optical system 101, an imaging element 102, an A / D (Analog / Digital) conversion unit 103, a lens driving unit 104, and a photometric element 105, and sets imaging conditions (for example, an aperture value). , Exposure value, and the like), the optical image by the optical system 101 is formed on the image sensor 102, and image data based on the optical image converted into a digital signal by the A / D conversion unit 103 is generated. .
The optical system 101 includes a zoom lens 101a, a focus adjustment lens (hereinafter referred to as an AF (Auto Focus) lens) 101b, and a spectral member 101c. The optical system 101 guides the optical image that has passed through the zoom lens 101a, the AF lens 101b, and the spectral member 101c to the light receiving surface of the image sensor 102. The optical system 101 guides the optical image separated by the spectroscopic member 101 c between the AF lens 101 b and the image sensor 102 to the light receiving surface of the photometric element 105.
The image sensor 102 includes, for example, 25 (5 × 5) photoelectric conversion surfaces (hereinafter referred to as divided regions), converts an optical image formed on the light receiving surface into an electric signal, and performs A / D. The data is output to the conversion unit 103.
Further, the image sensor 102 causes the storage medium 20 to store image data obtained when a shooting instruction is received via the operation unit 12 as shot image data of a shot still image. On the other hand, the imaging element 102 outputs continuously obtained image data to the CPU 11 and the display unit 14 as through image data in a state where no imaging instruction is received via the operation unit 12.

A/D変換部103は、撮像素子102によって変換された電子信号をデジタル化して、デジタル信号である画像データを出力する。
レンズ駆動部104は、ズームレンズ101aの位置を表わすズームポジション、およびAFレンズ101bの位置を表わすフォーカスポジションを検出する検出手段と、ズームレンズ101aおよびAFレンズ101bを移動させる駆動手段とを有する。また、レンズ駆動部104は、検出手段によって検出されたズームポジションおよびフォーカスポジションをCPU11に出力する。さらに、これらの情報に基づきCPU11によって駆動制御信号が生成されると、レンズ駆動部104の駆動手段は、この駆動制御信号に従って両レンズの位置を制御する。
測光素子105は、分光部材101cで分離された光学像を受光面に結像させ、光学像の輝度分布を表わす輝度信号を得て、A/D変換部103に出力する。また、測光素子105は、例えば、25(5×5)個に分割された光電変換面(以下、分割領域という)を含み、A/D変換部103を介して、分割領域毎の輝度信号をCPU11に出力する。
The A / D converter 103 digitizes the electronic signal converted by the image sensor 102 and outputs image data that is a digital signal.
The lens driving unit 104 includes a detecting unit that detects a zoom position that represents the position of the zoom lens 101a and a focus position that represents the position of the AF lens 101b, and a driving unit that moves the zoom lens 101a and the AF lens 101b. Further, the lens driving unit 104 outputs the zoom position and the focus position detected by the detection unit to the CPU 11. Further, when a drive control signal is generated by the CPU 11 based on these pieces of information, the drive means of the lens drive unit 104 controls the positions of both lenses according to this drive control signal.
The photometric element 105 forms an optical image separated by the spectroscopic member 101 c on the light receiving surface, obtains a luminance signal representing the luminance distribution of the optical image, and outputs it to the A / D conversion unit 103. The photometric element 105 includes, for example, 25 (5 × 5) photoelectric conversion surfaces (hereinafter referred to as divided regions), and the luminance signal for each divided region is transmitted via the A / D conversion unit 103. It outputs to CPU11.

操作部12は、例えば、電源スイッチやシャッターボタン、その他の操作キーを含み、ユーザによって操作されることでユーザの操作入力を受け付け、CPU11に出力する。
画像処理部13は、記憶部15に記憶されている画像処理条件を参照して、記憶媒体20に記録されている画像データに対して画像処理をする。
表示部14は、例えば液晶ディスプレイであって、撮像部10によって得られた画像データや、操作画面等を表示する。
記憶部15は、CPU11によってシーン判定の際に参照される判定条件や、シーン判定によって判断されたシーン毎に対応付けられた撮像条件等を記憶する。
バッファメモリ部16は、撮像部10によって撮像された画像データ等を、一時的に記憶する。
The operation unit 12 includes, for example, a power switch, a shutter button, and other operation keys. The operation unit 12 receives a user operation input when operated by the user and outputs the operation input to the CPU 11.
The image processing unit 13 refers to the image processing conditions stored in the storage unit 15 and performs image processing on the image data recorded in the storage medium 20.
The display unit 14 is, for example, a liquid crystal display, and displays image data obtained by the imaging unit 10, an operation screen, and the like.
The storage unit 15 stores determination conditions that are referred to when the CPU 11 determines a scene, imaging conditions associated with each scene determined by the scene determination, and the like.
The buffer memory unit 16 temporarily stores image data and the like captured by the imaging unit 10.

通信部17は、カードメモリ等の取り外しが可能な記憶媒体20と接続され、この記憶媒体20への情報の書込み、読み出し、あるいは消去を行う。
バス18は、撮像部10と、CPU11と、操作部12と、画像処理部13と、表示部14と、記憶部15と、バッファメモリ部16と、通信部17とそれぞれ接続され、各部から出力されたデータ等を転送する。
記憶媒体20は、撮像装置1に対して着脱可能に接続される記憶部であって、例えば、撮像部10によって生成された(撮影された)画像データを記憶する。
The communication unit 17 is connected to a removable storage medium 20 such as a card memory, and performs writing, reading, or erasing of information on the storage medium 20.
The bus 18 is connected to the imaging unit 10, the CPU 11, the operation unit 12, the image processing unit 13, the display unit 14, the storage unit 15, the buffer memory unit 16, and the communication unit 17, and outputs from each unit. The transferred data is transferred.
The storage medium 20 is a storage unit that is detachably connected to the imaging device 1 and stores, for example, image data generated (captured) by the imaging unit 10.

次に、CPU11について、図2を用いて説明する。図2は、CPU11の一例を示すブロック図である。
図2に示す通り、CPU11は、プログラムが実行されることでCPU11の構成要素として機能する機能部として、メイン制御部110と、スルー画処理部111と、シーン解析部112と、シーン判定部113とを備える。
メイン制御部110は、測光素子105によって得られた分割領域毎の輝度信号が入力されると、この輝度信号に基づき、各分割領域の輝度値(以下、Bv(Brightness value)値という)を算出する。また、メイン制御部110は、レンズ駆動部104からズームレンズ101aのズームポジションを得る。
さらに、メイン制御部110は、一定間隔をあけて、連続的に得られるBv値{Bv(t−1)、Bv(t)、Bv(t+1)・・・}およびズームポジション{ZP(t−1)、ZP(t)、ZP(t+1)・・・}をシーン解析部112に出力する。
また、メイン制御部110は、測光素子105の分割領域毎に得られるBv値(Bv1、Bv2、・・・、Bv25)に基づき、全ての分割領域のBv値の総和を平均化した平均輝度値BvMean、全ての分割領域のBv値の中で最大である最大輝度値BvMax、および最小である最小輝度値BvMinを算出して、シーン判定部113に出力する。
Next, the CPU 11 will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of the CPU 11.
As shown in FIG. 2, the CPU 11 is a main control unit 110, a through image processing unit 111, a scene analysis unit 112, and a scene determination unit 113 as functional units that function as components of the CPU 11 by executing a program. With.
When the luminance signal for each divided area obtained by the photometric element 105 is input, the main control unit 110 calculates a luminance value (hereinafter referred to as a Bv (Brightness value) value) of each divided area based on the luminance signal. To do. Further, the main control unit 110 obtains the zoom position of the zoom lens 101 a from the lens driving unit 104.
Further, the main controller 110 continuously obtains Bv values {Bv (t−1), Bv (t), Bv (t + 1)...} And a zoom position {ZP (t− 1), ZP (t), ZP (t + 1)...} Are output to the scene analysis unit 112.
Further, the main control unit 110 averages the sum of the Bv values of all the divided areas based on the Bv values (Bv1, Bv2,..., Bv25) obtained for each divided area of the photometric element 105. BvMean, the maximum luminance value BvMax that is the maximum among the Bv values of all the divided regions, and the minimum luminance value BvMin that is the minimum are calculated and output to the scene determination unit 113.

スルー画処理部111は、撮像素子102によって得られたスルー画データが入力されると、このスルー画データに基づき輝度色差信号YUVを算出する。スルー画処理部111は、一定間隔をあけて、連続的に得られる輝度色差信号YUV{YUV(t−1)、YUV(t)、YUV(t+1)・・・}をシーン解析部112に出力する。なお、輝度色差信号YUVとは、輝度を表わす輝度情報Y、輝度情報Yと青色成分との差分である差分情報U(Cb)、および輝度情報Yと赤色成分との差分である差分情報V(Cr)である。   When the through image data obtained by the image sensor 102 is input, the through image processing unit 111 calculates a luminance color difference signal YUV based on the through image data. The through image processing unit 111 outputs the luminance and color difference signals YUV {YUV (t−1), YUV (t), YUV (t + 1)...} Continuously obtained at predetermined intervals to the scene analysis unit 112. To do. The luminance color difference signal YUV includes luminance information Y indicating luminance, difference information U (Cb) that is a difference between the luminance information Y and a blue component, and difference information V (that is a difference between the luminance information Y and a red component. Cr).

シーン解析部112には、メイン制御部110からBv値およびズームポジションが入力されるとともに、スルー画処理部111から輝度色差信号YUVが入力される。シーン解析部112は、これら撮像部10による撮像によって得られた情報に基づき画像データにおける撮像対象の変化量を算出して、この変化量が許容範囲内であるか否かを判断する。ここで、許容範囲とは、画像データ全体としてみれば、変化があるものの画像データに含まれる撮像対象に注目した場合、当該撮像対象については、それ程大きな変化をしていないとみなす範囲のことであり、具体的には、その時点で選択されているシーンが、シーン判定機能によって変更されることのないように判定条件を変動させた場合の変動分を示すものである。言い換えると、許容範囲は、シーン判定機能によって選択されているシーンを変更しないように、撮像によって得られた情報が変化しても、撮像対象は変化していないとみなす範囲である。
以下、シーン解析部112について、図3を用いて詳細に説明する。図3は、シーン解析部112の構成例を示すブロック図である。
The scene analysis unit 112 receives the Bv value and the zoom position from the main control unit 110 and the luminance color difference signal YUV from the through image processing unit 111. The scene analysis unit 112 calculates the amount of change of the imaging target in the image data based on the information obtained by imaging by the imaging unit 10, and determines whether or not the amount of change is within an allowable range. Here, the permissible range refers to a range in which if there is a change in image data as a whole and attention is paid to an imaging target included in the image data, the imaging target is considered not to have changed so much. Specifically, it shows the fluctuation amount when the determination condition is changed so that the scene selected at that time is not changed by the scene determination function. In other words, the allowable range is a range in which the imaging target is not changed even if the information obtained by imaging changes so that the scene selected by the scene determination function is not changed.
Hereinafter, the scene analysis unit 112 will be described in detail with reference to FIG. FIG. 3 is a block diagram illustrating a configuration example of the scene analysis unit 112.

図3に示す通り、シーン解析部112は、第1判定部112aと、第2判定部112bと、第3判定部112cと、パターン解析部112dと、総合判定部112eと、第1バッファ112fと、第2バッファ112gと、第3バッファ112hとを含む。
第1判定部112aは、現在(t)時点においてメイン制御部110によって得られたBv(t)とズームポジションZP(t)とを受け付けるとともに、第1バッファ112fにおいて一次的に記憶されていた1フレーム前のBv(t−1)とズームポジションZP(t−1)とを受け付ける。
第1バッファ112fは、メイン制御部11から連続的に入力されるBv値{Bv(t−1)、Bv(t)・・・}およびズームポジション{ZP(t−1)、ZP(t)・・・}を受け付け、メイン制御部11から第1判定部112aに出力されるBv(t)とズームポジションZP(t)のタイミングと合わせて、1フレーム前のBv(t−1)とズームポジションZP(t−1)を第1判定部112aに出力する。
なお、第1判定部112aはこの構成に限られず、第1バッファ112fに相当するバッファが第1判定部112aに内蔵されている構成であってもよい。例えば、第1判定部112aは、Bv(t)が入力されると、内蔵されているバッファにBv(t)を順次記憶させるとともに、入力されたBv(t)よりも過去のBv(t−1)をバッファから読み出す。これにより、第1判定部112aは、入力されたBv(t)と読み出したB(t−1)の両方を得る。
As shown in FIG. 3, the scene analysis unit 112 includes a first determination unit 112a, a second determination unit 112b, a third determination unit 112c, a pattern analysis unit 112d, a comprehensive determination unit 112e, and a first buffer 112f. , A second buffer 112g and a third buffer 112h.
The first determination unit 112a receives Bv (t) and the zoom position ZP (t) obtained by the main control unit 110 at the current time (t) and is temporarily stored in the first buffer 112f. Bv (t-1) and zoom position ZP (t-1) before the frame are received.
The first buffer 112f has Bv values {Bv (t−1), Bv (t)...} And zoom positions {ZP (t−1), ZP (t) continuously input from the main control unit 11. ... Are received, and Bv (t-1) one frame before and zoomed together with the timing of Bv (t) and zoom position ZP (t) output from the main control unit 11 to the first determination unit 112a. The position ZP (t−1) is output to the first determination unit 112a.
The first determination unit 112a is not limited to this configuration, and a buffer corresponding to the first buffer 112f may be built in the first determination unit 112a. For example, when Bv (t) is input, the first determination unit 112a sequentially stores Bv (t) in a built-in buffer, and the past Bv (t− 1) is read from the buffer. Thereby, the first determination unit 112a obtains both the input Bv (t) and the read B (t−1).

また、第1判定部112aは、現在の(t)時点のデータと、1フレーム前の(t−1)時点のデータとの差分を算出して、現在と過去のBv値の差分[Bv(t−1)−Bv(t)]に基づき、この差分が予め決められている閾値Th1よりも大きいか否かを判断する。
例えば、第1判定部112aは、閾値Th1を基準とした判断結果に基づき、Bv値の差分が閾値Th1以下である場合、微動状態であると判断して第1シーンチェンジ判定値JDG1=0を得る。一方、第1判定部112aは、判断結果に基づき、Bv値の差分が閾値Th1より大きい場合、変動状態であると判断して第1シーンチェンジ判定値JDG1=1を得る。この判断を以下の参照式に示す。
Further, the first determination unit 112a calculates a difference between the data at the current time (t) and the data at the time (t-1) one frame before, and calculates the difference between the current and past Bv values [Bv ( Based on (t-1) −Bv (t)], it is determined whether or not the difference is larger than a predetermined threshold value Th1.
For example, based on the determination result with the threshold value Th1 as a reference, the first determination unit 112a determines that it is in the fine movement state when the difference in the Bv value is equal to or less than the threshold value Th1, and sets the first scene change determination value JDG1 = 0. obtain. On the other hand, based on the determination result, the first determination unit 112a determines that the difference is greater than the threshold value Th1 and is in a fluctuating state, and obtains the first scene change determination value JDG1 = 1. This determination is shown in the following reference formula.

(参照式1)
If (X(t)−X(t−1) > Th1;閾値)
JDG1=1(非静止) else JDG1=0(第2、3判定部へ)
(Reference formula 1)
If (X (t) -X (t-1)>Th1; threshold)
JDG1 = 1 (non-stationary) else JDG1 = 0 (to the second and third determination units)

これにより、第1判定部112aは、(t)時点のBv値と、1フレーム前の(t−1)時点のBv値の差分に基づき、その差分が微動状態であると認識される許容範囲内であるか否かを判断する。すなわち、第1判定部112aは、画像データにおける撮像対象の変化量をBv値により算出し、得られた変化量(Bv値の差分)が許容範囲内(閾値Th1以下)である場合、微動状態であると判断し、許容範囲を超えると(閾値Th1より大きい)、変動状態であると判断する。   Thereby, the first determination unit 112a is based on the difference between the Bv value at the time (t) and the Bv value at the time (t-1) one frame before, and the permissible range in which the difference is recognized as a fine movement state. It is judged whether it is in. That is, the first determination unit 112a calculates the change amount of the imaging target in the image data based on the Bv value, and when the obtained change amount (difference in the Bv value) is within the allowable range (threshold value Th1 or less), the fine movement state If the allowable range is exceeded (greater than the threshold value Th1), it is determined that the state is in a fluctuating state.

また、第1判定部112aは、現在と過去のズームポジションの差分[ZP(t)−ZP(t−1)]を算出し、この差分が予め決められている閾値Th´1よりも大きいか否かを判断する。上述したBv値の場合と同様にして、第1判定部112aは、判断結果に基づき、差分が閾値Th´1以下である場合は微動状態であると判断し、差分が閾値Th´1より大きい場合は変動状態であると判断する。
第1判定部112aは、Bv値の差分に基づく判定結果およびズームポジションの差分に基づく判定結果が共に微動状態であった場合、第1シーンチェンジ判定値「JDG1=0」を総合判定部112dに出力する。一方、第1判定部112aは、Bv値の差分に基づく判定結果あるいはズームポジションの差分に基づく判定結果のうち少なくとも1つが変動状態であった場合、第1シーンチェンジ判定値「JDG1=1」を総合判定部112dに出力する。
In addition, the first determination unit 112a calculates a difference [ZP (t) −ZP (t−1)] between the current and past zoom positions, and whether the difference is greater than a predetermined threshold Th′1. Judge whether or not. In the same manner as in the case of the Bv value described above, the first determination unit 112a determines, based on the determination result, that the difference is equal to or smaller than the threshold value Th′1, and that the difference is greater than the threshold value Th′1. In this case, it is determined that the state is a fluctuation state.
When both the determination result based on the difference in the Bv value and the determination result based on the difference in the zoom position are in a fine movement state, the first determination unit 112a sends the first scene change determination value “JDG1 = 0” to the general determination unit 112d. Output. On the other hand, the first determination unit 112a sets the first scene change determination value “JDG1 = 1” when at least one of the determination result based on the difference in the Bv value or the determination result based on the difference in the zoom position is in a changing state. It outputs to the comprehensive determination part 112d.

なお、微動状態とは、例えば撮像装置1がゆっくりとパンされている等の撮像状態であって、画角の変動が微小である状態をいう。つまり、撮像装置1によって撮像されたスルー画データ内における被写体の状態変化がほとんどなく静止状態に等しい許容範囲内の状態をいう。
一方、変動状態とは、画角の変動が微動状態であると判断される許容範囲を超えた状態をいう。つまり、撮像装置1によって撮像されたスルー画データ内における被写体の状態変化がもはや静止している状態ではない非静止状態であって、シーン判定部113による判定結果も変化する可能性が高い状態をいう。
以下、微動状態を静止状態とみなして、以下静止状態といい、第1シーンチェンジ判定値JDG=「0」で表わす。一方、変動状態を非静止状態といい、第1シーンチェンジ判定値JDG=「1」で表わす。
Note that the fine movement state refers to a state in which the imaging device 1 is slowly panned, for example, and the angle of view varies very little. That is, it means a state in which the state of the subject in the through image data imaged by the imaging device 1 hardly changes and is within an allowable range equal to the stationary state.
On the other hand, the fluctuation state refers to a state where the fluctuation of the angle of view exceeds an allowable range in which it is determined that the movement is fine. That is, the state change of the subject in the through image data captured by the imaging device 1 is a non-still state that is no longer stationary, and the determination result by the scene determination unit 113 is also highly likely to change. Say.
Hereinafter, the fine movement state is regarded as a stationary state, hereinafter referred to as a stationary state, and is represented by a first scene change determination value JDG = “0”. On the other hand, the fluctuation state is referred to as a non-still state, and is represented by a first scene change determination value JDG = “1”.

パターン解析部112dには、スルー画処理部111によって得られた輝度色差信号YUV{YUV(t−1)、YUV(t)、YUV(t+1)・・・}が連続的に入力されている。
パターン解析部112dは、解析パターン1〜7のうち、予め決められた組み合わせに従って、輝度色差信号YUV{YUV(t−1)、YUV(t)、YUV(t+1)・・・}に基づき、パターン解析結果Y{Y(t−1)、Y(t)、Y(t+1)・・・}を算出し、第2判定部112bおよび第3判定部112cに出力する。また、パターン解析部112dは、得られたパターン解析結果を一次記憶部112fに一次的に記憶させる。
ここで、パターン解析部112dによって利用される解析パターンについて、図4を用いて説明する。図4は、輝度色差信号YUVの解析パターンを説明するための概略図である。
The luminance / color difference signal YUV {YUV (t−1), YUV (t), YUV (t + 1)...} Obtained by the through image processing unit 111 is continuously input to the pattern analysis unit 112d.
The pattern analysis unit 112d uses the luminance color difference signals YUV {YUV (t−1), YUV (t), YUV (t + 1)...} According to a predetermined combination among the analysis patterns 1 to 7. Analysis results Y {Y (t−1), Y (t), Y (t + 1)...} Are calculated and output to the second determination unit 112b and the third determination unit 112c. In addition, the pattern analysis unit 112d temporarily stores the obtained pattern analysis result in the primary storage unit 112f.
Here, an analysis pattern used by the pattern analysis unit 112d will be described with reference to FIG. FIG. 4 is a schematic diagram for explaining an analysis pattern of the luminance color difference signal YUV.

図4(a)〜(g)には、輝度色差信号YUVに基づくパターン解析結果Yの解析パターンの例が7つ示されている。なお、この解析パターンとしては、撮像素子102において25分割されている全ての分割領域から、パターン解析結果Yの利用目的に応じて複数の組み合わせが可能である。また、各分割領域の輝度色差信号YUVの分割輝度色差信号{y(1,1)、y(1,2)・・・y(5,5)}は、マトリックス上の分割領域の位置を表わすカッコ内の数字により区別されている。   FIGS. 4A to 4G show seven examples of analysis patterns of the pattern analysis result Y based on the luminance color difference signal YUV. In addition, as this analysis pattern, a plurality of combinations are possible according to the purpose of use of the pattern analysis result Y from all the divided areas divided into 25 in the image sensor 102. Further, the divided luminance color difference signal {y (1,1), y (1,2)... Y (5,5)} of the luminance color difference signal YUV of each divided region represents the position of the divided region on the matrix. They are distinguished by numbers in parentheses.

図4(a)は、分割輝度色差信号{y1,1)、y(1,2)・・・y(5,5)}の総和を、パターン解析結果Yとして算出する解析パターンY1である。
図4(b)は、分割領域のうち、中央部分の分割輝度色差信号{y(2,2)、y(2,3)・・・y(4,4)}の和を、パターン解析結果Yとして算出する解析パターンY2である。
図4(c)は、分割領域のうち、周端部分の分割輝度色差信号{y(1,1)、y(1,2)・・・y(4,4)}の和を、パターン解析結果Yとして算出する解析パターンY3である。
図4(d)は、分割領域のうち、左端部の分割輝度色差信号{y(1,1)、y(2,1)・・・y(5,1)}の和と、右端部の分割輝度色差信号{y(1,5)、y(2,5)・・・y(5,5)}の和との差分をパターン解析結果Yとして算出する解析パターン4である。また、パターン4は、分割領域のうち、上端部の分割輝度色差信号{y(1,1)、y(1,2)・・・y(1,5)}の和と、右の端部の分割輝度色差信号{y(5,1)、y(5,2)・・・y(5,5)}の和との差分も、パターン解析結果Yとして算出する。
FIG. 4A shows an analysis pattern Y1 in which the sum of the divided luminance color difference signals {y1, 1), y (1, 2)... Y (5, 5)} is calculated as the pattern analysis result Y.
FIG. 4B shows the pattern analysis result of the sum of the divided luminance color difference signals {y (2, 2), y (2, 3)... Y (4, 4)} in the central portion of the divided areas. This is an analysis pattern Y2 calculated as Y.
FIG. 4C shows a pattern analysis of the sum of the divided luminance color difference signals {y (1,1), y (1,2)... Y (4,4)} in the peripheral edge portion of the divided area. This is an analysis pattern Y3 calculated as the result Y.
FIG. 4D shows the sum of the divided luminance color difference signals {y (1,1), y (2,1)... Y (5,1)} at the left end of the divided area and the right end. This is analysis pattern 4 in which the difference from the sum of the divided luminance color difference signals {y (1,5), y (2,5)... Y (5,5)} is calculated as the pattern analysis result Y. The pattern 4 includes the sum of the divided luminance color difference signals {y (1,1), y (1,2)... Y (1,5)} at the upper end and the right end of the divided area. The difference from the sum of the divided luminance color difference signals {y (5,1), y (5,2)... Y (5,5)} is also calculated as the pattern analysis result Y.

図4(e)は、分割領域のうち、4隅部分の分割輝度色差信号{y(1,1)、y(1,2)、y(2,1)・・・y(4,5)、y(5,4)、y(5,5)}の和を、パターン解析結果Yとして算出する解析パターンY5である。
図4(f)は、分割領域のうち、中央横方向部分の分割輝度色差信号{y(3,2)、y(3,3)、y(3,4)}の和と、中央縦方向部分の分割輝度色差信号{y(2,3)、y(3,3)、y(4,3)}の和との差分を、パターン解析結果Yとして算出する解析パターン6である。
図4(g)は、分割領域のうち、第1の横方向部分の分割輝度色差信号{y(2,1)・・・y(2,5)}の和、第2の横方向部分の分割輝度色差信号{y(4,1)・・・y(4,5)}の和、第1の縦方向部分の分割輝度色差信号{y(1,2)・・・y(5,2)}の和、第2の縦方向部分の分割輝度色差信号{y(1,4)・・・y(5,4)}の和の組み合わせに基づき、パターン解析結果Yを算出する解析パターン7である。
FIG. 4E shows divided luminance color difference signals {y (1,1), y (1,2), y (2,1)... Y (4,5) at four corners in the divided area. , Y (5,4), y (5,5)} is an analysis pattern Y5 calculated as the pattern analysis result Y.
FIG. 4F shows the sum of the divided luminance color difference signals {y (3, 2), y (3, 3), y (3,4)}} in the central horizontal direction portion of the divided areas and the central vertical direction. This is an analysis pattern 6 in which the difference from the sum of the partial divided luminance color difference signals {y (2,3), y (3,3), y (4,3)} is calculated as the pattern analysis result Y.
FIG. 4G shows the sum of the divided luminance color difference signals {y (2,1)... Y (2,5)} in the first horizontal portion of the divided regions, and the second horizontal portion. Sum of divided luminance color difference signals {y (4,1)... Y (4,5)}, divided luminance color difference signals {y (1,2). )} And an analysis pattern 7 for calculating the pattern analysis result Y based on the combination of the sums of the divided luminance color difference signals {y (1,4)... Y (5,4)} in the second vertical direction portion. It is.

ここで、図3に戻って、パターン解析部112dについて説明する。
パターン解析部112dには、現在(t)時点においてスルー画処理部111によって得られた輝度色差信号YUV(t)を受け付けるとともに、第2バッファ112gにおいて一次的に記憶されていた1フレーム前の輝度色差信号YUV(t−1)を受け付ける。
また、パターン解析部112dは、上述の解析パターン1〜7のうち、予め決められた組み合わせに従って、輝度色差信号YUV{YUV(t−1)、YUV(t)、YUV(t+1)・・・}に基づき、パターン解析結果Y{Y(t−1)、Y(t)、Y(t+1)・・・}を算出し、第2判定部112bおよび第3判定部112cに出力する。
さらに、パターン解析部112dは、得られたパターン解析結果Yを第3バッファ112hに一次的に記憶させる。
Here, returning to FIG. 3, the pattern analysis unit 112d will be described.
The pattern analysis unit 112d receives the luminance color difference signal YUV (t) obtained by the through image processing unit 111 at the current time (t), and the luminance one frame before temporarily stored in the second buffer 112g. The color difference signal YUV (t−1) is received.
In addition, the pattern analysis unit 112d performs the luminance color difference signal YUV {YUV (t−1), YUV (t), YUV (t + 1)...} According to a predetermined combination among the analysis patterns 1 to 7 described above. , The pattern analysis result Y {Y (t−1), Y (t), Y (t + 1)...} Is calculated and output to the second determination unit 112b and the third determination unit 112c.
Further, the pattern analysis unit 112d temporarily stores the obtained pattern analysis result Y in the third buffer 112h.

第2バッファ112gは、スルー画処理部111から連続的に入力される輝度色差信号YUV{YUV(t−1)、YUV(t)、YUV(t+1)・・・}を受け付け、スルー画処理部111からパターン解析部112dに出力されるYUV(t)のタイミングと合わせて、1フレーム前のYUV(t−1)をパターン解析部112dに出力する。
第3バッファ112hは、パターン解析部112dから連続的に入力されるパターン解析結果Y{Y(t−1)、Y(t)、Y(t+1)・・・}を受け付け、パターン解析部112dから第3判定部112cに出力されるパターン解析結果Y(t)のタイミングと合わせて、(t)時点よりも過去の複数のパターン解析結果Y{Y(t−1)、Y(t−2)、Y(t−3)、Y(t−4)}を第3判定部112cに出力する。
なお、第1バッファ112fと同様、第2バッファ112gはパターン解析部112dに含まれる構成であってもよく、第3バッファ112hは第3判定部112cに含まれる構成であってもよい。
The second buffer 112g receives the luminance color difference signals YUV {YUV (t−1), YUV (t), YUV (t + 1)...} That are continuously input from the through image processing unit 111, and the through image processing unit. In synchronization with the timing of YUV (t) output from 111 to the pattern analysis unit 112d, YUV (t-1) one frame before is output to the pattern analysis unit 112d.
The third buffer 112h receives the pattern analysis result Y {Y (t−1), Y (t), Y (t + 1)...} Continuously input from the pattern analysis unit 112d, and receives the pattern analysis result 112d from the pattern analysis unit 112d. Along with the timing of the pattern analysis result Y (t) output to the third determination unit 112c, a plurality of pattern analysis results Y {Y (t-1), Y (t-2) past the time (t). , Y (t-3), Y (t-4)} are output to the third determination unit 112c.
Similar to the first buffer 112f, the second buffer 112g may be included in the pattern analysis unit 112d, and the third buffer 112h may be included in the third determination unit 112c.

第2判定部112bは、パターン解析部112dによって得られたパターン解析結果Y(t)を受け付けるとともに、第2バッファ112gにおいて一次的に記憶されていた1フレーム前のパターン解析結果Y(t−1)を受け付ける。
第2判定部112bは、現在と過去のパターン解析結果Yの差分[Y(t)−Y(t−1)]を算出し、この差分が予め決められている閾値Th2よりも大きいか否かを判断する。なお、第2判定部112bは、第1判定部112bにおいて用いられるBv値やズームポジションが検出された時点と同じタイミング((t)時点と(t−1)時点)で得られたパターン解析結果Yの差分を算出するものとする。
第2判定部112bは、1フレーム違いのパターン解析結果Yの差分と閾値Th2とを比較した判断結果に基づき、パターン解析結果Yの差分が閾値Th2以下である場合、静止状態であると判断して、第2シーンチェンジ判定値JDG2=0を得る。一方、第2判定部112bは、判断結果に基づき、パターン解析結果Yの差分が閾値Th2より大きい場合、非静止状態であると判断して、第2シーンチェンジ判定値JDG2=1を得る。この判断を以下の参照式に示す。
The second determination unit 112b receives the pattern analysis result Y (t) obtained by the pattern analysis unit 112d, and the pattern analysis result Y (t−1) one frame before temporarily stored in the second buffer 112g. ).
The second determination unit 112b calculates a difference [Y (t) −Y (t−1)] between the current and past pattern analysis results Y, and whether or not the difference is larger than a predetermined threshold Th2. Judging. The second determination unit 112b obtains the pattern analysis result obtained at the same timing (time (t) and time (t-1)) as when the Bv value and zoom position used in the first determination unit 112b are detected. It is assumed that the difference of Y is calculated.
The second determination unit 112b determines that the frame is stationary when the difference between the pattern analysis results Y is equal to or less than the threshold Th2 based on the determination result obtained by comparing the difference between the pattern analysis results Y for one frame and the threshold Th2. Thus, the second scene change determination value JDG2 = 0 is obtained. On the other hand, based on the determination result, when the difference between the pattern analysis results Y is greater than the threshold value Th2, the second determination unit 112b determines that the state is non-stationary and obtains the second scene change determination value JDG2 = 1. This determination is shown in the following reference formula.

(参照式2)
If (Y(t)−Y(t−1) > Th2;閾値)
JDG2=1(非静止) else JDG2=0(第3判定部へ)
(Reference formula 2)
If (Y (t) -Y (t-1)>Th2; threshold)
JDG2 = 1 (non-stationary) else JDG2 = 0 (to the third determination unit)

このように、第2判定部112bは、(t)時点のパターン解析結果Y(t)と、1フレーム前の(t−1)時点のパターン解析結果Y(t−1)とに基づき、1フレーム違いのパターン解析結果Yの差分が静止状態であると認識される許容範囲内であるか否かを判断する。すなわち、第2判定部112bは、画像データにおける撮像対象の変化量を輝度色差信号により得られるパターン解析結果Yに基づき算出し、得られた変化量(パターン解析結果Yの差分)が許容範囲内(閾値Th2以下)である場合、静止状態であると判断し、許容範囲を超えると(閾値Th2より大きい)、非静止状態であると判断する。   In this way, the second determination unit 112b determines that 1 (t) is based on the pattern analysis result Y (t) at time (t) and the pattern analysis result Y (t-1) at time (t-1) one frame before. It is determined whether or not the difference between the pattern analysis results Y for different frames is within an allowable range in which it is recognized that the frame is stationary. That is, the second determination unit 112b calculates the change amount of the imaging target in the image data based on the pattern analysis result Y obtained from the luminance color difference signal, and the obtained change amount (difference in the pattern analysis result Y) is within the allowable range. If it is (threshold value Th2 or less), it is determined that it is a stationary state, and if it exceeds the allowable range (greater than the threshold value Th2), it is determined that it is a non-stationary state.

また、第2判定部112bは、解析パターン2と解析パターン3のパターン解析結果Yに基づき、スルー画データの画面内における周辺部分の輝度色差信号YUVの時系列での変化が、中央部分の時系列での変化に比べて大きいか否かを判断し、周辺部分の変化の方が大きい場合、スルー画データの画面内において被写体がズーム方向に変動していることを検出するズーム判定手段として機能する。
また、第2判定部112bは、解析パターン4のパターン解析結果Yに基づき、スルー画データの画面内における上端部と下端部の輝度色差信号YUVを合計した値の時系列での変化が、右端部と左端部の輝度色差信号YUVを合計した値の時系列の変化に比べて大きいか否かを判断し、上端部と下端部の変化の方が大きい場合、スルー画データの画面内において、被写体がチルト方向(画像データの画面の上下方向)に変動していることを検出するチルト判定手段として機能する。
In addition, the second determination unit 112b is configured to change the luminance color difference signal YUV of the peripheral portion in the through image data in the time series in the center portion based on the pattern analysis result Y of the analysis pattern 2 and the analysis pattern 3. Determines whether or not the change in the series is large, and functions as a zoom determination means that detects that the subject is moving in the zoom direction within the live view image data screen when the change in the peripheral part is greater To do.
Further, the second determination unit 112b determines that the change in the time series of the sum of the luminance color difference signals YUV at the upper end and the lower end in the through image data screen based on the pattern analysis result Y of the analysis pattern 4 is the right end. If the change in the time series of the value obtained by summing the luminance color difference signals YUV in the left and right ends is larger than the time series change, and if the change in the upper end and the lower end is larger, It functions as a tilt determination means for detecting that the subject is changing in the tilt direction (up and down direction of the image data screen).

同様にして、第2判定部112bは、解析パターン4のパターン解析結果Yに基づき、スルー画データの画面内の右端部と左端部の輝度色差信号YUVを合計した値の時系列での変化が、上端部と下端部の輝度色差信号YUVを合計した値の時系列での変化に比べて大きいか否かを判断し、右端部と左端部の変化の方が大きい場合、スルー画データの画面内において、被写体がパン方向(画像データの画面の左右方向)に変動していることを検出するパン判定手段として機能する。
第2判定部112bは、これらのズーム判定手段、チルト判定手段およびパン判定手段を用いて得られたパターン解析結果Yの差分に基づき、画像データにおける撮像対象の変化量を算出し、得られた変化量が許容範囲内(閾値Th2以下)である場合、静止状態であると判断し、許容範囲を超えると(閾値Th2より大きい)、非静止状態であると判断するものであってもよい。
Similarly, based on the pattern analysis result Y of the analysis pattern 4, the second determination unit 112b changes the time-series change in the value obtained by summing up the luminance color difference signals YUV at the right end and the left end in the through image data screen. If the change in the time series of the sum of the luminance color difference signals YUV at the upper end and the lower end is larger than the change in the time series, and if the change at the right end and the left end is larger, the screen of the through image data It functions as a pan determination means for detecting that the subject is changing in the pan direction (left and right direction of the image data screen).
The second determination unit 112b calculates the change amount of the imaging target in the image data based on the difference between the pattern analysis results Y obtained using the zoom determination unit, the tilt determination unit, and the pan determination unit. When the amount of change is within the allowable range (threshold value Th2 or less), it may be determined that the state is stationary, and when the amount exceeds the allowable range (greater than the threshold value Th2), it may be determined that the state is non-stationary.

第3判定部112cには、パターン解析部112dによって得られたパターン解析結果Y(t)を受け付けるとともに、第3バッファ112hにおいて一次的に記憶されている(t)時点よりも過去の複数のパターン解析結果Y{Y(t−1)、Y(t−2)、Y(t−3)、Y(t−4)}を受け付ける。
また、第3判定部112cは、互いに異なるタイミングの複数の過去の時点{(t−1)、(t−2)、(t−3)、(t−4)}におけるパターン解析結果Y{Y(t−1)、Y(t−2)、Y(t−3)、Y(t−4)}と、現在のパターン解析結果Y(t)の差分を、それぞれ算出する。また、第3判定部112cは、現在と過去のパターン解析結果Yの差分に対して、現在と過去の時間差に応じた重み付けを行い、時点(t)における判定結果Hを得る。
つまり、第3判定部112cは、過去と現在のパターン解析結果Yの1フレーム間の差分h1、2フレーム間のパターン解析結果Yの差分h2、3フレーム間のパターン解析結果Yの差分h3、および4フレーム間のパターン解析結果Yの差分h4のそれぞれに対して、重み係数(回帰係数)を乗算し、線形結合にて判定結果Hを得る。
以下に、第3判定部112cによる判定結果Hの演算式(式1)を示す。
The third determination unit 112c receives the pattern analysis result Y (t) obtained by the pattern analysis unit 112d, and a plurality of patterns past the time point (t) temporarily stored in the third buffer 112h. The analysis result Y {Y (t-1), Y (t-2), Y (t-3), Y (t-4)} is received.
In addition, the third determination unit 112c performs pattern analysis results Y {Y at a plurality of past time points {(t-1), (t-2), (t-3), (t-4)} at different timings. The difference between (t-1), Y (t-2), Y (t-3), Y (t-4)} and the current pattern analysis result Y (t) is calculated. The third determination unit 112c weights the difference between the current and past pattern analysis results Y according to the current and past time difference, and obtains the determination result H at the time point (t).
That is, the third determination unit 112c determines the difference h1 between the past and the current pattern analysis result Y between the frames 1, the difference h2 between the pattern analysis results Y between the frames, the difference h3 between the pattern analysis results Y between the three frames, and Each difference h4 of the pattern analysis results Y between the four frames is multiplied by a weighting coefficient (regression coefficient), and a determination result H is obtained by linear combination.
Hereinafter, an arithmetic expression (Formula 1) of the determination result H by the third determination unit 112c is shown.

Figure 0005353499
Figure 0005353499

なお、“i”はパターン解析部112dによって得られるパターン解析結果Yの種類の数、“fr”はフレームの差(時間差)を表わすフレーム間差認識子、“a”は重み係数、“k”はフレームの差に応じて与えられる重み係数である。   Note that “i” is the number of types of pattern analysis results Y obtained by the pattern analysis unit 112d, “fr” is an inter-frame difference recognizer indicating a frame difference (time difference), “a” is a weighting factor, and “k”. Is a weighting coefficient given in accordance with the difference of frames.

また、第3判定部112cは、判定結果Hが閾値Th3以上である場合、非静止状態であると判断して、第3シーンチェンジ判定値JDG3=1を得る。一方、第3判定部112cは、判定結果Hが閾値Th3未満である場合、静止状態であると判断して、第3シーンチェンジ判定値JDG3=0を得る。この判断を以下の参照式に示す。   In addition, when the determination result H is equal to or greater than the threshold value Th3, the third determination unit 112c determines that the state is a non-still state and obtains a third scene change determination value JDG3 = 1. On the other hand, when the determination result H is less than the threshold value Th3, the third determination unit 112c determines that the state is the still state, and obtains the third scene change determination value JDG3 = 0. This determination is shown in the following reference formula.

(参照式3)
If (H ≧ Th3;閾値) JDG3=1(非静止) else JDG3=0(静止)
(Reference formula 3)
If (H ≧ Th3; threshold) JDG3 = 1 (non-stationary) else JDG3 = 0 (stationary)

このように、第3判定部112cは、(t)時点のパターン解析結果Y(t)と、互いにフレーム間隔が異なる時点の過去のパターン解析結果Y{Y(t−1)・・・Y(t−n)}に基づき、その判定結果Hが静止状態であると認識される許容範囲内であるか否かを判断する。すなわち、第3判定部112cは、画像データにおける撮像対象の変化量として、異なる間隔で得られた現在と過去のパターン解析結果Yの差分を算出して、この差分に現在と過去の間隔に応じた重み付けがなされた判定結果Hを算出する。これにより、第3判定部112cは、時系列に観察することで得られる撮像対象の変化を検出することができる。そして、得られた変化量(判定結果H)が許容範囲内(閾値Th3未満)である場合、静止状態であると判断し、許容範囲を超えると(閾値Th3以上)、非静止状態であると判断する。   In this way, the third determination unit 112c determines that the pattern analysis result Y (t) at the time (t) and the past pattern analysis results Y {Y (t−1). Based on (t−n)}, it is determined whether or not the determination result H is within an allowable range in which it is recognized that the vehicle is stationary. That is, the third determination unit 112c calculates the difference between the current and past pattern analysis results Y obtained at different intervals as the amount of change of the imaging target in the image data, and uses this difference according to the current and past intervals. The determination result H that has been weighted is calculated. Thereby, the 3rd determination part 112c can detect the change of the imaging target obtained by observing in time series. When the obtained change amount (judgment result H) is within the allowable range (less than the threshold Th3), it is determined that it is in a stationary state, and when it exceeds the allowable range (greater than or equal to the threshold Th3), to decide.

総合判定部112eは、第1判定部112aから入力される第1シーンチェンジ判定値JDG1、第2判定部112bから入力される第2シーンチェンジ判定値JDG2、および第3判定部112cから入力される第3シーンチェンジ判定値JDG3に基づき、第1〜3シーンチェンジ判定値JDG1〜JDG3の全てが「0」である場合、静止状態であると判断し、それ以外の場合は、非静止情報であると判断する。この判断を以下の参照式に示す。   The overall determination unit 112e is input from the first scene change determination value JDG1 input from the first determination unit 112a, the second scene change determination value JDG2 input from the second determination unit 112b, and the third determination unit 112c. Based on the third scene change determination value JDG3, if all of the first to third scene change determination values JDG1 to JDG3 are “0”, it is determined to be in a stationary state, otherwise it is non-stationary information. Judge. This determination is shown in the following reference formula.

(参照式4)
If (JDG1=0 & JDG2=0 & JDG3=0)
JDG_all=0(静止) else JDG_all =1 (非静止)
(Reference formula 4)
If (JDG1 = 0 & JDG2 = 0 & JDG3 = 0)
JDG_all = 0 (stationary) else JDG_all = 1 (non-stationary)

総合判定部112eは、このようにして得られた総合判定結果JDG_allを、シーンチェンジ情報としてメイン制御部110に出力する。
また、第3判定部112cは、判定結果Hに基づき、シーンチェンジ情報の信頼度を算出し、メイン制御部110に出力する。この信頼度とは、画面内において被写体が変化している度合いを表わす情報であって、例えば、この判定結果Hが徐々に大きくなっている場合、時系列で観察して撮像対象の変化も徐々に大きくなっていることを表わしている。よって、この場合、シーンチェンジ情報が「1」(非静止状態)であることの信頼度が高い。また、この判定結果Hが徐々に小さくなっている場合、シーンチェンジ情報が「0」(静止状態)であることの信頼度が高い。また、判定結果Hが閾値Th3に比べて小さいほどシーンチェンジ情報が「0」(静止状態)であることの信頼度は高く、逆に、判定結果Hが閾値Th3に比べて大きいほどシーンチェンジ情報が「1」(非静止状態)であることの信頼度が高い。このようにして、判定結果Hの大きさに応じて、シーンチェンジ情報の信頼度のレベル(高、中、低)を表わすことができる。
The comprehensive determination unit 112e outputs the comprehensive determination result JDG_all obtained in this way to the main control unit 110 as scene change information.
Further, the third determination unit 112 c calculates the reliability of the scene change information based on the determination result H and outputs it to the main control unit 110. The reliability is information indicating the degree to which the subject is changing in the screen. For example, when the determination result H is gradually increased, the change in the imaging target is observed gradually in time series. It shows that it is getting bigger. Therefore, in this case, the reliability that the scene change information is “1” (non-stationary state) is high. When the determination result H is gradually reduced, the reliability that the scene change information is “0” (still state) is high. Further, the smaller the determination result H is than the threshold value Th3, the higher the reliability that the scene change information is “0” (still state). Conversely, the larger the determination result H is than the threshold value Th3, the more the scene change information is. Is highly reliable that it is “1” (non-stationary state). In this way, the level of reliability (high, medium, low) of the scene change information can be represented according to the magnitude of the determination result H.

次に、図2に戻って、シーン判定部113について説明する。
図2に示す通り、シーン判定部113は、管制部114とオートシーン判定部115とを含む。
管制部114は、シーン解析部112によって得られたシーンチェンジ情報に基づき、オートシーン判定部115によって参照される判定条件Pの判定閾値Pthを制御する判定閾値制御処理を行う。ここで、判定条件Pとは、判定データ(Bv値、ズームポジション、Wb情報、顔検出情報)に応じて、判定データ毎に予め決められている判定閾値Pthを判断基準として、判定データが表わすシーンモードの特徴量を得る判定条件である。例えば、判定データである平均輝度値BvMeanに基づいて、撮像対象の特徴を表わす情報である「平均の明るさ」が判定閾値Pthである基準を満たしているか否かを判断する条件である。また、シーンモードとは、複数のシーンの種類に応じて予め決められており、このシーンに適した撮像条件が各シーンモードに対応付けられている。これらシーンモードには、それぞれ、最適なパラメータに設定された撮像条件が対応付けられている。
管制部114は、シーン解析部112によって得られたシーンチェンジ情報に基づき判定閾値Pth´を算出し、判定条件Pにおいて予め決められている判定閾値Pthと置き換える。また、管制部114は、下に示す演算式(式2)を用いて、判定閾値Pth´を算出する。
Next, returning to FIG. 2, the scene determination unit 113 will be described.
As shown in FIG. 2, the scene determination unit 113 includes a control unit 114 and an auto scene determination unit 115.
The control unit 114 performs a determination threshold control process for controlling the determination threshold Pth of the determination condition P referred to by the auto scene determination unit 115 based on the scene change information obtained by the scene analysis unit 112. Here, the determination condition P is represented by the determination data using a determination threshold Pth that is predetermined for each determination data according to the determination data (Bv value, zoom position, Wb information, face detection information) as a determination criterion. This is a determination condition for obtaining the feature amount of the scene mode. For example, it is a condition for determining whether or not “average brightness” that is information representing the characteristics of the imaging target satisfies a criterion that is the determination threshold value Pth based on the average luminance value BvMean that is determination data. The scene mode is determined in advance according to the types of a plurality of scenes, and imaging conditions suitable for this scene are associated with each scene mode. Each of these scene modes is associated with an imaging condition set to an optimum parameter.
The control unit 114 calculates a determination threshold value Pth ′ based on the scene change information obtained by the scene analysis unit 112 and replaces the determination threshold value Pth that is predetermined in the determination condition P. In addition, the control unit 114 calculates a determination threshold value Pth ′ using an arithmetic expression (Expression 2) shown below.

Figure 0005353499
Figure 0005353499

なお、判定閾値Pthは、オートシーン判定部115の判定条件Pとして予め決められている判定閾値の初期設定値であって、“SG”はシーンチェンジ情報に基づき得られるシーンチェンジ係数であって、“R”は許容値である。   The determination threshold value Pth is an initial setting value of a determination threshold value determined in advance as the determination condition P of the auto scene determination unit 115, and “SG” is a scene change coefficient obtained based on the scene change information, “R” is an allowable value.

つまり、管制部114は、シーンチェンジ情報が「1」(非静止状態)である場合、シーンチェンジ係数SGとして「0」を得る。
また、管制部114は、シーンチェンジ情報が「0」(静止状態)を表わす場合、判定条件P(例えば、P_Bv値、P_ズームポジション、P_WB情報、P_顔検出情報等)ごとに、判定データと初期設定値である判定閾値Pthとの大小関係を判断する。「現在(t)の判定データ>過去(t−1)の判定値」であった場合、管制部114は、シーン解析部112によって得られたシーンチェンジ情報に基づき、シーンチェンジ係数SGとして「+1」を得る。一方、「現在(t)の判定データ≦過去(t−1)の判定値」であった場合、管制部114は、シーンチェンジ係数SGとして「−1」を得る。そして、このようにして得られたシーンチェンジ係数SGに、各判定条件Pに応じて予め決められている許容値Rを乗じて、初期設定値である判定閾値Pthに加算する。これにより、シーンチェンジ情報が「0(静止情報)」である場合、判定データが変化している方向に判定閾値Pthをシフトさせることができる。例えば、判定データが減少方向に変化した場合、判定閾値Pthを低くし、判定データが増加方向に変化した場合、判定閾値Pthを高くすることができる。よって、判定データが判定閾値Pthを越えた(許容範囲を超えた)場合であっても、判定閾値P´thを超えない限り、オートシーン判定部115によって判定されるシーンモードが変化したと判断されないこととなる。
なお、この許容値Rが、上述の許容範囲として判定データ毎に予め決められている値である。
That is, the control unit 114 obtains “0” as the scene change coefficient SG when the scene change information is “1” (non-stationary state).
In addition, when the scene change information represents “0” (still state), the control unit 114 determines for each determination condition P (for example, P_Bv value, P_zoom position, P_WB information, P_face detection information, etc.). The magnitude relationship between the data and the determination threshold value Pth that is an initial setting value is determined. When “current (t) determination data> previous (t−1) determination value”, the control unit 114 sets “+1” as the scene change coefficient SG based on the scene change information obtained by the scene analysis unit 112. Get. On the other hand, if “current (t) determination data ≦ previous (t−1) determination value”, the control unit 114 obtains “−1” as the scene change coefficient SG. Then, the scene change coefficient SG obtained in this way is multiplied by an allowable value R determined in advance according to each determination condition P, and added to the determination threshold value Pth which is an initial setting value. Thereby, when the scene change information is “0 (still information)”, the determination threshold value Pth can be shifted in the direction in which the determination data is changing. For example, when the determination data changes in the decreasing direction, the determination threshold value Pth can be lowered, and when the determination data changes in the increasing direction, the determination threshold value Pth can be increased. Therefore, even when the determination data exceeds the determination threshold Pth (exceeds the allowable range), it is determined that the scene mode determined by the auto scene determination unit 115 has changed as long as the determination threshold P′th is not exceeded. Will not be.
The allowable value R is a value that is predetermined for each determination data as the above-described allowable range.

オートシーン判定部115は、メイン制御部110から出力されるBv値、コントラスト、ズームポジション、WB情報、顔検出情報等に基づき、予め決められた判定条件Pを満たすシーンであるか否かの判断を行う。なお、シーンとしては、前述したような「マクロ」、「風景」、「夜景」、「逆光」、「ポートレート」、「夜景ポートレート」、「逆光ポートレート」、「オート」等がある。
例えば、シーン「風景」の判定条件Pとしては、平均輝度値BvMeanが判定閾値Pth_(平均の明るさ)以上であって、最小輝度値BvMinが判定閾値Pth_(シャドー)以上、と予め決められている。
また、シーン「夜景」の判定条件Pとしては、平均輝度値BvMeanが判定閾値Pth_(平均の明るさ)未満であって、コントラスト(最大輝度値BvMax−最小輝度値BvMin)が判定閾値Pth_(コントラスト)以上、と予め決められている。
さらに、オートシーン判定部115は、管制部114から判定閾値Pth´が入力されると、対応する判定条件Pの判定閾値Pthを判定閾値Pth´に置き換えて、メイン制御部110から入力される判定データと判定閾値Pth´とを比較し、シーンを判定する。
例えば、オートシーン判定部15は、平均輝度値BvMeanが判定閾値Pth_(平均の明るさ)以上であった場合、「平均の明るさ」を示す情報の比較結果として「01」を得る。一方、平均輝度値BvMeanが判定閾値Pth_(平均の明るさ)未満であった場合、オートシーン判定部15は、「平均の明るさ」を示す情報の比較結果として「00」を得る。
さらに、オートシーン判定部115は、判定されたシーンモードと対応付けられている撮像条件を記憶部15から読み出し、メイン制御部110に出力する。
The auto scene determination unit 115 determines whether or not the scene satisfies a predetermined determination condition P based on the Bv value, contrast, zoom position, WB information, face detection information, and the like output from the main control unit 110. I do. Examples of the scene include “macro”, “landscape”, “night view”, “backlight”, “portrait”, “nightscape portrait”, “backlight portrait”, “auto”, and the like.
For example, the determination condition P for the scene “landscape” is determined in advance such that the average luminance value BvMean is equal to or greater than the determination threshold Pth_ (average brightness) and the minimum luminance value BvMin is equal to or greater than the determination threshold Pth_ (shadow). Yes.
The determination condition P for the scene “night view” is that the average luminance value BvMean is less than the determination threshold value Pth_ (average brightness), and the contrast (maximum luminance value BvMax−minimum luminance value BvMin) is the determination threshold value Pth_ (contrast). ) Or more.
Further, when the determination threshold value Pth ′ is input from the control unit 114, the auto scene determination unit 115 replaces the determination threshold value Pth of the corresponding determination condition P with the determination threshold value Pth ′, and the determination input from the main control unit 110. The scene is determined by comparing the data with the determination threshold value Pth ′.
For example, when the average brightness value BvMean is equal to or greater than the determination threshold value Pth_ (average brightness), the auto scene determination unit 15 obtains “01” as a comparison result of information indicating “average brightness”. On the other hand, when the average luminance value BvMean is less than the determination threshold value Pth_ (average brightness), the auto scene determination unit 15 obtains “00” as a comparison result of information indicating “average brightness”.
Further, the auto scene determination unit 115 reads out the imaging condition associated with the determined scene mode from the storage unit 15 and outputs the image capturing condition to the main control unit 110.

次に、図5を用いて、本実施の形態に係る撮像装置1のシーン判定方法の一例について説明する。図5は、本実施の形態に係る撮像装置1のシーン判定方法の一例について示す概略図である。
図5に示す通り、判定データの変化を示すグラグは、横軸を時間T、縦軸を判定データとして、判定データと判定閾値Pth´の関係について示す。以下、判定データとして平均輝度値BvMeanを用い、この平均輝度値BvMeanと判定閾値Pth_(平均の明るさ)とを比較する判定処理の一例について説明する。
図示の通り、1フレーム前の(t−1)時点において、判定データである平均輝度値BvMeanは判定閾値Pth以上である。このため、オートシーン判定部115は、「平均の明るさ」を示す情報の比較結果として「01」を得る。また、図示しないが、判定データとして最小輝度値BvMinが判定閾値Pth_(シャドー)以上である場合、オートシーン判定部115は、「シャドー」を示す情報の比較結果として「00」を得る。このように、シーン「風景」の判断条件(平均の明るさ:01 & シャドー:00)を満たす場合、オートシーン判定部115は(t−1)時点におけるシーンを「風景」と判断する。なお、オートシーン判定部115は、他の判定データについても同様にして判定閾値Pthと比較してそれぞれの比較結果を得ているものとする。
Next, an example of the scene determination method of the imaging apparatus 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a schematic diagram illustrating an example of the scene determination method of the imaging apparatus 1 according to the present embodiment.
As shown in FIG. 5, the glag indicating the change in the determination data shows the relationship between the determination data and the determination threshold value Pth ′, with the horizontal axis as time T and the vertical axis as determination data. Hereinafter, an example of determination processing that uses the average luminance value BvMean as the determination data and compares the average luminance value BvMean with the determination threshold value Pth_ (average brightness) will be described.
As shown in the figure, at the time (t−1) one frame before, the average luminance value BvMean that is the determination data is equal to or greater than the determination threshold value Pth. Therefore, the auto scene determination unit 115 obtains “01” as the comparison result of the information indicating “average brightness”. Although not illustrated, when the minimum luminance value BvMin is greater than or equal to the determination threshold value Pth_ (shadow) as the determination data, the auto scene determination unit 115 obtains “00” as a comparison result of information indicating “shadow”. As described above, when the determination condition (average brightness: 01 & shadow: 00) for the scene “landscape” is satisfied, the auto scene determination unit 115 determines the scene at the time (t−1) as “landscape”. It is assumed that the auto scene determination unit 115 obtains the respective comparison results by comparing the other determination data with the determination threshold value Pth in the same manner.

この状態において、(t)時点におけるシーンの判定方法について以下詳細に説明する。
まず、光学系101に入射した光学像が、撮像素子102および測光素子105にそれぞれ入射される。撮像素子102に入射した光は光電変換され、A/D変換部103を介してスルー画データとしてCPU11に出力される。一方、測光素子105に入射した光は光電変換され、A/D変換部103を介して輝度信号としてメイン制御部110に出力される。
そして、スルー画処理部111は、スルー画データに基づき輝度色差信号YUV(t)を算出し、シーン解析部112に出力する。一方、メイン制御部110は、輝度信号に基づき分割領域毎のBv値(t)を算出し、シーン解析部112に出力するとともに、レンズ駆動部104から得られたズームポジションZP(t)をシーン解析部112に出力する。
次いで、シーン判定部112の第1判定部112aは、メイン制御部110から入力されたBv値{Bv(t)、Bv(t−1)}とズームポジション{ZP(t)、ZP(t−1)}に基づき、Bv値の差分が閾値Th1より大きいか否を判断する。そして、上述の参照式1に従って判断し、判断結果に応じた第1シーンチェンジ判定値JDG1を得る。なお、このとき、第1判定部112aは、ズームポジションが閾値Th´よりも大きいか否かの判断結果も合わせて行い、第1シーンチェンジ判定値JDG1を得る構成であってもよい。
In this state, the scene determination method at time (t) will be described in detail below.
First, an optical image incident on the optical system 101 is incident on the image sensor 102 and the photometric element 105, respectively. Light incident on the image sensor 102 is photoelectrically converted and output to the CPU 11 as through image data via the A / D converter 103. On the other hand, the light incident on the photometric element 105 is photoelectrically converted and output to the main controller 110 as a luminance signal via the A / D converter 103.
Then, the through image processing unit 111 calculates a luminance color difference signal YUV (t) based on the through image data, and outputs it to the scene analysis unit 112. On the other hand, the main control unit 110 calculates a Bv value (t) for each divided region based on the luminance signal, outputs the Bv value (t) to the scene analysis unit 112, and sets the zoom position ZP (t) obtained from the lens driving unit 104 to the scene. The data is output to the analysis unit 112.
Next, the first determination unit 112a of the scene determination unit 112 receives the Bv value {Bv (t), Bv (t-1)} input from the main control unit 110 and the zoom position {ZP (t), ZP (t− 1)}, it is determined whether or not the difference between the Bv values is larger than the threshold value Th1. Then, a determination is made according to the above-described reference formula 1, and a first scene change determination value JDG1 corresponding to the determination result is obtained. At this time, the first determination unit 112a may be configured to perform the determination result as to whether or not the zoom position is larger than the threshold value Th ′ to obtain the first scene change determination value JDG1.

一方、第2判定部112bは、輝度色差信号YUV{YUV(t)、YUV(t−1)}に基づきパターン解析部112dのよって算出されたパターン解析結果Y{Y(t)、Y(t−1)}を用いて、第2シーンチェンジ判定値JDG2を得る。
また、第3判定部112cは、輝度色差信号YUV{YUV(t)、YUV(t−1)、YUV(t−2)、YUV(t−3)、YUV(t−4)}に基づきパターン解析部112dのよって算出されたパターン解析結果Y{Y(t−1)、Y(t−2)、Y(t−3)、Y(t−4)}を用いて判定結果Hを算出する。そして、第3判定部112cは、参照式3に従って判断し、判断結果に応じた第3シーンチェンジ判定値JDG3を得る。
On the other hand, the second determination unit 112b uses the pattern analysis result Y {Y (t), Y (t) calculated by the pattern analysis unit 112d based on the luminance color difference signal YUV {YUV (t), YUV (t-1)}. -1)} is used to obtain the second scene change determination value JDG2.
In addition, the third determination unit 112c performs patterning based on the luminance color difference signal YUV {YUV (t), YUV (t-1), YUV (t-2), YUV (t-3), YUV (t-4)}. The determination result H is calculated using the pattern analysis result Y {Y (t-1), Y (t-2), Y (t-3), Y (t-4)} calculated by the analysis unit 112d. . Then, the third determination unit 112c makes a determination according to the reference expression 3, and obtains a third scene change determination value JDG3 according to the determination result.

このようにして、第1判定部112a、第2判定部112b、および第3判定部112bは、得られた第1シーンチェンジ判定値JDG1、第2シーンチェンジ判定値JDG2および第3シーンチェンジ判定値JDG3を総合判定部112eに出力する。
そして、総合判定部112eは、第1シーンチェンジ判定値JDG1、第2シーンチェンジ判定値JDG2、および第3シーンチェンジ判定値JDG3に基づき、(t)時点のシーンチェンジ情報と信頼度を得て、メイン制御部110に出力する。
なお、ここでは、得られたシーンチェンジ情報は「0」(静止状態)とする。
In this way, the first determination unit 112a, the second determination unit 112b, and the third determination unit 112b obtain the obtained first scene change determination value JDG1, second scene change determination value JDG2, and third scene change determination value. JDG3 is output to the comprehensive determination unit 112e.
Then, based on the first scene change determination value JDG1, the second scene change determination value JDG2, and the third scene change determination value JDG3, the comprehensive determination unit 112e obtains scene change information and reliability at the time (t), Output to the main control unit 110.
Here, it is assumed that the obtained scene change information is “0” (still state).

次いで、メイン制御部110は、Bv値(平均輝度値BvMean、最大輝度値BvMax、最小輝度値BvMinを含む)、コントラスト(最大輝度値BvMaxと最小輝度値BvMinの差分)、ズームポジションZP(t)、WB情報、顔検出情報、シーンチェンジ情報「1」、信頼度等をシーン判定部113に出力する。
シーン判定部113の管制部114は、(t)時点の判定データと、1フレーム前の(t−1)時点の判定データの大小関係を判断する。ここで、(t)時点の判定データの一例として平均輝度値BvMeanは、図5に示す通り(t−1)時点の平均輝度値BvMeanよりも小さいので、「現在(t)の判定データ≦過去(t−1)の判定値」となり、管制部114は、シーンチェンジ情報「0」に基づき、シーンチェンジ係数SGとして「−1」を得る。
よって、管制部114は、上述の(式2)に、SG=「−1」を代入して、判定閾値Pth´を得る。
従って、判定閾値Pth´は、初期設定値である判定閾値Pthよりも許容値のR分だけ小さい判定閾値PthMinとなる。
これにより、図5に示す通り、(t)時点における判定データは、初期設定値である判定閾値Pth以下であるが、判定閾値Pth´として得られた下限値PthMin以上である。このため、オートシーン判定部115は、判定条件Pの「平均の明るさ」を示す情報の比較結果として「01」を得る。
Next, the main control unit 110 displays the Bv value (including the average luminance value BvMean, the maximum luminance value BvMax, and the minimum luminance value BvMin), the contrast (difference between the maximum luminance value BvMax and the minimum luminance value BvMin), and the zoom position ZP (t). WB information, face detection information, scene change information “1”, reliability, and the like are output to the scene determination unit 113.
The control unit 114 of the scene determination unit 113 determines the magnitude relationship between the determination data at the time (t) and the determination data at the time (t-1) one frame before. Here, as an example of the determination data at the time (t), the average luminance value BvMean is smaller than the average luminance value BvMean at the time (t-1) as shown in FIG. Based on the scene change information “0”, the control unit 114 obtains “−1” as the scene change coefficient SG.
Therefore, the control unit 114 substitutes SG = “− 1” in the above (Formula 2) to obtain the determination threshold value Pth ′.
Therefore, the determination threshold value Pth ′ is a determination threshold value PthMin that is smaller than the determination threshold value Pth, which is an initial setting value, by an allowable value R.
As a result, as shown in FIG. 5, the determination data at the time (t) is not more than the determination threshold value Pth that is the initial setting value, but is not less than the lower limit value PthMin obtained as the determination threshold value Pth ′. For this reason, the auto scene determination unit 115 obtains “01” as the comparison result of the information indicating the “average brightness” of the determination condition P.

このようにして、管制部114は、他の判定条件Pにおいても同様にして、シーン解析部112によって得られたシーンチェンジ情報に基づき判定閾値Pth´を算出して管制部114に出力する。そして、オートシーン判定部115は、判定データごとに、管制部114によって得られた判定閾値Pth´に対する大小関係を判断し、比較結果を得る。
そして、オートシーン判定部115は、各判定データに基づく比較結果を組み合わせて、シーン判定を行う。例えば、判定条件Pとして、「平均の明るさ」を示す情報の比較結果が「01」で、「シャドー」を示す情報の比較結果が「00」であった場合、オートシーン判定部115は、シーンモードを「風景」と判断する。
In this manner, the control unit 114 calculates the determination threshold value Pth ′ based on the scene change information obtained by the scene analysis unit 112 and outputs the same to the control unit 114 in the same manner under other determination conditions P. Then, the auto scene determination unit 115 determines a magnitude relationship with respect to the determination threshold value Pth ′ obtained by the control unit 114 for each determination data, and obtains a comparison result.
Then, the auto scene determination unit 115 performs scene determination by combining the comparison results based on each determination data. For example, when the comparison result of the information indicating “average brightness” is “01” and the comparison result of the information indicating “shadow” is “00” as the determination condition P, the auto scene determination unit 115 The scene mode is determined as “landscape”.

一方、本実施形態によらない撮像装置では、図5に示す(t)時点において、判定データが判定閾値Pth以下となっているため、オートシーン判定部は、「平均の明るさ」を示す情報の比較結果として「00」を得る。ここで、コントラストのシーン判定結果が「01」である場合、オートシーン判定部は、シーンを「夜景」と判断する。すなわち、オートシーン判定部115によって判定されるシーンが「風景」から「夜景」に変更される。これにより、オートシーン判定部は、シーンモード「夜景」に応じた撮像条件を記憶部から読み出し、メイン制御部に出力する。よって、1フレーム前の(t―1)時点では、シーン「風景」と対応付けられた撮像条件に従って撮像部を制御していたメイン制御部は、シーンモード「夜景」の撮像条件に応じたものに変更しなければならない。
しかし、このようにシーンモードが判定された撮像装置が、ゆっくりとパンを続けて同一の被写体を撮影している場合、数フレーム後においてオートシーン判定部による判定が「風景」あるいは「夜景」となる変更が繰り返されるおそれがあり、判定されるシーンモードが不安定となる問題がある。
On the other hand, in the imaging apparatus not according to the present embodiment, since the determination data is equal to or less than the determination threshold value Pth at the time (t) illustrated in FIG. 5, the auto scene determination unit includes information indicating “average brightness”. As a result of comparison, “00” is obtained. If the contrast scene determination result is “01”, the auto scene determination unit determines that the scene is “night view”. That is, the scene determined by the auto scene determination unit 115 is changed from “landscape” to “night view”. As a result, the auto scene determination unit reads out the imaging condition corresponding to the scene mode “night view” from the storage unit and outputs it to the main control unit. Therefore, at the time (t-1) one frame before, the main control unit that has controlled the imaging unit according to the imaging condition associated with the scene “landscape” corresponds to the imaging condition of the scene mode “night view”. Must be changed to
However, when the imaging device in which the scene mode is determined in this manner continuously pans and shoots the same subject, the determination by the auto scene determination unit is “landscape” or “night view” after several frames. There is a problem that the determined scene mode becomes unstable.

これに対して、本実施形態による撮像装置1は、Bv値、ズームポジション、および輝度色差信号等に基づきシーンチェンジ情報を算出することにより、撮像装置1の動作状態の変化や撮像対象の状態変化を検出するようにした。これにより、判定データが判定閾値Pthの付近(つまり、シーン判定が切り変わる境界付近)で変動している場合や、撮像装置1がゆっくりとパンされている等の状態において画角が微小に変化している場合であっても、撮像対象の状態変化はほとんど静止状態に等しいと判断して、許容値Rに対応する許容範囲内でオートシーン判定部115による判定閾値Pth´を変更することができる。よって、判定閾値Pth´による変更がない場合、基準値Pthを超えてしまい、シーン判定によって判断されるシーンが「風景」から「夜景」に変更し、さらに、「夜景」から「風景」に変更されることによるシーン判定の変動を防止することができる。
従って、同一の撮像対象に対して撮像装置1をゆっくりとパンさせながら撮像している場合には、オートシーン判定部115によって判断されるシーンがいたずらに変動する事態を回避し、安定したシーン判定を実現することができる。
In contrast, the imaging apparatus 1 according to the present embodiment calculates scene change information based on the Bv value, the zoom position, the luminance color difference signal, and the like, thereby changing the operation state of the imaging apparatus 1 and the state change of the imaging target. It was made to detect. Thereby, when the determination data fluctuates in the vicinity of the determination threshold value Pth (that is, near the boundary where the scene determination is switched), or when the imaging device 1 is slowly panned, the angle of view changes slightly. Even if it is, it is determined that the state change of the imaging target is almost equal to the stationary state, and the determination threshold value Pth ′ by the auto scene determination unit 115 can be changed within the allowable range corresponding to the allowable value R. it can. Therefore, when there is no change by the determination threshold value Pth ′, the reference value Pth is exceeded, the scene determined by the scene determination is changed from “landscape” to “night view”, and further, “night view” is changed to “landscape”. Variation in scene determination due to being performed can be prevented.
Therefore, when the imaging apparatus 1 is slowly panning with respect to the same imaging target, a situation in which the scene determined by the auto scene determination unit 115 fluctuates unnecessarily is avoided, and stable scene determination is performed. Can be realized.

また、本実施形態による撮像装置1は、式2に示すような演算式を用いて、シーン解析部112による判断結果を得る。そしてこの判断結果が、シーンチェンジ情報「1」であって非静止状態を表わしている場合、シーンチェンジ係数SGを「0」として、判定閾値Pth´=判定閾値Pthとするようにした。これにより、非静止状態であった場合、判定閾値は変化せず、オートシーン判定部115によって通常行われている判定条件に従ったシーン判定を実行することができる。言い換えると、静止状態と判断されたときのみ、判定閾値を変更することができる。   In addition, the imaging apparatus 1 according to the present embodiment obtains a determination result by the scene analysis unit 112 using an arithmetic expression as shown in Expression 2. When the determination result is the scene change information “1” indicating the non-still state, the scene change coefficient SG is set to “0”, and the determination threshold value Pth ′ = the determination threshold value Pth. Thereby, in the non-still state, the determination threshold value does not change, and the scene determination according to the determination condition normally performed by the auto scene determination unit 115 can be executed. In other words, the determination threshold can be changed only when it is determined that the camera is stationary.

次に、図6を用いて、図5と異なるシーン判定方法の一例について説明する。なお、図5において示す内容と同じものについては、詳細な説明は省略する。
図6に示す通り、1フレーム前の(t−1)時点において、判定データである平均輝度値BvMeanは判定閾値Pth以下である。このため、オートシーン判定部115は、「平均の明るさ」を示す情報の比較結果として「00」を得る。また、図示しないが、コントラスト(最大輝度値BvMax−最小輝度値BvMin)が判定閾値Pth_(コントラスト)以上であり、オートシーン判定部115は、「コントラスト」を示す情報の比較結果として「01」を得る。これにより、オートシーン判定部115は、(t−1)時点におけるシーンモードが「夜景」であると判断する。
Next, an example of a scene determination method different from that in FIG. 5 will be described with reference to FIG. Note that detailed description of the same contents as shown in FIG. 5 is omitted.
As shown in FIG. 6, at the time (t−1) one frame before, the average luminance value BvMean that is the determination data is equal to or less than the determination threshold Pth. Therefore, the auto scene determination unit 115 obtains “00” as the comparison result of the information indicating “average brightness”. Although not shown, the contrast (maximum luminance value BvMax−minimum luminance value BvMin) is equal to or greater than the determination threshold value Pth_ (contrast), and the auto scene determination unit 115 sets “01” as the comparison result of the information indicating “contrast”. obtain. Thereby, the auto scene determination unit 115 determines that the scene mode at the time (t−1) is “night view”.

そして、(t)時点において、光学系101に入射した光学像に基づき、上述した図5に基づく説明と同様、シーン解析部112によってシーンチェンジ情報が得られる。ここで、得られたシーンチェンジ情報は「0」(静止状態)であるとする。
次いで、シーン判定部113の管制部114は、(t)時点の判定データと、1フレーム前の(t−1)時点の判定データの大小関係を判断する。ここで、(t)時点の判定データの平均輝度値BvMeanは、図6に示す通り、(t−1)時点の判定データよりも大きいので、「現在(t)の判定データ>過去(t−1)の判定値」となり、管制部114は、シーンチェンジ係数SGとして「+1」を得る。
よって、管制部114は、上述の(式2)に示すシーンチェンジ係数SGに「+1」を代入して、判定閾値Pth´を算出する。
従って、判定閾値Pth´は、初期設定値である判定閾値Pthよりも許容値のR分だけ大きい上限値PthMaxとなる。
At time (t), scene change information is obtained by the scene analysis unit 112 based on the optical image incident on the optical system 101, as described above with reference to FIG. Here, it is assumed that the obtained scene change information is “0” (still state).
Next, the control unit 114 of the scene determination unit 113 determines the magnitude relationship between the determination data at the time (t) and the determination data at the time (t−1) one frame before. Here, since the average luminance value BvMean of the determination data at the time (t) is larger than the determination data at the time (t−1) as shown in FIG. 6, “the determination data at the present (t)> the past (t− 1), and the control unit 114 obtains “+1” as the scene change coefficient SG.
Therefore, the control unit 114 assigns “+1” to the scene change coefficient SG shown in (Expression 2) described above to calculate the determination threshold value Pth ′.
Accordingly, the determination threshold value Pth ′ is an upper limit value PthMax that is larger than the determination threshold value Pth, which is an initial setting value, by an allowable value R.

これにより、図6に示す通り、(t)時点における判定データは、初期設定値である判断閾値Pth以上であるが、判定閾値Pth´として得られた上限値PthMax以下である。このため、オートシーン判定部は、判定条件Pの「平均の明るさ」を示す情報の比較結果として「01」を得る。
そして、オートシーン判定部115は、各判定データに基づく比較結果を組み合わせて、シーン判定を行い、例えば、判定条件Pとして、「平均の明るさ」を示す情報の比較結果が「00」で、「コントラスと」を示す情報の比較結果が「01」であった場合、オートシーン判定部115は、シーンモードを「夜景」と判断する。
As a result, as shown in FIG. 6, the determination data at the time (t) is equal to or greater than the determination threshold value Pth that is the initial setting value, but is equal to or less than the upper limit value PthMax obtained as the determination threshold value Pth ′. Therefore, the auto scene determination unit obtains “01” as a comparison result of information indicating “average brightness” of the determination condition P.
Then, the auto scene determination unit 115 performs scene determination by combining the comparison results based on the respective determination data. For example, as the determination condition P, the comparison result of information indicating “average brightness” is “00”. When the comparison result of the information indicating “Contrast” is “01”, the auto scene determination unit 115 determines that the scene mode is “night view”.

なお、本実施形態において、シーン解析部112は、第1判定部112a、第2判定部112bおよび第3判定部112cの判定結果を全て乗算することによってシーンチェンジ情報を得る例を説明したが、本発明はこれに限られず、各判定部の判定結果に応じてシーンチェンジ情報を得るものであってもよい。
つまり、総合判定部112eは、第1判定部112aにおいて撮像対象の変化量が許容範囲を超えている判断された場合(第1シーンチェンジ情報JDG1が「1」の場合)、第2判定部112bおよび第3判定部112cの判断に関わらず、第1判定部112aによる判断を優先して、撮像対象の変化量が許容範囲を超えていると判断し、シーンチェンジ情報「1」を出力する。
また、総合判定部112eは、第2判定部112bにおいて撮像対象の変化量が許容範囲を超えている判断された場合(第2シーンチェンジ情報JDG2が「1」の場合)、第3判定部112cの判断に関わらず、第2判定部112bによる判断を優先して撮像対象の変化量が許容範囲を超えていると判断し、シーンチェンジ情報「1」を出力する。
In the present embodiment, the scene analysis unit 112 has been described as an example of obtaining scene change information by multiplying all the determination results of the first determination unit 112a, the second determination unit 112b, and the third determination unit 112c. The present invention is not limited to this, and the scene change information may be obtained according to the determination result of each determination unit.
That is, when the first determination unit 112a determines that the amount of change in the imaging target exceeds the allowable range (when the first scene change information JDG1 is “1”), the overall determination unit 112e determines that the second determination unit 112b. Regardless of the determination by the third determination unit 112c, the determination by the first determination unit 112a is prioritized, and it is determined that the change amount of the imaging target exceeds the allowable range, and the scene change information “1” is output.
When the second determination unit 112b determines that the change amount of the imaging target exceeds the allowable range (when the second scene change information JDG2 is “1”), the comprehensive determination unit 112e is configured to perform the third determination unit 112c. Regardless of the determination, priority is given to the determination by the second determination unit 112b, and it is determined that the amount of change in the imaging target exceeds the allowable range, and the scene change information “1” is output.

このように、総合判定部112eは、第1判定部112aの判定結果を最優先して、第1判定部112a>第2判定部112b>第3判定部112cの優先順位に従って、シーンチェンジ情報を判断するものであってもよい。これは、撮像対象の変化量が最も大きく変化している場合、第1判定部112aの判定結果が非静止状態となる場合が多く、第1判定部112aにおいて撮像対象の変化量が許容範囲を超えている判断された場合、第2判定部112bや第3判定部112cによる判断結果も第1判定部112aの判断結果と同様である可能性が高いためである。よって、第1判定部112aによって撮像対象の変化量が許容範囲を超えていると判断された場合、第2判定部112bや第3判定部112cによる判断を省略してもよい。
また、第1判定部112aによって判定に利用されるBv値やズームポジション等は、オートシーン判定部115によって判定される判定データであることから、シーンモードの変化に直接関係する。このため、第1判定部112aの判定結果を優先することによって、シーンモードの判断基準(判定閾値Pth)を直接制御することができる。
As described above, the overall determination unit 112e gives the highest priority to the determination result of the first determination unit 112a, and determines the scene change information according to the priority order of the first determination unit 112a> the second determination unit 112b> the third determination unit 112c. It may be determined. This is because when the change amount of the imaging target changes the most, the determination result of the first determination unit 112a often becomes a non-stationary state, and the change amount of the imaging target in the first determination unit 112a falls within an allowable range. This is because, when it is determined that the number is exceeded, the determination result by the second determination unit 112b or the third determination unit 112c is likely to be the same as the determination result of the first determination unit 112a. Therefore, when the first determination unit 112a determines that the change amount of the imaging target exceeds the allowable range, the determination by the second determination unit 112b or the third determination unit 112c may be omitted.
Further, since the Bv value, the zoom position, and the like used for determination by the first determination unit 112a are determination data determined by the auto scene determination unit 115, they are directly related to the change of the scene mode. For this reason, it is possible to directly control the scene mode criterion (determination threshold Pth) by giving priority to the determination result of the first determination unit 112a.

また、第2判定部112bおよび第3判定部112cは、撮像素子102によって得られるスルー画データに基づき撮像対象の変化を判断することができる。これにより、総合判定部112eは、より高い精度で画像データにおける撮像対象の変化を判断できる。よって、第1判定部112aの判定結果と組み合わせることによって、画像データ内における微妙な変化を検出することができる。
さらに、第3判定部112cは、判定結果Hを算出することで、時系列に観察して得られる撮像対象の累積的な変化に基づき、撮像対象の変化が許容範囲内であるか否かを判断することができる。これにより、本当に撮像対象が変化したか否かをより高い制度で判断することができる。
Further, the second determination unit 112b and the third determination unit 112c can determine the change of the imaging target based on the through image data obtained by the imaging element 102. Thereby, the comprehensive determination part 112e can determine the change of the imaging target in the image data with higher accuracy. Therefore, a subtle change in the image data can be detected by combining with the determination result of the first determination unit 112a.
Further, the third determination unit 112c calculates the determination result H to determine whether or not the change of the imaging target is within the allowable range based on the cumulative change of the imaging target obtained by observation in time series. Judgment can be made. Thereby, it can be judged by a higher system whether the imaging object really changed.

よって、上述の通り、判定結果Hに基づき信頼度を得た場合、管制部114は、この信頼度に基づき、シーン解析部112から入力されたシーンチェンジ情報の精度を判断するものであってもよい。例えば、シーン解析部112において第1判定部112aの第1シーンチェンジ判定値JDG1のみが「1」であり、判定結果Hの信頼度が低い場合、管制部114は、シーン解析部112からシーンチェンジ情報として「1」と、低い信頼度を表わす情報(例えば、1〜10まで程度で表わされるうちの信頼度「2」)が入力されることがある。ここで、管制部114は、入力された信頼度が一定の閾値(例えば、信頼度「3」)以上であるか否かを判断し、信頼度「2」であるため、入力されたシーンチェンジ情報「1」を「0」と置き換えて、判定条件Pの判定基準を判定閾値Pthとするものであってもよい。また、管制部114は、信頼度「3」以上であれば、シーンチェンジ情報「1」に基づき、判定条件Pの判定閾値Pthを判定閾値Pth´に変更するものであってもよい。
これにより、より高い精度で撮像対象の変化量が許容範囲内であるか否かを判断することができる。
Therefore, as described above, when the reliability is obtained based on the determination result H, the control unit 114 may determine the accuracy of the scene change information input from the scene analysis unit 112 based on the reliability. Good. For example, in the scene analysis unit 112, when only the first scene change determination value JDG1 of the first determination unit 112a is “1” and the reliability of the determination result H is low, the control unit 114 receives a scene change from the scene analysis unit 112. As information, “1” and information indicating a low reliability (for example, reliability “2” represented by about 1 to 10) may be input. Here, the control unit 114 determines whether or not the input reliability is equal to or higher than a certain threshold (for example, reliability “3”), and since the reliability is “2”, the input scene change is performed. The information “1” may be replaced with “0”, and the determination criterion of the determination condition P may be the determination threshold value Pth. Further, the control unit 114 may change the determination threshold Pth of the determination condition P to the determination threshold Pth ′ based on the scene change information “1” as long as the reliability is “3” or higher.
Thereby, it is possible to determine whether or not the change amount of the imaging target is within the allowable range with higher accuracy.

また、本発明はこれに限られず、例えば、オートシーン判定部115によって判定されたシーンモードに応じて予め決められている画像処理条件に従って、画像処理部13が画像を処理する構成であってもよい。この場合、シーン判定部113が、記憶部15から読み出したシーンモードに応じた画像処理条件を画像処理部13に出力し、画像処理部13が、入力された画像処理条件に従って撮影された画像データに対して画像処理を行う構成であってもよい。また、シーンモードに応じて予め決められている画像表示条件が記憶部15に記憶されている構成であってもよく、この場合、メイン制御部110は、オートシーン判定部115によって判定されたシーンモードに応じた画像表示条件に従って、撮像された画像データを表示部14に表示させるものであってもよい。
さらに、上記実施形態において、輝度信号を測光素子105によって得る例を用いて説明したが、本発明はこれに限られず、例えば、撮像素子102を用いて得る構成であってもよい。
In addition, the present invention is not limited to this. For example, the image processing unit 13 may process an image according to an image processing condition determined in advance according to the scene mode determined by the auto scene determination unit 115. Good. In this case, the scene determination unit 113 outputs image processing conditions corresponding to the scene mode read from the storage unit 15 to the image processing unit 13, and the image processing unit 13 captures image data captured according to the input image processing conditions. The image processing may be performed on the image processing apparatus. In addition, a configuration may be adopted in which image display conditions determined in advance according to the scene mode are stored in the storage unit 15. In this case, the main control unit 110 determines the scene determined by the auto scene determination unit 115. The captured image data may be displayed on the display unit 14 in accordance with image display conditions corresponding to the mode.
Furthermore, in the above-described embodiment, the example in which the luminance signal is obtained by the photometric element 105 has been described. However, the present invention is not limited to this, and for example, a configuration obtained by using the imaging element 102 may be used.

また、レンズ駆動部104によって得られるズームポジションとフォーカスポジションに基づき、焦点距離を算出して、当該焦点距離が閾値以下である場合、オートシーン判定部115によってシーンモード「マクロ(接写)」であると判断されるものであってもよい。   Further, when the focal length is calculated based on the zoom position and the focus position obtained by the lens driving unit 104 and the focal length is equal to or less than the threshold value, the scene mode “macro (close-up)” is set by the auto scene determination unit 115. It may be determined.

さらに、本実施形態において、第1判定部112aおよび第2判定部112bは、1フレーム前のBv値やズームポジション輝度色差信号YUVとの差分に基づき、第1、2シーンチェンジ判定値JDG1、2を得る構成を例に説明したが、本発明はこれに限られず、タイミングが異なるBv値等の差分に基づき、撮像対象の変化を判断するものであればよい。
例えば、第2判定部112bは、1フレーム以上の間隔で得られたパターン解析結果Yの差分に基づき、パターン解析結果Yの差分が閾値Th2より大きいか否かを判断して、上述の参照式2に従って第2シーンチェンジ判定値JDG2を得る構成であってもよい。
また、第3判定部112cは、(t)時点のパターン解析結果Y(t)と、互いにフレーム間隔が異なる時点の過去のパターン解析結果Y{Y(t−1)・・・Y(t−n)}に基づき判断結果Hが、閾値Th3以上か否かを判断して、上述の参照式3に従って第3シーンチェンジ判定値JDG3を得る構成であってもよい。
Furthermore, in the present embodiment, the first determination unit 112a and the second determination unit 112b are configured to determine the first and second scene change determination values JDG1, 2 based on the difference between the Bv value of the previous frame and the zoom position luminance / color difference signal YUV. However, the present invention is not limited to this, and any configuration may be used as long as it determines a change in the imaging target based on a difference such as a Bv value with different timing.
For example, the second determination unit 112b determines whether or not the difference in the pattern analysis result Y is larger than the threshold Th2 based on the difference in the pattern analysis result Y obtained at intervals of one frame or more. The second scene change determination value JDG2 may be obtained according to 2.
In addition, the third determination unit 112c determines that the pattern analysis result Y (t) at the time (t) and the past pattern analysis results Y {Y (t−1). n)}, it may be determined whether the determination result H is equal to or greater than the threshold Th3, and the third scene change determination value JDG3 may be obtained according to the above-described reference equation 3.

また、本実施形態に係るシーン解析部112は、撮像対象の変化を検出する構成であればよく、例えば、第2判定部112bに角速度センサー(図示せず)によって検出された撮像装置1自体の変化量を表わす情報に基づき、非静止状態であるかあるいは静止状態であるかを判断するものであってもよい。   The scene analysis unit 112 according to the present embodiment may be configured to detect a change in the imaging target. For example, the scene analysis unit 112 of the imaging device 1 itself detected by the second determination unit 112b by an angular velocity sensor (not shown). Based on the information indicating the amount of change, it may be determined whether it is a non-stationary state or a stationary state.

1・・・撮像装置、 10・・・撮像部、 11・・・CPU、12・・・操作部、 13・・・画像処理部、 14・・・表示部、 15・・・記憶部、 16・・・バッファメモリ部、 17・・・通信部、 18・・・バス、 20・・・記憶媒体、 101・・・光学系、 102・・・撮像素子、 103・・・A/D変換部、 104・・・レンズ駆動部、 105・・・測光素子、 110・・・メイン制御部、 111・・・スルー画処理部、 112・・・シーン解析部、 113・・・シーン判定部、 114・・・管制部、 115・・・オートシーン判定部、 112a・・・第1判定部、 112b・・・第2判定部、 112c・・・第3判定部、 112d・・・パターン解析部、 112e・・・総合判定部、 112f・・・一次記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Imaging part, 11 ... CPU, 12 ... Operation part, 13 ... Image processing part, 14 ... Display part, 15 ... Memory | storage part, 16 ...... Buffer memory unit, 17 ... Communication unit, 18 ... Bus, 20 ... Storage medium, 101 ... Optical system, 102 ... Image sensor, 103 ... A / D conversion unit 104 ... Lens drive unit, 105 ... Photometry element, 110 ... Main control unit, 111 ... Through image processing unit, 112 ... Scene analysis unit, 113 ... Scene determination unit, 114 ... Control unit, 115 ... Auto scene determination unit, 112a ... First determination unit, 112b ... Second determination unit, 112c ... Third determination unit, 112d ... Pattern analysis unit, 112e... Comprehensive judgment unit, 112f. The primary storage unit

Claims (5)

被写体を撮像し、画像データを生成する撮像部を、選択された撮像条件に従って制御する制御部と、
前記撮像部による撮像によって得られた情報と判定基準とに基づき、前記撮像条件を選択する判定部と、
前記撮像部による撮像によって得られた情報に基づき、撮像対象の変化量を算出し、前記判定部によって選択された前記撮像条件が変更されない変化量として許容されている許容範囲内に前記撮像対象の変化量があるか否かを判定する解析部と、
前記解析部によって前記許容範囲内に前記撮像対象の変化量があると判定された場合、前記撮像条件が変更されない値に前記判定基準を変更する管制部と、を備え、
前記制御部は、
前記画像データに基づき輝度色差信号を生成し、
前記解析部は、
異なる時間間隔で得られた複数の前記輝度色差信号の差分に対して、前記時間間隔毎に異なる重み係数を乗算して得られる情報に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第3判定部を含むことを特徴とする撮像装置。
A control unit that controls an imaging unit that images a subject and generates image data according to the selected imaging condition;
A determination unit that selects the imaging condition based on information obtained by imaging by the imaging unit and a determination criterion;
Based on the information obtained by imaging by the imaging unit, and calculates the amount of change in an imaging subject, the imaging subject within the tolerance to said imaging condition selected by the determination unit is permitted as the amount of change which is not changed An analysis unit for determining whether or not there is a change amount;
A controller that changes the determination criterion to a value that does not change the imaging condition when the analysis unit determines that the amount of change in the imaging target is within the allowable range;
The controller is
A luminance color difference signal is generated based on the image data,
The analysis unit
Based on information obtained by multiplying a difference between the plurality of luminance color difference signals obtained at different time intervals by different weighting factors for each time interval, the amount of change of the imaging target is within the allowable range. An imaging apparatus comprising a third determination unit that determines whether or not.
前記制御部は、
前記画像データに基づき、前記撮像対象の明るさを表わす輝度信号を生成し、
前記解析部は、
異なるタイミングで得られた複数の前記輝度信号の差分に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第1判定部を含むことを特徴とする請求項1に記載の撮像装置。
The controller is
Based on the image data, a luminance signal representing the brightness of the imaging target is generated,
The analysis unit
The apparatus according to claim 1, further comprising: a first determination unit configured to determine whether the change amount of the imaging target is within the allowable range based on a difference between the plurality of luminance signals obtained at different timings. The imaging device described.
前記第1判定部は、
前記撮像部に含まれるレンズの位置を表わす位置情報であって、異なるタイミングに得られた複数の前記位置情報に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断することを特徴とする請求項2に記載の撮像装置。
The first determination unit includes:
Based on a plurality of pieces of position information obtained at different timings, the position information representing the position of the lens included in the image pickup unit is determined whether or not the amount of change of the image pickup target is within the allowable range. The imaging apparatus according to claim 2.
前記制御部は、
前記画像データに基づき輝度色差信号を生成し、
前記解析部は、
異なるタイミングで得られた複数の前記輝度色差信号の差分に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第2判定部を含むことを特徴とする請求項1から3のうちいずれか一項に記載の撮像装置。
The controller is
A luminance color difference signal is generated based on the image data,
The analysis unit
2. A second determination unit that determines whether or not a change amount of the imaging target is within the allowable range based on a difference between the plurality of luminance color difference signals obtained at different timings. The imaging device according to any one of 3 to 3.
被写体を撮像し、画像データを生成する撮像部を、選択された撮像条件に従って制御する制御部と、
前記撮像部による撮像によって得られた情報と判定基準とに基づき、前記撮像条件を選択する判定部と、
前記撮像部による撮像によって得られた情報に基づき、撮像対象の変化量を算出し、前記判定部によって選択された前記撮像条件が変更されない変化量として許容されている許容範囲内に前記撮像対象の変化量があるか否かを判定する解析部と、
前記解析部によって前記許容範囲内に前記撮像対象の変化量があると判定された場合、前記撮像条件が変更されない値に前記判定基準を変更する管制部と、を備え、
前記制御部は、
前記画像データに基づき、前記撮像対象の明るさを表わす輝度信号を生成するとともに、前記画像データに基づき輝度色差信号を生成し、
前記解析部は、
異なるタイミングで得られた複数の前記輝度信号の差分に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第1判定部と、
異なるタイミングで得られた複数の前記輝度色差信号の差分に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第2判定部と、
異なる時間間隔で得られた複数の前記輝度色差信号の差分に対して、前記時間間隔毎に異なる重み係数を乗算して得られる情報に基づき、前記撮像対象の変化量が前記許容範囲内であるか否かを判断する第3判定部とを含み、
前記第1判定部において前記撮像対象の変化量が前記許容範囲外であると判断した場合、前記第2判定部および前記第3判定部の判断に関わらず、当該第1判定部による判断を優先して前記許容範囲外であると判断し、
前記第2判定部において前記撮像対象の変化が前記許容範囲外であると判断した場合、前記第3判定部の判断に関わらず、第2の判定部による判断を優先して前記許容範囲外であると判断する
ことを特徴とする撮像装置。
A control unit that controls an imaging unit that images a subject and generates image data according to the selected imaging condition;
A determination unit that selects the imaging condition based on information obtained by imaging by the imaging unit and a determination criterion;
Based on the information obtained by imaging by the imaging unit, and calculates the amount of change in an imaging subject, the imaging subject within the tolerance to said imaging condition selected by the determination unit is permitted as the amount of change which is not changed An analysis unit for determining whether or not there is a change amount;
A controller that changes the determination criterion to a value that does not change the imaging condition when the analysis unit determines that the amount of change in the imaging target is within the allowable range;
The controller is
Based on the image data, generating a luminance signal representing the brightness of the imaging target, generating a luminance color difference signal based on the image data,
The analysis unit
A first determination unit configured to determine whether or not a change amount of the imaging target is within the allowable range based on a difference between the plurality of luminance signals obtained at different timings;
A second determination unit that determines whether or not a change amount of the imaging target is within the allowable range based on a difference between the plurality of luminance color difference signals obtained at different timings;
Based on information obtained by multiplying a difference between the plurality of luminance color difference signals obtained at different time intervals by different weighting factors for each time interval, the amount of change of the imaging target is within the allowable range. A third determination unit for determining whether or not
When the first determination unit determines that the change amount of the imaging target is outside the allowable range, the determination by the first determination unit is prioritized regardless of the determination of the second determination unit and the third determination unit. And determined that it is out of the allowable range,
When the second determination unit determines that the change in the imaging target is outside the allowable range, the determination by the second determination unit is prioritized outside the allowable range regardless of the determination of the third determination unit. you and determines that there imaging device.
JP2009160920A 2009-07-07 2009-07-07 Imaging device Active JP5353499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009160920A JP5353499B2 (en) 2009-07-07 2009-07-07 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009160920A JP5353499B2 (en) 2009-07-07 2009-07-07 Imaging device

Publications (2)

Publication Number Publication Date
JP2011018996A JP2011018996A (en) 2011-01-27
JP5353499B2 true JP5353499B2 (en) 2013-11-27

Family

ID=43596471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009160920A Active JP5353499B2 (en) 2009-07-07 2009-07-07 Imaging device

Country Status (1)

Country Link
JP (1) JP5353499B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5349671B1 (en) * 2012-04-27 2013-11-20 株式会社東芝 Image processing apparatus, image display apparatus and method
JP7176616B2 (en) * 2019-03-22 2022-11-22 日本電気株式会社 Image processing system, image processing apparatus, image processing method, and image processing program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006270627A (en) * 2005-03-24 2006-10-05 Fuji Photo Film Co Ltd Imaging apparatus
JP2007027926A (en) * 2005-07-13 2007-02-01 Canon Inc Broadcast television lens apparatus and television camera system
JP4890814B2 (en) * 2005-08-10 2012-03-07 キヤノン株式会社 Imaging device
JP2007057974A (en) * 2005-08-25 2007-03-08 Fujifilm Holdings Corp Photographing device

Also Published As

Publication number Publication date
JP2011018996A (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP4808578B2 (en) Digital camera and control method thereof
US7877004B2 (en) Imaging apparatus and imaging method
KR100840986B1 (en) Image Blurring Reduction
JP5738080B2 (en) Imaging apparatus and control method thereof
JP5623256B2 (en) Imaging apparatus, control method thereof, and program
JP5500916B2 (en) Imaging apparatus and control method thereof
JP6338347B2 (en) Imaging apparatus and control method thereof
JP2004264827A (en) Method for detecting focal distance and focusing device
KR20120025341A (en) Digital photographing apparatus and control method thereof
JP4614143B2 (en) Imaging apparatus and program thereof
JP5822508B2 (en) Imaging apparatus and control method thereof
JP2010072619A (en) Exposure operation device and camera
JP2011223242A (en) Electronic camera
JP5092673B2 (en) Imaging apparatus and program thereof
JP5353499B2 (en) Imaging device
JP2007311962A (en) Electronic camera and image display program
JP2009017427A (en) Imaging device
JP5371474B2 (en) Imaging apparatus, control method, and program
JP5316923B2 (en) Imaging apparatus and program thereof
JP2020077938A (en) Imaging apparatus, control method of the same, and program
JP5849515B2 (en) Exposure calculation device and camera
JP5219474B2 (en) Imaging apparatus and control method thereof
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP2007189639A (en) Digital camera
JP2015167308A (en) Photometry method suitable for face detection autofocus control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5353499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250