JP2006287515A - Camera apparatus, photographing method, and photographing program - Google Patents

Camera apparatus, photographing method, and photographing program Download PDF

Info

Publication number
JP2006287515A
JP2006287515A JP2005103533A JP2005103533A JP2006287515A JP 2006287515 A JP2006287515 A JP 2006287515A JP 2005103533 A JP2005103533 A JP 2005103533A JP 2005103533 A JP2005103533 A JP 2005103533A JP 2006287515 A JP2006287515 A JP 2006287515A
Authority
JP
Japan
Prior art keywords
complexity
determination
region
shooting
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005103533A
Other languages
Japanese (ja)
Other versions
JP4934983B2 (en
Inventor
Takeshi Endo
剛 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005103533A priority Critical patent/JP4934983B2/en
Publication of JP2006287515A publication Critical patent/JP2006287515A/en
Application granted granted Critical
Publication of JP4934983B2 publication Critical patent/JP4934983B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology for accurately and meticulously setting an AF region appropriate to an object at high speed and supporting photographing on the basis of information obtained from the set AF region. <P>SOLUTION: A camera apparatus disclosed herein calculates a degree of complexity in an object on the basis of a plurality of pixel data obtained by the imaging element during the standby state of a photographing instruction, discriminates a point with high complexity among calculated degrees of complexity, sets the discriminated point to be a discrimination region of a contrast value in an automatic focal adjustment operation and carries out the automatic focus point adjustment operation based on the set discrimination region when a photographing instruction is made to carry out photographing recording. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラ装置、撮影方法並びに撮影プログラムに関するものである。   The present invention relates to a camera device, a photographing method, and a photographing program.

近年、AF(オートフォーカス)機能を備えたカメラ装置において、撮影者による指定や撮像素子より得られた被写体情報に応じてファインダ内における焦点合わせの対象領域であるAF領域を変化させる技術が知られており、例えば、特開平7−23286号公報では、撮像素子より得られた被写体画像を輝度のヒストグラム分布に基づいて、自然画像の存在する領域や文書画像の存在する領域に分離し、いづれかの領域をAF領域として設定している。
特開平7−23286号公報
In recent years, in a camera device having an AF (autofocus) function, a technique for changing an AF area, which is a focus target area in a finder, in accordance with designation by a photographer or subject information obtained from an image sensor is known. For example, in Japanese Patent Application Laid-Open No. 7-23286, a subject image obtained from an image sensor is separated into a region where a natural image exists and a region where a document image exists based on a luminance histogram distribution. The area is set as the AF area.
Japanese Patent Laid-Open No. 7-23286

画像データのヒストグラム特定による方法では、被写体に適したAF領域を正確に細かく設定することはできない。また、このAF領域の判定処理に多くの時間を要していた。つまり、自然画像の存在する領域と文書画像の存在する領域のどちらかを優先して焦点を合わせることはできるが、例えば、自然画像の存在する領域の中でより複雑度が高く重要な部分や、文書画像の存在する領域の中でより複雑度が高く重要な部分に対してAF領域を設定することはできなかった。   With the method of specifying the histogram of the image data, the AF area suitable for the subject cannot be set accurately and finely. In addition, this AF area determination process takes a lot of time. In other words, it is possible to focus with priority on either the area where the natural image exists or the area where the document image exists, but for example, the more complex and important parts of the area where the natural image exists. The AF area cannot be set for an important part with higher complexity in the area where the document image exists.

本発明は、このような課題に着目してなされたものであり、その目的とするところは、被写体に適したAF領域を正確に細かく高速に設定することである。また、この設定したAF領域から得られた情報に基づいて撮影を支援することである。   The present invention has been made paying attention to such a problem, and an object thereof is to set an AF area suitable for a subject accurately and finely at high speed. In addition, shooting is supported based on information obtained from the set AF area.

上記の目的を達成するために、本発明の第1の態様は、カメラ装置であって、撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出手段と、前記算出手段により算出された複雑度の中で当該複雑度が高い領域を判定する判定手段と、前記判定手段により複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定手段と、撮影指示がなされた際に、前記設定手段により設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録手段と、を具備する。   In order to achieve the above object, according to a first aspect of the present invention, there is provided a camera apparatus, wherein a shooting instruction is waited for in each region of a subject based on a plurality of pixel data obtained from an image sensor. A calculation unit that calculates complexity; a determination unit that determines a region having a high complexity among the complexity calculated by the calculation unit; and a region that is determined to be high by the determination unit automatically Setting means for setting as a contrast value determination area in the focus adjustment operation, and shooting recording means for performing shooting recording by performing an automatic focus adjustment operation based on the determination area set by the setting means when a shooting instruction is given Are provided.

また、本発明の第2の態様は、第1の態様において、前記算出手段は、被写体の各領域についての複雑度を順次領域を変更しながら算出し、前記判定手段は、算出される複雑度を逐次比較して順序付けを行い、前記設定手段は、複雑度の高い上位所定数の領域を前記コントラスト値の判定領域として設定することを特徴とする請求項1記載のカメラ装置。   According to a second aspect of the present invention, in the first aspect, the calculation unit calculates the complexity for each region of the subject while sequentially changing the region, and the determination unit calculates the complexity 2. The camera apparatus according to claim 1, wherein the setting means sets a predetermined number of regions having higher complexity as the determination region for the contrast value.

また、本発明の第3の態様は、第2の態様において、前記比較により上位所定数にランクされると判断された場合には、複雑度の判定を行うべき領域を所定数だけスキップして実行する。   Further, in the third aspect of the present invention, in the second aspect, when it is determined that the higher rank is ranked by the comparison, a predetermined number of areas for which the complexity should be determined are skipped. Execute.

また、本発明の第4の態様は、第3の態様において、前記スキップの度合いは、前記設定手段によって設定された前記コントラスト値の判定領域の数に応じて変更される。   According to a fourth aspect of the present invention, in the third aspect, the degree of skipping is changed according to the number of contrast value determination areas set by the setting means.

また、本発明の第5の態様は、第2から第4のいずれか1つの態様において、前記算出手段は、被写体の一領域において空間的に連続する複数の画素データを順に並べた場合に、画素データの値が連続的に増加または減少している各区間における増加値または減少値の絶対値を加算し、加算して求められた値を、当該領域の複雑度とする。   Further, according to a fifth aspect of the present invention, in any one of the second to fourth aspects, the calculation unit arranges a plurality of spatially continuous pixel data in one area of the subject in order, The absolute value of the increase value or the decrease value in each section in which the value of the pixel data continuously increases or decreases is added, and a value obtained by the addition is set as the complexity of the area.

また、本発明の第6の態様は、第1から第5のいずれか1つの態様において、前記設定手段により設定された前記コントラスト値の判定領域を対象とした前記自動焦点調整動作中に得られる情報に基づいて、当該コントラスト値の判定領域における繊細度を判定する第2の判定手段と、前記第2の判定手段により判定された繊細度に基づいて撮影パラメータの設定値を決定する決定手段と、を更に備える。   According to a sixth aspect of the present invention, in any one of the first to fifth aspects, the automatic focus adjustment operation is performed on the contrast value determination region set by the setting unit. Second determination means for determining the sensitivity in the determination region of the contrast value based on the information, and determination means for determining the setting value of the imaging parameter based on the sensitivity determined by the second determination means; Are further provided.

また、本発明の第7の態様は、第6の態様において、各判定領域の最大コントラスト値の平均値を被写体の繊細度とする。   Further, according to a seventh aspect of the present invention, in the sixth aspect, the average value of the maximum contrast values of each determination region is set as the sensitivity of the subject.

また、本発明の第8の態様は、撮影方法であって、撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出ステップと、前記算出ステップにおいて算出された複雑度の中で当該複雑度が高い領域を判定する判定ステップと、前記判定ステップにおいて複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定ステップと、撮影指示がなされた際に、前記設定ステップにおいて設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録ステップと、を具備する。   According to an eighth aspect of the present invention, there is provided a photographing method for calculating a complexity in each region of a subject based on a plurality of pixel data obtained from an image sensor while waiting for a photographing instruction. And a determination step for determining a region having a high complexity among the complexity calculated in the calculation step, and a region determined to have a high complexity in the determination step as a contrast value in the automatic focus adjustment operation. A setting step for setting as a determination area; and a shooting recording step for performing shooting recording by performing an automatic focus adjustment operation based on the determination area set in the setting step when a shooting instruction is given.

また、本発明の第9の態様は、撮影プログラムであって、コンピュータに、撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出ステップと、前記算出ステップにおいて算出された複雑度の中で当該複雑度が高い領域を判定する判定ステップと、前記判定ステップにおいて複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定ステップと、撮影指示がなされた際に、前記設定ステップにおいて設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録ステップと、を実行させる。   According to a ninth aspect of the present invention, there is provided a shooting program for calculating complexity in each area of a subject based on a plurality of pixel data obtained from an image sensor while waiting for a shooting instruction to a computer. A determination step for determining a region having a high complexity among the complexity calculated in the calculation step, and a region determined to have a high complexity in the determination step in the automatic focus adjustment operation. A setting step for setting as a determination region for a contrast value, and a shooting recording step for performing shooting recording by performing an automatic focus adjustment operation based on the determination region set in the setting step when a shooting instruction is given .

本発明によれば、被写体の複雑度に関する情報を有効に利用して、被写体における重要部分のボケがないようにAF判定領域を、最適な領域に設定することができる。   According to the present invention, it is possible to set the AF determination area to an optimal area so that there is no blurring of an important part in the subject by effectively using information on the complexity of the subject.

また、本発明によれば、被写体における重要部分を対象として自動焦点調整動作を行って得られた繊細度に基づいて撮影パラメータを設定することができるので、当該部分に対してフォーカス状態に影響されることのない、正確な繊細度を素早く判定することができ、例えば、文字情報を含む被写体の文字の細かさを判定して、文字の細かさに応じて解像度やピント合わせの精度を調整するようなことが可能となる。   In addition, according to the present invention, it is possible to set the shooting parameter based on the fineness obtained by performing the automatic focus adjustment operation on the important part in the subject, so that the part is affected by the focus state. It is possible to quickly determine the exact subtleness that does not occur, for example, to determine the character fineness of the subject including character information, and to adjust the resolution and focusing accuracy according to the character fineness It becomes possible.

以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本発明が適用されるデジタルカメラ等のカメラ装置1の構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a camera apparatus 1 such as a digital camera to which the present invention is applied.

図1に示すカメラ装置1において、基本モードである撮影モードにおいては、レンズ光学系において、モータ(M)10の駆動により絞り位置や通常撮影に応じたレンズ位置に撮影レンズ11が移動される。撮影レンズ11の撮影光軸後方に配置された撮像素子であるCCD(Charge Coupled Device)12は、タイミング発生器(TG)13、垂直ドライバ14によって走査駆動され、一定周期毎に結像した光像に対応する光電変換出力を1画面分出力する。   In the camera apparatus 1 shown in FIG. 1, in the photographing mode which is the basic mode, the photographing lens 11 is moved to the lens position corresponding to the aperture position or the normal photographing by driving the motor (M) 10 in the lens optical system. A CCD (Charge Coupled Device) 12, which is an image sensor disposed behind the photographing optical axis of the photographing lens 11, is scanned and driven by a timing generator (TG) 13 and a vertical driver 14, and is formed at regular intervals. The photoelectric conversion output corresponding to is output for one screen.

この光電変換出力は、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整された後に、サンプルホールド(S/H)回路15でサンプルホールドされ、A/D変換器16でデジタルデータに変換され、さらにカラープロセス回路17で画素補間処理及びγ補正処理を含むカラープロセス処理が行なわれて、デジタル値の輝度信号Y及び色差信号Cb,Crが生成され、DMA(Direct Memory Access)コントローラ18に出力される。   The photoelectric conversion output is appropriately gain-adjusted for each primary color component of RGB in the state of an analog value signal, sampled and held by a sample hold (S / H) circuit 15, and digital data by an A / D converter 16. The color process circuit 17 further performs color process processing including pixel interpolation processing and gamma correction processing to generate a digital luminance signal Y and color difference signals Cb, Cr, and a DMA (Direct Memory Access) controller. 18 is output.

DMAコントローラ18は、カラープロセス回路17の出力する輝度信号Y及び色差信号Cb,Crを、同じくカラープロセス回路17からの複合同期信号、メモリ書込みイネーブル信号、及びクロック信号を用いて一度DMAコントローラ18内部のバッファに書込み、DRAMインタフェース(I/F)20を介してバッファメモリとして使用されるDRAM21にDMA転送を行なう。   The DMA controller 18 once uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 17 by using the composite synchronization signal, the memory write enable signal, and the clock signal from the color process circuit 17 once. And the DMA transfer to the DRAM 21 used as a buffer memory through the DRAM interface (I / F) 20.

制御部25は、CPUと、該CPUで実行される動作プログラムやデータ等を固定的に記録したR0M、及びワークメモリとして使用されるRAM等により構成され、このカメラ装置1全体の制御動作を司る。   The control unit 25 includes a CPU, an R0M in which an operation program executed by the CPU, data, and the like are fixedly recorded, a RAM used as a work memory, and the like, and controls the entire camera device 1. .

制御部25は、輝度及び色差信号のDRAM21へのDMA転送終了後に、この輝度及び色差信号をDRAMインタフェース20を介してDRAM21より読み出し、VRAMコントローラ26を介してVRAM27に書込む。   After completing the DMA transfer of the luminance and color difference signals to the DRAM 21, the control unit 25 reads the luminance and color difference signals from the DRAM 21 via the DRAM interface 20 and writes them into the VRAM 27 via the VRAM controller 26.

デジタルビデオエンコーダ28は、輝度及び色差信号をVRAMコントローラ26を介してVRAM27より定期的に読み出し、これらのデータを元にビデオ信号を発生して表示部29に出力する。   The digital video encoder 28 periodically reads luminance and color difference signals from the VRAM 27 via the VRAM controller 26, generates a video signal based on these data, and outputs the video signal to the display unit 29.

表示部29は、撮影モード時にはモニタ表示部(電子ファインダ)として機能し、デジタルビデオエンコーダ28からのビデオ信号に基づいた表示を行なうことで、その時点でVRAMコントローラ26から取込んでいる画像情報に基づく画像(スルー画像)をリアルタイムに表示することになる。   The display unit 29 functions as a monitor display unit (electronic finder) in the shooting mode, and performs display based on the video signal from the digital video encoder 28 to display image information captured from the VRAM controller 26 at that time. The base image (through image) is displayed in real time.

表示部29にスルー画像がリアルタイムに表示されている表示状態で、被写体を撮影するタイミングでキー入力部37のシャッタキーが操作されると、トリガ信号を発生する。   When a through image is displayed on the display unit 29 in real time, a trigger signal is generated when the shutter key of the key input unit 37 is operated at the timing of photographing a subject.

制御部25は、このトリガ信号に応じてその時点でCCD12の駆動を停止した後、自動露出処理を実行して適正な露出値を得て、レンズ光学系の絞りとCCD12の露光時間を制御してあらためて撮像を実行させる。   In response to this trigger signal, the control unit 25 stops driving the CCD 12 at that time, and then performs an automatic exposure process to obtain an appropriate exposure value, and controls the aperture of the lens optical system and the exposure time of the CCD 12. Re-capture the image.

こうして新たに得られた1フレーム分の画像データがDRAM21にDMA転送されて書込まれた後、制御部25がDRAM21に書込まれている1フレーム分の画像データを読み出して画像処理部30に書込む。画像処理部30では、JPEG(Joint Photographic Experts Group)により画像データを符号化する。   After the newly obtained image data for one frame is DMA-transferred and written to the DRAM 21, the control unit 25 reads the image data for one frame written to the DRAM 21 and sends it to the image processing unit 30. Write. The image processing unit 30 encodes image data by JPEG (Joint Photographic Experts Group).

符号化された画像データは、カメラ装置1の記録媒体として着脱自在に装着されているメモリカード32、あるいはメモリカード32が装着されていない場合は固定的に内蔵されている内蔵メモリ33に書き込まれる。   The encoded image data is written to the memory card 32 that is detachably mounted as a recording medium of the camera device 1 or to the built-in memory 33 that is fixedly built when the memory card 32 is not mounted. .

そして、1フレーム分のメモリカード32または内蔵メモリ33への画像データの書込み終了に伴なって、制御部25は、CCD12からDRAM21を経由したスルー画像を表示部29においてモニタ表示させる駆動を再開する。   Then, with the completion of the writing of the image data to the memory card 32 or the built-in memory 33 for one frame, the control unit 25 resumes the drive for displaying the through image from the CCD 12 via the DRAM 21 on the display unit 29. .

また、制御部25には、キー入力部37、音声処理部40、ストロボ駆動部41が接続される。   In addition, a key input unit 37, an audio processing unit 40, and a strobe driving unit 41 are connected to the control unit 25.

キー入力部37は、電源キー、シャッタキー、モードスイッチ、メニューキー、選択キー、ズームボタン、及び十字キー(カーソルキー)等から構成され、それらのキー操作に伴なう信号は制御部25へ直接送出される。   The key input unit 37 includes a power key, a shutter key, a mode switch, a menu key, a selection key, a zoom button, a cross key (cursor key), and the like, and signals associated with these key operations are sent to the control unit 25. Directly sent.

音声処理部40は、PCM音源等の音源回路を備え、音声の録音時にはマイクロホン部(MIC)42より入力された音声信号をデジタル化し、所定のデータファイル形式、例えばMP3(MPEG-1 Audio Layer-3)規格に従ってデータ圧縮して音声データファイルを作成してメモリカード32または内蔵メモリ33へ送出する一方、音声の再生時にはメモリカード32または内蔵メモリ33から送られてきた音声データファイルの圧縮を解いてアナログ化し、スピーカ部(SP)43を駆動して、拡声放音させる。   The audio processing unit 40 includes a sound source circuit such as a PCM sound source, digitizes the audio signal input from the microphone unit (MIC) 42 when recording audio, and performs a predetermined data file format such as MP3 (MPEG-1 Audio Layer-). 3) According to the standard, the data is compressed and an audio data file is created and sent to the memory card 32 or the built-in memory 33, while the audio data file sent from the memory card 32 or the built-in memory 33 is uncompressed at the time of playing the sound. Then, it is converted into an analog signal and the speaker unit (SP) 43 is driven to emit loud sounds.

さらに音声処理部40は、制御部25からの制御に基づいて、各種動作音、例えばシャッタキーの操作に伴う擬似的なシャッタ音、他のキーの操作に伴うビープ音等も発生してスピーカ部43より拡声放音させる。   Furthermore, the sound processing unit 40 generates various operation sounds, for example, a pseudo shutter sound associated with the operation of the shutter key, a beep sound associated with the operation of other keys, and the like based on the control from the control unit 25. The sound is emitted from 43.

ストロボ駆動部41は、被写体の撮影時に図示しないストロボ用の大容量コンデンサを充電した上で、制御部25からの制御に基づいてストロボ発光部45を閃光駆動する。   The strobe driving unit 41 charges a strobe capacitor (not shown) when photographing a subject, and then drives the strobe light emitting unit 45 to flash based on the control from the control unit 25.

図2は、被写体の撮影から撮影画像の鑑賞までに使用されるカメラ装置の機能ブロック図である。   FIG. 2 is a functional block diagram of a camera device used from shooting of a subject to viewing of a shot image.

まず、撮影記録前では以下の処理が行われる。複雑度/繊細度算出部110は、撮影者からの撮影指示の待機中に、撮像素子としてのCCD12から得られた複数の画素データ(スルー画像)に基づいて、被写体の複雑度及び繊細度を算出する。この詳細については後述する。解像度/サイズ入力部111は、撮影者が想定される撮影画像の鑑賞時の解像度及びサイズを入力する部分である。撮影記録品質判定部112は、複雑度/繊細度算出部110からの出力情報と、解像度/サイズ入力部111を介して入力された情報とを用いて、撮影画像の細部確認性に関して要求される撮影記録品質を判定する。なお、複雑度/繊細度算出部110からの出力情報のみに基づいて当該撮影記録品質を判定することも可能である。   First, the following processing is performed before shooting and recording. The complexity / definition calculation unit 110 determines the complexity and sensitivity of the subject based on a plurality of pixel data (through images) obtained from the CCD 12 serving as an image sensor while waiting for a shooting instruction from the photographer. calculate. Details of this will be described later. The resolution / size input unit 111 is a part for inputting the resolution and size at the time of viewing a captured image assumed by the photographer. The shooting / recording quality determination unit 112 is required for the detail confirmation of the shot image using the output information from the complexity / definition calculation unit 110 and the information input via the resolution / size input unit 111. Judging recording quality. Note that it is also possible to determine the photographing recording quality based only on the output information from the complexity / definition calculator 110.

撮影記録品質入力部113は、撮影者が撮影画像の色再現性やノイズに関して要求される撮影記録品質を入力する部分である。明るさ/色合い測定部114は、カメラ装置1に取り込まれた光に基づいて被写体の明るさと色合いを測定する。操作性入力部115は、撮影者が要求される撮影時の操作性を入力する部分である。残量情報取得部116は、電池残量及びメモリ残量に関する情報を取得する部分である。   The shooting / recording quality input unit 113 is a part where the photographer inputs shooting / recording quality required for color reproducibility and noise of the shot image. The brightness / hue measurement unit 114 measures the brightness and hue of the subject based on the light taken into the camera device 1. The operability input unit 115 is a part for inputting operability at the time of photographing required by the photographer. The remaining amount information acquisition unit 116 is a portion that acquires information regarding the remaining battery level and the remaining memory capacity.

撮影記録条件決定部117は、上記した撮影記録品質判定部112からの出力情報、撮影記録品質入力部113を介して入力された情報、明るさ/色合い測定部114からの出力情報、操作性入力部115を介して入力された情報、残量情報取得部116からの出力情報を適宜用いて撮影記録条件を決定する。例えば、明るさ/色合い測定部114からの出力情報に基づいて、露出値、ホワイトバランス等の、撮影画像の明るさや色合いに影響を与える撮影パラメータ118を決定する。また、撮影記録品質判定部112からの出力情報と、撮影記録品質入力部113に入力された情報とに基づいて、露出時間や感度等の、撮影画像のノイズに影響を与える撮影パラメータ119を決定する。また、撮影記録品質判定部112からの出力情報と、操作性入力部115に入力された情報とに基づいて、オートフォーカスの速度や精度等の、撮影時の操作性に影響を与える撮影パラメータ121を決定する。また、撮影記録品質判定部112からの出力情報と、撮影記録品質入力部113に入力された情報あるいは操作性入力部115に入力された情報とに基づいて、露出時間や感度あるいはオートフォーカスの速度や精度等の、撮像画像のボケやブレに影響を与える撮影パラメータ120を決定する。また、撮影記録品質判定部112からの出力情報と、残量情報取得部116からの出力情報とに基づいて、撮影画像を記録する際の解像度や圧縮率122を撮影パラメータとして決定する。以上が撮影記録前の処理に関わる機能ブロックの説明である。   The shooting / recording condition determination unit 117 outputs information from the shooting / recording quality determination unit 112, information input via the shooting / recording quality input unit 113, output information from the brightness / hue measurement unit 114, and operability input. The photographing recording condition is determined by appropriately using the information input via the unit 115 and the output information from the remaining amount information acquiring unit 116. For example, based on the output information from the brightness / hue measuring unit 114, shooting parameters 118 that affect the brightness and hue of the shot image, such as the exposure value and white balance, are determined. Further, based on the output information from the shooting / recording quality determination unit 112 and the information input to the shooting / recording quality input unit 113, shooting parameters 119 that affect the noise of the shot image, such as exposure time and sensitivity, are determined. To do. Further, based on the output information from the shooting / recording quality determination unit 112 and the information input to the operability input unit 115, the shooting parameters 121 that affect the operability at the time of shooting such as the speed and accuracy of autofocus. To decide. Further, based on the output information from the shooting / recording quality determination unit 112 and the information input to the shooting / recording quality input unit 113 or the information input to the operability input unit 115, the exposure time, sensitivity, or autofocus speed The shooting parameters 120 that affect the blurring and blurring of the captured image, such as accuracy and accuracy, are determined. Further, based on the output information from the shooting / recording quality determination unit 112 and the output information from the remaining amount information acquisition unit 116, the resolution and compression rate 122 when recording a shot image are determined as shooting parameters. The above is the description of the functional blocks related to the processing before shooting and recording.

次に、撮影記録時において、撮影記録部123は、撮像記録条件決定部117で決定された上記各撮影パラメータを記録条件として記録動作を実行する。これにより画像データ124が撮影記録される。   Next, at the time of shooting and recording, the shooting and recording unit 123 executes a recording operation using the shooting parameters determined by the shooting and recording condition determination unit 117 as recording conditions. As a result, the image data 124 is captured and recorded.

次に、画像鑑賞時においては以下の処理が行われる。適度判定部125は、撮影記録された画像データ24から明るさや色合いの適度を判定する。程度判定部126は、撮影記録された画像データ24からボケやブレの程度を判定する。解像度/サイズ入力部127は、撮影者が撮影記録された画像データ24を実際に鑑賞するときの解像度やサイズを入力する部分である。画像加工内容判定部128は、適度判定部125、程度判定部126、解像度/サイズ入力部127からの出力に基づいて、色補正処理129、シャープネス処理130、ノイズ除去131、拡大/縮小132などの、要求される画像加工内容の判定を行う。   Next, the following processing is performed during image viewing. The appropriateness determination unit 125 determines appropriateness of brightness and hue from the image data 24 recorded and recorded. The degree determination unit 126 determines the degree of blurring or blurring from the image data 24 recorded and recorded. The resolution / size input unit 127 is a part for inputting the resolution and size when the photographer actually views the image data 24 recorded and recorded. The image processing content determination unit 128 includes a color correction process 129, a sharpness process 130, a noise removal 131, an enlargement / reduction 132, and the like based on outputs from the appropriateness determination unit 125, the degree determination unit 126, and the resolution / size input unit 127. The requested image processing content is determined.

画像加工/出力部133は、判定された画像加工を実行して、加工された画像を表示画面134あるいは印刷用紙135に出力する。   The image processing / output unit 133 executes the determined image processing and outputs the processed image to the display screen 134 or the printing paper 135.

図3は、図2の複雑度/繊細度算出部110における被写体の複雑度算出処理の手順を説明するための図である。本発明では複雑度算出にあたって撮像領域を複数の部分領域に分割し、各分割領域の画像データに基づいて被写体の複雑度または繊細度を判定する。以下では撮像領域をライン領域に分割したときの各ラインの複雑度を算出する手順を説明する。すなわち、図4に示すような撮影指示の待機中におけるスルー画像(撮影フレーム100)において、まず、走査方向を0度すなわち水平方向に初期化し(ステップS1)、対象色をG(グリーン)に初期化し(ステップS2)、走査ラインを1に初期化する(ステップS3)。次に、現在スルー画像表示されている撮影フレーム100の画像データより、指定された走査方向、ライン、色の空間的に連続する複数の画素データからなる画像データを抽出する(ステップS4)。次に、抽出された画像データについてのライン複雑度算出処理を実行する(ステップS5)。   FIG. 3 is a diagram for explaining a procedure of subject complexity calculation processing in the complexity / definition calculator 110 of FIG. In the present invention, when calculating the complexity, the imaging region is divided into a plurality of partial regions, and the complexity or delicacy of the subject is determined based on the image data of each divided region. A procedure for calculating the complexity of each line when the imaging area is divided into line areas will be described below. That is, in the through image (photographing frame 100) in the standby state of the photographing instruction as shown in FIG. 4, first, the scanning direction is initialized to 0 degree, that is, the horizontal direction (step S1), and the target color is initially set to G (green). (Step S2), and the scanning line is initialized to 1 (step S3). Next, image data composed of a plurality of pixel data that are spatially continuous in the designated scanning direction, line, and color is extracted from the image data of the photographing frame 100 currently displayed as a through image (step S4). Next, a line complexity calculation process is performed on the extracted image data (step S5).

以下に、ライン複雑度算出処理について説明する。ここでは図4に示すような撮影フレーム100におけるスルー画像において、走査方向=0度(水平方向)、対象色=G(グリーン)、指定ラインm=240を仮定する。また、ラインm=240における対象色(ここではG)の画素値が、撮影フレーム100のAからB,Cを介してDへと移行するにしたがって図5のように変化したとする。   The line complexity calculation process will be described below. Here, in the through image in the photographing frame 100 as shown in FIG. 4, it is assumed that the scanning direction = 0 degrees (horizontal direction), the target color = G (green), and the designated line m = 240. Further, it is assumed that the pixel value of the target color (here, G) on the line m = 240 changes as shown in FIG. 5 as it shifts from A to B via B and C in the photographing frame 100.

そして、m=240における画素値がプラスからマイナスあるいはマイナスからプラスに変化するポイント(図5ではa〜iで示される変曲点)を抽出して各ポイント間の絶対差分を求める。すなわち、図5のように画素値が連続的に増加あるいは減少している各区間(例えば区間a−bでは減少、区間b−cでは増加している)における増加値あるいは減少値の絶対値を求める。そして、取得した各絶対値に対して対数をとった後、各値を加算した値をライン複雑度とする。このような方法によりライン複雑度を判定することにより、ただ単に被写体を構成する色成分における明度、色相、彩度のバリエーションの多さをヒストグラム等により算出して被写体の複雑度を判定する方法と比べて、素早く的確に被写体の複雑度を判定することができ、また、色成分の変化の傾きによって判定される被写体の繊細度を利用する方法と比べて、フォーカスの状態に影響されずに素早く的確に被写体の重要部分を判定することができる。すなわち、画像が多少ぼけている場合であってもぼけていない場合と同程度のライン複雑度として検出することができる。   Then, a point at which the pixel value at m = 240 changes from plus to minus or from minus to plus (inflection points indicated by a to i in FIG. 5) is extracted to obtain an absolute difference between the points. That is, as shown in FIG. 5, the absolute value of the increase value or the decrease value in each section where the pixel value continuously increases or decreases (for example, decreases in the section ab and increases in the section bc). Ask. And after taking the logarithm with respect to each acquired absolute value, the value which added each value is made into line complexity. By determining the line complexity by such a method, the method simply determines the complexity of the subject by calculating the number of variations in brightness, hue, and saturation in the color components constituting the subject using a histogram or the like. Compared to the method that uses the sensitivity of the subject that is determined by the gradient of the change in the color component, the complexity of the subject can be determined quickly and accurately. It is possible to accurately determine the important part of the subject. That is, even if the image is somewhat blurred, it can be detected as a line complexity comparable to that when the image is not blurred.

なお、上記の処理で対数をとるのは、所定値以上大きな絶対値を有する区間の影響を所定値以下に抑えるためである。対数をとる処理を行わずに、各ポイント間の差分が所定値以上になった場合に当該所定値以上の値を切り捨てるようにしてもよい。これによって、所定値以上色の差が大きい箇所においては、いくら大きくても被写体の複雑度にはあまり影響せず、逆に、この値が大きすぎることにより色の差が少ない箇所の情報が埋もれてしまうことを避け、より正確に被写体の複雑度を判定することができる。   The reason why the logarithm is taken in the above process is to suppress the influence of a section having an absolute value larger than a predetermined value to a predetermined value or less. Without performing the process of taking the logarithm, when the difference between each point becomes equal to or greater than a predetermined value, the value equal to or greater than the predetermined value may be discarded. As a result, in areas where the color difference is greater than a predetermined value, no matter how large the color difference, the complexity of the subject will not be affected. On the contrary, if this value is too large, information on areas where the color difference is small will be buried. The complexity of the subject can be determined more accurately.

上記のことを具体的に説明する。図5においてポイントa〜iが変曲点となっており、各ポイント間の差分は、a−b間が9、b−c間が15、c−d間が12、d−e間が58、e−f間が29、f−g間が13、g−h間が38、h−i間が2となっている。したがって、これらの値のそれぞれについて対数をとって加算すると、ライン複雑度=
log10(9)+log10(15)+log10(12)+log10(58)+log10(29)+log10(13)+log10(38)+log10(2)=9.43
となる。
The above will be described specifically. In FIG. 5, points a to i are inflection points, and the difference between the points is 9 between a and b, 15 between bc, 12 between cd, and 58 between de. 29, ef is 13, gh is 38, gh is 38, and hi is 2. Therefore, taking the logarithm and adding for each of these values, the line complexity =
log 10 (9) + log 10 (15) + log 10 (12) + log 10 (58) + log 10 (29) + log 10 (13) + log 10 (38) + log 10 (2) = 9.43
It becomes.

また、ポイントdとe間の差分が一番大きいので、{dの位置(467)+eの位置(483)}/2=475の位置を最大変化位置とする。   Since the difference between the points d and e is the largest, the position of {d position (467) + e position (483)} / 2 = 475 is set as the maximum change position.

次に、ステップS5で1ラインについての複雑度が算出された後は、算出されたライン複雑度が、すでに算出されたライン複雑度の中で上位にランクされるか否かを判断する(ステップS7)。最初のライン複雑度の算出ではYESとなる。ここでYESの場合には、ライン複雑度の順位情報を更新する(ステップS7)。すなわち、今回算出されたライン複雑度をすでに算出された他のライン複雑度と比較して昇順に順位を入れ替える。順位情報の一例を図6に示す。   Next, after the complexity for one line is calculated in step S5, it is determined whether or not the calculated line complexity is ranked higher in the already calculated line complexity (step S5). S7). The first line complexity calculation is YES. If YES here, the rank information of the line complexity is updated (step S7). That is, the line complexity calculated this time is compared with other line complexity already calculated, and the order is changed in ascending order. An example of the rank information is shown in FIG.

次に、複雑度算出の対象となるラインを10ライン加算した値に更新する(ステップS8)。ここで10ライン分スキップするのは、ライン複雑度が上位にランクされる場合はその周辺も同一レベルの複雑度を有するものと考えられるので、周辺のラインの複雑度の計算を省いて時間を短縮するためである。   Next, the complexity calculation target line is updated to a value obtained by adding 10 lines (step S8). Here, skipping 10 lines is considered to have the same level of complexity when the line complexity is ranked higher, so it is possible to save time by omitting the calculation of the complexity of the surrounding lines. This is for shortening.

一方、ステップS6の判断がNOの場合には、複雑度算出の対象となるラインを1ライン加算した値に更新する(ステップS9)。   On the other hand, if the determination in step S6 is NO, the line for which the complexity is to be calculated is updated to a value obtained by adding one line (step S9).

なお、更新のために加算されるライン数は適宜変更するようにしてもよい。例えば、後述するAF領域設定処理(図7)において、設定されるAF領域の数が少ない場合には10ライン以上加算して計算時間を短縮し、AF領域の数が多い場合には加算する数を10ライン以下に設定することが考えられる。   Note that the number of lines added for updating may be changed as appropriate. For example, in AF area setting processing (FIG. 7) described later, when the number of AF areas to be set is small, 10 lines or more are added to reduce the calculation time, and when the number of AF areas is large, the number to be added Can be set to 10 lines or less.

ステップS8またはステップ9の後は、最終ラインに到達したか否かを判断し(ステップS10)、NOの場合にはステップS4に戻ってそれ以降の処理を実行する。そして、フレーム内の水平方向のすべてのラインについての複雑度が算出されたときにステップS10の判断がYESとなってステップS11に進む。ステップS11では対象色をGからBに更新する。次に、最終色に到達したか否かを判断し(ステップS12)、NOの場合にはステップS3に戻ってそれ以降の処理を実行する。そして、Bについての処理が終了した後、Rについての処理を実行すると、ステップS12の最終色に到達したか否かの判断がYESとなる。ステップS13に進んで走査方向を水平方向から垂直方向に更新する。次に、最終走査方向に到達したか否かを判断し(ステップS14)、NOの場合にはステップS2に戻ってそれ以降の処理を実行する。そして、フレーム内の垂直方向のすべてのラインについて複雑度が算出されたときにステップ14の判断がYESとなって、ステップS15に進む。   After step S8 or step 9, it is determined whether or not the final line has been reached (step S10). If NO, the process returns to step S4 to execute the subsequent processing. Then, when the complexity for all the horizontal lines in the frame is calculated, the determination in step S10 is YES and the process proceeds to step S11. In step S11, the target color is updated from G to B. Next, it is determined whether or not the final color has been reached (step S12). If NO, the process returns to step S3 to execute the subsequent processing. When the process for R is executed after the process for B is completed, the determination as to whether or not the final color in step S12 has been reached is YES. In step S13, the scanning direction is updated from the horizontal direction to the vertical direction. Next, it is determined whether or not the final scanning direction has been reached (step S14). If NO, the process returns to step S2 to execute the subsequent processing. When the complexity is calculated for all the vertical lines in the frame, the determination in step 14 is YES, and the process proceeds to step S15.

ステップS15では、ライン複雑度の順位情報を見て、所定フレーム数以上古いフレームの情報は順位が低く重要ではないとみなして削除する処理を行う。次に、上位にランクされている所定数のライン複雑度の平均値を求め、該平均値を被写体の複雑度として記憶あるいは更新する。次に、撮影終了か否かを確認し(ステップS17)、NOの場合にはステップS1に戻ってそれ以降の処理を行い、撮影終了となったときにステップS17がYESとなって処理を終了する。   In step S15, the rank information of the line complexity is viewed, and the information of the frames older than the predetermined number of frames is considered to be low and not important and is deleted. Next, an average value of a predetermined number of line complexity ranked higher is obtained, and the average value is stored or updated as the complexity of the subject. Next, it is confirmed whether or not the photographing is finished (step S17). If NO, the process returns to step S1 to perform the subsequent processing. When the photographing is finished, step S17 becomes YES and the processing is finished. To do.

図6は、ライン複雑度の順位情報の一例を示すテーブルである。ここでは、1ラインの複雑度が算出される毎にすでに存在する他のラインの複雑度と比較され、複雑度が高い順に順序付けされるようにテーブルが更新される。また、この実施形態では、現フレーム画像の1ライン目からライン複雑度の算出を開始してフレーム途中のnライン位置までライン複雑度が算出された時点で、次フレーム画像が撮像された場合には、複雑度を計算すべき次のラインは、現フレーム画像のn+1ライン目ではなく、次フレーム画像のn+1ライン目に移行し、それより下方のラインについて順次ライン複雑度が算出されるようになっている。このような手法により、フレームレートに影響を与えることなくフレーム全体にわたって均一にライン複雑度を算出することができる。   FIG. 6 is a table showing an example of line complexity rank information. Here, each time the complexity of one line is calculated, it is compared with the complexity of other lines that already exist, and the table is updated so as to be ordered in descending order of complexity. Further, in this embodiment, when the next frame image is captured at the time when the line complexity is calculated from the first line of the current frame image to the n-line position in the middle of the frame. The next line whose complexity should be calculated is not the n + 1 line of the current frame image, but the n + 1 line of the next frame image, and the line complexity is sequentially calculated for the lines below it. It has become. With this method, the line complexity can be calculated uniformly over the entire frame without affecting the frame rate.

上記した実施形態によれば、撮像領域全体に対する演算処理を終了してからでなくとも、部分領域に基づいて逐次算出される複雑度に基づいて、被写体全体の複雑度をリアルタイムに精度よく更新して撮影パラメータを決定することができる。   According to the above-described embodiment, the complexity of the entire subject is accurately updated in real time on the basis of the complexity calculated sequentially based on the partial area, even after the calculation process for the entire imaging area is not completed. Shooting parameters can be determined.

尚、上記した実施形態では、画像全体を複数のラインに分割して各ライン毎に複雑度を算出したが、画像全体を更に複数の矩形領域に分割し、各矩形領域毎に、該矩形領域内の画像データに対して上述した手法により複雑度を算出するようにしてもよい。このようにすれば処理速度は多少遅くなるが、AF領域の設定精度を高めることができる。   In the above embodiment, the entire image is divided into a plurality of lines and the complexity is calculated for each line. However, the entire image is further divided into a plurality of rectangular areas, and each rectangular area is divided into the rectangular areas. The complexity may be calculated for the image data in the image data by the method described above. In this way, the processing speed is somewhat slow, but the setting accuracy of the AF area can be increased.

図7は、本実施形態におけるAF領域の設定処理について説明するためのフローチャートである。まず、例えば図4に示すようなライン複雑度の順位情報表を参照してライン複雑度が上位のものから所定数のポイントを抽出する(ステップS20)。次に、該抽出されたポイントを含む領域をAF対象領域に設定する(ステップS21)。   FIG. 7 is a flowchart for explaining AF area setting processing in the present embodiment. First, for example, a predetermined number of points are extracted from those having higher line complexity with reference to the line complexity rank information table as shown in FIG. 4 (step S20). Next, an area including the extracted point is set as an AF target area (step S21).

図8は、本設定処理により設定された3つのAF領域1〜3を示している。   FIG. 8 shows three AF areas 1 to 3 set by the setting process.

上記の手法は例えば、文字サイズの異なる文字などを含む文書画像を撮影する場合に好適する。すなわち、文字サイズの小さい文字が存在すると考えられる複雑度の高い部分を優先的にAF領域に設定して焦点を合わせるようにすれば、異なる文字サイズで文字が印刷された文書を撮影した場合であってもサイズの小さい文字を的確に検出して焦点を合わせることが可能になり、読み取り不可能になって失われる情報をより少なく抑えることができる。   The above method is suitable for, for example, photographing document images including characters having different character sizes. In other words, if a focus is set by focusing on a high-complexity portion that is thought to contain a character with a small character size as an AF area, it is possible to shoot a document with characters printed with different character sizes. Even in such a case, it becomes possible to accurately detect and focus on a small-sized character, and it is possible to reduce information lost due to being unreadable.

ここで、被写体または被写体画像における複雑度の高い部分とは、単位面積当りの情報量がより大きい部分であり、空間的な色変化が規則的ではなくより不規則に変化している部分である。つまり、ただ単に多くの色を含むからといって必ずしも情報量が大きいとは限らず、例えば、グラデーションのように空間的に滑らかに色が変化している場合には情報量は低くなり、白地に黒の文字で書かれた文書であっても、細かい文字が緻密に並んでいるような場合には、単位面積当たりの黒から白または白から黒への変化の回数が多く情報量も多くなる。また、ただ単に色変化が急峻であるからといって必ずしも色変化が不規則であるとは限らず、例えば、文字の輪郭部において、ピントが甘いために白から黒へと滑らかに色が変化する場合と、ピントが正確に合っているために白から黒へと急峻に色が変化する場合とでは、色変化の不規則さの程度はほぼ同等である。   Here, the high complexity part of the subject or the subject image is a part where the amount of information per unit area is larger, and the part where the spatial color change is not regular but changes more irregularly. . In other words, just because many colors are included, the amount of information is not necessarily large. For example, when the color changes smoothly in a spatial manner like gradation, the amount of information is low, and the white background Even if a document is written in black characters, if the fine characters are densely arranged, the number of changes from black to white or white to black per unit area is large and the amount of information is large. Become. Also, just because the color change is steep, it does not necessarily mean that the color change is irregular. For example, in the outline part of a character, the color changes smoothly from white to black because the focus is sweet. The degree of irregularity of the color change is almost the same between the case where the color changes sharply from white to black because the focus is accurately adjusted.

また、被写体または被写体画像における繊細度の高い部分とは、色変化が急峻でよりシャープな部分であり、例えば、単位距離当たりのコントラスト変化の大きい部分である。上記複雑度がピントの影響をあまり受けることなく判定することができる情報であったのに対して、繊細度の判定においてはピントの影響を大きく受ける。   Further, the high-definition part in the subject or the subject image is a sharper and sharper color change, for example, a part where the contrast change per unit distance is large. While the above complexity is information that can be determined without being affected by the focus much, the determination of the sensitivity is greatly influenced by the focus.

複雑度の高い部分と低い部分を含む被写体を撮影する場合、複雑度の低い部分に関しては多少ピントが甘くとも失われる情報量は少ないが、複雑度の高い部分に関してはピントが甘くなる程失われる情報量が多くなる。したがって、被写体の細部まで詳細に確認可能な撮影画像を得ようとした場合には、より複雑度の高い部分を優先してピントを合わせる必要がある。   When shooting a subject that includes high and low complexity parts, the amount of information that is lost is low even if the focus is low on the low complexity part, but it is lost as the focus is low on the high complexity part. The amount of information increases. Therefore, when trying to obtain a photographed image that can be confirmed in detail up to the details of the subject, it is necessary to focus on a part with higher complexity.

図9は、上記の方法により求めたAF領域を用いて、撮影待機中における被写体の繊細度判定処理の手順を説明するためのフローチャートである。まず、上記の「AF領域設定処理」により設定された、被写体における複雑度が高い部分各AF対象領域において、被写体に追尾して連続的に合焦動作を行うコンティニュアスAFによって順次得られるコントラスト値のうち最大のコントラスト値を求めて記憶あるいは更新する(ステップS30)。尚、コンティニュアスAFにおいて複数のAF領域の中でどのAF領域で測定された被写体距離にピントを合わせるかは適宜設定することができ、例えば、最も近い被写体にピントを合わせたり、全ての被写体の中間にピントを合わせてもよい。次に、記憶された各AF対象領域における最大コントラスト値の平均値を求め、該平均値を被写体の繊細度として記憶あるいは更新する(ステップS31)。   FIG. 9 is a flow chart for explaining the procedure of the subject fineness determination process during shooting standby using the AF area obtained by the above method. First, contrast obtained sequentially by continuous AF, which is set by the “AF area setting process” described above and performs continuous focusing operation by tracking the subject in each AF target area having a high degree of complexity in the subject. The maximum contrast value among the values is obtained and stored or updated (step S30). In the continuous AF, it is possible to appropriately set which AF area of the plurality of AF areas is to be focused on, for example, focus on the closest subject or all subjects. You may focus on the middle. Next, an average value of the maximum contrast values in each stored AF target area is obtained, and the average value is stored or updated as the sensitivity of the subject (step S31).

次に、撮影が終了か否かを判断し(ステップS32)、NOの場合にはステップS30に戻ってそれ以降の処理を行い、YESと判断されたときに撮影を終了する。   Next, it is determined whether or not shooting is completed (step S32). If NO, the process returns to step S30 to perform the subsequent processing, and when YES is determined, the shooting is ended.

上記したように、被写体における複雑度が高い部分にフォーカスを合わせて当該部分の高調波成分などにより被写体の繊細度を判定するので、判定の正確度が向上する。   As described above, since the focus is set on a portion with high complexity in the subject and the sensitivity of the subject is determined based on the harmonic component of the portion, the accuracy of the determination is improved.

以下に、被写体の複雑度/繊細度に基づいて撮影記録時に用いられる撮影パラメータがどのように決定されるかについて説明する。まず図10を参照して第1の実施形態を説明する。まず、複雑度/繊細度算出部110から被写体の複雑度あるいは繊細度に関する情報を取得する(ステップS100)。次に、撮影者が解像度/サイズ入力部111を介して入力した画像解像度あるいは画像サイズに関する情報を取得する(ステップS101)。次に、撮影記録品質判定部112において、取得した被写体の複雑度あるいは繊細度と、画像解像度あるいは画像サイズとから、図13に示すようなテーブルを参照して、撮影画像の細部確認性に関して要求される撮影記録品質を判定する(ステップS102)。なお、撮影記録品質判定部112は、被写体の複雑度あるいは繊細度に関する情報のみに基づいて当該撮影記録品質を判定することも可能である。   In the following, how the shooting parameters used at the time of shooting and recording are determined based on the complexity / definition of the subject will be described. First, the first embodiment will be described with reference to FIG. First, information on the complexity or sensitivity of the subject is acquired from the complexity / definition calculator 110 (step S100). Next, information regarding the image resolution or image size input by the photographer via the resolution / size input unit 111 is acquired (step S101). Next, in the shooting / recording quality determination unit 112, a request for details confirmability of a shot image is made by referring to a table as shown in FIG. 13 based on the complexity or fineness of the acquired subject and the image resolution or image size. The shooting recording quality to be performed is determined (step S102). Note that the shooting / recording quality determination unit 112 can also determine the shooting / recording quality based only on information relating to the complexity or sensitivity of the subject.

次に、撮影者が操作性入力部115を介して指定した撮影時の操作性の度合いに関する情報を取得する(ステップS103)。次に、撮影記録条件決定部117において、ステップS102で判定された撮影記録品質と、操作性入力部115を介して指定された撮影時の操作性の度合いとから、図14に示すようなテーブルを参照して、オートフォーカス時の互いに相反するパラメータである速度と精度の比率を決定する(ステップS104)。例えば、要求される撮影時の操作性が早く(例えば指数9)、細部確認性に関して要求される撮影記録品質が低い(例えば指数2)ならば、精度に比べて速度を重視した比率(8:2)が選択される。   Next, information on the degree of operability at the time of photographing designated by the photographer via the operability input unit 115 is acquired (step S103). Next, a table as shown in FIG. 14 is obtained from the photographing recording quality determined in step S102 in the photographing / recording condition determining unit 117 and the degree of operability at the time of photographing designated through the operability input unit 115. Referring to FIG. 4, the speed / accuracy ratio, which are mutually contradictory parameters during autofocus, is determined (step S104). For example, if the required operability at the time of shooting is fast (for example, index 9) and the shooting recording quality required for detail confirmation is low (for example, index 2), the ratio (8: 2) is selected.

次に、図11のフローチャートを参照して第2の実施形態を説明する。撮影記録品質判定部112において、第1の例と同様の方法により、撮影画像の細部確認性に関して要求される撮影記録品質を判定する(ステップS100〜S102)。   Next, a second embodiment will be described with reference to the flowchart of FIG. The shooting / recording quality determination unit 112 determines the shooting / recording quality required for the detailed confirmation of the shot image by the same method as in the first example (steps S100 to S102).

次に、撮影者が撮影記録品質入力部113を介して指定した撮影画像の色再現性やノイズに関して要求される撮影記録品質に関する情報を取得する(ステップS105)。次に、撮影記録条件決定部117において、ステップS102で判定された撮影記録品質と、撮影記録品質入力部113を介して指定された当該撮影記録品質とに基づいて、図15に示すようなテーブルを参照して、露出設定時の互いに相反するパラメータである露光時間と感度の比率を決定する(ステップS106)。例えば、色再現性やノイズに関して要求される撮影記録品質が高く(例えば指数9)、細部確認性に関して要求される撮影記録品質が低い(例えば指数1)ならば、感度に比べて露光時間を重視した比率(9:1)が選択される。   Next, information on the photographing recording quality required for the color reproducibility and noise of the photographed image designated by the photographer via the photographing / recording quality input unit 113 is acquired (step S105). Next, the table as shown in FIG. 15 is based on the shooting record quality determined in step S102 in the shooting record condition determination unit 117 and the shooting record quality designated via the shooting record quality input unit 113. Referring to FIG. 5, the ratio of exposure time and sensitivity, which are mutually contradictory parameters when setting the exposure, is determined (step S106). For example, if the photographic recording quality required for color reproducibility and noise is high (for example, index 9) and the photographic recording quality required for detail confirmation is low (for example, index 1), exposure time is more important than sensitivity. The selected ratio (9: 1) is selected.

次に、図12のフローチャートを参照して第3の実施形態を説明する。撮影記録品質判定部112において、第1の例と同様の方法により、撮影画像の細部確認性に関して要求される撮影記録品質を判定する(ステップS100〜S102)。   Next, a third embodiment will be described with reference to the flowchart of FIG. The shooting / recording quality determination unit 112 determines the shooting / recording quality required for the detailed confirmation of the shot image by the same method as in the first example (steps S100 to S102).

次に、残量取得部116からメモリ残量に関する情報を取得する(ステップS107)。次に、撮影記録条件決定部117において、ステップS102で判定された撮影記録品質と、残量取得部116から取得したメモリ残量とに基づいて、図16に示すようなテーブルを参照して、撮影画像を記録する際の解像度(圧縮率)を決定する(ステップS108)。例えば、メモリ残量が十分(90%)であり、細部確認性に関して要求される撮影記録品質が高い(指数9)ならば、最高解像度が選択される。   Next, information regarding the remaining memory capacity is acquired from the remaining capacity acquiring unit 116 (step S107). Next, the shooting / recording condition determination unit 117 refers to a table as shown in FIG. 16 based on the shooting / recording quality determined in step S102 and the remaining memory amount acquired from the remaining amount acquisition unit 116. The resolution (compression rate) for recording the captured image is determined (step S108). For example, if the remaining memory capacity is sufficient (90%) and the recording quality required for detail confirmation is high (index 9), the highest resolution is selected.

なお、上記した撮影パラメータ以外のパラメータ、例えば撮影画像の明るさや色合いに影響を与える撮影パラメータ等についても上記の方法を用いて被写体の複雑度または繊細度に基づいたテーブルを作成することにより決定することができる。   Note that parameters other than the above-described shooting parameters, for example, shooting parameters that affect the brightness and hue of the shot image, are also determined by creating a table based on the complexity or delicacy of the subject using the above method. be able to.

本発明が適用されるデジタルカメラ等のカメラ装置1の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a camera apparatus 1 such as a digital camera to which the present invention is applied. 被写体の撮影から撮影画像の鑑賞までに使用されるカメラ装置の機能ブロック図である。It is a functional block diagram of a camera device used from shooting of a subject to appreciation of a shot image. 図2の複雑度/繊細度算出部110における被写体の複雑度算出処理の手順を説明するための図である。FIG. 3 is a diagram for explaining a procedure of subject complexity calculation processing in a complexity / definition calculator 110 in FIG. 2. 撮影指示の待機中におけるスルー画像の一例を示す図である。It is a figure which shows an example of the through image in the standby of the imaging | photography instruction | indication. 撮影フレームのラインm=240における画素値の変化を示す図である。It is a figure which shows the change of the pixel value in line m = 240 of an imaging frame. ライン複雑度の順位情報の一例を示すテーブルである。It is a table which shows an example of the rank information of line complexity. 本実施形態におけるAF領域の設定処理について説明するためのフローチャートである。It is a flowchart for demonstrating the setting process of AF area | region in this embodiment. 本実施形態の設定処理により設定された3つのAF領域1〜3を示す図である。It is a figure which shows three AF area | regions 1-3 set by the setting process of this embodiment. 撮影待機中における被写体の繊細度判定処理の手順を説明するためのフローチャートである。6 is a flowchart for explaining a procedure of a process for determining the degree of sensitivity of a subject during shooting standby. 被写体の複雑度/繊細度に基づいて撮影記録時に用いられる撮影パラメータを決定する第1の実施形態を説明するための図である。It is a figure for demonstrating 1st Embodiment which determines the imaging parameter used at the time of imaging | photography recording based on the complexity / definition of a to-be-photographed object. 被写体の複雑度/繊細度に基づいて撮影記録時に用いられる撮影パラメータを決定する第2の実施形態を説明するための図である。It is a figure for demonstrating 2nd Embodiment which determines the imaging parameter used at the time of imaging | photography recording based on the complexity / definition of a to-be-photographed object. 被写体の複雑度/繊細度に基づいて撮影記録時に用いられる撮影パラメータを決定する第3の実施形態を説明するための図である。It is a figure for demonstrating 3rd Embodiment which determines the imaging parameter used at the time of imaging | photography recording based on the complexity / definition of a to-be-photographed object. 撮影画像の細部確認性に関して要求される撮影記録品質を判定するためのテーブルである。It is a table for judging the imaging | photography recording quality requested | required regarding the detailed confirmation property of a picked-up image. オートフォーカス時の速度と精度の比率を決定するためのテーブルである。It is a table for determining the ratio of speed and accuracy during autofocus. 露出設定時の露光時間と感度の比率を決定するためのテーブルである。It is a table for determining the ratio of the exposure time and sensitivity at the time of exposure setting. 撮影画像を記録する際の解像度(圧縮率)を決定するためのテーブルである。It is a table for determining the resolution (compression rate) at the time of recording a picked-up image.

符号の説明Explanation of symbols

1…カメラ装置、
21…DRAM、
25…制御部、
29…表示部、
37…キー入力部。
1 ... Camera device,
21 ... DRAM,
25. Control unit,
29 ... display part,
37: Key input section.

110…複雑度/繊細度算出部、
111…解像度/サイズ入力部、
112…撮影記録品質判定部、
113…撮影記録品質入力部、
114…明るさ/色合い測定部、
115…操作性入力部、
116…残量情報取得部、
117…撮影記録条件決定部、
118…撮影画像の明るさや色合いに影響を与える撮影パラメータ、
119…撮影画像のノイズに影響を与える撮影パラメータ119、
120…撮像画像のボケやブレに影響を与える撮影パラメータ、
121…撮影時の操作性に影響を与える撮影パラメータ、
122…撮影画像を記録する際の解像度や圧縮率、
123…撮影記録部。
110: Complexity / definition calculator,
111 ... resolution / size input section,
112 ... Shooting / recording quality judgment unit,
113 ... Shooting record quality input section,
114 ... Brightness / hue measuring section,
115 ... operability input unit,
116... Remaining amount information acquisition unit,
117 ... Shooting / recording condition determining unit,
118: Shooting parameters that affect the brightness and hue of the shot image;
119: Shooting parameter 119 that affects the noise of the shot image;
120: Shooting parameters that affect blurring and blurring of the captured image,
121: Shooting parameters that affect operability during shooting,
122... Resolution and compression rate when recording captured images,
123: A photographing recording unit.

Claims (9)

撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出手段と、
前記算出手段により算出された複雑度の中で当該複雑度が高い領域を判定する判定手段と、
前記判定手段により複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定手段と、
撮影指示がなされた際に、前記設定手段により設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録手段と、
を具備したことを特徴とするカメラ装置。
Calculation means for calculating the complexity of each area of the subject based on a plurality of pixel data obtained from the image sensor while waiting for a shooting instruction;
Determination means for determining a region having a high complexity among the complexity calculated by the calculation means;
A setting unit that sets a region determined to be high in complexity by the determination unit as a determination region for a contrast value in an automatic focus adjustment operation;
A shooting and recording unit for performing shooting and recording by performing an automatic focus adjustment operation based on the determination region set by the setting unit when a shooting instruction is given;
A camera apparatus comprising:
前記算出手段は、被写体の各領域についての複雑度を順次領域を変更しながら算出し、前記判定手段は、算出される複雑度を逐次比較して順序付けを行い、前記設定手段は、複雑度の高い上位所定数の領域を前記コントラスト値の判定領域として設定することを特徴とする請求項1記載のカメラ装置。 The calculation means calculates the complexity for each area of the subject while sequentially changing the area, the determination means sequentially compares the calculated complexity and performs ordering, and the setting means 2. The camera device according to claim 1, wherein a predetermined higher number of regions are set as the contrast value determination region. 前記比較により上位所定数にランクされると判断された場合には、複雑度の判定を行うべき領域を所定数だけスキップして実行することを特徴とする請求項2記載のカメラ装置。 3. The camera device according to claim 2, wherein when it is determined by the comparison that the rank is ranked in the upper predetermined number, the predetermined number of regions to be subjected to complexity determination are skipped and executed. 前記スキップの度合いは、前記設定手段によって設定された前記コントラスト値の判定領域の数に応じて変更されることを特徴とする請求項3記載のカメラ装置。 4. The camera apparatus according to claim 3, wherein the degree of skip is changed according to the number of contrast value determination areas set by the setting means. 前記算出手段は、被写体の一領域において空間的に連続する複数の画素データを順に並べた場合に、画素データの値が連続的に増加または減少している各区間における増加値または減少値の絶対値を加算し、加算して求められた値を、当該領域の複雑度とすることを特徴とする請求項2から4のいずれか1つに記載のカメラ装置。 When the calculation means arranges a plurality of spatially continuous pixel data in one area of the subject in order, the absolute value of the increase value or the decrease value in each section where the value of the pixel data continuously increases or decreases 5. The camera device according to claim 2, wherein values are added, and a value obtained by the addition is set as a complexity of the region. 前記設定手段により設定された前記コントラスト値の判定領域を対象とした前記自動焦点調整動作中に得られる情報に基づいて、当該コントラスト値の判定領域における繊細度を判定する第2の判定手段と、前記第2の判定手段により判定された繊細度に基づいて撮影パラメータの設定値を決定する決定手段と、を更に備えたことを特徴とする請求項1から5のいずれか1つに記載のカメラ装置。 Second determination means for determining the degree of sensitivity in the contrast value determination area based on information obtained during the automatic focus adjustment operation for the contrast value determination area set by the setting means; 6. The camera according to claim 1, further comprising: a determination unit that determines a setting value of the imaging parameter based on the fineness determined by the second determination unit. apparatus. 各判定領域の最大コントラスト値の平均値を被写体の繊細度とすることを特徴とする請求項6記載のカメラ装置。 The camera apparatus according to claim 6, wherein an average value of maximum contrast values of each determination region is defined as a subject's sensitivity. 撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出ステップと、
前記算出ステップにおいて算出された複雑度の中で当該複雑度が高い領域を判定する判定ステップと、
前記判定ステップにおいて複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定ステップと、
撮影指示がなされた際に、前記設定ステップにおいて設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録ステップと、
を具備したことを特徴とする撮影方法。
A calculation step for calculating the complexity in each area of the subject based on a plurality of pixel data obtained from the image sensor while waiting for a shooting instruction;
A determination step of determining a region having a high complexity among the complexity calculated in the calculation step;
A setting step for setting a region determined to have high complexity in the determination step as a determination region for a contrast value in the automatic focus adjustment operation;
A shooting and recording step for performing shooting and recording by performing an automatic focus adjustment operation based on the determination region set in the setting step when a shooting instruction is given; and
A photographing method characterized by comprising:
コンピュータに、
撮影指示の待機中において、撮像素子より得られた複数の画素データに基づいて、被写体の各領域における複雑度を算出する算出ステップと、
前記算出ステップにおいて算出された複雑度の中で当該複雑度が高い領域を判定する判定ステップと、
前記判定ステップにおいて複雑度が高いと判定された領域を、自動焦点調整動作におけるコントラスト値の判定領域として設定する設定ステップと、
撮影指示がなされた際に、前記設定ステップにおいて設定された判定領域に基づく自動焦点調整動作を行って撮影記録を行う撮影記録ステップと、を実行させるための撮影プログラム。
On the computer,
A calculation step for calculating the complexity in each area of the subject based on a plurality of pixel data obtained from the image sensor while waiting for a shooting instruction;
A determination step of determining a region having a high complexity among the complexity calculated in the calculation step;
A setting step for setting a region determined to have high complexity in the determination step as a determination region for a contrast value in the automatic focus adjustment operation;
An imaging program for executing an imaging and recording step of performing imaging and recording by performing an automatic focus adjustment operation based on the determination area set in the setting step when an imaging instruction is given.
JP2005103533A 2005-03-31 2005-03-31 Camera device, photographing method and photographing program Expired - Fee Related JP4934983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005103533A JP4934983B2 (en) 2005-03-31 2005-03-31 Camera device, photographing method and photographing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005103533A JP4934983B2 (en) 2005-03-31 2005-03-31 Camera device, photographing method and photographing program

Publications (2)

Publication Number Publication Date
JP2006287515A true JP2006287515A (en) 2006-10-19
JP4934983B2 JP4934983B2 (en) 2012-05-23

Family

ID=37408959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005103533A Expired - Fee Related JP4934983B2 (en) 2005-03-31 2005-03-31 Camera device, photographing method and photographing program

Country Status (1)

Country Link
JP (1) JP4934983B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021113732A (en) * 2020-01-17 2021-08-05 三菱重工業株式会社 Measurement device, measurement system and measurement method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969973A (en) * 1994-11-28 1997-03-11 Matsushita Electric Ind Co Ltd Position adjusting method for solid-state image pickup element
JP2000023012A (en) * 1998-07-06 2000-01-21 Olympus Optical Co Ltd Camera having translating function
JP2003289468A (en) * 2002-03-28 2003-10-10 Sanyo Electric Co Ltd Imaging apparatus
JP2004072655A (en) * 2002-08-09 2004-03-04 Ricoh Co Ltd Roi region setting device, electronic camera device, roi region setting method, program, and recording medium
JP2004309586A (en) * 2003-04-02 2004-11-04 Minolta Co Ltd Imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969973A (en) * 1994-11-28 1997-03-11 Matsushita Electric Ind Co Ltd Position adjusting method for solid-state image pickup element
JP2000023012A (en) * 1998-07-06 2000-01-21 Olympus Optical Co Ltd Camera having translating function
JP2003289468A (en) * 2002-03-28 2003-10-10 Sanyo Electric Co Ltd Imaging apparatus
JP2004072655A (en) * 2002-08-09 2004-03-04 Ricoh Co Ltd Roi region setting device, electronic camera device, roi region setting method, program, and recording medium
JP2004309586A (en) * 2003-04-02 2004-11-04 Minolta Co Ltd Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021113732A (en) * 2020-01-17 2021-08-05 三菱重工業株式会社 Measurement device, measurement system and measurement method

Also Published As

Publication number Publication date
JP4934983B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
JP4999268B2 (en) Electronic camera and program
JP4534816B2 (en) Imaging apparatus and program
JP4872797B2 (en) Imaging apparatus, imaging method, and imaging program
US7129980B1 (en) Image capturing apparatus and automatic exposure control correcting method
KR101643613B1 (en) Digital image process apparatus, method for image processing and storage medium thereof
JP6624889B2 (en) Video processing apparatus, video processing method, and video processing program
JP2005269373A (en) Video signal processing system, and electronic video apparatus
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2006033291A (en) Imaging apparatus, method of controlling the same and processing program thereof
JP2009141538A (en) Imaging apparatus, image playback device, and program for them
US20080151077A1 (en) Image processor and imaging device
JP4570171B2 (en) Information processing apparatus and recording medium
JP4720255B2 (en) Camera device, photographing method and photographing program
JP2006287517A (en) Camera apparatus, photographing method, and photographing program
JP2003259200A (en) Image pickup device
JP4934983B2 (en) Camera device, photographing method and photographing program
JP4678273B2 (en) Imaging apparatus, moving image storage method, and moving image storage program
JP4781670B2 (en) Imaging device
JP4720252B2 (en) Camera device, imaging method, and imaging program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2005278003A (en) Image processing apparatus
JP2002305676A (en) Electronic camera
JP4962597B2 (en) Electronic camera and program
JP2006013677A (en) Information processing apparatus, imaging apparatus, image file generating method, and image display processing program
JPH10224690A (en) Information processing unit and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4934983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees