JP2006050494A - Image photographing apparatus - Google Patents

Image photographing apparatus Download PDF

Info

Publication number
JP2006050494A
JP2006050494A JP2004232329A JP2004232329A JP2006050494A JP 2006050494 A JP2006050494 A JP 2006050494A JP 2004232329 A JP2004232329 A JP 2004232329A JP 2004232329 A JP2004232329 A JP 2004232329A JP 2006050494 A JP2006050494 A JP 2006050494A
Authority
JP
Japan
Prior art keywords
image
evaluation
correction
captured image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004232329A
Other languages
Japanese (ja)
Other versions
JP4415188B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004232329A priority Critical patent/JP4415188B2/en
Publication of JP2006050494A publication Critical patent/JP2006050494A/en
Application granted granted Critical
Publication of JP4415188B2 publication Critical patent/JP4415188B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Storing Facsimile Image Data (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable an image photographing apparatus such as a digital camera to automatically correct a photographic image. <P>SOLUTION: A digital camera 1 executes image evaluation processing for automatically evaluating a photographic image (exposure condition evaluation, contrast evaluation, blur or focus blur evaluation). Also, when a photographing mode is detected and if the residual capacity of a recording medium for recording the photographic image is not more than a previously set capacity, the digital camera 1 executes correction processing for correcting the image quality of a photographic image whose evaluation value calculated in the image evaluation processing is not more than a predetermined value out of the images recorded in the recording medium. Then, the digital camera 1 evaluates the images subjected to the image correction again to decide the images whose evaluation value calculated in this image evaluation processing is not more than the predetermined value as candidates to be deleted from the recording medium, and deletes the images designated by a user from among the images of decided deletion candidates. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像撮影装置に関する。   The present invention relates to an image photographing device.

静止画像や動画像を撮像し、メモリーカード等の記録媒体に記録するデジタルカメラでは、フィルム代や現像代などを気にすることなく撮影画像を記録することができる。最近では、記録媒体の価格が下がり、記録容量が大幅に増え、多数の画像が記録可能になっている(例えば、特許文献1参照。)。記録媒体の容量が一杯になった場合は、記録媒体に記録された画像データをPC(Personal Computer)等に転送してから記録媒体を空にするか、記録済みの画像の中から、ユーザが画像の良し悪しを判断して不要な画像を消去するなどして、記録媒体の空き領域が確保されている。
特許第2787781号公報
With a digital camera that captures still images and moving images and records them on a recording medium such as a memory card, it is possible to record captured images without worrying about film costs or development costs. Recently, the price of recording media has decreased, the recording capacity has increased significantly, and a large number of images can be recorded (see, for example, Patent Document 1). When the capacity of the recording medium is full, the image data recorded on the recording medium is transferred to a PC (Personal Computer) or the like, and then the recording medium is emptied, or the user can select from recorded images. An empty area of the recording medium is secured by determining whether the image is good or bad and deleting unnecessary images.
Japanese Patent No. 2787781

しかしながら、従来、デジタルカメラの記録媒体に記録された画像の中から不要な画像を削除する場合、ユーザが記録済み画像の画質等を目視で評価し、その評価結果に基づいて不要な画像を決めて削除していたため、実際は画質が良い画像であっても削除される可能性があった。   However, conventionally, when an unnecessary image is deleted from images recorded on a recording medium of a digital camera, the user visually evaluates the image quality of the recorded image and determines an unnecessary image based on the evaluation result. In fact, there is a possibility that even an image with good image quality may be deleted.

本発明の課題は、デジタルカメラ等の画像撮影装置において撮影画像を自動的に補正することである。   An object of the present invention is to automatically correct a captured image in an image capturing apparatus such as a digital camera.

上記課題を解決するため、請求項1に記載の画像撮影装置は、被写体を撮影して撮影画像を取得する撮像手段と、前記取得された撮影画像を記録媒体に記録する記録手段と、前記取得された撮影画像の画質を評価する第1の評価手段と、前記記録媒体に記録された撮影画像のうち、前記第1の評価手段により算出された評価結果が所定の条件を満たす撮影画像の画質を補正する補正手段と、前記補正手段により画質が補正された撮影画像の画質を評価する第2の評価手段と、前記第2の評価手段による評価結果が所定の条件を満たす撮影画像を前記記録媒体から削除する候補として決定する決定手段と、を備えることを特徴としている。   In order to solve the above-described problem, the image photographing apparatus according to claim 1, an imaging unit that photographs a subject and acquires a captured image, a recording unit that records the acquired captured image on a recording medium, and the acquisition First evaluation means for evaluating the image quality of the captured image, and among the captured images recorded on the recording medium, the image quality of the captured image satisfying a predetermined condition as an evaluation result calculated by the first evaluation means Correction means for correcting image quality, second evaluation means for evaluating the image quality of a captured image whose image quality has been corrected by the correction means, and a recorded image in which the evaluation result by the second evaluation means satisfies a predetermined condition Determining means for determining as a candidate to be deleted from the medium.

請求項2に記載の発明は、請求項1に記載の画像撮影装置において、前記記録媒体の残り容量が予め設定された容量以下であるか否かを判定する判定手段を備え、前記決定手段は、前記判定手段により、前記記録媒体の残り容量が予め設定された容量以下であると判定された場合に、前記第2の評価手段による評価結果が所定の条件を満たす撮影画像を前記記録媒体から削除する候補として決定することを特徴としている。   According to a second aspect of the present invention, in the image photographing device according to the first aspect of the present invention, the image photographing apparatus further includes a determination unit that determines whether or not the remaining capacity of the recording medium is equal to or less than a preset capacity. When the determination means determines that the remaining capacity of the recording medium is equal to or less than a preset capacity, a photographed image whose evaluation result by the second evaluation means satisfies a predetermined condition is read from the recording medium. It is characterized in that it is determined as a candidate to be deleted.

請求項3に記載の発明は、請求項1又は2に記載の画像撮影装置において、前記第1の評価手段及び第2の評価手段は、撮影画像の輝度又は濃度のヒストグラム分布に基づいて、当該撮影画像の画質を評価することを特徴としている。   According to a third aspect of the present invention, in the image photographing device according to the first or second aspect, the first evaluation unit and the second evaluation unit are based on a histogram distribution of luminance or density of the captured image. It is characterized by evaluating the quality of captured images.

請求項4に記載の発明は、請求項1又は2に記載の画像撮影装置において、前記第1の評価手段及び第2の評価手段は、撮影画像の周波数特性に基づいて、当該撮影画像の画質を評価することを特徴としている。   According to a fourth aspect of the present invention, in the image photographing device according to the first or second aspect, the first evaluation unit and the second evaluation unit are configured to determine an image quality of the captured image based on a frequency characteristic of the captured image. It is characterized by evaluating.

請求項5に記載の発明は、請求項1又は2に記載の画像撮影装置において、前記第1の評価手段及び第2の評価手段は、撮影画像のブレ又は焦点ボケの度合いに基づいて当該撮影画像の画質を評価することを特徴としている。   According to a fifth aspect of the present invention, in the image photographing device according to the first or second aspect, the first evaluation unit and the second evaluation unit are configured to perform the photographing based on a degree of blurring or defocusing of a photographed image. It is characterized by evaluating the image quality.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、撮影画像に対してガンマ補正を施すことを特徴としている。   According to a sixth aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit performs gamma correction on the photographed image.

請求項7に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、撮影画像の輝度又は濃度のヒストグラム分布を所定の変換式により変換することにより、当該撮影画像を補正することを特徴としている。   According to a seventh aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit converts a histogram distribution of luminance or density of the photographed image by a predetermined conversion formula. Thus, the captured image is corrected.

請求項8に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、撮影画像の輝度又は濃度のヒストグラム分布の平坦化を行うことにより、当該撮影画像を補正することを特徴としている。   According to an eighth aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit performs the flattening of a histogram distribution of luminance or density of the photographed image, thereby It is characterized by correcting captured images.

請求項9に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、画像を平滑化するための空間フィルタを用いて撮影画像を補正することを特徴としている。   According to a ninth aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correcting unit corrects the captured image using a spatial filter for smoothing the image. It is characterized by.

請求項10に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、所定の微分フィルタを用いて撮影画像を鮮鋭化する処理を行うことを特徴としている。   According to a tenth aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit performs a process of sharpening the photographed image using a predetermined differential filter. It is a feature.

請求項11に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、撮影画像を周波数変換し、周波数変換された撮影画像に対して、鮮鋭化処理又はぼかし処理を施すことを特徴としている。   According to an eleventh aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit frequency-converts the captured image, and sharpens the frequency-converted captured image. It is characterized in that the image processing or blurring processing is performed.

請求項12に記載の発明は、請求項1〜5の何れか一項に記載の画像撮影装置において、前記補正手段は、点像分布関数又は線像分布関数を用いて、撮影画像の直線ブレ又は焦点ボケを補正することを特徴としている。   According to a twelfth aspect of the present invention, in the image photographing device according to any one of the first to fifth aspects, the correction unit uses a point spread function or a line image distribution function to linearly blur a photographed image. Alternatively, it is characterized by correcting defocusing.

請求項13に記載の発明は、請求項1〜12の何れか一項に記載の画像撮影装置において、画像劣化が生じる方式で見本画像を撮影する劣化画像撮像手段と、前記劣化画像撮像手段により得られた画像の劣化成分を算出する算出手段と、画像劣化の度合い別に、前記算出手段により算出された画像の劣化成分の情報を記憶する記憶手段と、を備え、前記撮像手段により取得された撮影画像の評価結果が所定の条件を満たす場合、前記補正手段は、当該撮影画像に対応する劣化成分を前記記憶手段から読み出し、その読み出された劣化成分に基づいて当該撮影画像を補正することを特徴としている。   According to a thirteenth aspect of the present invention, in the image photographing device according to any one of the first to twelfth aspects, the degraded image capturing unit that captures a sample image in a manner that causes image degradation, and the degraded image capturing unit. A calculation unit that calculates a deterioration component of the obtained image; and a storage unit that stores information on the deterioration component of the image calculated by the calculation unit according to the degree of image deterioration. When the evaluation result of the captured image satisfies a predetermined condition, the correction unit reads out the degradation component corresponding to the captured image from the storage unit, and corrects the captured image based on the read out degradation component. It is characterized by.

本発明によれば、撮影画像を自動的に評価し、評価結果が所定の条件を満たす画像(例えば、評価値が所定値以下の画像)を自動的に補正し、補正処理後に再度、当該画像を評価し、その評価結果が所定の条件を満たす画像(例えば、評価値が所定値以下の画像)のみを削除可能としたことにより、必要以上に画像を削除することなくなるとともに、記録媒体の空き領域を確実に確保することができる。   According to the present invention, a captured image is automatically evaluated, an image whose evaluation result satisfies a predetermined condition (for example, an image whose evaluation value is equal to or less than a predetermined value) is automatically corrected, and the image is again processed after the correction process. And only the images whose evaluation results satisfy the predetermined condition (for example, images whose evaluation value is equal to or smaller than the predetermined value) can be deleted, so that the image is not deleted more than necessary and the recording medium is free. It is possible to ensure the area.

また、予め、画像劣化が生じる方式で見本画像を撮影して、画像劣化の度合い別に劣化成分を算出して記憶し、実際に撮影された画像の評価結果が所定の条件を満たす場合(例えば、評価値が所定値以下である場合)、記憶手段に記憶された劣化成分に基づいて画像補正を行うことにより、個々の画像撮影装置の性能に合わせた画像補正を容易に行うことができる。また、画像補正の際に劣化成分を算出する必要がないため、画像補正処理を高速に行うことができる。   Further, when a sample image is photographed in advance by a method in which image degradation occurs, a degradation component is calculated and stored for each degree of image degradation, and the evaluation result of the actually photographed image satisfies a predetermined condition (for example, When the evaluation value is equal to or less than a predetermined value), by performing the image correction based on the deterioration component stored in the storage unit, it is possible to easily perform the image correction according to the performance of each image capturing apparatus. Further, since it is not necessary to calculate a deterioration component at the time of image correction, the image correction process can be performed at high speed.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration in the present embodiment will be described.

図1に、本発明の画像撮影装置を適用した実施形態に係るデジタルカメラ1の回路構成を示す。デジタルカメラ1は、図1に示すように、モータ(M)21、レンズ光学系22、CCD23、TG(タイミング発生器)24、垂直ドライバ25、S/H(サンプルホールド回路)26、A/D変換器27、カラープロセス回路28、DMA(Direct Memory Access)コントローラ29、DRAM(Dynamic RAM) I/F(DRAMインターフェース)30、DRAM31、制御部32、VRAM(Video RAM)コントローラ33、VRAM34、デジタルビデオエンコーダ35、キー入力部36、JPEG(Joint Photograph coding Experts Group)回路37、フラッシュメモリ38、通信部39、手ブレ検出センサ40、表示部13により構成される。   FIG. 1 shows a circuit configuration of a digital camera 1 according to an embodiment to which the image photographing apparatus of the present invention is applied. As shown in FIG. 1, the digital camera 1 includes a motor (M) 21, a lens optical system 22, a CCD 23, a TG (timing generator) 24, a vertical driver 25, an S / H (sample hold circuit) 26, and an A / D. Converter 27, color process circuit 28, DMA (Direct Memory Access) controller 29, DRAM (Dynamic RAM) I / F (DRAM interface) 30, DRAM 31, control unit 32, VRAM (Video RAM) controller 33, VRAM 34, digital video The encoder 35, key input unit 36, JPEG (Joint Photograph coding Experts Group) circuit 37, flash memory 38, communication unit 39, camera shake detection sensor 40, and display unit 13 are configured.

モータ(M)21は、制御部32から入力される制御信号に従って駆動し、レンズ光学系22の絞り位置を移動させる。   The motor (M) 21 is driven according to a control signal input from the control unit 32 to move the aperture position of the lens optical system 22.

CCD23は、撮像素子が平面状(2次元)に配列された構造を有し、光入力を電気信号に変換して蓄積する光電変換部、蓄積された電荷を読み出す走査部、電気信号として出力する出力部により構成され、撮影モードでのモニタリング状態において、タイミング発生器(TG)24、垂直ドライバ25によって駆動される。   The CCD 23 has a structure in which imaging elements are arranged in a planar shape (two-dimensional), converts a light input into an electrical signal and stores it, a scanning unit that reads out the stored charge, and outputs it as an electrical signal. It is configured by an output unit, and is driven by a timing generator (TG) 24 and a vertical driver 25 in a monitoring state in the photographing mode.

CCD23の出力部から出力された電気信号は、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整され、S/H(サンプルホールド回路)26は、このゲイン調整された信号をサンプルホールドする。A/D変換器27は、S/H(サンプルホールド回路)26から出力されたアナログ信号をデジタル信号に変換し、カラープロセス回路28に出力する。   The electrical signal output from the output unit of the CCD 23 is appropriately gain-adjusted for each primary color component of RGB in an analog value signal state, and the S / H (sample hold circuit) 26 samples the gain-adjusted signal. Hold. The A / D converter 27 converts the analog signal output from the S / H (sample hold circuit) 26 into a digital signal and outputs the digital signal to the color process circuit 28.

カラープロセス回路28は、A/D変換器27から出力されたデジタル信号に対して画素補間処理及びγ補正処理を含むカラープロセス処理を施し、デジタル値の輝度信号Y及び色差信号Cb、Crを生成し、DMAコントローラ29に出力する。   The color process circuit 28 performs color process processing including pixel interpolation processing and γ correction processing on the digital signal output from the A / D converter 27 to generate a digital luminance signal Y and color difference signals Cb and Cr. And output to the DMA controller 29.

DMAコントローラ29は、カラープロセス回路28から出力された輝度信号Y及び色差信号Cb、Crを、同じくカラープロセス回路28から出力された複合同期信号、メモリ書込みイネーブル信号及びクロック信号を用いて一度DMAコントローラ29内部のバッファに書込み、DRAM I/F30を介してバッファメモリとして使用されるDRAM31にDMA転送を行う。   The DMA controller 29 uses the luminance signal Y and the color difference signals Cb and Cr output from the color process circuit 28 and the DMA controller once using the composite synchronization signal, the memory write enable signal and the clock signal output from the color process circuit 28. The data is written in the internal buffer 29 and DMA transfer is performed to the DRAM 31 used as a buffer memory via the DRAM I / F 30.

制御部32は、CPU(Central Processing Unit)、CPUで実行される動作プログラムを固定的に記憶したROM(Read Only Memory)、ワークメモリとして使用されるRAM(Random Access Memory)等により構成され、デジタルカメラ1の各部の動作を制御する。以下、制御部32による制御動作について説明する。   The control unit 32 includes a CPU (Central Processing Unit), a ROM (Read Only Memory) in which an operation program executed by the CPU is fixedly stored, a RAM (Random Access Memory) used as a work memory, and the like. The operation of each part of the camera 1 is controlled. Hereinafter, the control operation by the control unit 32 will be described.

制御部32は、撮影された画像の画質を評価する画像評価処理を実行する。また、制御部32は、撮影モードが指定されると、フラッシュメモリ38(記録媒体)の残り容量が予め設定された容量以下であるか否かを判定し、記録媒体の残り容量が予め設定され容量以下であると判定された場合、記録媒体に記録された画像のうち、画像評価処理により算出された評価値が所定値以下である撮影画像の画質を補正する補正処理を実行する。そして、制御部32は、画質補正が施された画像の評価処理を再度行い、この画像評価処理により算出された評価値が所定値以下の画像を、記録媒体から削除する候補として決定する。そして、制御部32は、削除候補の画像の中から、キー入力部36の操作により指定された画像を記録媒体から削除する処理を行う。以下の、実施形態において、記録媒体に記録済みのデータを消去する場合だけでなく、記録済みのデータに新しいデータを上書きする場合も、記録済みのデータが「削除」されたものとみなすことにする。   The control unit 32 executes an image evaluation process for evaluating the image quality of the captured image. When the shooting mode is designated, the control unit 32 determines whether or not the remaining capacity of the flash memory 38 (recording medium) is equal to or less than a preset capacity, and the remaining capacity of the recording medium is preset. When it is determined that the capacity is equal to or less than the capacity, a correction process is executed to correct the image quality of a captured image whose evaluation value calculated by the image evaluation process is equal to or less than a predetermined value among images recorded on the recording medium. Then, the control unit 32 performs the evaluation process of the image subjected to the image quality correction again, and determines an image whose evaluation value calculated by the image evaluation process is a predetermined value or less as a candidate to be deleted from the recording medium. Then, the control unit 32 performs processing for deleting the image designated by the operation of the key input unit 36 from the deletion candidate images from the recording medium. In the following embodiments, not only when erasing recorded data on a recording medium but also when overwriting recorded data with new data, it is assumed that the recorded data is “deleted”. To do.

画像評価の方法としては、撮影画像の輝度又は濃度のヒストグラム分布から評価する方法と(画像評価方法1:図7及び図8参照)、撮影画像の周波数特性に基づいて評価する方法と(画像評価方法2:図9〜図11参照)、撮影画像のブレ又は焦点ボケの度合いに基づいて評価する方法(画像評価方法3:図12〜図16)等がある。本実施形態の画像評価処理では、これら複数の画像評価方法の全てが適用される場合を示すが、これら画像評価方法1〜3のうちの何れか一つ又は2つ以上を組み合わせてもよい。   As an image evaluation method, a method of evaluating from a luminance or density histogram distribution of a captured image (image evaluation method 1: see FIGS. 7 and 8), a method of evaluating based on a frequency characteristic of the captured image, and (image evaluation) Method 2: refer to FIGS. 9 to 11), and a method of evaluating based on the degree of blurring or defocusing of a captured image (image evaluation method 3: FIGS. 12 to 16). In the image evaluation process of the present embodiment, a case where all of the plurality of image evaluation methods are applied is shown, but any one or two or more of these image evaluation methods 1 to 3 may be combined.

撮影画像の画質を補正する方法としては、撮影画像にガンマ補正を施す方法と(画像補正方法1:図18参照)、撮影画像の輝度又は濃度のヒストグラム分布を所定の変換式による変換する方法と(画像補正方法2:図19及び図20参照)、撮影画像の輝度又は濃度のヒストグラム分布を平坦化する方法と(画像補正方法3:図21及び図22参照)、撮影画像を平滑化する方法と(画像補正方法4:図23参照)、微分フィルタを用いて撮影画像を鮮鋭化する方法と(画像補正方法5:図24及び図25参照)、周波数変換された撮影画像に鮮鋭化処理を施す方法と(画像補正方法6)、PSF(Point Spread Function)、LPF(Line Spread Function)等を用いて撮影画像の直線ブレ又は焦点ボケを補正する方法(画像補正方法7)等がある。本実施形態では、画像補正方法1〜7のうちの何れか一つ又は2つ以上を組み合わせた画像補正方法を適用することができる。   As a method for correcting the image quality of the photographed image, a method of performing gamma correction on the photographed image (image correction method 1: refer to FIG. 18), a method of converting the luminance or density histogram distribution of the photographed image by a predetermined conversion formula, (Image correction method 2: refer to FIG. 19 and FIG. 20), a method of flattening the histogram distribution of luminance or density of the captured image (image correction method 3: refer to FIG. 21 and FIG. 22), and a method of smoothing the captured image (Image correction method 4: refer to FIG. 23), a method of sharpening a captured image using a differential filter (image correction method 5: refer to FIG. 24 and FIG. 25), and a sharpening process to the frequency-converted captured image. And an image correction method (image correction method 6), a PSF (Point Spread Function), a LPF (Line Spread Function), or the like is used to correct linear blurring or defocusing of a captured image (image correction method 7). In the present embodiment, an image correction method combining any one or two or more of the image correction methods 1 to 7 can be applied.

VRAMコントローラ33は、制御部32の制御により、DRAM31に一時記憶されている画像データ(輝度信号Y及び色差信号Cb、Cr)を、DRAM31からDRAM I/F30を介して読出し、VRAM34に書込む。また、再生モード時、制御部32により伸長された画像データをVRAM34に展開して記憶させる。   The VRAM controller 33 reads the image data (luminance signal Y and color difference signals Cb and Cr) temporarily stored in the DRAM 31 through the DRAM I / F 30 and writes them in the VRAM 34 under the control of the control unit 32. In the reproduction mode, the image data expanded by the control unit 32 is expanded and stored in the VRAM 34.

デジタルビデオエンコーダ35は、VRAM34に記憶されている画像データを、VRAM34からVRAMコントローラ33を介して定期的に読出し、これらのデータを元にビデオ信号を生成して表示部13に出力する。   The digital video encoder 35 periodically reads image data stored in the VRAM 34 from the VRAM 34 via the VRAM controller 33, generates a video signal based on these data, and outputs the video signal to the display unit 13.

キー入力部36は、電源キー、シャッターキー、モードスイッチ、メニューキー及び十字キー等の各種キーにより構成され、それらのキー操作に応じた信号を制御部32に出力する。キー入力部36のシャッターキーは、2段階のストロークで動作し、一般的に「半押し」と表現されている第1段階の操作状態でAE(自動露光)処理やAF(オートフォーカス)処理を始めとする撮影の準備を行い、一般的に「全押し」と表現されている、より強く押圧操作した第2段階の操作状態で撮影を実行する。   The key input unit 36 includes various keys such as a power key, a shutter key, a mode switch, a menu key, and a cross key, and outputs a signal corresponding to the key operation to the control unit 32. The shutter key of the key input unit 36 operates with a two-stage stroke, and performs an AE (automatic exposure) process and an AF (autofocus) process in a first-stage operation state generally expressed as “half-press”. Preparation for the first shooting is performed, and the shooting is performed in the second-stage operation state in which the pressing operation is more strongly expressed, which is generally expressed as “full press”.

JPEG回路37は、CCD23から取り込まれ、DRAM31に一時的に記憶されている画像信号を、ADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピー符号化方式であるハフマン符号化などの処理によりデータ圧縮する。   The JPEG circuit 37 converts the image signal taken from the CCD 23 and temporarily stored in the DRAM 31 into data by processing such as ADCT (Adaptive Discrete Cosine Transform), Huffman coding which is an entropy coding method. Compress.

フラッシュメモリ38は、デジタルカメラ1の記録媒体として着脱自在に装着されるメモリーカード内に封入された不揮発性メモリであり、JEPG回路37により符号化された画像信号が記録される。なお、フラッシュメモリ38は、デジタルカメラ1に内蔵されていてもよい。   The flash memory 38 is a non-volatile memory enclosed in a memory card that is detachably mounted as a recording medium of the digital camera 1, and an image signal encoded by the JEPG circuit 37 is recorded on the flash memory 38. Note that the flash memory 38 may be built in the digital camera 1.

通信部39は、外部機器とケーブルを介したデータ通信を行うためのインターフェースを備える。例えば、通信部39は、IEEE1394やUSB(Universal Serial Bus)等により通信を行うためのインターフェースを備える。なお、外部機器と無線通信手段により通信可能としてもよい。   The communication unit 39 includes an interface for performing data communication with an external device via a cable. For example, the communication unit 39 includes an interface for performing communication using IEEE1394, USB (Universal Serial Bus), or the like. Note that communication with an external device may be possible by wireless communication means.

手ブレ検出センサ40は、加速度センサ等であり、撮影時の手ブレ量(ブレ方向(θ)、ブレの距離(L)等、後述)を検出する。表示部13は、撮影モード時にはモニタ表示部(電子ファインダ)として機能し、デジタルビデオエンコーダ35からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラ33から取込んでいる画像情報に基づくスルー画像をリアルタイムに表示する。   The camera shake detection sensor 40 is an acceleration sensor or the like, and detects an amount of camera shake at the time of shooting (a shake direction (θ), a shake distance (L), etc., which will be described later). The display unit 13 functions as a monitor display unit (electronic finder) in the shooting mode, and performs display based on the video signal from the digital video encoder 35, thereby displaying image information captured from the VRAM controller 33 at that time. Display the through image based on real time.

次に、本実施形態における動作について説明する。
まず、図2のフローチャートを参照して、デジタルカメラ1において実行される画像撮影・削除処理について説明する。
Next, the operation in this embodiment will be described.
First, the image capturing / deleting process executed in the digital camera 1 will be described with reference to the flowchart of FIG.

まず、表示部13に、図4(a)に示すようなメニュー画面が表示される(ステップS1)。図4(a)に示すメニュー画面には、撮影モードを指定するための「撮影モード」ボタン、撮影画像の再生を指定するための「再生モード」ボタン、撮影画像の削除を指定するための「画像の削除」ボタン、その他の各種の設定を指定するための「各種の設定」ボタン等が表示されている。   First, a menu screen as shown in FIG. 4A is displayed on the display unit 13 (step S1). On the menu screen shown in FIG. 4A, a “shooting mode” button for specifying a shooting mode, a “playback mode” button for specifying playback of a shot image, and a “playback mode” button for specifying deletion of a shot image. A “delete image” button, a “various settings” button for specifying various other settings, and the like are displayed.

メニュー画面において、「画像の削除」ボタンが指定されると(ステップS3;YES)、図4(b)及び図5(a)に示すような削除モード画面が表示され、キー入力部36の操作により、画像の自動削除、画質補正等の各種の設定処理が行われ(ステップS4)、設定処理後、ステップS1に戻る。メニュー画面において、「撮影モード」ボタン及び「画像の削除」ボタン以外のボタンが指定された場合(ステップS3;NO)、その指定されたモードに対応する処理が行われ(ステップS5)、ステップS1に戻る。   When the “delete image” button is designated on the menu screen (step S3; YES), a delete mode screen as shown in FIGS. 4B and 5A is displayed, and the key input unit 36 is operated. Thus, various setting processes such as automatic image deletion and image quality correction are performed (step S4). After the setting process, the process returns to step S1. When a button other than the “shooting mode” button and the “delete image” button is designated on the menu screen (step S3; NO), processing corresponding to the designated mode is performed (step S5), and step S1. Return to.

削除モード画面において、「自動削除の設定」ボタンが指定されると、図5(b)に示すような自動削除設定画面が表示される。自動削除設定画面には、図5(b)に示すように、設定項目として、撮影画像の自動削除機能を有効(ON)にするか無効(OFF)にするかを設定するための「自動削除機能」欄と、画像の削除方法を設定するための「削除方法」欄、画像の評価方法を設定するための「評価方法」欄と、各評価機能を有効(ON)にするか無効(OFF)にするかを設定するための「評価項目」欄(例えば、「露出条件評価」項目、「コントラスト評価」項目、「ボケ・ブレ評価」項目)が表示されている。また、各評価項目欄には、評価項目の基準値を設定するための「基準値」欄が表示されている。ここで、評価項目の基準値とは、補正対象、削除対象の基準となる数値であり、この基準値に基づいて画像の評価値が決定される。   When an “automatic deletion setting” button is designated on the deletion mode screen, an automatic deletion setting screen as shown in FIG. 5B is displayed. In the automatic deletion setting screen, as shown in FIG. 5B, “automatic deletion” for setting whether the automatic deletion function of the captured image is enabled (ON) or disabled (OFF) is set as a setting item. "Function" field, "Deletion method" field for setting the image deletion method, "Evaluation method" field for setting the image evaluation method, and each evaluation function is enabled (ON) or disabled (OFF) "Evaluation item" field (for example, "exposure condition evaluation" item, "contrast evaluation" item, "blur / blur evaluation" item) is displayed. In each evaluation item column, a “reference value” column for setting a reference value of the evaluation item is displayed. Here, the reference value of the evaluation item is a numerical value serving as a reference for correction and deletion, and the evaluation value of the image is determined based on this reference value.

図5(a)に示す削除モード画面において、「画質の補正」ボタンが指定されると、図5(c)に示すような補正項目画面が表示される。補正項目画面には、図5(c)に示すように、画質の補正項目として、「露出(濃度レベル)の補正」ボタン、「トーンカーブ(コントラスト)修正」ボタン、「輪郭エッジの強調(シャープ)」ボタン、「ボケ・ブレの補正」ボタン、「ノイズの除去」ボタン、「色調(明度/色相/彩度)の修正」ボタンが表示されている。   When the “image quality correction” button is designated on the deletion mode screen shown in FIG. 5A, a correction item screen as shown in FIG. 5C is displayed. On the correction item screen, as shown in FIG. 5C, as the image quality correction items, an “exposure (density level) correction” button, a “tone curve (contrast) correction” button, and “enhancement of contour edge (sharpness) ) "Button," Blur / blur correction "button," Noise removal "button, and" Color tone (brightness / hue / saturation) correction "button.

図5(a)に示す削除モード画面において、「画質の自動補正の設定」ボタンが指定されると、図5(e)に示すような画質の自動補正設定画面が表示される。図5(e)に示す自動補正設定画面には、撮影画像の自動補正機能、露出条件の補正機能、輪郭エッジを強調する機能、ボケ、ブレの補正機能、ノイズの除去機能の各機能を有効(ON)にするか無効(OFF)にするかを設定するための「自動補正機能」欄、「露出条件の補正」欄、「輪郭エッジ強調」欄、「ボケ・ブレの補正」欄、「ノイズの除去」欄が表示されている。   When the “image quality automatic correction setting” button is designated on the deletion mode screen shown in FIG. 5A, an image quality automatic correction setting screen as shown in FIG. 5E is displayed. In the automatic correction setting screen shown in FIG. 5E, the automatic image correction function, exposure condition correction function, outline edge enhancement function, blur / blur correction function, and noise removal function are enabled. “Automatic correction function” field, “Exposure condition correction” field, “Outline edge enhancement” field, “Blur / blur correction” field, The “Noise removal” column is displayed.

図5(c)に示す補正項目画面において、「露出(濃度レベル)の補正」ボタンが指定されると、図5(d)に示すような露出(濃度レベル)の補正画面が表示され、キー入力部36の操作により、RGBの色毎に、撮影画像の濃度レベルが設定される。また、図5(c)に示す補正項目画面において、「トーンカーブ(コントラスト)修正」ボタンが指定されると、図5(f)に示すようなトーンカーブ修正画面が表示され、キー入力部36の操作により、撮影画像のコントラストが設定される。   When the “exposure (density level) correction” button is designated on the correction item screen shown in FIG. 5C, an exposure (density level) correction screen as shown in FIG. By operating the input unit 36, the density level of the captured image is set for each of the RGB colors. When the “tone curve (contrast) correction” button is designated on the correction item screen shown in FIG. 5C, a tone curve correction screen as shown in FIG. By this operation, the contrast of the captured image is set.

図4(a)に示すメニュー画面において、「撮影モード」ボタンが指定された場合(ステップS2;YES)、デジタルカメラ1のレンズ位置等の初期設定が行われ(ステップS6)、記録媒体(フラッシュメモリ38)の残り容量が設定容量以下であるか否かが判定される(ステップS7)。   When the “shooting mode” button is designated on the menu screen shown in FIG. 4A (step S2; YES), initial settings such as the lens position of the digital camera 1 are made (step S6), and the recording medium (flash It is determined whether the remaining capacity of the memory 38) is less than or equal to the set capacity (step S7).

ステップS7において、記録媒体の残り容量が設定容量以下であると判定された場合(ステップS7;YES)、各撮影画像の評価値に基づいて記録媒体から画像データを削除する画像削除処理が行われる(ステップS8)。画像削除処理の詳細は、後に図3を参照して説明する。   If it is determined in step S7 that the remaining capacity of the recording medium is equal to or less than the set capacity (step S7; YES), an image deletion process is performed to delete image data from the recording medium based on the evaluation value of each captured image. (Step S8). Details of the image deletion processing will be described later with reference to FIG.

ステップS7において、記録媒体の残り容量が設定容量より大きいと判定された場合(ステップS7;NO)又はステップS8の画像削除処理の終了後、測光処理、露出条件の設定等が行われる(ステップS9)。次いで、ズーム処理が行われ(ステップS10)、オートフォーカス処理が行われる(ステップS11)。   If it is determined in step S7 that the remaining capacity of the recording medium is larger than the set capacity (step S7; NO), or after the image deletion process in step S8 is completed, photometric processing, setting of exposure conditions, and the like are performed (step S9). ). Next, zoom processing is performed (step S10), and autofocus processing is performed (step S11).

表示部13に、図6(a)に示すような撮影スルー画像が表示され(ステップS12)、キー入力部36のシャッターキーの押下により撮影が指示されると(ステップS13;YES)、撮影処理が行われ(ステップS14)、撮影画像データが取得される。撮影処理後、撮影処理で取得された撮影画像データの画像評価処理が行われる(ステップS15)。画像評価処理の詳細は、後に図7〜図16を参照して説明する。シャッターキーが押されなかった場合には(ステップS13;NO)、その他(撮影モード以外)のキー入力処理、表示処理等が行われ(ステップS25)、本画像撮影・削除処理が終了する。   A shooting through image as shown in FIG. 6A is displayed on the display unit 13 (step S12). When shooting is instructed by pressing the shutter key of the key input unit 36 (step S13; YES), shooting processing is performed. Is performed (step S14), and photographed image data is acquired. After the shooting process, an image evaluation process is performed on the shot image data acquired by the shooting process (step S15). Details of the image evaluation process will be described later with reference to FIGS. If the shutter key has not been pressed (step S13; NO), other (other than shooting mode) key input processing, display processing, and the like are performed (step S25), and the image shooting / deletion processing ends.

撮影画像データの画像評価処理が終了すると、撮影画像データとその評価値が対応付けて記録媒体に記録され(ステップS16)、撮影画像データ及びその評価値が表示部13に表示される(ステップS17)。なお、ステップS17において、図6(b)に示すように、画像データのサイズ、撮影条件、画質評価値等の画像の詳細データを表示するようにしてもよい。また、画質評価値の各項目や総合評価値は、5点法や10点法又は%に換算して表示するようにしてもよい。   When the image evaluation process for the photographed image data is completed, the photographed image data and its evaluation value are associated and recorded on the recording medium (step S16), and the photographed image data and its evaluation value are displayed on the display unit 13 (step S17). ). In step S17, as shown in FIG. 6B, detailed image data such as the size of image data, shooting conditions, and image quality evaluation values may be displayed. In addition, each item of the image quality evaluation value and the comprehensive evaluation value may be displayed after being converted into a 5-point method, a 10-point method, or%.

次いで、撮影画像の評価値が所定値以下であるか否かが判定される(ステップS18)。ここで、所定値とは、図5(b)の自動削除設定画面において設定された基準値に基づいて決定され、例えば、各評価項目において設定された基準値の合計値等である。ステップS18において、撮影画像の評価値が所定値より大きいと判定された場合(ステップS18;NO)、その他(撮影モード以外)のキー入力処理、表示処理等が行われ(ステップS25)、本画像撮影・削除処理が終了する。   Next, it is determined whether or not the evaluation value of the captured image is equal to or less than a predetermined value (step S18). Here, the predetermined value is determined based on the reference value set on the automatic deletion setting screen in FIG. 5B, and is, for example, the total value of the reference values set in each evaluation item. If it is determined in step S18 that the evaluation value of the photographed image is greater than the predetermined value (step S18; NO), other (other than photographing mode) key input processing, display processing, and the like are performed (step S25). The shooting / deleting process ends.

ステップS18において、撮影画像の評価値が所定値以下であると判定された場合(ステップS18;YES)、表示部13には、図6(c)に示すような自動補正確認プロンプト画面が表示される。自動補正確認プロンプト画面には、図6(c)に示すように、該当する撮影画像と、「この画像を自動補正してもよろしいですか?(Y/N)」というメッセージ及び評価値が表示される。   When it is determined in step S18 that the evaluation value of the captured image is equal to or less than the predetermined value (step S18; YES), an automatic correction confirmation prompt screen as shown in FIG. 6C is displayed on the display unit 13. The On the automatic correction confirmation prompt screen, as shown in FIG. 6C, the corresponding photographed image, a message “Are you sure you want to automatically correct this image? (Y / N)” and an evaluation value are displayed. Is done.

図6(c)に示す自動補正確認プロンプト画面において、画像の自動補正が指定されなかった場合(ステップS19;NO)、ステップS25に移行する。自動補正確認プロンプト画面において、画像の自動補正が指定された場合(ステップS19;YES)、該当する撮影画像の画質の自動補正処理が行われる(ステップS20)。画質の自動補正処理の詳細は、後に図18〜図25を参照して説明する。   If automatic image correction is not specified on the automatic correction confirmation prompt screen shown in FIG. 6C, the process proceeds to step S25. If automatic image correction is designated on the automatic correction confirmation prompt screen (step S19; YES), automatic image quality correction processing of the corresponding captured image is performed (step S20). Details of the automatic image quality correction processing will be described later with reference to FIGS.

ステップS20における画質の自動補正処理が終了すると、補正済みの撮影画像に対する画像評価処理が行われる(ステップS21)。画像評価処理の詳細は、後に図7〜図16を参照して説明する。次いで、表示部13に、図6(d)に示すような補正済み画像の更新確認プロンプト画面が表示される。補正済み画像の更新確認プロンプト画面には、図6(d)に示すように、該当する撮影画像と、「画質を自動補正しました。この画像に更新しますか?(Y/N)」というメッセージ及び評価値が表示される。   When the automatic image quality correction process in step S20 is completed, an image evaluation process is performed on the corrected captured image (step S21). Details of the image evaluation process will be described later with reference to FIGS. Next, an update confirmation prompt screen for the corrected image as shown in FIG. 6D is displayed on the display unit 13. As shown in FIG. 6D, the corrected image update confirmation prompt screen is displayed with the corresponding photographed image and “Image quality is automatically corrected. Do you want to update to this image? (Y / N)”. Messages and evaluation values are displayed.

補正済み画像の更新確認プロンプト画面において、補正済み画像の更新が指定されなかった場合(ステップS23;NO)、ステップS25に移行する。補正済み画像の更新確認プロンプト画面において、補正済み画像の更新が指定された場合(ステップS23;YES)、その補正済み画像が符号化され、評価値とともに記録媒体に記録される(ステップS24)。そして、その他(撮影モード以外)のキー入力処理、表示処理等が行われ(ステップS25)、本画像撮影・削除処理が終了する。   If the update of the corrected image is not designated on the corrected image update confirmation prompt screen (step S23; NO), the process proceeds to step S25. When update of the corrected image is designated on the corrected image update confirmation prompt screen (step S23; YES), the corrected image is encoded and recorded on the recording medium together with the evaluation value (step S24). Then, other key input processing (except for the shooting mode), display processing, and the like are performed (step S25), and the main image shooting / deleting processing ends.

なお、ステップS15及びS21における画像評価処理は、1枚撮影される度に行うようにしてもよいし、一連の撮影処理の終了後に全画像分の処理をまとめて行うようにしてもよい。特に、連写撮影や動画撮影では、撮影性能を保つため、後者の方法を用いるのが好ましい。   Note that the image evaluation processing in steps S15 and S21 may be performed every time one image is captured, or processing for all images may be performed collectively after a series of imaging processing is completed. In particular, in the continuous shooting and the moving image shooting, it is preferable to use the latter method in order to maintain the shooting performance.

次に、図3のフローチャートを参照して、図2に示した画像削除処理の詳細について説明する。   Next, details of the image deletion processing shown in FIG. 2 will be described with reference to the flowchart of FIG.

まず、画像データの自動削除設定がONであるか否か(画像データの自動削除機能が有効であるか否か)が判定される(ステップS30)。ステップS30において、自動削除設定がOFFであると判定された場合(ステップS30;NO)、表示部13に、記録媒体の残り容量がなくなっている旨が表示されるとともに(ステップS31)、マニュアル操作での画像削除を確認するための確認プロンプト画面が表示される(ステップS32)。   First, it is determined whether or not the image data automatic deletion setting is ON (whether or not the image data automatic deletion function is enabled) (step S30). If it is determined in step S30 that the automatic deletion setting is OFF (step S30; NO), the display unit 13 displays that the remaining capacity of the recording medium is exhausted (step S31) and manual operation. A confirmation prompt screen for confirming image deletion at is displayed (step S32).

表示部13に表示された確認プロンプト画面上において、マニュアル操作での画像削除が指定されると(ステップS33;YES)、マニュアル操作による画像の削除モードに移行し(ステップS34)、本画像削除処理が終了する。ステップS34では、ユーザは、記録媒体の容量を確認しながら画像を削除する。マニュアル操作での画像削除が指定されなかった場合(ステップS33;NO)、本画像削除処理が終了する。   When image deletion by manual operation is designated on the confirmation prompt screen displayed on the display unit 13 (step S33; YES), the mode shifts to an image deletion mode by manual operation (step S34), and this image deletion processing is performed. Ends. In step S34, the user deletes the image while checking the capacity of the recording medium. When image deletion by manual operation is not designated (step S33; NO), the image deletion process ends.

ステップS30において、自動削除設定がONであると判定された場合(ステップS30;YES)、表示部13に、図6(e)に示すように、「メモリーの残りがありません!削除する候補を検索します。」というメッセージが表示され、記録媒体に記録済みの画像は画像評価処理済であるか否かが判定される(ステップS35)。   If it is determined in step S30 that the automatic deletion setting is ON (step S30; YES), “There is no remaining memory! Search for candidates to be deleted” as shown in FIG. Is displayed, and it is determined whether the image recorded on the recording medium has been subjected to the image evaluation process (step S35).

ステップS35において、記録済み画像が画像評価処理済でないと判定された場合(ステップS35;NO)、記録済み画像の画像評価処理が行われ(ステップS36)、後述のステップS37に移行する。ステップS36の画像評価処理の詳細は、後に図7〜図16を参照して説明する。   If it is determined in step S35 that the recorded image has not been subjected to the image evaluation process (step S35; NO), the image evaluation process for the recorded image is performed (step S36), and the process proceeds to step S37 described later. Details of the image evaluation processing in step S36 will be described later with reference to FIGS.

ステップS35において、記録済み画像が画像評価処理済であると判定された場合(ステップS35;YES)又はステップS36の画像評価処理が終了すると、記録媒体に記録された画像のうち、評価値が所定値以下の画像が検索され(ステップS37)、評価値が最も低い順に、補正対象の画像が選択される(ステップS38)。   In step S35, when it is determined that the recorded image has been subjected to the image evaluation process (step S35; YES) or when the image evaluation process in step S36 is completed, an evaluation value is set to a predetermined value among the images recorded on the recording medium. Images below the value are searched (step S37), and correction target images are selected in the order of lowest evaluation value (step S38).

補正対象の撮影画像が選択されると、表示部13には、図6(c)に示すような自動補正確認プロンプト画面が表示される(ステップS39)。自動補正確認プロンプト画面には、図6(c)に示すように、選択された撮影画像と、「この画像を自動補正してもよろしいですか?(Y/N)」というメッセージ及び評価値が表示される。   When a photographic image to be corrected is selected, an automatic correction confirmation prompt screen as shown in FIG. 6C is displayed on the display unit 13 (step S39). On the automatic correction confirmation prompt screen, as shown in FIG. 6C, the selected photographed image, the message “Are you sure you want to automatically correct this image? (Y / N)” and the evaluation value are displayed. Is displayed.

図6(c)に示す自動補正確認プロンプト画面において、画像の自動補正が指定されなかった場合(ステップS40;NO)、後述のステップS45に移行する。自動補正確認プロンプト画面において、画像の自動補正が指定された場合(ステップS40;YES)、該当する撮影画像の画質の自動補正処理が行われる(ステップS41)。画質の自動補正処理の詳細は、後に図18〜図25を参照して説明する。   When automatic image correction is not designated on the automatic correction confirmation prompt screen shown in FIG. 6C (step S40; NO), the process proceeds to step S45 described later. If automatic image correction is designated on the automatic correction confirmation prompt screen (step S40; YES), automatic correction processing of the image quality of the corresponding captured image is performed (step S41). Details of the automatic image quality correction processing will be described later with reference to FIGS.

画質の自動補正処理が終了すると、補正済み画像を再度評価する画像評価処理が行われる(ステップS42)。ステップS42の画像評価処理の詳細は、後に図7〜図16を参照して説明する。次いで、表示部13に、補正済み画像及びその評価値が表示され(ステップS43)、その補正済み画像の評価値が所定値以下であるか否かが判定される(ステップS44)。ここで、所定値とは、図5(b)の自動削除設定画面において設定された基準値に基づいて決定され、例えば、各評価項目において設定された基準値の合計値等である。   When the automatic image quality correction process is completed, an image evaluation process for evaluating the corrected image again is performed (step S42). Details of the image evaluation processing in step S42 will be described later with reference to FIGS. Next, the corrected image and its evaluation value are displayed on the display unit 13 (step S43), and it is determined whether or not the evaluation value of the corrected image is equal to or less than a predetermined value (step S44). Here, the predetermined value is determined based on the reference value set on the automatic deletion setting screen in FIG. 5B, and is, for example, the total value of the reference values set in each evaluation item.

ステップS44において、補正済み画像の評価値が所定値より大きいと判定された場合(ステップS44;NO)、次の補正対象の候補が検索され(ステップS49)、ステップS38に戻る。ステップS44において、補正済み画像の評価値が所定値以下であると判定された場合(ステップS44;YES)、その補正済み画像が記録媒体から削除する候補として決定され、表示部13に、図6(f)に示すように、削除確認プロンプト画面が表示される(ステップS45)。削除確認プロンプト画面には、該当する画像と、「この画像を削除してもよろしいですか?(Y/N)」というメッセージ及び評価値が表示される。   If it is determined in step S44 that the evaluation value of the corrected image is greater than the predetermined value (step S44; NO), the next candidate for correction is searched (step S49), and the process returns to step S38. In step S44, when it is determined that the evaluation value of the corrected image is equal to or smaller than the predetermined value (step S44; YES), the corrected image is determined as a candidate to be deleted from the recording medium, and the display unit 13 displays FIG. As shown in (f), a deletion confirmation prompt screen is displayed (step S45). The deletion confirmation prompt screen displays a corresponding image, a message “Are you sure you want to delete this image? (Y / N)”, and an evaluation value.

削除確認プロンプト画面において、該当する画像の削除が指定されなかった場合(ステップS46;NO)、記録媒体に記録済みの画像の中から、次の補正対象の候補が検索され(ステップS49)、ステップS38に戻る。削除確認プロンプト画面において、該当する画像の削除が指定された場合(ステップS46;YES)、該当画像が記録媒体から削除され(ステップS47)、現在の記録媒体の残り容量が新規撮影で得られる画像データを保存するのに十分であるか否かが判定される(ステップS48)。   If deletion of the corresponding image is not designated on the deletion confirmation prompt screen (step S46; NO), a candidate for the next correction target is searched from images already recorded on the recording medium (step S49), and step Return to S38. When deletion of the corresponding image is designated on the deletion confirmation prompt screen (step S46; YES), the corresponding image is deleted from the recording medium (step S47), and the remaining capacity of the current recording medium is obtained by new shooting. It is determined whether the data is sufficient to save (step S48).

ステップS48において、記録媒体の残り容量が新規撮影の画像データを保存するのに十分であると判定された場合(ステップS48;YES)、本画像削除処理が終了する。ステップS48において、記録媒体の残り容量が新規撮影の画像データを保存するのに十分でないと判定された場合(ステップS48;NO)、記録媒体に記録済みの画像の中から、次の補正対象の候補が検索され(ステップS49)、ステップS38に戻る。   If it is determined in step S48 that the remaining capacity of the recording medium is sufficient to store newly captured image data (step S48; YES), the image deletion process ends. If it is determined in step S48 that the remaining capacity of the recording medium is not sufficient to store newly captured image data (step S48; NO), the next correction target is selected from the images already recorded on the recording medium. Candidates are searched (step S49), and the process returns to step S38.

なお、図3のフローチャートでは、表示部13に、図6(f)に示すような削除確認プロンプト画面を表示して、削除する画像をユーザに確認させ、ユーザから指定された画像を削除するようにしたが、削除候補として決定された画像を自動的に削除するようにしてもよい。   In the flowchart of FIG. 3, a deletion confirmation prompt screen as shown in FIG. 6F is displayed on the display unit 13 so that the user confirms the image to be deleted, and the image specified by the user is deleted. However, an image determined as a deletion candidate may be automatically deleted.

次に、図2及び図3の画像評価処理で適用される画像評価方法の詳細を説明する。   Next, details of the image evaluation method applied in the image evaluation processing of FIGS. 2 and 3 will be described.

<画像評価方法1:輝度ヒストグラム分布に基づく評価>
まず、図7及び図8を参照して、撮影画像の輝度又は濃度のヒストグラム分布から画質を評価する方法について説明する。
<Image evaluation method 1: Evaluation based on luminance histogram distribution>
First, a method for evaluating image quality from a histogram distribution of luminance or density of a captured image will be described with reference to FIGS.

2次元画像データの各点(i、j)の輝度値をf(i、j)=xとし、輝度値別に画素数を集計することにより、図7に示すような輝度分布図(輝度のヒストグラム分布)P(x)が作成される。一般に、輝度のヒストグラム分布が中央からはずれて右端側(輝度値大:濃度のヒストグラム分布では左端側)に偏ると、露出オーバーで、高輝度領域が飽和したり、いわゆる「白飛び」した画像になる。逆に、輝度ヒストグラム分布が左端側(濃度ヒストグラム分布では右端側)に偏ると、露出アンダーで、低輝度領域が飽和したり、「黒つぶれ」した画像になる。また、分布が中央に集中していても、その分布幅が狭くて一様に広く分布していない場合には、ダイナミックレンジが狭く、中間諧調や細かな濃淡に欠けた画像となる。これらの何れも、撮影時の露出条件が悪く、写りの良くない画像の典型である。撮影画像の輝度又は濃度分布特性の指標値や統計量から、露出条件の良し悪しを評価できる。最近のデジタルカメラの多くは、この輝度値を集計演算して、ヒストグラム(頻度分布図)をグラフ表示したりできる機種が多いので、この機能を流用すれば、比較的容易に画像評価を行うことができる。   A luminance distribution diagram (brightness histogram) as shown in FIG. 7 is obtained by setting the luminance value of each point (i, j) of the two-dimensional image data to f (i, j) = x and counting the number of pixels for each luminance value. Distribution) P (x) is created. In general, if the luminance histogram distribution deviates from the center and is biased to the right end side (large luminance value: left end side in the density histogram distribution), the image is overexposed and the high luminance area is saturated or a so-called “out-of-white” image. Become. Conversely, if the luminance histogram distribution is biased to the left end side (right end side in the density histogram distribution), the image is underexposed and the low luminance area is saturated or “blackout”. Even if the distribution is concentrated in the center, if the distribution width is narrow and not uniformly distributed, the dynamic range is narrow, and the image lacks intermediate gradation and fine gradation. Both of these are typical images that have poor exposure conditions at the time of shooting and are not well captured. Whether the exposure condition is good or bad can be evaluated from the index value or statistic of the luminance or density distribution characteristic of the photographed image. Many of the recent digital cameras can calculate the luminance values and display the histogram (frequency distribution diagram) as a graph, so if this function is used, image evaluation can be performed relatively easily. Can do.

本実施形態では、撮影画像の輝度又は濃度のヒストグラム分布から、輝度又は濃度の最頻値(最も頻度数が多い輝度値又は濃度値)、平均値、中央値(分布の頻度数の順位が中央にある輝度値又は濃度値)等の分布の代表値、分布の最大値、最小値、分散、標準偏差、歪み度、尖り度等を算出し、算出結果から、画像評価のための評価値が決定される。   In this embodiment, from the histogram distribution of the luminance or density of the photographed image, the mode of luminance or density (the luminance value or density value having the highest frequency), the average value, and the median (the order of the frequency numbers of the distribution is the center) The representative value of the distribution (such as the luminance value or density value), the maximum value, the minimum value, the variance, the standard deviation, the distortion degree, the kurtosis degree, etc. of the distribution are calculated, and the evaluation value for image evaluation is calculated from the calculation result. It is determined.

輝度又は濃度のヒストグラム分布の平均値xM、分散(Variance)σ2、標準偏差(Standard Deviation)σ、歪み度(Skewness)Skew、尖り度(Kurtosis)Kurtは、画素iの輝度値をxi、評価対象の画像の総画素数をNとすると、それぞれ、式(1)〜(5)のように表される。

Figure 2006050494
The average value x M of the histogram distribution of luminance or density, variance σ 2 , standard deviation σ, skewness Skew, kurtosis Kurt is the luminance value of pixel i x i. Assuming that the total number of pixels of the evaluation target image is N, these are expressed as equations (1) to (5), respectively.
Figure 2006050494

ここで、分布の歪み度Skewは、分布が左右対称かどうかの非対称性を示す。分布が左右対称であれば0、右に大きなはずれ値があれば(露出オーバーの場合)正、左に大きなはずれ値があれば(露出アンダーの場合)負となる。また、分布の尖り度Kurtは、分布が正規分布ならば0、正規分布より広がりが大きければ(ダイナミックレンジが広い場合)正、正規分布より広がりが小さければ(ダイナミックレンジが狭い場合)負となる。   Here, the degree of distortion Skew of the distribution indicates asymmetry whether the distribution is symmetrical. If the distribution is bilaterally symmetrical, it is 0, if there is a large outlier value on the right (when overexposed), and positive if there is a large outlier value on the left (underexposed). The kurtosis Kurt of the distribution is 0 if the distribution is a normal distribution, positive if the spread is larger than the normal distribution (when the dynamic range is wide), and negative if the spread is smaller than the normal distribution (if the dynamic range is narrow). .

このように、輝度又は濃度のヒストグラム分布の統計量に基づいて、分布の幅や広がり、その偏り、分布曲線の形状や特徴を判別し、画質の評価が可能となり、これらを元に画質の評価値が決定される。   In this way, based on the statistics of the histogram distribution of luminance or density, it is possible to determine the width and spread of the distribution, its bias, the shape and characteristics of the distribution curve, and to evaluate the image quality. The value is determined.

撮影画像がカラー画像である場合、図8に示すように、RGBの各色毎に、輝度又は濃度のヒストグラム分布PR(x)、PG(x)、PB(x)を作成し、色毎に、分布の平均値、分散、標準偏差、歪み度、尖り度、変動係数CV等の統計量を算出し、算出された色毎の統計量の違いや比較によって、画質の評価値を決定するようにしてもよい。ここで、変動係数CVは、式(6)のように定義される。

Figure 2006050494
When the captured image is a color image, as shown in FIG. 8, histogram distributions P R (x), P G (x), P B (x) of luminance or density are created for each color of RGB, and the color Each time, statistics such as distribution average, variance, standard deviation, degree of distortion, kurtosis, coefficient of variation CV, etc. are calculated, and the evaluation value of image quality is determined by the difference and comparison of the calculated statistics for each color. You may make it do. Here, the variation coefficient CV is defined as in Expression (6).
Figure 2006050494

<画像評価方法2:周波数特性に基づく評価>
次に、図9〜図11を参照して、撮影画像の周波数特性から画質を評価する方法について説明する。
<Image evaluation method 2: Evaluation based on frequency characteristics>
Next, a method for evaluating the image quality from the frequency characteristics of the captured image will be described with reference to FIGS.

撮影画像(2次元画像データ)の各点の輝度値又は濃度値f(x,y)を周波数変換したF(u,v)を算出し、周波数毎の振幅値や係数から、画像の周波数特性、画像全体に占める高周波成分や低周波成分の比率等から、画像のボケの程度や、鮮明度(シャープネス)、コントラスト等を評価することができる。周波数変換としては、フーリエ変換、離散フーリエ変換(DFT:Discrete Fourier Transform)、離散コサイン変換(DCT:Discrete Cosine Transform)、それらを高速計算する高速フーリエ変換(FFT:Fast Fourier Transform)アルゴリズム等を用いることができる。最近のデジタルカメラは、JPEG等の圧縮符号化のためにDCT用のDSP(Digital Signal Processor)やソフトウェアを内蔵しているものが多いので、この機能を流用すれば、比較的容易に画像評価を行うことができる。   F (u, v) obtained by frequency-converting the luminance value or density value f (x, y) of each point of the captured image (two-dimensional image data) is calculated, and the frequency characteristic of the image is obtained from the amplitude value and coefficient for each frequency. From the ratio of high-frequency components and low-frequency components in the entire image, the degree of image blur, sharpness, contrast, and the like can be evaluated. As the frequency transform, Fourier transform, discrete Fourier transform (DFT), discrete cosine transform (DCT), fast Fourier transform (FFT) algorithm for calculating them at high speed, or the like is used. Can do. Many recent digital cameras have a built-in DCT DSP (Digital Signal Processor) and software for JPEG and other compression coding, so if this function is used, image evaluation is relatively easy. It can be carried out.

2次元画像データの輝度値又は濃度値f(x,y)の離散フーリエ変換式は、式(7)のように表される。

Figure 2006050494
A discrete Fourier transform expression of the luminance value or density value f (x, y) of the two-dimensional image data is expressed as Expression (7).
Figure 2006050494

また、2次元画像データの輝度値又は濃度値f(x,y)の離散コサイン変換式は、式(8)のように表される。

Figure 2006050494
Also, the discrete cosine transform equation for the luminance value or density value f (x, y) of the two-dimensional image data is expressed as equation (8).
Figure 2006050494

このように、2次元画像f(x、y)を周波数空間に変換して、周波数成分F(u、v)を算出し、全周波数成分に占める高周波成分の比率、全周波数成分に占める低周波成分の比率に基づいて画像の評価値を決定することができる。また、図9に示すように、予め、撮影画像を順次走査して1次元信号に並び替えてから周波数変換を施して、評価値を算出してもよいし、図10に示すように、撮影画像を周波数変換したF(u、v)の振幅値を、ジグザグ走査などで1次元に並び替えてから、評価値を算出するようにしてもよい。   As described above, the two-dimensional image f (x, y) is converted into the frequency space, the frequency component F (u, v) is calculated, the ratio of the high frequency component occupying all the frequency components, and the low frequency occupying all the frequency components. The evaluation value of the image can be determined based on the ratio of the components. Also, as shown in FIG. 9, the captured image may be scanned in advance and rearranged into a one-dimensional signal and then subjected to frequency conversion to calculate the evaluation value, or as shown in FIG. The evaluation value may be calculated after the amplitude value of F (u, v) obtained by frequency-converting the image is rearranged in one dimension by zigzag scanning or the like.

本実施形態では、全周波数成分に占める高周波成分の比率を画質評価値とし、全周波数成分に占める低周波成分の比率をボケ評価値とする。即ち、画質評価値、ボケ評価値は、それぞれ、式(9)、式(10)のように表すことができる。
画質評価値=(高周波成分の振幅値合計)/(全周波数成分の振幅値合計) (9)
ボケ評価値=(全周波数成分の振幅値合計−高周波成分の振幅値合計)/(全周波数成分の振幅値合計) (10)
In the present embodiment, the ratio of high frequency components to all frequency components is set as an image quality evaluation value, and the ratio of low frequency components to all frequency components is set as a blur evaluation value. That is, the image quality evaluation value and the blur evaluation value can be expressed as Expression (9) and Expression (10), respectively.
Image quality evaluation value = (total amplitude value of high frequency components) / (total amplitude value of all frequency components) (9)
Blur evaluation value = (total amplitude value of all frequency components−total amplitude value of high frequency components) / (total amplitude value of all frequency components) (10)

また、図11に示すように、撮影画像の輝度値又は濃度値f(x、y)の周波数分布(振幅(度数)−周波数の関係)を求め、画像評価方法1と同様に、この周波数分布の平均値、分散、標準偏差等の統計量を算出し、算出された統計量に基づいて画質の評価値を決定するようにしてもよい。周波数成分iの振幅値をF[i]、周波数成分の合計をNとすると、この分布の平均値fM、分散σ2、標準偏差σは、それぞれ、以下の式(11)〜式(13)のように表すことができる。

Figure 2006050494
Further, as shown in FIG. 11, the frequency distribution (amplitude (frequency) -frequency relationship) of the luminance value or density value f (x, y) of the photographed image is obtained, and this frequency distribution is obtained in the same manner as the image evaluation method 1. Statistical values such as average value, variance, standard deviation, and the like may be calculated, and an image quality evaluation value may be determined based on the calculated statistical values. Assuming that the amplitude value of the frequency component i is F [i] and the total of the frequency components is N, the average value f M , variance σ 2 , and standard deviation σ of this distribution are represented by the following equations (11) to (13), respectively. ).
Figure 2006050494

<画像評価方法3:画像のブレの具合又はボケの度合いに基づく評価>
次に、図12〜図16を参照して、撮影画像のブレの具合又はボケの度合いに基づいて画質を評価する方法について説明する。
<Image Evaluation Method 3: Evaluation Based on Image Blur or Degree of Blur>
Next, with reference to FIGS. 12 to 16, a method for evaluating the image quality based on the degree of blurring or the degree of blur of the captured image will be described.

図12に、画像の変換や復元等に用いるPSF(Point Spread Function:点像分布関数、点広がり関数)法等を利用して、ブレやボケを判別評価する方法について示す。一般に、PSF法による画像復元では、ブレやボケのない本来の画像i(x,y)と、ブレやボケを生じさせる成分p(x,y)により、劣化した劣化画像g(x,y)を表す。即ち、劣化画像g(x,y)は、式(14)のように表される。
g(x,y)=p(x,y)*i(x,y) (14)
ここで、*は、コンボリューション(畳み込み積分)演算を表す。
FIG. 12 shows a method for discriminating and evaluating blur and blur using a PSF (Point Spread Function) method used for image conversion and restoration. In general, in image restoration by the PSF method, a degraded image g (x, y) deteriorated due to an original image i (x, y) without blurring or blurring and a component p (x, y) that causes blurring or blurring. Represents. That is, the deteriorated image g (x, y) is expressed as in Expression (14).
g (x, y) = p (x, y) * i (x, y) (14)
Here, * represents a convolution (convolution integration) operation.

p(x,y)を、PSF、LSF(Line Spread Function:線像分布関数)として、劣化させたp(x,y)を算出することができれば、本来の画像i(x,y)を、デコンボリューション(逆畳み込み積分)演算により求めることができる。以下、本来の画像i(x,y)の算出方法を説明する。   If p (x, y) deteriorated by calculating p (x, y) as PSF and LSF (Line Spread Function), the original image i (x, y) It can be obtained by deconvolution (deconvolution integration) calculation. Hereinafter, a method for calculating the original image i (x, y) will be described.

まず、式(14)に示す劣化画像g(x、y)を、フーリエ変換等により周波数軸に変換する。周波数変換された劣化画像をG(u、v)とすると、G(u、v)は、式(15−1)のように表される。

Figure 2006050494
First, the degraded image g (x, y) shown in Expression (14) is converted into the frequency axis by Fourier transform or the like. Assuming that the degraded image subjected to frequency conversion is G (u, v), G (u, v) is expressed as in Expression (15-1).
Figure 2006050494

また、p(x、y)、i(x、y)を周波数変換したものを、それぞれP(u、v)、I(u、v)とすると、G(u、v)は、式(15−2)のように表すこともできる。
G(u、v)=P(u、v)・I(u、v) (15−2)
ここで、コンボリューションは、周波数軸上では、フーリエ変換同士の掛け算となる。周波数領域で、式(15−2)のP(u、v)が算出できれば、逆フィルタとして1/P(u、v)を計算し、本来の画像i(x、y)を復元することができる。即ち、I(u、v)=G(u、v)/P(u、v)(フーリエ変換同士の割り算)を算出し、これを逆フーリエ変換してi(x、y)を求めればよい。式(16)にI(u、v)の逆フーリエ変換式を示す。

Figure 2006050494
Also, if p (x, y) and i (x, y) are frequency-converted as P (u, v) and I (u, v), respectively, G (u, v) is expressed by equation (15). -2).
G (u, v) = P (u, v) · I (u, v) (15-2)
Here, the convolution is a multiplication of Fourier transforms on the frequency axis. If P (u, v) in equation (15-2) can be calculated in the frequency domain, 1 / P (u, v) can be calculated as an inverse filter to restore the original image i (x, y). it can. That is, I (u, v) = G (u, v) / P (u, v) (division between Fourier transforms) is calculated, and i (x, y) is obtained by inverse Fourier transform. . Expression (16) shows an inverse Fourier transform expression of I (u, v).
Figure 2006050494

本実施形態では、このPSF法におけるPSFやP(u、v)の算出方法を、一般のアマチュアの撮影画像で、露出設定の失敗と並んで多い、「焦点ボケ」画像や「直線ブレ」画像の判別や評価に適用する。一般に、直線ブレした画像をフーリエ変換したG(u、v)の振幅値の分布は、図12(b)に示すような直線ブレのパターンとなり、中央付近の高周波成分がブレ角度に従って数本の細長い筋や傾斜した楕円形状に抜けて歪んだパターンが現れる。また、焦点ボケした画像をフーリエ変換したG(u、v)は、図12(d)に示すような焦点ボケの画像パターンとなり、中央部の高周波成分が同心円状に抜けて歪んだパターンとなる。また、直線ブレと焦点ボケが共に生じると、図12(c)に示すような、両方の特徴を合せもったパターンとなる。   In this embodiment, the PSF or P (u, v) calculation method in the PSF method is a general amateur photographed image, along with failure of exposure setting, which is often a “focus blur” image or a “linear blur” image. Applies to discrimination and evaluation. In general, the distribution of amplitude values of G (u, v) obtained by performing a Fourier transform on an image that has undergone linear blurring has a linear blur pattern as shown in FIG. 12B, and high-frequency components near the center are several in accordance with the blur angle. A distorted pattern appears in the form of elongated stripes or slanted ellipses. Further, G (u, v) obtained by performing Fourier transform on the defocused image becomes a defocused image pattern as shown in FIG. 12 (d), and becomes a distorted pattern in which the high-frequency component in the center portion is lost concentrically. . When both straight blurring and out-of-focus blur occur, a pattern having both features as shown in FIG. 12C is obtained.

本実施形態では、直線ブレの評価値が、G(u、v)の振幅値が周期1/Lでゼロ交差する方向のブレ方向角度(θ)と、ブレの距離又はその画素数(L)に基づいて決定されるものとする。また、焦点ボケの評価値が、G(u,v)の振幅値が周期1.01π/rでゼロ交差する同心円状の焦点の広がり半径又はその画素数(r)に基づいて決定されるものとする。ブレ方向角度(θ)、ブレの距離(L)、焦点の広がり半径(r)を算出するには、PSF法、多階調Hough変換法、逆フィルタ法等を適用できるが、以下では、PSF法と多階調Hough変換を用いた算出方法について説明する。   In the present embodiment, the evaluation value of linear blur is the blur direction angle (θ) in the direction in which the amplitude value of G (u, v) zero-crosses with a period 1 / L, and the blur distance or the number of pixels (L). It shall be determined based on Further, the evaluation value of the focal blur is determined based on the concentric focal spread radius where the amplitude value of G (u, v) zero-crosses with a period of 1.01π / r or the number of pixels (r). And In order to calculate the blur direction angle (θ), the blur distance (L), and the focal spread radius (r), the PSF method, the multi-tone Hough transform method, the inverse filter method, and the like can be applied. The calculation method using the method and multi-gradation Hough transform will be described.

まず、図13(a)に示すように、直線ブレ等の劣化画像をフーリエ変換したG(u,v)のフーリエ・スペクトルの中央部の円内を、(複数点を通る直線の推定や検出等に広く用いられる)Hough変換により、θ―ρ空間上の多階調の2次元画像H(θ、ρ)に変換し、H(θ、ρ)値の角度θ毎に切り出したHθ(ρ)波形を比較し、各角度θ(0°≦θ<180°)におけるエントロピーE(θ)を求める。エントロピーE(θ)は、式(17)のように表される。

Figure 2006050494
式(17)のHsum(θ)は、劣化画像G(u,v)のフーリエ・スペクトルが示す円内の画素値の合計である。式(17)に示すエントロピーE(θ)が最小となる角度θを、直線ブレ方向(θ)とみなすことができる。また、図13(b)に示すように、直線ブレ方向(θ)のHθ(ρ)波形の極小点の周期(TL)を求めると、ブレ距離(L)=1/TLが求まる。 First, as shown in FIG. 13 (a), within a circle at the center of the Fourier spectrum of G (u, v) obtained by Fourier transform of a deteriorated image such as linear blur (estimation and detection of straight lines passing through a plurality of points). Hough (ρ, which is widely used for the above), is converted into a multi-gradation two-dimensional image H (θ, ρ) in the θ-ρ space and cut out for each angle θ of the H (θ, ρ) value. ) Waveforms are compared to determine entropy E (θ) at each angle θ (0 ° ≦ θ <180 °). Entropy E (θ) is expressed as shown in Equation (17).
Figure 2006050494
Hsum (θ) in Expression (17) is the sum of the pixel values in the circle indicated by the Fourier spectrum of the degraded image G (u, v). The angle θ at which the entropy E (θ) shown in the equation (17) is minimized can be regarded as the linear blur direction (θ). Further, as shown in FIG. 13B, when the period (TL) of the minimum point of the Hθ (ρ) waveform in the linear blur direction (θ) is obtained, the blur distance (L) = 1 / TL is obtained.

焦点ボケの広がり半径(r)を算出するには、まず、図14に示すように、H(θ、ρ)をθ軸方向に0°〜179°まで平均化したC(ρ)波形を作成する。C(ρ)は、式(18)のように表される。

Figure 2006050494
C(ρ)波形の極小点の周期(Tr)から、焦点ボケの広がり半径(r)は、半径(r)=1.01×π/Trより求まる。 To calculate the defocusing radius (r), first, as shown in FIG. 14, a C (ρ) waveform is created by averaging H (θ, ρ) from 0 ° to 179 ° in the θ-axis direction. To do. C (ρ) is expressed as in Expression (18).
Figure 2006050494
From the period (Tr) of the local minimum point of the C (ρ) waveform, the spread radius (r) of the focal blur is obtained from the radius (r) = 1.01 × π / Tr.

図15及び図16に、上記の方法で用いたHough変換(ハフ変換)の原理を示す。Hough変換では、ρ=xcosθ+ysinθの変換式により、一般の2次元座標(x−y平面上の点)はθ‐ρ平面上の曲線に変換され、x−y平面上の直線は、θ‐ρ平面上の点に逆変換できる。例えば、x−y平面上の点A、B、Cを通る直線Lを求める場合には、図15に示すように、点A、B、CをHough変換した、θ‐ρ平面上の曲線A’、B’、C’が交差する交点P(θL、ρL)を求める。そして、その交点P(θL、ρL)をx−y平面上にHough逆変換し、ゼロ点から下ろした垂線の長さがρLで、垂線の角度がθLとなる直線Lが、求める直線となる。 15 and 16 show the principle of Hough transform (Hough transform) used in the above method. In the Hough transform, a general two-dimensional coordinate (a point on the xy plane) is converted into a curve on the θ-ρ plane by a conversion formula of ρ = x cos θ + y sin θ, and a straight line on the xy plane is θ-ρ It can be converted back to a point on the plane. For example, when a straight line L passing through points A, B, and C on the xy plane is obtained, a curve A on the θ-ρ plane obtained by performing Hough transform on the points A, B, and C as shown in FIG. Find the intersection P (θ L , ρ L ) where ', B' and C 'intersect. Then, the intersection P (θ L , ρ L ) is inversely transformed into Hough on the xy plane, and the length of the perpendicular drawn from the zero point is ρ L , and the straight line L having the perpendicular angle θ L is The straight line to be obtained.

Hough変換の配列H(θ、ρ)の明度(多階調を有する輝度又は濃度)をH(θ、ρ)=f(x、y)として多階調の2次元画像として定義し、図15に示すような複数曲線の交点を求める場合には、図16に示すように、明度(階調値)を加算して、階調値が最も大きくなる点(図16の斜線部分)を交点として、近似計算で迅速に求めることができる。   The brightness (brightness or density having multiple gradations) of the Hough transform array H (θ, ρ) is defined as H (θ, ρ) = f (x, y) as a two-dimensional image having multiple gradations. As shown in FIG. 16, the lightness (gradation value) is added and the point where the gradation value is the largest (the shaded area in FIG. 16) is used as the intersection. Can be quickly obtained by approximate calculation.

以上のように、画像を劣化させたPSF関数を算出する方法、ゼロクロス法、多階調Hough変換等により、劣化画像g(x、y)を周波数軸上にフーリエ変換したG(u,v)から、直線ブレ画像の方向(角度θ)、直線ブレの距離(画素数L)、焦点ボケ画像の焦点広がり半径(画素数r)を算出し、これらθ、L、rに基づいて画像の評価値が決定される。θ、L、rの値が大きくなるほど評価値は小さくなる。   As described above, G (u, v) obtained by Fourier-transforming the deteriorated image g (x, y) on the frequency axis by the method of calculating the PSF function that deteriorates the image, the zero cross method, the multi-gradation Hough transform, or the like. From this, the direction of the straight blur image (angle θ), the straight blur distance (number of pixels L), and the focal spread radius (number of pixels r) of the defocus image are calculated, and the image is evaluated based on these θ, L, and r. The value is determined. The evaluation value decreases as the values of θ, L, and r increase.

図17に、本実施形態で適用される画質補正処理の概念図を示す。
画質補正処理は、デジタルカメラ1に入力された撮影画像の各画素の輝度値(又は濃度値)f(i,j)或いはその周辺の画素配列に、所定の変換表などを参照しながら、画質補正演算を施し、補正後の出力画像g(i,j)或いは所定の特徴量を出力するものである。
FIG. 17 shows a conceptual diagram of image quality correction processing applied in the present embodiment.
The image quality correction processing is performed by referring to a predetermined conversion table or the like for the luminance value (or density value) f (i, j) of each pixel of the captured image input to the digital camera 1 or the surrounding pixel array. A correction calculation is performed, and a corrected output image g (i, j) or a predetermined feature amount is output.

変換表としては、例えば、輝度変換などの入出力特性の変換式、変換用のLUT(Look Up Table)(変換表)、加重マトリックス(行列)、空間フィルタ係数などの演算子(オペレータ)等を利用すればよく、画質補正演算には、点処理演算、注目画素と周囲8点等を対象にする局所処理演算、画像全体に演算を施す大局処理演算を適用することができる。   As the conversion table, for example, conversion expressions of input / output characteristics such as luminance conversion, LUT (Look Up Table) (conversion table) for conversion, weighting matrix (matrix), operators (operators) such as spatial filter coefficients, etc. As the image quality correction calculation, a point processing calculation, a local processing calculation targeting the pixel of interest and eight surrounding points, and a global processing calculation for calculating the entire image can be applied.

点処理演算としては、濃度ヒストグラム変換処理、2値化処理、座標変換処理、画像間演算がある。局所処理演算としては、ノイズ除去演算、微分演算、積和演算、フィルタ演算、エッジ抽出処理、膨張収縮処理、細線化処理などがある。大局処理演算としては、フーリエ変換等の直交変換演算、テクスチャー解析処理等を適用することができる。   The point processing calculation includes density histogram conversion processing, binarization processing, coordinate conversion processing, and inter-image calculation. Examples of the local processing calculation include noise removal calculation, differentiation calculation, product-sum calculation, filter calculation, edge extraction processing, expansion / contraction processing, thinning processing, and the like. As the global processing computation, orthogonal transformation computation such as Fourier transformation, texture analysis processing, or the like can be applied.

次に、図2及び図3の画質の自動補正処理で適用される画像補正方法1〜7について説明する。   Next, image correction methods 1 to 7 applied in the automatic image quality correction processing of FIGS. 2 and 3 will be described.

<画像補正方法1:ガンマ補正>
まず、図18を参照して、ガンマ補正処理について説明する。
ガンマ(γ)補正は、CCD(Charge Coupled Device)等の撮像素子の入出力特性曲線を、変換テーブルを用いて補正するもので、入力画像の輝度又は濃度をf(i,j)=L、γ補正後の出力画像の輝度又は濃度をg(i,j)=L'とすると、γ補正の変換式は、式(19)のように定義される。

Figure 2006050494
図18の変換テーブルαは、式(19)においてγ=0.5、(定数)=(255)-2とした場合の入力Lと出力L'の関係を示すテーブルである。 <Image correction method 1: Gamma correction>
First, gamma correction processing will be described with reference to FIG.
The gamma (γ) correction is to correct an input / output characteristic curve of an image sensor such as a CCD (Charge Coupled Device) using a conversion table. The luminance or density of an input image is f (i, j) = L, Assuming that the luminance or density of the output image after γ correction is g (i, j) = L ′, the conversion equation for γ correction is defined as in equation (19).
Figure 2006050494
The conversion table α in FIG. 18 is a table showing the relationship between the input L and the output L ′ when γ = 0.5 and (constant) = (255) −2 in equation (19).

<画像補正方法2:輝度又は濃度のヒストグラム分布の変換による補正>
次に、図19及び図20を参照して、撮影画像の輝度又は濃度のヒストグラム分布を変換することによる補正について説明する。
<Image correction method 2: Correction by conversion of luminance or density histogram distribution>
Next, correction by converting a histogram distribution of luminance or density of a captured image will be described with reference to FIGS.

入力された撮影画像の輝度をf(i,j)=x、変換後の画像の輝度をg(i,j)=yとすると、図19に示すように、撮影画像の輝度のヒストグラム分布P(x)を、線形又は非線形の輝度変換式y=Q(x)によって変換すると、P(x)とは異なる特性の輝度ヒストグラム分布P(y)が得られる。輝度ヒストグラム分布P(x)における輝度xの最小値をa、最大値をb、変換後の輝度ヒストグラム分布P(y)における輝度yの最小値をu、最大値をvとすると、図19に示した輝度変換式y=Q(x)は、式(20)のように表される。

Figure 2006050494
v−u>b−aである場合、ダイナミックレンジが狭くコントラストの悪い入力画像の輝度ヒストグラム分布P(x)を輝度変換式(20)により変換することにより、ダイナミックレンジが広がり、コントラストや中間諧調の濃淡表現を改善することができる。なお、式(20)における定数v、u、a、bの値を変えれば、ダイナミックレンジの収縮や、輝度ヒストグラム分布の左右シフト(全体の輝度を上げる、下げる)等にも応用できる。 Assuming that the luminance of the input photographed image is f (i, j) = x and the luminance of the converted image is g (i, j) = y, as shown in FIG. When (x) is converted by a linear or non-linear luminance conversion equation y = Q (x), a luminance histogram distribution P (y) having characteristics different from P (x) is obtained. If the minimum value of luminance x in the luminance histogram distribution P (x) is a, the maximum value is b, the minimum value of luminance y in the converted luminance histogram distribution P (y) is u, and the maximum value is v, FIG. The shown luminance conversion equation y = Q (x) is expressed as equation (20).
Figure 2006050494
When v−u> b−a, by converting the luminance histogram distribution P (x) of the input image having a narrow dynamic range and poor contrast by the luminance conversion equation (20), the dynamic range is expanded, and contrast and intermediate gradation are obtained. It is possible to improve the shading expression. Note that if the values of constants v, u, a, and b in Equation (20) are changed, the present invention can also be applied to dynamic range contraction, left / right shift of the luminance histogram distribution (increasing or decreasing the overall luminance), and the like.

図20に、その他の輝度変換式の例を示す。
図20(a)は、画像の輝度を、(輝度が低いものほど)全体的に暗くする補正処理を行う場合の非線形の輝度変換式の一例であり、式(21)のように表される。
y=v(x/b)2 (21)
FIG. 20 shows examples of other luminance conversion expressions.
FIG. 20A is an example of a non-linear luminance conversion equation in the case of performing a correction process in which the luminance of an image is darkened as a whole (lower luminance), and is expressed as equation (21). .
y = v (x / b) 2 (21)

図20(b)及び(c)は、画像の輝度を、(輝度が高いものほど)全体的に明るくする補正処理を行う場合の非線形の輝度変換式の例であり、それぞれ、式(22)、式(23)のように表される。
y=−v{(x−b)/b}2+v (22)
y/v=log(1+μ・x/b)/log(1+μ) (23)
FIGS. 20B and 20C are examples of non-linear luminance conversion formulas in the case of performing a correction process in which the luminance of an image is brightened as a whole (the higher the luminance), respectively, the equations (22) , Expressed as equation (23).
y = −v {(x−b) / b} 2 + v (22)
y / v = log (1 + μ x / b) / log (1 + μ) (23)

また、図20(d)及び(e)は、輝度が高い領域の輝度を上げ、輝度が低い領域の輝度を下げる場合の輝度変換式の例である。図20(d)に示すS字状の輝度変換式は、式(24)のように表される。

Figure 2006050494
図20(e)に示す輝度変換式は、式(25)のように表される。
Figure 2006050494
図20(d)又は(e)に示すような輝度変換式を用いると、階調表現のトーンカーブ(色調曲線)やコントラストを改善することができる。 20D and 20E are examples of luminance conversion formulas in the case where the luminance of a region with high luminance is increased and the luminance of a region with low luminance is decreased. The S-shaped luminance conversion equation shown in FIG. 20D is expressed as equation (24).
Figure 2006050494
The luminance conversion equation shown in FIG. 20 (e) is expressed as equation (25).
Figure 2006050494
By using a luminance conversion formula as shown in FIG. 20D or 20E, the tone curve (tone curve) and contrast of gradation expression can be improved.

このように、線形や非線形の輝度又は濃度の変換式により、濃度や輝度のヒストグラム分布を変換することにより、露出条件の設定が悪くて「白飛び」や「黒つぶれ」した画像、コントラストや階調表現の悪い画像等のダイナミックレンジの拡大や、コントラストの改善、画面の明暗、中間諧調の濃淡表現、トーンカーブの改善など、画質の補正や加工を行うことができる。   In this way, by converting the histogram distribution of density and brightness using a linear or non-linear brightness or density conversion formula, images with “exposure” or “blackout” due to poor exposure condition settings, contrast and gradation Image quality correction and processing can be performed, such as widening the dynamic range of images with poor tonal expression, improving contrast, light and dark on the screen, halftone gradation expression, and tone curve improvement.

また、RGB各色別の輝度ヒストグラム分布毎に上記の補正処理を施して、ヒストグラム分布を改善したり、RGB各色の輝度の加重バランスなどを補正するようにしてもよい。例えば、水中撮影写真等によくあるように、B(青)色成分の露出オーバー気味で輝度は高いが、R(赤)色成分が(水に吸収されて)減じて露出アンダーになってしまった画像では、B(青)色成分のヒストグラムを少し左側にシフトして弱め、逆にR(赤)色成分のヒストグラムを少し右側にシフトして強めるなど、RGB各色のヒストグラムの偏りを調整して、全体の露出バランスを補正することができる。   Further, the above correction processing may be performed for each luminance histogram distribution for each RGB color to improve the histogram distribution or correct the weighted balance of the luminance of each RGB color. For example, as is often the case with underwater photography, the B (blue) color component is overexposed and the brightness is high, but the R (red) color component is reduced (absorbed by water), resulting in underexposure. In the image, the B (blue) color component histogram is shifted slightly to the left to weaken, and the R (red) color component histogram is shifted slightly to the right to strengthen the histogram. Thus, the overall exposure balance can be corrected.

〈画像補正方法3:輝度又は濃度のヒストグラム分布の平坦化による補正〉
次に、図21及び図22を参照して、撮影画像の輝度又は濃度のヒストグラム分布の平坦化による補正方法について説明する。
<Image correction method 3: Correction by flattening histogram distribution of luminance or density>
Next, a correction method by flattening the histogram distribution of luminance or density of a captured image will be described with reference to FIGS.

図21に示すように、入力画像の輝度又は濃度のヒストグラム分布P(x)の偏った分布(図21(a))を、P(x)の積分値を階調変換式として用いることにより、一様にフラットなヒストグラム分布P(y)(図21(b))が得られる。   As shown in FIG. 21, by using a distribution (FIG. 21 (a)) in which the luminance or density histogram distribution P (x) of the input image is biased and using the integral value of P (x) as a gradation conversion equation, A uniformly flat histogram distribution P (y) (FIG. 21B) is obtained.

図21に示すヒストグラム分布の平坦化処理について、図22のフローチャートを参照して説明する。   The histogram distribution flattening process shown in FIG. 21 will be described with reference to the flowchart of FIG.

補正対象の画像が入力されると(ステップS60)、入力画像の横画素数×縦画素数が全画素数Nとして設定される(ステップS61)。次いで、補正後の出力画像の階調数m(0〜m−1)が決定され(ステップS62)、平均出現頻度数(1階調あたりの画素数)がN/mに設定される(ステップS63)。   When an image to be corrected is input (step S60), the number of horizontal pixels × the number of vertical pixels of the input image is set as the total number of pixels N (step S61). Next, the number of gradations m (0 to m-1) of the output image after correction is determined (step S62), and the average number of appearance frequencies (number of pixels per gradation) is set to N / m (step S62). S63).

次いで、入力画像のヒストグラムが計算される(ステップS64)。次いで、階調輝度(又は濃度)をカウントするためのカウンタ値k(0〜m−1)が0に設定され(ステップS65)、階調kの合計数をカウントするためのカウンタ値Hist(k)が0に設定される(ステップS66)。   Next, a histogram of the input image is calculated (step S64). Next, the counter value k (0 to m-1) for counting the gradation luminance (or density) is set to 0 (step S65), and the counter value Hist (k for counting the total number of gradations k. ) Is set to 0 (step S66).

次いで、入力画像の階調輝度(又は濃度)が低い方から順に画素が取り出され、出力画像の該当画素の階調がkに設定される(ステップS67)。そして、階調kの合計数Hist(k)がインクリメントされ(ステップS68)、現在の合計数Hist(k)が平均出現頻度数N/mより大きいか否かが判定される(ステップS69)。   Next, pixels are extracted in order from the lowest gradation luminance (or density) of the input image, and the gradation of the corresponding pixel of the output image is set to k (step S67). Then, the total number Hist (k) of the gradation k is incremented (step S68), and it is determined whether or not the current total number Hist (k) is larger than the average appearance frequency number N / m (step S69).

ステップS69において、Hist(k)がN/m以下であると判定された場合(ステップS69;NO)、ステップS67に戻り、ステップS67及びS68の処理が繰り返される。ステップS69において、Hist(k)がN/mより大きいと判定された場合(ステップS69;YES)、階調kがインクリメントされ(ステップS70)、現在の階調kが、階調の最大値m−1より大きいか否かが判定される(ステップS71)。   If it is determined in step S69 that Hist (k) is N / m or less (step S69; NO), the process returns to step S67, and the processes of steps S67 and S68 are repeated. If it is determined in step S69 that Hist (k) is greater than N / m (step S69; YES), the gradation k is incremented (step S70), and the current gradation k is the maximum gradation value m. It is determined whether it is larger than −1 (step S71).

ステップS71において、階調kがm−1以下であると判定された場合(ステップS71;NO)、ステップS66に戻り、ステップS66〜S70の処理が繰り返される。ステップS71において、階調kがm−1より大きいと判定された場合(ステップS71;YES)、階調変換後の画像が出力され(ステップS72)、本ヒストグラム平坦化処理が終了する。   If it is determined in step S71 that the gradation k is equal to or less than m−1 (step S71; NO), the process returns to step S66, and the processes of steps S66 to S70 are repeated. If it is determined in step S71 that the gradation k is greater than m−1 (step S71; YES), an image after gradation conversion is output (step S72), and the histogram flattening process ends.

〈画像補正方法4:画像の平滑化による補正〉
次に、図23を参照して、撮影画像の平滑化による補正方法について説明する。
<Image Correction Method 4: Correction by Smoothing Image>
Next, with reference to FIG. 23, a correction method by smoothing a captured image will be described.

入力画像の着目画素とその周囲からなる9画素に対し、図23(a)又は(b)に示すような平均値(MEAN)フィルタA(K,L)による空間フィルタ演算を施すことにより、画像全体が平滑化される。入力画像をf(i,j)、フィルタ演算後の出力画像をg(i,j)とすると、平均値フィルタA(K,L)を用いた空間フィルタ演算は、式(26)のように表される。

Figure 2006050494
このようなフィルタ演算によって、入力画像のごま塩ノイズが除去され、明瞭度が落ち、ぼかす効果がある。明瞭度をあまり落とさずに、ノイズを除去するためには、メディアン(中央値)フィルタを用いた処理が有効である。メディアンフィルタは、着目画素とその周囲の9画素のうち、輝度が大きい方から5番目の中央値を、着目画素の新しい輝度値とするフィルタである。 By performing a spatial filter operation with an average value (MEAN) filter A (K, L) as shown in FIG. 23A or 9B on the pixel of interest of the input image and its surrounding pixels, the image The whole is smoothed. Assuming that the input image is f (i, j) and the output image after the filter operation is g (i, j), the spatial filter operation using the average value filter A (K, L) is as shown in Expression (26). expressed.
Figure 2006050494
By such a filter operation, the sesame salt noise of the input image is removed, the clarity is lowered, and there is an effect of blurring. A process using a median (median) filter is effective in removing noise without significantly reducing the intelligibility. The median filter is a filter that uses, as the new luminance value of the pixel of interest, the fifth median value from the highest luminance among the pixel of interest and the surrounding nine pixels.

〈画像補正方法5:微分フィルタを用いた鮮鋭化による補正〉
次に、図24及び図25を参照して、撮影画像の輪郭やエッジ成分を強調して、画像のボケを減じて、鮮鋭化する補正処理について説明する。
<Image correction method 5: Correction by sharpening using a differential filter>
Next, with reference to FIG. 24 and FIG. 25, correction processing for enhancing the outline and edge components of a captured image, reducing the blur of the image, and sharpening will be described.

図24(a)のように、階調が変化する部分のエッジがボケた画像f(i,j)を一次微分することによって、画像f(i,j)の勾配(Gradient)を求めると、図24(b)のように、階調が変化する勾配部分が抽出され、凹凸が得られる。画像f(i,j)の一次微分は、式(27)のように表される。
Δxf(i,j)=f(i+1,j)−f(i-1,j)、 Δyf(i,j)=f(i,j+1)−f(i,j-1) (27)
ここで、Δxは、x方向(横方向)の一次微分であり、Δyは、y方向(縦方向)の一次微分を表す。また、方向をもたない勾配は、式(28)、式(29)、式(30)のように表される。

Figure 2006050494
As shown in FIG. 24A, when the gradient of the image f (i, j) is obtained by first-order differentiation of the image f (i, j) in which the edge of the portion where the gradation changes is blurred, As shown in FIG. 24B, a gradient portion where the gradation changes is extracted, and unevenness is obtained. The first derivative of the image f (i, j) is expressed as in Expression (27).
Δxf (i, j) = f (i + 1, j) −f (i−1, j), Δyf (i, j) = f (i, j + 1) −f (i, j−1) ( 27)
Here, Δx is the first derivative of the x direction (lateral direction), and Δy represents the first derivative of the y direction (vertical direction). In addition, the gradient having no direction is represented by Expression (28), Expression (29), and Expression (30).
Figure 2006050494

画像f(i,j)の一次微分を更に微分する二次微分では、図24(c)に示すように、左右逆向きのN字状の波形となり、高周波成分が強調された画像が得られる。画像f(i,j)の二次微分(Laplaciant)は、式(31)又は式(32)のように表される。

Figure 2006050494
In the second derivative for further differentiating the first derivative of the image f (i, j), as shown in FIG. 24C, an N-shaped waveform in the opposite direction is obtained, and an image in which high frequency components are emphasized is obtained. . The second derivative (Laplaciant) of the image f (i, j) is expressed as in Expression (31) or Expression (32).
Figure 2006050494

式(27)に示す一次微分は、図25(a)に示すようなPrewittフィルタ、図25(b)に示すようなSobelフィルタ、Kirschフィルタ、Robertsフィルタ等が用いられる。図25において、入力画像にPrewittフィルタを作用させると、A−A'線上の入力画像は、図25(d)に示すような出力画像となり、入力画像にSobelフィルタを作用させると、A−A'線上の入力画像は、図25(e)に示すような出力画像となる。また、原画像(入力画像)から、二次微分が施された画像を差し引く演算を行うフィルタの一例を図25(c)に示す。図25(c)に示すようなフィルタを用いると、図25(f)に示すように、エッジ部分の高周波成分が強調された画像が得られる。即ち、このフィルタは、画像のボケたエッジや輪郭などを強調し、画像の鮮明度(シャープネス)を増加し、鮮鋭化する補正に利用することができる。   For the first derivative shown in the equation (27), a Prewitt filter as shown in FIG. 25A, a Sobel filter, a Kirsch filter, a Roberts filter as shown in FIG. In FIG. 25, when the Prewitt filter is applied to the input image, the input image on the line AA ′ becomes an output image as shown in FIG. 25D, and when the Sobel filter is applied to the input image, AA 'The input image on the line is an output image as shown in FIG. FIG. 25C shows an example of a filter that performs an operation of subtracting an image subjected to second order differentiation from the original image (input image). When a filter as shown in FIG. 25C is used, an image in which the high-frequency component at the edge portion is emphasized is obtained as shown in FIG. That is, this filter can be used for correction that enhances the sharpness of an image by enhancing the blurred edge or outline of the image, and sharpening the image.

図25(a)〜(c)に示すような微分フィルタをW(K,L)とすると、微分フィルタW(K,L)を用いたフィルタ演算は、式(33)のように表される。

Figure 2006050494
例えば、図25(c)に示したフィルタW(K,L)による演算は、式(33−1)のように表される。
Figure 2006050494
Assuming that the differential filter as shown in FIGS. 25A to 25C is W (K, L), the filter operation using the differential filter W (K, L) is expressed as in Expression (33). .
Figure 2006050494
For example, the calculation by the filter W (K, L) illustrated in FIG. 25C is expressed as Expression (33-1).
Figure 2006050494

〈画像補正方法6:周波数変換された画像に鮮鋭化処理を施す補正〉
次に、周波数変換された撮影画像に鮮鋭化処理を施すことによる補正処理について説明する。
<Image Correction Method 6: Correction for sharpening the frequency-converted image>
Next, correction processing by performing sharpening processing on a frequency-converted captured image will be described.

画像補正方法6は、2次元の離散フーリエ変換(DFT)、離散コサイン変換(DCT)等の周波数変換により周波数空間上に変換した画像データの低周波成分或いは高周波成分に対して、鮮鋭化処理、ぼかし処理、輪郭強調処理等のフィルタ処理を施すものである。2次元画像f(x,y)の離散フーリエ変換の変換式、離散コサイン変換の変換式は、それぞれ、画像評価方法2で示した式(7)、式(8)と同一である。   The image correction method 6 is a sharpening process for low-frequency components or high-frequency components of image data converted into a frequency space by frequency conversion such as two-dimensional discrete Fourier transform (DFT) or discrete cosine transform (DCT). Filter processing such as blurring processing and contour enhancement processing is performed. The conversion formula of the discrete Fourier transform and the conversion formula of the discrete cosine transform of the two-dimensional image f (x, y) are the same as the expressions (7) and (8) shown in the image evaluation method 2, respectively.

周波数変換されたF(u,v)の直流成分及び低周波成分を残し(又は、増強し)、高周波成分を0にすると、低周波通過フィルタ(LPF)と同等の処理となり、エッジや輪郭を弱め、画像をぼかす補正となる。また、周波数変換されたF(u,v)の直流成分及び高周波成分を残し(又は増強し)、低周波成分を0とすると、高周波通過フィルタ(HPF)と同等の処理となり、エッジや輪郭を強調する補正となる。また、周波数変換されたF(u,v)の高周波成分の値を増大させるか、F(u,v)に一次微分フィルタ又は二次微分フィルタ(ラプラシアンフィルタ)を作用させた場合も、エッジや輪郭を強調する補正となる。周波数空間上で上述のような処理が施された画像を周波数逆変換(離散フーリエ逆変換、離散コサイン逆変換等)すると、鮮鋭化処理、ぼかし処理等が施された画像を得ることができる。   If the DC component and low-frequency component of F (u, v) subjected to frequency conversion are left (or enhanced) and the high-frequency component is set to 0, the processing becomes the same as that of the low-frequency pass filter (LPF), and edges and contours are removed. It is a weakening correction that blurs the image. Further, if the DC component and the high-frequency component of F (u, v) subjected to frequency conversion are left (or enhanced) and the low-frequency component is set to 0, the processing becomes the same as that of the high-frequency pass filter (HPF), and edges and contours are removed. This is a correction to emphasize. Further, when the value of the high frequency component of F (u, v) subjected to frequency conversion is increased or when a primary differential filter or a secondary differential filter (Laplacian filter) is applied to F (u, v), This is a correction that emphasizes the contour. When an image subjected to the above-described processing in the frequency space is subjected to frequency inverse transform (discrete Fourier inverse transform, discrete cosine inverse transform, etc.), an image subjected to sharpening processing, blurring processing, and the like can be obtained.

〈画像補正方法7:PSF法を用いた補正〉
次に、PSF法等を用いて、手ブレなどによる直線ブレ画像、ピンボケ等の焦点ボケ画像の補正処理について説明する。
<Image Correction Method 7: Correction Using PSF Method>
Next, correction processing of a linearly blurred image due to camera shake or the like and a defocused image such as a blurred image using the PSF method will be described.

直線ブレや焦点ボケのない本来の画像i(x,y)が、ブレやボケなどの劣化成分p(x,y)により劣化した画像g(x,y)をフーリエ変換したG(u,v)を求め、その周波数空間上のパターンから、画像評価方法3に示したように、直線ブレの方向(角度θ)、直線ブレの距離(画素数L)、焦点ボケの広がり半径(画素数r)が算出される。   G (u, v) obtained by Fourier transforming an image g (x, y) in which an original image i (x, y) having no linear blurring or defocusing is deteriorated by a degradation component p (x, y) such as blurring or blurring. ), And from the pattern on the frequency space, as shown in the image evaluation method 3, the straight blur direction (angle θ), the straight blur distance (number of pixels L), the focal blur spread radius (pixel number r) ) Is calculated.

θ方向に周期1/Lでゼロ交差する直線ブレが生じている場合、式(15−2)のP(u、v)は、下記の式(34)のように表される。
P(u、v)=sin(πfL)/πfL (34)
ここで、f=ucosθ+vsinθである。そして、G(u、v)と、式(34)のP(u、v)から、ブレの無い本来の画像のフーリエ変換画像I(u、v)=G(u、v)/P(u、v)を求め、このI(u、v)を式(16)に示すように逆フーリエ変換して本来の画像i(x、y)を求めることができる。
In the case where a straight line blur that crosses zero with a period of 1 / L occurs in the θ direction, P (u, v) in Expression (15-2) is expressed as Expression (34) below.
P (u, v) = sin (πfL) / πfL (34)
Here, f = u cos θ + v sin θ. Then, from G (u, v) and P (u, v) in equation (34), the original Fourier-transformed image I (u, v) = G (u, v) / P (u , V), and the original image i (x, y) can be obtained by inverse Fourier transforming this I (u, v) as shown in equation (16).

周期1.01π/rで同心円状のゼロ交差をする焦点ボケが生じている場合、式(15−2)のP(u、v)は、下記の式(35)のように表される。
P(u、v)=2・J1(r・R)/r・R (35)
ここで、式(35)のJ1は、1次の第1種ベッセル関数である。そして、上述と同様に、受信された画像データをフーリエ変換したG(u、v)と、式(35)のP(u、v)から、焦点ボケの無い本来の画像のフーリエ変換画像I(u、v)=G(u、v)/P(u、v)を求め、このI(u、v)を式(16)に示すように逆フーリエ変換して本来の画像i(x、y)を求めることができる。
In the case where a focal blur having a concentric zero crossing occurs at a cycle of 1.01π / r, P (u, v) in Expression (15-2) is expressed as Expression (35) below.
P (u, v) = 2 · J1 (r · R) / r · R (35)
Here, J1 in Equation (35) is a first-order first-type Bessel function. Then, similarly to the above, from the G (u, v) obtained by Fourier transform of the received image data and P (u, v) in the equation (35), the Fourier transform image I ( u, v) = G (u, v) / P (u, v) is obtained, and the original image i (x, y) is obtained by performing inverse Fourier transform on this I (u, v) as shown in Expression (16). ).

なお、一般的なPSF、LSF、逆フィルタ法、最小2乗法等の方法を用いてp(x,y)やP(u,v)を算出してもよいし、ウィナー・フィルタ等のその他の方法で逆フィルタ(インバースフィルタ)を求めたり、デコンボリューション演算を行って、画像の復元やブレ、ボケの補正を行うようにしてもよい。   Note that p (x, y) or P (u, v) may be calculated by using a general PSF, LSF, inverse filter method, least square method, or other methods such as a Wiener filter. An inverse filter (inverse filter) may be obtained by a method, or a deconvolution operation may be performed to restore an image or correct blur and blur.

以上のように、本実施形態のデジタルカメラ1によれば、記録媒体の残り容量が予め設定された容量以下である場合、撮影画像を自動的に評価して、評価値が所定値以下の画像を自動的に補正し、補正処理後であっても画像の評価値が所定値以下である画像のみを削除するようにしたことにより、必要以上に画像を削除することなくなるとともに、記録媒体の空き領域を確実に確保することができる。   As described above, according to the digital camera 1 of the present embodiment, when the remaining capacity of the recording medium is equal to or less than a preset capacity, the captured image is automatically evaluated, and an image whose evaluation value is equal to or less than a predetermined value. Is automatically corrected, and even after correction processing, only images whose image evaluation values are below a predetermined value are deleted, so that images are not deleted more than necessary and recording media is free. It is possible to ensure the area.

(変形例)
次に、図26〜図28を参照して、上述の実施形態の変形例について説明する。本変形例では、デジタルカメラ1の生産工程で、ブレ、ボケ等の劣化成分を計測してデジタルカメラ1内に設定しておき、この設定された劣化成分に基づいて撮影画像の補正処理を行う例について説明する。なお、本変形例では、デジタルカメラ1の生産工程で設定される画像の劣化成分が、直線ブレ、焦点ボケである場合を示すが、他の劣化成分についても本変形例を適用することができる。
(Modification)
Next, a modification of the above-described embodiment will be described with reference to FIGS. In this modification, in the production process of the digital camera 1, degradation components such as blurring and blurring are measured and set in the digital camera 1, and a captured image is corrected based on the set degradation components. An example will be described. In addition, although this modification shows the case where the degradation component of the image set in the production process of the digital camera 1 is linear blurring or defocusing, this modification can also be applied to other degradation components. .

まず、図26のフローチャートを参照して、デジタルカメラ1の生産工程において実行されるブレ劣化成分設定処理について説明する。   First, with reference to the flowchart of FIG. 26, the blur deterioration component setting process executed in the production process of the digital camera 1 will be described.

まず、撮影対象である見本画像i(x,y)が設定されるとともに(ステップS80)、直線ブレ方向角度θが0に設定され(ステップS81)、更に、直線ブレ距離Lが0に設定される(ステップS82)。次いで、ブレ方向角度がθ、ブレ距離がLの直線ブレを生じさせて見本画像が撮影され、撮影画像g(x,y)が取得される(ステップS83)。ステップS83では、ロボットハンドや、専用の実験装置等を用いて、ブレが生じるように撮影される。   First, a sample image i (x, y) to be photographed is set (step S80), the linear blur direction angle θ is set to 0 (step S81), and the linear blur distance L is set to 0. (Step S82). Next, a sample image is captured by causing a linear blur having a blur direction angle θ and a blur distance L, and a captured image g (x, y) is obtained (step S83). In step S83, the image is shot so as to cause blurring using a robot hand, a dedicated experimental device, or the like.

次いで、撮影画像g(x,y)がフーリエ変換され、周波数空間での撮影画像G(u,v)が求められる(ステップS84)。次いで、見本画像i(x,y)をフーリエ変換したI(u,v)と、撮影画像をフーリエ変換したG(u,v)により、劣化成分p(x,y)をフーリエ変換したP(u,v)=G(u,v)/I(u,v)が算出され、この算出されたP(u,v)が、ブレ方向角度がθ、ブレ距離がLの劣化成分P1(θ,L)として、制御部32のメモリ(ROM)に記憶される(ステップS85)。   Next, the captured image g (x, y) is Fourier-transformed to obtain a captured image G (u, v) in the frequency space (step S84). Next, the degradation component p (x, y) is subjected to Fourier transform P (I (u, v) obtained by Fourier transform of the sample image i (x, y) and G (u, v) obtained by Fourier transform of the photographed image. u, v) = G (u, v) / I (u, v) is calculated, and the calculated P (u, v) is a degradation component P1 (θ with a blur direction angle θ and a blur distance L. , L) is stored in the memory (ROM) of the control unit 32 (step S85).

次いで、ブレ距離Lがインクリメントされ(ステップS86)、現在のブレ距離Lが予め設定された最大値Lmax以上であるか否かが判定される(ステップS87)。ステップS87において、ブレ距離LがLmax未満であると判定された場合(ステップS87;NO)、ステップS83に戻り、ステップS83〜S86の処理が繰り返される。   Next, the blur distance L is incremented (step S86), and it is determined whether or not the current blur distance L is equal to or greater than a preset maximum value Lmax (step S87). If it is determined in step S87 that the blur distance L is less than Lmax (step S87; NO), the process returns to step S83, and the processes in steps S83 to S86 are repeated.

ステップS87において、ブレ距離LがLmax以上であると判定された場合(ステップS87;YES)、ブレ方向角度θがインクリメントされ(ステップS88)、現在のブレ方向角度θが予め設定された最大値θmax以上であるか否かが判定される(ステップS89)。   If it is determined in step S87 that the blur distance L is greater than or equal to Lmax (step S87; YES), the blur direction angle θ is incremented (step S88), and the current blur direction angle θ is set to a preset maximum value θmax. It is determined whether or not this is the case (step S89).

ステップS89において、ブレ方向角度θがθmax未満であると判定された場合(ステップS89;NO)、ステップS83に戻り、ステップS83〜S88の処理が繰り返される。ステップS89において、ブレ方向角度θがθmax以上であると判定された場合(ステップS89;YES)、本ブレ劣化成分設定処理が終了する。   If it is determined in step S89 that the blur direction angle θ is less than θmax (step S89; NO), the process returns to step S83, and the processes of steps S83 to S88 are repeated. In step S89, when it is determined that the blur direction angle θ is equal to or greater than θmax (step S89; YES), the blur deterioration component setting process ends.

次に、図27のフローチャートを参照して、デジタルカメラ1の生産工程において実行される焦点ボケ劣化成分設定処理について説明する。   Next, with reference to the flowchart of FIG. 27, the defocusing deterioration component setting process executed in the production process of the digital camera 1 will be described.

まず、撮影対象である見本画像i(x,y)が設定されるとともに(ステップS100)、焦点ボケ広がり半径rが0に設定される(ステップS101)。次いで、広がり半径がrの焦点ボケを生じさせて見本画像が撮影され、撮影画像g(x,y)が取得される(ステップS102)。ステップS102では、ロボットハンドや、専用の実験装置等を用いて、焦点ボケが生じるように撮影される。   First, a sample image i (x, y) to be photographed is set (step S100), and the focal blur spread radius r is set to 0 (step S101). Next, a sample image is shot with a focal blur having a spread radius r, and a shot image g (x, y) is acquired (step S102). In step S102, an image is taken using a robot hand, a dedicated experimental device, or the like so as to cause out of focus.

次いで、撮影画像g(x,y)がフーリエ変換され、周波数空間での撮影画像G(u,v)が求められる(ステップS103)。次いで、見本画像i(x,y)をフーリエ変換したI(u,v)と、撮影画像をフーリエ変換したG(u,v)により、劣化成分p(x,y)をフーリエ変換したP(u,v)=G(u,v)/I(u,v)が算出され、この算出されたP(u,v)が、焦点ボケ広がり半径rの劣化成分P2(r)として、制御部32のメモリ(ROM)に記憶される(ステップS104)。   Next, the photographed image g (x, y) is Fourier transformed to obtain a photographed image G (u, v) in the frequency space (step S103). Next, the degradation component p (x, y) is subjected to Fourier transform P (I (u, v) obtained by Fourier transform of the sample image i (x, y) and G (u, v) obtained by Fourier transform of the photographed image. u, v) = G (u, v) / I (u, v) is calculated, and the calculated P (u, v) is used as the deterioration component P2 (r) of the focal blur spread radius r, and the control unit 32 is stored in the memory (ROM) 32 (step S104).

次いで、広がり半径rがインクリメントされ(ステップS105)、現在の広がり半径rが予め設定された最大値rmax以上であるか否かが判定される(ステップS106)。ステップS106において、広がり半径rがrmax未満であると判定された場合(ステップS106;NO)、ステップS102に戻り、ステップS102〜S105の処理が繰り返される。ステップS106において、広がり半径rがrmax以上であると判定された場合(ステップS106;YES)、本ブレ劣化成分設定処理が終了する。   Next, the spread radius r is incremented (step S105), and it is determined whether or not the current spread radius r is greater than or equal to a preset maximum value rmax (step S106). If it is determined in step S106 that the spread radius r is less than rmax (step S106; NO), the process returns to step S102, and the processes of steps S102 to S105 are repeated. If it is determined in step S106 that the spread radius r is equal to or greater than rmax (step S106; YES), the blur deterioration component setting process ends.

次に、図28のフローチャートを参照して、出荷後のデジタルカメラ1において実行される画像撮影・補正処理について説明する。   Next, image shooting / correction processing executed in the digital camera 1 after shipment will be described with reference to the flowchart of FIG.

キー入力部36の操作により撮影モードが指定されると、測光処理、露出条件の設定等が行われる(ステップS110)。測光処理後、キー入力部36のシャッターキーの押下により撮影が指示されると、撮影処理が行われ、撮影画像g(x,y)が取得される(ステップS111)。取得された撮影画像g(x,y)は、記録媒体(フラッシュメモリ38)に記録される。   When the photographing mode is designated by operating the key input unit 36, photometric processing, exposure condition setting, and the like are performed (step S110). After the light metering process, when shooting is instructed by pressing the shutter key of the key input unit 36, the shooting process is performed and a shot image g (x, y) is acquired (step S111). The acquired captured image g (x, y) is recorded on a recording medium (flash memory 38).

ステップS111の撮影処理において、手ブレ検出センサ40によりブレが検出された場合、検出されたブレの方向θ、ブレ距離Lが制御部32のRAMに記憶される(ステップS112)。また、撮影画像g(x,y)から焦点ボケが検出された場合、焦点ボケの広がり半径rが制御部32のメモリ(RAM)に記憶される(ステップS112)。   In the photographing process of step S111, when the camera shake detection sensor 40 detects a camera shake, the detected camera shake direction θ and the camera shake distance L are stored in the RAM of the control unit 32 (step S112). In addition, when a focus blur is detected from the captured image g (x, y), the spread radius r of the focus blur is stored in the memory (RAM) of the control unit 32 (step S112).

次いで、撮影画像g(x,y)がフーリエ変換され、周波数空間での撮影画像G(u,v)が求められる(ステップS113)。次いで、ステップS112において記憶されたブレ距離Lが予め設定された値(設定値)以上であるか否か(即ち、評価値が所定値以下であるか否か)が判定される(ステップS114)。   Next, the captured image g (x, y) is Fourier-transformed to obtain a captured image G (u, v) in the frequency space (step S113). Next, it is determined whether or not the blur distance L stored in step S112 is greater than or equal to a preset value (set value) (that is, whether or not the evaluation value is less than or equal to a predetermined value) (step S114). .

ステップS114において、ブレ距離Lが設定値未満である(即ち、評価値が所定値より大きい)と判定された場合(ステップS114;NO)、後述のステップS119に移行する。ステップS114において、ブレ距離Lが設定値以上である(即ち、評価値が所定値以下である)と判定された場合(ステップS114;YES)、ステップS112において記憶されたブレ方向θ及びブレ距離Lに対応する劣化成分P1(θ,L)が、制御部32のメモリ(ROM)から読み出され(ステップS115)、G(u,v)及びP1(θ,L)から、ブレのない本来の画像i(x,y)をフーリエ変換したI(u,v)=G(u,v)/P1(θ,L)が算出される(ステップS116)。   If it is determined in step S114 that the blur distance L is less than the set value (that is, the evaluation value is greater than the predetermined value) (step S114; NO), the process proceeds to step S119 described later. If it is determined in step S114 that the blur distance L is greater than or equal to the set value (that is, the evaluation value is less than or equal to a predetermined value) (step S114; YES), the blur direction θ and the blur distance L stored in step S112 are stored. Is read from the memory (ROM) of the control unit 32 (step S115), and from G (u, v) and P1 (θ, L), the original blur-free component P1 (θ, L) is read. I (u, v) = G (u, v) / P1 (θ, L) obtained by Fourier transform of the image i (x, y) is calculated (step S116).

次いで、ステップS116で算出されたI(u,v)がフーリエ逆変換されることにより、復元画像i(x,y)が算出され(ステップS117)、記録媒体に記録されたg(x,y)が復元画像i(x,y)に更新される(ステップS118)。   Next, the restored image i (x, y) is calculated by inverse Fourier transform of I (u, v) calculated in step S116 (step S117), and g (x, y) recorded on the recording medium. ) Is updated to the restored image i (x, y) (step S118).

次いで、ステップS112において記憶された焦点ボケの広がり半径rが予め設定された値(設定値)以上であるか否か(即ち、評価値が所定値以下であるか否か)が判定される(ステップS119)。ステップS119において、焦点ボケの広がり半径rが設定値未満である(即ち、評価値が所定値より大きい)と判定された場合(ステップS119;NO)、本画像撮影・補正処理が終了する。   Next, it is determined whether or not the focal blur spread radius r stored in step S112 is greater than or equal to a preset value (set value) (that is, whether or not the evaluation value is less than or equal to a predetermined value) ( Step S119). When it is determined in step S119 that the defocusing radius r of the defocus is less than the set value (that is, the evaluation value is greater than the predetermined value) (step S119; NO), the image photographing / correction process ends.

ステップS119において、焦点ボケの広がり半径rが設定値以上である(即ち、評価値が所定値以下である)と判定された場合(ステップS119;YES)、ステップS112において記憶された焦点ボケの広がり半径rに対応する劣化成分P2(r)が、制御部32のメモリ(ROM)から読み出され(ステップS120)、G(u,v)及びP2(r)から、焦点ボケのない本来の画像i(x,y)をフーリエ変換したI(u,v)=G(u,v)/P2(r)が算出される(ステップS121)。   When it is determined in step S119 that the focal blur spread radius r is greater than or equal to the set value (that is, the evaluation value is smaller than or equal to a predetermined value) (step S119; YES), the focal blur spread stored in step S112 is determined. The degradation component P2 (r) corresponding to the radius r is read from the memory (ROM) of the control unit 32 (step S120), and an original image without defocusing is obtained from G (u, v) and P2 (r). I (u, v) = G (u, v) / P2 (r) obtained by Fourier transform of i (x, y) is calculated (step S121).

次いで、ステップS121で算出されたI(u,v)がフーリエ逆変換されることにより、復元画像i(x,y)が算出され(ステップS122)、記録媒体に記録されたg(x,y)が復元画像i(x,y)に更新され(ステップS123)、本画像撮影・補正処理が終了する。   Next, I (u, v) calculated in step S121 is inversely Fourier transformed to calculate a restored image i (x, y) (step S122), and g (x, y) recorded on the recording medium. ) Is updated to the restored image i (x, y) (step S123), and the main image photographing / correcting process is completed.

以上のように、デジタルカメラ1の生産工程において、予め、ブレやボケを生じさせるように見本画像を撮影して、ブレやボケの度合い別に劣化成分P(u,v)を算出してメモリに設定し、出荷後のデジタルカメラ1で撮影された画像を、メモリに設定された劣化成分P(u,v)に基づいて補正することにより、個々のカメラのレンズの性能に合わせた画像補正を容易に行うことができる。また、出荷後において劣化成分P(u,v)を算出する必要がないため、画像補正処理を高速に行うことができる。   As described above, in the production process of the digital camera 1, a sample image is taken in advance so as to cause blurring and blurring, and the deterioration component P (u, v) is calculated for each degree of blurring and blurring and stored in the memory. By setting and correcting the image taken with the digital camera 1 after shipment based on the degradation component P (u, v) set in the memory, image correction that matches the performance of the lens of each camera is performed. It can be done easily. Further, since it is not necessary to calculate the degradation component P (u, v) after shipment, the image correction process can be performed at high speed.

最近は、オートフォーカス機能が搭載されたデジタルカメラが普及しているが、カメラの機種毎に、オートフォーカスの精度や特性が異なっている。また、露出の条件や周囲の明るさ、被写体の配置等によって、常に所望の被写体に焦点が合った画像を撮影できるとは限らず、また、絞りの度合いや焦点距離によって、被写界深度も変化したりする。従って、図26〜図28に示すように、生産出荷前に、画像劣化の度合い別に劣化成分を算出してメモリに設定しておき、出荷後に撮影された画像を、メモリに設定された劣化成分に基づいて補正することにより、個々の機種でのレンズ特性やフォーカス特性の違いにも対応した補正を行うことができる。   Recently, digital cameras equipped with an autofocus function have become widespread, but the accuracy and characteristics of autofocus differ for each camera model. Also, depending on the exposure conditions, ambient brightness, subject placement, etc., it is not always possible to shoot an image focused on the desired subject, and the depth of field may vary depending on the degree of aperture and focal length. Or change. Accordingly, as shown in FIGS. 26 to 28, before production shipment, degradation components are calculated for each degree of image degradation and set in the memory, and images taken after shipment are converted into degradation components set in the memory. By performing correction based on the above, it is possible to perform correction corresponding to differences in lens characteristics and focus characteristics among individual models.

なお、本実施形態及び変形例における記述内容は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   In addition, the description content in this embodiment and a modification can be suitably changed in the range which does not deviate from the meaning of this invention.

本発明の画像撮影装置を適用したデジタルカメラの回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a digital camera to which an image photographing apparatus of the present invention is applied. 本実施形態のデジタルカメラにおいて実行される画像撮影・削除処理を示すフローチャート。5 is a flowchart showing image shooting / deleting processing executed in the digital camera of the present embodiment. 図2における画像削除処理の詳細を示すフローチャート。The flowchart which shows the detail of the image deletion process in FIG. デジタルカメラの表示部における画面表示例を示す図。The figure which shows the example of a screen display in the display part of a digital camera. デジタルカメラの表示部における画面表示例を示す図。The figure which shows the example of a screen display in the display part of a digital camera. デジタルカメラの表示部における画面表示例を示す図。The figure which shows the example of a screen display in the display part of a digital camera. 画像の輝度ヒストグラム分布から画像を評価する方法の一例を示す図。The figure which shows an example of the method of evaluating an image from the brightness | luminance histogram distribution of an image. 画像の輝度ヒストグラム分布から画像を評価する方法の一例を示す図。The figure which shows an example of the method of evaluating an image from the brightness | luminance histogram distribution of an image. 画像の周波数特性により画像を評価する方法の一例を示す図。The figure which shows an example of the method of evaluating an image with the frequency characteristic of an image. 画像の周波数特性により画像を評価する方法の一例を示す図。The figure which shows an example of the method of evaluating an image with the frequency characteristic of an image. 画像の周波数特性により画像を評価する方法の一例を示す図。The figure which shows an example of the method of evaluating an image with the frequency characteristic of an image. 画像の直線ブレ、焦点ボケの度合いの測定による画像評価方法の一例を示す図。The figure which shows an example of the image evaluation method by the measurement of the degree of the linear blurring of an image, and a focus blur. 直線ブレの方向の角度(θ)の算出方法と、直線ブレの距離(L)の算出方法を示す図。The figure which shows the calculation method of the angle ((theta)) of the direction of a linear blurring, and the calculation method of the distance (L) of a linear blurring. 焦点ボケの広がり半径(r)の算出方法を示す図。The figure which shows the calculation method of the expansion radius (r) of a focus blur. ハフ(Hough)変換を説明するための図。The figure for demonstrating Hough conversion. 多階調ハフ変換を説明するための図。The figure for demonstrating multi-gradation Hough conversion. 画質補正処理の概念図。The conceptual diagram of an image quality correction process. ガンマ補正による画像補正方法を示す図。The figure which shows the image correction method by a gamma correction. 輝度又は濃度のヒストグラム分布の変換による画像補正方法を示す図。The figure which shows the image correction method by conversion of the histogram distribution of a brightness | luminance or a density | concentration. 輝度又は濃度のヒストグラム分布の変換による画像補正方法を示す図。The figure which shows the image correction method by conversion of the histogram distribution of a brightness | luminance or a density | concentration. 輝度又は濃度のヒストグラムの平坦化による画像補正方法を示す図。The figure which shows the image correction method by flattening the histogram of a brightness | luminance or a density | concentration. ヒストグラム平坦化処理を示すフローチャート。The flowchart which shows a histogram flattening process. 画像の平滑化による画像補正方法を示す図。The figure which shows the image correction method by the smoothing of an image. 微分フィルタを用いた鮮鋭化による画像補正方法を示す図。The figure which shows the image correction method by sharpening using a differential filter. 微分フィルタを用いた鮮鋭化による画像補正方法を示す図。The figure which shows the image correction method by sharpening using a differential filter. デジタルカメラの生産工程に実行されるブレ劣化成分設定処理を示すフローチャート。The flowchart which shows the blurring degradation component setting process performed in the production process of a digital camera. デジタルカメラの生産工程に実行される焦点ボケ劣化成分設定処理を示すフローチャート。The flowchart which shows the focus blurring degradation component setting process performed in the production process of a digital camera. 画像撮影・補正処理を示すフローチャート。7 is a flowchart showing image photographing / correction processing.

符号の説明Explanation of symbols

1 デジタルカメラ(画像撮影装置)
2 外部機器
3 画像処理装置
4 表示装置
5 印刷装置
13 表示部
21 モータ(M)
22 レンズ光学系
23 CCD
24 TG(タイミング発生器)
25 垂直ドライバ
26 S/H(サンプルホールド回路)
27 A/D変換器
28 カラープロセス回路
29 DMAコントローラ
30 DRAMI/F
31 DRAM
32 制御部
33 VRAMコントローラ
34 VRAM
35 デジタルビデオエンコーダ
36 キー入力部
37 JPEG回路
38 フラッシュメモリ
39 通信部
40 手ブレ検出センサ
1 Digital camera (image capture device)
2 External device 3 Image processing device 4 Display device 5 Printing device 13 Display unit 21 Motor (M)
22 Lens optical system 23 CCD
24 TG (timing generator)
25 Vertical driver 26 S / H (sample hold circuit)
27 A / D converter 28 Color process circuit 29 DMA controller 30 DRAM I / F
31 DRAM
32 Control unit 33 VRAM controller 34 VRAM
35 Digital video encoder 36 Key input unit 37 JPEG circuit 38 Flash memory 39 Communication unit 40 Camera shake detection sensor

Claims (13)

被写体を撮影して撮影画像を取得する撮像手段と、
前記取得された撮影画像を記録媒体に記録する記録手段と、
前記取得された撮影画像の画質を評価する第1の評価手段と、
前記記録媒体に記録された撮影画像のうち、前記第1の評価手段により算出された評価結果が所定の条件を満たす撮影画像の画質を補正する補正手段と、
前記補正手段により画質が補正された撮影画像の画質を評価する第2の評価手段と、
前記第2の評価手段による評価結果が所定の条件を満たす撮影画像を前記記録媒体から削除する候補として決定する決定手段と、
を備えることを特徴とする画像撮影装置。
Imaging means for photographing a subject and obtaining a captured image;
Recording means for recording the acquired photographed image on a recording medium;
First evaluation means for evaluating the image quality of the acquired captured image;
Among the captured images recorded on the recording medium, correction means for correcting the image quality of the captured image in which the evaluation result calculated by the first evaluation means satisfies a predetermined condition;
Second evaluation means for evaluating the image quality of the captured image whose image quality has been corrected by the correction means;
Determining means for determining a photographed image whose evaluation result by the second evaluation means satisfies a predetermined condition as a candidate to be deleted from the recording medium;
An image photographing apparatus comprising:
前記記録媒体の残り容量が予め設定された容量以下であるか否かを判定する判定手段を備え、
前記決定手段は、前記判定手段により、前記記録媒体の残り容量が予め設定された容量以下であると判定された場合に、前記第2の評価手段による評価結果が所定の条件を満たす撮影画像を前記記録媒体から削除する候補として決定することを特徴とする請求項1に記載の画像撮影装置。
Determination means for determining whether or not the remaining capacity of the recording medium is equal to or less than a preset capacity;
The determining means, when the determining means determines that the remaining capacity of the recording medium is equal to or less than a preset capacity, a photographed image whose evaluation result by the second evaluating means satisfies a predetermined condition. The image capturing apparatus according to claim 1, wherein the image capturing apparatus is determined as a candidate to be deleted from the recording medium.
前記第1の評価手段及び第2の評価手段は、撮影画像の輝度又は濃度のヒストグラム分布に基づいて、当該撮影画像の画質を評価することを特徴とする請求項1又は2に記載の画像撮影装置。   3. The image photographing according to claim 1, wherein the first evaluation unit and the second evaluation unit evaluate the image quality of the captured image based on a histogram distribution of luminance or density of the captured image. apparatus. 前記第1の評価手段及び第2の評価手段は、撮影画像の周波数特性に基づいて、当該撮影画像の画質を評価することを特徴とする請求項1又は2に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the first evaluation unit and the second evaluation unit evaluate the image quality of the captured image based on a frequency characteristic of the captured image. 前記第1の評価手段及び第2の評価手段は、撮影画像のブレ又は焦点ボケの度合いに基づいて当該撮影画像の画質を評価することを特徴とする請求項1又は2に記載の画像撮影装置。   3. The image photographing apparatus according to claim 1, wherein the first evaluation unit and the second evaluation unit evaluate the image quality of the captured image based on a degree of blurring or defocusing of the captured image. . 前記補正手段は、撮影画像に対してガンマ補正を施すことを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the correction unit performs gamma correction on the captured image. 前記補正手段は、撮影画像の輝度又は濃度のヒストグラム分布を所定の変換式により変換することにより、当該撮影画像を補正することを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image according to any one of claims 1 to 5, wherein the correcting unit corrects the captured image by converting a histogram distribution of luminance or density of the captured image by a predetermined conversion formula. Shooting device. 前記補正手段は、撮影画像の輝度又は濃度のヒストグラム分布の平坦化を行うことにより、当該撮影画像を補正することを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the correcting unit corrects the captured image by flattening a histogram distribution of luminance or density of the captured image. 前記補正手段は、画像を平滑化するための空間フィルタを用いて撮影画像を補正することを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the correcting unit corrects the captured image using a spatial filter for smoothing the image. 前記補正手段は、所定の微分フィルタを用いて撮影画像を鮮鋭化する処理を行うことを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the correction unit performs a process of sharpening the captured image using a predetermined differential filter. 前記補正手段は、撮影画像を周波数変換し、周波数変換された撮影画像に対して、鮮鋭化処理又はぼかし処理を施すことを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   6. The image photographing according to claim 1, wherein the correction unit performs frequency conversion on the captured image, and performs sharpening processing or blurring processing on the frequency-converted captured image. apparatus. 前記補正手段は、点像分布関数又は線像分布関数を用いて、撮影画像の直線ブレ又は焦点ボケを補正することを特徴とする請求項1〜5の何れか一項に記載の画像撮影装置。   The image capturing apparatus according to claim 1, wherein the correction unit corrects linear blurring or defocusing of a captured image using a point image distribution function or a line image distribution function. . 画像劣化が生じる方式で見本画像を撮影する劣化画像撮像手段と、
前記劣化画像撮像手段により得られた画像の劣化成分を算出する算出手段と、
画像劣化の度合い別に、前記算出手段により算出された画像の劣化成分の情報を記憶する記憶手段と、を備え、
前記撮像手段により取得された撮影画像の評価結果が所定の条件を満たす場合、前記補正手段は、当該撮影画像に対応する劣化成分を前記記憶手段から読み出し、その読み出された劣化成分に基づいて当該撮影画像を補正することを特徴とする請求項1〜12の何れか一項に記載の画像撮影装置。
A degraded image capturing means for capturing a sample image in a manner that causes image degradation;
Calculating means for calculating a deterioration component of the image obtained by the deteriorated image capturing means;
Storage means for storing information on degradation components of the image calculated by the calculation means according to the degree of image degradation,
When the evaluation result of the captured image acquired by the imaging unit satisfies a predetermined condition, the correction unit reads out the degradation component corresponding to the captured image from the storage unit, and based on the read degradation component The image capturing apparatus according to claim 1, wherein the captured image is corrected.
JP2004232329A 2004-08-09 2004-08-09 Image shooting device Expired - Fee Related JP4415188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004232329A JP4415188B2 (en) 2004-08-09 2004-08-09 Image shooting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004232329A JP4415188B2 (en) 2004-08-09 2004-08-09 Image shooting device

Publications (2)

Publication Number Publication Date
JP2006050494A true JP2006050494A (en) 2006-02-16
JP4415188B2 JP4415188B2 (en) 2010-02-17

Family

ID=36028492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004232329A Expired - Fee Related JP4415188B2 (en) 2004-08-09 2004-08-09 Image shooting device

Country Status (1)

Country Link
JP (1) JP4415188B2 (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221347A (en) * 2005-02-09 2006-08-24 Tokyo Institute Of Technology Blurring information detection method
JP2009042838A (en) * 2007-08-06 2009-02-26 Ricoh Co Ltd Image projection method and image projection device
JP2010079446A (en) * 2008-09-24 2010-04-08 Sony Corp Electronic apparatus, blurring image selection method and program
JP2010272924A (en) * 2009-05-19 2010-12-02 Olympus Corp Imaging system and imaging method
JP2011220828A (en) * 2010-04-09 2011-11-04 Nippon Steel Corp Focus deviation detection device, focus deviation detection method and program thereof
JP2012070295A (en) * 2010-09-27 2012-04-05 Hitachi Consumer Electronics Co Ltd Video processing apparatus and video processing method
JP2012191641A (en) * 2012-05-14 2012-10-04 Seiko Epson Corp Image processing apparatus and image processing program
KR20120109056A (en) * 2011-03-24 2012-10-08 삼성테크윈 주식회사 Lookuptable generating method for image resolution compensation, image resolution compensating apparatus and method using lut
US8315455B2 (en) 2008-11-07 2012-11-20 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
KR101336234B1 (en) 2007-01-12 2013-12-03 삼성전자주식회사 Method for improving image quality of digital camera
JP2013546092A (en) * 2010-12-13 2013-12-26 ユニヴェルシテ パリ ディドロ−パリ セットゥ Method for detecting and quantifying blur in digital images
WO2014069052A1 (en) * 2012-10-31 2014-05-08 Eizo株式会社 Magnification factor estimation device and method for same
CN104065857A (en) * 2013-03-21 2014-09-24 卡西欧计算机株式会社 Imaging Device And Video Content Generating Method
TWI468772B (en) * 2013-05-27 2015-01-11 Hon Hai Prec Ind Co Ltd Device and method for taking photographs
TWI471630B (en) * 2012-06-01 2015-02-01 Hon Hai Prec Ind Co Ltd Auto-focus system and method of a digital camera
US8964039B2 (en) 2011-03-30 2015-02-24 Olympus Corporation Image capturing system and image capturing method
JP2015049672A (en) * 2013-08-30 2015-03-16 京セラドキュメントソリューションズ株式会社 Material evaluation program and material evaluation system
JP2015049669A (en) * 2013-08-30 2015-03-16 京セラドキュメントソリューションズ株式会社 Material evaluation program and material evaluation system
JP2015136001A (en) * 2014-01-16 2015-07-27 株式会社メガチップス Noise determination device and noise determination method
WO2015162605A2 (en) 2014-04-22 2015-10-29 Snapaid Ltd System and method for controlling a camera based on processing an image captured by other camera
US9247153B2 (en) 2013-01-24 2016-01-26 Socionext Inc. Image processing apparatus, method and imaging apparatus
US9338348B2 (en) 2012-10-23 2016-05-10 Snapaid Ltd. Real time assessment of picture quality
US9754163B2 (en) 2015-06-22 2017-09-05 Photomyne Ltd. System and method for detecting objects in an image
US9792677B2 (en) 2011-09-02 2017-10-17 Nikon Corporation Electronic camera, image processing device, and image processing program
US10274389B2 (en) 2013-08-30 2019-04-30 Kyocera Document Solutions Inc. Storage medium, material evaluating apparatus, and material evaluating method
US10419655B2 (en) 2015-04-27 2019-09-17 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
JP2021026371A (en) * 2019-08-01 2021-02-22 アズビル株式会社 Image processing device, image processing method, image processing program and image inspection system
US11290708B2 (en) 2019-02-19 2022-03-29 Edgy Bees Ltd. Estimating real-time delay of a video data stream
WO2023105839A1 (en) * 2021-12-10 2023-06-15 株式会社Jvcケンウッド High frequency emphasis amount control device

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221347A (en) * 2005-02-09 2006-08-24 Tokyo Institute Of Technology Blurring information detection method
KR101336234B1 (en) 2007-01-12 2013-12-03 삼성전자주식회사 Method for improving image quality of digital camera
JP2009042838A (en) * 2007-08-06 2009-02-26 Ricoh Co Ltd Image projection method and image projection device
US8300972B2 (en) 2008-09-24 2012-10-30 Sony Corporation Electronic apparatus, blur image sorting method, and program
JP2010079446A (en) * 2008-09-24 2010-04-08 Sony Corp Electronic apparatus, blurring image selection method and program
US8666141B2 (en) 2008-11-07 2014-03-04 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
US8315455B2 (en) 2008-11-07 2012-11-20 Seiko Epson Corporation Robot system, robot control device and method for controlling robot
JP2010272924A (en) * 2009-05-19 2010-12-02 Olympus Corp Imaging system and imaging method
JP2011220828A (en) * 2010-04-09 2011-11-04 Nippon Steel Corp Focus deviation detection device, focus deviation detection method and program thereof
JP2012070295A (en) * 2010-09-27 2012-04-05 Hitachi Consumer Electronics Co Ltd Video processing apparatus and video processing method
JP2013546092A (en) * 2010-12-13 2013-12-26 ユニヴェルシテ パリ ディドロ−パリ セットゥ Method for detecting and quantifying blur in digital images
KR101675796B1 (en) * 2011-03-24 2016-11-14 한화테크윈 주식회사 LookupTable generating method for Image resolution compensation, Image resolution compensating apparatus and method using LUT
KR20120109056A (en) * 2011-03-24 2012-10-08 삼성테크윈 주식회사 Lookuptable generating method for image resolution compensation, image resolution compensating apparatus and method using lut
US8964039B2 (en) 2011-03-30 2015-02-24 Olympus Corporation Image capturing system and image capturing method
US9792677B2 (en) 2011-09-02 2017-10-17 Nikon Corporation Electronic camera, image processing device, and image processing program
US10489898B2 (en) 2011-09-02 2019-11-26 Nikon Corporation Electronic camera, image-processing device, and image-processing program
JP2012191641A (en) * 2012-05-14 2012-10-04 Seiko Epson Corp Image processing apparatus and image processing program
TWI471630B (en) * 2012-06-01 2015-02-01 Hon Hai Prec Ind Co Ltd Auto-focus system and method of a digital camera
US10659682B2 (en) 2012-10-23 2020-05-19 Snapaid Ltd. Real time assessment of picture quality
US10944901B2 (en) 2012-10-23 2021-03-09 Snapaid Ltd. Real time assessment of picture quality
US11252325B2 (en) 2012-10-23 2022-02-15 Snapaid Ltd. Real time assessment of picture quality
US10009537B2 (en) 2012-10-23 2018-06-26 Snapaid Ltd. Real time assessment of picture quality
US11671702B2 (en) 2012-10-23 2023-06-06 Snapaid Ltd. Real time assessment of picture quality
US9661226B2 (en) 2012-10-23 2017-05-23 Snapaid Ltd. Real time assessment of picture quality
US9338348B2 (en) 2012-10-23 2016-05-10 Snapaid Ltd. Real time assessment of picture quality
WO2014069052A1 (en) * 2012-10-31 2014-05-08 Eizo株式会社 Magnification factor estimation device and method for same
US9652689B2 (en) 2012-10-31 2017-05-16 Eizo Corporation Magnification factor estimation device and method for same
JP2014089659A (en) * 2012-10-31 2014-05-15 Eizo Corp Magnification estimation device and method thereof
US9247153B2 (en) 2013-01-24 2016-01-26 Socionext Inc. Image processing apparatus, method and imaging apparatus
CN104065857A (en) * 2013-03-21 2014-09-24 卡西欧计算机株式会社 Imaging Device And Video Content Generating Method
JP2014183511A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Imaging apparatus, video content generating method, and program
US9485452B2 (en) 2013-03-21 2016-11-01 Casio Computer Co., Ltd. Imaging device, video content generating method and storage medium
TWI468772B (en) * 2013-05-27 2015-01-11 Hon Hai Prec Ind Co Ltd Device and method for taking photographs
US10274389B2 (en) 2013-08-30 2019-04-30 Kyocera Document Solutions Inc. Storage medium, material evaluating apparatus, and material evaluating method
US9747326B2 (en) 2013-08-30 2017-08-29 Kyocera Document Solutions Inc. Non-transitory computer-readable recording medium that stores document evaluation program that evaluates consistency in document
JP2015049672A (en) * 2013-08-30 2015-03-16 京セラドキュメントソリューションズ株式会社 Material evaluation program and material evaluation system
JP2015049669A (en) * 2013-08-30 2015-03-16 京セラドキュメントソリューションズ株式会社 Material evaluation program and material evaluation system
JP2015136001A (en) * 2014-01-16 2015-07-27 株式会社メガチップス Noise determination device and noise determination method
US9866748B2 (en) 2014-04-22 2018-01-09 Snap-Aid Patents Ltd. System and method for controlling a camera based on processing an image captured by other camera
EP4250738A2 (en) 2014-04-22 2023-09-27 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
US9661215B2 (en) 2014-04-22 2017-05-23 Snapaid Ltd. System and method for controlling a camera based on processing an image captured by other camera
WO2015162605A2 (en) 2014-04-22 2015-10-29 Snapaid Ltd System and method for controlling a camera based on processing an image captured by other camera
US10594916B2 (en) 2015-04-27 2020-03-17 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
US11019246B2 (en) 2015-04-27 2021-05-25 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
US10419655B2 (en) 2015-04-27 2019-09-17 Snap-Aid Patents Ltd. Estimating and using relative head pose and camera field-of-view
US10198629B2 (en) 2015-06-22 2019-02-05 Photomyne Ltd. System and method for detecting objects in an image
US9754163B2 (en) 2015-06-22 2017-09-05 Photomyne Ltd. System and method for detecting objects in an image
US9928418B2 (en) 2015-06-22 2018-03-27 Photomyne Ltd. System and method for detecting objects in an image
US10452905B2 (en) 2015-06-22 2019-10-22 Photomyne Ltd. System and method for detecting objects in an image
US11290708B2 (en) 2019-02-19 2022-03-29 Edgy Bees Ltd. Estimating real-time delay of a video data stream
US11563932B2 (en) 2019-02-19 2023-01-24 Edgy Bees Ltd. Estimating real-time delay of a video data stream
US11849105B2 (en) 2019-02-19 2023-12-19 Edgy Bees Ltd. Estimating real-time delay of a video data stream
JP2021026371A (en) * 2019-08-01 2021-02-22 アズビル株式会社 Image processing device, image processing method, image processing program and image inspection system
JP7372072B2 (en) 2019-08-01 2023-10-31 アズビル株式会社 Image processing device, image processing method, image processing program, and image inspection system
WO2023105839A1 (en) * 2021-12-10 2023-06-15 株式会社Jvcケンウッド High frequency emphasis amount control device

Also Published As

Publication number Publication date
JP4415188B2 (en) 2010-02-17

Similar Documents

Publication Publication Date Title
JP4415188B2 (en) Image shooting device
US7065255B2 (en) Method and apparatus for enhancing digital images utilizing non-image data
US8928772B2 (en) Controlling the sharpness of a digital image
JP4186699B2 (en) Imaging apparatus and image processing apparatus
JP4931101B2 (en) Imaging device
JP3726653B2 (en) Image processing method, image processing apparatus, and recording medium on which program for executing image processing method is recorded
US20130057714A1 (en) Image pickup device, image processing device, image processing method, and image processing program
US8004586B2 (en) Method and apparatus for reducing noise of image sensor
WO2007049634A1 (en) Imaging device, image processing device, and program
JP5237978B2 (en) Imaging apparatus and imaging method, and image processing method for the imaging apparatus
JP2002314817A (en) Method, device, program, and recording medium for locally changing sharpness of photographed image by using mask, and image reproducing device
US20060056731A1 (en) Determining sharpness predictors for a digital image
JP2009093323A (en) Image processing device and program
JP2011159159A (en) Imaging device and method, and image processing method for imaging device
JP2010109834A (en) Noise reduction apparatus, noise reduction method, and program
US8942477B2 (en) Image processing apparatus, image processing method, and program
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
Rabie Adaptive hybrid mean and median filtering of high-ISO long-exposure sensor noise for digital photography
JP2005332381A (en) Image processing method, device and program
JP2010035177A (en) Image photographing apparatus and image processing system
JP2006049949A (en) Image processing apparatus, image processing method and program thereof
JP2005182745A (en) Image processing method, device and program
Branca et al. Texture MTF from images of natural scenes
JP4369030B2 (en) Image correction method and apparatus, and computer-readable recording medium storing image correction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

R150 Certificate of patent or registration of utility model

Ref document number: 4415188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees