JP2006203571A - Imaging apparatus, image processing apparatus, and image recording apparatus - Google Patents

Imaging apparatus, image processing apparatus, and image recording apparatus Download PDF

Info

Publication number
JP2006203571A
JP2006203571A JP2005013249A JP2005013249A JP2006203571A JP 2006203571 A JP2006203571 A JP 2006203571A JP 2005013249 A JP2005013249 A JP 2005013249A JP 2005013249 A JP2005013249 A JP 2005013249A JP 2006203571 A JP2006203571 A JP 2006203571A
Authority
JP
Japan
Prior art keywords
data
image
scene reference
scene
raw data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005013249A
Other languages
Japanese (ja)
Inventor
Daisuke Sato
大輔 佐藤
Hiroaki Takano
博明 高野
Jo Nakajima
丈 中嶋
Tsukasa Ito
司 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005013249A priority Critical patent/JP2006203571A/en
Publication of JP2006203571A publication Critical patent/JP2006203571A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform optimum image processing corresponding to picked-up scene relative to picked-up image data without causing information losses of picked-up image information which is obtained by an imaging apparatus. <P>SOLUTION: The imaging apparatus 100 generates scene reference raw data relying on the characteristic of the imaging apparatus by picking up an image. An apparatus characteristic correcting data generator 13 generates correcting data to be required in imaging apparatus characteristic correcting processing in order to generate scene reference image data which is obtained by standardizing the scene reference raw data. A reduction raw data generator 21 generates reduction raw data obtained by reducing the image size of the scene reference raw data. A picked-up information data generator 12 generates picked-up information data which indicates imaging condition setting in picking up the image. A header information processor 8 generates an attached data file by attaching the correcting data, the reduction raw data, and the picked-up information data to the scene reference raw data. The data file is recorded in the recording medium of a storage device 9. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラ等の撮像装置、撮像装置により得られた撮影画像データに対して出力媒体上での鑑賞画像形成用に最適化処理を施す画像処理装置及び画像記録装置に関する。   The present invention relates to an imaging apparatus such as a digital camera, and an image processing apparatus and an image recording apparatus that perform optimization processing on captured image data obtained by the imaging apparatus for forming an appreciation image on an output medium.

近年、デジタルカメラ等の撮像装置により得られた撮影画像データは、CD−R(Compact Disc Recordable)、フロッピー(登録商標)ディスク、メモリーカードなどの記録メディアに記録されたり、インターネット等の通信ネットワーク経由で配信されたり、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスを用いてハードコピー画像としてプリントされたりするなど、その出力方法は多種多様化している。   In recent years, photographed image data obtained by an imaging device such as a digital camera is recorded on a recording medium such as a CD-R (Compact Disc Recordable), a floppy (registered trademark) disk, or a memory card, or via a communication network such as the Internet. It can be distributed on the Internet, displayed on a display device such as a CRT (Cathode Ray Tube), liquid crystal display, plasma display, or a small liquid crystal monitor on a mobile phone, or can be hardware using an output device such as a digital printer, an inkjet printer, or a thermal printer. There are a variety of output methods such as printing as a copy image.

撮影画像データを鑑賞用途で出力する際には、鑑賞に使用するディスプレイモニタ上或いはハードコピー上において所望の画質が得られるように、一般に、撮影画像データに対し、階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理が施される。   When outputting captured image data for viewing purposes, generally, gradation adjustment, brightness adjustment, color adjustment is performed on the captured image data so that a desired image quality can be obtained on a display monitor or hard copy used for viewing. Various image processes represented by balance adjustment and sharpness enhancement are performed.

こうした多様な表示・プリント方法に対応して、撮像装置で撮影されたデジタル画像データの汎用性を高める努力がなされてきた。その一環として、デジタルRGB(Red, Green, Blue)信号が表現する色空間を撮像装置の特性に依存しない色空間に標準化する試みがあり、現在では多くのデジタル画像データが標準化された色空間として「sRGB」を採用している(「Multimedia Systems and Equipment-Colour Measurement and Management-Part2-1:Colour Management-Default RGB Colour Space-sRGB」IEC"61966-2-1を参照)。このsRGBの色空間は、標準的なCRTディスプレイモニタの色再現領域に対応して設定されている。   In response to these various display / printing methods, efforts have been made to increase the versatility of digital image data captured by an imaging apparatus. As part of this effort, there is an attempt to standardize the color space represented by the digital RGB (Red, Green, Blue) signal to a color space that does not depend on the characteristics of the imaging device. Currently, many digital image data are standardized color spaces. “SRGB” is adopted (see “Multimedia Systems and Equipment-Colour Measurement and Management-Part2-1: Color Management-Default RGB Color Space-sRGB” IEC “61966-2-1”). Are set corresponding to the color reproduction region of a standard CRT display monitor.

一般的に、デジタルカメラは、CCD(Charge Coupled Device:電荷結合素子)と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせて感色性を付与した、光電変換機能を有するCCD型撮像素子(以下、単にCCDと称する。)を備えている。デジタルカメラにより出力されるデジタル画像データは、このCCDを介して変換された電気的な元信号に、撮像素子の光電変換機能の補正が施され、画像編集ソフトでの読み取り・表示が可能なように規格化された所定形式のデータフォーマットへのファイル変換・圧縮処理等を経たものである。   Generally, a digital camera is a CCD type image pickup device having a photoelectric conversion function, which is provided with color sensitivity by combining a charge coupled device (CCD), a charge transfer mechanism, and a checkered color filter. (Hereinafter simply referred to as CCD). The digital image data output by the digital camera is subjected to correction of the photoelectric conversion function of the image sensor on the electrical original signal converted through the CCD so that it can be read and displayed by image editing software. The file has been subjected to file conversion / compression processing into a data format of a predetermined format standardized.

撮像素子の光電変換機能の補正としては、例えば、階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等がある。また、規格化された所定形式のデータフォーマットとしては、例えば、Exif(Exchangeable Image File Format)ファイルの非圧縮ファイルとして採用されている「Baseline Tiff Rev.6.0RGB Full Color Image」、JPEG(Joint Photographic Coding Experts Group)フォーマットに準拠した圧縮データファイル形式が知られている。   Examples of the correction of the photoelectric conversion function of the image sensor include gradation correction, crosstalk correction of spectral sensitivity, dark current noise suppression, sharpening, white balance adjustment, saturation adjustment, and the like. In addition, as a standardized data format of a predetermined format, for example, “Baseline Tiff Rev. 6.0 RGB Full Color Image”, which is adopted as an uncompressed file of an Exif (Exchangeable Image File Format) file, JPEG (Joint Photographic Coding) A compressed data file format conforming to the Experts Group) format is known.

Exifファイルは、sRGBに準拠したものであり、撮像素子の光電変換機能の補正は、sRGBに準拠するディスプレイモニタ上で最も好適な画質となるよう設定されている。   The Exif file conforms to sRGB, and the correction of the photoelectric conversion function of the image sensor is set so as to obtain the most suitable image quality on a display monitor conforming to sRGB.

例えば、どのようなデジタルカメラであっても、Exif形式のように、sRGB信号に準拠したディスプレイモニタの標準色空間(以下、「モニタプロファイル」と称す)で表示することを示すタグ情報や、画素数、画素配列及び1画素当たりのビット数などの機種依存情報を示す付加情報をデジタル画像データのファイルヘッダにメタデータとして書き込む機能及びそのようなデータフォーマット形式を採用してさえいれば、デジタル画像データをディスプレイモニタに表示する画像編集ソフト(例えば、Adobe社製Photoshop)によりタグ情報を解析して、モニタプロファイルのsRGBへの変更を促したり、自動的に変更処理を施したりすることができる。そのため、異なるディスプレイ間の装置特性の差異を低減したり、デジタルカメラで撮影されたデジタル画像データをディスプレイモニタ上で好適な状態で鑑賞することが可能になっている。   For example, tag information or pixels indicating that any digital camera is displayed in a standard color space (hereinafter referred to as “monitor profile”) of a display monitor compliant with the sRGB signal, as in the Exif format. As long as a function of writing additional information indicating model-dependent information such as the number, pixel arrangement and the number of bits per pixel as metadata in the file header of digital image data and such a data format format are adopted, the digital image Tag information can be analyzed by image editing software (for example, Adobe Photoshop) that displays data on a display monitor, and the monitor profile can be prompted to change to sRGB or can be automatically changed. Therefore, it is possible to reduce the difference in device characteristics between different displays and to view digital image data captured by a digital camera in a suitable state on a display monitor.

また、デジタル画像データのファイルヘッダに書き込まれる付加情報としては、上述した機種依存情報以外にも、例えば、カメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報などを示すタグ(コード)が用いられている。画像編集ソフトや出力デバイスは、これらの付加情報を読み取り、ハードコピー画像の画質をより好適なものとする機能を備えている。   Further, as additional information written in the file header of digital image data, in addition to the above-mentioned model-dependent information, for example, information directly related to the camera type (model) such as camera name and code number, exposure time, shutter Speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, presence / absence of strobe emission, subject area, white balance, zoom magnification, subject composition, shooting scene type, amount of reflected light from strobe light source, A tag (code) indicating shooting condition settings such as shooting saturation and information on the type of subject is used. The image editing software and the output device have a function of reading the additional information and making the image quality of the hard copy image more suitable.

特許文献1には、撮像装置から得られたシーン参照生データ(画像処理が施されていない、被写体の情報を忠実に表す生データ)からsRGB等の標準化されたシーン参照画像データを生成するための補正処理に必要な補正データを、シーン参照生データのファイルヘッダに添付して記録メディアに記録し、画像処理装置或いは画像記録装置側において、シーン参照生データに添付された補正データを用いて画像処理を行うことにより、撮影画像情報の情報損失を伴うことなく最適化された鑑賞画像を作成可能な技術が開示されている。
特開2004−96500号公報
In Patent Document 1, standardized scene reference image data such as sRGB is generated from raw scene reference data obtained from an imaging device (raw data that is not subjected to image processing and faithfully represents subject information). The correction data necessary for the correction process is attached to the file header of the scene reference raw data and recorded on a recording medium, and the correction data attached to the scene reference raw data is used on the image processing apparatus or the image recording apparatus side. A technique is disclosed that can create an optimized appreciation image by performing image processing without causing information loss of captured image information.
JP 2004-96500 A

撮影時の撮影条件(光源条件、露出条件)によっては、撮影シーンが、逆光、アンダー、オーバー等、鑑賞に好ましくない画像になる場合がある。このような好ましくない画像を適正な画像にするために、例えば、撮影シーンを判別し、撮影画像データに対して、撮影シーンに応じた画像処理が施される。撮影シーンの判別処理を行う場合、処理速度の関係上、画像サイズが縮小されたデータ(縮小データ)を用いる方が好ましい。しかしながら、撮像装置で取得された広い色域・輝度域の情報(撮影画像情報)を、鑑賞画像を想定して最適化した状態の鑑賞画像参照データに圧縮してから縮小データを作成すると、撮影画像情報の情報損失が大きくなるという問題があった。   Depending on the shooting conditions (light source conditions, exposure conditions) at the time of shooting, the shooting scene may become an image unfavorable for viewing such as backlight, under, over, etc. In order to make such an undesired image suitable, for example, a shooting scene is determined, and image processing corresponding to the shooting scene is performed on the shooting image data. When performing a photographic scene discrimination process, it is preferable to use data with reduced image size (reduced data) because of processing speed. However, if the reduced image data is created after compressing the wide color gamut / luminance range information (photographed image information) acquired by the imaging device into appreciation image reference data optimized for the appreciation image, There has been a problem that information loss of image information becomes large.

本発明の課題は、撮像装置で得られた撮影画像情報の情報損失を伴うことなく、撮影画像データに対して、撮影シーンに応じた最適な画像処理を可能にすることである。   SUMMARY OF THE INVENTION An object of the present invention is to enable optimum image processing corresponding to a photographic scene with respect to photographic image data without accompanying information loss of photographic image information obtained by an imaging device.

上記課題を解決するため、請求項1に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記シーン参照生データに、前記補正データ及び前記縮小生データを添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
In order to solve the above-described problem, the invention described in claim 1 includes scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
And recording control means for attaching the correction data and the reduced raw data to the scene reference raw data and recording them on a recording medium.

請求項2に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記縮小生データに、前記補正データに基づいて撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成するシーン参照縮小画像データ生成手段と、
前記シーン参照生データに、前記補正データ及び前記シーン参照縮小画像データを添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
The invention according to claim 2 is a scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
A scene reference reduced image data generating means for generating standardized scene reference reduced image data by performing an imaging device characteristic correction process on the reduced raw data based on the correction data;
And recording control means for attaching the correction data and the scene reference reduced image data to the scene reference raw data and recording them on a recording medium.

請求項3に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記シーン参照生データに、前記補正データ、前記縮小生データ及び前記撮影情報データを添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
The invention according to claim 3 is a scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
And recording control means for attaching the correction data, the reduced raw data, and the shooting information data to the scene reference raw data and recording them on a recording medium.

請求項4に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記縮小生データに、前記補正データに基づいて撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成するシーン参照縮小画像データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記シーン参照生データに、前記補正データ、前記シーン参照縮小画像データ及び前記撮影情報データを添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
The invention according to claim 4 is a scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
A scene reference reduced image data generating means for generating standardized scene reference reduced image data by performing an imaging device characteristic correction process on the reduced raw data based on the correction data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
And recording control means for attaching the correction data, the scene reference reduced image data, and the shooting information data to the scene reference raw data and recording them on a recording medium.

請求項5に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された縮小生データと、を入力する入力手段と、
前記入力されたシーン参照生データ及び縮小生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データ及びシーン参照縮小画像データを生成するシーン参照画像データ生成手段と、を備えることを特徴としている。
According to the fifth aspect of the present invention, the scene reference raw data depending on the characteristics of the imaging device and the correction data necessary for the imaging device characteristic correction processing for generating the standardized scene reference image data from the scene reference raw data And input means for inputting reduced raw data generated from the scene reference raw data,
A standardized scene reference image data and scene reference reduced image data are generated by subjecting the input scene reference raw data and reduced raw data to a photographing device characteristic correction process based on the input correction data. And a scene reference image data generation means.

請求項6に記載の発明は、請求項5に記載の画像処理装置において、前記生成されたシーン参照縮小画像データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴としている。   According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the generated standardized scene reference image data is output on an output medium based on the generated scene reference reduced image data. The image processing apparatus includes an image reference data generation unit that generates image reference data to be subjected to image processing that is optimized for forming an image to be viewed.

請求項7に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された標準化されたシーン参照縮小画像データと、を入力する入力手段と、
前記入力されたシーン参照生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、を備えることを特徴としている。
According to the seventh aspect of the present invention, the scene reference raw data depending on the characteristics of the imaging device and the correction data necessary for the imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data And input means for inputting standardized scene reference reduced image data generated from the scene reference raw data,
Scene reference image data generating means for generating standardized scene reference image data by performing a photographing device characteristic correction process on the input scene reference raw data based on the input correction data; It is characterized by providing.

請求項8に記載の発明は、請求項7に記載の画像処理装置において、前記入力されたシーン参照縮小画像データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴としている。   According to an eighth aspect of the present invention, in the image processing apparatus according to the seventh aspect, the generated standardized scene reference image data is output on an output medium based on the input scene reference reduced image data. The image processing apparatus includes an image reference data generation unit that generates image reference data to be subjected to image processing that is optimized for forming an image to be viewed.

請求項9に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された縮小生データと、撮影時の撮影条件設定を示す撮影情報データと、を入力する入力手段と、
前記入力されたシーン参照生データ及び縮小生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データ及びシーン参照縮小画像データを生成するシーン参照画像データ生成手段と、を備えることを特徴としている。
According to the ninth aspect of the present invention, there is provided scene reference raw data depending on characteristics of the imaging device, and correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data. Input means for inputting reduced raw data generated from the scene reference raw data and shooting information data indicating shooting condition settings at the time of shooting;
A standardized scene reference image data and scene reference reduced image data are generated by subjecting the input scene reference raw data and reduced raw data to a photographing device characteristic correction process based on the input correction data. And a scene reference image data generation means.

請求項10に記載の発明は、請求項9に記載の画像処理装置において、前記生成されたシーン参照縮小画像データ及び前記入力された撮影情報データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴としている。   According to a tenth aspect of the present invention, in the image processing apparatus according to the ninth aspect, the generated standardized scene reference is based on the generated scene reference reduced image data and the input photographing information data. The image data is provided with appreciation image reference data generating means for generating image appreciation image reference data by performing image processing optimized for appreciation image formation on the output medium.

請求項11に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された標準化されたシーン参照縮小画像データと、撮影時の撮影条件設定を示す撮影情報データと、を入力する入力手段と、
前記入力されたシーン参照生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、を備えることを特徴としている。
According to the eleventh aspect of the present invention, the scene reference raw data depending on the characteristics of the imaging device and the correction data necessary for the imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data. Input means for inputting standardized scene reference reduced image data generated from the scene reference raw data and shooting information data indicating shooting condition settings at the time of shooting;
Scene reference image data generating means for generating standardized scene reference image data by performing a photographing device characteristic correction process on the input scene reference raw data based on the input correction data; It is characterized by providing.

請求項12に記載の発明は、請求項11に記載の画像処理装置において、前記入力されたシーン参照縮小画像データ及び前記入力された撮影情報データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴としている。   According to a twelfth aspect of the present invention, in the image processing device according to the eleventh aspect, the standardized scene reference generated based on the input scene reference reduced image data and the input photographing information data. The image data is provided with appreciation image reference data generating means for generating image appreciation image reference data by performing image processing optimized for appreciation image formation on the output medium.

請求項13に記載の発明は、請求項6、8、10、12の何れか一項に記載の画像処理装置において、前記シーン参照縮小画像データを用いて、撮影時の撮影シーンを判別するシーン判別手段を備え、
前記鑑賞画像参照データ生成手段は、前記シーン判別手段による判別結果を用いて前記鑑賞画像参照データを生成することを特徴としている。
A thirteenth aspect of the present invention is the image processing apparatus according to any one of the sixth, eighth, tenth, and twelfth aspects, wherein a scene for determining a photographing scene at the time of photographing is used using the scene reference reduced image data. With a discrimination means,
The appreciation image reference data generation unit generates the appreciation image reference data using a determination result obtained by the scene determination unit.

請求項14に記載の発明は、請求項6、8、10、12、13の何れか一項に記載の画像処理装置と、
前記画像処理装置の鑑賞画像参照データ生成手段により生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、を備えることを特徴としている。
An invention according to claim 14 is an image processing apparatus according to any one of claims 6, 8, 10, 12, and 13,
Image forming means for forming an appreciation image on an output medium using appreciation image reference data generated by the appreciation image reference data generation means of the image processing apparatus.

〈用語の説明〉
以下、本明細書で使用する用語について説明する。
<Explanation of terms>
Hereinafter, terms used in this specification will be described.

本明細書の記載において「生成」とは、本発明に係る撮像装置、画像処理装置及び画像記録装置内において作用するプログラム、処理回路が、画像信号やデータを新たに作り出すことである。「作成」を同義語として用いることもある。   In the description of the present specification, “generation” means that a program and a processing circuit that operate in the imaging apparatus, the image processing apparatus, and the image recording apparatus according to the present invention newly create an image signal and data. “Create” may be used as a synonym.

本明細書の記載において「撮像装置」とは、光電変換機能を有する撮像素子(イメージセンサ)を備えた装置であって、所謂デジタルカメラやスキャナがこれに含まれる。撮像素子の一例としては、CCD(Charge Coupled Device:電荷結合素子)と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与したCCD型撮像素子や、CMOS(Complementary Metal-Oxide Semiconductor)型撮像素子が挙げられる。これらの撮像素子の出力電流はA/D変換器によりデジタル化される。この段階での各色チャンネルの内容は、撮像素子固有の分光感度に基づいた信号強度となっている。   In the description of this specification, an “imaging device” is a device including an imaging element (image sensor) having a photoelectric conversion function, and includes a so-called digital camera and scanner. As an example of the image pickup device, a CCD type image pickup device provided with a color sensitivity by combining a charge coupled device (CCD), a charge transfer mechanism, and a checkered color filter, or a complementary metal-oxide display (CMOS). Semiconductor) type imaging device. The output currents of these image sensors are digitized by an A / D converter. The contents of each color channel at this stage are signal intensities based on the spectral sensitivity unique to the image sensor.

また、「撮像装置の特性に依存したシーン参照生データ」とは、被写体に忠実な情報を記録した撮像装置の直接の生出力信号であり、A/D変換器によりデジタル化されたデータそのものや、該データに固定パターンノイズ・暗電流ノイズ等のノイズ補正を行ったデータを意味する。このシーン参照生データは、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、RIMM RGBやsRGB等の標準化された色空間にマッピングする処理を省略したものである。シーン参照生データの情報量(例えば階調数)はA/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば、鑑賞画像参照データ(後述)の階調数が1チャンネルあたり8bitである場合、シーン参照生データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。   The “scene reference raw data depending on the characteristics of the imaging device” is a direct raw output signal of the imaging device in which information faithful to the subject is recorded, and the data itself digitized by the A / D converter, This means data obtained by performing noise correction such as fixed pattern noise and dark current noise on the data. This scene reference raw data is generated by image processing that modifies the contents of the data to improve the effects during image viewing such as gradation conversion, sharpness enhancement, and saturation enhancement, and each color channel based on the spectral sensitivity inherent to the image sensor. The process of mapping the signal intensity of the signal to a standardized color space such as RIMM RGB or sRGB is omitted. The information amount (for example, the number of gradations) of the scene reference raw data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. For example, when the number of gradations of the viewing image reference data (described later) is 8 bits per channel, the number of gradations of the scene reference raw data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「出力媒体」とは、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙である。   “Output media” refers to, for example, display devices such as CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), plasma display, and hard copy image generation such as silver salt photographic paper, inkjet paper, thermal printer paper, etc. Paper.

また、「鑑賞画像参照データ」とは、CRT、LCD、プラズマディスプレイ等の表示デバイスに用いたり、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上のハードコピー画像生成に用いるデジタル画像データを意味する。鑑賞画像参照データは、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において最適な画像が得られるよう「最適化処理」が施されたものであり、シーン参照生データとは異なっている。   “Appreciation image reference data” refers to digital images used for display devices such as CRTs, LCDs, and plasma displays, or for generating hard copy images on output media such as silver halide photographic paper, ink jet paper, and thermal printer paper. Means data. The appreciation image reference data is subjected to "optimization processing" so that an optimal image can be obtained on a display device such as a CRT, LCD, or plasma display, or on an output medium such as silver salt photographic paper, inkjet paper, or thermal printer paper. It is different from the scene reference raw data.

また、「記録メディア」とは、撮像装置により出力される「シーン参照生データ」及び「撮像装置特性補正処理に必要な補正データ」の保存に用いる記憶媒体であって、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、スマートメディア(登録商標)、マルチメディアカード、ハードディスク、フロッピー(登録商標)ディスク、磁気記憶媒体(MO)、CD−Rなど何れであってもよい。また、記録メディアに書き込むユニットは、撮影装置と一体であっても、コードを介して有線接続された書き込みユニット、インターネット等の通信ネットワークを介して無線状態で接続された独立或いは遠隔地に設置されたユニットなどの何れの態様であってもよい。記録メディアに記録する時のファイル形式は、撮像装置固有の形式ではなく、TIFF(Tagged Image File Format)、JPEG(Joint Photographic Coding Experts Group)、Exif(Exchangeable Image File Format)などの規格化された汎用のファイル形式で記録されるのが好ましい。   The “recording medium” is a storage medium used for storing “scene reference raw data” and “correction data necessary for the imaging device characteristic correction process” output from the imaging device, and is a compact flash (registered trademark). , Memory Stick (registered trademark), SmartMedia (registered trademark), multimedia card, hard disk, floppy (registered trademark) disk, magnetic storage medium (MO), CD-R, etc. In addition, the unit for writing to the recording medium is installed in an independent or remote place connected in a wireless state via a communication network such as the Internet, a writing unit connected by wire through a cord, even if it is integrated with the photographing apparatus. Any mode such as a unit may be used. The file format for recording on the recording medium is not a format specific to the imaging device, but standardized general-purpose such as TIFF (Tagged Image File Format), JPEG (Joint Photographic Coding Experts Group), and Exif (Exchangeable Image File Format) The file format is preferably recorded.

また、「撮影情報データ」とは、撮影時の撮影条件設定の記録であり、Exifファイルのヘッダ部に書き込まれるタグ情報と同じものを含んでもよい。具体的には、露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、撮影シーン、ストロボ光源の反射光の量、撮影彩度、被写体の種類、被写体構成に関する情報などを示すタグ(コード)などである。   The “shooting information data” is a record of shooting condition settings at the time of shooting, and may include the same tag information written in the header portion of the Exif file. Specifically, exposure time, shutter speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, presence / absence of strobe emission, subject area, white balance, zoom magnification, shooting scene, strobe light source A tag (code) indicating the amount of reflected light, photographing saturation, type of subject, information on subject configuration, and the like.

また、「撮影情報データ」は、撮像装置の露出設定や焦点機能の自動化のために、カメラに備えられたセンサの撮影時に得た値、当該センサの値から加工されたデータ或いは当該センサの値に基づいて設定されたカメラの撮影条件に分類されるが、これ以外にも撮像装置に備えられた、撮影モードダイヤル(例えば、ポートレート、スポーツ、マクロ撮影モード等)や、ストロボ強制発光の設定スイッチ等を撮影者がマニュアルで設定した情報も含まれる。   “Photographing information data” is a value obtained at the time of photographing by a sensor provided in the camera, data processed from the value of the sensor, or a value of the sensor for automating the exposure setting and focus function of the imaging device. Camera shooting conditions set based on the camera, but other than this, the shooting mode dial (for example, portrait, sports, macro shooting mode, etc.) and flash forced flash settings provided in the imaging device Information that the photographer manually sets the switch and the like is also included.

また、「標準化されたシーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度を前述のRIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto-electronic conversion function, 例えば、コロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものであることが好ましい。標準化されたシーン参照画像データの情報量(例えば階調数)はA/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば、鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上が更に好ましい。   In addition, “standardized scene reference image data” means that the signal intensity of each color channel based on at least the spectral sensitivity of the image sensor itself has been mapped to the standard color space such as RIM RGB, ERIMM RGB, and scRGB. It means image data in a state where image processing for modifying data contents is omitted in order to improve the effect at the time of image appreciation such as tone conversion, sharpness enhancement, and saturation enhancement. The scene reference image data is the photoelectric conversion characteristic of the imaging device (opto-electronic conversion function defined by ISO1452, for example, “Fine Imaging and Digital Photography” (see page 449 of the Japan Photographic Society Publishing Committee)). It is preferable that correction has been performed. The information amount (for example, the number of gradations) of the standardized scene reference image data conforms to the performance of the A / D converter and is equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data. Is preferred. For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「標準化されたシーン参照画像データを生成するための撮像装置特性補正処理」とは、「撮像装置の特性に依存したシーン参照生データ」を「標準化されたシーン参照画像データ」に変換する処理を意味する。この処理の内容は「撮像装置の特性に依存したシーン参照生データ」の状態に依存するが、少なくとも撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピングする処理が含まれる。例えば、「撮像装置の特性に依存したシーン参照生データ」が、カラーフィルタ配列に基づく補間処理を行っていない場合には、該処理の実施が加えて必要になる。(カラーフィルタ配列に基づく補間処理の詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編51頁に記載されている。)この結果、「シーン参照生データ」とほぼ同一の情報量を有しつつも、異なる「撮像装置」間での信号値の差異が補正された「標準化されたシーン参照画像データ」が得られる。   In addition, “imaging device characteristic correction processing for generating standardized scene reference image data” means that “scene reference raw data depending on the characteristics of the imaging device” is converted to “standardized scene reference image data”. Means processing. The content of this processing depends on the state of the “scene reference raw data depending on the characteristics of the imaging device”, but at least the signal intensity of each color channel based on the spectral sensitivity specific to the imaging device is standard such as RIMM RGB, ERIMM RGB, scRGB, etc. Includes mapping to color space. For example, when the “scene reference raw data depending on the characteristics of the imaging device” is not subjected to the interpolation processing based on the color filter array, the processing needs to be additionally performed. (Details of the interpolation processing based on the color filter array are described in, for example, “Fine Imaging and Digital Photography” of Corona, Inc., page 51 of the Japan Photographic Society Publishing Committee.) As a result, “scene reference raw data” The “standardized scene reference image data” in which the difference in signal values between different “imaging devices” is corrected is obtained.

また、「最適化する画像処理」とは、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得るための処理であり、例えば、sRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また、色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整或いは覆い焼き処理等の画像処理が行われることは言うまでもない。   In addition, “optimized image processing” means processing for obtaining an optimal image on a display device such as a CRT, LCD, or plasma display, or on an output medium such as silver salt photographic paper, inkjet paper, or thermal printer paper. For example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, processing is performed so that optimum color reproduction is obtained within the color gamut of the sRGB standard. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment or dodging is performed.

「撮影情報データ」を用いた鑑賞画像参照データの最適化の例を以下に示す。
「被写体構成」の情報により、例えば部分的に彩度強調処理を施したり、ダイナミックレンジの広いシーンでは、覆い焼き処理を施すことが可能となる。
撮影シーンの判別結果により、例えば、夜景撮影では、ホワイトバランス調整の度合いを緩め、カラーバランスを特別に調整することが可能となる。
「ストロボ光源の反射光の量」情報によって、撮影者と被写体との距離が推定され、例えば、肌の白飛びを抑制する画像処理の条件設定に反映させることができる。
「被写体の種類」情報により、例えば人物撮影では、シャープネスの度合いを緩め、平滑化処理を強めることにより、肌のしわを目立たないようにすることができる。
An example of optimizing appreciation image reference data using “photographing information data” is shown below.
Based on the “subject configuration” information, for example, it is possible to perform a saturation enhancement process partially, or to perform a dodging process in a scene with a wide dynamic range.
Based on the result of determining the shooting scene, for example, in night scene shooting, the degree of white balance adjustment can be relaxed and the color balance can be adjusted specially.
The distance between the photographer and the subject is estimated based on the “amount of reflected light from the strobe light source” information, and can be reflected in, for example, setting of image processing conditions that suppress whitening of the skin.
Based on the “subject type” information, for example, in human photography, the degree of sharpness is relaxed and the smoothing process is strengthened, so that wrinkles on the skin can be made inconspicuous.

本発明に係る画像記録装置は、本発明に係る撮像装置から取得されるデジタル画像データに対し、本発明に係る画像処理を施す機構以外にも、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等、アナログカメラにより記録された写真感光材料の駒画像情報を入力するフィルムスキャナ、銀塩印画紙であるカラーペーパー上に再現された画像情報を入力するフラットベッドスキャナを備えていても良い。また本発明の撮像装置以外のデジタルカメラにより取得され、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、スマートメディア(登録商標)、マルチメディアカード(登録商標)、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、CD−Rなど、公知のあらゆる可搬式の「記録メディア」に保存されたデジタル画像データを読み取る手段、或いは通信手段を介してデジタル画像データを遠隔地より取得し、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙など、公知のあらゆる出力媒体に鑑賞画像を形成する処理手段とを備えていてもよい。   The image recording apparatus according to the present invention includes a color negative film, a color reversal film, a black and white negative film, a black and white film, in addition to a mechanism for performing image processing according to the present invention on digital image data acquired from the imaging apparatus according to the present invention. There may be provided a film scanner for inputting frame image information of a photographic photosensitive material recorded by an analog camera such as a reversal film, and a flatbed scanner for inputting image information reproduced on color paper which is silver salt photographic paper. Also obtained by a digital camera other than the imaging device of the present invention, CompactFlash (registered trademark), Memory Stick (registered trademark), SmartMedia (registered trademark), Multimedia card (registered trademark), floppy (registered trademark) disk, optical A means for reading digital image data stored in any known portable “recording medium” such as a magnetic storage medium (MO), CD-R, etc., or obtaining digital image data from a remote location via communication means, and CRT And display means such as LCD and plasma display, and processing means for forming an appreciation image on any known output medium such as hard copy image generation paper such as silver salt photographic paper, inkjet paper, thermal printer paper, etc. May be.

本発明によれば、撮像装置の特性に依存したシーン参照生データに、撮像装置特性補正処理に必要な補正データ及び縮小生データを添付することにより、その縮小生データに基づいて撮影時の撮影シーン(順光、逆光、アンダー、ストロボ)を容易に判別することができ、シーン参照生データから補正データを用いて生成される標準化されたシーン参照画像データに対し、撮影シーンに応じた最適な画像処理を施すことが可能となる。従って、撮像画像情報の情報損失を伴うことなく、高品質な画像データを得ることが可能となる。   According to the present invention, the correction data and the reduced raw data necessary for the imaging device characteristic correction process are attached to the scene reference raw data depending on the characteristics of the imaging device, and shooting at the time of shooting based on the reduced raw data. Scene (front light, backlight, under, strobe) can be easily identified, and the standardized scene reference image data generated using the correction data from the scene reference raw data is optimal for the shooting scene. Image processing can be performed. Therefore, it is possible to obtain high-quality image data without causing information loss of captured image information.

また、補正データ及び縮小生データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データに添付することにより、撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンを照合することにより、撮影シーンの判別精度を向上させることができる。   In addition to the correction data and the reduced raw data, by adding the shooting information data, which is the shooting condition setting at the time of shooting, to the scene reference raw data, the shooting scene as the determination result of the shooting scene determination process and the shooting information data are added. By collating the included shooting scenes, it is possible to improve the shooting scene discrimination accuracy.

また、本発明によれば、撮像装置の特性に依存したシーン参照生データに、撮像装置特性補正処理に必要な補正データ及びシーン参照縮小画像データを添付することにより、そのシーン参照縮小画像データに基づいて撮影時の撮影シーン(順光、逆光、アンダー、ストロボ)を容易に判別することができ、シーン参照生データから補正データを用いて生成される標準化されたシーン参照画像データに対し、撮影シーンに応じた最適な画像処理を施すことが可能となる。従って、撮像画像情報の情報損失を伴うことなく、高品質な画像データを得ることが可能となる。   According to the present invention, the scene reference reduced image data is attached to the scene reference raw data depending on the characteristics of the imaging device by attaching correction data and scene reference reduced image data necessary for the imaging device characteristic correction processing. Based on the scene reference image data generated by using the correction data from the scene reference raw data, it is possible to easily determine the shooting scene (front light, backlight, under, strobe) at the time of shooting. It is possible to perform optimum image processing according to the scene. Therefore, it is possible to obtain high-quality image data without causing information loss of captured image information.

また、補正データ及びシーン参照縮小画像データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データに添付することにより、撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンを照合することにより、撮影シーンの判別精度を向上させることができる。   Further, in addition to the correction data and the scene reference reduced image data, by adding shooting information data, which is a shooting condition setting at the time of shooting, to the scene reference raw data, a shooting scene as a determination result of the shooting scene determination process, and shooting information By collating the shooting scenes included in the data, it is possible to improve the shooting scene discrimination accuracy.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
[実施形態1]
まず、図1〜図25を参照して、本発明の実施形態1について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[Embodiment 1]
First, Embodiment 1 of the present invention will be described with reference to FIGS.

〈撮像装置の構成〉
図1に、本発明の実施形態1に係る撮像装置100の主要部構成を示す。撮像装置100は、図1に示すように、レンズ1、絞り2、CCD(Charge Coupled Device)3、アナログ処理回路4、A/D変換器5、一時記憶メモリ6、画像処理部7、ヘッダ情報処理部8、記憶デバイス9、CCD駆動回路10、制御部11、撮影情報データ生成部12、装置特性補正データ生成部13、縮小生データ生成部21、操作部14、表示部15、ストロボ駆動回路16、ストロボ17、焦点距離調整回路18、自動焦点駆動回路19、モータ20等を備えて構成されている。
<Configuration of imaging device>
FIG. 1 shows a main part configuration of an imaging apparatus 100 according to Embodiment 1 of the present invention. As shown in FIG. 1, the imaging apparatus 100 includes a lens 1, an aperture 2, a CCD (Charge Coupled Device) 3, an analog processing circuit 4, an A / D converter 5, a temporary storage memory 6, an image processing unit 7, and header information. Processing unit 8, storage device 9, CCD drive circuit 10, control unit 11, photographing information data generation unit 12, device characteristic correction data generation unit 13, reduced raw data generation unit 21, operation unit 14, display unit 15, strobe drive circuit 16, a strobe 17, a focal length adjustment circuit 18, an automatic focus driving circuit 19, a motor 20, and the like.

撮像装置100の光学系は、レンズ1、絞り2、CCD3を備えて構成されている。
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。CCD3は、レンズ1により受光面上に結像された被写体光を、CCD3内の各センサ毎に光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路10から入力されるタイミングパルスに制御されることにより、この撮像信号をアナログ処理回路4へ順次出力する。
The optical system of the imaging apparatus 100 includes a lens 1, a diaphragm 2, and a CCD 3.
The lens 1 adjusts the focus and forms an optical image of the subject. The diaphragm 2 adjusts the amount of light beam that has passed through the lens 1. The CCD 3 photoelectrically converts subject light imaged on the light receiving surface by the lens 1 into an electrical signal (imaging signal) of an amount corresponding to the amount of incident light for each sensor in the CCD 3. Then, the CCD 3 is sequentially controlled by the timing pulse input from the CCD driving circuit 10 to sequentially output the image pickup signal to the analog processing circuit 4.

アナログ処理回路4は、CCD3から入力された撮像信号に対して、RGB信号の増幅やノイズの低減処理等を行う。このアナログ処理回路4における処理は、操作部14からの操作信号に応じて制御部11を介してON/OFFが切り替えられるようになっている。   The analog processing circuit 4 performs RGB signal amplification, noise reduction processing, and the like on the imaging signal input from the CCD 3. The processing in the analog processing circuit 4 is switched ON / OFF via the control unit 11 in accordance with an operation signal from the operation unit 14.

A/D変換器5は、アナログ処理回路4から入力された撮像信号をデジタル信号に変換して出力する。以下では、A/D変換器5で得られるデジタル信号をシーン参照生データとして説明する。   The A / D converter 5 converts the imaging signal input from the analog processing circuit 4 into a digital signal and outputs it. Hereinafter, a digital signal obtained by the A / D converter 5 will be described as scene reference raw data.

一時記憶メモリ6は、バッファメモリ等であり、A/D変換器5から出力された画像データを一時的に格納する。   The temporary storage memory 6 is a buffer memory or the like, and temporarily stores the image data output from the A / D converter 5.

画像処理部7は、一時記憶メモリ6に格納された画像データに対し、表示部15で表示するための階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画質向上処理の他、画像サイズの変更、トリミング、アスペクト変換等の処理を施す。この画像処理部7における処理は、操作部14からの操作信号に応じて制御部11を介してON/OFFが切り替えられるようになっている。   The image processing unit 7 performs tone correction, spectral sensitivity crosstalk correction, dark current noise suppression, sharpening, white balance adjustment for display on the display unit 15 with respect to the image data stored in the temporary storage memory 6. In addition to image quality improvement processing such as saturation adjustment, processing such as image size change, trimming, and aspect conversion is performed. The processing in the image processing unit 7 is switched ON / OFF via the control unit 11 in accordance with an operation signal from the operation unit 14.

ヘッダ情報処理部8は、一時記憶メモリ6に格納されたシーン参照生データのファイルヘッダ(ヘッダ領域)に、撮影情報データ生成部12で生成された撮影情報データ、装置特性補正データ生成部13で生成された撮像装置特性補正データ、縮小生データ生成部21で生成された縮小生データを添付して添付済みデータファイルを作成する。図2に、添付済みデータファイルのデータ構造を示す。縮小生データ、撮像装置特性補正データ等は、例えば、アドビシステム社推奨の画像フォーマットDigital Negative(DNG)に従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。   The header information processing unit 8 uses the shooting information data generated by the shooting information data generation unit 12 and the device characteristic correction data generation unit 13 in the file header (header area) of the scene reference raw data stored in the temporary storage memory 6. An attached data file is created by attaching the generated imaging device characteristic correction data and the reduced raw data generated by the reduced raw data generation unit 21. FIG. 2 shows the data structure of the attached data file. The reduced raw data, the imaging device characteristic correction data, and the like may be recorded as tag information written in the header portion in the image file, for example, a DNG tag according to the image format Digital Negative (DNG) recommended by Adobe Systems. preferable.

記憶デバイス9は、不揮発性の半導体メモリ等により構成されており、撮像装置100の制御プログラムを記憶している。また、記憶デバイス9は、メモリーカード等の記録メディアを装着する装着部を備え、制御部11から入力される制御信号に従って、装着部に装着された記録メディアの記録されたデータの読み出しや、記録メディアへのデータの書き込みを行う。例えば、記憶デバイス9は、ヘッダ情報処理部8で作成された添付済みデータファイル(図2参照)を記録メディアに記録する。   The storage device 9 is configured by a nonvolatile semiconductor memory or the like, and stores a control program for the imaging apparatus 100. In addition, the storage device 9 includes a mounting unit for mounting a recording medium such as a memory card, and in accordance with a control signal input from the control unit 11, reading of recorded data on the recording medium mounted on the mounting unit and recording Write data to the media. For example, the storage device 9 records the attached data file (see FIG. 2) created by the header information processing unit 8 on a recording medium.

CCD駆動回路10は、制御部11から入力される制御信号に従ってタイミングパルスを出力し、CCD3の駆動制御を行う。   The CCD drive circuit 10 outputs a timing pulse in accordance with a control signal input from the control unit 11 and performs drive control of the CCD 3.

制御部11は、CPU(Central Processing Unit)等により構成され、記憶デバイス9に記憶されている撮像装置100の制御プログラムを読み出して、読み出した制御プログラムに従って撮像装置100全体の制御を行う。   The control unit 11 is configured by a CPU (Central Processing Unit) or the like, reads a control program of the imaging device 100 stored in the storage device 9, and controls the entire imaging device 100 according to the read control program.

例えば、制御部11は、操作部14からの操作信号に応じて、レンズ1の焦点距離とフォーカス(ピント)を調節するモータ20の制御を行う自動焦点駆動回路19、焦点距離調整回路18、CCD駆動回路10、アナログ処理回路4、一時記憶メモリ6、画像処理部7、表示部15、ストロボ駆動回路16の制御を行うことにより、撮影動作を実行させる。また、制御部11は、撮影で得られたシーン参照生データのファイルヘッダに添付する撮影情報データ、撮像装置特性補正データ、縮小生データの生成を、それぞれ、撮影情報データ生成部12、装置特性補正データ生成部13、縮小生データ生成部21に指示し、記憶デバイス9に対し、シーン参照生データに添付データ(撮影情報データ、撮像装置特性補正データ、縮小生データ)が添付されたデータファイルを記録メディアに記録するように指示する。   For example, the control unit 11 controls the motor 20 for adjusting the focal length and focus (focus) of the lens 1 in accordance with an operation signal from the operation unit 14, an automatic focus drive circuit 19, a focal length adjustment circuit 18, a CCD By controlling the driving circuit 10, the analog processing circuit 4, the temporary storage memory 6, the image processing unit 7, the display unit 15, and the strobe driving circuit 16, the photographing operation is executed. In addition, the control unit 11 generates shooting information data, imaging device characteristic correction data, and reduced raw data to be attached to a file header of scene reference raw data obtained by shooting. A data file in which the correction data generation unit 13 and the reduced raw data generation unit 21 are instructed, and attached data (shooting information data, imaging device characteristic correction data, reduced raw data) is attached to the scene reference raw data for the storage device 9. Is recorded on the recording medium.

撮影情報データ生成部12は、撮影時の撮影条件設定である撮影情報データを生成する。この撮影情報データは、例えば、カメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報や、露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーン、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定、被写体の種類に関する情報等である。   The shooting information data generation unit 12 generates shooting information data that is a shooting condition setting at the time of shooting. This shooting information data includes, for example, information directly related to the camera type (model) such as camera name and code number, exposure time, shutter speed, aperture value (F number), ISO sensitivity, luminance value, subject distance range, Information on the light source, the presence / absence of strobe light emission, the subject area, white balance, zoom magnification, subject composition, shooting scene, the amount of reflected light from the strobe light source, shooting conditions such as shooting saturation, and information on the type of subject.

装置特性補正データ生成部13は、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データ(撮像装置特性補正データ)を生成する。撮像装置特性補正処理には、図3に示すように、シーン参照生データに対するフィルタ補間演算(a)と、マトリックス演算(b)と、光電変換特性及びゲイン補正(c)がある。   The apparatus characteristic correction data generation unit 13 generates correction data (imaging apparatus characteristic correction data) necessary for imaging apparatus characteristic correction processing for generating standardized scene reference image data from scene reference raw data. As shown in FIG. 3, the imaging device characteristic correction processing includes filter interpolation calculation (a), matrix calculation (b), photoelectric conversion characteristic and gain correction (c) for scene reference raw data.

図3(a)に示すフィルタ補間演算は、1画素1色のフィルタ配列を有する画像データから1画素3色(RGB)のリニア画像データに補間する処理である。ここで、フィルタ配列とは、CCDの色弁別用カラーフィルタの配列パターンであり、RGB原色のベイヤー配列が一般的に用いられる。フィルタ補間方法としては、ニアレストネイバー(nearest neighbor)法、バイリニア(bi-linear interpolation)法、バイキュービック(bi-cubic convolution)法等を適用することが可能である。   The filter interpolation calculation shown in FIG. 3A is a process of interpolating image data having a filter arrangement of one pixel and one color into linear image data of one pixel and three colors (RGB). Here, the filter array is an array pattern of color filters for color discrimination of CCD, and an RGB primary color Bayer array is generally used. As a filter interpolation method, a nearest neighbor method, a bi-linear interpolation method, a bi-cubic convolution method, or the like can be applied.

ニアレストネイバー法では、着目画素の最近傍の画素を選択し、拡大・縮小のサイズに合わせてピクセルをそのまま拡大・縮小し、必要な箇所のみピクセルを補間する。バイリニア法では、着目画素の周囲の4つの画素の濃度値から、その座標(実数値)に応じて線形の濃度補間を行う。バイキュービック法では、バイリニア法よりも高精度で補間を行うために、着目画素の周囲の16個の画素の濃度値から3次関数を用いて補間する。補間に用いる式はsin(πx)/πxで、理論(サンプリング定理)的には最も完全な濃度補間式である。これをテイラー展開でxの3次の項で近似し、補間式として用いる。   In the nearest neighbor method, a pixel nearest to the target pixel is selected, the pixel is enlarged or reduced as it is according to the size of enlargement / reduction, and the pixel is interpolated only at a necessary portion. In the bilinear method, linear density interpolation is performed from the density values of four pixels around the target pixel according to the coordinates (real values). In the bicubic method, in order to perform interpolation with higher accuracy than in the bilinear method, interpolation is performed using a cubic function from the density values of 16 pixels around the pixel of interest. The equation used for interpolation is sin (πx) / πx, which is the most complete density interpolation equation in theory (sampling theorem). This is approximated by a third-order term of x by Taylor expansion and used as an interpolation formula.

図3(b)に示すマトリックス演算は、カラーフィルタの分光特性や撮像素子の分光感度特性の違いから、同一の被写体色が異なる信号として記録される差異を補正するための演算処理であり、このマトリックス演算によりRGBからXYZ表色系の三刺激値に変換される。   The matrix calculation shown in FIG. 3B is a calculation process for correcting a difference in which the same subject color is recorded as a different signal due to a difference in spectral characteristics of the color filter and spectral sensitivity characteristics of the image sensor. Conversion from RGB to tristimulus values in the XYZ color system is performed by matrix calculation.

図3(c)は、撮像素子の光電変換特性(リニア変換特性)やゲイン補正(平行移動)に伴う差異を補正するための処理を表すもので、この処理は、図3(c)に示すように、logE(E:露光量)に対しlogY(Y:XYZ表色系の刺激値)がリニアに変換する特性となっている。   FIG. 3C shows processing for correcting a difference due to photoelectric conversion characteristics (linear conversion characteristics) and gain correction (parallel movement) of the image sensor, and this processing is shown in FIG. As described above, logY (Y: stimulus value of XYZ color system) is linearly converted with respect to logE (E: exposure amount).

図3(a)〜(c)に示すような撮像装置特性補正処理により、撮像装置の特性に依存したシーン参照生データからシーン参照画像データ等の標準化された色空間におけるXYZ値へと変換される。なお、撮像装置特性補正処理で適用されるカラーフィルタの配列パターン、マトリクス演算の行列係数a〜i、光電変換特性やゲイン補正に伴う差異を補正する係数値は、全て撮像装置毎に異なるものである。   By the imaging device characteristic correction processing as shown in FIGS. 3A to 3C, the scene reference raw data depending on the characteristics of the imaging device is converted into XYZ values in a standardized color space such as scene reference image data. The Note that the color filter array pattern, matrix calculation matrix coefficients a to i, coefficient values for correcting differences associated with photoelectric conversion characteristics and gain correction, which are applied in the imaging apparatus characteristic correction processing, are all different for each imaging apparatus. is there.

縮小生データ生成部21は、撮像装置の特性に依存したシーン参照生データに対し、画像サイズを縮小する処理を施すことにより縮小生データを生成する。シーン参照生データから縮小生データを生成するには、公知の方法を用いることができる。例えば、特開2003−346143号公報(段落[0037]、図4参照)に開示されているように、シーン参照生データを色分離してRGBの各色信号に分け、色分けされたR信号、G信号、B信号に対して、それぞれ、色毎に設定されたローパスフィルタをかけ、ローパスフィルタをかけて得られたR信号、G信号、B信号を用いてシーン参照生データの画素配列に再配列し、画素を一定の割合で間引く処理を行う。画像サイズの縮小率は、特に限定しないが、処理速度と処理精度の観点から元画像の1/2〜1/10程度が好ましい。   The reduced raw data generation unit 21 generates reduced raw data by performing a process of reducing the image size on the scene reference raw data depending on the characteristics of the imaging device. A known method can be used to generate reduced raw data from scene reference raw data. For example, as disclosed in Japanese Patent Laid-Open No. 2003-346143 (see paragraph [0037], FIG. 4), the scene reference raw data is color-separated into RGB color signals, and the color-coded R signal, G The low-pass filter set for each color is applied to the signal and the B signal, and the R signal, the G signal, and the B signal obtained by applying the low-pass filter are rearranged into the pixel arrangement of the scene reference raw data. Then, a process of thinning out pixels at a certain rate is performed. The image size reduction rate is not particularly limited, but is preferably about 1/2 to 1/10 of the original image from the viewpoint of processing speed and processing accuracy.

操作部14は、シャッターボタン、電源のON/OFFボタン、ズームボタン等の各種機能ボタン、カーソルキー等を備え、各ボタンやキーに対応する操作信号を制御部11に出力する。   The operation unit 14 includes a shutter button, a power ON / OFF button, various function buttons such as a zoom button, a cursor key, and the like, and outputs an operation signal corresponding to each button and key to the control unit 11.

表示部15は、LCD(Liquid Crystal Display)又はEL(ElectroLuminescence)ディスプレイ等により構成され、制御部11により入力された表示制御信号に従って、所要の表示処理を行う。例えば、表示部15は、撮像装置100の使用者が撮影に関する設定や条件を確認するための情報を表示したり、縮小生データ生成部21で生成された縮小生データを表示用の画像データに変換して表示したりする。また、表示部15は、撮影モード時には、CCD3により取り込まれた画像を連続的に表示するファインダとしての機能を有する。   The display unit 15 is configured by an LCD (Liquid Crystal Display), an EL (ElectroLuminescence) display, or the like, and performs a required display process in accordance with a display control signal input by the control unit 11. For example, the display unit 15 displays information for the user of the imaging apparatus 100 to confirm settings and conditions related to shooting, or the reduced raw data generated by the reduced raw data generation unit 21 is used as display image data. Convert and display. Further, the display unit 15 has a function as a finder for continuously displaying images captured by the CCD 3 in the photographing mode.

ストロボ駆動回路16は、制御部11から入力される制御信号により、被写体輝度が低い時にストロボ17を駆動制御して発光させる。   The strobe drive circuit 16 drives and controls the strobe 17 to emit light when the subject brightness is low according to a control signal input from the control unit 11.

ストロボ17は、電池電圧を所定の高電圧に昇圧させ、電荷としてコンデンサに蓄える。そして、ストロボ17は、ストロボ駆動回路16により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。   The strobe 17 boosts the battery voltage to a predetermined high voltage and stores it as a charge in a capacitor. The strobe 17 is driven by the strobe drive circuit 16 to emit light from the X tube with the electric charge stored in the capacitor and irradiate the subject with auxiliary light.

焦点距離調整回路18は、制御部11から入力される制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
自動焦点駆動回路19は、制御部11から入力される制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
The focal length adjustment circuit 18 controls the motor 20 for adjusting the focal length by moving the lens 1 in accordance with a control signal input from the control unit 11.
The automatic focus driving circuit 19 controls the motor 20 for adjusting the focus (focus) by moving the lens 1 in accordance with a control signal input from the control unit 11.

次に、実施形態1の撮像装置100における動作について説明する。
図4のフローチャートを参照して、撮像装置100において実行される画像データ記録処理について説明する。
Next, the operation of the imaging apparatus 100 according to the first embodiment will be described.
With reference to the flowchart of FIG. 4, an image data recording process executed in the imaging apparatus 100 will be described.

操作部14のシャッターボタンが押され、撮影が指示されると(ステップS1)、CCD3から得られた撮像信号がA/D変換器5によりデジタル信号に変換されることによりシーン参照生データが生成されると同時に(ステップS2)、撮影情報データ生成部12において撮影情報データが生成され(ステップS3)、装置特性補正データ生成部13において撮像装置特性補正データが生成される(ステップS4)。次いで、縮小生データ生成部21において、ステップS2で生成されたシーン参照生データの画像サイズの縮小処理を行うことにより、縮小生データが生成される(ステップS5)。   When the shutter button of the operation unit 14 is pressed and shooting is instructed (step S1), the image reference signal obtained from the CCD 3 is converted into a digital signal by the A / D converter 5 to generate scene reference raw data. At the same time (step S2), photographing information data is generated in the photographing information data generation unit 12 (step S3), and imaging device characteristic correction data is generated in the device characteristic correction data generation unit 13 (step S4). Next, reduced raw data is generated in the reduced raw data generation unit 21 by performing a process of reducing the image size of the scene reference raw data generated in step S2 (step S5).

次いで、ヘッダ情報処理部8において、ステップS2で生成されたシーン参照生データのファイルヘッダに、ステップS3で生成された撮影情報データ、ステップS4で生成された撮像装置特性補正データ、ステップS5で生成された縮小生データがタグ情報として添付され(ステップS6)、添付済みデータファイル(図2参照)が作成される(ステップS7)。この添付済みデータファイルは、記憶デバイス9の記録メディアに記録、保存され(ステップS8)、本画像データ記録処理が終了する。   Next, in the header information processing unit 8, the shooting information data generated in step S3, the imaging device characteristic correction data generated in step S4, and the image data generated in step S5 are added to the file header of the scene reference raw data generated in step S2. The reduced raw data thus attached is attached as tag information (step S6), and an attached data file (see FIG. 2) is created (step S7). The attached data file is recorded and stored in the recording medium of the storage device 9 (step S8), and the image data recording process is completed.

添付済みデータファイルが記録された記録メディアは撮像装置本体から取り出され、画像処理装置や画像記録装置等の外部装置に装着され、その外部装置において、出力媒体上での鑑賞画像形成のために最適化する画像処理が施されて鑑賞画像参照データが生成されることになる。   The recording media on which the attached data file is recorded is taken out from the main body of the image pickup device and mounted on an external device such as an image processing device or an image recording device. The external device is optimal for forming an appreciation image on an output medium. Appreciation image reference data is generated by performing image processing.

以上のように、実施形態1の撮像装置100によれば、撮像装置の特性に依存したシーン参照生データに、撮像装置特性補正データ及び縮小生データを添付して記録メディアに記録することにより、その記録メディアに記録された画像データを出力媒体上に出力する際、縮小生データを用いて撮影時の撮影シーン(順光、逆光、アンダー、ストロボ)を容易に判別することができ、シーン参照生データから撮像装置特性補正データを用いて生成される標準化されたシーン参照画像データに対し、撮影シーンに応じた最適な画像処理を施すことが可能となる。従って、撮像画像情報の情報損失を伴うことなく、高品質な画像データを得ることが可能となる。   As described above, according to the imaging apparatus 100 of the first embodiment, by adding the imaging apparatus characteristic correction data and the reduced raw data to the scene reference raw data depending on the characteristics of the imaging apparatus and recording them on the recording medium, When outputting the image data recorded on the recording medium to the output medium, it is possible to easily identify the shooting scene (front light, backlight, under, strobe) at the time of shooting using the reduced raw data. It is possible to perform optimum image processing corresponding to the shooting scene on the standardized scene reference image data generated from the raw data using the imaging device characteristic correction data. Therefore, it is possible to obtain high-quality image data without causing information loss of captured image information.

また、撮像装置特性補正データ及び縮小生データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データに添付して記録メディアに記録することにより、縮小生データに基づいた撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンを照合することにより、撮影シーンの判別精度を向上させることが可能となる。   In addition to the imaging device characteristic correction data and the reduced raw data, the shooting scene data based on the reduced raw data is recorded by attaching the shooting information data, which is the shooting condition setting at the time of shooting, to the scene reference raw data and recording it on the recording medium. By collating the photographic scene as the discrimination result of the discrimination process with the photographic scene included in the photographic information data, it is possible to improve the discrimination accuracy of the photographic scene.

次に、記録メディアに記録された画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施す画像記録装置について説明する。
〈画像記録装置の構成〉
図5に、本発明の実施形態1に係る画像記録装置200の外観構成を示す。
Next, an image recording apparatus that performs image processing that optimizes image data recorded on a recording medium for the formation of an appreciation image on an output medium will be described.
<Configuration of image recording device>
FIG. 5 shows an external configuration of the image recording apparatus 200 according to Embodiment 1 of the present invention.

画像記録装置200には、本体202の一側面にマガジン装填部203が設けられ、本体202内には、出力媒体である銀塩印画紙に露光する露光処理部204と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部205が備えられている。プリント作成部205で作成されたプリントは、本体202の他側面に設けられたトレー206に排出される。更に、本体202の内部には、画像記録装置200を構成する各部を制御する制御部207が備えられている。   The image recording apparatus 200 is provided with a magazine loading unit 203 on one side of a main body 202. In the main body 202, an exposure processing unit 204 that exposes a silver salt photographic paper as an output medium, and an exposed silver salt print. A print creating unit 205 is provided for creating a print by developing and drying the paper. The print created by the print creation unit 205 is discharged to a tray 206 provided on the other side of the main body 202. Further, a control unit 207 that controls each unit constituting the image recording apparatus 200 is provided inside the main body 202.

また、本体202の上部には、表示部208、透過原稿読み込み装置であるフィルムスキャナ部209、反射原稿入力装置210、操作部211が配置されている。更に、本体202には、各種記録メディアに記録された画像データを読み取り可能な画像読込部214、各種記録メディアに画像データを書き込む画像書込部215が備えられている。   In addition, a display unit 208, a film scanner unit 209 that is a transparent document reading device, a reflective document input device 210, and an operation unit 211 are disposed on the upper portion of the main body 202. Furthermore, the main body 202 is provided with an image reading unit 214 that can read image data recorded on various recording media, and an image writing unit 215 that writes image data on various recording media.

フィルムスキャナ部209や反射原稿入力装置210から読み込まれる原稿として写真感光材料がある。この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等が挙げられ、アナログカメラにより撮像された駒画像情報が記録される。フィルムスキャナ部209は、写真感光材料に記録された駒画像情報をデジタル画像データに変換し、駒画像データとする。また、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置210は、この銀塩印画紙に記録された駒画像情報を、フラットベッドスキャナにより駒画像データに変換する。   There is a photographic photosensitive material as an original read from the film scanner unit 209 or the reflective original input device 210. Examples of the photographic light-sensitive material include a color negative film, a color reversal film, a black and white negative film, a black and white reversal film and the like, and frame image information captured by an analog camera is recorded. The film scanner unit 209 converts the frame image information recorded on the photographic photosensitive material into digital image data to obtain frame image data. Further, when the photographic photosensitive material is color paper which is silver salt photographic paper, the reflective original input device 210 converts the frame image information recorded on the silver salt photographic paper into frame image data by a flatbed scanner.

画像読込部214は、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214bを備え、それぞれ、PCカード213a、フロッピー(登録商標)ディスク213bが差し込み可能になっている。PCカード213aは、例えば、デジタルカメラで撮像して複数の駒画像データが記憶されたメモリを有する。フロッピー(登録商標)ディスク213bには、例えば、デジタルカメラで撮像された複数の駒画像データが記録される。PCカード213a及びフロッピー(登録商標)ディスク213b以外に駒画像データが記録される記録メディアとしては、例えば、マルチメディアカード(登録商標)、メモリースティック(登録商標)、MDデータ、CD−ROM等が挙げられる。   The image reading unit 214 includes a PC card adapter 214a and a floppy (registered trademark) disk adapter 214b, into which a PC card 213a and a floppy (registered trademark) disk 213b can be inserted. The PC card 213a has, for example, a memory in which a plurality of frame image data is stored after being captured by a digital camera. For example, a plurality of frame image data captured by a digital camera is recorded on the floppy (registered trademark) disk 213b. Examples of recording media on which frame image data is recorded in addition to the PC card 213a and the floppy (registered trademark) disk 213b include a multimedia card (registered trademark), a memory stick (registered trademark), MD data, and a CD-ROM. It is done.

画像書込部215には、フロッピー(登録商標)ディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、それぞれ、フロッピー(登録商標)ディスク216a、MO216b、光ディスク216cが差し込み可能になっている。光ディスク216cとしては、CD−R、DVD−R等がある。   The image writing unit 215 includes a floppy (registered trademark) disk adapter 215a, an MO adapter 215b, and an optical disk adapter 215c. ing. Examples of the optical disk 216c include a CD-R and a DVD-R.

なお、図5では、操作部211、表示部208、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214が、本体202に一体的に備えられた構造となっているが、これらの何れか1つ以上を別体として設けるようにしてもよい。   In FIG. 5, the operation unit 211, the display unit 208, the film scanner unit 209, the reflection original input device 210, and the image reading unit 214 are integrally provided in the main body 202. One or more of them may be provided separately.

なお、図5に示した画像記録装置200では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いるようにしてもよい。   In the image recording apparatus 200 shown in FIG. 5, there is illustrated an apparatus that creates a print by exposing to a photosensitive material and developing it. However, the print creation method is not limited to this. You may make it use systems, such as a photography system, a heat sensitive system, and a sublimation system.

〈画像記録装置の内部構成〉
図6に、画像記録装置200の内部構成を示す。画像記録装置200は、図6に示すように、制御部207、露光処理部204、プリント作成部205、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214、画像書込部215、データ蓄積手段271、テンプレート記憶手段272、操作部211、表示部208により構成される。
<Internal configuration of image recording device>
FIG. 6 shows the internal configuration of the image recording apparatus 200. As shown in FIG. 6, the image recording apparatus 200 includes a control unit 207, an exposure processing unit 204, a print creation unit 205, a film scanner unit 209, a reflection original input device 210, an image reading unit 214, an image writing unit 215, data The storage unit 271, the template storage unit 272, the operation unit 211, and the display unit 208 are configured.

制御部207は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像記録装置200を構成する各部の動作を制御する。   The control unit 207 is composed of a microcomputer, and cooperates with various control programs stored in a storage unit (not shown) such as a ROM (Read Only Memory) and a CPU (Central Processing Unit) (not shown). The operation of each part constituting the image recording apparatus 200 is controlled.

また、制御部207は、画像処理部270を有し、操作部211の情報入力手段12からの入力信号に基づいて、フィルムスキャナ部209や反射原稿入力装置210から読み取られた画像データ、画像読込部214から読み込まれた画像データ又は通信手段(図示略)を介して外部機器より入力された画像データに画像処理を施して露光用画像情報を形成し、露光処理部204に出力する。この画像処理部270は、画像処理された画像データに対して出力形態に応じた変換処理を施して指定された出力先に出力する。画像処理部270の出力先としては、表示部208、画像書込部215、通信手段(図示略)等がある。   Further, the control unit 207 includes an image processing unit 270, and based on an input signal from the information input unit 12 of the operation unit 211, image data read from the film scanner unit 209 or the reflective original input device 210, image reading The image data read from the unit 214 or image data input from an external device via communication means (not shown) is subjected to image processing to form exposure image information, which is output to the exposure processing unit 204. The image processing unit 270 performs conversion processing according to the output form on the image data that has been subjected to image processing, and outputs the image data to a designated output destination. Output destinations of the image processing unit 270 include a display unit 208, an image writing unit 215, communication means (not shown), and the like.

露光処理部204は、感光材料に画像の露光を行い、この感光材料をプリント作成部205に出力する。プリント作成部205は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 204 exposes an image on the photosensitive material and outputs the photosensitive material to the print creating unit 205. The print creating unit 205 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部209は、アナログカメラにより撮像された現像済みのネガフィルムN、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタル画像信号を取得する。反射原稿入力装置210は、フラットベッドスキャナにより、プリントP(写真プリント、書画、各種の印刷物)上の画像を読み取り、デジタル画像信号を取得する。   The film scanner unit 209 reads a frame image recorded on a transparent original such as a developed negative film N or a reversal film captured by an analog camera, and acquires a digital image signal of the frame image. The reflection original input device 210 reads an image on a print P (photo print, document, various printed materials) by a flat bed scanner, and acquires a digital image signal.

操作部211には、情報入力手段212が設けられている。情報入力手段212は、例えば、タッチパネル等により構成されており、情報入力手段212の操作信号を制御部207に出力する。また、操作部211は、キーボードやマウスを備えて構成するようにしてもよい。   The operation unit 211 is provided with information input means 212. The information input unit 212 is configured by a touch panel, for example, and outputs an operation signal of the information input unit 212 to the control unit 207. Further, the operation unit 211 may be configured to include a keyboard and a mouse.

画像読込部214は、PCカード213aやフロッピー(登録商標)ディスク213bに記録された駒画像情報を読み出して制御部207に転送する。この画像読込部214は、画像転送手段230として、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214b等を有する。画像読込部14は、PCカード用アダプタ214aに差し込まれたPCカード213aや、フロッピー(登録商標)ディスク用アダプタ214bに差し込まれたフロッピー(登録商標)ディスク213bに記録された駒画像情報を読み取り、制御部207に転送する。PCカード用アダプタ214aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 214 reads frame image information recorded on the PC card 213 a and the floppy (registered trademark) disk 213 b and transfers the frame image information to the control unit 207. The image reading unit 214 includes, as the image transfer means 230, a PC card adapter 214a, a floppy (registered trademark) disk adapter 214b, and the like. The image reading unit 14 reads frame image information recorded on the PC card 213a inserted into the PC card adapter 214a or the floppy (registered trademark) disk 213b inserted into the floppy (registered trademark) disk adapter 214b. Transfer to the control unit 207. For example, a PC card reader or a PC card slot is used as the PC card adapter 214a.

画像書込部215は、画像搬送部231として、フロッピー(登録商標)ディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cを備えている。画像書込部215は、制御部207から入力される書込信号に従って、フロッピー(登録商標)ディスク用アダプタ215aに差し込まれたフロッピー(登録商標)ディスク216a、MO用アダプタ215bに差し込まれたMO216b、光ディスク用アダプタ215cに差し込まれた光ディスク216cに、本発明における画像処理方法によって生成された画像データを書き込む。   The image writing unit 215 includes a floppy (registered trademark) disk adapter 215 a, an MO adapter 215 b, and an optical disk adapter 215 c as the image transport unit 231. In accordance with a write signal input from the control unit 207, the image writing unit 215 includes a floppy (registered trademark) disk 216a inserted into the floppy (registered trademark) disk adapter 215a, an MO 216b inserted into the MO adapter 215b, The image data generated by the image processing method according to the present invention is written to the optical disk 216c inserted into the optical disk adapter 215c.

データ蓄積手段271は、画像情報とそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し順次蓄積する。   The data storage means 271 stores and sequentially stores image information and corresponding order information (information on how many prints are created from images of which frames, print size information, etc.).

テンプレート記憶手段272は、サンプル識別情報D1、D2、D3に対応してサンプル画像データ(背景画像やイラスト画像等を示すデータ)を記憶すると共に、該サンプル画像データとの合成領域を設定するテンプレートのデータを少なくとも1つ記憶する。ここで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりテンプレート記憶手段272に予め記憶された複数のテンプレートから所定のテンプレートが選択されると、制御部207は、駒画像情報と当該選択されたテンプレートとを合成し、次いで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりサンプル識別情報D1、D2、D3が指定されると、当該指定されたサンプル識別情報D1、D2、D3に基づいてサンプル画像データを選択し、当該選択されたサンプル画像データと、クライアントにより注文された画像データ及び/又は文字データを合成して、結果としてクライアントが所望するサンプル画像データに基づくプリントを作成する。このテンプレートによる合成は、周知のクロマキー法によって行なわれる。   The template storage unit 272 stores sample image data (data indicating a background image, an illustration image, etc.) corresponding to the sample identification information D1, D2, and D3, and a template for setting a synthesis area with the sample image data. Store at least one piece of data. Here, when a predetermined template is selected from a plurality of templates stored in advance in the template storage unit 272 by an operator's operation (the operator's operation is based on a client instruction), the control unit 207 displays frame image information When the sample identification information D1, D2, D3 is designated by the operator's operation (the operator's operation is based on the instruction of the client), the designated sample identification is performed. Sample image data is selected based on the information D1, D2, and D3, the selected sample image data is combined with image data and / or character data ordered by the client, and as a result, the sample image desired by the client is obtained. Create a print based on the data. The synthesis using this template is performed by a well-known chroma key method.

なお、サンプル識別情報は、サンプル識別情報D1、D2、D3の3種類に限らず、3種類より多くても、また、少なくてもよい。
また、プリントのサンプルを指定するサンプル識別情報D1、D2、D3は、操作部211から入力される様に構成されているが、サンプル識別情報D1、D2、D3が、プリントのサンプル又は注文シートに記録されているため、OCR(Optical Character Reader)等の読み取り手段により読み取ることができる。又は、オペレータがキーボードから入力することもできる。
The sample identification information is not limited to the three types of sample identification information D1, D2, and D3, but may be more or less than three types.
The sample identification information D1, D2, and D3 for specifying the print sample is configured to be input from the operation unit 211. However, the sample identification information D1, D2, and D3 are input to the print sample or the order sheet. Since it is recorded, it can be read by reading means such as OCR (Optical Character Reader). Or an operator can also input from a keyboard.

このようにプリントのサンプルを指定するサンプル識別情報D1に対応してサンプル画像データを記録しておき、プリントのサンプルを指定するサンプル識別情報D1を入力し、この入力されるサンプル識別情報D1に基づきサンプル画像データを選択し、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、種々の実物大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多様な要求に応じることができる。   In this way, sample image data is recorded corresponding to the sample identification information D1 for designating the print sample, the sample identification information D1 for designating the print sample is input, and based on the input sample identification information D1. Select the sample image data, synthesize the selected sample image data with the image data and / or text data based on the order, and create a print based on the specified sample. Can actually place a print order and meet the diverse requirements of a wide range of users.

また、第1のサンプルを指定する第1のサンプル識別情報D2と第1のサンプルの画像データを記憶し、また、第2のサンプルを指定する第2のサンプル識別情報D3と第2のサンプルの画像データを記憶し、指定される第1及び第2のサンプル識別情報D2、D3とに基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要求に応じたプリントを作成することができる。   Also, the first sample identification information D2 designating the first sample and the image data of the first sample are stored, and the second sample identification information D3 designating the second sample and the second sample The image data is stored, the sample image data selected based on the designated first and second sample identification information D2 and D3, and the image data and / or character data based on the order are synthesized, and according to the designation In order to create a print based on a sample, it is possible to synthesize a wider variety of images, and it is possible to create a print that meets a wider variety of user requirements.

表示部208は、CRTやLCD等の表示ディスプレイにより構成され、制御部207から入力される表示制御信号に従って表示処理を行う。   The display unit 208 is configured by a display such as a CRT or LCD, and performs display processing in accordance with a display control signal input from the control unit 207.

制御部207の画像処理部270は、通信手段(図示略)を用いて、画像記録装置200が設置されている施設内の別のコンピュータや、インターネット等の通信ネットワークを介した遠方のコンピュータから、撮像画像を表す画像データとプリント等の作業命令を受信し、遠隔操作で画像処理を実施したりプリントを作成したりすることも可能になっている。   The image processing unit 270 of the control unit 207 uses a communication unit (not shown) from another computer in the facility where the image recording apparatus 200 is installed or a remote computer via a communication network such as the Internet. It is also possible to receive image data representing a picked-up image and a work instruction such as printing, and to perform image processing or create a print by remote operation.

また、画像処理部270は、通信手段(図示略)を用いて、本発明の画像処理を施した後の撮影画像を表す画像データと付帯するオーダー情報を、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して送付することも可能になっている。   Further, the image processing unit 270 uses communication means (not shown) to send image data representing the captured image after the image processing of the present invention and the accompanying order information to another computer in the facility, the Internet, etc. It is also possible to send to a distant computer via

このように画像記録装置200は、各種記録メディアの画像及び画像原稿を分割測光して得られた画像情報を取り込む入力手段と、この入力手段から取り入れた入力画像の画像情報を「出力画像の大きさ」と「出力画像における主要被写体の大きさ」という情報を取得又は推定して出力媒体上で画像を観察する際に好ましい印象を与える画像となるように処理を行う画像処理手段と、処理済の画像を表示、プリント出力、記録メディアに書き込む画像出力手段及び通信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して画像データと付帯するオーダー情報を送信する通信手段とを有する。   As described above, the image recording apparatus 200 includes an input unit that captures image information obtained by dividing and metering images of various recording media and an image original, and image information of the input image that is input from the input unit is “size of output image”. Image processing means for performing processing so as to obtain an image that gives a favorable impression when acquiring or estimating the information “size” and “the size of the main subject in the output image” and observing the image on the output medium; To send image data and accompanying order information to another computer in the facility or to a distant computer via the Internet, etc. Means.

図7に、画像記録装置200を、画像処理装置301と、画像処理装置301で画像処理された画像データを出力する出力部302に分けた場合の内部構成を示す。   FIG. 7 shows an internal configuration when the image recording apparatus 200 is divided into an image processing apparatus 301 and an output unit 302 that outputs image data processed by the image processing apparatus 301.

画像処理装置301は、図7に示すように、入力部303、ヘッダ情報解析部304、撮像装置特性補正処理部305、最適化処理部306により構成される。   As illustrated in FIG. 7, the image processing apparatus 301 includes an input unit 303, a header information analysis unit 304, an imaging device characteristic correction processing unit 305, and an optimization processing unit 306.

入力部303は、図6の画像読込部214を含み、記録メディアを装着する装着部を備えている。入力部303は、記録メディアが装着部に装着されると、当該記録メディアに記録されたデータファイルを読み出して、ヘッダ情報解析部304に出力する。なお、本実施形態では、入力部303が、装着された記録メディアからデータファイルを読み出すこととして説明するが、有線又は無線の通信手段を備え、この通信手段を介してデータファイルを入力するようにしてもよい。   The input unit 303 includes the image reading unit 214 in FIG. 6 and includes a mounting unit for mounting a recording medium. When the recording medium is loaded in the loading unit, the input unit 303 reads the data file recorded on the recording medium and outputs the data file to the header information analysis unit 304. In the present embodiment, the input unit 303 is described as reading a data file from the attached recording medium. However, the input unit 303 includes a wired or wireless communication unit, and the data file is input via the communication unit. May be.

ヘッダ情報解析部304は、入力部303から入力されたデータファイルを解析し、当該データファイルを、シーン参照生データ、撮像装置特性補正データ、縮小生データ、撮影情報データに分け、シーン参照生データを撮像装置特性補正処理部305内のシーン参照画像データ生成部309へ出力し、撮像装置特性補正データを装置特性補正処理部307へ出力し、縮小生データをシーン参照縮小画像データ生成部310へ出力し、撮影情報データを最適化処理部306内の撮影情報データ処理部313へ出力する。   The header information analysis unit 304 analyzes the data file input from the input unit 303, divides the data file into scene reference raw data, imaging device characteristic correction data, reduced raw data, and shooting information data. Is output to the scene reference image data generation unit 309 in the imaging device characteristic correction processing unit 305, the imaging device characteristic correction data is output to the device characteristic correction processing unit 307, and the reduced raw data is output to the scene reference reduced image data generation unit 310. The imaging information data is output to the imaging information data processing unit 313 in the optimization processing unit 306.

撮像装置特性補正処理部305は、装置特性補正処理部307、処理条件テーブル308、シーン参照画像データ生成部309、シーン参照縮小画像データ生成部310、一時記憶メモリ311により構成される。   The imaging device characteristic correction processing unit 305 includes a device characteristic correction processing unit 307, a processing condition table 308, a scene reference image data generation unit 309, a scene reference reduced image data generation unit 310, and a temporary storage memory 311.

装置特性補正処理部307は、ヘッダ情報解析部304から入力された撮像装置特性補正データと処理条件テーブル308の参照により、シーン参照画像データ及びシーン参照縮小画像データの生成条件を決定する。処理条件テーブル308は、撮像装置の特性毎に、シーン参照画像データ及びシーン参照縮小画像データを生成するための処理条件を記憶するテーブルである。   The device characteristic correction processing unit 307 determines the generation conditions of the scene reference image data and the scene reference reduced image data by referring to the imaging device characteristic correction data input from the header information analysis unit 304 and the processing condition table 308. The processing condition table 308 stores processing conditions for generating scene reference image data and scene reference reduced image data for each characteristic of the imaging apparatus.

シーン参照画像データ生成部309は、ヘッダ情報解析部304から入力されたシーン参照生データに対し、装置特性補正処理部307で決定された生成条件に従って撮像装置特性補正処理を施して、撮像装置の特性に依存しない標準化されたシーン参照画像データを生成し、一時記憶メモリ311に出力する。具体的に、撮像装置特性補正処理には、少なくともシーン参照生データを生成した撮像装置の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えば、RIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピングする処理が含まれる。   The scene reference image data generation unit 309 performs imaging device characteristic correction processing on the scene reference raw data input from the header information analysis unit 304 in accordance with the generation conditions determined by the device characteristic correction processing unit 307, and Standardized scene reference image data independent of characteristics is generated and output to the temporary storage memory 311. Specifically, in the imaging device characteristic correction processing, the signal intensity of each color channel based on at least the spectral sensitivity inherent to the imaging device of the imaging device that generated the scene reference raw data is set to a standard such as RIM RGB, ERIMM RGB, or scRGB. Includes mapping to color space.

シーン参照縮小画像データ生成部310は、ヘッダ情報解析部304から入力された縮小生データに対し、装置特性補正処理部307で決定された生成条件に従って撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成し、最適化処理部306内のシーン判別処理部312に出力する。   The scene reference reduced image data generation unit 310 is standardized by subjecting the reduced raw data input from the header information analysis unit 304 to imaging device characteristic correction processing according to the generation conditions determined by the device characteristic correction processing unit 307. The reduced scene reference reduced image data is generated and output to the scene discrimination processing unit 312 in the optimization processing unit 306.

一時記憶メモリ311は、シーン参照画像データ生成部309で生成されたシーン参照画像データを一時的に記憶する。   The temporary storage memory 311 temporarily stores the scene reference image data generated by the scene reference image data generation unit 309.

図9に、撮像装置特性補正処理部305での撮像装置特性補正処理の処理結果であるデータファイルを示す。図9に示すように、撮像装置特性補正処理により、図2に示すデータファイルのうち、シーン参照生データはシーン参照画像データに変換され、縮小生データはシーン参照縮小画像データに変換される。   FIG. 9 shows a data file that is the processing result of the imaging device characteristic correction processing in the imaging device characteristic correction processing unit 305. As shown in FIG. 9, the scene reference raw data is converted into scene reference image data and the reduced raw data is converted into scene reference reduced image data in the data file shown in FIG.

最適化処理部306は、シーン判別処理部312、撮影情報データ処理部313、鑑賞画像参照データ生成部314、一時記憶メモリ315、設定入力部316により構成される。   The optimization processing unit 306 includes a scene determination processing unit 312, a shooting information data processing unit 313, an appreciation image reference data generation unit 314, a temporary storage memory 315, and a setting input unit 316.

シーン判別処理部312は、シーン参照縮小画像データ生成部310で生成されたシーン参照縮小画像データを用いて、撮影時の撮影シーンを判別し、判別結果を鑑賞画像参照データ生成部314に出力する。シーン判別処理部312で行われる撮影シーン判別処理については、後に図10〜図21を参照して詳細に説明する。   The scene discrimination processing unit 312 discriminates a shooting scene at the time of shooting using the scene reference reduced image data generated by the scene reference reduced image data generation unit 310 and outputs the determination result to the appreciation image reference data generation unit 314. . The shooting scene determination process performed by the scene determination processing unit 312 will be described in detail later with reference to FIGS.

撮影情報データ処理部313は、ヘッダ情報解析部304から入力された撮影情報データに基づいて、撮影条件に応じた鑑賞画像参照データを生成するための生成条件を決定する。   The shooting information data processing unit 313 determines a generation condition for generating appreciation image reference data corresponding to the shooting condition based on the shooting information data input from the header information analysis unit 304.

鑑賞画像参照データ生成部314は、一時記憶メモリ311からシーン参照画像データを読み出し、撮影情報データ処理部313で決定された鑑賞画像参照データの生成条件と、シーン判別処理部312の判別結果と、設定入力部316から指定された出力先(記憶デバイス318、出力デバイス317、表示部208)の情報に基づいて、当該シーン参照画像データに対して、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データを生成し、設定入力部316の操作情報と共に一時記憶メモリ315に出力する。最適化処理には、例えば、シーン判別処理部312で判別された撮影シーンに応じた階調変換処理、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。撮影シーンに応じた階調変換処理を表す階調変換曲線の決定方法は、後に図22〜図25を参照して詳細に説明する。   The appreciation image reference data generation unit 314 reads the scene reference image data from the temporary storage memory 311, the generation conditions of the appreciation image reference data determined by the shooting information data processing unit 313, the determination result of the scene determination processing unit 312, Optimization for obtaining an optimal image at the output destination for the scene reference image data based on the information of the output destination (storage device 318, output device 317, display unit 208) designated from the setting input unit 316 Processing is performed to generate appreciation image reference data, which is output to the temporary storage memory 315 together with operation information of the setting input unit 316. The optimization processing includes, for example, gradation conversion processing according to the shooting scene determined by the scene determination processing unit 312, compression to the output destination color gamut, gradation compression from 16 bits to 8 bits, and reduction of the number of output pixels , Processing for handling output characteristics (LUT) of output devices and display devices, and the like are included. Furthermore, image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, and dodging processing is included. A method for determining a gradation conversion curve representing a gradation conversion process corresponding to a shooting scene will be described in detail later with reference to FIGS.

一時記憶メモリ315は、鑑賞画像参照データ生成部314で生成された鑑賞画像参照データを一時的に記憶し、設定入力部316により設定された出力先(記憶デバイス318、出力デバイス317、表示部208の何れか)に出力する。   The temporary storage memory 315 temporarily stores the appreciation image reference data generated by the appreciation image reference data generation unit 314, and the output destination (storage device 318, output device 317, display unit 208) set by the setting input unit 316. Any of the above).

設定入力部316は、鑑賞画像参照データ生成部314で生成される鑑賞画像参照データの出力先を指定するための入力デバイスであり、図6の操作部211に対応する。   The setting input unit 316 is an input device for designating an output destination of the appreciation image reference data generated by the appreciation image reference data generation unit 314, and corresponds to the operation unit 211 of FIG.

なお、画像処理装置301の各構成要素のうち、入力部303及び設定入力部316以外の構成要素が、図6に示す画像処理部270に含まれる。   Of the components of the image processing apparatus 301, components other than the input unit 303 and the setting input unit 316 are included in the image processing unit 270 illustrated in FIG.

出力部302は、表示部208、図6の露光処理部204及びプリント作成部205に対応する出力デバイス317、図6の画像書込部215に対応する記憶デバイス318により構成される。   The output unit 302 includes a display unit 208, an output device 317 corresponding to the exposure processing unit 204 and the print creation unit 205 in FIG. 6, and a storage device 318 corresponding to the image writing unit 215 in FIG.

次に、実施形態1の画像記録装置200における動作について説明する。
図8を参照して、画像記録装置200において実行される画像処理について説明する。
Next, the operation of the image recording apparatus 200 according to the first embodiment will be described.
With reference to FIG. 8, image processing executed in the image recording apparatus 200 will be described.

入力部303にデータが入力されると(即ち、装着部に記録メディアが装着されると)(ステップS20)、当該記録メディアに記録されたデータファイルが読み出され、ヘッダ情報解析部304において、データファイルの内容が解析され(ステップS21)、当該データファイルが、シーン参照生データ、撮像装置特性補正データ、縮小生データ、撮影情報データに分けられる。   When data is input to the input unit 303 (that is, when a recording medium is mounted on the mounting unit) (step S20), the data file recorded on the recording medium is read, and the header information analysis unit 304 The contents of the data file are analyzed (step S21), and the data file is divided into scene reference raw data, imaging device characteristic correction data, reduced raw data, and photographing information data.

撮影情報データ処理部313では、ステップS21で得られた撮影情報データに基づいて、撮影条件に応じた鑑賞画像参照データを生成するための生成条件が決定される(ステップS22)。装置特性補正処理部307では、ステップS21で得られた撮像装置特性補正データと処理条件テーブル308の参照により、シーン参照画像データ及びシーン参照縮小画像データの生成条件が決定され、ステップS21で得られたシーン参照生データ及び縮小生データに対し、当該決定された生成条件に従って撮像装置特性補正処理が施され(ステップS23)、シーン参照画像データが生成されるとともに(ステップS24)、シーン参照縮小画像データが生成される(ステップS25)。   The shooting information data processing unit 313 determines generation conditions for generating appreciation image reference data corresponding to shooting conditions based on the shooting information data obtained in step S21 (step S22). The apparatus characteristic correction processing unit 307 determines the generation conditions of the scene reference image data and the scene reference reduced image data by referring to the imaging apparatus characteristic correction data obtained in step S21 and the processing condition table 308, and is obtained in step S21. The scene reference raw data and the reduced raw data are subjected to imaging device characteristic correction processing according to the determined generation conditions (step S23), and scene reference image data is generated (step S24), and the scene reference reduced image is also generated. Data is generated (step S25).

ステップS25でシーン参照縮小画像データが生成されると、当該シーン参照縮小画像データに基づいて、撮影時の撮影シーンを判別する撮影シーン判別処理(図10〜図21参照)が行われる(ステップS26)。次いで、ステップS22で決定された鑑賞画像参照データの生成条件及びステップS26での撮影シーン判別処理の判別結果に基づいて、ステップS24で生成されたシーン参照画像データに対して最適化処理が施され(ステップS27)、鑑賞画像参照データが生成される(ステップS28)。   When the scene reference reduced image data is generated in step S25, a shooting scene determination process (see FIGS. 10 to 21) for determining a shooting scene at the time of shooting is performed based on the scene reference reduced image data (step S26). ). Next, optimization processing is performed on the scene reference image data generated in step S24 based on the generation conditions of the viewing image reference data determined in step S22 and the determination result of the shooting scene determination processing in step S26. (Step S27) Appreciation image reference data is generated (Step S28).

鑑賞画像参照データは、設定入力部316(操作部211)で設定された出力先において、当該出力先に応じた固有の処理が施され(ステップS29)、当該出力先のデバイスから出力され(ステップS30)、本画像処理が終了する。   The appreciation image reference data is subjected to processing specific to the output destination set in the setting input unit 316 (operation unit 211) (step S29), and is output from the output destination device (step S29). S30), the image processing ends.

<撮影シーン判別処理>
次に、図10のフローチャートを参照して、シーン判別処理部312において実行される撮影シーン判別処理について説明する。
<Shooting scene discrimination processing>
Next, with reference to the flowchart of FIG. 10, a shooting scene determination process executed in the scene determination processing unit 312 will be described.

まず、撮影画像データ(シーン参照縮小画像データ)が所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップT1)。第1の占有率算出処理、第2の占有率算出処理の詳細は、それぞれ、後に図11、図17を参照して説明する。   First, the captured image data (scene reference reduced image data) is divided into predetermined image areas, and occupancy ratios (first occupancy ratio, second occupancy ratio) indicating the ratio of each divided area to the entire captured image data are set. An occupation ratio calculation process to be calculated is performed (step T1). Details of the first occupancy rate calculation process and the second occupancy rate calculation process will be described later with reference to FIGS. 11 and 17, respectively.

次いで、ステップT1で算出された占有率(第1の占有率、第2の占有率)と、少なくとも、撮影画像データの画面中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、撮影シーンを特定する(光源条件及び露出条件を定量的に表す)指標(指標1〜6)が算出される(ステップT2)。次いで、ステップT2において算出された指標に基づいて撮影シーンが判別され(ステップT3)、本撮影シーン判別処理が終了する。ステップT2の指標算出処理及びステップT3の撮影シーンの判別方法については、後に詳細に説明する。   Next, the occupancy ratio (first occupancy ratio, second occupancy ratio) calculated in step T1 is set in advance according to at least the average luminance value of the skin color in the screen center portion of the captured image data and the imaging conditions. Based on the obtained coefficients, indices (indexes 1 to 6) for specifying the shooting scene (representing the light source condition and the exposure condition quantitatively) are calculated (step T2). Next, a shooting scene is determined based on the index calculated in step T2 (step T3), and the main shooting scene determination process ends. The index calculation process in step T2 and the shooting scene determination method in step T3 will be described in detail later.

次に、図11のフローチャートを参照して、第1の占有率算出処理について詳細に説明する。   Next, the first occupation ratio calculation process will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データ(シーン参照縮小画像データ)のRGB(Red,Green,Blue)値がHSV表色系に変換される(ステップT10)。図12は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図12に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, RGB (Red, Green, Blue) values of photographed image data (scene reference reduced image data) are converted into the HSV color system (step T10). FIG. 12 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 12, the values of digital image data as input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップT11)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step T11). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相’(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (A)
として、
色相’(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(A)及び(1)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh color hue regions (H = 0 to 39, 330 to 359), a hue color '(H) that satisfies the following equation (1) is defined as a flesh color region (H1), and a region that does not satisfy the equation (1) is ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formulas (A) and (1).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップT12)、本第1の占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2006203571
When the two-dimensional histogram is created, a first occupancy ratio indicating a ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step T12), and the first The occupation rate calculation process ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 2006203571

〈指標1及び指標2の算出方法〉
次に、指標1及び指標2の算出方法について説明する。
表2に、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203571
<Calculation method of index 1 and index 2>
Next, a method for calculating the index 1 and the index 2 will be described.
Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting, that is, the brightness state of the face area at the time of strobe shooting, for each divided area. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupancy ratio Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203571

図13に、明度(v)−色相(H)平面を示す。表2によると、図13において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図15は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図15によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 13 shows a lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. 13, and blue other than that is blue. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 15 shows a curve (coefficient curve) in which the first coefficient in the skin color area (H1) and the first coefficient in the other areas (green hue area (H3)) continuously change over the entire brightness. It is shown. According to Table 2 and FIG. 15, in the region of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 2006203571
従って、H1〜H4領域の和は、下記の式(2-1)〜(2-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (2-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (2-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (2-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (2-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 2006203571
Accordingly, the sum of the H1 to H4 regions is expressed as the following formulas (2-1) to (2-4).
H1 area sum = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) (2-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) (2-2)
Sum of H3 area = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) (2-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) (2-4)

指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (3)
The index 1 is defined as Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 4.424 (3)

表3に、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203571
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy as backlight photographing, that is, the brightness state of the face region at the time of backlight photographing. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the first occupancy rate Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203571

図14に、明度(v)−色相(H)平面を示す。表3によると、図14において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図16は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図16によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 14 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupation ratio calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 14, and the low lightness (shadow) region ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 16 shows the second coefficient in the skin color area (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 16, the sign of the second coefficient of the intermediate lightness region of the flesh color hue region having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 2006203571
従って、H1〜H4領域の和は、下記の式(4-1)〜(4-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (4-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (4-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (4-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (4-4) When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 2006203571
Therefore, the sum of the H1 to H4 regions is expressed by the following equations (4-1) to (4-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) (4-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) (4-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (4-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 (4-4)

指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の撮影シーンの判別に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (5)
Since the index 1 and the index 2 are calculated based on the brightness of the captured image data and the distribution amount of the hue, the index 1 and the index 2 are effective for determining a captured scene when the captured image data is a color image.

次に、図17のフローチャートを参照して、指標3を算出するために実行される第2の占有率算出処理について詳細に説明する。   Next, the second occupancy rate calculation process executed to calculate the index 3 will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データ(シーン参照縮小画像データ)のRGB値がHSV表色系に変換される(ステップT20)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップT21)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the photographed image data (scene reference reduced image data) are converted into the HSV color system (step T20). Next, the photographed image data is divided into regions composed of combinations of the distance from the outer edge of the photographed image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step T21). Hereinafter, the area division of the captured image data will be described in detail.

図18(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図18(a)に示す領域n1が外枠であり、図18(b)に示す領域n2が、外枠の内側の領域であり、図18(c)に示す領域n3が、領域n2の更に内側の領域であり、図18(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   18A to 18D show four regions n1 to n4 that are divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 18A is an outer frame, a region n2 shown in FIG. 18B is a region inside the outer frame, and a region n3 shown in FIG. An inner area, an area n4 shown in FIG. 18D, is an area at the center of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップT22)、本第2の占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2006203571
When the two-dimensional histogram is created, a second occupancy ratio indicating a ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire photographed image) is calculated (step T22). The occupation rate calculation process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2006203571

〈指標3の算出方法〉
次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203571
図19は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 <Calculation method of index 3>
Next, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy rate Qij of each divided area shown in Table 4 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203571
FIG. 19 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。

Figure 2006203571
従って、n1〜n4領域の和は、下記の式(6-1)〜(6-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (6-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (6-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (6-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (6-4) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
Figure 2006203571
Therefore, the sum of the n1 to n4 regions is expressed by the following formulas (6-1) to (6-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (6-1)
Sum of n2 area = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (6-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1 (6-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) (6-4)

指標3は、式(6-1)〜(6-4)で示されたn1〜n4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
The index 3 is defined as Expression (7) using the sum of the n1 to n4 regions shown in Expressions (6-1) to (6-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (7)
The index 3 is calculated based on a compositional characteristic (distance from the outer edge of the screen of the captured image data) based on the lightness distribution position of the captured image data, so that it can determine not only a color image but also a monochrome image capturing scene. It is also effective.

〈指標4の算出方法〉
次に、図20のフローチャートを参照して、指標4の算出処理について説明する。
<Calculation method of index 4>
Next, the calculation process of the index 4 will be described with reference to the flowchart of FIG.

まず、撮影画像データ(シーン参照縮小画像データ)のRGB(Red,Green,Blue)値から、式(A)を用いて輝度Yが算出される。次いで、撮影画像データの画面中央部における肌色領域の平均輝度値x1が算出される(ステップT23)。ここで、画面中央部とは、例えば、図18において、領域n3及び領域n4により構成される領域である。次いで、撮影画像データの最大輝度値と平均輝度値との差分値x2が算出される(ステップT24)。   First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the photographed image data (scene reference reduced image data) using Expression (A). Next, the average luminance value x1 of the skin color area at the center of the screen of the photographed image data is calculated (step T23). Here, the center of the screen is, for example, an area configured by an area n3 and an area n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the captured image data is calculated (step T24).

次いで、撮影画像データの輝度の標準偏差x3が算出され(ステップT25)、画面中央部における平均輝度値x4が算出される(ステップT26)。次いで、撮影画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップT27)。この比較値x5は、下記の式(8)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (8)
Next, the standard deviation x3 of the luminance of the captured image data is calculated (step T25), and the average luminance value x4 at the center of the screen is calculated (step T26). Next, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the photographed image data and the average luminance value Yskin_ave of the skin color area is calculated (step T27). This comparison value x5 is expressed as the following equation (8).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (8)

次いで、ステップT23〜S27で算出された値x1〜x5の各々に、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される(ステップT28)。指標4は、下記の式(9)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(-0.01)×x4+0.03×x5−6.50 (9)
この指標4は、撮影画像データの画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特にストロボ撮影シーンとアンダー撮影シーンの判別に有効である。
Next, the index 4 is calculated by multiplying each of the values x1 to x5 calculated in steps T23 to S27 by a fourth coefficient set in advance according to the shooting conditions and taking the sum (step T28). ). The index 4 is defined as the following formula (9).
Index 4 = 0.06 x x 1 + 1.13 x x 2 + 0.02 x x 3 + (-0.01) x x 4 + 0.03 x x 5-6.50 (9)
This index 4 has not only the compositional characteristics of the screen of the photographed image data but also luminance histogram distribution information, and is particularly effective for discriminating between the flash photography scene and the under photography scene.

撮影画像データの画面中央部における肌色領域の平均輝度値を指標4’とする。ここでの画面中央部とは、例えば、図18の領域n2、領域n3及び領域n4から構成される領域である。このとき、指標5は、指標1、指標3、指標4’を用いて式(10)のように定義され、指標6は、指標2、指標3、指標4’を用いて式(11)のように定義される。
指標5=0.46×指標1+0.61×指標3+0.01×指標4’−0.79 (10)
指標6=0.58×指標2+0.18×指標3+(-0.03)×指標4’+3.34 (11)
ここで、式(10)及び式(11)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
The average luminance value of the skin color area at the center of the screen of the photographed image data is set as an index 4 ′. Here, the center of the screen is, for example, an area composed of the area n2, the area n3, and the area n4 in FIG. At this time, the index 5 is defined as in Expression (10) using the index 1, index 3, and index 4 ′, and the index 6 is defined by Expression (11) using the index 2, index 3, and index 4 ′. Is defined as
Index 5 = 0.46 × Index 1 + 0.61 × Index 3 + 0.01 × Index 4′−0.79 (10)
Indicator 6 = 0.58 × Indicator 2 + 0.18 × Indicator 3 + (-0.03) × Indicator 4 '+ 3.34 (11)
Here, the weighting coefficient by which each index is multiplied in Expression (10) and Expression (11) is set in advance according to the shooting conditions.

次に、指標4〜6の値に基づいて撮影シーンを判別する方法について説明する。   Next, a method for discriminating a shooting scene based on the values of the indices 4 to 6 will be described.

図21(a)は、順光、逆光、ストロボの各撮影シーンで60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標5及び指標6を算出し、各撮影シーンでの指標5及び指標6の値をプロットしたものである。図21(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多いことがわかる。このように指標5及び指標6の値により撮影シーンを定量的に判別することができる。   In FIG. 21A, 60 images are shot in each of the shooting scenes of the front light, the backlight, and the strobe, and the index 5 and the index 6 are calculated for a total of 180 digital image data. The values of index 6 are plotted. According to FIG. 21A, when the value of index 5 is greater than 0.5, there are many flash photography scenes, the value of index 5 is 0.5 or less, and the value of index 6 is greater than −0.5. It can be seen that there are many backlight scenes. In this way, the shooting scene can be determined quantitatively based on the values of the index 5 and the index 6.

更に、順光、逆光、ストロボの各撮影シーンを判別できる指標5及び指標6に、指標4を加えることで、3次元的に撮影シーンが判別可能となり、撮影シーンの判別精度を一層向上させることが可能となる。指標4は、特に、画像全体を暗くする階調調整が行われるストロボ撮影シーンと、画像全体を明るくする階調調整が行われるアンダー撮影シーンとを判別するのに有効である。   Furthermore, by adding the index 4 to the index 5 and the index 6 that can discriminate each shooting scene of the front light, the backlight, and the strobe, the shooting scene can be discriminated three-dimensionally, and the discrimination accuracy of the shooting scene is further improved. Is possible. The index 4 is particularly effective for discriminating between a flash photography scene in which gradation adjustment is performed to darken the entire image and an under photography scene in which gradation adjustment is performed to brighten the entire image.

図21(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標5が0.5より大きい画像の指標4及び指標5を算出し、プロットしたものである。図21(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。表6に、指標4、指標5及び指標6の値による撮影シーンの判別内容を示す。

Figure 2006203571
FIG. 21B is a graph in which index 4 and index 5 of an image with index 5 greater than 0.5 are calculated and plotted among 60 captured images of the strobe shooting scene and the under shooting scene. According to FIG. 21B, it can be seen that when the value of index 4 is larger than 0, there are many flash shooting scenes, and when the value of index 4 is 0 or less, there are many under shooting scenes. Table 6 shows the details of the shooting scene discrimination based on the values of index 4, index 5, and index 6.
Figure 2006203571

<階調変換曲線の決定方法>
撮影シーンが判別されると、その判別された撮影シーンに応じて、撮影画像データ(シーン参照画像データ)に対する階調調整の方法が決定される。図22に示すように、撮影シーンが順光である場合は階調調整方法A(図22(a))が選択され、逆光である場合は階調調整方法B(図22(b))が選択され、ストロボである場合は階調調整方法C(図22(c))が選択され、アンダーである場合は、階調調整方法B(図22(b))が選択される。
<Determination method of gradation conversion curve>
When the shooting scene is determined, a gradation adjustment method for the shooting image data (scene reference image data) is determined according to the determined shooting scene. As shown in FIG. 22, the gradation adjustment method A (FIG. 22A) is selected when the shooting scene is a follow light, and the gradation adjustment method B (FIG. 22B) is selected when the shooting scene is a backlight. If it is selected and it is a strobe, the gradation adjustment method C (FIG. 22C) is selected, and if it is under, the gradation adjustment method B (FIG. 22B) is selected.

階調調整方法が決定されると、上記算出された指標に基づいて、階調調整に必要なパラメータ(階調調整パラメータ)が算出される。以下、階調調整パラメータの算出方法について説明する。なお、以下では、8bitの撮影画像データは16bitへと事前に変換されているものとし、撮影画像データの値の単位は16bitであるものとする。   When the gradation adjustment method is determined, parameters (gradation adjustment parameters) necessary for gradation adjustment are calculated based on the calculated index. Hereinafter, a method for calculating the gradation adjustment parameter will be described. In the following description, it is assumed that the 8-bit captured image data is converted in advance to 16 bits, and the unit of the value of the captured image data is 16 bits.

階調調整パラメータとしては、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
As the tone adjustment parameters, the following parameters P1 to P9 are calculated.
P1: Average brightness of the entire shooting screen
P2: Block division average brightness
P3: Average brightness of skin tone area (H1)
P4: Brightness correction value 1 = P1-P2
P5: Reproduction target correction value = Brightness reproduction target value (30360)-P4
P6: Offset value 1 = P5-P1
P7: Key correction value
P7 ': Key correction value 2
P8: Brightness correction value 2
P9: Offset value 2 = P5-P8-P1

ここで、図23及び図24を参照して、パラメータP2(ブロック分割平均輝度)の算出方法について説明する。
まず、撮影画像データを正規化するために、CDF(累積密度関数)を作成する。次いで、得られたCDFから最大値と最小値を決定する。この最大値と最小値は、RGB毎に求める。ここで、求められたRGB毎の最大値と最小値を、それぞれ、Rmax、Rmin、Gmax、Gmin、Bmax、Bminとする。
Here, a calculation method of the parameter P2 (block division average luminance) will be described with reference to FIGS.
First, a CDF (cumulative density function) is created in order to normalize captured image data. Next, the maximum value and the minimum value are determined from the obtained CDF. The maximum value and the minimum value are obtained for each RGB. Here, the maximum value and the minimum value obtained for each RGB are Rmax, Rmin, Gmax, Gmin, Bmax, and Bmin, respectively.

次いで、撮影画像データの任意の画素(Rx,Gx,Bx)に対する正規化画像データを算出する。RプレーンにおけるRxの正規化データをRpoint、GプレーンにおけるGxの正規化データをGpoint、BプレーンにおけるBxの正規化データをBpointとすると、正規化データRpoint、Gpoint、Bpointは、それぞれ、式(12)〜式(14)のように表される。
point={(Rx−Rmin)/(Rmax−Rmin)}×65535 (12)
point={(Gx−Gmin)/(Gmax−Gmin)}×65535 (13)
point={(Bx−Bmin)/(Bmax−Bmin)}×65535 (14)
次いで、式(15)により画素(Rx,Gx,Bx)の輝度Npointを算出する。
point=(Bpoint+Gpoint+Rpoint)/3 (15)
Next, normalized image data for any pixel (Rx, Gx, Bx) of the captured image data is calculated. When Rx normalization data in the R plane is R point , Gx normalization data in the G plane is G point , and Bx normalization data in the B plane is B point , the normalization data R point , G point , B point are , Respectively, are expressed as in Expression (12) to Expression (14).
R point = {(Rx−Rmin) / (Rmax−Rmin)} × 65535 (12)
G point = {(Gx−Gmin) / (Gmax−Gmin)} × 65535 (13)
B point = {(Bx−Bmin) / (Bmax−Bmin)} × 65535 (14)
Next, the luminance N point of the pixel (Rx, Gx, Bx) is calculated by Expression (15).
N point = (B point + G point + R point ) / 3 (15)

図23(a)は、正規化する前のRGB画素の輝度の度数分布(ヒストグラム)である。図23(a)において、横軸は輝度、縦軸は画素の頻度である。このヒストグラムは、RGB毎に作成する。輝度のヒストグラムが作成されると、式(12)〜(14)により、撮影画像データに対し、プレーン毎に正規化を行う。図23(b)は、式(15)により算出された輝度のヒストグラムを示す。撮影画像データが65535で正規化されているため、各画素は、最大値が65535で最小値が0の間で任意の値をとる。   FIG. 23A shows a frequency distribution (histogram) of luminance of RGB pixels before normalization. In FIG. 23A, the horizontal axis represents luminance, and the vertical axis represents pixel frequency. This histogram is created for each RGB. When the luminance histogram is created, normalization is performed for each plane with respect to the captured image data according to equations (12) to (14). FIG. 23B shows a histogram of luminance calculated by the equation (15). Since the captured image data is normalized by 65535, each pixel takes an arbitrary value between the maximum value 65535 and the minimum value 0.

図23(b)に示す輝度ヒストグラムを所定の範囲で区切ってブロックに分割すると、図23(c)に示すような度数分布が得られる。図23(c)において、横軸はブロック番号(輝度)、縦軸は頻度である。   When the luminance histogram shown in FIG. 23B is divided into blocks divided by a predetermined range, a frequency distribution as shown in FIG. 23C is obtained. In FIG. 23C, the horizontal axis represents the block number (luminance) and the vertical axis represents the frequency.

次いで、図23(c)に示された輝度ヒストグラムから、ハイライト、シャドー領域を削除する処理を行う。これは、白壁や雪上シーンでは、平均輝度が非常に高くなり、暗闇のシーンでは平均輝度は非常に低くなっているため、ハイライト、シャドー領域は、平均輝度制御に悪影響を与えてしまうことによる。そこで、図23(c)に示した輝度ヒストグラムのハイライト領域、シャドー領域を制限することによって、両領域の影響を減少させる。図24(a)(又は図23(c))に示す輝度ヒストグラムにおいて、高輝度領域(ハイライト領域)及び低輝度領域(シャドー領域)を削除すると、図24(b)のようになる。   Next, processing for deleting highlight and shadow areas is performed from the luminance histogram shown in FIG. This is because the average brightness is very high in white walls and snow scenes, and the average brightness is very low in dark scenes, so highlights and shadow areas adversely affect average brightness control. . Therefore, by limiting the highlight area and shadow area of the luminance histogram shown in FIG. 23C, the influence of both areas is reduced. If the high luminance region (highlight region) and the low luminance region (shadow region) are deleted from the luminance histogram shown in FIG. 24A (or FIG. 23C), the result is as shown in FIG.

次いで、図24(c)に示すように、輝度ヒストグラムにおいて、頻度が所定の閾値より大きい領域を削除する。これは、頻度が極端に多い部分が存在すると、この部分のデータが、撮影画像全体の平均輝度に強く影響を与えてしまうため、誤補正が生じやすいことによる。そこで、図24(c)に示すように、輝度ヒストグラムにおいて、閾値以上の画素数を制限する。図24(d)は、画素数の制限処理を行った後の輝度ヒストグラムを示す。   Next, as shown in FIG. 24C, an area having a frequency greater than a predetermined threshold is deleted from the luminance histogram. This is because if there is a part having an extremely high frequency, the data in this part strongly affects the average luminance of the entire captured image, and thus erroneous correction is likely to occur. Therefore, as shown in FIG. 24C, the number of pixels equal to or larger than the threshold is limited in the luminance histogram. FIG. 24D shows a luminance histogram after the pixel number limiting process is performed.

正規化された輝度ヒストグラムから、高輝度領域及び低輝度領域を削除し、更に、累積画素数を制限することによって得られた輝度ヒストグラム(図24(d))の各ブロック番号と、それぞれの頻度に基づいて、輝度の平均値を算出したものがパラメータP2である。   Each block number of the luminance histogram (FIG. 24 (d)) obtained by deleting the high luminance region and the low luminance region from the normalized luminance histogram and further limiting the number of accumulated pixels, and the respective frequencies The parameter P2 is obtained by calculating the average luminance based on the above.

パラメータP1は、撮影画像データ全体の輝度の平均値であり、パラメータP3は、撮影画像データのうち肌色領域(H1)の輝度の平均値である。パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(16)、式(17)、式(18)のように定義される。
P7(キー補正値)={P3 −((指標6/ 6)×18000+22000)}/24.78 (16)
P7’(キー補正値2)={P3−((指標4/ 6)×10000+30000)}/24.78 (17)
P8(輝度補正値2)=(指標5/ 6)×17500 (18)
The parameter P1 is an average value of the luminance of the entire captured image data, and the parameter P3 is an average value of the luminance of the skin color area (H1) in the captured image data. The key correction value of the parameter P7, the key correction value 2 of the parameter P7 ′, and the luminance correction value 2 of the parameter P8 are defined as Expression (16), Expression (17), and Expression (18), respectively.
P7 (key correction value) = {P3-((index 6/6) x 18000 + 22000)} / 24.78 (16)
P7 '(key correction value 2) = {P3-((index 4/6) x 10000 + 30000)} / 24.78 (17)
P8 (Luminance correction value 2) = (Indicator 5/6) x 17500 (18)

次に、階調調整パラメータに基づいて各撮影シーンに対応する階調変換曲線を決定する方法について説明する。
〈順光の場合〉
撮影シーンが順光である場合、パラメータP1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(19)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (19)
従って、撮影シーンが順光の場合、図22(a)に示す複数の階調変換曲線の中から、式(19)に対応する階調変換曲線が選択される。又は、式(19)に基づいて階調変換曲線を算出(決定)してもよい。
Next, a method for determining a gradation conversion curve corresponding to each shooting scene based on the gradation adjustment parameter will be described.
<For direct light>
When the shooting scene is front light, offset correction (parallel shift of 8-bit value) for matching the parameter P1 with P5 is performed by the following equation (19).
RGB value of output image = RGB value of input image + P6 (19)
Therefore, when the photographic scene is front light, a gradation conversion curve corresponding to Expression (19) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (19).

〈逆光の場合〉
撮影シーンが逆光である場合、図22(b)に示す複数の階調変換曲線の中から、式(16)に示すパラメータP7(キー補正値)に対応する階調変換曲線が選択される。図22(b)の階調変換曲線の具体例を図25に示す。パラメータP7の値と、選択される階調変換曲線の対応関係を以下に示す。
−50 < P7 < +50 の場合→L3
+50 ≦ P7 < +150 の場合→L4
+150 ≦ P7 < +250 の場合→L5
−150 < P7 ≦ −50 の場合→L2
−250 < P7 ≦ −150 の場合→L1
なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。
<Backlight>
When the shooting scene is backlit, a gradation conversion curve corresponding to the parameter P7 (key correction value) shown in Expression (16) is selected from the plurality of gradation conversion curves shown in FIG. A specific example of the gradation conversion curve of FIG. 22B is shown in FIG. The correspondence between the value of parameter P7 and the selected gradation conversion curve is shown below.
When -50 <P7 <+50 → L3
When +50 ≤ P7 <+150 → L4
When +150 ≤ P7 <+250 → L5
When -150 <P7 ≤ -50 → L2
When -250 <P7 ≤ -150 → L1
When the shooting scene is backlit, it is preferable to perform a dodging process together with the gradation conversion process. In this case, it is desirable that the degree of the dodging process be adjusted according to the index 6 indicating the backlight intensity.

〈アンダーの場合〉
撮影シーンがアンダーである場合、図22(b)に示す複数の階調変換曲線の中から、式(17)に示すパラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。具体的には、撮影シーンが逆光の場合の階調変換曲線の選択方法と同様に、図25に示す階調変換曲線の中から、パラメータP7’の値に対応した階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。
<In case of under>
When the shooting scene is under, a gradation conversion curve corresponding to the parameter P7 ′ (key correction value 2) shown in Expression (17) is selected from the plurality of gradation conversion curves shown in FIG. The Specifically, the gradation conversion curve corresponding to the value of the parameter P7 ′ is selected from the gradation conversion curves shown in FIG. 25 in the same manner as the method for selecting the gradation conversion curve when the shooting scene is backlit. The When the shooting scene is under, the dodging process as shown in the case of backlight is not performed.

〈ストロボの場合〉
撮影シーンがストロボである場合、オフセット補正(8bit値の平行シフト)を式(20)により行う。
出力画像のRGB値=入力画像のRGB値+P9 (20)
従って、撮影シーンがストロボの場合、図22(c)に示す複数の階調変換曲線の中から、式(20)に対応する階調変換曲線が選択される。又は、式(20)に基づいて階調変換曲線を算出(決定)してもよい。なお、式(20)のパラメータP9の値が、予め設定された所定値αを上回った場合、図25に示す曲線L1〜L5の中から、キー補正値がP9−αに対応する曲線が選択される。
<When using a flash>
When the shooting scene is a strobe, offset correction (parallel shift of 8-bit value) is performed by Expression (20).
RGB value of output image = RGB value of input image + P9 (20)
Therefore, when the shooting scene is a strobe, a gradation conversion curve corresponding to Expression (20) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (20). When the value of parameter P9 in equation (20) exceeds a predetermined value α, a curve corresponding to the key correction value P9-α is selected from curves L1 to L5 shown in FIG. Is done.

なお、本実施形態では、実際に撮影画像データに対して階調変換処理を施す場合、上述の各画像処理条件を16bitから8bitへ変更するものとする。   In the present embodiment, when the gradation conversion process is actually performed on the captured image data, the above-described image processing conditions are changed from 16 bits to 8 bits.

また、順光、逆光、ストロボ、アンダー間で階調調整方法が大きく異なる場合、撮影シーンの誤判別時の画質への影響が懸念されるため、順光、逆光、ストロボ、アンダー間に、階調調整方法が緩やかに移行する中間領域を設定することが望ましい。   Also, if the gradation adjustment method differs greatly between the following light, backlight, strobe, and under, there is a concern about the effect on the image quality when the shooting scene is misidentified. It is desirable to set an intermediate region where the tone adjustment method gradually changes.

以上のように、実施形態1の画像記録装置200によれば、撮像装置から出力されたシーン参照生データのファイルヘッダに添付された撮像装置特性補正データ、撮影情報データに基づいて最適化された鑑賞画像参照データを生成することにより、撮像画像情報の情報損失を伴うことなく、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを得ることが可能となる。   As described above, according to the image recording apparatus 200 of the first embodiment, the image recording apparatus 200 is optimized based on the imaging apparatus characteristic correction data and the imaging information data attached to the file header of the scene reference raw data output from the imaging apparatus. By generating appreciation image reference data, it is possible to obtain appreciation image reference data of higher quality than the image data obtained by the imaging apparatus without any information loss of the captured image information.

また、撮像装置から出力されたシーン参照生データのファイルヘッダに添付された縮小生データから、標準化されたシーン参照縮小画像データを生成し、その生成されたシーン参照縮小画像データに基づいて撮影時の撮影シーンを判別することにより、撮影シーンに応じた最適な階調変換処理を行うことが可能となる。特に、撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンを照合することにより、撮影シーンの判別精度を向上させることができる。   Also, standardized scene reference reduced image data is generated from the reduced raw data attached to the file header of the scene reference raw data output from the imaging device, and at the time of shooting based on the generated scene reference reduced image data By discriminating the shooting scene, it is possible to perform optimum gradation conversion processing according to the shooting scene. In particular, the accuracy of shooting scene discrimination can be improved by collating a shooting scene as a determination result of the shooting scene determination processing with a shooting scene included in shooting information data.

なお、実施形態1では、図2に示すように、シーン参照生データに、撮影時の撮影条件設定を示す撮影情報データが添付される場合を示したが、図26(a)に示すように、シーン参照生データのファイルヘッダに、撮影情報データを添付せずに、撮像装置特性補正データと縮小生データのみを添付してデータファイルを作成するようにしてもよい。この場合、撮像装置特性補正処理部305での撮像装置特性補正処理の処理結果であるデータファイルには、図26(b)に示すように撮影情報データが含まれず、図8の画像処理では、ステップS22の処理は行われない。撮影情報データがない場合であっても、シーン参照縮小画像データに基づいた撮影シーン判別処理によって撮影シーンを充分な精度で判別することができ、撮影シーンに応じた最適な階調変換処理を行うことが可能である。   In the first embodiment, as shown in FIG. 2, the case is shown where shooting information data indicating shooting condition settings at the time of shooting is attached to the scene reference raw data, as shown in FIG. Instead of attaching the shooting information data to the file header of the scene reference raw data, only the imaging device characteristic correction data and the reduced raw data may be attached to create a data file. In this case, the data file which is the processing result of the imaging device characteristic correction processing in the imaging device characteristic correction processing unit 305 does not include the shooting information data as shown in FIG. 26B. In the image processing of FIG. The process of step S22 is not performed. Even if there is no shooting information data, the shooting scene determination process based on the scene reference reduced image data can be used to determine the shooting scene with sufficient accuracy, and the optimum gradation conversion process according to the shooting scene is performed. It is possible.

[実施形態2]
図27〜図31を参照して、本発明の実施形態2について説明する。
[Embodiment 2]
A second embodiment of the present invention will be described with reference to FIGS.

〈撮像装置の構成〉
図27に、本発明の実施形態2に係る撮像装置101の主要部構成を示す。実施形態2の撮像装置101は、実施形態1の撮像装置100に、シーン参照縮小画像データ生成部22を追加した構成である。以下では、実施形態1の撮像装置100と同一の構成要素には同一の符号を付し、撮像装置100と異なる部分のみ説明する。
<Configuration of imaging device>
FIG. 27 shows a main part configuration of an imaging apparatus 101 according to Embodiment 2 of the present invention. The imaging apparatus 101 according to the second embodiment has a configuration in which a scene reference reduced image data generation unit 22 is added to the imaging apparatus 100 according to the first embodiment. Below, the same code | symbol is attached | subjected to the component same as the imaging device 100 of Embodiment 1, and only a different part from the imaging device 100 is demonstrated.

シーン参照縮小画像データ生成部22は、縮小生データ生成部21で生成された縮小生データに対し、装置特性補正データ生成部13で生成された撮像装置特性補正データを用いて撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成する。このシーン参照縮小画像データは、表示部15において表示用の画像データに変換されて表示される。   The scene reference reduced image data generation unit 22 uses the imaging device characteristic correction data generated by the device characteristic correction data generation unit 13 for the reduced raw data generated by the reduced raw data generation unit 21, and performs imaging device characteristic correction processing. To generate standardized scene reference reduced image data. The scene reference reduced image data is converted into display image data and displayed on the display unit 15.

ヘッダ情報処理部8は、一時記憶メモリ6に格納されたシーン参照生データのファイルヘッダ(ヘッダ領域)に、撮影情報データ生成部12で生成された撮影情報データ、装置特性補正データ生成部13で生成された撮像装置特性補正データ、シーン参照縮小画像データ生成部22で生成されたシーン参照縮小画像データデータを添付して添付済みデータファイルを作成する。図28に、この添付済みデータファイルのデータ構造を示す。シーン参照縮小画像データ、撮像装置特性補正データ等は、例えば、アドビシステム社推奨の画像フォーマットDigital Negative(DNG)に従ったDNGタグ等、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されることが好ましい。   The header information processing unit 8 uses the shooting information data generated by the shooting information data generation unit 12 and the device characteristic correction data generation unit 13 in the file header (header area) of the scene reference raw data stored in the temporary storage memory 6. An attached data file is created by attaching the generated imaging device characteristic correction data and the scene reference reduced image data data generated by the scene reference reduced image data generation unit 22. FIG. 28 shows the data structure of the attached data file. The scene reference reduced image data, the imaging device characteristic correction data, and the like are recorded as tag information to be written in the header portion in the image file, such as a DNG tag according to an Adobe system recommended image format Digital Negative (DNG), for example. It is preferable.

次に、実施形態2の撮像装置101における動作について説明する。
図29のフローチャートを参照して、撮像装置101において実行される画像データ記録処理について説明する。
Next, the operation of the imaging apparatus 101 according to the second embodiment will be described.
With reference to the flowchart of FIG. 29, the image data recording process performed in the imaging device 101 will be described.

操作部14のシャッターボタンが押され、撮影が指示されると(ステップS40)、CCD3から得られた撮像信号がA/D変換器5によりデジタル信号に変換されることによりシーン参照生データが生成されると同時に(ステップS41)、撮影情報データ生成部12において撮影情報データが生成され(ステップS42)、装置特性補正データ生成部13において撮像装置特性補正データが生成される(ステップS43)。   When the shutter button of the operation unit 14 is pressed and shooting is instructed (step S40), the image reference signal obtained from the CCD 3 is converted into a digital signal by the A / D converter 5, thereby generating scene reference raw data. At the same time (step S41), shooting information data is generated in the shooting information data generation unit 12 (step S42), and imaging device characteristic correction data is generated in the device characteristic correction data generation unit 13 (step S43).

次いで、縮小生データ生成部21において、ステップS41で生成されたシーン参照生データの画像サイズの縮小処理を行うことにより、縮小生データが生成される(ステップS44)。次いで、シーン参照縮小画像データ生成部22において、ステップS44で生成された縮小生データに対し、ステップS43で生成された撮像装置特性補正データを用いて撮像装置特性補正処理が施されることにより、標準化されたシーン参照縮小画像データが生成される(ステップS45)。   Next, reduced raw data is generated in the reduced raw data generation unit 21 by performing a process of reducing the image size of the scene reference raw data generated in step S41 (step S44). Next, the scene reference reduced image data generation unit 22 performs an imaging device characteristic correction process on the reduced raw data generated in step S44 using the imaging device characteristic correction data generated in step S43. Standardized scene reference reduced image data is generated (step S45).

次いで、ヘッダ情報処理部8において、ステップS41で生成されたシーン参照生データのファイルヘッダに、ステップS42で生成された撮影情報データ、ステップS43で生成された撮像装置特性補正データ、ステップS45で生成されたシーン参照縮小画像データがタグ情報として添付され(ステップS46)、添付済みデータファイル(図28参照)が作成される(ステップS47)。この添付済みデータファイルは、記憶デバイス9の記録メディアに記録、保存され(ステップS48)、本画像データ記録処理が終了する。   Next, in the header information processing unit 8, the shooting reference data generated in step S42, the imaging device characteristic correction data generated in step S43, and the generation in step S45 are added to the file header of the scene reference raw data generated in step S41. The reduced scene reference reduced image data is attached as tag information (step S46), and an attached data file (see FIG. 28) is created (step S47). The attached data file is recorded and stored in the recording medium of the storage device 9 (step S48), and the image data recording process is completed.

添付済みデータファイルが記録された記録メディアは撮像装置本体から取り出され、画像処理装置や画像記録装置等の外部装置に装着され、その外部装置において、出力媒体上での鑑賞画像形成のために最適化する画像処理が施されて鑑賞画像参照データが生成されることになる。   The recording media on which the attached data file is recorded is taken out from the main body of the image pickup device and mounted on an external device such as an image processing device or an image recording device. The external device is optimal for forming an appreciation image on an output medium. Appreciation image reference data is generated by performing image processing.

以上のように、実施形態2の撮像装置101によれば、撮像装置の特性に依存したシーン参照生データに、撮像装置特性補正データ及びシーン参照縮小画像データを添付して記録メディアに記録することにより、その記録メディアに記録された画像データを出力媒体上に出力する際、シーン参照縮小画像データを用いて撮影時の撮影シーン(順光、逆光、アンダー、ストロボ)を容易に判別することができ、シーン参照生データから撮像装置特性補正データを用いて生成される標準化されたシーン参照画像データに対し、撮影シーンに応じた最適な画像処理を施すことが可能となる。従って、撮像画像情報の情報損失を伴うことなく、高品質な画像データを得ることが可能となる。   As described above, according to the imaging apparatus 101 of the second embodiment, the imaging apparatus characteristic correction data and the scene reference reduced image data are attached to the scene reference raw data depending on the characteristics of the imaging apparatus and recorded on the recording medium. Thus, when outputting the image data recorded on the recording medium to the output medium, it is possible to easily determine the shooting scene (front light, backlight, under, strobe) at the time of shooting using the scene reference reduced image data. In addition, it is possible to perform optimum image processing corresponding to the shooting scene on the standardized scene reference image data generated from the scene reference raw data using the imaging device characteristic correction data. Therefore, it is possible to obtain high-quality image data without causing information loss of captured image information.

また、撮像装置特性補正データ及びシーン参照縮小画像データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データに添付して記録メディアに記録することにより、シーン参照縮小画像データに基づいた撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンのデータを照合することにより、撮影シーンの判別精度を向上させることが可能となる。   In addition to the imaging device characteristic correction data and the scene reference reduced image data, shooting information data, which is a shooting condition setting at the time of shooting, is attached to the scene reference raw data and recorded on a recording medium, whereby the scene reference reduced image data is obtained. By collating the photographic scene as the discrimination result of the photographic scene discrimination process based on the photographic scene data included in the photographic information data, it is possible to improve the photographic scene discrimination accuracy.

次に、記録メディアに記録された画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施す画像記録装置について説明する。
〈画像記録装置の構成〉
実施形態2の画像記録装置201の外観構成及び内部構成は、実施形態1において、それぞれ、図5及び図6に示した構成と同一ゆえ、同一の符号を用い、その図示及び構成説明を省略する。
Next, an image recording apparatus that performs image processing that optimizes image data recorded on a recording medium for the formation of an appreciation image on an output medium will be described.
<Configuration of image recording device>
The external configuration and the internal configuration of the image recording apparatus 201 of the second embodiment are the same as those shown in FIGS. 5 and 6 in the first embodiment, and therefore the same reference numerals are used and the illustration and description of the configuration are omitted. .

図30に、実施形態2の画像記録装置201を、画像処理装置320と、画像処理装置320で画像処理された画像データを出力する出力部302に分けた場合の内部構成を示す。図30では、図7に示した実施形態1の画像記録装置200の構成要素と同一の構成要素には同一の符号を用いる。以下、実施形態1の画像記録装置200と異なる点のみを説明する。   FIG. 30 shows an internal configuration when the image recording apparatus 201 according to the second embodiment is divided into an image processing apparatus 320 and an output unit 302 that outputs image data processed by the image processing apparatus 320. In FIG. 30, the same reference numerals are used for the same components as those of the image recording apparatus 200 according to the first embodiment shown in FIG. Only differences from the image recording apparatus 200 of the first embodiment will be described below.

画像処理装置320は、図30に示すように、入力部303、ヘッダ情報解析部304、撮像装置特性補正処理部321、最適化処理部322により構成される。   As illustrated in FIG. 30, the image processing device 320 includes an input unit 303, a header information analysis unit 304, an imaging device characteristic correction processing unit 321, and an optimization processing unit 322.

ヘッダ情報解析部304は、入力部303から入力されたデータファイルを解析し、当該データファイルを、シーン参照生データ、撮像装置特性補正データ、シーン参照縮小画像データ、撮影情報データに分け、シーン参照生データを撮像装置特性補正処理部321内のシーン参照画像データ生成部309へ出力し、撮像装置特性補正データを装置特性補正処理部307へ出力し、シーン参照縮小画像データを最適化処理部322内のシーン判別処理部312aへ出力し、撮影情報データを撮影情報データ処理部313へ出力する。   The header information analysis unit 304 analyzes the data file input from the input unit 303, divides the data file into scene reference raw data, imaging device characteristic correction data, scene reference reduced image data, and shooting information data, and refers to the scene. The raw data is output to the scene reference image data generation unit 309 in the imaging device characteristic correction processing unit 321, the imaging device characteristic correction data is output to the device characteristic correction processing unit 307, and the scene reference reduced image data is optimized. To the scene discrimination processing unit 312a, and the shooting information data is output to the shooting information data processing unit 313.

撮像装置特性補正処理部321は、装置特性補正処理部307、処理条件テーブル308、シーン参照画像データ生成部309、一時記憶メモリ311により構成される。   The imaging device characteristic correction processing unit 321 includes a device characteristic correction processing unit 307, a processing condition table 308, a scene reference image data generation unit 309, and a temporary storage memory 311.

装置特性補正処理部307は、ヘッダ情報解析部304から入力された撮像装置特性補正データと処理条件テーブル308の参照により、シーン参照画像データの生成条件を決定する。処理条件テーブル308は、撮像装置の特性毎に、シーン参照画像データを生成するための処理条件を記憶するテーブルである。   The device characteristic correction processing unit 307 determines the generation conditions of the scene reference image data by referring to the imaging device characteristic correction data input from the header information analysis unit 304 and the processing condition table 308. The processing condition table 308 is a table that stores processing conditions for generating scene reference image data for each characteristic of the imaging apparatus.

撮像装置特性補正処理部321での撮像装置特性補正処理の処理結果であるデータファイルは、図9と同一である。   The data file that is the processing result of the imaging device characteristic correction processing in the imaging device characteristic correction processing unit 321 is the same as that in FIG.

最適化処理部322は、シーン判別処理部312a、撮影情報データ処理部313、鑑賞画像参照データ生成部314、一時記憶メモリ315、設定入力部316により構成される。   The optimization processing unit 322 includes a scene determination processing unit 312a, a shooting information data processing unit 313, an appreciation image reference data generation unit 314, a temporary storage memory 315, and a setting input unit 316.

シーン判別処理部312aは、ヘッダ情報解析部304から入力されたシーン参照縮小画像データを用いて、撮影時の撮影シーンを判別し(図10〜図21参照)、判別結果を鑑賞画像参照データ生成部314に出力する。   The scene discrimination processing unit 312a discriminates a shooting scene at the time of shooting using the scene reference reduced image data input from the header information analysis unit 304 (see FIGS. 10 to 21), and generates a viewing image reference data. To the unit 314.

鑑賞画像参照データ生成部314は、一時記憶メモリ311からシーン参照画像データを読み出し、撮影情報データ処理部313で決定された鑑賞画像参照データの生成条件と、シーン判別処理部312aの判別結果と、設定入力部316から指定された出力先(記憶デバイス318、出力デバイス317、表示部208)の情報に基づいて、当該シーン参照画像データに対して、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データを生成し、設定入力部316の操作情報と共に一時記憶メモリ315に出力する。最適化処理には、例えば、判別された撮影シーンに応じた階調変換処理(図22〜図25)、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。   The appreciation image reference data generation unit 314 reads the scene reference image data from the temporary storage memory 311, the generation conditions of the appreciation image reference data determined by the shooting information data processing unit 313, the determination result of the scene determination processing unit 312 a, Optimization for obtaining an optimal image at the output destination for the scene reference image data based on the information of the output destination (storage device 318, output device 317, display unit 208) designated from the setting input unit 316 Processing is performed to generate appreciation image reference data, which is output to the temporary storage memory 315 together with operation information of the setting input unit 316. The optimization processing includes, for example, gradation conversion processing (FIGS. 22 to 25) according to the determined shooting scene, compression to the output destination color gamut, gradation compression from 16 bits to 8 bits, and the number of output pixels. Reduction, processing for handling output characteristics (LUT) of output devices and display devices, and the like are included. Furthermore, image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, and dodging processing is included.

なお、画像処理装置320の各構成要素のうち、入力部303及び設定入力部316以外の構成要素が、図6に示す画像処理部270に含まれる。   Of the components of the image processing apparatus 320, components other than the input unit 303 and the setting input unit 316 are included in the image processing unit 270 illustrated in FIG.

次に、実施形態2の画像記録装置201における動作について説明する。
図31を参照して、画像記録装置201において実行される画像処理について説明する。
Next, the operation of the image recording apparatus 201 according to the second embodiment will be described.
With reference to FIG. 31, image processing executed in the image recording apparatus 201 will be described.

入力部303にデータが入力されると(即ち、装着部に記録メディアが装着されると)(ステップS50)、当該記録メディアに記録されたデータファイルが読み出され、ヘッダ情報解析部304において、データファイルの内容が解析され(ステップS51)、当該データファイルが、シーン参照生データ、撮像装置特性補正データ、シーン参照縮小画像データ、撮影情報データに分けられる。   When data is input to the input unit 303 (that is, when a recording medium is mounted on the mounting unit) (step S50), the data file recorded on the recording medium is read, and the header information analysis unit 304 The contents of the data file are analyzed (step S51), and the data file is divided into scene reference raw data, imaging device characteristic correction data, scene reference reduced image data, and shooting information data.

撮影情報データ処理部313では、ステップS51で得られた撮影情報データに基づいて、撮影条件に応じた鑑賞画像参照データを生成するための生成条件が決定される(ステップS52)。装置特性補正処理部307では、ステップS51で得られた撮像装置特性補正データと処理条件テーブル308の参照により、シーン参照画像データの生成条件が決定され、ステップS51で得られたシーン参照生データに対し、当該決定された生成条件に従って撮像装置特性補正処理が施され(ステップS53)、シーン参照画像データが生成される(ステップS54)。   The shooting information data processing unit 313 determines a generation condition for generating appreciation image reference data corresponding to the shooting condition based on the shooting information data obtained in step S51 (step S52). The apparatus characteristic correction processing unit 307 determines the generation conditions of the scene reference image data by referring to the imaging apparatus characteristic correction data obtained in step S51 and the processing condition table 308, and generates the scene reference raw data obtained in step S51. On the other hand, imaging device characteristic correction processing is performed according to the determined generation condition (step S53), and scene reference image data is generated (step S54).

シーン判別処理部312aでは、ステップS51で得られたシーン参照縮小画像データに基づいて、撮影時の撮影シーンを判別する撮影シーン判別処理(図10〜図21参照)が行われる(ステップS55)。   In the scene determination processing unit 312a, a shooting scene determination process (see FIGS. 10 to 21) for determining a shooting scene at the time of shooting is performed based on the scene reference reduced image data obtained in step S51 (step S55).

次いで、ステップS52で決定された鑑賞画像参照データの生成条件及びステップS55での撮影シーン判別処理の判別結果に基づいて、ステップS54で生成されたシーン参照画像データに対して最適化処理が施され(ステップS56)、鑑賞画像参照データが生成される(ステップS57)。   Next, optimization processing is performed on the scene reference image data generated in step S54 based on the generation conditions of the viewing image reference data determined in step S52 and the determination result of the shooting scene determination processing in step S55. (Step S56), appreciation image reference data is generated (step S57).

鑑賞画像参照データは、設定入力部316(操作部211)で設定された出力先において、当該出力先に応じた固有の処理が施され(ステップS58)、当該出力先のデバイスから出力され(ステップS59)、本画像処理が終了する。   The appreciation image reference data is subjected to processing specific to the output destination set in the setting input unit 316 (operation unit 211) (step S58), and is output from the output destination device (step S58). S59), the main image processing ends.

以上のように、実施形態2の画像記録装置201によれば、撮像装置から出力されたシーン参照生データのファイルヘッダに添付された撮像装置特性補正データ、撮影情報データに基づいて最適化された鑑賞画像参照データを生成することにより、撮像画像情報の情報損失を伴うことなく、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを得ることが可能となる。   As described above, according to the image recording apparatus 201 of the second embodiment, the image recording apparatus 201 is optimized based on the imaging apparatus characteristic correction data and the imaging information data attached to the file header of the scene reference raw data output from the imaging apparatus. By generating appreciation image reference data, it is possible to obtain appreciation image reference data of higher quality than the image data obtained by the imaging apparatus without any information loss of the captured image information.

また、撮像装置から出力されたシーン参照生データのファイルヘッダに添付されたシーン参照縮小画像データに基づいて撮影時の撮影シーンを判別することにより、撮影シーンに応じた最適な階調変換処理を行うことが可能となる。特に、撮影シーン判別処理の判別結果としての撮影シーンと、撮影情報データに含まれる撮影シーンを照合することにより、撮影シーンの判別精度を向上させることができる。このように、撮像装置から出力されたシーン参照生データのファイルヘッダにシーン参照縮小画像データが添付されていることにより、画像処理装置320内で、標準化されたシーン参照縮小画像データを生成する必要がなくなり、画像処理装置320の処理効率を向上させることが可能となる。   Further, by determining the shooting scene at the time of shooting based on the scene reference reduced image data attached to the file header of the scene reference raw data output from the imaging device, the optimum gradation conversion processing according to the shooting scene is performed. Can be done. In particular, the accuracy of shooting scene discrimination can be improved by collating a shooting scene as a determination result of the shooting scene determination processing with a shooting scene included in shooting information data. As described above, the scene reference reduced image data is attached to the file header of the scene reference raw data output from the imaging device, so that it is necessary to generate standardized scene reference reduced image data in the image processing device 320. Thus, the processing efficiency of the image processing apparatus 320 can be improved.

なお、実施形態2では、図28に示すように、シーン参照生データに、撮影時の撮影条件設定を示す撮影情報データが添付される場合を示したが、図32に示すように、シーン参照生データのファイルヘッダに、撮影情報データを添付せずに、撮像装置特性補正データとシーン参照縮小画像データのみを添付してデータファイルを作成するようにしてもよい。この場合、撮像装置特性補正処理部321での撮像装置特性補正処理の処理結果であるデータファイルには、図26(b)と同様に撮影情報データが含まれず、図31の画像処理では、ステップS52の処理は行われない。撮影情報データがない場合であっても、シーン参照縮小画像データに基づいた撮影シーン判別処理によって撮影シーンを充分な精度で判別することができ、撮影シーンに応じた最適な階調変換処理を行うことが可能である。   In the second embodiment, as shown in FIG. 28, the case where shooting information data indicating shooting condition setting at the time of shooting is attached to the scene reference raw data is shown. However, as shown in FIG. The data file may be created by attaching only the imaging device characteristic correction data and the scene reference reduced image data without attaching the shooting information data to the file header of the raw data. In this case, the data file that is the processing result of the imaging device characteristic correction processing in the imaging device characteristic correction processing unit 321 does not include the shooting information data as in FIG. 26B. In the image processing of FIG. The process of S52 is not performed. Even if there is no shooting information data, the shooting scene determination process based on the scene reference reduced image data can be used to determine the shooting scene with sufficient accuracy, and the optimum gradation conversion process according to the shooting scene is performed. It is possible.

また、シーン参照生データに添付されるデータは、縮小生データ又はシーン参照縮小画像データ、撮像装置特性補正データ、撮影情報データに限定されない。例えば、撮像装置内で表示用などに最適化された鑑賞画像参照データを、画像処理装置或いは画像記録装置で安定に再現するために、撮像装置での鑑賞画像参照データを復元するための復元情報(鑑賞画像参照データ復元情報)を添付するようにしてもよい。   Further, the data attached to the scene reference raw data is not limited to reduced raw data or scene reference reduced image data, imaging device characteristic correction data, and shooting information data. For example, restoration information for restoring appreciation image reference data in the imaging device in order to stably reproduce the appreciation image reference data optimized for display in the imaging device by the image processing device or the image recording device (Appreciation image reference data restoration information) may be attached.

図33(a)に、シーン参照画像データの階調変換特性を示す。この階調変換特性は、図33(a)に示すように、logE(E:露光量)に対しlogY(Y:XYZ表色系の刺激値)がリニアに変換する特性となっている。   FIG. 33A shows the tone conversion characteristics of scene reference image data. As shown in FIG. 33A, the gradation conversion characteristic is a characteristic that logY (Y: stimulus value of XYZ color system) is linearly converted with respect to logE (E: exposure amount).

図33(b)に、シーン参照画像データと鑑賞画像参照データのsRGB色空間における階調変換特性として、均等色空間であるL*a*b*表色系のL*とlogE(E:露光量)の関係を示す。図33(b)に示した階調変換特性では、今度は鑑賞画像参照データが、logEに対しL*がリニアに変化する特性となっている。   FIG. 33 (b) shows L * and logE (E: exposure) of the L * a * b * color system, which is a uniform color space, as gradation conversion characteristics in the sRGB color space of scene reference image data and appreciation image reference data. (Quantity) relationship. In the gradation conversion characteristic shown in FIG. 33 (b), this time the viewing image reference data has a characteristic that L * changes linearly with respect to logE.

図34に、シーン参照画像データから鑑賞画像参照データのL*における変換特性(図中の曲線)を示す。図34に示す変換特性が、鑑賞画像参照データ復元情報となる。   FIG. 34 shows the conversion characteristics (curve in the figure) of L * from the scene reference image data to the viewing image reference data. The conversion characteristic shown in FIG. 34 is the viewing image reference data restoration information.

本発明の実施形態1に係る撮像装置の主要部構成を示すブロック図。1 is a block diagram showing a main part configuration of an imaging apparatus according to Embodiment 1 of the present invention. 図1の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造を示す図。The figure which shows the data structure of the data file recorded on the recording medium of the storage device of FIG. 撮像装置特性補正処理を説明するための図。The figure for demonstrating an imaging device characteristic correction process. 実施形態1の撮像装置において実行される画像データ記録処理を示すフローチャート。3 is a flowchart illustrating image data recording processing executed in the imaging apparatus according to the first embodiment. 本発明の実施形態1及び実施形態2に係る画像記録装置の外観図。1 is an external view of an image recording apparatus according to Embodiments 1 and 2 of the present invention. 図5の画像記録装置の内部構成を示すブロック図。FIG. 6 is a block diagram showing an internal configuration of the image recording apparatus in FIG. 5. 実施形態1の画像記録装置における画像処理装置及び出力部の内部構成を示すブロック図。FIG. 2 is a block diagram illustrating an internal configuration of an image processing apparatus and an output unit in the image recording apparatus according to the first embodiment. 実施形態1の画像記録装置において実行される画像処理を示すフローチャート。3 is a flowchart illustrating image processing executed in the image recording apparatus according to the first embodiment. 撮像装置特性補正処理の処理結果を示す図。The figure which shows the process result of an imaging device characteristic correction process. シーン判別処理部において実行される撮影シーン判別処理を示すフローチャート。The flowchart which shows the imaging | photography scene discrimination | determination process performed in a scene discrimination | determination processing part. 明度・色相の領域毎に第1の占有率を算出する第1の占有率算出処理を示すフローチャート。The flowchart which shows the 1st occupation rate calculation process which calculates the 1st occupation rate for every area | region of lightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 撮影画像データの構図に基づいて第2の占有率を算出する第2の占有率算出処理を示すフローチャート。The flowchart which shows the 2nd occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。The figure which shows the area | regions n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。The figure which shows the curve showing the 3rd coefficient for multiplying the 2nd occupation rate for calculating the parameter | index 3 according to area | region (n1-n4). シーン判別処理部において実行される指標4算出処理を示すフローチャート。The flowchart which shows the parameter | index 4 calculation process performed in a scene discrimination | determination process part. 撮影シーン(順光、ストロボ、逆光、アンダー)と指標4〜6の関係を示すプロット図。The plot figure which shows the relationship between a photography scene (forward light, strobe, backlight, under) and the indicators 4-6. 各階調調整方法に対応する階調変換曲線を示す図。The figure which shows the gradation conversion curve corresponding to each gradation adjustment method. 輝度の度数分布(ヒストグラム)(a)、正規化されたヒストグラム(b)及びブロック分割されたヒストグラム(c)を示す図。The figure which shows the frequency distribution (histogram) (a) of brightness | luminance, the normalized histogram (b), and the block-divided histogram (c). 輝度のヒストグラムからの低輝度領域及び高輝度領域の削除を説明する図((a)及び(b))と、輝度の頻度の制限を説明する図((c)及び(d))。The figure ((a) and (b)) explaining deletion of the low-intensity area | region and the high-intensity area | region from the brightness | luminance histogram, and the figure ((c) and (d)) explaining the restriction | limiting of the frequency of a brightness | luminance. 撮影シーンが逆光又はアンダーである場合の画像処理条件(階調変換条件)を表す階調変換曲線を示す図。The figure which shows the gradation conversion curve showing the image processing conditions (gradation conversion conditions) in case a imaging | photography scene is backlight or under. 実施形態1の撮像装置の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造の変形例(a)と、当該データファイルの縮小生データ及びシーン参照生データに対して撮像装置特性補正処理を施した結果を示す図(b)。The modification (a) of the data structure of the data file recorded on the recording medium of the storage device of the imaging device according to the first embodiment, and the imaging device characteristic correction processing on the reduced raw data and scene reference raw data of the data file The figure which shows the result of giving (b). 本発明の実施形態2に係る撮像装置の主要部構成を示すブロック図。The block diagram which shows the principal part structure of the imaging device which concerns on Embodiment 2 of this invention. 図27の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造を示す図。The figure which shows the data structure of the data file recorded on the recording medium of the storage device of FIG. 実施形態2の撮像装置において実行される画像データ記録処理を示すフローチャート。9 is a flowchart illustrating image data recording processing executed in the imaging apparatus according to the second embodiment. 実施形態2の画像記録装置における画像処理装置及び出力部の内部構成を示すブロック図。FIG. 4 is a block diagram illustrating an internal configuration of an image processing apparatus and an output unit in an image recording apparatus according to a second embodiment. 実施形態2の画像記録装置において実行される画像処理を示すフローチャート。9 is a flowchart illustrating image processing executed in the image recording apparatus according to the second embodiment. 実施形態2の撮像装置の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造の変形例を示す図。FIG. 10 is a diagram illustrating a modification of the data structure of a data file recorded on a recording medium of a storage device of the imaging apparatus according to the second embodiment. シーン参照画像データの階調変換特性を示す図(a)と、シーン参照画像データと鑑賞画像参照データの階調変換特性を示す図(b)。The figure which shows the gradation conversion characteristic of scene reference image data, and the figure which shows the gradation conversion characteristic of scene reference image data and appreciation image reference data (b). シーン参照画像データから鑑賞画像参照データへの変換特性を示す図。The figure which shows the conversion characteristic from scene reference image data to appreciation image reference data.

符号の説明Explanation of symbols

1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 ヘッダ情報処理部
9 記憶デバイス
10 CCD駆動回路
11 制御部
12 撮影情報データ生成部
13 装置特性補正データ生成部
14 操作部
15 表示部
16 ストロボ駆動回路
17 ストロボ
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 縮小生データ生成部
22 シーン参照縮小画像データ生成部
100、101 撮像装置
200、201 画像記録装置
202 本体
204 露光処理部
205 プリント作成部
207 制御部
208 表示部
209 フィルムスキャナ部
210 反射原稿入力装置
211 操作部
214 画像読込部
215 画像書込部
270 画像処理部
301、320 画像処理装置
302 出力部
303 入力部
304 ヘッダ情報解析部
305、321 撮像装置特性補正処理部
306、322 最適化処理部
307 装置特性補正処理部
308 処理条件テーブル
309 シーン参照画像データ生成部
310 シーン参照縮小画像データ生成部
311 一時記憶メモリ
312、312a シーン判別処理部
313 撮影情報データ処理部
314 鑑賞画像参照データ生成部
315 一時記憶メモリ
316 設定入力部
317 出力デバイス
318 記憶デバイス
1 Lens 2 Aperture 3 CCD
4 Analog processing circuit 5 A / D converter 6 Temporary storage memory 7 Image processing unit 8 Header information processing unit 9 Storage device 10 CCD drive circuit 11 Control unit 12 Imaging information data generation unit 13 Device characteristic correction data generation unit 14 Operation unit 15 Display unit 16 Strobe drive circuit 17 Strobe 18 Focal length adjustment circuit 19 Automatic focus drive circuit 20 Motor 21 Reduced raw data generation unit 22 Scene reference reduced image data generation unit 100, 101 Imaging device 200, 201 Image recording device 202 Main body 204 Exposure processing Unit 205 print creation unit 207 control unit 208 display unit 209 film scanner unit 210 reflective original input device 211 operation unit 214 image reading unit 215 image writing unit 270 image processing unit 301, 320 image processing unit 302 output unit 303 input unit 304 header Information analysis units 305 and 32 Imaging device characteristic correction processing units 306 and 322 Optimization processing unit 307 Device characteristic correction processing unit 308 Processing condition table 309 Scene reference image data generation unit 310 Scene reference reduced image data generation unit 311 Temporary storage memories 312 and 312a Scene determination processing unit 313 Shooting information data processing unit 314 Appreciation image reference data generation unit 315 Temporary storage memory 316 Setting input unit 317 Output device 318 Storage device

Claims (14)

撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記シーン参照生データに、前記補正データ及び前記縮小生データを添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
Recording control means for recording on a recording medium by attaching the correction data and the reduced raw data to the scene reference raw data;
An imaging apparatus comprising:
撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記縮小生データに、前記補正データに基づいて撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成するシーン参照縮小画像データ生成手段と、
前記シーン参照生データに、前記補正データ及び前記シーン参照縮小画像データを添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
A scene reference reduced image data generating means for generating standardized scene reference reduced image data by performing an imaging device characteristic correction process on the reduced raw data based on the correction data;
Recording control means for recording on the recording medium with the correction data and the scene reference reduced image data attached to the scene reference raw data;
An imaging apparatus comprising:
撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記シーン参照生データに、前記補正データ、前記縮小生データ及び前記撮影情報データを添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
Recording control means for recording the correction data, the reduced raw data, and the shooting information data on the scene reference raw data and recording them on a recording medium;
An imaging apparatus comprising:
撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データを生成する補正データ生成手段と、
前記シーン参照生データから縮小生データを生成する縮小生データ生成手段と、
前記縮小生データに、前記補正データに基づいて撮像装置特性補正処理を施すことにより、標準化されたシーン参照縮小画像データを生成するシーン参照縮小画像データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記シーン参照生データに、前記補正データ、前記シーン参照縮小画像データ及び前記撮影情報データを添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Correction data generation means for generating correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the raw scene reference data;
Reduced raw data generating means for generating reduced raw data from the scene reference raw data;
A scene reference reduced image data generating means for generating standardized scene reference reduced image data by performing an imaging device characteristic correction process on the reduced raw data based on the correction data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
Recording control means for recording the correction data, the scene reference reduced image data and the shooting information data on the recording media by attaching the correction data, the scene reference reduced image data, and the scene reference raw data;
An imaging apparatus comprising:
撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された縮小生データと、を入力する入力手段と、
前記入力されたシーン参照生データ及び縮小生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データ及びシーン参照縮小画像データを生成するシーン参照画像データ生成手段と、
を備えることを特徴とする画像処理装置。
Generated from scene reference raw data depending on the characteristics of the imaging device, correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data, and the scene reference raw data Input means for inputting the reduced reduced data,
Standardized scene reference image data and scene reference reduced image data are generated by subjecting the input scene reference raw data and reduced raw data to a photographing device characteristic correction process based on the input correction data. Scene reference image data generating means for performing,
An image processing apparatus comprising:
前記生成されたシーン参照縮小画像データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴とする請求項5に記載の画像処理装置。   On the basis of the generated scene reference reduced image data, the generated standardized scene reference image data is subjected to image processing that is optimized for the formation of an appreciation image on an output medium, and the appreciation image reference data The image processing apparatus according to claim 5, further comprising: an appreciation image reference data generation unit that generates 撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された標準化されたシーン参照縮小画像データと、を入力する入力手段と、
前記入力されたシーン参照生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
を備えることを特徴とする画像処理装置。
Generated from scene reference raw data depending on the characteristics of the imaging device, correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data, and the scene reference raw data Input means for inputting the standardized scene reference reduced image data,
Scene reference image data generating means for generating standardized scene reference image data by performing a photographing apparatus characteristic correction process on the input scene reference raw data based on the input correction data;
An image processing apparatus comprising:
前記入力されたシーン参照縮小画像データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴とする請求項7に記載の画像処理装置。   Based on the inputted scene reference reduced image data, the generated standardized scene reference image data is subjected to image processing that is optimized for formation of an appreciation image on an output medium, and the appreciation image reference data The image processing apparatus according to claim 7, further comprising: an appreciation image reference data generation unit that generates 撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された縮小生データと、撮影時の撮影条件設定を示す撮影情報データと、を入力する入力手段と、
前記入力されたシーン参照生データ及び縮小生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データ及びシーン参照縮小画像データを生成するシーン参照画像データ生成手段と、
を備えることを特徴とする画像処理装置。
Generated from scene reference raw data depending on the characteristics of the imaging device, correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data, and the scene reference raw data Input means for inputting the reduced reduced raw data and photographing information data indicating photographing condition setting at the time of photographing;
A standardized scene reference image data and scene reference reduced image data are generated by subjecting the input scene reference raw data and reduced raw data to a photographing device characteristic correction process based on the input correction data. Scene reference image data generating means for performing,
An image processing apparatus comprising:
前記生成されたシーン参照縮小画像データ及び前記入力された撮影情報データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴とする請求項9に記載の画像処理装置。   Based on the generated scene reference reduced image data and the input shooting information data, an image to be optimized for viewing image formation on an output medium with respect to the generated standardized scene reference image data The image processing apparatus according to claim 9, further comprising an appreciation image reference data generation unit that performs processing to generate appreciation image reference data. 撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正データと、当該シーン参照生データから生成された標準化されたシーン参照縮小画像データと、撮影時の撮影条件設定を示す撮影情報データと、を入力する入力手段と、
前記入力されたシーン参照生データに対して、前記入力された補正データに基づいて撮影装置特性補正処理を施すことにより、標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
を備えることを特徴とする画像処理装置。
Generated from the scene reference raw data depending on the characteristics of the imaging device, correction data necessary for imaging device characteristic correction processing for generating standardized scene reference image data from the scene reference raw data, and the scene reference raw data Input means for inputting the standardized reduced scene reference image data and shooting information data indicating shooting condition settings at the time of shooting;
Scene reference image data generating means for generating standardized scene reference image data by performing a photographing apparatus characteristic correction process on the input scene reference raw data based on the input correction data;
An image processing apparatus comprising:
前記入力されたシーン参照縮小画像データ及び前記入力された撮影情報データに基づいて、前記生成された標準化されたシーン参照画像データに対し、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えることを特徴とする請求項11に記載の画像処理装置。   An image to be optimized for viewing image formation on an output medium with respect to the generated standardized scene reference image data based on the input scene reference reduced image data and the input shooting information data The image processing apparatus according to claim 11, further comprising an appreciation image reference data generation unit that performs processing to generate appreciation image reference data. 前記シーン参照縮小画像データを用いて、撮影時の撮影シーンを判別するシーン判別手段を備え、
前記鑑賞画像参照データ生成手段は、前記シーン判別手段による判別結果を用いて前記鑑賞画像参照データを生成することを特徴とする請求項6、8、10、12の何れか一項に記載の画像処理装置。
Using the scene reference reduced image data, comprising a scene discrimination means for discriminating a shooting scene at the time of shooting;
The image according to any one of claims 6, 8, 10, and 12, wherein the appreciation image reference data generation unit generates the appreciation image reference data using a determination result by the scene determination unit. Processing equipment.
請求項6、8、10、12、13の何れか一項に記載の画像処理装置と、
前記画像処理装置の鑑賞画像参照データ生成手段により生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えることを特徴とする画像記録装置。
An image processing apparatus according to any one of claims 6, 8, 10, 12, and 13,
Image forming means for forming an appreciation image on an output medium using appreciation image reference data generated by the appreciation image reference data generation means of the image processing apparatus;
An image recording apparatus comprising:
JP2005013249A 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus Pending JP2006203571A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005013249A JP2006203571A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005013249A JP2006203571A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Publications (1)

Publication Number Publication Date
JP2006203571A true JP2006203571A (en) 2006-08-03

Family

ID=36961172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005013249A Pending JP2006203571A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Country Status (1)

Country Link
JP (1) JP2006203571A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008283286A (en) * 2007-05-08 2008-11-20 Seiko Epson Corp Development processor for undeveloped image data, development processing method, and computer program for development processing
US8115857B2 (en) 2006-08-11 2012-02-14 Nikon Corporation Digital camera and image processing computer program product
CN113762789A (en) * 2021-09-13 2021-12-07 江阴市浩华新型复合材料有限公司 Marathon event big data service system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8115857B2 (en) 2006-08-11 2012-02-14 Nikon Corporation Digital camera and image processing computer program product
JP2008283286A (en) * 2007-05-08 2008-11-20 Seiko Epson Corp Development processor for undeveloped image data, development processing method, and computer program for development processing
CN113762789A (en) * 2021-09-13 2021-12-07 江阴市浩华新型复合材料有限公司 Marathon event big data service system

Similar Documents

Publication Publication Date Title
US7076119B2 (en) Method, apparatus, and program for image processing
JP4131192B2 (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2004173010A (en) Image pickup device, image processor, image recorder, image processing method, program and recording medium
US20040247175A1 (en) Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
WO2006123492A1 (en) Image processing method, image processing device, imaging device and image processing program
US20040041920A1 (en) Image forming method, image processing apparatus, and image recording apparatus
US20040041926A1 (en) Image-capturing apparatus, imager processing apparatus and image recording apparatus
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
US7324702B2 (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203566A (en) Imaging apparatus, image processing apparatus and image processing method
JP2004088345A (en) Image forming method, image processor, print preparation device, and storage medium
JP2006318255A (en) Image processing method, image processor and image processing program
JP2004336521A (en) Image processing method, image processor, and image recording apparatus
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2006203573A (en) Imaging apparatus, image processor, and image recording apparatus
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2007312125A (en) Image processor, image processing method, and image processing program
WO2007032324A1 (en) Imaging device, image processing device, image processing method, and image processing program
JP2004328534A (en) Image forming method, image processing apparatus and image recording apparatus
JP2004328530A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP4292873B2 (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006092133A (en) Image processing method, image processor, imaging device and image processing program
JP2006092137A (en) Image processing method, image processor, imaging device and image processing program
WO2006033234A1 (en) Image processing method, image processing device, imaging device, and image processing program