JP2006203567A - Imaging apparatus, image processing apparatus, and image recording apparatus - Google Patents

Imaging apparatus, image processing apparatus, and image recording apparatus Download PDF

Info

Publication number
JP2006203567A
JP2006203567A JP2005013207A JP2005013207A JP2006203567A JP 2006203567 A JP2006203567 A JP 2006203567A JP 2005013207 A JP2005013207 A JP 2005013207A JP 2005013207 A JP2005013207 A JP 2005013207A JP 2006203567 A JP2006203567 A JP 2006203567A
Authority
JP
Japan
Prior art keywords
data
image
information
reproduction
appreciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005013207A
Other languages
Japanese (ja)
Inventor
Hiroaki Takano
博明 高野
Jo Nakajima
丈 中嶋
Daisuke Sato
大輔 佐藤
Tsukasa Ito
司 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005013207A priority Critical patent/JP2006203567A/en
Publication of JP2006203567A publication Critical patent/JP2006203567A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image reading apparatus capable of generating appreciation image reference data with the quality equal to and higher than the quality of image data obtained by an imaging apparatus and protecting information associated with production of the appreciation image reference data. <P>SOLUTION: The imaging apparatus 100 generates scene reference raw data depending on the characteristic of the imaging apparatus through imaging, a reproduction auxiliary data generating section 12 applies optimal image processing to the scene reference raw data for generating an appreciation image on an output medium to produce a reproduction auxiliary data in the case of generating the appreciation image reference data, a coding/authentication information setting section 21 sets authentication information (password) for authenticating use of the reproduction auxiliary data, and a header information processing section 8 attaches the reproduction auxiliary data and its authentication information to a file header (header area) of the scene reference raw data to produce an attached data file and records the attached data file to a recording medium of a storage device 9. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタルカメラ等の撮像装置、撮像装置により得られた撮影画像データに対して出力媒体上での鑑賞画像形成用に最適化処理を施す画像処理装置及び画像記録装置に関する。   The present invention relates to an imaging apparatus such as a digital camera, and an image processing apparatus and an image recording apparatus that perform optimization processing on captured image data obtained by the imaging apparatus for forming an appreciation image on an output medium.

近年、デジタルカメラ等の撮像装置により得られた撮影画像データは、CD−R(Compact Disc Recordable)、フロッピー(登録商標)ディスク、メモリーカードなどの記録メディアに記録されたり、インターネット等の通信ネットワーク経由で配信されたり、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスを用いてハードコピー画像としてプリントされたりするなど、その出力方法は多種多様化している。   In recent years, photographed image data obtained by an imaging device such as a digital camera is recorded on a recording medium such as a CD-R (Compact Disc Recordable), a floppy (registered trademark) disk, or a memory card, or via a communication network such as the Internet. It can be distributed on the Internet, displayed on a display device such as a CRT (Cathode Ray Tube), liquid crystal display, plasma display, or a small liquid crystal monitor on a mobile phone, or can be hardware using an output device such as a digital printer, an inkjet printer, or a thermal printer. There are a variety of output methods such as printing as a copy image.

撮影画像データを鑑賞用途で出力する際には、鑑賞に使用するディスプレイモニタ上或いはハードコピー上において所望の画質が得られるように、一般に、撮影画像データに対し、階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理が施される。特許文献1には、撮像装置から得られたシーン参照生データ(画像処理が施されていない、被写体の情報を忠実に表す生データ)から標準化されたシーン参照画像データを生成するための補正処理に必要な補助データを、シーン参照生データに添付して記録メディアに記録し、画像処理装置或いは画像記録装置側において、シーン参照生データに添付された補助データを用いて画像処理を行うことにより、撮影画像情報の情報損失を伴うことなく最適化された鑑賞画像を作成可能な技術が開示されている。
特開2004−96500号公報
When outputting captured image data for viewing purposes, generally, gradation adjustment, brightness adjustment, color adjustment is performed on the captured image data so that a desired image quality can be obtained on a display monitor or hard copy used for viewing. Various image processes represented by balance adjustment and sharpness enhancement are performed. Patent Document 1 discloses a correction process for generating standardized scene reference image data from scene reference raw data obtained from an imaging device (raw data that is not subjected to image processing and faithfully represents subject information). Auxiliary data necessary for the recording is attached to the scene reference raw data and recorded on a recording medium, and the image processing apparatus or the image recording apparatus performs image processing using the auxiliary data attached to the scene reference raw data. In addition, a technique that can create an optimized viewing image without any information loss of captured image information is disclosed.
JP 2004-96500 A

しかしながら、上述の従来の画像処理では、撮影画像データの情報損失が抑制され、画質調整の自由度が向上されるが、撮像装置内で最適化された鑑賞画像参照データを、画像処理装置或いは画像記録装置側で安定に再現できないという問題があった。特に、撮像装置での本撮影に至るまでの、撮像装置に備えられた各種センサや演算プロセスの履歴情報は、画質調整時の有用な情報であるにも関わらず、画像処理装置或いは画像記録装置側でこれらの情報を得ることができないため、撮像装置で得られた画像データよりも高品位な鑑賞画像参照データを生成することができなかった。   However, in the above-described conventional image processing, information loss of captured image data is suppressed and the degree of freedom in image quality adjustment is improved. However, viewing image reference data optimized in the imaging apparatus is used as the image processing apparatus or image. There was a problem that the recording apparatus could not reproduce it stably. In particular, the history information of various sensors and arithmetic processes provided in the imaging device up to the actual photographing with the imaging device is useful information at the time of image quality adjustment, but the image processing device or the image recording device. Since this information cannot be obtained on the side, appreciation image reference data having higher quality than image data obtained by the imaging device cannot be generated.

また、近年、撮像装置に固有のシーン参照生データを、撮像装置に依存しない汎用的な画像データに変換する画像フォーマットが普及する一方で、撮像装置の内部処理等の技術的情報や撮影画像データの保護のために、撮像装置のメーカー、ユーザ(購入者)により、撮影画像データの利用を制限するなどの保護措置を設けたいという要望も少なくない。   Further, in recent years, while an image format for converting scene reference raw data unique to an imaging device into general-purpose image data independent of the imaging device has become widespread, technical information such as internal processing of the imaging device and captured image data In order to protect the image, there are not a few requests by the manufacturer and user (purchaser) of the imaging apparatus to provide a protective measure such as limiting the use of the captured image data.

本発明の課題は、撮影画像情報の情報損失を抑制し、画像処理装置或いは画像記録装置側で、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを生成可能にするとともに、鑑賞画像参照データの生成に関わる情報を保護することである。   An object of the present invention is to suppress information loss of captured image information, and on the image processing device or image recording device side, it is possible to generate high-quality appreciation image reference data that is higher than image data obtained by an imaging device, It is to protect information related to generation of appreciation image reference data.

上記課題を解決するため、請求項1に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データを生成する再現補助データ生成手段と、
前記生成された再現補助データの利用を認証するための認証情報を設定する認証情報設定手段と、
前記シーン参照生データに、前記再現補助データ及び前記認証情報を添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
In order to solve the above-described problem, the invention described in claim 1 includes scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Reproduction auxiliary data generating means for generating reproduction auxiliary data when generating image appreciation image reference data by performing image processing optimized for appreciation image formation on an output medium with respect to the scene reference raw data;
Authentication information setting means for setting authentication information for authenticating the use of the generated reproduction auxiliary data;
And recording control means for attaching the reproduction auxiliary data and the authentication information to the scene reference raw data and recording the data on a recording medium.

請求項2に記載の発明は、請求項1に記載の撮像装置において、前記生成された再現補助データを所定の符号化方式で符号化する符号化手段を備え、
前記記録制御手段は、前記シーン参照生データに、前記符号化された再現補助データ及び前記認証情報を添付することを特徴としている。
Invention of Claim 2 is provided with the encoding means which encodes the generated reproduction auxiliary data by a predetermined encoding method in the imaging apparatus of Claim 1,
The recording control means attaches the encoded reproduction auxiliary data and the authentication information to the scene reference raw data.

請求項3に記載の発明は、撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記生成された再現補助データの利用を認証するための認証情報を設定する認証情報設定手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記認証情報を添付して記録メディアに記録する記録制御手段と、を備えることを特徴としている。
The invention according to claim 3 is a scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging,
Reproduction auxiliary data generating means for generating reproduction auxiliary data when generating image appreciation image reference data by performing image processing optimized for appreciation image formation on an output medium with respect to the scene reference raw data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
Authentication information setting means for setting authentication information for authenticating the use of the generated reproduction auxiliary data;
And recording control means for attaching the reproduction assistance data, the shooting information data, and the authentication information to the scene reference raw data and recording the data on a recording medium.

請求項4に記載の発明は、請求項3に記載の撮像装置において、前記再現補助データを所定の符号化方式で符号化する符号化手段を備え、
前記記録制御手段は、前記シーン参照生データに、前記符号化された再現補助データ、前記撮影情報データ及び前記認証情報を添付することを特徴としている。
According to a fourth aspect of the present invention, in the imaging apparatus according to the third aspect of the present invention, the imaging apparatus includes an encoding unit that encodes the auxiliary reproduction data using a predetermined encoding method.
The recording control means attaches the encoded reproduction auxiliary data, the photographing information data, and the authentication information to the scene reference raw data.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、前記再現補助データには、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正情報が含まれることを特徴としている。   According to a fifth aspect of the present invention, in the imaging apparatus according to any one of the first to fourth aspects, the reproduction auxiliary data is for generating scene reference image data standardized from scene reference raw data. It is characterized in that correction information necessary for the imaging device characteristic correction processing is included.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データを復元するための復元情報が含まれることを特徴としている。   According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, the reproduction auxiliary data is obtained by the imaging apparatus when generating appreciation image reference data on an output medium. The restoration information for restoring the appreciation image reference data is included.

請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データの生成過程を再現するための再現情報が含まれることを特徴としている。   According to a seventh aspect of the present invention, in the imaging device according to any one of the first to sixth aspects, the reproduction assisting data is generated by the imaging device when generating appreciation image reference data on an output medium. Reproduction information for reproducing the generation process of the appreciation image reference data is included.

請求項8に記載の発明は、請求項7に記載の撮像装置において、前記再現情報には、撮影条件の正当性を判断するための指標値が含まれることを特徴としている。   According to an eighth aspect of the present invention, in the imaging device according to the seventh aspect, the reproduction information includes an index value for judging the validity of the photographing condition.

請求項9に記載の発明は、請求項8に記載の撮像装置において、前記指標値には、撮影時のユーザ特性、光源条件、露出条件の少なくとも一つを特定する値が含まれることを特徴としている。   According to a ninth aspect of the present invention, in the imaging device according to the eighth aspect, the index value includes a value that specifies at least one of user characteristics, light source conditions, and exposure conditions during shooting. It is said.

請求項10に記載の発明は、請求項9に記載の撮像装置において、前記光源条件、露出条件は、撮影時の撮影シーン判別処理の判別結果であることを特徴としている。   According to a tenth aspect of the present invention, in the imaging apparatus according to the ninth aspect, the light source condition and the exposure condition are determination results of a shooting scene determination process at the time of shooting.

請求項11に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データと、当該再現補助データの利用を認証するための認証情報と、を入力する入力手段と、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記入力されたシーン参照生データに対し、前記入力された再現補助データに基づいて最適化処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えることを特徴としている。
According to the eleventh aspect of the present invention, the scene reference raw data depending on the characteristics of the imaging device, and the scene reference raw data are subjected to image processing that is optimized for forming a viewing image on the output medium. Input means for inputting reproduction auxiliary data for generating image reference data and authentication information for authenticating the use of the reproduction auxiliary data;
When the use of the reproduction auxiliary data is authenticated based on the input authentication information, the input scene reference raw data is subjected to an optimization process based on the input reproduction auxiliary data to be viewed image And an appreciation image reference data generating means for generating reference data.

請求項12に記載の発明は、請求項11に記載の画像処理装置において、前記入力手段は、所定の符号化方式で符号化された再現補助データを入力し、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記符号化された再現補助データを復号する復号手段を備え、
前記鑑賞画像参照データ生成手段は、前記入力されたシーン参照生データに対し、前記復号された再現補助データに基づいて最適化処理を施して鑑賞画像参照データを生成することを特徴としている。
According to a twelfth aspect of the present invention, in the image processing apparatus according to the eleventh aspect, the input unit inputs reproduction auxiliary data encoded by a predetermined encoding method,
When use of the reproduction auxiliary data is authenticated based on the input authentication information, the decoding auxiliary means includes decoding means for decoding the encoded reproduction auxiliary data,
The appreciation image reference data generating means generates the appreciation image reference data by performing optimization processing on the input scene reference raw data based on the decoded reproduction auxiliary data.

請求項13に記載の発明は、撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データと、撮影時の撮影条件設定を示す撮影情報データと、当該再現補助データの利用を認証するための認証情報と、を入力する入力手段と、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記入力されたシーン参照生データに対し、前記入力された再現補助データ及び前記撮影情報データに基づいて最適化処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、を備えることを特徴としている。
According to the thirteenth aspect of the present invention, the scene reference raw data depending on the characteristics of the imaging device, and the scene reference raw data are subjected to image processing that is optimized for forming a viewing image on the output medium. Input means for inputting auxiliary reproduction data when generating image reference data, photographing information data indicating photographing condition settings at the time of photographing, and authentication information for authenticating the use of the auxiliary reproduction data,
When the use of the reproduction assistance data is authorized based on the inputted authentication information, the optimization processing is performed on the inputted scene reference raw data based on the inputted reproduction assistance data and the photographing information data. And an appreciation image reference data generating means for generating appreciation image reference data.

請求項14に記載の発明は、請求項13に記載の画像処理装置において、前記入力手段は、所定の符号化方式で符号化された再現補助データを入力し、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記符号化された再現補助データを復号する復号手段を備え、
前記鑑賞画像参照データ生成手段は、前記入力されたシーン参照生データに対し、前記復号された再現補助データ及び前記撮影情報データに基づいて最適化処理を施して鑑賞画像参照データを生成することを特徴としている。
According to a fourteenth aspect of the present invention, in the image processing device according to the thirteenth aspect, the input means inputs reproduction auxiliary data encoded by a predetermined encoding method,
When use of the reproduction auxiliary data is authenticated based on the input authentication information, the decoding auxiliary means includes decoding means for decoding the encoded reproduction auxiliary data,
The appreciation image reference data generating means generates an appreciation image reference data by performing an optimization process on the input scene reference raw data based on the decoded reproduction auxiliary data and the shooting information data. It is a feature.

請求項15に記載の発明は、請求項11〜14の何れか一項に記載の画像処理装置において、前記再現補助データには、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正情報が含まれることを特徴としている。   According to a fifteenth aspect of the present invention, in the image processing device according to any one of the eleventh to fourteenth aspects, in order to generate scene reference image data standardized from scene reference raw data as the reproduction assistance data. Correction information necessary for the imaging apparatus characteristic correction process is included.

請求項16に記載の発明は、請求項11〜15の何れか一項に記載の画像処理装置において、前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データを復元するための復元情報が含まれることを特徴としている。   According to a sixteenth aspect of the present invention, there is provided the image processing apparatus according to any one of the eleventh to fifteenth aspects, wherein the reproduction auxiliary data includes an imaging device when generating appreciation image reference data on an output medium. The restoration information for restoring the viewing image reference data is included.

請求項17に記載の発明は、請求項11〜16の何れか一項に記載の画像処理装置において、前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データの生成過程を再現するための再現情報が含まれることを特徴としている。   The invention according to claim 17 is the image processing apparatus according to any one of claims 11 to 16, wherein the reproduction auxiliary data is an imaging device when generating appreciation image reference data on an output medium. Reproduction information for reproducing the generation process of the appreciation image reference data in the video is included.

請求項18に記載の発明は、請求項17に記載の画像処理装置において、前記再現情報には、撮像装置での撮影条件の正当性を判断するための指標値が含まれることを特徴としている。   According to an eighteenth aspect of the present invention, in the image processing device according to the seventeenth aspect, the reproduction information includes an index value for judging validity of the photographing condition in the imaging device. .

請求項19に記載の発明は、請求項18に記載の画像処理装置において、前記指標値には、撮像装置による撮影時のユーザ特性、光源条件、露出条件の少なくとも一つを特定する値が含まれることを特徴としている。   According to a nineteenth aspect of the present invention, in the image processing device according to the eighteenth aspect, the index value includes a value that specifies at least one of user characteristics, light source conditions, and exposure conditions at the time of photographing by the imaging device. It is characterized by that.

請求項20に記載の発明は、請求項19に記載の画像処理装置において、前記光源条件、露出条件は、撮影時の撮影シーン判別処理の判別結果であることを特徴としている。   According to a twentieth aspect of the present invention, in the image processing apparatus according to the nineteenth aspect, the light source condition and the exposure condition are determination results of a shooting scene determination process at the time of shooting.

請求項21に記載の発明は、請求項11〜20の何れか一項に記載の画像処理装置と、
前記画像処理装置の鑑賞画像参照データ生成手段により生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、を備えることを特徴としている。
The invention according to claim 21 is the image processing apparatus according to any one of claims 11 to 20,
Image forming means for forming an appreciation image on an output medium using appreciation image reference data generated by the appreciation image reference data generation means of the image processing apparatus.

〈用語の説明〉
以下、本明細書で使用する用語について説明する。
<Explanation of terms>
Hereinafter, terms used in this specification will be described.

本明細書の記載において「生成」とは、本発明に係る撮像装置、画像処理装置及び画像記録装置内において作用するプログラム、処理回路が、画像信号やデータを新たに作り出すことである。「作成」を同義語として用いることもある。   In the description of the present specification, “generation” means that a program and a processing circuit that operate in the imaging apparatus, the image processing apparatus, and the image recording apparatus according to the present invention newly create an image signal and data. “Create” may be used as a synonym.

本明細書の記載において「撮像装置」とは、光電変換機能を有する撮像素子(イメージセンサ)を備えた装置であって、所謂デジタルカメラやスキャナがこれに含まれる。撮像素子の一例としては、CCD(Charge Coupled Device:電荷結合素子)と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与したCCD型撮像素子や、CMOS(Complementary Metal-Oxide Semiconductor)型撮像素子が挙げられる。これらの撮像素子の出力電流はA/D変換器によりデジタル化される。この段階での各色チャンネルの内容は、撮像素子固有の分光感度に基づいた信号強度となっている。   In the description of this specification, an “imaging device” is a device including an imaging element (image sensor) having a photoelectric conversion function, and includes a so-called digital camera and scanner. As an example of the image pickup device, a CCD type image pickup device provided with a color sensitivity by combining a charge coupled device (CCD), a charge transfer mechanism, and a checkered color filter, or a complementary metal-oxide display (CMOS). Semiconductor) type imaging device. The output currents of these image sensors are digitized by an A / D converter. The contents of each color channel at this stage are signal intensities based on the spectral sensitivity unique to the image sensor.

また、「撮像装置の特性に依存したシーン参照生データ」とは、被写体に忠実な情報を記録した撮像装置の直接の生出力信号であり、A/D変換器によりデジタル化されたデータそのものや、該データに固定パターンノイズ・暗電流ノイズ等のノイズ補正を行ったデータを意味する。このシーン参照生データは、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上するためにデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、RIMM RGBやsRGB等の標準化された色空間にマッピングする処理を省略したものである。シーン参照生データの情報量(例えば階調数)はA/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば、鑑賞画像参照データ(後述)の階調数が1チャンネルあたり8bitである場合、シーン参照生データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。   The “scene reference raw data depending on the characteristics of the imaging device” is a direct raw output signal of the imaging device in which information faithful to the subject is recorded, and the data itself digitized by the A / D converter, This means data obtained by performing noise correction such as fixed pattern noise and dark current noise on the data. This scene reference raw data is generated by image processing that modifies the contents of the data to improve the effects during image viewing such as gradation conversion, sharpness enhancement, and saturation enhancement, and each color channel based on the spectral sensitivity inherent to the image sensor. The process of mapping the signal intensity of the signal to a standardized color space such as RIMM RGB or sRGB is omitted. The information amount (for example, the number of gradations) of the scene reference raw data is preferably equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data in accordance with the performance of the A / D converter. For example, when the number of gradations of the viewing image reference data (described later) is 8 bits per channel, the number of gradations of the scene reference raw data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「出力媒体」とは、例えば、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙である。   “Output media” refers to, for example, display devices such as CRT (Cathode Ray Tube), LCD (Liquid Crystal Display), plasma display, and hard copy image generation such as silver salt photographic paper, inkjet paper, thermal printer paper, etc. Paper.

また、「鑑賞画像参照データ」とは、CRT、LCD、プラズマディスプレイ等の表示デバイスに用いたり、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上のハードコピー画像生成に用いるデジタル画像データを意味する。鑑賞画像参照データは、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において最適な画像が得られるよう「最適化処理」が施されたものであり、シーン参照生データとは異なっている。   “Appreciation image reference data” refers to digital images used for display devices such as CRTs, LCDs, and plasma displays, or for generating hard copy images on output media such as silver halide photographic paper, ink jet paper, and thermal printer paper. Means data. The appreciation image reference data is subjected to "optimization processing" so that an optimal image can be obtained on a display device such as a CRT, LCD, or plasma display, or on an output medium such as silver salt photographic paper, inkjet paper, or thermal printer paper. It is different from the scene reference raw data.

また、「記録メディア」とは、撮像装置により出力される「シーン参照生データ」及び「再現補助データ」の保存に用いる記憶媒体であって、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、スマートメディア(登録商標)、マルチメディアカード、ハードディスク、フロッピー(登録商標)ディスク、磁気記憶媒体(MO)、CD−Rなど何れであってもよい。また、記録メディアに書き込むユニットは、撮影装置と一体であっても、コードを介して有線接続された書き込みユニット、インターネット等の通信ネットワークを介して無線状態で接続された独立或いは遠隔地に設置されたユニットなどの何れの態様であってもよい。記録メディアに記録する時のファイル形式は、撮像装置固有の形式ではなく、TIFF(Tagged Image File Format)、JPEG(Joint Photographic Coding Experts Group)、Exif(Exchangeable Image File Format)などの規格化された汎用のファイル形式で記録されるのが好ましい。   Further, the “recording medium” is a storage medium used for storing “scene reference raw data” and “reproduction auxiliary data” output by the imaging device, and includes CompactFlash (registered trademark), Memory Stick (registered trademark), Smart media (registered trademark), multimedia card, hard disk, floppy (registered trademark) disk, magnetic storage medium (MO), CD-R, etc. may be used. In addition, the unit for writing to the recording medium is installed in an independent or remote place connected in a wireless state via a communication network such as the Internet, a writing unit connected by wire through a cord, even if it is integrated with the photographing apparatus. Any mode such as a unit may be used. The file format for recording on the recording medium is not a format specific to the imaging device, but standardized general-purpose such as TIFF (Tagged Image File Format), JPEG (Joint Photographic Coding Experts Group), and Exif (Exchangeable Image File Format) The file format is preferably recorded.

また、「撮影情報データ」とは、撮影時の撮影条件設定の記録であり、Exifファイルのヘッダ部に書き込まれるタグ情報と同じものを含んでもよい。具体的には、露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、撮影シーン、ストロボ光源の反射光の量、撮影彩度、被写体の種類、被写体構成に関する情報などを示すタグ(コード)などである。   The “shooting information data” is a record of shooting condition settings at the time of shooting, and may include the same tag information written in the header portion of the Exif file. Specifically, exposure time, shutter speed, aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, presence / absence of strobe emission, subject area, white balance, zoom magnification, shooting scene, strobe light source A tag (code) indicating the amount of reflected light, photographing saturation, type of subject, information on subject configuration, and the like.

また、「撮影情報データ」は、撮像装置の露出設定や焦点機能の自動化のために、カメラに備えられたセンサの撮影時に得た値、当該センサの値から加工されたデータ或いは当該センサの値に基づいて設定されたカメラの撮影条件に分類されるが、これ以外にも撮像装置に備えられた、撮影モードダイヤル(例えば、ポートレート、スポーツ、マクロ撮影モード等)や、ストロボ強制発光の設定スイッチ等を撮影者がマニュアルで設定した情報も含まれる。   “Photographing information data” is a value obtained at the time of photographing by a sensor provided in the camera, data processed from the value of the sensor, or a value of the sensor for automating the exposure setting and focus function of the imaging device. Camera shooting conditions set based on the camera, but other than this, the shooting mode dial (for example, portrait, sports, macro shooting mode, etc.) and flash forced flash settings provided in the imaging device Information that the photographer manually sets the switch and the like is also included.

また、「標準化されたシーン参照画像データ」とは、少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度を前述のRIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピング済みであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto-electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものであることが好ましい。標準化されたシーン参照画像データの情報量(例えば階調数)はA/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば、鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上が更に好ましい。   In addition, “standardized scene reference image data” means that the signal intensity of each color channel based on at least the spectral sensitivity of the image sensor itself has been mapped to the standard color space such as RIM RGB, ERIMM RGB, and scRGB. It means image data in a state where image processing for modifying data contents is omitted in order to improve the effect at the time of image appreciation such as tone conversion, sharpness enhancement, and saturation enhancement. The scene reference image data is a correction of the photoelectric conversion characteristics of the imaging device (opto-electronic conversion function defined by ISO1452, for example, “Fine Imaging and Digital Photography” of Corona Co., Ltd., page 449 of the Japan Photographic Society Publishing Committee). It is preferable to have performed. The information amount (for example, the number of gradations) of the standardized scene reference image data conforms to the performance of the A / D converter and is equal to or greater than the information amount (for example, the number of gradations) required for the viewing image reference data. Is preferred. For example, when the number of gradations of the viewing image reference data is 8 bits per channel, the number of gradations of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and even more preferably 16 bits or more.

また、「標準化されたシーン参照画像データを生成するための撮像装置特性補正処理」とは、前記の「撮像装置の特性に依存したシーン参照生データ」を「標準化されたシーン参照画像データ」に変換する処理を意味する。この処理の内容は「撮像装置の特性に依存したシーン参照生データ」の状態に依存するが、少なくとも撮像素子固有の分光感度に基づく各色チャンネルの信号強度をRIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピングする処理が含まれる。例えば、「撮像装置の特性に依存したシーン参照生データ」が、カラーフィルタ配列に基づく補間処理を行っていない場合には、該処理の実施が加えて必要になる。(カラーフィルタ配列に基づく補間処理の詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編51頁に記載されている。)この結果、「シーン参照生データ」とほぼ同一の情報量を有しつつも、異なる「撮像装置」間での信号値の差異が補正された「標準化されたシーン参照画像データ」が得られる。   In addition, “imaging device characteristic correction processing for generating standardized scene reference image data” refers to the above “scene reference raw data depending on the characteristics of the imaging device” as “standardized scene reference image data”. Means processing to convert. The content of this processing depends on the state of the “scene reference raw data depending on the characteristics of the imaging device”, but at least the signal intensity of each color channel based on the spectral sensitivity specific to the imaging device is standard such as RIMM RGB, ERIMM RGB, scRGB, etc. Includes mapping to color space. For example, when the “scene reference raw data depending on the characteristics of the imaging device” is not subjected to the interpolation processing based on the color filter array, the processing needs to be additionally performed. (Details of the interpolation processing based on the color filter array are described in, for example, “Fine Imaging and Digital Photography” of Corona, Inc., page 51 of the Japan Photographic Society Publishing Committee.) As a result, “scene reference raw data” The “standardized scene reference image data” in which the difference in signal values between different “imaging devices” is corrected is obtained.

また、「最適化処理」とは、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得るための処理であり、例えば、sRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また、色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整或いは覆い焼き処理等の画像処理が行われることは言うまでもない。   The “optimization process” is a process for obtaining an optimal image on a display device such as a CRT, LCD, or plasma display, or on an output medium such as silver salt photographic paper, inkjet paper, or thermal printer paper. For example, when it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, processing is performed so that optimum color reproduction is obtained within the color gamut of the sRGB standard. If output to silver salt photographic paper is assumed, processing is performed so that optimum color reproduction is obtained within the color gamut of silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing for handling output characteristics (LUT) of the output device are also included. Furthermore, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment or dodging is performed.

「撮影情報データ」を用いた鑑賞画像参照データの最適化の例を以下に示す。
「被写体構成」の情報により、例えば部分的に彩度強調処理を施したり、ダイナミックレンジの広いシーンでは、覆い焼き処理を施すことが可能となる。
撮影シーンの判別結果により、例えば、夜景撮影では、ホワイトバランス調整の度合いを緩め、カラーバランスを特別に調整することが可能となる。
「ストロボ光源の反射光の量」情報によって、撮影者と被写体との距離が推定され、例えば、肌の白飛びを抑制する画像処理の条件設定に反映させることができる。
「被写体の種類」情報により、例えば人物撮影では、シャープネスの度合いを緩め、平滑化処理を強めることにより、肌のしわを目立たないようにすることができる。
An example of optimizing appreciation image reference data using “photographing information data” is shown below.
Based on the “subject configuration” information, for example, it is possible to perform a saturation enhancement process partially, or to perform a dodging process in a scene with a wide dynamic range.
Based on the result of determining the shooting scene, for example, in night scene shooting, the degree of white balance adjustment can be relaxed and the color balance can be adjusted specially.
The distance between the photographer and the subject is estimated based on the “amount of reflected light from the strobe light source” information, and can be reflected in, for example, setting of image processing conditions that suppress whitening of the skin.
Based on the “subject type” information, for example, in human photography, the degree of sharpness is relaxed and the smoothing process is strengthened, so that wrinkles on the skin can be made inconspicuous.

本発明に係る画像記録装置は、本発明に係る撮像装置から取得されるデジタル画像データに対し、本発明に係る画像処理を施す機構以外にも、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等、アナログカメラにより記録された写真感光材料の駒画像情報を入力するフィルムスキャナ、銀塩印画紙であるカラーペーパー上に再現された画像情報を入力するフラットベッドスキャナを備えていても良い。また本発明の撮像装置以外のデジタルカメラにより取得され、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、スマートメディア(登録商標)、マルチメディアカード(登録商標)、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、CD−Rなど、公知のあらゆる可搬式の「記録メディア」に保存されたデジタル画像データを読み取る手段、或いは通信手段を介してデジタル画像データを遠隔地より取得し、CRT、LCD、プラズマディスプレイ等の表示デバイスや、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙など、公知のあらゆる出力媒体に鑑賞画像を形成する処理手段とを備えていてもよい。   The image recording apparatus according to the present invention includes a color negative film, a color reversal film, a black and white negative film, a black and white film, in addition to a mechanism for performing image processing according to the present invention on digital image data acquired from the imaging apparatus according to the present invention. There may be provided a film scanner for inputting frame image information of a photographic photosensitive material recorded by an analog camera such as a reversal film, and a flatbed scanner for inputting image information reproduced on color paper which is silver salt photographic paper. Also obtained by a digital camera other than the imaging device of the present invention, CompactFlash (registered trademark), Memory Stick (registered trademark), SmartMedia (registered trademark), Multimedia card (registered trademark), floppy (registered trademark) disk, optical A means for reading digital image data stored in any known portable “recording medium” such as a magnetic storage medium (MO), CD-R, etc., or obtaining digital image data from a remote location via communication means, and CRT And display means such as LCD and plasma display, and processing means for forming an appreciation image on any known output medium such as hard copy image generation paper such as silver salt photographic paper, inkjet paper, thermal printer paper, etc. May be.

本発明によれば、鑑賞画像参照データを生成するための再現補助データを撮像装置側で生成して、その再現補助データを撮像装置の特性に依存したシーン参照生データに添付して記録メディアに記録することにより、その記録メディアに記録されたデータを出力媒体に出力する際、その再現補助データを利用して鑑賞画像参照データが生成され、撮影画像情報の情報損失を抑制するとともに、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを得ることが可能となる。   According to the present invention, reproduction auxiliary data for generating appreciation image reference data is generated on the imaging apparatus side, and the reproduction auxiliary data is attached to the scene reference raw data depending on the characteristics of the imaging apparatus on the recording medium. By recording, when data recorded on the recording medium is output to an output medium, viewing image reference data is generated using the reproduction auxiliary data, and information loss of captured image information is suppressed, and an imaging apparatus It is possible to obtain appreciation image reference data of higher quality than the image data obtained in (1).

また、再現情報データの利用を認証するための認証情報を設定することにより、撮像装置で得られた画像データの利用を制限することが可能となり、鑑賞画像参照データの生成に関わる情報を保護することができる。   Also, by setting authentication information for authenticating the use of reproduction information data, it becomes possible to limit the use of image data obtained by the imaging apparatus, and protect information related to generation of appreciation image reference data. be able to.

更に、再現補助データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データに添付することにより、画像処理装置或いは画像記録装置側では、再現補助データ及び撮影情報データを利用して鑑賞画像参照データが生成され、一層高品質な鑑賞画像参照データを得ることが可能となる。   Furthermore, in addition to the reproduction assistance data, shooting information data, which is the shooting condition setting at the time of shooting, is attached to the scene reference raw data, so that the image processing apparatus or the image recording apparatus uses the reproduction assistance data and the shooting information data. Thus, appreciation image reference data is generated, and higher-quality appreciation image reference data can be obtained.

以下、図面を参照して、本発明の実施形態を詳細に説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, the configuration in the present embodiment will be described.

〈撮像装置の構成〉
図1に、本発明の実施形態に係る撮像装置100の主要部構成を示す。撮像装置100は、図1に示すように、レンズ1、絞り2、CCD(Charge Coupled Device)3、アナログ処理回路4、A/D変換器5、一時記憶メモリ6、画像処理部7、ヘッダ情報処理部8、記憶デバイス9、CCD駆動回路10、制御部11、再現補助データ生成部12、符号化・認証情報設定部21、操作部14、表示部15、ストロボ駆動回路16、ストロボ17、焦点距離調整回路18、自動焦点駆動回路19、モータ20等を備えて構成されている。
<Configuration of imaging device>
FIG. 1 shows a main part configuration of an imaging apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the imaging apparatus 100 includes a lens 1, an aperture 2, a CCD (Charge Coupled Device) 3, an analog processing circuit 4, an A / D converter 5, a temporary storage memory 6, an image processing unit 7, and header information. Processing unit 8, storage device 9, CCD drive circuit 10, control unit 11, reproduction auxiliary data generation unit 12, encoding / authentication information setting unit 21, operation unit 14, display unit 15, strobe drive circuit 16, strobe 17, focus A distance adjusting circuit 18, an automatic focus driving circuit 19, a motor 20 and the like are provided.

撮像装置100の光学系は、レンズ1、絞り2、CCD3を備えて構成されている。
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。CCD3は、レンズ1により受光面上に結像された被写体光を、CCD3内の各センサ毎に光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路10から入力されるタイミングパルスに制御されることにより、この撮像信号をアナログ処理回路4へ順次出力する。
The optical system of the imaging apparatus 100 includes a lens 1, a diaphragm 2, and a CCD 3.
The lens 1 adjusts the focus and forms an optical image of the subject. The diaphragm 2 adjusts the amount of light beam that has passed through the lens 1. The CCD 3 photoelectrically converts subject light imaged on the light receiving surface by the lens 1 into an electrical signal (imaging signal) of an amount corresponding to the amount of incident light for each sensor in the CCD 3. Then, the CCD 3 is sequentially controlled by the timing pulse input from the CCD driving circuit 10 to sequentially output the image pickup signal to the analog processing circuit 4.

アナログ処理回路4は、CCD3から入力された撮像信号に対して、RGB信号の増幅やノイズの低減処理等を行う。このアナログ処理回路4における処理は、操作部14からの操作信号に応じて制御部11を介してON/OFFが切り替えられるようになっている。   The analog processing circuit 4 performs RGB signal amplification, noise reduction processing, and the like on the imaging signal input from the CCD 3. The processing in the analog processing circuit 4 is switched ON / OFF via the control unit 11 in accordance with an operation signal from the operation unit 14.

A/D変換器5は、アナログ処理回路4から入力された撮像信号をデジタル信号に変換して出力する。以下では、A/D変換器5で得られるデジタル信号をシーン参照生データとして説明する。   The A / D converter 5 converts the imaging signal input from the analog processing circuit 4 into a digital signal and outputs it. Hereinafter, a digital signal obtained by the A / D converter 5 will be described as scene reference raw data.

一時記憶メモリ6は、バッファメモリ等であり、A/D変換器5から出力された画像データを一時的に格納する。   The temporary storage memory 6 is a buffer memory or the like, and temporarily stores the image data output from the A / D converter 5.

画像処理部7は、一時記憶メモリ6に格納された画像データに対し、表示部15で表示するための階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等の画質向上処理の他、画像サイズの変更、トリミング、アスペクト変換等の処理を施す。この画像処理部7における処理は、操作部14からの操作信号に応じて制御部11を介してON/OFFが切り替えられるようになっている。   The image processing unit 7 performs tone correction, spectral sensitivity crosstalk correction, dark current noise suppression, sharpening, white balance adjustment for display on the display unit 15 with respect to the image data stored in the temporary storage memory 6. In addition to image quality improvement processing such as saturation adjustment, processing such as image size change, trimming, and aspect conversion is performed. The processing in the image processing unit 7 is switched ON / OFF via the control unit 11 in accordance with an operation signal from the operation unit 14.

ヘッダ情報処理部8は、一時記憶メモリ6に格納されたシーン参照生データのファイルヘッダ(ヘッダ領域)に、符号化・認証情報設定部21から入力された符号化された再現補助データ(詳細は後述)及びその認証情報を添付して添付済みデータファイル(図3参照)を作成する。   The header information processing unit 8 encodes encoded reproduction auxiliary data (for details, input from the encoding / authentication information setting unit 21 to the file header (header area) of the scene reference raw data stored in the temporary storage memory 6. Attached data file (see FIG. 3) is created by attaching the authentication information described later.

記憶デバイス9は、不揮発性の半導体メモリ等により構成されており、撮像装置100の制御プログラムを記憶している。また、記憶デバイス9は、メモリーカード等の記録メディアを装着する装着部を備え、制御部11から入力される制御信号に従って、装着部に装着された記録メディアの記録されたデータの読み出しや、記録メディアへのデータの書き込みを行う。   The storage device 9 is configured by a nonvolatile semiconductor memory or the like, and stores a control program for the imaging apparatus 100. In addition, the storage device 9 includes a mounting unit for mounting a recording medium such as a memory card, and in accordance with a control signal input from the control unit 11, reading of recorded data on the recording medium mounted on the mounting unit and recording Write data to the media.

CCD駆動回路10は、制御部11から入力される制御信号に従ってタイミングパルスを出力し、CCD3の駆動制御を行う。   The CCD drive circuit 10 outputs a timing pulse in accordance with a control signal input from the control unit 11 and performs drive control of the CCD 3.

制御部11は、CPU(Central Processing Unit)等により構成され、記憶デバイス9に記憶されている撮像装置100の制御プログラムを読み出して、読み出した制御プログラムに従って撮像装置100全体の制御を行う。   The control unit 11 is configured by a CPU (Central Processing Unit) or the like, reads a control program of the imaging device 100 stored in the storage device 9, and controls the entire imaging device 100 according to the read control program.

例えば、制御部11は、操作部14からの操作信号に応じて、レンズ1の焦点距離とフォーカス(ピント)を調節するモータ20の制御を行う自動焦点駆動回路19、焦点距離調整回路18、CCD駆動回路10、アナログ処理回路4、一時記憶メモリ6、画像処理部7、表示部15、ストロボ駆動回路16の制御を行うことにより、撮影動作を実行させる。また、制御部11は、撮影で得られたシーン参照生データのファイルヘッダに添付する再現補助データ(詳細は後述)の生成を再現補助データ生成部12に指示し、記憶デバイス9に対し、シーン参照生データに再現補助データが添付されたデータファイルを記録メディアに記録するように指示する。   For example, the control unit 11 controls the motor 20 for adjusting the focal length and focus (focus) of the lens 1 in accordance with an operation signal from the operation unit 14, an automatic focus drive circuit 19, a focal length adjustment circuit 18, a CCD By controlling the driving circuit 10, the analog processing circuit 4, the temporary storage memory 6, the image processing unit 7, the display unit 15, and the strobe driving circuit 16, the photographing operation is executed. In addition, the control unit 11 instructs the reproduction auxiliary data generation unit 12 to generate reproduction auxiliary data (details will be described later) to be attached to the file header of the scene reference raw data obtained by shooting. An instruction is given to record on the recording medium a data file in which reproduction auxiliary data is attached to the reference raw data.

再現補助データ生成部12は、出力媒体上での鑑賞画像形成のための最適化する処理を施して鑑賞画像参照データを生成する際に必要な再現補助データを生成し、生成された再現補助データを符号化・認証情報設定部21に出力する。再現補助データ生成部12の内部構成については、後に図2を参照して詳細に説明する。   The reproduction auxiliary data generation unit 12 generates reproduction auxiliary data necessary for generating the viewing image reference data by performing processing for optimizing the formation of the viewing image on the output medium, and the generated reproduction assistance data. Is output to the encoding / authentication information setting unit 21. The internal configuration of the reproduction auxiliary data generation unit 12 will be described in detail later with reference to FIG.

符号化・認証情報設定部21は、再現補助データ生成部12で生成された再現補助データを所定の符号化方式(圧縮方式)で符号化(エンコード)する。また、操作部14からの入力操作により、再現補助データの利用を認証するための認証情報(パスワード)を設定し、符号化された再現補助データ及びその認証情報をヘッダ情報処理部8に出力する。   The encoding / authentication information setting unit 21 encodes the reproduction auxiliary data generated by the reproduction auxiliary data generation unit 12 using a predetermined encoding method (compression method). In addition, authentication information (password) for authenticating the use of reproduction auxiliary data is set by an input operation from the operation unit 14, and the encoded reproduction auxiliary data and its authentication information are output to the header information processing unit 8. .

本実施形態で適用される符号化方式(圧縮方式)としては大きく分けて、非可逆(lossy)方式と、可逆(lossless)方式の二種類がある。非可逆方式は、復号時に元のデータに戻らない方式であり、可逆方式は、復号時に完全に元のデータに戻る方式である。可逆方式の圧縮ファイルとしては、LZH、ZIPがある。以下、圧縮アルゴリズムの基本である可逆方式について説明する。   Encoding schemes (compression schemes) applied in the present embodiment can be broadly divided into two types: lossy schemes and lossless schemes. The lossy method is a method that does not return to the original data at the time of decoding, and the lossless method is a method that completely returns to the original data at the time of decoding. There are LZH and ZIP as reversible compressed files. Hereinafter, the lossless method that is the basis of the compression algorithm will be described.

可逆方式の圧縮アルゴリズムは、一般的に2段階の工程(前工程、後工程)で構成される(非可逆方式も同様)。ここでは、前工程を「モデル化」、後工程を「符号化」と称す。前工程のモデル化では、データの特徴を抽出するデータ変換を行い、データ量を減らす処理が施される。モデル化としては、ランレングス、前方移動、LZ(LZ77系、LZ78系)やBlockSorting、PPM等が知られており、このうち、LZが現在一番広く使用されている。LZでは、一般に「辞書」と言われる文字列のテーブルを作成し、データ圧縮を行う。辞書とは、文字列を登録したテーブルのことであり、例えば「ABURAKATABURA」という文字列では、「ABURA」という文字列が2回出現する。このように、頻繁に使う文字列を辞書に登録し、登録された文字列を辞書コードに変換することにより、情報量を減らすことができる。   A reversible compression algorithm is generally composed of two stages (pre-process and post-process) (the same applies to the non-reversible system). Here, the pre-process is referred to as “modeling” and the post-process is referred to as “encoding”. In the modeling of the previous process, data conversion for extracting data features is performed to reduce the data amount. As modeling, run length, forward movement, LZ (LZ77 system, LZ78 system), BlockSorting, PPM, and the like are known, and LZ is currently most widely used. In LZ, a table of character strings generally called a “dictionary” is created and data compression is performed. A dictionary is a table in which character strings are registered. For example, in a character string “ABURAKATABURA”, a character string “ABURA” appears twice. Thus, by registering frequently used character strings in the dictionary and converting the registered character strings into dictionary codes, the amount of information can be reduced.

後工程の符号化(エンコード)では、前工程で変換したデータをbitデータにする。この情報量のbit化のことをエントロピー符号化とも称す。エントロピー符号化には、Huffman符号化、算術符号化、RangeCoderなどが知られており、このうち、Huffman符号化が現在一番広く使われている。Huffman符号化は、「文字の出現頻度を考慮してbitを割り当てる」という考え方に基づいている。Huffman符号化では、出現頻度の低い文字からbitを割り当てる。具体的には、出現頻度の低い2つを探し出して、0と1のbitを割り当てていくものである。   In encoding (encoding) in the subsequent process, the data converted in the previous process is converted to bit data. This bit conversion of information amount is also referred to as entropy coding. As entropy coding, Huffman coding, arithmetic coding, RangeCoder, and the like are known, and Huffman coding is currently the most widely used. Huffman coding is based on the idea that “bits are allocated in consideration of the appearance frequency of characters”. In Huffman coding, bits are assigned from characters with a low appearance frequency. Specifically, two low appearance frequencies are searched and 0 and 1 bits are assigned.

操作部14は、シャッターボタン、電源のON/OFFボタン、ズームボタン等の各種機能ボタン、カーソルキー等を備え、各ボタンやキーに対応する操作信号を制御部11に出力する。   The operation unit 14 includes a shutter button, a power ON / OFF button, various function buttons such as a zoom button, a cursor key, and the like, and outputs an operation signal corresponding to each button and key to the control unit 11.

表示部15は、LCD(Liquid Crystal Display)又はEL(ElectroLuminescence)ディスプレイ等により構成され、制御部11により入力された表示制御信号に従って、所要の表示処理を行う。例えば、表示部15は、撮像装置100の使用者が撮影に関する設定や条件を確認するための情報を表示したり、表示部15での表示用に生成された鑑賞画像参照データを表示したりする。また、表示部15は、撮影モード時には、CCD3により取り込まれた画像を連続的に表示するファインダとしての機能を有する。   The display unit 15 is configured by an LCD (Liquid Crystal Display), an EL (ElectroLuminescence) display, or the like, and performs a required display process in accordance with a display control signal input by the control unit 11. For example, the display unit 15 displays information for the user of the image capturing apparatus 100 to confirm settings and conditions regarding shooting, or displays appreciation image reference data generated for display on the display unit 15. . Further, the display unit 15 has a function as a finder for continuously displaying images captured by the CCD 3 in the photographing mode.

ストロボ駆動回路16は、制御部11から入力される制御信号により、被写体輝度が低い時にストロボ17を駆動制御して発光させる。   The strobe drive circuit 16 drives and controls the strobe 17 to emit light when the subject brightness is low according to a control signal input from the control unit 11.

ストロボ17は、電池電圧を所定の高電圧に昇圧させ、電荷としてコンデンサに蓄える。そして、ストロボ17は、ストロボ駆動回路16により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。   The strobe 17 boosts the battery voltage to a predetermined high voltage and stores it as a charge in a capacitor. The strobe 17 is driven by the strobe drive circuit 16 to emit light from the X tube with the electric charge stored in the capacitor and irradiate the subject with auxiliary light.

焦点距離調整回路18は、制御部11から入力される制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
自動焦点駆動回路19は、制御部11から入力される制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
The focal length adjustment circuit 18 controls the motor 20 for adjusting the focal length by moving the lens 1 in accordance with a control signal input from the control unit 11.
The automatic focus driving circuit 19 controls the motor 20 for adjusting the focus (focus) by moving the lens 1 in accordance with a control signal input from the control unit 11.

図2に、再現補助データ生成部12の内部構成を示す。再現補助データ生成部12は、図2に示すように、撮像装置特性補正情報生成部121、鑑賞画像参照データ復元情報生成部122、処理プロセス再現情報生成部123により構成される。   FIG. 2 shows an internal configuration of the reproduction auxiliary data generation unit 12. As shown in FIG. 2, the auxiliary reproduction data generation unit 12 includes an imaging device characteristic correction information generation unit 121, an appreciation image reference data restoration information generation unit 122, and a processing process reproduction information generation unit 123.

撮像装置特性補正情報生成部121は、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な情報(撮像装置特性補正情報)を生成する。撮像装置特性補正処理には、図4に示すように、シーン参照生データに対するフィルタ補間演算(a)と、マトリックス演算(b)と、光電変換特性及びゲイン補正(c)がある。   The imaging device characteristic correction information generation unit 121 generates information (imaging device characteristic correction information) necessary for imaging device characteristic correction processing for generating standardized scene reference image data from scene reference raw data. As shown in FIG. 4, the imaging device characteristic correction processing includes filter interpolation calculation (a), matrix calculation (b), photoelectric conversion characteristics and gain correction (c) for scene reference raw data.

図4(a)に示すフィルタ補間演算は、1画素1色のフィルタ配列を有する画像データから1画素3色(RGB)のリニア画像データに補間する処理である。ここで、フィルタ配列とは、CCDの色弁別用カラーフィルタの配列パターンであり、RGB原色のベイヤー配列が一般的に用いられる。フィルタ補間方法としては、ニアレストネイバー(nearest neighbor)法、バイリニア(bi-linear interpolation)法、バイキュービック(bi-cubic convolution)法等を適用することが可能である。   The filter interpolation calculation shown in FIG. 4A is a process of interpolating image data having a filter arrangement of one pixel and one color into linear image data of one pixel and three colors (RGB). Here, the filter array is an array pattern of color filters for color discrimination of CCD, and an RGB primary color Bayer array is generally used. As a filter interpolation method, a nearest neighbor method, a bi-linear interpolation method, a bi-cubic convolution method, or the like can be applied.

ニアレストネイバー法では、着目画素の最近傍の画素を選択し、拡大・縮小のサイズに合わせてピクセルをそのまま拡大・縮小し、必要な箇所のみピクセルを補間する。バイリニア法では、着目画素の周囲の4つの画素の濃度値から、その座標(実数値)に応じて線形の濃度補間を行う。バイキュービック法では、バイリニア法よりも高精度で補間を行うために、着目画素の周囲の16個の画素の濃度値から、3次関数を用いて補間する。補間に用いる式はsin(πx)/πxで、理論(サンプリング定理)的には最も完全な濃度補間式である。これをテイラー展開でxの3次の項で近似し、補間式として用いる。   In the nearest neighbor method, a pixel nearest to the target pixel is selected, the pixel is enlarged or reduced as it is according to the size of enlargement / reduction, and the pixel is interpolated only at a necessary portion. In the bilinear method, linear density interpolation is performed from the density values of four pixels around the target pixel according to the coordinates (real values). In the bicubic method, in order to perform interpolation with higher accuracy than in the bilinear method, interpolation is performed using a cubic function from the density values of 16 pixels around the pixel of interest. The equation used for interpolation is sin (πx) / πx, which is the most complete density interpolation equation in theory (sampling theorem). This is approximated by a third-order term of x by Taylor expansion and used as an interpolation formula.

図4(b)に示すマトリックス演算は、カラーフィルタの分光特性や撮像素子の分光感度特性の違いから、同一の被写体色が異なる信号として記録される差異を補正するための演算処理であり、このマトリックス演算によりRGBからXYZ表色系の三刺激値に変換される。   The matrix calculation shown in FIG. 4B is a calculation process for correcting a difference in which the same subject color is recorded as a different signal due to a difference in spectral characteristics of the color filter and spectral sensitivity characteristics of the image sensor. Conversion from RGB to tristimulus values in the XYZ color system is performed by matrix calculation.

図4(c)は、撮像素子の光電変換特性(リニア変換特性)やゲイン補正(平行移動)に伴う差異を補正するための処理を表すもので、この処理は、図4(c)に示すように、logE(E:露光量)に対しlogY(Y:XYZ表色系の刺激値)がリニアに変換する特性となっている。   FIG. 4C shows processing for correcting a difference due to photoelectric conversion characteristics (linear conversion characteristics) and gain correction (parallel movement) of the image sensor. This processing is shown in FIG. As described above, logY (Y: stimulus value of XYZ color system) is linearly converted with respect to logE (E: exposure amount).

図4(a)〜(c)に示すような撮像装置特性補正処理により、撮像装置の特性に依存したシーン参照生データからシーン参照画像データ等の標準化された色空間におけるXYZ値へと変換される。なお、撮像装置特性補正処理で適用されるカラーフィルタの配列パターン、マトリクス演算の行列係数a〜i、光電変換特性やゲイン補正に伴う差異を補正する係数値は、全て撮像装置毎に異なるものである。   By the imaging device characteristic correction processing as shown in FIGS. 4A to 4C, the scene reference raw data depending on the characteristics of the imaging device is converted into XYZ values in a standardized color space such as scene reference image data. The Note that the color filter array pattern, matrix calculation matrix coefficients a to i, coefficient values for correcting differences associated with photoelectric conversion characteristics and gain correction, which are applied in the imaging apparatus characteristic correction processing, are all different for each imaging apparatus. is there.

鑑賞画像参照データ復元情報生成部122は、シーン参照画像データから鑑賞画像参照データを生成する際に撮像装置100での鑑賞画像参照データを復元するための復元情報(鑑賞画像参照データ復元情報)のエンコード情報を生成する。   The appreciation image reference data restoration information generation unit 122 generates restoration information (appreciation image reference data restoration information) for restoring appreciation image reference data in the imaging apparatus 100 when generating appreciation image reference data from scene reference image data. Generate encoding information.

図5(a)に、シーン参照画像データの階調変換特性を示す。この階調変換特性は、図5(a)に示すように、logE(E:露光量)に対しlogY(Y:XYZ表色系の刺激値)がリニアに変換する特性となっている。   FIG. 5A shows the tone conversion characteristics of the scene reference image data. As shown in FIG. 5A, the gradation conversion characteristic is a characteristic that logY (Y: stimulus value of XYZ color system) is linearly converted with respect to logE (E: exposure amount).

図5(b)に、シーン参照画像データと鑑賞画像参照データのsRGB色空間における階調変換特性として、均等色空間であるL*a*b*表色系のL*とlogE(E:露光量)の関係を示す。図5(b)に示した階調変換特性では、今度は鑑賞画像参照データが、logEに対しL*がリニアに変化する特性となっている。   FIG. 5B illustrates the L * and logE (E: exposure) of the L * a * b * color system, which is a uniform color space, as gradation conversion characteristics in the sRGB color space of the scene reference image data and the viewing image reference data. (Quantity) relationship. In the gradation conversion characteristic shown in FIG. 5B, this time, the viewing image reference data has a characteristic that L * changes linearly with respect to logE.

図6(a)に、シーン参照画像データから鑑賞画像参照データの変換特性(図中の曲線)を示す。図6(a)に示す変換特性に、撮影時の撮影シーン(順光、逆光、アンダー、フラッシュ近接等)に伴う補正を加えることができる。図6(b)に、逆光、フラッシュ近接撮影の光源条件、アンダー、オーバーの露出条件を補正するための鑑賞画像参照データの階調変換特性を示す。図6(a)の変換特性と、図6(b)の変換特性を合成したものが、鑑賞画像参照データ復元情報となる。   FIG. 6A shows the conversion characteristics (curve in the figure) of scene reference image data to appreciation image reference data. The conversion characteristics shown in FIG. 6A can be corrected according to the shooting scene at the time of shooting (front light, backlight, under, flash proximity, etc.). FIG. 6B shows the gradation conversion characteristics of the appreciation image reference data for correcting the light source conditions for backlighting, flash close-up photography, and under / over exposure conditions. A combination of the conversion characteristics shown in FIG. 6A and the conversion characteristics shown in FIG. 6B is the viewing image reference data restoration information.

処理プロセス再現情報生成部123は、シーン参照画像データから鑑賞画像参照データを生成する際に撮像装置100での鑑賞画像参照データの生成過程を再現するための情報(処理プロセス再現情報)を生成する。   The processing process reproduction information generating unit 123 generates information (processing process reproduction information) for reproducing the generation process of the appreciation image reference data in the imaging apparatus 100 when generating the appreciation image reference data from the scene reference image data. .

図7に、処理プロセス再現情報の一例を示す。処理プロセス再現情報は、本撮影から所定時間前(例えば、2500ms前)までの撮影条件の履歴情報を示し、具体的には、図7に示すように、ユーザ特性を示す手ぶれレベルと、撮影時の撮影シーン(順光、逆光、アンダー、フラッシュ近接等)の判別処理の処理結果を示す指標1〜3と、指標1〜3から算出される合計指標4と、算出された指標に対する評価値1、手ぶれレベルの評価値2及び撮影条件正当性の各項目についての履歴情報を示している。   FIG. 7 shows an example of processing process reproduction information. The process process reproduction information indicates history information of shooting conditions from a main shooting to a predetermined time before (for example, 2500 ms). Specifically, as shown in FIG. Indicators 1 to 3 indicating the processing result of the discrimination processing of the shooting scenes (forward light, backlight, under, flash proximity, etc.), total indicator 4 calculated from the indicators 1 to 3, and evaluation value 1 for the calculated indicator The history information about each item of the camera shake level evaluation value 2 and the photographing condition validity is shown.

処理プロセス再現情報において、手ぶれレベルは、手ぶれの度合いを、例えば10段階(1〜10の整数)で示したものであり、手ぶれの度合いが高いほど手ぶれレベルの数値が高くなる。   In the processing process reproduction information, the camera shake level indicates the degree of camera shake in, for example, 10 levels (an integer of 1 to 10). The higher the degree of camera shake, the higher the value of the camera shake level.

指標1〜3は、撮影時の撮影シーン(順光、逆光、アンダー、フラッシュ近接等)を特定するための数値である。図8に、撮影シーンを判別するための判別マップを示す。本実施形態では、図8に示すように、指標1をストロボ度(ストロボの度合い)、指標2を逆光度(逆光の度合い)、指標3をアンダー度(アンダーの度合い)とする。図8(a)に示すように、指標1(ストロボ度)と指標2(逆光度)で決定される領域から逆光と順光が判別され、指標1(ストロボ度)と指標3(アンダー度)で決定される領域から、アンダーとフラッシュ近接が判別される。撮影シーン判別処理については、後に図10〜図20を参照して詳細に説明する。   The indices 1 to 3 are numerical values for specifying a shooting scene at the time of shooting (forward light, backlight, under, flash proximity, etc.). FIG. 8 shows a discrimination map for discriminating the shooting scene. In this embodiment, as shown in FIG. 8, the index 1 is the strobe degree (strobe degree), the index 2 is the backlight degree (backlight degree), and the index 3 is the under degree (under degree). As shown in FIG. 8A, back light and forward light are discriminated from the area determined by the index 1 (strobe degree) and the index 2 (back light intensity), and the index 1 (strobe degree) and the index 3 (under degree). Under and flash proximity are discriminated from the area determined by. The shooting scene determination process will be described in detail later with reference to FIGS.

合計指標4の定義を式(1)に示す。
合計指標4=10−[{(指標1+指標2+指標3+18)/36}×10] (1)
また、評価値1、評価値2は、それぞれ、光源条件・露出条件評価値、手ぶれ評価値を示しており、式(2)、(3)のように定義される。
評価値1=合計指標4×3.4−5 (2)
評価値2=−0.54×手ぶれレベル+8.5 (3)
ここで、式(2)及び式(3)では、指標1〜3のうち、−6以下の値を−6、+6以上の値を+6としている。
The definition of the total index 4 is shown in Formula (1).
Total index 4 = 10 − [{(index 1 + index 2 + index 3 + 18) / 36} × 10] (1)
Evaluation value 1 and evaluation value 2 indicate a light source condition / exposure condition evaluation value and a camera shake evaluation value, respectively, and are defined as in equations (2) and (3).
Evaluation value 1 = Total index 4 x 3.4-5 (2)
Evaluation value 2 = -0.54 x camera shake level +8.5 (3)
Here, in the formulas (2) and (3), among the indexes 1 to 3, a value of −6 or less is −6, and a value of +6 or more is +6.

撮影条件正当性は、撮影時の環境や撮影者の技術レベル等、撮影が正しく行われた程度を示す数値であり、評価値1及び評価値2を用いて式(4)のように定義される。
撮影条件正当性=評価値1×0.8+評価値2×0.2 (4)
撮影が正しく行われるほど撮影条件正当性の数値は高くなる。図7の処理プロセス再現情報に示すように、時間の経過とともに撮影条件正当性の数値が高くなるように撮影条件(光源条件、露出条件等)が調整される。
The validity of the shooting condition is a numerical value indicating the degree of shooting that has been performed correctly, such as the environment at the time of shooting and the technical level of the photographer, and is defined as shown in Expression (4) using the evaluation value 1 and the evaluation value 2. The
Shooting condition correctness = evaluation value 1 × 0.8 + evaluation value 2 × 0.2 (4)
The correctness of the shooting conditions increases as the shooting is performed correctly. As shown in the processing process reproduction information of FIG. 7, the photographing conditions (light source conditions, exposure conditions, etc.) are adjusted so that the numerical value of the photographing condition validity increases as time passes.

図8(a)及び(b)では、図7に示す処理プロセス再現情報で示された指標1〜3の履歴を菱形で示している。図8に示す判別マップ上の履歴情報を表示部15に表示するようにしてもよい。   8A and 8B, the histories of the indices 1 to 3 indicated by the processing process reproduction information shown in FIG. 7 are indicated by diamonds. The history information on the discrimination map shown in FIG. 8 may be displayed on the display unit 15.

なお、上述では、手ぶれレベルを1〜10の整数値、指標1〜3の数値範囲を−6以上+6以下としたが、これらの数値範囲は特に限定されない。数値範囲の変更に伴い、合計指標4や評価値1、評価値2の定義は変更される。また、手ぶれ以外のユーザ特性として、ユーザによる各種のモード設定を用いるようにしてもよい。また、処理プロセス再現情報に記録される履歴情報として、シャッタースピード、絞り値等を含めるようにしてもよい。   In the above description, the camera shake level is an integer value of 1 to 10, and the numerical range of the indices 1 to 3 is −6 or more and +6 or less, but these numerical ranges are not particularly limited. With the change of the numerical value range, the definitions of the total index 4, the evaluation value 1, and the evaluation value 2 are changed. Further, various user mode settings may be used as user characteristics other than camera shake. The history information recorded in the processing process reproduction information may include a shutter speed, an aperture value, and the like.

また、処理プロセス再現情報としての履歴情報の記録は、操作部14により撮影モードが指定された後に開始し、シャッターボタンが押されたときを本撮影時としてもよいし、操作部14のシャッターボタンが半押し状態になった後に履歴情報の記録を開始し、シャッターボタンが強く押されたときを本撮影時としてもよい。   The recording of history information as processing process reproduction information starts after the shooting mode is designated by the operation unit 14, and the time when the shutter button is pressed may be the time of actual shooting or the shutter button of the operation unit 14. Recording of history information may be started after the button is half-pressed, and the time when the shutter button is pressed hard may be set as the actual shooting.

図3に、記憶デバイス9の記録メディアに記録されるデータファイルのデータ構造を示す。符号化・認証情報設定部21で符号化された再現補助データ(撮像装置特性補正情報、鑑賞画像参照データ復元情報及び処理プロセス再現情報)及びその認証情報は、図3に示すように、ヘッダ情報処理部8により、シーン参照生データのファイルヘッダに添付されて添付済みのデータファイルが作成され、この添付済みのデータファイルが、記憶デバイス9の記録メディアに記録されることになる。なお、符号化(エンコード)された再現補助データを復号(デコード)するためのデコード情報も、シーン参照生データのファイルヘッダに添付するようにしてもよい。   FIG. 3 shows the data structure of the data file recorded on the recording medium of the storage device 9. Reproduction auxiliary data (imaging device characteristic correction information, appreciation image reference data restoration information and processing process reproduction information) encoded by the encoding / authentication information setting unit 21 and its authentication information include header information as shown in FIG. The processing unit 8 creates an attached data file attached to the file header of the scene reference raw data, and the attached data file is recorded on the recording medium of the storage device 9. Note that decoding information for decoding the encoded auxiliary reproduction data may also be attached to the file header of the scene reference raw data.

なお、撮像装置100内で生成された鑑賞画像参照データを、表示部15での表示用に用いるだけでなく、シーン参照画像データと、この鑑賞画像参照データとを関連付けて記録メディアに記録したり、この鑑賞画像参照データのサムネイル画像をシーン参照生データのメタデータとして添付して記録メディアに記録するようにしてもよい。   Note that the appreciation image reference data generated in the imaging apparatus 100 is not only used for display on the display unit 15 but also recorded on a recording medium in association with the scene reference image data and the appreciation image reference data. The thumbnail image of the viewing image reference data may be attached as metadata of the scene reference raw data and recorded on the recording medium.

次に、撮像装置100における動作について説明する。
図9のフローチャートを参照して、撮像装置100において実行される画像データ記録処理について説明する。
Next, the operation in the imaging apparatus 100 will be described.
With reference to the flowchart of FIG. 9, an image data recording process executed in the imaging apparatus 100 will be described.

操作部14により撮影モードが指定されると、予備撮像が行われ(ステップS1)、予備撮像で得られた画像(以下、予備撮像画像という。)を表示部15に表示するための鑑賞画像参照データが形成され(ステップS2)、その形成された鑑賞画像参照データが表示部15に表示される(ステップS3)。なお、ステップS1では、操作部14によりシャッターボタンが半押し状態になったときに予備撮像が行われるようにしてもよい。   When the shooting mode is designated by the operation unit 14, preliminary imaging is performed (step S <b> 1), and an appreciation image reference for displaying on the display unit 15 an image obtained by preliminary imaging (hereinafter referred to as a preliminary captured image) is displayed. Data is formed (step S2), and the formed appreciation image reference data is displayed on the display unit 15 (step S3). In step S1, preliminary imaging may be performed when the shutter button is pressed halfway by the operation unit 14.

次いで、処理プロセス再現情報生成部123において、撮影シーン判別処理(図10〜図20参照)が行われ、手ぶれレベルや、撮影シーン判別処理の処理結果としての指標1〜3等から撮影条件正当性を示す値が算出され、算出結果から撮影条件の正当性が判断される(ステップS4)。そして、撮影条件正当性の値が高くなるように撮影条件が調整される(ステップS5)。ステップS1〜S5の処理は、操作部14のシャッターボタンが押されて本撮影が指示されるまで繰り返され、本撮影より所定時間前までの撮影条件の履歴情報が処理プロセス再現情報として生成される。   Next, in the processing process reproduction information generation unit 123, a shooting scene discrimination process (see FIGS. 10 to 20) is performed, and the validity of the shooting conditions is determined from the camera shake level and the indices 1 to 3 as the processing result of the shooting scene discrimination process. Is calculated, and the validity of the imaging condition is determined from the calculation result (step S4). Then, the shooting condition is adjusted so that the value of the shooting condition validity is increased (step S5). The processing in steps S1 to S5 is repeated until the actual shooting is instructed by pressing the shutter button of the operation unit 14, and history information of shooting conditions up to a predetermined time before the main shooting is generated as processing process reproduction information. .

操作部14のシャッターボタンが押され、本撮影が指示されると(ステップS6;YES)、CCD3から得られた撮像信号がA/D変換器5によりデジタル信号に変換されることによりシーン参照生データが生成されると同時に(ステップS7)、再現補助データ生成部12では、再現補助データとして、撮像装置特性補正情報、鑑賞画像参照データ復元情報、処理プロセス再現情報が生成される(ステップS8)。ステップS8で生成される処理プロセス再現情報は、ステップS1〜S5の処理で生成された本撮影前の履歴情報に、本撮影時の情報を追加したものである。なお、本撮影の後に、記録メディアへ記録するための鑑賞画像参照データを作成するステップを追加してもよい。   When the shutter button of the operation unit 14 is pressed and main shooting is instructed (step S6; YES), the image reference signal obtained from the CCD 3 is converted into a digital signal by the A / D converter 5, thereby generating a scene reference source. At the same time that data is generated (step S7), the reproduction auxiliary data generation unit 12 generates imaging device characteristic correction information, appreciation image reference data restoration information, and processing process reproduction information as reproduction auxiliary data (step S8). . The process process reproduction information generated in step S8 is obtained by adding information at the time of main shooting to the history information before main shooting generated by the processing of steps S1 to S5. Note that a step of creating appreciation image reference data for recording on a recording medium may be added after the main shooting.

再現補助データが生成されると、当該再現補助データが所定の符号化方式により符号化され(ステップS9)、当該再現補助データの利用を認証するためのパスワードの入力画面が表示部15に表示される。操作部14の操作により、パスワード入力画面にパスワードが入力されると、その入力されたパスワードが、ステップS8で生成された再現補助データの認証情報として設定される(ステップS10)。   When the reproduction auxiliary data is generated, the reproduction auxiliary data is encoded by a predetermined encoding method (step S9), and a password input screen for authenticating the use of the reproduction auxiliary data is displayed on the display unit 15. The When a password is input on the password input screen by operating the operation unit 14, the input password is set as authentication information of the reproduction assistance data generated in step S8 (step S10).

次いで、ヘッダ情報処理部8において、ステップS7で生成されたシーン参照生データのファイルヘッダに、ステップS9で符号化された再現補助データ及びステップS10で設定された認証情報(パスワード)がタグ情報として添付され(ステップS11)、添付済みデータファイル(図3参照)が作成される(ステップS12)。この添付済みデータファイルは、記憶デバイス9の記録メディアに記録、保存され(ステップS13)、本画像データ記録処理が終了する。   Next, in the header information processing unit 8, the reproduction auxiliary data encoded in step S9 and the authentication information (password) set in step S10 are added to the file header of the scene reference raw data generated in step S7 as tag information. The attached data file (see FIG. 3) is created (step S12). The attached data file is recorded and stored in the recording medium of the storage device 9 (step S13), and the image data recording process is completed.

<撮影シーン判別処理>
次に、図10のフローチャートを参照して、撮影条件の正当性を判断する際に必要な撮影シーン判別処理について説明する。
<Shooting scene discrimination processing>
Next, with reference to the flowchart of FIG. 10, a shooting scene determination process necessary for determining the validity of shooting conditions will be described.

まず、撮影画像データ(例えば、シーン参照生データ)が所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率(第1の占有率、第2の占有率)を算出する占有率算出処理が行われる(ステップT1)。占有率算出処理の詳細は、後に図11、図17を参照して説明する。   First, photographic image data (for example, scene reference raw data) is divided into predetermined image areas, and an occupancy ratio (first occupancy ratio, second occupancy ratio) indicating a ratio of each divided area to the entire captured image data. Occupancy rate calculation processing is performed (step T1). Details of the occupation rate calculation process will be described later with reference to FIGS. 11 and 17.

次いで、撮影画像データの階調分布の偏りを示す偏倚量を算出する偏倚量算出処理が行われる(ステップT2)。ステップT2の偏倚量算出処理については、後に図20を参照して詳細に説明する。   Next, a bias amount calculation process is performed for calculating a bias amount indicating a bias in the gradation distribution of the photographed image data (step T2). The bias amount calculation process in step T2 will be described in detail later with reference to FIG.

次いで、ステップT1で算出された占有率と、撮影条件に応じて予め設定された係数に基づいて撮影シーンを特定するための指標1〜3が算出され(ステップT3)、本撮影シーン判別処理が終了する。ステップT3における指標の算出方法は、後に詳細に説明する。   Next, indices 1 to 3 for specifying a shooting scene are calculated based on the occupation ratio calculated in step T1 and a coefficient set in advance according to shooting conditions (step T3), and the shooting scene determination process is performed. finish. The index calculation method in step T3 will be described in detail later.

次に、図11のフローチャートを参照して、第1の占有率算出処理について詳細に説明する。   Next, the first occupation ratio calculation process will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップT10)。図12は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図12に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, the RGB values of the photographed image data are converted into the HSV color system (step T10). FIG. 12 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 12, the values of digital image data as input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップT11)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step T11). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影条件の判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(5)を満たす色相’(H)を肌色領域(H1)とし、式(5)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (A)
として、
色相’(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (5)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(5)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is known that the contribution to the determination of the imaging condition is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (5) is defined as the flesh-colored area (H1), and the area that does not satisfy the formula (5) ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (5)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formula (5).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップT12)、本第1の占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2006203567
When the two-dimensional histogram is created, a first occupancy ratio indicating a ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step T12), and the first The occupation rate calculation process ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 2006203567

次に、指標の算出方法について説明する。
表2に、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標αを算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203567
Next, an index calculation method will be described.
Table 2 shows the first coefficient necessary for calculating the accuracy α for strobe shooting, that is, the index α that quantitatively indicates the lightness state of the face area at the time of strobe shooting, for each divided area. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupancy ratio Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203567

図13に、明度(v)−色相(H)平面を示す。表2によると、図13において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図15は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図15によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 13 shows a lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. 13, and blue other than that is blue. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 15 shows a curve (coefficient curve) in which the first coefficient in the skin color area (H1) and the first coefficient in the other areas (green hue area (H3)) continuously change over the entire brightness. It is shown. According to Table 2 and FIG. 15, in the region of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標αを算出するためのHk領域の和は、式(6)のように定義される。

Figure 2006203567
従って、H1〜H4領域の和は、下記の式(6-1)〜式(6-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) (6-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) (6-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) (6-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) (6-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index α is defined as in Expression (6).
Figure 2006203567
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (6-1) to (6-4).
H1 area sum = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) (6-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) (6-2)
Sum of H3 area = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) (6-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) (6-4)

指標αは、式(6-1)〜(6-4)で示されたH1〜H4領域の和を用いて、式(7)のように定義される。
指標α=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 (7)
The index α is defined as in Expression (7) using the sum of the H1 to H4 regions shown in Expressions (6-1) to (6-4).
Index α = sum of H1 region + sum of H2 region + sum of H3 region + sum of H4 region + 4.424 (7)

表3に、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標βを算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203567
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index β that quantitatively indicates the accuracy as backlight photographing, that is, the brightness state of the face region at the time of backlight photographing. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the first occupancy rate Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203567

図14に、明度(v)−色相(H)平面を示す。表3によると、図14において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図16は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図16によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 14 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupation ratio calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 14, and the low lightness (shadow) region ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 16 shows the second coefficient in the skin color area (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 16, the sign of the second coefficient of the intermediate lightness region of the flesh color hue region having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標βを算出するためのHk領域の和は、式(8)のように定義される。

Figure 2006203567
従って、H1〜H4領域の和は、下記の式(8-1)〜式(8-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) (8-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) (8-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 (8-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 (8-4) When the second coefficient in the lightness region vi and the hue region Hj is Dij, the sum of the Hk regions for calculating the index β is defined as in Expression (8).
Figure 2006203567
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (8-1) to (8-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) (8-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) (8-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (8-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 (8-4)

指標βは、式(8-1)〜(8-4)で示されたH1〜H4領域の和を用いて、式(9)のように定義される。
指標β=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 (9)
指標α及び指標βは、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の撮影シーンの判別に有効である。
The index β is defined as in Expression (9) using the sum of the H1 to H4 regions shown in Expressions (8-1) to (8-4).
Index β = sum of H1 region + sum of H2 region + sum of H3 region + sum of H4 region + 1.554 (9)
Since the index α and the index β are calculated based on the brightness of the captured image data and the distribution amount of the hue, the index α and the index β are effective for determining a captured scene when the captured image data is a color image.

次に、図17のフローチャートを参照して、指標γを算出するために実行される第2の占有率算出処理について詳細に説明する。   Next, the second occupancy rate calculation process executed to calculate the index γ will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップT20)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップT21)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the photographed image data are converted into the HSV color system (step T20). Next, the photographed image data is divided into regions composed of combinations of the distance from the outer edge of the photographed image screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step T21). Hereinafter, the area division of the captured image data will be described in detail.

図18(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図18(a)に示す領域n1が外枠であり、図18(b)に示す領域n2が、外枠の内側の領域であり、図18(c)に示す領域n3が、領域n2の更に内側の領域であり、図18(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   18A to 18D show four regions n1 to n4 that are divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 18A is an outer frame, a region n2 shown in FIG. 18B is a region inside the outer frame, and a region n3 shown in FIG. An inner area, an area n4 shown in FIG. 18D, is an area at the center of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップT22)、本第2の占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2006203567
When the two-dimensional histogram is created, a second occupancy ratio indicating a ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire photographed image) is calculated (step T22). The occupation rate calculation process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2006203567

次に、第2の占有率を用いて算出される指標γの算出方法について説明する。
表5に、指標γを算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006203567
図19は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Next, a method for calculating the index γ calculated using the second occupation ratio will be described.
Table 5 shows the third coefficient necessary for calculating the index γ for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy rate Qij of each divided area shown in Table 4 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006203567
FIG. 19 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標γを算出するためのnk領域(画面領域nk)の和は、式(10)のように定義される。

Figure 2006203567
従って、n1〜n4領域の和は、下記の式(10-1)〜式(10-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 (10-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 (10-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 (10-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) (10-4) When the third coefficient in the lightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index γ is defined as in Expression (10).
Figure 2006203567
Accordingly, the sum of the n1 to n4 regions is expressed by the following formulas (10-1) to (10-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (10-1)
n2 area sum = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (10-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1 (10-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) (10-4)

指標γは、式(10-1)〜(10-4)で示されたn1〜n4領域の和を用いて、式(11)のように定義される。
指標γ=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 (11)
指標γは、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影条件を判別するのにも有効である。
The index γ is defined as in Expression (11) using the sum of the n1 to n4 regions shown in Expressions (10-1) to (10-4).
Index γ = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (11)
Since the index γ is calculated based on a compositional feature (distance from the outer edge of the screen of the captured image data) based on the brightness distribution position of the captured image data, the imaging condition of the monochrome image as well as the color image is determined. It is also effective.

次に、図20のフローチャートを参照して、偏倚量算出処理(図10のステップT2)について説明する。   Next, the bias amount calculation processing (step T2 in FIG. 10) will be described with reference to the flowchart in FIG.

まず、撮影画像データのRGB(Red,Green,Blue)値から、式(A)を用いて各画素の輝度Y(明るさ)が算出され、輝度の標準偏差(x1)が算出される(ステップT23)。輝度の標準偏差(x1)は、式(12)のように定義される。

Figure 2006203567
式(12)において、画素輝度値とは、撮影画像データの各画素の輝度であり、平均輝度値とは、撮影画像データの輝度の平均値である。また、全体画素数とは、撮影画像データ全体の画素数である。 First, the luminance Y (brightness) of each pixel is calculated from the RGB (Red, Green, Blue) values of the photographed image data using Equation (A), and the luminance standard deviation (x1) is calculated (step 1). T23). The standard deviation (x1) of brightness is defined as shown in Equation (12).
Figure 2006203567
In Expression (12), the pixel luminance value is the luminance of each pixel of the captured image data, and the average luminance value is the average value of the luminance of the captured image data. The total number of pixels is the number of pixels of the entire captured image data.

次いで、式(13)に示すように、輝度差分値(x2)が算出される(ステップT24)。
輝度差分値(x2)=(最大輝度値−平均輝度値)/255 (13)
式(13)において、最大輝度値とは、撮影画像データの輝度の最大値である。
Next, as shown in Expression (13), a luminance difference value (x2) is calculated (step T24).
Difference in luminance value (x2) = (maximum luminance value−average luminance value) / 255 (13)
In equation (13), the maximum luminance value is the maximum luminance value of the captured image data.

次いで、撮影画像データの画面中央部における肌色領域の平均輝度値(x3)が算出され(ステップT25)、更に、当該画面中央部における平均輝度値(x4)が算出される(ステップT26)。ここで、画面中央部とは、例えば、図18において、領域n3及び領域n4により構成される領域である。   Next, the average luminance value (x3) of the flesh color region in the center of the screen of the captured image data is calculated (step T25), and further, the average luminance value (x4) in the center of the screen is calculated (step T26). Here, the center of the screen is, for example, an area configured by an area n3 and an area n4 in FIG.

次いで、肌色輝度分布値(x5)が算出され(ステップT27)、本偏倚量算出処理が終了する。撮影画像データの肌色領域の最大輝度値をYskin_max、肌色領域の最小輝度値をYskin_min、肌色領域の平均輝度値をYskin_aveとすると、肌色輝度分布値(x5)は、式(14)のように定義される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (14)
Next, the flesh color luminance distribution value (x5) is calculated (step T27), and this deviation amount calculation processing is completed. When the maximum luminance value of the skin color area of the photographed image data is Yskin_max, the minimum luminance value of the skin color area is Yskin_min, and the average luminance value of the skin color area is Yskin_ave, the skin color luminance distribution value (x5) is defined as shown in Expression (14). Is done.
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (14)

撮影画像データの画面中央部における肌色領域の平均輝度値をx6とする。ここでの画面中央部とは、例えば、図18の領域n2、領域n3及び領域n4から構成される領域である。このとき、図7及び図8に示す指標1は、指標α、指標γ、x6を用いて式(15)のように定義され、指標2は、指標β、指標γ、x6を用いて式(16)のように定義される。
指標1=0.46×指標α+0.61×指標γ+0.01×x6−0.79 (15)
指標2=0.58×指標β+0.18×指標γ+(-0.03)×x6+3.34 (16)
ここで、式(15)及び式(16)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
Let x6 be the average luminance value of the skin color area in the center of the screen of the captured image data. Here, the center of the screen is, for example, an area composed of the area n2, the area n3, and the area n4 in FIG. At this time, the index 1 shown in FIG. 7 and FIG. 8 is defined as the formula (15) using the index α, the index γ, and x6, and the index 2 is defined using the formula (15) using the index β, the index γ, and x6. 16).
Index 1 = 0.46 × Index α + 0.61 × Index γ + 0.01 × x6−0.79 (15)
Indicator 2 = 0.58 × Indicator β + 0.18 × Indicator γ + (-0.03) × x6 + 3.34 (16)
Here, the weighting coefficient by which each index is multiplied in Expression (15) and Expression (16) is set in advance according to the shooting conditions.

図7及び図8に示す指標3は、偏倚量算出処理で算出された偏倚量(x1)〜(x5)に、撮影条件に応じて予め設定された第4の係数を乗算することにより得られる。表6に、各偏倚量に乗算する重み係数である第4の係数を示す。

Figure 2006203567
指標3は、式(17)のように定義される。
指標3=x1×0.02+x2×1.13+x3×0.06+x4×(-0.01)+x5×0.03−6.49 (17)
この指標3は、撮影画像データの画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特に、ストロボ(フラッシュ近接)撮影シーンとアンダー撮影シーンの判別に有効である。 The index 3 shown in FIGS. 7 and 8 is obtained by multiplying the deviation amounts (x1) to (x5) calculated in the deviation amount calculation process by a fourth coefficient set in advance according to the shooting conditions. . Table 6 shows a fourth coefficient which is a weighting coefficient by which each deviation amount is multiplied.
Figure 2006203567
The index 3 is defined as in Expression (17).
Index 3 = x1 x 0.02 + x2 x 1.13 + x3 x 0.06 + x4 x (-0.01) + x5 x 0.03-6.49 (17)
This index 3 has not only the compositional characteristics of the screen of the photographed image data but also the luminance histogram distribution information, and is particularly effective for discriminating between the strobe (flash proximity) photographing scene and the under photographing scene.

以上のように、本実施形態の撮像装置100によれば、鑑賞画像参照データを生成するための再現補助データを撮像装置側で生成して、その再現補助データを撮像装置の特性に依存したシーン参照生データに添付して記録メディアに記録することにより、その記録メディアに記録されたデータを出力媒体上に出力する際、その再現補助データを利用して鑑賞画像参照データが生成され、撮影画像情報の情報損失を抑制するとともに、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを得ることが可能となる。   As described above, according to the imaging apparatus 100 of the present embodiment, reproduction auxiliary data for generating appreciation image reference data is generated on the imaging apparatus side, and the reproduction auxiliary data depends on the characteristics of the imaging apparatus. By attaching to the reference raw data and recording on the recording medium, when the data recorded on the recording medium is output on the output medium, the viewing image reference data is generated using the reproduction auxiliary data, and the captured image is generated. In addition to suppressing information loss of information, it is possible to obtain appreciation image reference data with higher quality than image data obtained by the imaging device.

また、再現情報データの利用を認証するための認証情報を設定することにより、撮像装置100で得られた画像データの利用を制限することが可能となり、鑑賞画像参照データの生成に関わる情報を保護することができる。   Also, by setting authentication information for authenticating the use of reproduction information data, it becomes possible to limit the use of image data obtained by the imaging apparatus 100, and protect information related to generation of appreciation image reference data. can do.

〈撮像装置の変形例〉
次に、撮像装置の記録メディアに記録された画像データの出力先で、一層好ましい画像を得るために、図1の撮像装置100に、撮影情報データ生成部13を追加して構成される撮像装置101について説明する。図21に、撮像装置100の変形例としての撮像装置101の構成を示す。図21の撮像装置101では、図1の撮像装置100と同一の構成要素には同一の符号を付し、その構成説明を省略する。
<Modification of imaging device>
Next, in order to obtain a more preferable image at the output destination of the image data recorded on the recording medium of the imaging apparatus, the imaging apparatus configured by adding the imaging information data generation unit 13 to the imaging apparatus 100 of FIG. 101 will be described. FIG. 21 shows a configuration of an imaging apparatus 101 as a modification of the imaging apparatus 100. In the imaging apparatus 101 of FIG. 21, the same components as those of the imaging apparatus 100 of FIG.

撮影情報データ生成部13は、撮影時の撮影条件設定である撮影情報データを生成する。この撮影情報データは、例えば、カメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報や、露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーン、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定、被写体の種類に関する情報等である。   The shooting information data generation unit 13 generates shooting information data that is a shooting condition setting at the time of shooting. This shooting information data includes, for example, information directly related to the camera type (model) such as camera name and code number, exposure time, shutter speed, aperture value (F number), ISO sensitivity, luminance value, subject distance range, Information on the light source, the presence / absence of strobe light emission, the subject area, white balance, zoom magnification, subject composition, shooting scene, the amount of reflected light from the strobe light source, shooting conditions such as shooting saturation, and information on the type of subject.

図22に、撮像装置101の記憶デバイス9の記録メディアに記録されるデータファイルのデータ構造を示す。符号化・認証情報設定部21で符号化された再現補助データ(撮像装置特性補正情報、鑑賞画像参照データ復元情報及び処理プロセス再現情報)と、その再現補助データの利用を認証するための認証情報と、撮影情報データ生成部13で生成された撮影情報データは、ヘッダ情報処理部8により、シーン参照生データのファイルヘッダに添付されて添付済みのデータファイルが作成され、この添付済みのデータファイルが、記憶デバイス9の記録メディアに記録されることになる。なお、符号化(エンコード)された再現補助データを復号(デコード)するためのデコード情報も、シーン参照生データのファイルヘッダに添付するようにしてもよい。   FIG. 22 shows the data structure of a data file recorded on the recording medium of the storage device 9 of the imaging apparatus 101. Reproduction auxiliary data (imaging device characteristic correction information, appreciation image reference data restoration information and processing process reproduction information) encoded by the encoding / authentication information setting unit 21 and authentication information for authenticating the use of the reproduction auxiliary data Then, the shooting information data generated by the shooting information data generation unit 13 is attached to the file header of the scene reference raw data by the header information processing unit 8 to create an attached data file, and this attached data file Is recorded on the recording medium of the storage device 9. Note that decoding information for decoding the encoded auxiliary reproduction data may also be attached to the file header of the scene reference raw data.

次に、撮像装置101における動作について説明する。
図23のフローチャートを参照して、撮像装置101において実行される画像データ記録処理について説明する。
Next, the operation in the imaging apparatus 101 will be described.
With reference to the flowchart of FIG. 23, the image data recording process performed in the imaging device 101 will be described.

操作部14により撮影モードが指定されると、予備撮像が行われ(ステップS20)、予備撮像で得られた画像(以下、予備撮像画像という。)を表示部15に表示するための鑑賞画像参照データが形成され(ステップS21)、その形成された鑑賞画像参照データが表示部15に表示される(ステップS22)。なお、ステップS20では、操作部14によりシャッターボタンが半押し状態になったときに予備撮像が行われるようにしてもよい。   When the photographing mode is designated by the operation unit 14, preliminary imaging is performed (step S20), and an image to be viewed for displaying on the display unit 15 an image obtained by preliminary imaging (hereinafter referred to as a preliminary captured image) is referred to. Data is formed (step S21), and the formed appreciation image reference data is displayed on the display unit 15 (step S22). In step S20, preliminary imaging may be performed when the shutter button is pressed halfway by the operation unit 14.

次いで、処理プロセス再現情報生成部123において、手ぶれレベルや、シーン判別処理結果としての指標1〜3等から撮影条件正当性の値が算出され、算出結果から撮影条件の正当性が判断される(ステップS23)。そして、撮影条件正当性の値が高くなるように撮影条件が調整される(ステップS24)。ステップS20〜S24の処理は、操作部14のシャッターボタンが押されて本撮影が指示されるまで繰り返され、本撮影より所定時間前までの撮影条件の履歴情報が処理プロセス再現情報として生成される。   Next, the processing process reproduction information generation unit 123 calculates the value of the shooting condition validity from the camera shake level, the indices 1 to 3 as the scene determination processing result, and the validity of the shooting condition is determined from the calculation result ( Step S23). Then, the shooting condition is adjusted so that the value of the shooting condition validity is increased (step S24). The processing in steps S20 to S24 is repeated until the actual shooting is instructed by pressing the shutter button of the operation unit 14, and history information of shooting conditions up to a predetermined time before the main shooting is generated as processing process reproduction information. .

操作部14のシャッターボタンが押され、本撮影が指示されると(ステップS25;YES)、CCD3から得られた撮像信号がA/D変換器5によりデジタル信号に変換されることによりシーン参照生データが生成されると同時に(ステップS26)、再現補助データ生成部12では、再現補助データとして、撮像装置特性補正情報、鑑賞画像参照データ復元情報、処理プロセス再現情報が生成され(ステップS28)、撮影情報データ生成部13では、撮影情報データが生成される(ステップS27)。ステップS28で生成される処理プロセス再現情報は、ステップS20〜S24の処理で生成された本撮影前の履歴情報に、本撮影時の情報を追加したものである。なお、本撮影の後に、記録メディアへ記録するための鑑賞画像参照データを作成するステップを追加してもよい。   When the shutter button of the operation unit 14 is pressed and main shooting is instructed (step S25; YES), the image reference signal obtained from the CCD 3 is converted into a digital signal by the A / D converter 5, thereby generating a scene reference source. At the same time that the data is generated (step S26), the reproduction auxiliary data generation unit 12 generates imaging device characteristic correction information, appreciation image reference data restoration information, and processing process reproduction information as reproduction auxiliary data (step S28). The shooting information data generation unit 13 generates shooting information data (step S27). The process process reproduction information generated in step S28 is obtained by adding information at the time of main photographing to the history information before main photographing generated by the processing of steps S20 to S24. Note that a step of creating appreciation image reference data for recording on a recording medium may be added after the main shooting.

再現補助データが生成されると、当該再現補助データが所定の符号化方式により符号化され(ステップS29)、当該再現補助データの利用を認証するためのパスワードの入力画面が表示部15に表示される。操作部14の操作により、パスワード入力画面にパスワードが入力されると、その入力されたパスワードが、ステップS29で符号化された再現補助データの認証情報として設定される(ステップS30)。   When the reproduction auxiliary data is generated, the reproduction auxiliary data is encoded by a predetermined encoding method (step S29), and a password input screen for authenticating the use of the reproduction auxiliary data is displayed on the display unit 15. The When a password is input on the password input screen by the operation of the operation unit 14, the input password is set as authentication information of the reproduction auxiliary data encoded in step S29 (step S30).

次いで、ヘッダ情報処理部8において、ステップS26で生成されたシーン参照生データのファイルヘッダに、ステップS29で符号化された再現補助データ、ステップS30で設定された認証情報(パスワード)及びステップS27で生成された撮影情報データがタグ情報として添付され(ステップS31)、添付済みデータファイル(図22参照)が作成される(ステップS32)。この添付済みデータファイルは、記憶デバイス9の記録メディアに記録、保存され(ステップS33)、本画像データ記録処理が終了する。   Next, in the header information processing unit 8, the reproduction auxiliary data encoded in step S 29, the authentication information (password) set in step S 30 and the step S 27 in the file header of the scene reference raw data generated in step S 26. The generated photographing information data is attached as tag information (step S31), and an attached data file (see FIG. 22) is created (step S32). The attached data file is recorded and stored in the recording medium of the storage device 9 (step S33), and the image data recording process is completed.

以上のように、図21に示す撮像装置101によれば、再現補助データに加え、撮影時の撮影条件設定である撮影情報データをシーン参照生データのファイルヘッダに添付して記録メディアに記録することにより、その記録メディアに記録されたデータを出力媒体上に出力する際、撮影状況に応じた鑑賞画像参照データの生成が可能となる。   As described above, according to the imaging apparatus 101 shown in FIG. 21, in addition to the reproduction assistance data, the shooting information data that is the shooting condition setting at the time of shooting is attached to the file header of the scene reference raw data and recorded on the recording medium. Thus, when outputting the data recorded on the recording medium onto the output medium, it is possible to generate appreciation image reference data according to the shooting situation.

添付済みデータファイルが記録された記録メディアは撮像装置本体から取り出され、画像処理装置や画像記録装置等の外部装置に装着され、その外部装置において、出力媒体上での鑑賞画像形成のために最適化する画像処理が施されて鑑賞画像参照データが生成されることになる。   The recording media on which the attached data file is recorded is taken out from the main body of the image pickup device and mounted on an external device such as an image processing device or an image recording device. The external device is optimal for forming an appreciation image on an output medium. Appreciation image reference data is generated by performing image processing.

次に、記録メディアに記録された画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施す画像記録装置について説明する。
〈画像記録装置の構成〉
図24に、本発明の実施形態に係る画像記録装置201の外観構成を示す。
Next, an image recording apparatus that performs image processing that optimizes image data recorded on a recording medium for the formation of an appreciation image on an output medium will be described.
<Configuration of image recording device>
FIG. 24 shows an external configuration of the image recording apparatus 201 according to the embodiment of the present invention.

画像記録装置201には、本体202の一側面にマガジン装填部203が設けられ、本体202内には、出力媒体である銀塩印画紙に露光する露光処理部204と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部205が備えられている。プリント作成部205で作成されたプリントは、本体202の他側面に設けられたトレー206に排出される。更に、本体202の内部には、画像記録装置201を構成する各部を制御する制御部207が備えられている。   The image recording apparatus 201 is provided with a magazine loading unit 203 on one side of a main body 202. In the main body 202, an exposure processing unit 204 that exposes a silver salt printing paper as an output medium, and an exposed silver salt printing. A print creating unit 205 is provided for creating a print by developing and drying the paper. The print created by the print creation unit 205 is discharged to a tray 206 provided on the other side of the main body 202. Further, a control unit 207 that controls each unit constituting the image recording apparatus 201 is provided inside the main body 202.

また、本体202の上部には、表示部208、透過原稿読み込み装置であるフィルムスキャナ部209、反射原稿入力装置210、操作部211が配置されている。更に、本体202には、各種記録メディアに記録された画像データを読み取り可能な画像読込部214、各種記録メディアに画像データを書き込む画像書込部215が備えられている。   In addition, a display unit 208, a film scanner unit 209 that is a transparent document reading device, a reflective document input device 210, and an operation unit 211 are disposed on the upper portion of the main body 202. Furthermore, the main body 202 is provided with an image reading unit 214 that can read image data recorded on various recording media, and an image writing unit 215 that writes image data on various recording media.

フィルムスキャナ部209や反射原稿入力装置210から読み込まれる原稿として写真感光材料がある。この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等が挙げられ、アナログカメラにより撮像された駒画像情報が記録される。フィルムスキャナ部209は、写真感光材料に記録された駒画像情報をデジタル画像データに変換し、駒画像データとする。また、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置210は、この銀塩印画紙に記録された駒画像情報を、フラットベッドスキャナにより駒画像データに変換する。   There is a photographic photosensitive material as an original read from the film scanner unit 209 or the reflective original input device 210. Examples of the photographic light-sensitive material include a color negative film, a color reversal film, a black and white negative film, a black and white reversal film and the like, and frame image information captured by an analog camera is recorded. The film scanner unit 209 converts the frame image information recorded on the photographic photosensitive material into digital image data to obtain frame image data. Further, when the photographic photosensitive material is color paper which is silver salt photographic paper, the reflective original input device 210 converts the frame image information recorded on the silver salt photographic paper into frame image data by a flatbed scanner.

画像読込部214は、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214bを備え、それぞれ、PCカード213a、フロッピー(登録商標)ディスク213bが差し込み可能になっている。PCカード213aは、例えば、デジタルカメラで撮像して複数の駒画像データが記憶されたメモリを有する。フロッピー(登録商標)ディスク213bには、例えば、デジタルカメラで撮像された複数の駒画像データが記録される。PCカード213a及びフロッピー(登録商標)ディスク213b以外に駒画像データが記録される記録メディアとしては、例えば、マルチメディアカード(登録商標)、メモリースティック(登録商標)、MDデータ、CD−ROM等が挙げられる。   The image reading unit 214 includes a PC card adapter 214a and a floppy (registered trademark) disk adapter 214b, into which a PC card 213a and a floppy (registered trademark) disk 213b can be inserted. The PC card 213a has, for example, a memory in which a plurality of frame image data is stored after being captured by a digital camera. For example, a plurality of frame image data captured by a digital camera is recorded on the floppy (registered trademark) disk 213b. Examples of recording media on which frame image data is recorded in addition to the PC card 213a and the floppy (registered trademark) disk 213b include a multimedia card (registered trademark), a memory stick (registered trademark), MD data, and a CD-ROM. It is done.

画像書込部215には、フロッピー(登録商標)ディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、それぞれ、フロッピー(登録商標)ディスク216a、MO216b、光ディスク216cが差し込み可能になっている。光ディスク216cとしては、CD−R、DVD−R等がある。   The image writing unit 215 includes a floppy (registered trademark) disk adapter 215a, an MO adapter 215b, and an optical disk adapter 215c. ing. Examples of the optical disk 216c include a CD-R and a DVD-R.

なお、図24では、操作部211、表示部208、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214が、本体202に一体的に備えられた構造となっているが、これらの何れか1つ以上を別体として設けるようにしてもよい。   In FIG. 24, the operation unit 211, the display unit 208, the film scanner unit 209, the reflection original input device 210, and the image reading unit 214 are integrally provided in the main body 202. One or more of them may be provided separately.

なお、図24に示した画像記録装置201では、感光材料に露光して現像してプリントを作成するものが例示されているが、プリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いるようにしてもよい。   In the image recording apparatus 201 shown in FIG. 24, an apparatus that exposes a photosensitive material and develops it to create a print is exemplified. However, the print creation method is not limited to this. You may make it use systems, such as a photography system, a heat sensitive system, and a sublimation system.

〈画像記録装置の内部構成〉
図25に、画像記録装置201の内部構成を示す。画像記録装置201は、図25に示すように、制御部207、露光処理部204、プリント作成部205、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214、画像書込部215、データ蓄積手段271、テンプレート記憶手段272、操作部211、表示部208により構成される。
<Internal configuration of image recording device>
FIG. 25 shows the internal configuration of the image recording apparatus 201. As shown in FIG. 25, the image recording apparatus 201 includes a control unit 207, an exposure processing unit 204, a print creation unit 205, a film scanner unit 209, a reflective original input device 210, an image reading unit 214, an image writing unit 215, data The storage unit 271, the template storage unit 272, the operation unit 211, and the display unit 208 are configured.

制御部207は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部(図示略)に記憶されている各種制御プログラムと、CPU(Central Processing Unit)(図示略)との協働により、画像記録装置201を構成する各部の動作を制御する。   The control unit 207 is composed of a microcomputer, and cooperates with various control programs stored in a storage unit (not shown) such as a ROM (Read Only Memory) and a CPU (Central Processing Unit) (not shown). The operation of each part constituting the image recording apparatus 201 is controlled.

また、制御部207は、画像処理部270を有し、操作部211の情報入力手段12からの入力信号に基づいて、フィルムスキャナ部209や反射原稿入力装置210から読み取られた画像データ、画像読込部214から読み込まれた画像データ又は通信手段(図示略)を介して外部機器より入力された画像データに画像処理を施して露光用画像情報を形成し、露光処理部204に出力する。この画像処理部270は、画像処理された画像データに対して出力形態に応じた変換処理を施して指定された出力先に出力する。画像処理部270の出力先としては、表示部208、画像書込部215、通信手段等がある。   Further, the control unit 207 includes an image processing unit 270, and based on an input signal from the information input unit 12 of the operation unit 211, image data read from the film scanner unit 209 or the reflective original input device 210, image reading The image data read from the unit 214 or image data input from an external device via communication means (not shown) is subjected to image processing to form exposure image information, which is output to the exposure processing unit 204. The image processing unit 270 performs conversion processing according to the output form on the image data that has been subjected to image processing, and outputs the image data to a designated output destination. Output destinations of the image processing unit 270 include a display unit 208, an image writing unit 215, communication means, and the like.

露光処理部204は、感光材料に画像の露光を行い、この感光材料をプリント作成部205に出力する。プリント作成部205は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1は、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントであり、プリントP2は、A4サイズのプリントであり、プリントP3は、名刺サイズのプリントである。   The exposure processing unit 204 exposes an image on the photosensitive material and outputs the photosensitive material to the print creating unit 205. The print creating unit 205 develops and exposes the exposed photosensitive material to create prints P1, P2, and P3. The print P1 is a service size, high-definition size, panoramic size print, the print P2 is an A4 size print, and the print P3 is a business card size print.

フィルムスキャナ部209は、アナログカメラにより撮像された現像済みのネガフィルムN、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタル画像信号を取得する。反射原稿入力装置210は、フラットベッドスキャナにより、プリントP(写真プリント、書画、各種の印刷物)上の画像を読み取り、デジタル画像信号を取得する。   The film scanner unit 209 reads a frame image recorded on a transparent original such as a developed negative film N or a reversal film captured by an analog camera, and acquires a digital image signal of the frame image. The reflection original input device 210 reads an image on a print P (photo print, document, various printed materials) by a flat bed scanner, and acquires a digital image signal.

操作部211には、情報入力手段212が設けられている。情報入力手段212は、例えば、タッチパネル等により構成されており、情報入力手段212の操作信号を制御部207に出力する。また、操作部211は、キーボードやマウスを備えて構成するようにしてもよい。   The operation unit 211 is provided with information input means 212. The information input unit 212 is configured by a touch panel, for example, and outputs an operation signal of the information input unit 212 to the control unit 207. Further, the operation unit 211 may be configured to include a keyboard and a mouse.

画像読込部214は、PCカード213aやフロッピー(登録商標)ディスク213bに記録された駒画像情報を読み出して制御部207に転送する。この画像読込部214は、画像転送手段230として、PCカード用アダプタ214a、フロッピー(登録商標)ディスク用アダプタ214b等を有する。画像読込部14は、PCカード用アダプタ214aに差し込まれたPCカード213aや、フロッピー(登録商標)ディスク用アダプタ214bに差し込まれたフロッピー(登録商標)ディスク213bに記録された駒画像情報を読み取り、制御部207に転送する。PCカード用アダプタ214aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。   The image reading unit 214 reads frame image information recorded on the PC card 213 a and the floppy (registered trademark) disk 213 b and transfers the frame image information to the control unit 207. The image reading unit 214 includes, as the image transfer means 230, a PC card adapter 214a, a floppy (registered trademark) disk adapter 214b, and the like. The image reading unit 14 reads frame image information recorded on the PC card 213a inserted into the PC card adapter 214a or the floppy (registered trademark) disk 213b inserted into the floppy (registered trademark) disk adapter 214b. Transfer to the control unit 207. For example, a PC card reader or a PC card slot is used as the PC card adapter 214a.

画像書込部215は、画像搬送部231として、フロッピー(登録商標)ディスク用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cを備えている。画像書込部215は、制御部207から入力される書込信号に従って、フロッピー(登録商標)ディスク用アダプタ215aに差し込まれたフロッピー(登録商標)ディスク216a、MO用アダプタ215bに差し込まれたMO216b、光ディスク用アダプタ215cに差し込まれた光ディスク216cに、本発明における画像処理方法によって生成された画像データを書き込む。   The image writing unit 215 includes a floppy (registered trademark) disk adapter 215 a, an MO adapter 215 b, and an optical disk adapter 215 c as the image transport unit 231. In accordance with a write signal input from the control unit 207, the image writing unit 215 includes a floppy (registered trademark) disk 216a inserted into the floppy (registered trademark) disk adapter 215a, an MO 216b inserted into the MO adapter 215b, The image data generated by the image processing method according to the present invention is written to the optical disk 216c inserted into the optical disk adapter 215c.

データ蓄積手段271は、画像情報とそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し順次蓄積する。   The data storage means 271 stores and sequentially stores image information and corresponding order information (information on how many prints are created from images of which frames, print size information, etc.).

テンプレート記憶手段272は、サンプル識別情報D1、D2、D3に対応してサンプル画像データ(背景画像やイラスト画像等を示すデータ)を記憶すると共に、該サンプル画像データとの合成領域を設定するテンプレートのデータを少なくとも1つ記憶する。ここで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりテンプレート記憶手段272に予め記憶された複数のテンプレートから所定のテンプレートが選択されると、制御部207は、駒画像情報と当該選択されたテンプレートとを合成し、次いで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりサンプル識別情報D1、D2、D3が指定されると、当該指定されたサンプル識別情報D1、D2、D3に基づいてサンプル画像データを選択し、当該選択されたサンプル画像データと、クライアントにより注文された画像データ及び/又は文字データを合成して、結果としてクライアントが所望するサンプル画像データに基づくプリントを作成する。このテンプレートによる合成は、周知のクロマキー法によって行なわれる。   The template storage unit 272 stores sample image data (data indicating a background image, an illustration image, etc.) corresponding to the sample identification information D1, D2, and D3, and a template for setting a synthesis area with the sample image data. Store at least one piece of data. Here, when a predetermined template is selected from a plurality of templates stored in advance in the template storage unit 272 by an operator's operation (the operator's operation is based on a client instruction), the control unit 207 displays frame image information When the sample identification information D1, D2, D3 is designated by the operator's operation (the operator's operation is based on the instruction of the client), the designated sample identification is performed. Sample image data is selected based on the information D1, D2, and D3, the selected sample image data is combined with image data and / or character data ordered by the client, and as a result, the sample image desired by the client is obtained. Create a print based on the data. The synthesis using this template is performed by a well-known chroma key method.

なお、サンプル識別情報は、サンプル識別情報D1、D2、D3の3種類に限らず、3種類より多くても、また、少なくてもよい。
また、プリントのサンプルを指定するサンプル識別情報D1、D2、D3は、操作部211から入力される様に構成されているが、サンプル識別情報D1、D2、D3が、プリントのサンプル又は注文シートに記録されているため、OCR(Optical Character Reader)等の読み取り手段により読み取ることができる。又は、オペレータがキーボードから入力することもできる。
The sample identification information is not limited to the three types of sample identification information D1, D2, and D3, but may be more or less than three types.
The sample identification information D1, D2, and D3 for specifying the print sample is configured to be input from the operation unit 211. However, the sample identification information D1, D2, and D3 are input to the print sample or the order sheet. Since it is recorded, it can be read by reading means such as OCR (Optical Character Reader). Or an operator can also input from a keyboard.

このようにプリントのサンプルを指定するサンプル識別情報D1に対応してサンプル画像データを記録しておき、プリントのサンプルを指定するサンプル識別情報D1を入力し、この入力されるサンプル識別情報D1に基づきサンプル画像データを選択し、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、種々の実物大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多様な要求に応じることができる。   In this way, sample image data is recorded corresponding to the sample identification information D1 for designating the print sample, the sample identification information D1 for designating the print sample is input, and based on the input sample identification information D1. Select the sample image data, synthesize the selected sample image data with the image data and / or text data based on the order, and create a print based on the specified sample. Can actually place a print order and meet the diverse requirements of a wide range of users.

また、第1のサンプルを指定する第1のサンプル識別情報D2と第1のサンプルの画像データを記憶し、また、第2のサンプルを指定する第2のサンプル識別情報D3と第2のサンプルの画像データを記憶し、指定される第1及び第2のサンプル識別情報D2、D3とに基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要求に応じたプリントを作成することができる。   Also, the first sample identification information D2 designating the first sample and the image data of the first sample are stored, and the second sample identification information D3 designating the second sample and the second sample The image data is stored, the sample image data selected based on the designated first and second sample identification information D2 and D3, and the image data and / or character data based on the order are synthesized, and according to the designation In order to create a print based on a sample, it is possible to synthesize a wider variety of images, and it is possible to create a print that meets a wider variety of user requirements.

表示部208は、CRTやLCD等の表示ディスプレイにより構成され、制御部207から入力される表示制御信号に従って表示処理を行う。   The display unit 208 is configured by a display such as a CRT or LCD, and performs display processing in accordance with a display control signal input from the control unit 207.

制御部207の画像処理部270は、通信手段(図示略)を用いて、画像記録装置201が設置されている施設内の別のコンピュータや、インターネット等の通信ネットワークを介した遠方のコンピュータから、撮像画像を表す画像データとプリント等の作業命令を受信し、遠隔操作で画像処理を実施したりプリントを作成したりすることも可能になっている。   The image processing unit 270 of the control unit 207 uses communication means (not shown) from another computer in the facility where the image recording apparatus 201 is installed, or from a distant computer via a communication network such as the Internet. It is also possible to receive image data representing a picked-up image and a work instruction such as printing, and to perform image processing or create a print by remote operation.

また、画像処理部270は、通信手段(図示略)を用いて、本発明の画像処理を施した後の撮影画像を表す画像データと付帯するオーダー情報を、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して送付することも可能になっている。   Further, the image processing unit 270 uses communication means (not shown) to send image data representing the captured image after the image processing of the present invention and the accompanying order information to another computer in the facility, the Internet, etc. It is also possible to send to a distant computer via

このように画像記録装置201は、各種記録メディアの画像及び画像原稿を分割測光して得られた画像情報を取り込む入力手段と、この入力手段から取り入れた入力画像の画像情報を「出力画像の大きさ」と「出力画像における主要被写体の大きさ」という情報を取得又は推定して出力媒体上で画像を観察する際に好ましい印象を与える画像となるように処理を行う画像処理手段と、処理済の画像を表示、プリント出力、記録メディアに書き込む画像出力手段及び通信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して画像データと付帯するオーダー情報を送信する通信手段とを有する。   As described above, the image recording apparatus 201 is configured to input image information obtained by dividing and metering images of various recording media and image originals, and image information of the input image input from the input unit is “the size of the output image”. Image processing means for performing processing so as to obtain an image that gives a favorable impression when acquiring or estimating the information “size” and “the size of the main subject in the output image” and observing the image on the output medium; To send image data and accompanying order information to another computer in the facility or to a distant computer via the Internet, etc. Means.

図26に、画像記録装置201を、画像処理装置301と、画像処理装置301で画像処理された画像データを出力する出力部302に分けた場合の内部構成を示す。   FIG. 26 shows an internal configuration when the image recording apparatus 201 is divided into an image processing apparatus 301 and an output unit 302 that outputs image data processed by the image processing apparatus 301.

画像処理装置301は、図26に示すように、入力部303、ヘッダ情報解析部304、撮像装置特性補正処理部305、鑑賞画像参照データ復元条件生成部306、処理プロセス再現部307、最適化処理部308、通信部320により構成される。   As shown in FIG. 26, the image processing apparatus 301 includes an input unit 303, a header information analysis unit 304, an imaging device characteristic correction processing unit 305, an appreciation image reference data restoration condition generation unit 306, a processing process reproduction unit 307, and an optimization process. A unit 308 and a communication unit 320 are included.

入力部303は、図25の画像読込部214を含み、記録メディアを装着する装着部を備えている。入力部303は、記録メディアが装着部に装着されると、当該記録メディアに記録されたデータファイルを読み出して、ヘッダ情報解析部304に出力する。なお、本実施形態では、入力部303が、装着された記録メディアからデータファイルを読み出すこととして説明するが、通信部320を介してデータファイルを入力するようにしてもよい。   The input unit 303 includes the image reading unit 214 in FIG. 25 and includes a mounting unit for mounting a recording medium. When the recording medium is loaded in the loading unit, the input unit 303 reads the data file recorded on the recording medium and outputs the data file to the header information analysis unit 304. In the present embodiment, the input unit 303 is described as reading a data file from the attached recording medium, but the data file may be input via the communication unit 320.

ヘッダ情報解析部304は、入力部303から入力されたデータファイルを解析し、当該データファイルを、シーン参照生データ、符号化された再現補助データ(撮像装置特性補正情報、鑑賞画像参照データ復元情報、処理プロセス再現情報)、認証情報及び撮影情報データに分ける。ヘッダ情報解析部304は、操作部211から、再現補助データの利用を認証するための認証情報(パスワード)が入力されると、ヘッダ情報解析部304は、その入力された認証情報と、当該ファイルヘッダに設定された認証情報を照合する。照合の結果、双方の認証情報が一致すると、当該再現補助データのデコード情報を、通信部320を介してサーバ(撮像装置のメーカーが有するサーバ)から取得して、その取得されたデコード情報により当該再現補助データを復号(デコード)する。そして、シーン参照生データを撮像装置特性補正処理部305内のシーン参照画像データ生成部311へ出力し、撮像装置特性補正情報を装置特性補正処理部309へ出力し、鑑賞画像参照データ復元情報を鑑賞画像参照データ復元条件生成部306へ出力し、処理プロセス再現情報を処理プロセス再現部307へ出力し、撮影情報データを最適化処理部308内の撮影情報データ処理部313へ出力する。   The header information analysis unit 304 analyzes the data file input from the input unit 303 and uses the data file as scene reference raw data, encoded reproduction auxiliary data (imaging device characteristic correction information, appreciation image reference data restoration information). , Processing process reproduction information), authentication information and photographing information data. When the authentication information (password) for authenticating the use of the auxiliary reproduction data is input from the operation unit 211, the header information analysis unit 304 includes the input authentication information and the file Check the authentication information set in the header. As a result of the collation, when both pieces of authentication information match, the decoding information of the auxiliary reproduction data is acquired from the server (the server owned by the manufacturer of the imaging device) via the communication unit 320, and the decoding information acquired by the acquired decoding information. Decode reproduction auxiliary data. Then, the raw scene reference data is output to the scene reference image data generation unit 311 in the imaging device characteristic correction processing unit 305, the imaging device characteristic correction information is output to the device characteristic correction processing unit 309, and the viewing image reference data restoration information is output. The image data is output to the appreciation image reference data restoration condition generation unit 306, the process process reproduction information is output to the process process reproduction unit 307, and the shooting information data is output to the shooting information data processing unit 313 in the optimization processing unit 308.

撮像装置特性補正処理部305は、装置特性補正処理部309、処理条件テーブル310、シーン参照画像データ生成部311、一時記憶メモリ312により構成される。   The imaging device characteristic correction processing unit 305 includes an apparatus characteristic correction processing unit 309, a processing condition table 310, a scene reference image data generation unit 311, and a temporary storage memory 312.

装置特性補正処理部309は、ヘッダ情報解析部304から入力された撮像装置特性補正情報と処理条件テーブル310の参照により、シーン参照画像データの生成条件を決定する。処理条件テーブル310は、撮像装置の特性毎に、シーン参照画像データを生成するための処理条件を記憶するテーブルである。   The device characteristic correction processing unit 309 determines a scene reference image data generation condition based on the imaging device characteristic correction information input from the header information analysis unit 304 and the processing condition table 310. The processing condition table 310 is a table that stores processing conditions for generating scene reference image data for each characteristic of the imaging apparatus.

シーン参照画像データ生成部311は、ヘッダ情報解析部304から入力されたシーン参照生データに対し、装置特性補正処理部309で決定された生成条件に従って撮像装置特性補正処理を施して、撮像装置の特性に依存しない標準化されたシーン参照画像データを生成し、一時記憶メモリ312に出力する。具体的に、撮像装置特性補正処理には、少なくともシーン参照生データを生成した撮像装置の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えば、RIMM RGBやERIMM RGB、scRGB等の標準色空間にマッピングする処理が含まれる。   The scene reference image data generation unit 311 performs imaging device characteristic correction processing on the scene reference raw data input from the header information analysis unit 304 in accordance with the generation conditions determined by the device characteristic correction processing unit 309, so that the imaging device Standardized scene reference image data independent of characteristics is generated and output to the temporary storage memory 312. Specifically, in the imaging device characteristic correction processing, the signal intensity of each color channel based on at least the spectral sensitivity inherent to the imaging device of the imaging device that generated the scene reference raw data is set to a standard such as RIM RGB, ERIMM RGB, or scRGB. Includes mapping to color space.

一時記憶メモリ312は、シーン参照画像データ生成部311で生成されたシーン参照画像データを一時的に記憶する。   The temporary storage memory 312 temporarily stores the scene reference image data generated by the scene reference image data generation unit 311.

鑑賞画像参照データ復元条件生成部306は、ヘッダ情報解析部304から入力された鑑賞画像参照データ復元情報に基づいて、撮像装置での鑑賞画像参照データを復元するための復元条件を決定する。   The appreciation image reference data restoration condition generation unit 306 determines a restoration condition for restoring appreciation image reference data in the imaging device based on the appreciation image reference data restoration information input from the header information analysis unit 304.

処理プロセス再現部307は、ヘッダ情報解析部304から入力された処理プロセス再現情報に基づいて、撮像装置での鑑賞画像参照データの生成過程を再現するための再現条件を決定する。   Based on the process process reproduction information input from the header information analysis unit 304, the process process reproduction unit 307 determines a reproduction condition for reproducing the appreciation image reference data generation process in the imaging apparatus.

最適化処理部308は、撮影情報データ処理部313、鑑賞画像参照データ生成部314、一時記憶メモリ315、設定入力部316により構成される。   The optimization processing unit 308 includes a shooting information data processing unit 313, an appreciation image reference data generation unit 314, a temporary storage memory 315, and a setting input unit 316.

撮影情報データ処理部313は、ヘッダ情報解析部304から入力された撮影情報データに基づいて、撮影条件に応じた鑑賞画像参照データを生成するための生成条件を決定する。   The shooting information data processing unit 313 determines a generation condition for generating appreciation image reference data corresponding to the shooting condition based on the shooting information data input from the header information analysis unit 304.

鑑賞画像参照データ生成部314は、一時記憶メモリ312からシーン参照画像データを読み出し、撮影情報データ処理部313で決定された鑑賞画像参照データの生成条件と、鑑賞画像参照データ復元条件生成部306で決定された復元条件と、処理プロセス再現部307で決定された再現条件と、設定入力部316から指定された出力先(記憶デバイス318、出力デバイス317、表示部208)の情報に基づいて、当該シーン参照画像データに対して、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データを生成し、設定入力部316の操作情報と共に一時記憶メモリ315に出力する。最適化処理には、例えば、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。   The appreciation image reference data generation unit 314 reads the scene reference image data from the temporary storage memory 312, the appreciation image reference data generation condition determined by the shooting information data processing unit 313, and the appreciation image reference data restoration condition generation unit 306. Based on the determined restoration condition, the reproduction condition determined by the processing process reproduction unit 307, and the information of the output destination (storage device 318, output device 317, display unit 208) designated from the setting input unit 316, The scene reference image data is subjected to optimization processing for obtaining an optimum image at the output destination to generate appreciation image reference data, which is output to the temporary storage memory 315 together with the operation information of the setting input unit 316. The optimization processing includes, for example, compression to the output destination color gamut, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, processing to cope with output characteristics (LUT) of output devices and display devices, and the like. It is. Furthermore, image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, and dodging processing is included.

一時記憶メモリ315は、鑑賞画像参照データ生成部314で生成された鑑賞画像参照データを一時的に記憶し、設定入力部316により設定された出力先(記憶デバイス318、出力デバイス317、表示部208の何れか)に出力する。   The temporary storage memory 315 temporarily stores the appreciation image reference data generated by the appreciation image reference data generation unit 314, and the output destination (storage device 318, output device 317, display unit 208) set by the setting input unit 316. Any of the above).

設定入力部316は、鑑賞画像参照データ生成部314で生成される鑑賞画像参照データの出力先を指定するための入力デバイスであり、図25の操作部211に対応する。   The setting input unit 316 is an input device for designating an output destination of the appreciation image reference data generated by the appreciation image reference data generation unit 314, and corresponds to the operation unit 211 of FIG.

通信部320は、インターネット等の通信ネットワークに接続された外部装置との間の通信を制御する。この通信ネットワークに接続される外部装置としては、例えば、撮像装置側で符号化された再現補助データを復号(デコード)するためのデコード情報を格納するサーバ(撮像装置のメーカーが有するサーバ)等がある。   The communication unit 320 controls communication with an external device connected to a communication network such as the Internet. As an external device connected to this communication network, for example, there is a server (a server owned by the manufacturer of the imaging device) that stores decoding information for decoding (decoding) auxiliary reproduction data encoded on the imaging device side. is there.

なお、画像処理装置301の各構成要素のうち、入力部303、設定入力部316及び通信部320以外の構成要素が、図25に示す画像処理部270に含まれる。   Of the components of the image processing apparatus 301, components other than the input unit 303, the setting input unit 316, and the communication unit 320 are included in the image processing unit 270 illustrated in FIG.

出力部302は、表示部208、図25の露光処理部204及びプリント作成部205に対応する出力デバイス317、図25の画像書込部215に対応する記憶デバイス318により構成される。   The output unit 302 includes a display unit 208, an output device 317 corresponding to the exposure processing unit 204 and the print creation unit 205 in FIG. 25, and a storage device 318 corresponding to the image writing unit 215 in FIG.

次に、画像記録装置201における動作について説明する。
図27を参照して、画像記録装置201において実行される画像処理について説明する。
Next, the operation in the image recording apparatus 201 will be described.
With reference to FIG. 27, the image processing executed in the image recording apparatus 201 will be described.

入力部303にデータが入力されると(即ち、装着部に記録メディアが装着されると)(ステップS40)、当該記録メディアに記録されたデータファイルが読み出され、ヘッダ情報解析部304において、データファイルの内容が解析され(ステップS41)、シーン参照生データ、符号化された再現補助データ(撮像装置特性補正情報、鑑賞画像参照データ復元情報、処理プロセス再現情報)、認証情報及び撮影情報データに分けられる。   When data is input to the input unit 303 (that is, when a recording medium is mounted on the mounting unit) (step S40), the data file recorded on the recording medium is read out, and the header information analysis unit 304 The content of the data file is analyzed (step S41), scene reference raw data, encoded reproduction auxiliary data (imaging device characteristic correction information, appreciation image reference data restoration information, processing process reproduction information), authentication information, and shooting information data It is divided into.

次いで、表示部208に、再現補助データの利用を認証するための認証情報(パスワード)の入力を促すパスワード入力画面が表示される。パスワード入力画面に、操作部211により認証情報(パスワード)が入力されると(ステップS42;YES)、その入力された認証情報と、ステップS41で記録メディアから読み出された認証情報の照合が行われる(ステップS43)。ステップS43での照合の結果、双方の認証情報が一致した場合(ステップS44;YES)、再現補助データのデコード情報が通信部320を介してサーバ(撮像装置のメーカーが有するサーバ)から取得され、その取得されたデコード情報により、ステップS41で読み出された再現補助データが復号される(ステップS45)。ステップS43での照合の結果、双方の認証情報が一致しなかった場合(ステップS44;NO)、本画像処理が終了する。   Next, a password input screen prompting input of authentication information (password) for authenticating the use of the reproduction auxiliary data is displayed on the display unit 208. When authentication information (password) is input to the password input screen by the operation unit 211 (step S42; YES), the input authentication information is collated with the authentication information read from the recording medium in step S41. (Step S43). As a result of the collation in step S43, when both pieces of authentication information match (step S44; YES), the decoding information of the reproduction auxiliary data is acquired from the server (the server owned by the manufacturer of the imaging device) via the communication unit 320, The reproduction auxiliary data read in step S41 is decoded by the acquired decoding information (step S45). As a result of the collation in step S43, if the two pieces of authentication information do not match (step S44; NO), the image processing ends.

撮影情報データ処理部313では、撮影情報データに基づいて、撮影条件に応じた鑑賞画像参照データを生成するための生成条件が決定され(ステップS46)、鑑賞画像参照データ復元条件生成部306では、復号された鑑賞画像参照データ復元情報に基づいて、撮像装置での鑑賞画像参照データを復元するための復元条件が決定され(ステップS48)、処理プロセス再現部307では、復号された処理プロセス再現情報に基づいて、撮像装置での鑑賞画像参照データの生成過程を再現するための再現条件が決定される(ステップS49)。   The shooting information data processing unit 313 determines generation conditions for generating appreciation image reference data corresponding to the shooting conditions based on the shooting information data (step S46), and the appreciation image reference data restoration condition generation unit 306 Based on the decoded appreciation image reference data restoration information, a restoration condition for restoring the appreciation image reference data in the imaging apparatus is determined (step S48), and the processing process reproduction unit 307 decodes the decoded process process reproduction information. Based on the above, the reproduction condition for reproducing the generation process of the appreciation image reference data in the imaging device is determined (step S49).

装置特性補正処理部309では、復号された撮像装置特性補正情報と処理条件テーブル310の参照により、シーン参照画像データの生成条件が決定され、シーン参照生データに対し、当該決定された生成条件に従って撮像装置特性補正処理が施され(ステップS47)、シーン参照画像データが生成される(ステップS50)。   In the apparatus characteristic correction processing unit 309, a generation condition for scene reference image data is determined by referring to the decoded imaging apparatus characteristic correction information and the processing condition table 310, and the scene reference raw data is determined according to the determined generation condition. Imaging device characteristic correction processing is performed (step S47), and scene reference image data is generated (step S50).

次いで、ステップS46、S48及びS49で決定された各種画像処理条件(鑑賞画像参照データの生成条件、復元条件、再現条件)に基づいて、ステップS50で生成されたシーン参照画像データに対して最適化処理が施され(ステップS51)、鑑賞画像参照データが生成される(ステップS52)。   Next, the scene reference image data generated in step S50 is optimized based on various image processing conditions (appearance image reference data generation conditions, restoration conditions, reproduction conditions) determined in steps S46, S48, and S49. Processing is performed (step S51), and appreciation image reference data is generated (step S52).

鑑賞画像参照データは、設定入力部316(操作部211)で設定された出力先において、当該出力先に応じた固有の処理が施され(ステップS53)、当該出力先のデバイスから出力され(ステップS54)、本画像処理が終了する。   The appreciation image reference data is subjected to processing specific to the output destination set in the setting input unit 316 (operation unit 211) (step S53), and is output from the output destination device (step S53). (S54), the image processing ends.

なお、図27のフローチャートでは、図22に示すような撮影情報データが含まれるデータファイルに対する画像処理について説明したが、図3に示すような撮影情報データを含まないデータファイルに対する画像処理では、図27のステップS46の処理は行われない。   In the flowchart of FIG. 27, the image processing for the data file including the shooting information data as shown in FIG. 22 has been described. However, in the image processing for the data file not including the shooting information data as shown in FIG. The process of step S46 of 27 is not performed.

また、ステップS41で記録メディアから読み出されたデータファイルに、符号化された再現補助データを復号するためのデコード情報が添付されていた場合、ステップS45では、データファイルに添付されたデコード情報を用いて再現補助データが復号される。   If the decoding information for decoding the encoded reproduction auxiliary data is attached to the data file read from the recording medium in step S41, the decoding information attached to the data file is displayed in step S45. The reproduction assistance data is decoded using the data.

以上のように、本実施形態の画像記録装置201によれば、撮像装置から出力されたシーン参照生データのファイルヘッダに添付された再現情報データ、撮影情報データに基づいて最適化された鑑賞画像参照データを生成することにより、撮像画像情報の情報損失を伴うことなく、撮像装置で得られた画像データ以上の高品質な鑑賞画像参照データを得ることが可能となる。   As described above, according to the image recording apparatus 201 of the present embodiment, the viewing image optimized based on the reproduction information data and the shooting information data attached to the file header of the scene reference raw data output from the imaging apparatus. By generating the reference data, it is possible to obtain high-quality appreciation image reference data that is higher than the image data obtained by the imaging device without any information loss of the captured image information.

特に、記録メディアに記録された符号化された再現情報データの利用が認証された場合にのみ、当該符号化された再現情報データを復号して利用可能とすることにより、撮像装置で得られた画像データの利用を制限することが可能となり、鑑賞画像参照データの生成に関わる情報を保護することができる。   In particular, only when the use of the encoded reproduction information data recorded on the recording medium is authenticated, the encoded reproduction information data can be used by decoding and obtained by the imaging apparatus. The use of image data can be restricted, and information related to the generation of appreciation image reference data can be protected.

なお、再現補助データに処理プロセス再現情報が含まれていなくても、充分高品質な鑑賞画像参照データが得られるが、この処理プロセス再現情報が含まれている方が一層高品質な鑑賞画像参照データを得ることが可能である。   Even if the reproduction assistance data does not contain processing process reproduction information, sufficiently high quality viewing image reference data can be obtained. However, if this processing process reproduction information is included, higher quality viewing image reference can be obtained. Data can be obtained.

本発明の実施形態に係る撮像装置の主要部構成を示すブロック図。1 is a block diagram showing a main part configuration of an imaging apparatus according to an embodiment of the present invention. 再現補助データ生成部の内部構成を示すブロック図。The block diagram which shows the internal structure of a reproduction auxiliary data generation part. 図1の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造を示す図。The figure which shows the data structure of the data file recorded on the recording medium of the storage device of FIG. 撮像装置特性補正情報の内容を説明するための図。The figure for demonstrating the content of imaging device characteristic correction information. シーン参照画像データの階調変換特性を示す図(a)と、シーン参照画像データと鑑賞画像参照データの階調変換特性を示す図(b)。The figure which shows the gradation conversion characteristic of scene reference image data, and the figure which shows the gradation conversion characteristic of scene reference image data and appreciation image reference data (b). シーン参照画像データから鑑賞画像参照データへの変換特性を示す図(a)と、光源条件、露光条件毎の鑑賞画像参照データの階調変換特性を示す図(b)。The figure which shows the conversion characteristic from scene reference image data to appreciation image reference data, and the figure (b) which shows the gradation conversion characteristic of appreciation image reference data for every light source condition and exposure condition. 処理プロセス再現情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of processing process reproduction information. 撮影シーンを判別するための判別マップを示す図。The figure which shows the discrimination | determination map for discriminating a photography scene. 実施形態の撮像装置において実行される画像データ記録処理を示すフローチャート。5 is a flowchart illustrating image data recording processing executed in the imaging apparatus according to the embodiment. 撮像装置において実行される撮影シーン判別処理を示すフローチャート。6 is a flowchart illustrating a shooting scene determination process executed in the imaging apparatus. 明度・色相の領域毎に第1の占有率を算出する第1の占有率算出処理を示すフローチャート。The flowchart which shows the 1st occupation rate calculation process which calculates the 1st occupation rate for every area | region of lightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図。The figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標αを算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient for multiplying the 1st occupation rate for calculating parameter | index (alpha). 指標βを算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient which multiplies the 1st occupation rate for calculating parameter | index (beta). 撮影画像データの構図に基づいて第2の占有率を算出する第2の占有率算出処理を示すフローチャート。The flowchart which shows the 2nd occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図。The figure which shows the area | regions n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標γを算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図。The figure which shows the curve showing the 3rd coefficient multiplied by the 2nd occupation rate for calculating parameter | index (gamma) according to area | region (n1-n4). 偏倚量算出処理を示すフローチャート。The flowchart which shows a deviation amount calculation process. 本実施形態の変形例における撮像装置の主要部構成を示すブロック図。The block diagram which shows the principal part structure of the imaging device in the modification of this embodiment. 図21の記憶デバイスの記録メディアに記録されるデータファイルのデータ構造を示す図。The figure which shows the data structure of the data file recorded on the recording medium of the storage device of FIG. 本実施形態の変形例の撮像装置において実行される画像データ記録処理を示すフローチャート。9 is a flowchart showing image data recording processing executed in an imaging apparatus according to a modified example of the embodiment. 本発明の実施形態に係る画像記録装置の外観図。1 is an external view of an image recording apparatus according to an embodiment of the present invention. 画像記録装置の内部構成を示すブロック図。1 is a block diagram showing an internal configuration of an image recording apparatus. 画像処理装置及び出力部の内部構成を示すブロック図。The block diagram which shows the internal structure of an image processing apparatus and an output part. 画像記録装置において実行される画像処理を示すフローチャート。6 is a flowchart showing image processing executed in the image recording apparatus.

符号の説明Explanation of symbols

1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 ヘッダ情報処理部
9 記憶デバイス
10 CCD駆動回路
11 制御部
12 再現補助データ生成部
121 撮像装置特性補正情報生成部
122 鑑賞画像参照データ復元情報生成部
123 処理プロセス再現情報生成部
13 撮影情報データ生成部
14 操作部
15 表示部
16 ストロボ駆動回路
17 ストロボ
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 符号化・認証情報設定部
100、101 撮像装置
201 画像記録装置
202 本体
204 露光処理部
205 プリント作成部
207 制御部
208 表示部
209 フィルムスキャナ部
210 反射原稿入力装置
211 操作部
214 画像読込部
215 画像書込部
270 画像処理部
301 画像処理装置
302 出力部
303 入力部
304 ヘッダ情報解析部
305 撮像装置特性補正処理部
306 鑑賞画像参照データ復元条件生成部
307 処理プロセス再現部
308 最適化処理部
309 装置特性補正処理部
310 処理条件テーブル
311 シーン参照画像データ生成部
312 一時記憶メモリ
313 撮影情報データ処理部
314 鑑賞画像参照データ生成部
315 一時記憶メモリ
316 設定入力部
317 出力デバイス
318 記憶デバイス
320 通信部
1 Lens 2 Aperture 3 CCD
4 Analog processing circuit 5 A / D converter 6 Temporary storage memory 7 Image processing unit 8 Header information processing unit 9 Storage device 10 CCD drive circuit 11 Control unit 12 Reproduction auxiliary data generation unit 121 Imaging device characteristic correction information generation unit 122 Appreciation image Reference data restoration information generation unit 123 Processing process reproduction information generation unit 13 Shooting information data generation unit 14 Operation unit 15 Display unit 16 Strobe drive circuit 17 Strobe 18 Focal length adjustment circuit 19 Automatic focus drive circuit 20 Motor 21 Encoding / authentication information setting Numerals 100 and 101 Imaging device 201 Image recording device 202 Main body 204 Exposure processing unit 205 Print creation unit 207 Control unit 208 Display unit 209 Film scanner unit 210 Reflected original input device 211 Operation unit 214 Image reading unit 215 Image writing unit 270 Image processing Unit 301 Image processing apparatus 302 Input unit 303 input unit 304 header information analysis unit 305 imaging device characteristic correction processing unit 306 appreciation image reference data restoration condition generation unit 307 processing process reproduction unit 308 optimization processing unit 309 device characteristic correction processing unit 310 processing condition table 311 scene reference image Data generation unit 312 Temporary storage memory 313 Shooting information data processing unit 314 Appreciation image reference data generation unit 315 Temporary storage memory 316 Setting input unit 317 Output device 318 Storage device 320 Communication unit

Claims (21)

撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データを生成する再現補助データ生成手段と、
前記生成された再現補助データの利用を認証するための認証情報を設定する認証情報設定手段と、
前記シーン参照生データに、前記再現補助データ及び前記認証情報を添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data when generating image appreciation image reference data by performing image processing optimized for appreciation image formation on an output medium with respect to the scene reference raw data;
Authentication information setting means for setting authentication information for authenticating the use of the generated reproduction auxiliary data;
Recording control means for recording on a recording medium with the reproduction auxiliary data and the authentication information attached to the scene reference raw data;
An imaging apparatus comprising:
前記生成された再現補助データを所定の符号化方式で符号化する符号化手段を備え、
前記記録制御手段は、前記シーン参照生データに、前記符号化された再現補助データ及び前記認証情報を添付することを特徴とする請求項1に記載の撮像装置。
Encoding means for encoding the generated reproduction auxiliary data by a predetermined encoding method;
The imaging apparatus according to claim 1, wherein the recording control unit attaches the encoded reproduction assistance data and the authentication information to the scene reference raw data.
撮像により撮像装置の特性に依存したシーン参照生データを生成するシーン参照生データ生成手段と、
前記シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データを生成する再現補助データ生成手段と、
撮影時の撮影条件設定を示す撮影情報データを生成する撮影情報データ生成手段と、
前記生成された再現補助データの利用を認証するための認証情報を設定する認証情報設定手段と、
前記シーン参照生データに、前記再現補助データ、前記撮影情報データ及び前記認証情報を添付して記録メディアに記録する記録制御手段と、
を備えることを特徴とする撮像装置。
Scene reference raw data generation means for generating scene reference raw data depending on characteristics of the imaging device by imaging;
Reproduction auxiliary data generating means for generating reproduction auxiliary data when generating image appreciation image reference data by performing image processing optimized for appreciation image formation on an output medium with respect to the scene reference raw data;
Shooting information data generating means for generating shooting information data indicating shooting condition settings at the time of shooting;
Authentication information setting means for setting authentication information for authenticating the use of the generated reproduction auxiliary data;
Recording control means for recording the recording auxiliary data, the shooting information data, and the authentication information on a recording medium attached to the scene reference raw data;
An imaging apparatus comprising:
前記再現補助データを所定の符号化方式で符号化する符号化手段を備え、
前記記録制御手段は、前記シーン参照生データに、前記符号化された再現補助データ、前記撮影情報データ及び前記認証情報を添付することを特徴とする請求項3に記載の撮像装置。
Encoding means for encoding the reproduction auxiliary data by a predetermined encoding method;
The imaging apparatus according to claim 3, wherein the recording control unit attaches the encoded reproduction auxiliary data, the shooting information data, and the authentication information to the scene reference raw data.
前記再現補助データには、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正情報が含まれることを特徴とする請求項1〜4の何れか一項に記載の撮像装置。   5. The reproduction auxiliary data includes correction information necessary for imaging apparatus characteristic correction processing for generating standardized scene reference image data from scene reference raw data. The imaging device according to one item. 前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データを復元するための復元情報が含まれることを特徴とする請求項1〜5の何れか一項に記載の撮像装置。   6. The reproduction auxiliary data includes restoration information for restoring appreciation image reference data in an imaging device when generating appreciation image reference data on an output medium. The imaging device according to any one of the above. 前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データの生成過程を再現するための再現情報が含まれることを特徴とする請求項1〜6の何れか一項に記載の撮像装置。   2. The reproduction auxiliary data includes reproduction information for reproducing a process of generating appreciation image reference data in an imaging device when generating appreciation image reference data on an output medium. The imaging device according to any one of? 前記再現情報には、撮影条件の正当性を判断するための指標値が含まれることを特徴とする請求項7に記載の撮像装置。   The imaging apparatus according to claim 7, wherein the reproduction information includes an index value for determining validity of the imaging condition. 前記指標値には、撮影時のユーザ特性、光源条件、露出条件の少なくとも一つを特定する値が含まれることを特徴とする請求項8に記載の撮像装置。   9. The imaging apparatus according to claim 8, wherein the index value includes a value that specifies at least one of user characteristics, light source conditions, and exposure conditions at the time of shooting. 前記光源条件、露出条件は、撮影時の撮影シーン判別処理の判別結果であることを特徴とする請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the light source condition and the exposure condition are determination results of a shooting scene determination process at the time of shooting. 撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データと、当該再現補助データの利用を認証するための認証情報と、を入力する入力手段と、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記入力されたシーン参照生データに対し、前記入力された再現補助データに基づいて最適化処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えることを特徴とする画像処理装置。
Scene reference raw data that depends on the characteristics of the imaging device, and reproduction when the scene reference raw data is subjected to image processing that is optimized for the formation of an appreciation image on the output medium to generate appreciation image reference data Input means for inputting auxiliary data and authentication information for authenticating the use of the reproduction auxiliary data;
When the use of the reproduction auxiliary data is authenticated based on the input authentication information, the input scene reference raw data is subjected to an optimization process based on the input reproduction auxiliary data to be viewed image Viewing image reference data generating means for generating reference data;
An image processing apparatus comprising:
前記入力手段は、所定の符号化方式で符号化された再現補助データを入力し、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記符号化された再現補助データを復号する復号手段を備え、
前記鑑賞画像参照データ生成手段は、前記入力されたシーン参照生データに対し、前記復号された再現補助データに基づいて最適化処理を施して鑑賞画像参照データを生成することを特徴とする請求項11に記載の画像処理装置。
The input means inputs auxiliary reproduction data encoded by a predetermined encoding method,
When use of the reproduction auxiliary data is authenticated based on the input authentication information, the decoding auxiliary means includes decoding means for decoding the encoded reproduction auxiliary data,
2. The appreciation image reference data generating unit generates appreciation image reference data by performing an optimization process on the input scene reference raw data based on the decoded reproduction auxiliary data. The image processing apparatus according to 11.
撮像装置の特性に依存したシーン参照生データと、当該シーン参照生データに対して出力媒体上での鑑賞画像形成のために最適化する画像処理を施して鑑賞画像参照データを生成する際の再現補助データと、撮影時の撮影条件設定を示す撮影情報データと、当該再現補助データの利用を認証するための認証情報と、を入力する入力手段と、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記入力されたシーン参照生データに対し、前記入力された再現補助データ及び前記撮影情報データに基づいて最適化処理を施して鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
を備えることを特徴とする画像処理装置。
Scene reference raw data that depends on the characteristics of the imaging device, and reproduction when the scene reference raw data is subjected to image processing that is optimized for the formation of an appreciation image on the output medium to generate appreciation image reference data Input means for inputting auxiliary data, shooting information data indicating shooting condition settings at the time of shooting, and authentication information for authenticating the use of the reproduction auxiliary data;
When the use of the reproduction assistance data is authorized based on the inputted authentication information, the optimization processing is performed on the inputted scene reference raw data based on the inputted reproduction assistance data and the photographing information data. Appreciation image reference data generating means for generating appreciation image reference data by applying
An image processing apparatus comprising:
前記入力手段は、所定の符号化方式で符号化された再現補助データを入力し、
前記入力された認証情報に基づいて前記再現補助データの利用が認証された場合、前記符号化された再現補助データを復号する復号手段を備え、
前記鑑賞画像参照データ生成手段は、前記入力されたシーン参照生データに対し、前記復号された再現補助データ及び前記撮影情報データに基づいて最適化処理を施して鑑賞画像参照データを生成することを特徴とする請求項13に記載の画像処理装置。
The input means inputs auxiliary reproduction data encoded by a predetermined encoding method,
When use of the reproduction auxiliary data is authenticated based on the input authentication information, the decoding auxiliary means includes decoding means for decoding the encoded reproduction auxiliary data,
The appreciation image reference data generating means generates an appreciation image reference data by performing an optimization process on the input scene reference raw data based on the decoded reproduction auxiliary data and the shooting information data. The image processing apparatus according to claim 13, characterized in that:
前記再現補助データには、シーン参照生データから標準化されたシーン参照画像データを生成するための撮像装置特性補正処理に必要な補正情報が含まれることを特徴とする請求項11〜14の何れか一項に記載の画像処理装置。   15. The reproduction auxiliary data includes correction information necessary for imaging apparatus characteristic correction processing for generating standardized scene reference image data from scene reference raw data. The image processing apparatus according to one item. 前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データを復元するための復元情報が含まれることを特徴とする請求項11〜15の何れか一項に記載の画像処理装置。   16. The reproduction auxiliary data includes restoration information for restoring appreciation image reference data in an imaging device when generating appreciation image reference data on an output medium. The image processing apparatus according to any one of the above. 前記再現補助データには、出力媒体上での鑑賞画像参照データを生成する際に撮像装置での鑑賞画像参照データの生成過程を再現するための再現情報が含まれることを特徴とする請求項11〜16の何れか一項に記載の画像処理装置。   12. The reproduction auxiliary data includes reproduction information for reproducing an appreciation image reference data generation process in an imaging device when generating appreciation image reference data on an output medium. The image processing device according to any one of -16. 前記再現情報には、撮像装置での撮影条件の正当性を判断するための指標値が含まれることを特徴とする請求項17に記載の画像処理装置。   The image processing apparatus according to claim 17, wherein the reproduction information includes an index value for determining validity of an imaging condition in the imaging apparatus. 前記指標値には、撮像装置による撮影時のユーザ特性、光源条件、露出条件の少なくとも一つを特定する値が含まれることを特徴とする請求項18に記載の画像処理装置。   The image processing apparatus according to claim 18, wherein the index value includes a value that specifies at least one of user characteristics, light source conditions, and exposure conditions at the time of shooting by the imaging apparatus. 前記光源条件、露出条件は、撮影時の撮影シーン判別処理の判別結果であることを特徴とする請求項19に記載の画像処理装置。   The image processing apparatus according to claim 19, wherein the light source condition and the exposure condition are determination results of a shooting scene determination process at the time of shooting. 請求項11〜20の何れか一項に記載の画像処理装置と、
前記画像処理装置の鑑賞画像参照データ生成手段により生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えることを特徴とする画像記録装置。
The image processing apparatus according to any one of claims 11 to 20,
Image forming means for forming an appreciation image on an output medium using appreciation image reference data generated by the appreciation image reference data generation means of the image processing apparatus;
An image recording apparatus comprising:
JP2005013207A 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus Pending JP2006203567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005013207A JP2006203567A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005013207A JP2006203567A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Publications (1)

Publication Number Publication Date
JP2006203567A true JP2006203567A (en) 2006-08-03

Family

ID=36961168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005013207A Pending JP2006203567A (en) 2005-01-20 2005-01-20 Imaging apparatus, image processing apparatus, and image recording apparatus

Country Status (1)

Country Link
JP (1) JP2006203567A (en)

Similar Documents

Publication Publication Date Title
JP4298253B2 (en) Image processing method and apparatus, and imaging apparatus
US7312824B2 (en) Image-capturing apparatus, image processing apparatus and image recording apparatus
JP2004173010A (en) Image pickup device, image processor, image recorder, image processing method, program and recording medium
US20040247175A1 (en) Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus
WO2006123492A1 (en) Image processing method, image processing device, imaging device and image processing program
JPWO2005079056A1 (en) Image processing apparatus, photographing apparatus, image processing system, image processing method and program
US20040041926A1 (en) Image-capturing apparatus, imager processing apparatus and image recording apparatus
JP2004096506A (en) Image forming method, image processor and image recording device
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
US8334910B2 (en) Image capturing apparatus, information processing apparatus, and control methods thereof
JP2004096505A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203566A (en) Imaging apparatus, image processing apparatus and image processing method
JP2006318255A (en) Image processing method, image processor and image processing program
JP2004336521A (en) Image processing method, image processor, and image recording apparatus
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2006203573A (en) Imaging apparatus, image processor, and image recording apparatus
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2004096508A (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2006203567A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
WO2007032324A1 (en) Imaging device, image processing device, image processing method, and image processing program
JP2004328530A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2006092137A (en) Image processing method, image processor, imaging device and image processing program
JP4292873B2 (en) Image processing method, image processing apparatus, and image recording apparatus
WO2006033234A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2006202091A (en) Image processing method, apparatus, and program, and image pickup device