JP2004328530A - Imaging apparatus, image processing apparatus, and image recording apparatus - Google Patents
Imaging apparatus, image processing apparatus, and image recording apparatus Download PDFInfo
- Publication number
- JP2004328530A JP2004328530A JP2003122639A JP2003122639A JP2004328530A JP 2004328530 A JP2004328530 A JP 2004328530A JP 2003122639 A JP2003122639 A JP 2003122639A JP 2003122639 A JP2003122639 A JP 2003122639A JP 2004328530 A JP2004328530 A JP 2004328530A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- scene reference
- sensitivity
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
Landscapes
- Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、情報損失のない広いダイナミックレンジの撮像画像情報を汎用的な方法で記録するデジタルカメラ等の撮像装置、斯かる撮像装置により得られた広ダイナミックレンジ画像情報に対して出力媒体上での鑑賞画像形成用に最適化処理を施す画像処理装置及び画像記録装置に関する。
【0002】
【従来の技術】
今日、撮像装置で撮影されたデジタル画像データは、CD−R(Compact Disc Recordable)、フロッピー(登録商標)ディスク、メモリカードなどの記憶デバイスやインターネット経由で配信され、CRT(Cathode Ray Tube)、液晶、プラズマ等のディスプレイモニタや携帯電話の小型液晶モニタの表示デバイスに表示されたり、デジタルプリンタ、インクジェットプリンタ、サーマルプリンタ等の出力デバイスを用いてハードコピー画像としてプリントされたりするなど、その表示・プリント方法は多種多様化してきている。
【0003】
また、デジタル画像データを鑑賞用途で表示・出力する際には、鑑賞に使用するディスプレイモニタ上、或いはハードコピー上において所望の画質が得られるように階調調整、輝度調整、カラーバランス調整、鮮鋭性強調に代表される種々の画像処理を施す事が一般に行われている。
【0004】
こうした多様な表示・プリント方法に対応して、撮像装置で撮影されたデジタル画像データの汎用性を高める努力がなされてきた。その一環として、デジタルRGB(Red, Green, Blue)信号が表現する色空間を撮像装置特性に依存しない色空間に標準化する試みがあり、現在では多くのデジタル画像データが標準化された色空間として「sRGB」を採用している(「Multimedia Systems and Equipment−Colour Measurement and Management−Part2−1:Colour Management−Default RGB Colour Space−sRGB」IEC”61966−2−1を参照)。このsRGBの色空間は、標準的なCRTディスプレイモニタの色再現領域に対応して設定されている。
【0005】
一般的に、デジタルカメラは、CCD(電荷結合素子(charge coupled device))と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせて感色性を付与した、光電変換機能を有する撮像素子(CCD型撮像素子、以下単にCCDと称する)を備えている。デジタルカメラにより出力されるデジタル画像データは、このCCDを介して変換された電気的な元信号に、撮像素子の光電変換機能の補正が施され、画像編集ソフトでの読み取り・表示が可能なように規格化された所定形式のデータフォーマットへのファイル変換・圧縮処理等を経たものである。
【0006】
撮像素子の光電変換機能の補正としては、例えば、階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化、ホワイトバランス調整、彩度調整等がある。また、規格化された所定形式のデータフォーマットとしては、例えばExif(Exchangeable Image File Format)ファイルの非圧縮ファイルとして採用されている「Baseline Tiff Rev.6.0RGB Full Color Image」、JPEGフォーマットに準拠した圧縮データファイル形式が知られている。
【0007】
Exifファイルは、sRGBに準拠したものであり、撮像素子の光電変換機能の補正は、sRGBに準拠するディスプレイモニタ上で最も好適な画質となるよう設定されている。
【0008】
例えば、どのようなデジタルカメラであっても、Exif形式のように、sRGB信号に準拠したディスプレイモニタの標準色空間(以下、「モニタプロファイル」とも称す)で表示する事を示すタグ情報や、画素数、画素配列、及び1画素当たりのビット数などの機種依存情報を示す付加情報をデジタル画像データのファイルヘッダにメタデータとして書き込む機能及びそのようなデータフォーマット形式を採用してさえいれば、デジタル画像データをディスプレイモニタに表示する画像編集ソフト(例えば、Adobe社製Photoshop)によりタグ情報を解析して、モニタプロファイルのsRGBへの変更を促したり、自動的に変更処理を施したりすることが出来る。そのため、異なるディスプレイ間の装置特性の差異を低減したり、デジタルカメラで撮影されたデジタル画像データをディスプレイモニタ上で好適な状態で鑑賞したりすることが可能になっている。
【0009】
また、デジタル画像データのファイルヘッダに書き込まれる付加情報としては、上述した機種依存情報以外にも、例えばカメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報などを示すタグ(コード)が用いられている。画像編集ソフトや出力デバイスは、これらの付加情報を読み取り、ハードコピー画像の画質をより好適なものとする機能を備えている。
【0010】
ところで、CRTディスプレイモニタ等の表示デバイスで表示される画像や、各種プリントデバイスによりプリントされたハードコピー画像は、用いられている蛍光体又は色材の構成によって色再現域が異なる。例えば、sRGB標準色空間に対応するCRTディスプレイモニタの色再現領域は明るい緑や青の領域が広く銀塩写真プリント・インクジェットプリンタ・印刷等のハードコピーでは再現できない領域があり、逆に印刷・インクジェットのシアン領域や銀塩写真の黄色領域にはsRGB標準色空間に対応するCRTディスプレイモニタでは再現できない領域が存在する(例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編444頁参照)。一方、撮影対象となる被写体シーンの中には、これらのいずれの色再現領域でも再現できない領域色を呈しているものが存在する可能性がある。
【0011】
このように、特定デバイスによる表示・プリントを前提として最適化された色空間(sRGBを含む)には記録可能な色域に制限があるため、撮像装置が取得した情報を記録する際には、記録可能な色域に圧縮してマッピングする調整が必要になる。マッピングの方法としては、記録可能な色域の外にある色度点を最寄の色域境界上へマッピングしてしまうクリッピングが最も簡単であるが、これでは色域外のグラデーションが潰れてしまい、鑑賞時に違和感を覚える画像になってしまう。このため現在では、適当な閾値以上にクロマが高い領域の色度点をクロマの大きさに従って滑らかに圧縮する非線形圧縮が一般に採用されている。この結果、記録可能な色域内部の色度点においてもクロマが圧縮されて記録される事になる。(色域のマッピング方法についての詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編447頁に記載されている。)
【0012】
また、CRTディスプレイモニタ等の表示デバイスで表示される画像や、各種プリントデバイスによりプリントされたハードコピー画像、またこれらのデバイスによる表示・プリントを前提として最適化された色空間(sRGBを含む)は、記録・再現可能な輝度域が約100:1オーダーに限定されている。これに対して撮影対象となる被写体シーンは輝度域が広く、屋外では数千:1のオーダーに至ることもしばしば発生する(例えば東京大学出版会「新編色彩科学ハンドブック第2版」日本色彩学会編926頁参照)。従って、撮像装置が取得した情報を記録する際には輝度についても同様に圧縮が必要になる。この圧縮処理は撮影シーンのダイナミックレンジや、撮影シーン内における主要被写体の輝度レンジに応じて、1画像毎に適切な条件を設定する必要がある。
【0013】
ところが、上記のような色域・輝度域の圧縮操作をおこなった場合、離散的数値で記録されるデジタル画像の原理に起因して、圧縮前のグラデーション情報やクリッピング前の情報はその時点で失われてしまい、再び元の状態に戻すことができない。この事が高画質デジタル画像データの汎用性において大きな制約になる。
【0014】
例えば、sRGBの標準色空間において記録された画像をプリントデバイスによりプリントする場合は、sRGBの標準色空間とプリントデバイスの色再現域の相違に基づいて再度マッピングが必要になる。しかし、sRGBの標準色空間において記録された画像は、記録時に一旦圧縮された領域のグラデーション情報が失われているので、撮像装置が取得した情報を直接プリントデバイスの色再現域にマッピングする場合に比べてグラデーションの滑らかさが悪化する。また記録時の階調圧縮条件が不適切で、絵が白っぽい・顔が暗い・シャドーの潰れやハイライト領域の白飛びが目立つという問題があった場合、階調設定を変更して画像を改善しようとしても、圧縮前のグラデーション情報や潰れ・白飛び部分の情報は既に失われているために、撮像装置が取得した情報から新たに画像を作り直す場合と比べて、著しく不十分な改善しか行うことができない。
【0015】
このような問題を解決するものとして、画像編集の過程をバックアップとして保存し、必要に応じて編集前の状態に戻す技術は古くから知られている。例えば、特許文献1には、デジタル画像データに対し、画像処理により局所的な変更を施した場合、画像処理前後のデジタル画像データとの差分画像データをバックアップデータとして保存するバックアップ装置が記載されている。また、特許文献2には、画像処理前後のデジタル画像データの差分画像データを取り保存しておくことにより、編集前のデジタル画像データを復元可能にする方法が記載されている。しかしながら、こうした技術は情報損失防止の観点では有効であるが、メディアに記録すべきデータ量の増大を伴い、その結果カメラの撮影可能枚数が減少する。
【0016】
以上に述べてきた問題は、撮像装置が取得した広い色域・輝度域の情報を、鑑賞画像を想定して最適化した状態の鑑賞画像参照データに圧縮して記録する事に起因する。これに対して、撮像装置が取得した広い色域・輝度域の情報を圧縮しないシーン参照画像データとして記録すれば不用意な情報の損失を防止する事ができる。このようなシーン参照画像データを記録するのに適した標準色空間としては例えば「scRGB」(relative scene RGB color space)、「RIMM RGB」(Reference Input Medium Metric RGB)や「ERIMM RGB」(Extended Reference Input Medium Metric RGB)が提案されている(Journal of Imaging Science and Technology 45巻 418〜426頁(2001年)参照)。
【0017】
しかし、このような標準色空間で表現されたデータは、直接ディスプレイモニタで表示して鑑賞するには適さない。一般的に、デジタルカメラにはユーザが撮影前に画角を確認したり撮影後に撮影内容を確認したりするために、ディスプレイモニタが組み込まれているか接続されている。撮影されたデジタル画像データがsRGBのような鑑賞画像参照データとして記録されている場合は、そのデータを変換せずに直接ディスプレイモニタに表示できる利点があったが、撮影されたデジタル画像データがシーン参照画像データとして記録されている場合には、そのデータを表示する為に鑑賞画像参照データとして再変換する処理が必須になる。このようなカメラ内における二重の変換処理は、処理負荷や消費電力を増大させ、連写性の低下や、バッテリー撮影時の撮影枚数制限を招く。
【0018】
一方、特許文献3には、表示手段に表示した画像信号形態で記録するモードと、撮像した画像信号形態で記録するモードを有する事を特徴とする画像処理装置が開示されている。後者の画像信号形態は一般にRAWデータと呼ばれ、このようなデジタル画像データは、専用のアプリケーションソフト(「現像ソフト」と称される)を用いて、前記Exifファイルなどの表示・印刷用の鑑賞画像参照データに変換する(「電子現像」、又は単に「現像」と称される)ことができる。RAWデータは撮影時の全情報を保存している為、鑑賞画像参照データの作り直しが可能であり、CMYK等の他の表色系ファイルを直接作れば、ディスプレイモニタ(sRGB)との色域の相違に起因して不用意に色が変更される事もない。しかしながらRAWデータは撮影機種固有の分光感度特性に基づいた色空間と、撮影機種固有のファイルフォーマットに基づいて記録されているため、撮影機種固有の専用現像ソフトを用いなければ表示・印刷に適した画像を得ることができない。
【0019】
ここまで一般的なデジタルカメラについて述べてきたが、撮像装置自体がさらに従来のものに比べ、広い色域・輝度域情報を得られるよう改良されることが望ましいことは言うまでもない。固体撮像素子は、入射強度に対するダイナミックレンジが狭いため、特許文献4には、低感度撮像素子部と高感度撮像素子部を備え、それぞれの出力をレベル変換した値を基準電圧と比較していずれかのレベル値の出力を瞬時に切り換えることにより、入射光強度を光電変換して得られる信号のダイナミックレンジを拡大する方法が記載されている。
【0020】
また、特許文献5には、撮像素子の第1の受光素子(高感度撮像素子)と第2の受光素子(低感度撮像素子)とを、撮像素子の幾何学的な形状の中心が互いに行(水平)方向および/または列(垂直)方向に受光素子の間隔を示すピッチの半分、すなわち1/2ピッチずらしてハニカム状に配置し、第1の受光素子の信号飽和レベルを調整して、第2の信号と合成する方法が記載されている。
【0021】
特許文献6には、撮像素子が高感度映像信号と低感度映像信号とを生成し、高感度映像信号を高量子化分解能、低感度映像信号を低量子化分解能で量子化後、高量子化データが飽和している場合は感度比で合算し、それ以外は高量子化データを選択することにより広ダイナミックレンジ画像を形成する方法が記載されている。
【0022】
他にも特許文献7に記載の、露光域によって低感度撮像素子と、高感度撮像素子の出力値を選択する方法や、特許文献8に記載の、低感度撮像素子と、高感度撮像素子でモアレのない出力値を選択する方法などが記載されている。
【0023】
【特許文献1】
特開平7−57074号公報
【特許文献2】
特開2001−94778号公報
【特許文献3】
特開平11−261933号公報
【特許文献4】
特公平8−34558号公報
【特許文献5】
特開2000−125209号公報
【特許文献6】
特開2001−8104号公報
【特許文献7】
特開2003−18445号公報
【特許文献8】
特開2003−18479号公報
【0024】
【発明が解決しようとする課題】
このような特性の異なる撮像素子を高集積化した撮像部を有するデジタルカメラにおいて、撮像部が取得した広い色域・輝度域の情報を圧縮しないシーン参照画像データ(例えば「scRGB」、「RIMM RGB」や「ERIMM RGB」)として記録すれば情報の損失を防止する事ができる。しかしながら前述のカメラ内処理負荷がさらに増大する問題や、RAWデータと同様に、撮像装置の機種固有の特性による画質のばらつき、あるいは表示・印刷用途に画質を最適化することが難しいといった問題がある。
【0025】
本発明の課題は、情報損失のない広いダイナミックレンジの撮像画像情報を、汎用的かつ処理負荷の軽減された方法で記録することが出来る撮像装置、この撮像装置により記録された広ダイナミックレンジの撮影画像情報を、容易に編集・加工することが可能な画像処理装置及び画像記録装置を提供することである。
【0026】
【課題を解決するための手段】
上記課題を解決するため、請求項1に記載の発明は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置において、
撮像により前記撮像素子の種類毎のシーン参照生データを生成するシーン参照生データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データを生成する合成補助データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに前記合成補助データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴としている。
【0027】
請求項1に記載の発明の撮像装置によれば、撮像により感度の異なる撮像素子の種類毎のシーン参照生データを生成し、撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データを生成し、撮像素子の種類毎のシーン参照生データに合成補助データを添付し、さらにメディアに記録する。従って、感度の異なる撮像素子の種類毎の、撮像素子特性に依存したシーン参照生データを生成することにより、情報損失のない広ダイナミックレンジ画像の記録が可能となる。また、シーン参照生データのシーン参照画像データへの撮像装置内による変換処理を省略したことにより、撮像装置の処理負荷や消費電力が低減され、処理(撮影)能力の向上や、バッテリー駆動時の処理(撮影)枚数の増加が可能となる。さらに、生成されたシーン参照生データに合成補助データを添付することにより、複数のシーン参照生データから、撮像装置毎の固体差、撮像素子特性の補正処理を施して合成し、合成標準化された単一のシーン参照画像データの生成を容易にすることが出来る。
【0028】
ここで、本願明細書の記載において「生成」とは、本発明に係る撮像装置、画像処理装置、及び画像記録装置内において作用するプログラム、及び処理回路が、画像信号やデータを新たに作り出すことである。なお「作成」を同義語として用いることもある。
【0029】
また、「撮像装置」とは、光電変換機能を有する撮像素子(イメージセンサ)を備えた装置であって、所謂デジタルカメラやスキャナがこれに含まれる。前記撮像素子の一例としては、CCD(電荷結合素子(charge coupled device))と、電荷転送機構と、市松模様のカラーフィルタとを組み合わせ感色性を付与したCCD型撮像素子や、CMOS型撮像素子が挙げられるが、本発明では感度の異なる少なくとも2種類の撮像素子を組み合わせて用いることが特徴である。このような感度の異なる撮像素子を組み合わせた例として、特開2000−125209には、低感度撮像素子と、高感度撮像素子とを、撮像素子の幾何学的な形状の中心が互いに行(水平)方向および/または列(垂直)方向に受光素子の間隔を示すピッチの半分、すなわち1/2ピッチずらしてハニカム状に配置する固体差撮像素子が記載されている。本発明の撮像素子は、図2に示すように、低感度撮像素子と高感度撮像素子とをハニカム状に配置することが望ましい。これらの撮像素子の出力電流はA/D変換器によりデジタル化される。この段階での各色チャンネルの内容は、撮像素子固有の分光感度に基づいた信号強度となっている。
【0030】
また、「シーン参照生データ」とは、被写体に忠実な情報を記録した撮像装置直接の生出力信号であり、A/D変換器によりデジタル化されたデータそのものや、該データに固定パターンノイズ・暗電流ノイズ等のノイズ補正を行ったデータを意味し、前述したRAWデータが含まれる。このシーン参照生データは、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度を前述のscRGB、RIMM RGB、sRGB等の標準化された色空間にマッピングする処理を省略したことを特徴とする。シーン参照生データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照生データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。
【0031】
本発明の撮像装置における第1の特徴は、感度の異なる撮像素子の種類毎に前述した「シーン参照生データ」が生成されることにより、広ダイナミックレンジ画像を取得出来ることである。
【0032】
ここで、「感度」とは、被写体の明るさ(輝度)に対する応答特性を表す指標であり、より高感度な撮像素子程、より暗い被写体に対して応答することが出来ることを意味する。一般に撮像素子の感度は、撮像素子の受光面積に比例して増大する。また撮像素子は、光の完全に遮断された状態でも微弱なノイズ信号(暗電流ノイズ、或いはホワイトノイズと称される)を発し、このノイズ信号は撮像素子の感度利得を調整するゲイン値に比例して増大する。前記撮像素子が光の遮断された状態に発するノイズ信号の強度は、受光面積に反比例する特性を有する。従って、低感度と高感度の2種類の撮像素子で構成する場合、高感度の撮像素子は、低感度の撮像素子に比べ受光面積が大きい、或いは単位面積当りに配置される数が多いことが望ましい。また、高感度の撮像素子は感色性(色弁別能)を有さず、被写体の輝度にのみ応答するモノクロの素子であることが望ましい。
【0033】
「ダイナミックレンジ」とは、被写体の明るさ(輝度)の範囲に対する応答特性を表す指標であり、より広ダイナミックレンジな撮像素子程、より暗い被写体からより明るい被写体に対して応答することが出来ることを意味する。一般に撮像素子のダイナミックレンジは、撮像素子の受光部の材質や構造に依存し、フォトダイオード等の半導体を用いた素子では十分なダイナミックレンジを得ることが出来ない。また高感度な撮像素子程、より暗い被写体に対して応答することが出来るが、より明るい被写体に対してはダイナミックレンジが不足し、信号が飽和し易い。一方低感度な撮像素子は、より明るい被写体に対しても信号が飽和し難く応答することが出来るが、より暗い被写体に対して感度が不足する。従って、少なくとも2種類の撮像素子で構成し、よりダイナミックレンジを拡大する為には、夫々のダイナミックレンジの重なりを常に最小にすることが望ましい。
【0034】
本発明において、撮像素子の感度毎に生成されるシーン参照生データの量子化分解能(以下、単に「階調数」と称する。)は、同一であっても良いが、高感度の撮像素子は低感度の撮像素子に比べより階調数が多いことが望ましい。また、撮像素子の被写体輝度に対する応答特性は、図3に示すように、直線的であることが望ましいが、感度の大きさ毎に異なっていても良い。さらに低感度の撮像素子は、感色性(色弁別能)の異なる少なくとも3種類で構成されることが望ましい。
【0035】
また、本願明細書の記載において、「合成標準化されたシーン参照画像データ」とは、撮像素子の感度毎に生成された複数のシーン参照生データに、後述する撮像素子特性補正処理により少なくとも撮像素子自体の分光感度に基づく各色チャンネルの信号強度を前述のscRGB、RIMM RGB、ERIMM RGBなどの標準色空間にマッピングする処理を施し、主要被写体の明るさ(輝度)、ダイナミックレンジ等に基づき、単一の画像データとして保有し得る情報容量の範囲内に最適化する合成処理を施して得られた画像データであり、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為にデータ内容を改変する画像処理が省略された状態の画像データを意味する。またシーン参照画像データは、撮像装置の光電変換特性(ISO1452が定義するopto−electronic conversion function, 例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編449頁参照)の補正を行ったものである事が好ましい。この処理の結果、複数の「シーン参照生データ」が分割して保有する情報量を保持しつつも、異なる「撮像装置」間での信号値の差異が補正された単一の「合成標準化されたシーン参照画像データ」が得られる。
【0036】
合成標準化されたシーン参照画像データの情報量(例えば階調数)は前記A/D変換器の性能に準じ、後述する鑑賞画像参照データで必要とされる情報量(例えば階調数)と同等以上であることが好ましい。例えば鑑賞画像参照データの階調数が1チャンネルあたり8bitである場合、シーン参照画像データの階調数は12bit以上が好ましく、14bit以上がより好ましく、また16bit以上がさらに好ましい。
【0037】
「撮像素子特性補正処理」とは、撮像素子特性に依存したシーン参照生データを用いて「合成標準化されたシーン参照画像データ」に変換する為に必要な前処理を意味する。この前処理の内容は、少なくとも撮像素子固有の分光感度に基づく各色チャンネルの信号強度を前述のscRGB、RIMM RGB、ERIMM RGBなどの標準色空間にマッピングする処理が含まれる。たとえば撮像素子特性に依存したシーン参照生データが、カラーフィルタ配列に基づく補間処理を行っていない場合には、該処理の実施が加えて必要になる。(カラーフィルタ配列に基づく補間処理の詳細は、例えばコロナ社「ファインイメージングとディジタル写真」(社)日本写真学会出版委員会編51頁に記載されている。)上記以外にも、階調変換処理、平滑化処理、鮮鋭化処理、或いはノイズ除去やモアレ除去等の周波数処理演算等、あらゆる処理を適用することが出来る。
【0038】
本発明の撮像装置における第2の特徴は、「合成補助データ」を「シーン参照生データ」に付与することにより、前述した「撮像素子特性補正処理」、「合成標準化されたシーン参照画像データ」の生成を、撮像装置外で実行出来ることである。
【0039】
「合成補助データ」とは、少なくとも撮像素子の感度毎に生成された複数のシーン参照生データを識別する情報と、撮像素子自体の分光感度に基づく各色チャンネルの信号強度を前述のscRGB、RIMM RGBやERIMM RGBなどの標準色空間にマッピングする事が可能になる情報、すなわち撮像素子固有の分光感度特性かRIMM RGBのような特定の標準色空間に換算する時に使用すべきマトリックス係数が記載されている必要がある。例えば、撮像装置の機種名だけが記載されている場合は、本処理を実施する画像処理装置が機種名と前記マトリックス係数の対応表を保有していない可能性があるので十分なデータとは言えない。また例えば、本処理を実施する際に十分な情報が直接記載されていなくても、該情報のインターネット上での所在個所を示すURLが記載されている場合は、本処理を行うのに十分なデータとみなすことができる。これらの「合成補助データ」は、画像ファイル内のヘッダ部に書き込まれるタグ情報として記録されるのが好ましい。
【0040】
前記「合成補助データ」が、「シーン参照生データ」とは独立してメディアに保存する態様である場合には、「合成補助データ」、「シーン参照生データ」の何れか、又は両方に対し、両者を関連付ける為の情報の付与、又は別途関連情報の記載されたステータス情報ファイルを添付する必要がある。
【0041】
「メディア」とは、撮像装置の出力する「シーン参照生データ」、及び「合成補助データ」の保存に用いる記憶媒体であって、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、ハードディスク、フロッピー(登録商標)ディスク、磁気記憶媒体(MO)、或いはCD−Rなど何れであっても良い。また、記憶媒体に書き込むユニットは、撮影装置と一体であっても、コードを介して有線状態で接続された書き込みユニット、通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置されたユニットなどの何れの態様であっても良い。さらに、撮像装置と記憶媒体への書き込みユニットが接続状態にあるとき、画像処理装置や画像記録装置が、撮像装置から直接、「合成補助データ」及び「必要なデータ」を読み出すことの出来る機能を併せ持つ態様であっても良い。「メディアに記録する」時のファイル形式は、撮像装置固有の形式ではなく、TIFF、JPEG、Exifなどの規格化された汎用のファイル形式で記録されるのが好ましい。
【0042】
請求項2に記載の発明の画像処理装置は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置によって生成された撮像素子の種類毎のシーン参照生データと、前記各シーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データとを入力する入力手段と、
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
を備えたことを特徴としている。
【0043】
請求項2に記載の発明によれば、感度の異なる複数の撮像素子を備えた撮像装置から入力された、撮像装置の撮像素子特性に依存したシーン参照生データと合成補助データから、合成標準化されたシーン参照画像データを生成する。従って、請求項1に記載の撮像装置の出力する広ダイナミックレンジ画像データを、家庭や職場環境でのプリント出力用途に利用することが可能となる。
【0044】
ここで、請求項2に記載の「入力する」とは、撮像装置の出力する「シーン参照生データ」、及び「合成補助データ」を、これらが保存された「メディア」を介して、撮像装置から本発明の画像処理装置に伝達することを意味する。
【0045】
撮像装置と上述した記憶媒体への書き込みユニットが接続状態にあり、本発明の画像処理装置が、撮像装置から直接、「シーン参照生データ」、及び「合成補助データ」を読み出せる機能を併せ持つ態様であるとき、本発明に係る画像処理装置は撮像装置との接続手段を有し、この接続手段が、本発明の入力手段に相当する。また、メモリカード、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、或いはCD−Rなど、可搬式の「メディア」を用いた場合には、本発明の画像処理装置は対応する読み取り手段を有し、この読み取り手段が、本発明の入力手段に相当する。さらに、書き込みユニットが通信やインターネットを介して無線状態で接続された独立、或いは遠隔地に設置された態様であるとき、本発明の画像処理装置は、通信やインターネットに接続する通信手段を有し、この通信手段が、本発明の入力手段に相当する。
【0046】
請求項3に記載の発明は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置において、
撮像により前記撮像素子の種類毎のシーン参照生データを生成するシーン参照生データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データを生成する合成補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに、前記合成補助データ及び前記撮影情報データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴としている。
【0047】
請求項3に記載の発明の撮像装置によれば、撮像により感度の異なる撮像素子の種類毎のシーン参照生データを生成し、撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データ及び撮影時の撮影条件設定である撮影情報データを生成して、撮像素子の種類毎のシーン参照生データに添付し、さらにメディアに記録する。従って、感度の異なる撮像素子の種類毎の、撮像素子特性に依存したシーン参照生データを生成することにより、情報損失のない広ダイナミックレンジ画像の記録が可能となる。また、シーン参照画像データへの撮像装置内による変換処理を省略したことにより、撮像装置の処理負荷や消費電力が低減され、処理(撮影)能力の向上や、バッテリー駆動時の処理(撮影)枚数の増加が可能となる。また、生成されたシーン参照生データに合成補助データを添付することにより、外部の画像処理装置や画像記録装置において、複数のシーン参照生データに撮像装置毎の固体差、撮像素子特性の補正処理を施して合成し、合成標準化された単一のシーン参照画像データの生成を容易にすることが出来るとともに、さらに撮影情報データを添付することにより「合成標準化されたシーン参照画像データ」の生成の精度向上、あるいは撮影状況に応じた鑑賞画像参照データの生成が可能となる。
【0048】
本願明細書の記載における「撮影情報データ」とは、撮影時の撮影条件設定の記録であり、Exifファイルのヘッダ部に書き込まれるタグ情報と同じものを含んでも良い。具体的には露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度、被写体の種類に関する情報などを示すタグ(コード)などである。
【0049】
前記「撮影情報データ」は、撮像装置の露出設定や焦点機能の自動化の為に、カメラに備えられたセンサーの撮影時に得た値、前記センサーの値から加工されたデータ、或いは前記センサーの値に基づいて設定されたカメラの撮影条件に分類されるが、これ以外にも撮像装置に備えられた、撮影モードダイヤル(例えばポートレート、スポーツ、マクロ撮影モード等)や、ストロボ強制発光の設定スイッチ等を撮影者がマニュアルで設定した情報も含まれる。
【0050】
なお、「撮影情報データ」は独立してメディアに保存する態様とっても良いが、ヘッダ部に書き込まれるタグ情報のような形で画像ファイル内に記録される事が特に好ましい。前記「撮影情報データ」が、「シーン参照生データ」とは独立してメディアに保存する態様である場合には、「撮影情報データ」、「シーン参照生データ」の何れか一方、又は両方に対し、両者を関連付ける為の情報を付与するか、又は別途関連情報の記載されたステータス情報ファイルを添付する必要がある。
【0051】
請求項4に記載の発明の画像処理装置は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置によって生成された撮像素子の種類毎のシーン参照生データと、前記各シーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データと、撮影時の撮影条件設定である撮影情報データと、を入力する入力手段と、
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、前記撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記入力された撮影情報データを、前記生成されたシーン参照画像データに添付するデータ添付手段と、
を備えたことを特徴としている。
【0052】
請求項4に記載の発明によれば、感度の異なる複数の撮像素子を備えた撮像装置から入力された、撮像装置の撮像素子特性に依存したシーン参照生データと合成補助データから、合成標準化されたシーン参照画像データを生成し、入力された撮影情報データを生成されたシーン参照画像データに添付する。従って、本発明の画像処理装置の提供により、請求項3に記載の撮像装置の出力する広ダイナミックレンジ画像データを、家庭や職場環境でのプリント出力用途に利用することが可能となる。
【0053】
請求項5に記載の発明は、請求項2に記載の発明において、
前記生成された合成標準化されたシーン参照画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えたことを特徴としている。
【0054】
請求項5に記載の発明によれば、請求項2に記載の発明において、生成された合成標準化されたシーン参照画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する。従って、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データを提供するサービスを、店舗に出向くことなく利用することが出来るようになる。
【0055】
ここで、本願明細書の記載において「出力媒体」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙である。
【0056】
また、「鑑賞画像参照データ」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイスに用いたり、出力デバイスが、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上のハードコピー画像生成に用いたりするデジタル画像データを意味する。CRT、液晶、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像が得られるよう「最適化処理」が施されていることが前記「シーン参照生データ」とは異なっている。
【0057】
また、「最適化処理」とは、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等の出力媒体上において、最適な画像を得る為の処理であり、例えばsRGB規格に準拠したCRTディスプレイモニタに表示することを前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また前記色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減、及び出力デバイスの出力特性(LUT)への対応処理等も含まれる。さらにノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、或いは覆い焼き処理等の画像処理が行われることは言うまでもない。
【0058】
請求項6に記載の発明は、請求項4に記載の発明において、
前記生成された、合成標準化されたシーン参照画像データに、前記撮影情報データに基づいて内容が決定された、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段を備えたことを特徴としている。
【0059】
請求項6に記載の発明によれば、生成された、合成標準化されたシーン参照画像データに、撮影情報データに基づいて内容が決定された、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する。従って、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データを提供するサービスを、店舗に出向くことなく利用することが出来るようになる。
【0060】
「撮影情報データ」を用いた鑑賞画像参照データの最適化の例を下記に示す。
撮影情報データ中の「被写体構成」情報により、例えば部分的に彩度強調処理を施したり、ダイナミックレンジの広いシーンでは、覆い焼き処理を施したりすることが可能となる。「撮影シーンタイプ」情報により、例えば夜景撮影では、ホワイトバランス調整の度合いを緩め、カラーバランスを特別に調整することが可能となる。「ストロボ光源の反射光の量」情報により、撮影者と被写体との距離が推定され、例えば肌の白飛びを抑制する画像処理の条件設定に反映させることが出来る。「被写体の種類」情報により、例えば人物撮影では、シャープネスの度合いを緩め、平滑化処理を強めることにより、肌のしわを目立たないようにすることが出来る。
【0061】
また、上述した「被写体構成」、「撮影シーンタイプ」、「ストロボ光源の反射光の量」、「被写体の種類」情報を補う目的で、「露出時間」、「シャッタースピード」、「絞り値(Fナンバー)」、「ISO感度」、「輝度値」、「被写体距離範囲」、「光源」、「ストロボ発光の有無」、「被写体領域」、「ホワイトバランス」、「ズーム倍率」等の情報を、補助的に用いることが出来る。さらに、「ISO感度」情報からノイズ抑制処理の適用量を調整したり、「光源」情報をホワイトバランスの再調整に用いたりすることが出来る。
【0062】
請求項7に記載の発明は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置によって生成された撮像素子の種類毎のシーン参照生データと、前記各シーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データとを入力する入力手段と、
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記生成された、合成標準化されたシーン参照画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
前記生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えたことを特徴としている。
【0063】
請求項8に記載の発明は、
感度の異なる少なくとも2種類の撮像素子を備えた撮像装置によって生成された撮像素子の種類毎のシーン参照生データと、前記各シーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データと、撮影時の撮影条件設定である撮影情報データと、を入力する入力手段と、
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記生成された、合成標準化されたシーン参照画像データに、前記撮影情報データに基づいて内容が決定された、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
前記生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えたことを特徴としている。
【0064】
請求項7に記載の発明によれば、入力された合成補助データに基づいて、撮像装置から入力された撮像素子の種類毎のシーン参照生データに対して撮像素子特性補正処理を施し、撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成し、生成された、合成標準化されたシーン参照画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成し、生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する。従って、請求項1に記載の撮像装置の出力する広ダイナミックレンジ画像データを容易に編集、加工することができ、撮像により得られた撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データとプリントを提供するサービスを、従来のデジタルミニラボを用いたサービスと同様に展開することができる。
【0065】
請求項8に記載の発明によれば、入力された合成補助データに基づいて、撮像装置から入力された撮像素子の種類毎のシーン参照生データに対して撮像素子特性補正処理を施し、撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成し、生成された、合成標準化されたシーン参照画像データに、入力された撮影情報データに基づいて、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成し、生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する。従って、請求項3に記載の撮像装置の出力する広ダイナミックレンジ画像データを容易に編集、加工することができ、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データとプリントを提供するサービスを、従来のデジタルミニラボを用いたサービスと同様に展開することが可能となる。
【0066】
ここで、本発明の画像記録装置は、本発明の撮像装置により取得されるデジタル画像データに対し、本発明の画像処理を施す機構以外にも、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等、アナログカメラにより記録された写真感光材料の駒画像情報を入力するフィルムスキャナ、銀塩印画紙であるカラーペーパー上に再現された画像情報を入力するフラットベッドスキャナを備えていても良い。また本発明の撮像装置以外のデジタルカメラにより取得され、コンパクトフラッシュ(登録商標)、メモリースティック、スマートメディア、マルチメディアカード、フロッピー(登録商標)ディスク、光磁気記憶媒体(MO)、或いはCD−Rなど、公知のあらゆる可搬式の「メディア」に保存されたデジタル画像データを読み取る手段、或いはネットワークなどの通信手段を介してデジタル画像データを遠隔地より取得し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙など、公知のあらゆる「出力媒体」に鑑賞画像を形成する処理手段とを備えていても良い。
【0067】
請求項9に記載の発明は、請求項1又は3に記載の発明において、
前記撮像装置は、高感度撮像素子と低感度撮像素子の2種類の撮像素子を備え、
前記シーン参照生データ生成手段は、撮像により前記高感度撮像素子から高感度シーン参照生データを、前記低感度撮像素子から低感度シーン参照生データを生成することを特徴としている。
【0068】
請求項10に記載の発明は、請求項9に記載の発明において、
前記高感度シーン参照生データが被写体の輝度情報のみを記録したモノクロ画像であり、前記低感度シーン参照生データがカラー画像であることを特徴としている。
【0069】
請求項11に記載の発明は、請求項9又は10に記載の発明において、
前記低感度撮像素子と前記高感度撮像素子とが、その幾何学的な形状の中心が互いに行(水平)方向及び/又は列(垂直)方向に撮像素子の間隔を示すピッチの1/2ピッチ分ずらしてハニカム状に配置されていることを特徴としている。
【0070】
請求項9〜11に記載の発明によれば、広いダイナミックレンジの画像データを得ることができる。
【0071】
請求項12に記載の発明は、請求項1、3、9、10、11の何れか一項に記載の発明において、前記シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えたことを特徴としている。
【0072】
請求項12に記載の発明によれば、シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えている。従って、ユーザー自らが、感度毎のシーン参照生データの夫々に施す撮像素子特性補正処理の内容の選択や個別のパラメータ調整が出来る。
【0073】
請求項13に記載の発明は、請求項2、4、5、6の何れか一項に記載の発明において、
前記シーン参照生データは、高感度撮像素子により生成された高感度シーン参照生データと、低感度撮像素子により生成された低感度シーン参照生データの2つであることを特徴としている。
【0074】
請求項14に記載の発明は、請求項13に記載の発明において、
前記高感度シーン参照生データが被写体の輝度情報のみを記録したモノクロ画像であり、前記低感度シーン参照生データがカラー画像であることを特徴としている。
【0075】
請求項13、14に記載の発明によれば、撮像装置から得られた広いダイナミックレンジの画像データを利用することができる。
【0076】
請求項15に記載の発明は、請求項2、4、5、6、13、14の何れか一項に記載の発明において、
前記シーン参照画像データ生成手段が前記シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えたことを特徴としている。
【0077】
請求項15に記載の発明によれば、シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えている。従って、ユーザー自らが、感度毎のシーン参照生データの夫々に施す撮像素子特性補正処理の内容の選択や個別のパラメータ調整が出来る。
【0078】
請求項16に記載の発明は、請求項7又は8に記載の発明において、
前記シーン参照生データは、高感度撮像素子により生成された高感度シーン参照生データと、低感度撮像素子により生成された低感度シーン参照生データの2つであることを特徴としている。
【0079】
請求項17に記載の発明は、請求項16に記載の発明において、
前記高感度シーン参照生データが被写体の輝度情報のみを記録したモノクロ画像であり、前記低感度シーン参照生データがカラー画像であることを特徴としている。
【0080】
請求項16、17に記載の発明によれば、撮像装置から得られた広いダイナミックレンジの画像データを利用することができる。
【0081】
請求項18に記載の発明は、請求項7、8、16、17の何れか一項に記載の発明において、
前記シーン参照画像データ生成手段が前記シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えたことを特徴としている。
【0082】
請求項18に記載の発明によれば、シーン参照生データに施す撮像素子特性補正処理の内容を指示入力する指示入力手段を備えている。従って、ユーザー自らが、感度毎のシーン参照生データの夫々に施す撮像素子特性補正処理の内容の選択や個別のパラメータ調整が出来る。
【0083】
請求項19に記載の発明は、請求項1、3、9〜12の何れか一項に記載の発明において、
前記合成補助データが、前記シーン参照生データの識別情報及び前記撮像素子の特性を特定する情報を含むことを特徴としている。
【0084】
請求項20に記載の発明は、請求項2、4、5、6、13〜15の何れか一項に記載の発明において、
前記合成補助データが、前記シーン参照生データの識別情報及び前記撮像素子の特性を特定する情報を含むことを特徴としている。
【0085】
請求項21に記載の発明は、請求項7、8、16〜18の何れか一項に記載の発明において、
前記合成補助データが、前記シーン参照生データの識別情報及び前記撮像素子の特性を特定する情報を含むことを特徴としている。
【0086】
請求項19、20、21に記載の発明によれば、合成補助データにより各シーン参照生データの識別や、各シーン参照生データにおける撮像素子特性を特定することができる。
【0087】
請求項22に記載の発明は、請求項2、4、5、6、13〜15、20の何れか一項に記載の発明において、
前記シーン参照画像データ生成手段は、前記撮像素子の種類毎のシーン参照生データの情報を同じ位置の画素毎に比較し、何れか一方の情報を選択することにより合成して一つのシーン参照画像データを生成し、
前記画素毎に何れの種類の撮像素子の情報が選択されたかの情報を記録する画素情報記録手段を備えたことを特徴としている。
【0088】
請求項23に記載の発明は、請求項22に記載の発明において、
前記画素情報記録手段は、前記画素毎に何れの種類の撮像素子情報が選択されたかの情報を合成補助データとして記録することを特徴としている。
【0089】
請求項22、23に記載の発明によれば、撮像素子の種類毎のシーン参照生データの情報を同じ位置の画素毎に比較し、何れか一方の情報を選択することにより合成して一つのシーン参照画像データを生成し、画素毎に何れの種類の撮像素子の情報が選択されたかの情報を画素毎に記録する。従って、シーン参照画像データから再度画像を作り変える場合に、撮像素子の種類に応じて各画素を分離して、夫々異なる画像処理を施すことができる。
【0090】
【発明の実施の形態】
以下、本発明に係る撮像装置の好ましい実施形態ついて、図面に基づいて説明する。
<撮像装置21の構成>
まず、構成を説明する。
【0091】
図1は、本発明に係る撮像装置21の機能的構成を示すブロック図である。図1に示すように、撮像装置21は、レンズ1、絞り2、低感度撮像素子SL及び高感度撮像素子SHを有するCCD(固体撮像素子)3、アナログ処理回路4、A/D変換器5、一時記憶メモリ6、画像処理部7、ヘッダ情報処理部8、記憶デバイス9、CCD駆動回路10、制御部11、合成補助データ処理部13、操作部14、表示部15、ストロボ駆動回路16、ストロボ17、焦点距離調整回路18、自動焦点駆動回路19、モータ20等を備えて構成されている。
【0092】
撮像装置21の光学系は、レンズ1、絞り2、CCD3を備えて構成されている。
レンズ1は、フォーカスの調節を行い、被写体の光画像を結像する。絞り2は、レンズ1を透過した光束の光量を調節する。
CCD3は、低感度撮像素子SL、高感度撮像素子SHの感度の異なる2種類の撮像素子を有して構成されている。CCD3は、レンズ1により受光面上に結像された被写体情報を、CCD3内の各センサの光の入射量に応じた量の電気的な信号(撮像信号)へ光電変換する。そして、CCD3は、CCD駆動回路10から出力されるタイミングパルスに制御されることにより、低感度撮像素子SL、高感度撮像素子SHからの撮像信号をそれぞれアナログ処理回路4へ順次出力する。
【0093】
ここで、図2に、CCD3における低感度撮像素子SLと高感度撮像素子SHの配置例を示す。図2に示すように、低感度撮像素子SLと高感度撮像素子SHは、撮像素子の幾何学的な形状の中心が互いに行(水平)方向及び/又は列(垂直)方向に撮像素子の間隔を示すピッチの半分、即ち1/2ピッチずらしてハニカム状に配置されている。高感度撮像素子SHは、低感度撮像素子SLに比べ受光面積が大きい構成となっている。高感度撮像素子SHは、感色性(色弁別能)を有さず、被写体の輝度のみに応答するモノクロ素子により構成されている。低感度撮像素子SLは、B、G、Rのそれぞれの感色性(色弁別能)を有するカラー素子により構成されている。
【0094】
図3に、低感度撮像素子SLにおける被写体輝度と信号電荷量の関係DL及び高感度撮像素子SHにおける被写体輝度と信号電荷量の関係DHを示す。図3に示すように、一般的に、高感度撮像素子SHほど、より暗い(輝度の低い)被写体に対して応答することができるが、より明るい(輝度の高い)被写体に対してはダイナミックレンジが不足し、信号が飽和しやすい。一方、低感度撮像素子SLは、より明るい被写体に対しても信号が飽和し難く応答することができるが、より暗い被写体に対して感度が不足するとともに、ノイズの影響を受けやすい。そのため、CCD3は、低感度撮像素子SLと高感度撮像素子SHの2種類の撮像素子で構成し、ノイズの影響が少なく、ダイナミックレンジの広い画像を取得できるようになっている。よりダイナミックレンジを拡大するには、それぞれのダイナミックレンジの重なりを常に最小にすることが望ましい。
【0095】
アナログ処理回路4は、CCD3から入力された低感度撮像素子SL、高感度撮像素子SHからの撮像信号に対して、それぞれR、G、B信号の増幅やノイズの低減処理等を行ってA/D変換器5に出力する。このアナログ処理回路4における処理は、操作部14からの操作信号に応じ制御部11を介してON/OFFが切り替えられるようになっており、OFFに切り替えられた場合は、アナログ処理回路4は処理を省略し、入力された撮像信号をそのままA/D変換器5に出力する。
【0096】
A/D変換器5は、アナログ処理回路4から入力された低感度撮像素子SL、高感度撮像素子SHからの撮像信号をそれぞれデジタル画像データに変換し、一時記憶メモリ6に出力する。ここで、A/D変換器5を介して、低感度撮像素子SLから直接得られたデジタル画像データは低感度シーン参照生データd2であり、高感度撮像素子SHから直接得られたデジタル画像データは高感度シーン参照生データd3である。これらの低感度シーン参照生データd2及び高感度シーン参照生データd3は、アナログ処理回路4、後述する画像処理部7における処理が省略されたデジタル画像データである。
一時記憶メモリ6は、バッファメモリ等であり、A/D変換器5から出力されたデジタル画像データをそれぞれ一時的に格納する。
【0097】
画像処理部7は、一時記憶メモリ6に記憶された低感度撮像素子SLからのデジタル画像データと高感度撮像素子SHからのデジタルデジタル画像データに階調補正、分光感度のクロストーク補正、暗電流ノイズ抑制、鮮鋭化等の処理を施して合成し、ホワイトバランス調整、彩度調整等の画質向上処理の他、画像サイズの変更、トリミング、アスペクト変換等の処理を行う。この画像処理部7における処理は、操作部14からの操作信号に応じ制御部11を介してON/OFFが切り替えられるようになっている。
【0098】
ヘッダ情報処理部8は、一時記憶メモリ6に格納された低感度シーン参照生データd2、高感度シーン参照生データd3に対して、合成補助データ処理部13により生成された合成補助データd1をヘッダ情報として書き込み処理する。
【0099】
記憶デバイス9は、不揮発性の半導体メモリ等により構成されており、撮影されたデジタル画像データを記録するメモリカード等の記録メディアと、撮像装置21の制御プログラムが記憶された読み出し可能なメモリとにより構成されている。
【0100】
CCD駆動回路10は、制御部11から出力される制御信号をもとにタイミングパルスを出力し、CCD3の駆動制御を行う。
【0101】
制御部11は、CPU(Central Processing Unit)等により構成され、記憶デバイス9に記憶されている撮像装置21の制御プログラムを読み出して、読み出したプログラムに従って撮像装置21全体の制御を行う。具体的には、制御部11は、操作部14からの操作信号に応じて、レンズ1の焦点距離とフォーカス(ピント)を調節するモータ20の制御を行う自動焦点駆動回路19、焦点距離調整回路18、CCD駆動回路10、アナログ処理回路4、一時記憶メモリ6、画像処理部7、操作部14、表示部15、ストロボ駆動回路16及び合成補助データ処理部13の制御を行い、撮影を行う。
【0102】
制御部11は、操作部14によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Aを行い、シーン参照生データ生成手段として、撮影時におけるアナログ処理部4における信号増幅やノイズの低減処理や画像処理部7における処理を省略して低感度シーン参照生データd2、高感度シーン参照生データd3を生成し、記録制御手段として、記憶デバイス9の記録メディアに、低感度シーン参照生データd2、高感度シーン参照生データd3に合成補助データd1を添付して記録する。
【0103】
合成補助データ処理部13は、合成補助データ生成手段であり、撮像により生成された低感度シーン参照生データd2及び高感度シーン参照生データd3を識別する情報、撮像素子の分光感度特性を示す情報を含む合成補助データd1を生成し、ヘッダ情報処理部8に出力する。
【0104】
撮像により生成された低感度シーン参照生データd2及び高感度シーン参照生データd3を識別する情報とは、合成補助データd1と低感度シーン参照生データd2及び高感度シーン参照生データd3とを関連付けるための情報及び/又は各シーン参照生データのデータ領域を識別可能とするための情報である。例えば、前者は、低感度シーン参照生データd2及び高感度シーン参照生データd3に付加された画像ID等の識別番号等であり、後者は、画像データ中で各シーン参照生データのデータ領域を識別するために用いられている識別コード等である。
【0105】
撮像素子の分光感度特性を示す情報は、撮像素子の分光感度特性に基づく各色チャンネルの信号強度をscRGB、RIMM ROM、ERIMM ROMM等の標準化された色空間にマッピングすることが可能になる情報であり、例えば、撮像素子の分光感度特性情報そのものであってもよいし、撮像素子の分光感度特性に基づく各色チャンネルの信号強度をscRGB、RIMM ROM、ERIMM ROMM等の標準化された色空間に換算する時に使用すべきマトリックス係数等であってもよい。即ち、合成補助データd1は、少なくとも低感度シーン参照生データd2と高感度シーン参照生データd3を合成して、標準化された色空間を有する1枚の画像データ(シーン参照画像データd5)を生成する、合成標準化の際に必要となる情報が含まれる。
【0106】
また、合成補助データ処理部13は、操作部14から低感度シーン参照生データd2及び高感度シーン参照生データd3に施す後述する画像処理装置115等において行われる撮像素子特性処理等の画像処理の内容を指示する情報、例えば、階調変換処理、平滑化処理、鮮鋭化処理、ノイズ除去やモアレ除去等の周波数処理演算等、撮像素子特性補正のための各種画像処理の程度を調整するためのパラメータ等が入力された場合には、入力された内容を含む合成補助データd1を生成する。
【0107】
操作部14には、図示しないレリーズボタン、電源のON/OFFボタン、ズームボタン等の各種機能ボタン、カーソルキー等が設けられ、各ボタンやキーに対応する操作信号を入力信号として制御部11に出力する。また、操作部14は、表示部15の表示画面上を覆うタッチパネルを有し、手指やタッチペン等で押下された表示画面上の力点のXY座標を電圧値で検出し、検出された位置信号を操作信号として制御部11に出力する。
【0108】
図4に、低感度シーン参照生データd2及び高感度シーン参照生データd3に施す画像処理の内容を入力するための入力画面141の一例を示す。入力画面141は、図4に示すように、「平滑化レベル(なめらかさ)、鮮鋭化レベル(シャープネス)、階調変換レベル・・・」等の各種画像処理の処理レベルがタッチパネルにより入力できるようになっている。即ち、入力画面141は、指示入力手段である。例えば、ユーザがこの入力画面141で強めの平滑化レベルを入力した場合、高感度撮像素子由来の成分に、より多くの平滑化処理を施す指示を含む合成補助データd1が生成される。
【0109】
表示部15は、制御部11からの制御信号により、デジタル画像データを表示するとともに、撮像装置21の使用者が撮影に関する設定や条件を確認するための情報や設定や条件を入力するための表示画面を表示する。例えば、表示部15は、撮像により生成された低感度シーン参照生データd2及び高感度シーン参照生データd3に施す画像処理の内容をユーザが指示するための入力画面141を表示する。
【0110】
ストロボ駆動回路16は、制御部11からの制御信号により、被写体輝度が低い時にストロボ17を駆動制御して発光させる。
ストロボ17は、電池電圧を所定の高電圧に昇圧させ、電荷としてコンデンサに蓄える。そして、ストロボ駆動回路16により駆動されることにより、コンデンサに蓄えられた電荷によりX管を発光して、被写体に対して補助光を照射する。
【0111】
焦点距離調整回路18は、制御部11からの制御信号により、レンズ1を移動させて焦点距離を調整するためのモータ20の制御を行う。
自動焦点駆動回路19は、制御部11からの制御信号により、レンズ1を移動させてフォーカス(ピント)を調整するためのモータ20の制御を行う。
【0112】
<撮像装置21の動作>
次に、動作について説明する。
図5は、操作部14により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部11の制御により実行されるシーン参照生データ保存処理Aを示すフローチャートである。以下、図5を参照してシーン参照生データ保存処理Aについて説明する。
【0113】
操作部14のレリーズボタンが押下されると、撮影が行われる(ステップS1)。ここで、ステップ1における撮影には、オートブランケット機能による撮影も含まれる。CCD3の低感度撮像素子SL及び高感度撮像素子SHから得られた撮像信号は、それぞれA/D変換器5によりデジタル画像データに変換され、低感度シーン参照生データd2、高感度シーン参照生データd3が生成される(ステップS2)。また、合成補助データ処理部13により、低感度シーン参照生データd2及び高感度シーン参照生データd3を識別するための情報、撮像素子固有の分光感度特性を示す情報、また、操作部14から入力された画像処理の内容を指示する情報が入力された場合には、その指示情報を含む、合成補助データd1が生成される(ステップS3)。
【0114】
低感度シーン参照生データd2、高感度シーン参照生データd3及び合成補助データd1の生成後、低感度シーン参照生データd2及び高感度シーン参照生データd3からなるファイルが生成され、ヘッダ情報処理部8により、このファイルのヘッダに合成補助データd1がタグ情報として添付され(ステップS4)、添付済みのデータファイルが作成される(ステップS5)。この添付済みのデータファイルは、撮影装置21に着脱可能に構成された記憶デバイス9の記録メディアに記録、保存される(ステップS6)。
【0115】
図6は、ステップS6で記憶デバイス9の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図6に示すように、撮影されたデジタル画像データは、低感度シーン参照生データd2、高感度シーン参照生データd3として記録され、そのヘッダ領域に、合成補助データd1が記録されている。この記録メディアを撮像装置21から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、低感度シーン参照生データd2、高感度シーン参照生データd3及び合成補助データd1をこれらの外部装置に出力することができる。
【0116】
ここで、低感度シーン参照生データd2及び高感度シーン参照生データd3への合成補助データd1の「添付」とは、必ずしも合成補助データd1そのものを低感度シーン参照生データd2及び高感度シーン参照生データd3のファイルのヘッダとして記録メディアに記録する必要はなく、低感度シーン参照生データd2及び高感度シーン参照生データd3と合成補助データd1を関連付ける情報とともに記録メディアに記録されればよい。また、ここでは、記憶デバイス9の記録メディアにデータを記録することとしたが、撮像装置21に通信I/Fを設け、通信ケーブルやネットワーク等の通信手段を介してサーバ等の備えるメディアに記録するようにしてもよい。
【0117】
以上説明したように、図1に示した撮像装置21によれば、CCD3は、低感度撮像素子SL、高感度撮像素子SHという感度の異なる撮像素子を有し、それぞれの感度の異なる撮像素子毎の、被写体に忠実な情報を記録した撮像素子直接の生出力信号であるシーン参照生データを生成することにより、情報損失のない広ダイナミックレンジ画像の記録が可能となる。また、シーン参照生データからシーン参照画像データd5への撮像装置内による変換処理、即ち、階調変換・鮮鋭性強調・彩度強調のような画像鑑賞時の効果を向上する為に意図的にデータ内容を改変する画像処理や、撮像素子固有の分光感度に基づく各色チャンネルの信号強度を前述のscRGB、RIMM RGBやsRGB等の標準化された色空間にマッピングする処理等を省略したことにより、撮像装置の処理負荷や消費電力が低減され、処理(撮影)能力の向上や、バッテリー駆動時の処理(撮影)枚数の増加が可能となる。さらに、複数のシーン参照生データに対して合成補助データd1を添付することにより、外部の画像処理装置等において、この撮影装置21から取得された複数のシーン参照生データに撮像装置毎の固体差や撮像素子特性の補正処理、汎用的なフォーマットへの合成標準化処理を施して単一のシーン参照画像データd5を生成することを容易にすることが出来る。
【0118】
なお、撮像装置21において低感度撮像素子SLと高感度撮像素子SHにより生成されるシーン参照生データの階調数は、同一であってもよいが、高感度撮像素子SHは低感度撮像素子SLに撮像素子に比べより階調数が多いことが望ましい。また、撮像素子の被写体輝度に対する応答性能は図3に示すように直線的であることが望ましいが、感度の大きさ毎に異なっていてもよい。
【0119】
また、CCD3は、低感度と高感度の2種類の撮像素子を備える構成としたが、更に中間度の撮像素子を備える構成としてもよい。
【0120】
また、図7に示すように、CCD3を、CCD3a〜3cを有する3CCDにより構成し、レンズ1を通過した被写体光を分光器Pで青(B)、緑(G)、赤(R)の各色光に分光し、B信号をCCD3aが、G信号をCCD3bが、R信号をCCD3cがそれぞれ結像、受光するようにしてもよい。このとき、少なくとも1つのCCD、例えば輝度について最も寄与率の高いG信号を受光するCCD3bが、低感度撮像素子SL、高感度撮像素子SHにより構成されるようにする。これにより、精度が高く、色再現性のよいシーン参照生データを生成することができる。
【0121】
<撮像装置22の構成>
次に、デジタル画像データの出力先においてより一層好ましい画像を得るために、撮像装置21の構成に撮影情報データ処理部12を追加して構成される撮像装置22について説明する。図8に、撮像装置22の機能的構成を示すブロック図を示す。
【0122】
制御部11は、操作部14によりシーン参照生データの出力が指定されると、後述するシーン参照生データ保存処理Bを行い、シーン参照生データ生成手段として、撮影時におけるアナログ処理部4における信号増幅やノイズの低減処理や画像処理部7における処理を省略して低感度シーン参照生データd2、高感度シーン参照生データd3を生成し、記録制御手段として、記憶デバイス9の記録メディアに、低感度シーン参照生データd2、高感度シーン参照生データd3に合成補助データd1、撮影情報データd4を添付して記録する。
【0123】
撮影情報データ処理部12は、撮影情報データ生成手段であり、撮影情報データd4を生成する。撮影情報データd4は、例えばカメラ名称やコード番号など、カメラ種別(機種)に直接関係する情報、或いは露出時間、シャッタースピード、絞り値(Fナンバー)、ISO感度、輝度値、被写体距離範囲、光源、ストロボ発光の有無、被写体領域、ホワイトバランス、ズーム倍率、被写体構成、撮影シーンタイプ、ストロボ光源の反射光の量、撮影彩度などの撮影条件設定や、被写体の種類に関する情報等である。
【0124】
その他の撮像装置22の構成は撮像装置21と同様であるので、説明を省略する。
【0125】
<撮像装置22の動作>
図9は、図8に示す撮像装置22において、操作部14により、撮影されたデジタル画像データのシーン参照生データによる出力が設定され、レリーズスイッチが押下された際に、制御部11の制御により実行されるシーン参照生データ保存処理Bを示すフローチャートである。以下、図9を参照してシーン参照データ保存処理Bについて説明する。
【0126】
操作部14のレリーズボタンが押下されると、撮影が行われる(ステップS11)。CCD3の低感度撮像素子SL及び高感度撮像素子SHから得られた撮像信号は、A/D変換器5によりデジタル画像データに変換され、低感度シーン参照生データd2、高感度シーン参照生データd3が生成される(ステップS12)。また、合成補助データ処理部13により合成補助データd1が生成され(ステップS13)、撮影情報データ処理部12により撮影情報データd4が生成される(ステップS14)。
【0127】
低感度シーン参照生データd2、高感度シーン参照生データd3、合成補助データd1及び撮影情報データd4の生成後、低感度シーン参照生データd2及び高感度シーン参照生データd3からなるファイルが生成され、このファイルのヘッダに合成補助データd1及び撮影情報データd4がタグ情報として記録、添付され(ステップS15)、添付済みのデータファイルが作成され(ステップS16)、この添付済みのデータファイルが撮影装置22に着脱可能に構成された記憶デバイス9の記録メディアに記録、保存される(ステップS17)。
【0128】
図10は、ステップS17で記憶デバイス9の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。図10に示すように、撮影されたデジタル画像データは、低感度シーン参照生データd2及び高感度シーン参照生データd3として記録され、そのヘッダ領域に、合成補助データd1及び撮影情報データd4が記録されている。この記録メディアを撮像装置22から取り出して、画像処理装置や画像記録装置等の外部装置に装着することにより、低感度シーン参照生データd2、高感度シーン参照生データd3、合成補助データd1及び撮影情報データd4をこれらの外部装置に出力することができる。
【0129】
ここで、低感度シーン参照生データd2及び高感度シーン参照生データd3への合成補助データd1の「添付」とは、必ずしも合成補助データd1及び撮影情報データd4そのものを低感度シーン参照生データd2及び高感度シーン参照生データd3のヘッダ領域に記録する必要はなく、低感度シーン参照生データd2、高感度シーン参照生データd3と合成補助データd1、撮影情報データd4を関連付ける情報とともに記録メディアに記録されればよい。また、ここでは、記憶デバイス9の記録メディアにデータを記録することとしたが、撮像装置21に通信I/Fを設け、ネットワーク等の通信手段を介してサーバ等の備えるメディアに記録するようにしてもよい。
【0130】
以上説明したように、図8に示す撮像装置22によれば、図1に示す撮像装置21の効果に加え、更に、外部の出力装置において、撮影状況に応じた鑑賞画像参照データの生成が可能なデータを出力することができる。
【0131】
<画像処理装置115の構成>
次に、本発明の画像処理装置の実施形態について説明する。
まず、構成を説明する。
図11は本発明に係る画像処理装置115の機能的構成を示すブロック図である。図11に示すように、画像処理装置115は、入力部101、ヘッダ情報解析部102、合成補助データd1に基づいて低感度シーン参照生データd2と高感度シーン参照生データd3のそれぞれに撮像素子特性補正処理を施すとともに、低感度シーン参照生データd2と高感度シーン参照生データd3を合成して、合成標準化されたシーン参照画像データd5を生成する第一処理部113、第一処理部113により生成されたシーン参照画像データd5に最適化処理を施して鑑賞画像参照データd6を生成する第2処理部114により構成されている。第一処理部113と、第二処理部114にはヘッダ情報解析部102が夫々接続されており、さらに第二処理部114には、記憶デバイス110、出力デバイス111、表示デバイス112が夫々接続可能な状態となっている。以上の各構成要素はCPU等により構成される制御部116の統括的な制御下において動作する。
【0132】
入力部101は、記録メディア装着部(図示せず)を備えている。この装着部に、上述した撮像装置21、22により記録された広ダイナミックレンジ画像データのファイル(図6、図10参照)が記録された記録メディアが装着されると、入力部101は、入力手段として、記録されたデータファイルを読み出して、ヘッダ情報解析部102へ入力する。なお、本実施の形態においては、入力部101は、装着された記録メディアからデータを読み出して入力することとして説明するが、データ通信ケーブルや、無線又は有線の通信手段を備え、これらの通信手段を介してデータを入力するようにしてもよい。
【0133】
ヘッダ情報解析部102は、入力部101から入力されたデータを解析し、低感度シーン参照生データd2と、高感度シーン参照生データd3と、これらのシーン参照生データに添付された合成補助データd1と、撮影情報データd4とに分け、合成補助データd1を合成標準化処理部103aへ、シーン参照生データd2をシーン参照画像データ生成部104へ、撮影情報データd4を撮影情報データ処理部106へ出力する。
【0134】
第一処理部113は、図11に示すように、合成標準化処理部103a、処理条件テーブル103b、シーン参照画像データ生成部104及び一時記憶メモリ105を有して構成されている。
【0135】
合成標準化処理部103aは、ヘッダ情報解析部102から合成補助データd1が入力されると、この合成補助データd1及び処理条件テーブル103bにより、合成標準化されたシーン参照画像データd5の生成条件を決定する。処理条件テーブル103bは、撮像素子の特性毎に、シーン参照画像データd5を生成するための処理条件を対応付けて記憶するテーブルである。また、設定入力部109から低感度シーン参照生データd2と高感度シーン参照生データd3に施す画像処理の内容を指示する情報、例えば、階調変換処理、平滑化処理、鮮鋭化処理、ノイズ除去やモアレ除去等の周波数演算処理等、撮像素子特性補正のための各種画像処理の程度を調整するためのパラメータ等が入力された場合には、合成補助データd1、処理条件テーブル103b及び入力された内容に基づいてシーン参照画像データd5の生成条件を決定する。なお、設定入力部109により入力された画像処理の内容が合成補助データd1の内容と異なる場合には、設定入力部109からの指示入力に基づいて優先させる内容を決定する。
【0136】
シーン参照画像データ生成部104は、シーン参照画像データ生成手段として、ヘッダ情報解析部102から入力された低感度シーン参照生データd2及び高感度シーン参照生データd3に対して、合成標準化処理部103aにより決定された生成条件により撮像素子特性補正処理を施すとともに、低感度シーン参照生データd2と高感度シーン参照生データd3を合成して、撮像素子特性に依存しない、合成標準化されたシーン参照画像データd5を生成し、一時記憶メモリ105に出力する。
【0137】
具体的には、撮像素子特性補正処理には、少なくとも低感度シーン参照生データd2及び高感度シーン参照生データd3を生成した撮像素子の撮像素子固有の分光感度に基づく各色チャンネルの信号強度を、例えば前述のscRGB、RIMM RGBやERIMM RGBなどの標準色空間にマッピングする処理が含まれる。その他、階調変換処理、平滑化処理、鮮鋭化処理、ノイズ除去及びモアレ除去等の周波数処理演算等を施す。
【0138】
合成方法としては、同じ位置の画素毎に、低感度シーン参照生データd2と高感度シーン参照生データd3の信号値を比較し、何れか一方の信号値を選択する方法がある。例えば、低感度画素の信号値に閾値を設け、低感度画素の信号値が当該閾値を下回った場合に、高感度画素を選択する。また、低感度シーン参照生データd2の信号値と高感度シーン参照生データd3の信号値をブレンド(例えば低感度40%、高感度60%)したり、3*3画素領域で信号値を選択したり、ブレンドしたりすることにより合成する方法もある。
【0139】
また、本実施の形態においては、低感度撮像素子SLがカラー素子、高感度撮像素子SHがモノクロ素子であるので、同じ位置(或いは領域)の画素毎に低感度シーン参照生データd2と高感度シーン参照生データd3の輝度値を合成する。即ち、低感度シーン参照生データd2の各画素のRGB信号を輝度値Lと色成分a、bに変換し、輝度値のみを高感度シーン参照生データd3の輝度値Lと合成し、L´とする。そして、生成されたL´abをRGB´に変換する。
低感度RGB→Lab
低感度L+高感度L→L´
L´ab→RGB´
【0140】
シーン参照画像データ生成部104において、画素毎の、低感度と高感度の信号値の何れを選択したかの合成情報(高感度と低感度の信号値をブレンドして合成した場合には、その割合を示す情報、画素領域毎に信号値の選択やブレンドを行って合成した場合には画素領域毎の情報)は、一時記憶メモリ105に出力され、記録される。
【0141】
一時記憶メモリ105は、シーン参照画像データ生成部104により生成されたシーン参照画像データd5及び低感度と高感度の画素の合成情報を一時的に記録する。
【0142】
第二処理部114は、図11に示すように、撮影情報データ処理部106、鑑賞画像参照データ生成部107、一時記憶メモリ108を有して構成されている。
【0143】
撮影情報データ処理部106は、ヘッダ情報処理部102から入力された撮影情報データd4に基づいて、撮影条件に応じた鑑賞画像参照データd6を生成するための生成条件を決定する。
【0144】
鑑賞画像参照データ生成部107は、鑑賞画像参照データ生成手段として、一時記憶メモリ105からシーン参照画像データd5を読み出し、撮影情報データ処理部106で決定された鑑賞画像参照データd6の生成条件及び設定入力部109から入力された記憶デバイス110、出力デバイス111、表示デバイス112の種類に関する操作情報に基づき、出力先において最適な画像を得るための最適化処理を施して鑑賞画像参照データd6を生成し、操作情報とともに一時記憶メモリ108へ出力する。最適化処理には、例えば、出力先の色域への圧縮、16bitから8bitへの階調圧縮、出力画素数の低減、出力デバイスや表示デバイスの出力特性(LUT)への対応処理等が含まれる。更に、ノイズ抑制、鮮鋭化、カラーバランス調整、彩度調整、覆い焼き処理等の画像処理が含まれる。
【0145】
一時記憶メモリ108は、制御部116からの制御により鑑賞画像参照データ生成部107から入力された鑑賞画像参照データd6を設定入力部109からの操作情報に従い、記憶デバイス110、出力デバイス111、表示デバイス112の何れかに出力する。
【0146】
設定入力部109は、キーボードやLCD上に構成されたタッチパネル等のユーザインターフェースにより構成され、本画像処理装置115にて生成されたデジタル画像データを出力する記憶デバイス110、出力デバイス111、表示デバイス112の種類に関する情報が入力されると、この情報を鑑賞画像参照データ生成部107に出力する。また、設定入力部109は、指示入力手段として、図4に示すのと同様のユーザインターフェースから低感度シーン参照生データd2と高感度シーン参照生データd3に施す画像処理の内容を指示する情報、例えば、階調変換処理、平滑化処理、鮮鋭化処理、ノイズ除去やモアレ除去等の周波数演算処理等、各種画像処理の程度を調整するためのパラメータ等が入力できるようになっており、これらの情報が入力されると、この情報を合成標準化処理部103aに出力する。
【0147】
以上の、ヘッダ情報解析部102、合成標準化処理部103a、シーン参照画像データ生成部104、撮影情報データ処理部106、鑑賞画像参照データ生成部107という区分は、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0148】
<画像処理装置115の動作>
図12は、画像処理装置115の各部が連携することにより実行される画像データ生成処理を示すフロー図である。以下、図を参照して画像処理装置115の動作について説明する。
【0149】
図6又は図10に示したデータ構造の記録メディアが装着されると、入力部101により、記録メディアに記録されたデジタル画像データファイルが入力される(ステップ21)。入力されたデジタル画像データは、ヘッダ情報解析部102によりその内容が解析され(ステップS22)、低感度シーン参照生データd2及び高感度シーン参照生データd3(ステップS23)、合成補助データd1(ステップS24)、撮影情報データd4(ステップS25)に分けられ、低感度シーン参照生データd2、高感度シーン参照生データd3、合成補助データd1は第一処理部113へ、撮影情報データd4は第二処理部114へ出力される。
【0150】
合成補助データd1が第一処理部113へ入力されると、合成標準化処理部103aにより、合成補助データd1及び処理条件テーブル103bに基づいてシーン参照画像データd5を生成するための処理条件が決定される。設定入力部109から低感度シーン参照生データd2と高感度シーン参照生データd3に施す画像処理の内容を指示する情報が入力された場合は、合成補助データd1、処理条件テーブル103b及び入力された内容に基づいてシーン参照画像データd5の生成条件が決定される。シーン参照画像データ生成部104により、低感度シーン参照生データd2及び高感度シーン参照生データd3は、この処理条件に基づいて撮像素子特性補正処理が施され(ステップS26)、合成処理や各種画像処理が施されてシーン参照画像データd5が生成され、一時記憶メモリ109を介して第二処理部114に出力されるとともに、画素情報記録手段として、合成処理における低感度と高感度の画素の合成情報が生成されて一時記憶メモリ109に記録される(ステップS27)。
【0151】
撮影情報データd4が第二処理部114へ入力されると、撮影情報データ処理部106により撮影情報データd4に基づいて撮影条件に応じた鑑賞画像参照データを生成するための処理条件が決定される。第一処理部113から入力されたシーン参照画像データd5は、鑑賞画像参照データ生成部107により撮影情報データ処理部106で決定された処理条件及び設定入力部109から入力された情報に基づいて出力先に応じた最適化処理が施され(ステップS28)、鑑賞画像参照データd6が生成されて、設定入力部109により設定されたデバイスに出力される(ステップS29)。
【0152】
なお、設定入力部109は、シーン参照画像データd5の出力を設定する機能を備え、設定入力部109によりシーン参照画像データd5の出力が設定されると、制御部116の制御により、第二処理部114による最適化処理を省略し、データ添付手段として、第一処理部113により生成されたシーン参照画像データd5と、そのヘッダ領域に合成補助データd1及び撮影情報データd4を添付したものをデータファイルとして作成し、記憶デバイス110に出力するようにしてもよい。このとき、一時記憶メモリ105に記憶された低感度と高感度の画素の合成情報が合成補助データd1に追加され、記録される。これにより、シーン参照画像データに再度画像処理を施す場合に、高感度撮像素子SH由来の成分と低感度撮像素子SL由来の成分とを分離して、夫々異なる画像処理を施すことができる。
【0153】
図13は、図6で示したデータ構造のファイルが入力部101から入力された場合に、シーン参照画像データd5を生成して記憶デバイス110に出力する際の出力データ構造を示す図である。また、図14は、図10で示したデータ構造のファイルが入力部101から入力された場合に、シーン参照画像データd5を生成して記憶デバイス110に出力する際の出力データ構造を示す図である。これらの記憶デバイス110を表示デバイス、画像記録装置等の外部装置に装着することにより、シーン参照画像データd5、合成補助データd1(及び撮影情報データd4)を外部装置に出力することができ、外部装置にて、その装置に応じた最適化処理を行うことができる。なお、シーン参照画像データd5に添付するデータは、合成補助データd1と撮影情報データd4の双方が好ましいが、撮影情報データd4のみであっても、外部装置にて撮影条件に応じた好適な最適化処理を施すことができる。
【0154】
以上説明した様に、本発明の画像処理装置115によれば、上述した撮像装置21、22の出力する低感度シーン参照生データd2及び高感度シーン参照生データd3、即ち、ダイナミックレンジの広い撮像画像データから、合成標準化されたシーン参照画像データd5の生成及びこのシーン参照画像データd5に対して出力先に応じた最適化処理を施した鑑賞画像参照データd6の生成を行うので、撮像装置21、22で得られた広いダイナミックレンジの画像データを家庭や職場環境でのプリント出力用途に利用することが可能となる。また、ユーザが低感度シーン参照生データd2及び高感度シーン参照生データd3に施す画像処理の内容を指示することができる。
【0155】
<画像記録装置201の構成>
次に、本発明に係る画像記録装置の好ましい実施の形態について説明する。
図15は本発明に係る画像記録装置201の外観構成を示す斜視図である。この実施の形態における画像記録装置201は、表示デバイスであるCRTディスプレイモニタと、銀塩印画紙を出力メディアとして用いる出力デバイスとを備えた例である。
【0156】
画像記録装置201において、本体202の左側面にマガジン装填部203が設けられ、本体202内には出力メディアである銀塩印画紙に露光する露光処理部204と、露光された銀塩印画紙を現像処理して乾燥し、プリントを作成するプリント作成部205が備えられている。作成されたプリントは本体202の右側面に設けられたトレー206に排出される。さらに、本体202の内部には、露光処理部204の上方位置に制御部207が備えられている。
【0157】
また、本体202の上部には、CRT208が配置されている。このCRT208は、プリントを作成しようとする画像情報の画像を画面に表示する表示手段としての機能を有している。CRT208の左側に透過原稿読み込み装置であるところのフィルムスキャナ部209が配置され、右側に反射原稿入力装置210が配置されている。
【0158】
フィルムスキャナ部209や反射原稿入力装置210から読み込まれる原稿として写真感光材料がある。この写真感光材料としては、カラーネガフィルム、カラーリバーサルフィルム、白黒ネガフィルム、白黒リバーサルフィルム等が挙げられ、アナログカメラにより撮像した駒画像情報が記録される。フィルムスキャナ部209のフィルムスキャナは、この記録された駒画像情報をデジタル画像データに変換し、駒画像データとすることができる。又、写真感光材料が銀塩印画紙であるカラーペーパーの場合、反射原稿入力装置210のフラットベッドスキャナで駒画像データに変換することができる。
【0159】
本体202の制御部207の配置位置には、画像読込部214が設けられている。画像読込部214はPCカード用アダプタ214a、FD(フロッピー(登録商標)ディスク)用アダプタ214bを備え、PCカード213aやFD(フロッピー(登録商標)ディスク)213bが差し込み可能になっている。PCカード213aは、デジタルカメラで撮像して複数の駒画像データが記憶されたメモリを有する。FD213bは、例えばデジタルカメラで撮像された複数の駒画像データが記憶されている。
【0160】
CRT208の前方には、操作部211が配置され、この操作部211は情報入力手段212を備える。情報入力手段212は、例えばタッチパネル等で構成される。
【0161】
前記以外のこの発明に係る駒画像データを有する記録媒体としては、マルチメディアカード、メモリスティック、MDデータ、CD−ROM等が挙げられる。なお、操作部211、CRT208、フィルムスキャナ部209、反射原稿入力装置210、画像読込部214は、本体202に一体的に設けられて装置の構造となっているが、いずれか1つ以上を別体として設けてもよい。
【0162】
更に、本体202の制御部207の配置位置には、画像書込部215が設けられている。画像書込部215にはFD用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、FD216a、MO216b、光ディスク216cが差し込み可能になっており、画像情報を画像記録メディアに書き込むことができるようになっている。
【0163】
更に、制御部207は図示しない通信手段を備え、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータから直接、撮像画像を表す画像データとプリント命令を受信し、所謂ネットワーク画像記録装置として機能することが可能になっている。
【0164】
<画像記録装置201の内部構成>
次に、画像記録装置201の内部構成について説明する。
図16は画像記録装置201の内部構成を示すブロック図である。
【0165】
画像記録装置201の制御部207は、CPU(Central Processing Unit)、記憶部等により構成される。CPUは、記憶部に記憶されている各種制御プログラムを読み出し、該制御プログラムに従って、画像記録装置201を構成する各部の動作を集中制御する。
【0166】
また、制御部207は、画像処理部270を有し、操作部211の情報入力手段12からの入力信号に基づいて、フィルムスキャナ部209や反射原稿入力装置210により原稿画像の読み込みを行わせて取得した画像データ、画像読込部214から読み込まれた画像データ、及び通信手段(入力)240(図17に図示)を介して外部機器より入力された画像データに画像処理を施す。また、画像処理部270において、画像処理された画像データに対して出力形態に応じた変換処理を施して、プリントP1、P2、P3として、或いはCRT208、画像書込部215、通信手段(出力)241等により出力する。
【0167】
操作部211には、情報入力手段212が設けられている。情報入力手段212は、例えばタッチパネル等により構成されており、情報入力手段212の押下信号を入力信号として制御部207に出力する。また、操作部211は、キーボードやマウスを備えて構成するようにしてもよい。
【0168】
フィルムスキャナ部209は、アナログカメラにより撮像されたネガフィルムを現像して得られる現像済のネガフィルムNからの駒画像データを読み込み、反射原稿入力装置210からは駒画像を銀塩印画紙であるカラーペーパーに焼き付けて現像処理したプリントPからの駒画像データを読み込む。
【0169】
画像読込部214は、デジタルカメラにより撮像して記録されたPCカード213aやFD213bの駒画像データを読み出して転送する機能を有する。即ち、画像読込部214は、画像転送手段230としてPCカード用アダプタ、FD用アダプタ等を備え、PCカード用アダプタ214aに装着されたPCカード213aや、FD用アダプタ214bに装着されたFD213bに記録された駒画像データを読み取り、制御部207へ転送する。PCカード用アダプタ214aとしては、例えばPCカードリーダやPCカードスロット等が用いられる。
【0170】
データ蓄積手段271は、画像情報とそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかの情報、プリントサイズの情報等)とを記憶し順次蓄積する。
【0171】
テンプレート記憶手段272は、サンプル識別情報D1、D2、D3に対応してサンプル画像データ(背景画像やイラスト画像等を示すデータ)を記憶すると共に、該サンプル画像データとの合成領域を設定するテンプレートのデータを少なくとも1つ記憶する。ここで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりテンプレート記憶手段272に予め記憶された複数のテンプレートから所定のテンプレートが選択されると、制御部207は、駒画像情報と当該選択されたテンプレートとを合成し、次いで、オペレータの操作(このオペレータの操作は、クライアントの指示に基づく)によりサンプル識別情報D1、D2、D3が指定されると、当該指定されたサンプル識別情報D1、D2、D3に基づいてサンプル画像データを選択し、当該選択してサンプル画像データと、クライアントにより注文された画像データ及び/又は文字データとを合成して、結果としてクライアントが所望するサンプル画像データに基づくプリントを作成する。このテンプレートによる合成は、周知のクロマキー法によって行なわれる。
【0172】
なお、サンプル識別情報は、サンプル識別情報D1、D2、D3の3種類に限らず、3種類より多くても、また、少なくてもよい。
また、プリントのサンプルを指定するサンプル識別情報D1、D2、D3は、操作部211から入力される様に構成されているが、サンプル識別情報D1、D2、D3が、プリントのサンプル、又は注文シートに記録されているから、OCR等の読み取り手段により読み取ることができる。あるいはオペレータがキーボードから入力することもできる。
【0173】
このようにプリントのサンプルを指定するサンプル識別情報D1に対応してサンプル画像データを記録しておき、プリントのサンプルを指定するサンプル識別情報D1を入力し、この入力されるサンプル識別情報D1に基づきサンプル画像データを選択し、この選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、種々の実物大のサンプルをユーザが実際に手にしてプリントの注文ができ、幅広いユーザの多様な要求に応じることができる。
【0174】
また、第1のサンプルを指定する第1のサンプル識別情報D2と第1のサンプルの画像データを記憶し、又第2のサンプルを指定する第2のサンプル識別情報D3と第2のサンプルの画像データを記憶し、指定される第1及び第2のサンプル識別情報D2、D3とに基づいて選択されたサンプル画像データと、注文に基づく画像データ及び/又は文字データとを合成し、指定によるサンプルに基づくプリントを作成するため、さらに多種多様の画像を合成することができ、より一層幅広いユーザの多様な要求に応じたプリントを作成することができる。
【0175】
露光処理部204は、画像処理部270で画像データを画像処理して生成された出力用画像データに応じて感光材料に画像の露光を行い、この感光材料をプリント作成部205に送る。プリント作成部205は、露光された感光材料を現像処理して乾燥し、プリントP1、P2、P3を作成する。プリントP1はサービスサイズ、ハイビジョンサイズ、パノラマサイズ等であり、プリントP2はA4サイズ、プリントP3は名刺サイズのプリントである。
なお、プリントサイズは、プリントP1、P2、P3に限らず、他のサイズのプリントであってもよい。
【0176】
CRT208は、制御部207から入力される画像情報を表示する。
【0177】
画像書込部215は、画像搬送部231としてFD用アダプタ215a、MO用アダプタ215b、光ディスク用アダプタ215cが備えられ、FD216a、MO216b、光ディスク216cが差し込み可能になっており、画像データを画像記録メディアに書き込むことができるようになっている。
【0178】
更に、画像処理部270は、通信手段(入力)240(図17に図示)を用いて、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータから直接、撮像画像を表す画像データとプリント等の作業命令を受信し、遠隔操作で画像処理を実施したりプリントを作成したりすることも可能になっている。
【0179】
また、画像処理部270は、通信手段241(出力)(図17に図示)を用いて、本発明の画像処理を施した後の撮影画像を表す画像データと付帯するオーダー情報を、施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して送付することも可能になっている。
【0180】
このように画像記録装置201は、各種デジタルメディアの画像、及び画像原稿を分割測光して得られた画像情報を取り込む入力手段と、この入力手段から取り入れた入力画像の画像情報を「出力画像の大きさ」と「出力画像における主要被写体の大きさ」という情報を取得又は推定して出力メディア上で画像を観察する際に好ましい印象を与える画像となるように処理を行なう画像処理手段と、処理済の画像を表示、又はプリント出力、あるいは画像記録メディアに書き込む画像形成手段、及び通信回線を介して施設内の別のコンピュータやインターネット等を介した遠方のコンピュータに対して画像データと付帯するオーダー情報を送信する通信手段(出力)とを有する。
【0181】
<画像処理部270の構成>
図17は、本発明に係る画像処理部270の機能的構成を示すブロック図である。フィルムスキャナ部209から入力された画像データは、フィルムスキャンデータ処理部702において、フィルムスキャナ部固有の校正操作・ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、粒状ノイズ除去、鮮鋭化強調などが施され、画像調整処理部701に送られる。又、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えばAPSの記載情報内容)などが、併せて画像調整処理部701に出力される。
【0182】
反射原稿入力装置210から入力された画像データは、反射原稿スキャンデータ処理部703において、反射原稿入力装置固有の校正操作、ネガ原稿の場合のネガポジ反転、ゴミキズ除去、グレーバランス調整、コントラスト調整、ノイズ除去、鮮鋭化強調などが施され、画像調整処理部701に出力される。
【0183】
画像転送手段230及び通信手段(入力)240から入力された画像データは、画像データ書式解読処理部704において、そのデータのデータ書式に従い必要に応じて圧縮符号の復元・色データの表現方法の変換等を行い、画像処理部270内の演算に適したデータ形式に変換されて画像調整処理部701に出力される。また、画像データ書式解読処理部704は、本発明に係る撮像装置21、22による形式の画像データが、画像転送手段230及び通信手段(入力)240から入力されたか否かを判別し、入力された画像データをヘッダ情報解析部302に出力する。ヘッダ情報解析部302においては、入力された画像データから合成補助データd1及び撮影情報データd4が解析される。
【0184】
出力画像の大きさについての指定は操作部211から入力されるが、この他に通信手段(入力)240に送信された出力画像の大きさについての指定や、画像転送手段230により取得された画像データのヘッダ情報・タグ情報に埋め込まれた出力画像の大きさについての指定があった場合には、画像データ書式解読処理部704が該情報を検出し、画像調整処理部701へ転送する。
【0185】
ヘッダ情報解析部302により解析された合成補助データd1は、合成標準化処理部303aに出力され、この合成補助データd1及び処理条件テーブル303bに基づき、画像処理条件が決定される。指示入力手段としての操作部211から、例えば、図4に示したのと同様の入力画面から低感度シーン参照生データd2と高感度シーン参照生データd3に施す画像処理の内容を指示する情報が入力された場合は、合成補助データd1、処理条件テーブル303b及び入力された内容に基づいて画像処理条件が決定される。決定された画像処理条件は、シーン参照画像データ生成手段としてのシーン参照画像データ生成部304において、画像データに対し適用され、シーン参照画像データd5が生成される。
【0186】
ヘッダ情報解析部302により解析された撮影情報データd4は、撮影情報データ処理部306に出力され、鑑賞画像参照データd6の生成に関わる画像処理条件が決定される。
操作部211及び制御部207からの指令に基づき、画像調整処理部701は、出力先のデバイス及び出力メディアに適合された鑑賞画像参照データd6を作成するための画像処理条件を、鑑賞画像参照データ生成部307へと転送する。
【0187】
鑑賞画像参照データ生成部307は、鑑賞画像参照データ生成手段であり、撮影情報データ処理部306で作成された画像処理条件及び画像調整処理部701から送信された画像処理条件に基づき、シーン参照画像データd5から鑑賞画像参照データd6を生成する。
【0188】
画像調整処理部701では、テンプレート処理が必要な場合にはテンプレート記憶手段272から所定の画像データ(テンプレート)を呼び出す。テンプレート処理部705に画像データを転送し、テンプレートと合成しテンプレート処理後の画像データを再び受け取る。又、画像調整処理部701では、操作部211又は制御部207の指令に基づき、フィルムスキャナ部209、反射原稿入力装置210、画像転送手段230、通信手段(入力)240、テンプレート処理部705から受け取った画像データに対して、出力メディア上で画像を観察する際に好ましい印象を与える画像となるように画像処理を行って出力用のデジタル画像データを生成し、CRT固有処理部706、プリンタ固有処理部(1)707、画像データ書式作成処理部709、データ蓄積手段271へ送出する。
【0189】
CRT固有処理部706では、画像調整処理部701から受け取った画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を行い、制御情報等表示が必要な情報と合成した表示用の画像データを画像形成手段としてのCRT208に送出する。プリンタ固有処理部(1)707では、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等を行い、画像形成手段としての露光処理部251に画像データを送出する。本発明の画像記録装置201に、さらに、画像形成手段としての大判インクジェットプリンタなど、外部プリンタ装置251を接続する場合には、接続するプリンタ装置ごとにプリンタ固有処理部(2)708を設け、適正なプリンタ固有の校正処理、カラーマッチング、画素数変更等を行うようにする。
【0190】
画像データ書式作成処理部709においては、画像調整処理部701から受け取った画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を行い、画像搬送部231や通信手段(出力)241へ画像データを転送する。
【0191】
なお、鑑賞画像参照データ生成部307において作成される画像データは、上記CRT固有処理部706、プリンタ固有処理部(1)707、プリンタ固有処理部(2)708、画像データ書式作成処理部709における処理を前提としたものであり、画像データ書式作成処理部709においては、鑑賞画像参照データd6の書式に基づき、CRT用、露光出力部用、外部プリンタ用、通信手段(出力)用等、最適化した画像データであることを示すステータスファイルを添付した上で、個々に画像搬送部に送信され、保存することが可能である。
【0192】
以上の、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、画像調整処理701、CRT固有処理部706、プリンタ固有処理部(1)707、プリンタ固有処理部(2)708、画像データ書式作成処理部709、という区分は、画像処理部270の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、たとえば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0193】
また、ヘッダ情報解析部302、合成標準化処理部303a、撮影情報データ処理部306、シーン参照画像データ生成部304、鑑賞画像参照データ生成部307、という区分は、画像処理部270における本発明の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、たとえば単一のCPUにおけるソフトウエア処理の種類の区分として実現されてもよい。
【0194】
<画像処理部270の動作>
図18は、画像処理部270の各部が連携することにより実行される画像データ形成処理を示すフロー図である。以下、図を参照して画像処理部270各部の動作について説明する。
【0195】
画像転送手段230又は通信手段(入力)240から画像処理部270にデータが入力され(ステップS31)、画像データ書式解読処理部704により当該入力データが上述した撮像装置21又は22によるデジタル画像データファイルであると判別されると(ステップS32)、入力されたデジタル画像データファイルはヘッダ情報解析部302によりその内容が解析され(ステップS33)、低感度シーン参照生データd2及び高感度シーン参照生データd3(ステップS34)、合成補助データ(ステップS35)、撮影情報データd4(ステップS36)に分けられる。
【0196】
合成補助データd1は、合成標準化処理部303aに出力され、合成標準化処理部303aにより、合成補助データd1及び処理条件テーブル303bに基づいてシーン参照画像データd5を生成するための処理条件が決定される。操作部211から、低感度シーン参照生データd2と高感度シーン参照生データd3に施す画像処理の内容を指示する情報が入力された場合は、合成補助データd1、処理条件テーブル303b及び入力された内容に基づいて画像処理条件が決定される。低感度シーン参照生データd2及び高感度シーン参照画像データd3は、シーン参照画像データ生成部304に出力され、合成標準化処理部303aで決定された処理条件に基づいて撮像素子特性補正処理が施され(ステップS37)、合成されることによりシーン参照画像データd5が生成されて鑑賞画像データ生成部307に出力される(ステップS38)。
【0197】
撮影情報データd4は、撮影情報データ処理部306に出力され、撮影情報データ処理部306により撮影情報データd4に基づいて撮影条件に応じた鑑賞画像参照データd6を生成するための処理条件が決定される。また、操作部211及び制御部207からの指令に基づき、画像調整処理部701において、出力デバイス及び出力メディアに適合された鑑賞画像参照データd6を作成するための画像処理条件が決定される。シーン参照画像データ生成部304から入力されたシーン参照画像データd5は、鑑賞画像参照データ生成部307により撮影情報データ処理部306により決定された処理条件及び画像調整処理部701により決定された画像処理条件に基づいて最適化処理が施され(ステップS39)、鑑賞画像参照データd6が生成されて出力先に応じてCRT固有処理部706、プリンタ固有処理部707、プリンタ固有処理部708、画像データ書式作成処理部709の何れかの処理部に出力される(ステップS40)。鑑賞画像参照データd6は、出力された処理部において、出力先に応じた固有の処理が施され(ステップS41)、操作部211により指定された出力先から出力される(ステップS42)。
【0198】
以上説明した様に、本発明の画像記録装置201によれば、撮像装置21、22により記録された広ダイナミックレンジの画像データから、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データd6を生成し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等の出力媒体上に、迅速に鑑賞画像を形成することができる。
【0199】
【発明の効果】
本発明の撮像装置によれば、感度の異なる撮像素子の種類毎の、撮像素子特性に依存した、被写体に忠実な情報記録した撮像装置直接の生出力信号であるシーン参照生データを生成することにより、情報損失のない広ダイナミックレンジ画像の記録が可能となる。また、シーン参照生データのシーン参照画像データへの撮像装置内による変換処理を省略したことにより、撮像装置の処理負荷や消費電力が低減され、処理(撮影)能力の向上や、バッテリー駆動時の処理(撮影)枚数の増加が可能となる。さらに、生成されたシーン参照生データに合成補助データを添付することにより、複数のシーン参照生データから、撮像装置毎の固体差、撮像素子特性の補正処理を施して合成し、合成標準化された単一のシーン参照画像データの生成を容易にすることが出来る。
【0200】
本発明の画像処理装置によれば、本発明の撮像装置の出力する広ダイナミックレンジ画像データを容易に編集、加工し、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙等、公知のあらゆる「出力媒体」への出力用に、撮像画像情報の情報損失を伴うことなく最適化された鑑賞画像参照データを生成することができ、本発明の撮像装置の出力する広ダイナミックレンジ画像データを家庭や職場環境でのプリント出力用途に利用することが可能となる。
【0201】
本発明の画像記録装置によれば、本発明の撮像装置の出力する広ダイナミックレンジ画像データを容易に編集、加工することができ、CRT、液晶ディスプレイ、プラズマディスプレイ等の表示デバイス、及び銀塩印画紙、インクジェットペーパー、サーマルプリンタ用紙等のハードコピー画像生成用の用紙上に、撮像画像情報の情報損失を伴うことなく、出力先に応じて最適化された鑑賞画像を迅速に形成することが達成される。
【0202】
また、予想外であったが、本発明を適用したデジタルカメラからの取得画像データから、本発明の画像処理装置により銀塩プリントの作成を試みた結果、ハイライト側の飛びやシャドー側の潰れを著しく抑制出来、銀塩プリントの画質を大幅に向上しうることがわかった。
【0203】
さらに驚くべきことに、フィルムスキャナに本発明を適用し、本発明の画像処理装置により銀塩プリントの作成を試みた結果、ハイライト側の飛びやシャドー側の潰れ以外にも、フィルムに起因する粒状ノイズを効果的に抑制することに効果があることもわかった。
【図面の簡単な説明】
【図1】本発明に係る撮像装置21の機能的構成を示すブロック図である。
【図2】図1のCCD3における低感度撮像素子SLと高感度撮像素子SHの配置例を示す模式図である。
【図3】図1の低感度撮像素子SLにおける被写体輝度と信号電荷量の関係DL及び高感度撮像素子SHにおける被写体輝度と信号電荷量の関係DHを示すグラフである。
【図4】図1の表示部15に表示される入力画面141の一例を示す図である。
【図5】図1の制御部11により実行されるシーン参照生データ保存処理Aを示すフローチャートである。
【図6】図2のステップS6で記憶デバイス9の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。
【図7】図1のCCD3を、CCD3a〜3cを有する3CCDにより構成した例を示す図である。
【図8】本発明に係る撮像装置22の機能的構成を示すブロック図である。
【図9】図8の制御部11により実行されるシーン参照生データ保存処理Bを示すフローチャートである。
【図10】図9のステップS17で記憶デバイス9の記録メディアに記録されるデジタル画像データのデータ構造を示す図である。
【図11】本発明に係る画像処理装置115の機能的構成を示すブロック図である。
【図12】図11の画像処理装置115の各部が連携することにより実行される画像データ生成処理を示すフロー図である。
【図13】図11の画像処理装置115において、図6のデータ構造のファイルが入力部101から入力された場合に、シーン参照画像データd5を生成して記憶デバイス110に出力する際の出力データ構造を示す図である。
【図14】図11の画像処理装置115において、図10のデータ構造のファイルが入力部101から入力された場合に、シーン参照画像データd5を生成して記憶デバイス110に出力する際の出力データ構造を示す図である。
【図15】本発明に係る画像記録装置201の外観斜視図である。
【図16】図15の画像記録装置201の内部構成を示す図である。
【図17】図16の画像処理部270の機能的構成を示すブロック図である。
【図18】図17の画像記録装置201の各部が連携することにより実行される画像データ形成処理を示すフロー図である。
【符号の説明】
1 レンズ
2 絞り
3 CCD
4 アナログ処理回路
5 A/D変換器
6 一時記憶メモリ
7 画像処理部
8 ヘッダ情報処理部
9 記憶デバイス
10 CCD駆動回路
11 制御部
12 撮影情報データ処理部
13 合成補助データ処理部
14 操作部
15 表示部
16 ストロボ駆動回路
17 ストロボ
18 焦点距離調整回路
19 自動焦点駆動回路
20 モータ
21 撮像装置
22 撮像装置
101 入力部
102 ヘッダ情報解析部
103a 合成標準化処理部
103b 処理条件テーブル
104 シーン参照画像データ生成部
105 一時記憶メモリ
106 撮影情報データ処理部
107 鑑賞画像参照データ生成部
108 一時記憶メモリ
109 設定入力部
110 記憶デバイス
111 出力デバイス
112 表示デバイス
113 第一処理部
114 第二処理部
115 画像処理装置
201 画像記録装置
202 本体
203 マガジン装填部
204 露光処理部
205 プリント作成部
206 トレー
207 制御部
208 CRT
209 フィルムスキャナ部
210 反射原稿入力装置
211 操作部
212 情報入力手段
213a PCカード
213b FD
214 画像読込部
214a PCカード用アダプタ
214b FD用アダプタ
215 画像書込部
215a FD用アダプタ
215b MO用アダプタ
215c 光ディスク用アダプタ
216a FD
216b MO
216c 光ディスク
230 画像転送手段
231 画像搬送部
240 通信手段(入力)
241 通信手段(出力)
251 外部プリンタ
270 画像処理部
701 画像調整処理部
702 フィルムスキャンデータ処理部
703 反射原稿スキャンデータ処理部
704 画像データ書式解読処理部
705 テンプレート処理部
706 CRT固有処理部
707 プリンタ固有処理部1
708 プリンタ固有処理部2
709 画像データ書式作成処理部
302 ヘッダ情報解析部
303a 合成標準化処理部
303b 処理条件テーブル
304 シーン参照画像データ生成部
306 撮影情報データ処理部
307 鑑賞画像参照データ生成部
271 データ蓄積手段
272 テンプレート記憶手段
d1 合成補助データ
d2 低感度シーン参照生データ
d3 高感度シーン参照生データ
d4 撮影情報データ
d5 シーン参照画像データ
d6 鑑賞画像参照データ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device such as a digital camera that records captured image information of a wide dynamic range without loss of information by a general-purpose method, and a wide dynamic range image information obtained by the imaging device on an output medium. The present invention relates to an image processing apparatus and an image recording apparatus for performing an optimization process for forming a viewing image.
[0002]
[Prior art]
Today, digital image data captured by an imaging device is distributed via a storage device such as a CD-R (Compact Disc Recordable), a floppy (registered trademark) disk, a memory card, or the Internet, and a CRT (Cathode Ray Tube) or a liquid crystal. Display / printing, such as display on a display monitor such as a plasma monitor or a small LCD monitor of a mobile phone, or printing as a hard copy image using an output device such as a digital printer, an ink jet printer, or a thermal printer. Methods are becoming increasingly diverse.
[0003]
When digital image data is displayed and output for viewing purposes, gradation adjustment, brightness adjustment, color balance adjustment, and sharpness are performed so that desired image quality can be obtained on a display monitor used for viewing or on a hard copy. Generally, various image processes represented by gender emphasis are performed.
[0004]
Efforts have been made to increase the versatility of digital image data captured by an imaging device in response to such various display and print methods. As part of this, there is an attempt to standardize the color space represented by digital RGB (Red, Green, Blue) signals into a color space that does not depend on the characteristics of the imaging device. At present, many digital image data have been standardized as " sRGB ”(“ Multimedia Systems and Equipment-Color Measurement and Management and Part-Part 2-1: Refer to Color Management-Default RGB Color-1 Space R-G36-R1 G66-R1 Color-Color-Management-Management-Part 2-1. Are set corresponding to the color reproduction area of a standard CRT display monitor.
[0005]
2. Description of the Related Art In general, a digital camera is an imaging device having a photoelectric conversion function, which has a color sensitivity by combining a CCD (charge coupled device), a charge transfer mechanism, and a checkered color filter. A CCD type image pickup device, hereinafter simply referred to as a CCD). Digital image data output by a digital camera is subjected to correction of a photoelectric conversion function of an image sensor to an electric original signal converted through the CCD, so that the image can be read and displayed by image editing software. The file has been subjected to a file conversion / compression process into a data format of a predetermined format standardized as follows.
[0006]
Examples of the correction of the photoelectric conversion function of the image sensor include gradation correction, crosstalk correction of spectral sensitivity, dark current noise suppression, sharpening, white balance adjustment, and saturation adjustment. Further, as a standardized data format of a predetermined format, for example, “Baseline Tiff Rev. 6.0RGB Full Color Image”, which is adopted as an uncompressed file of an Exif (Exchangeable Image File Format) file, a JPEG format is used. Compressed data file formats are known.
[0007]
The Exif file conforms to sRGB, and the correction of the photoelectric conversion function of the image sensor is set to be the most suitable image quality on a display monitor conforming to sRGB.
[0008]
For example, tag information indicating that any digital camera is displayed in a standard color space (hereinafter, also referred to as a “monitor profile”) of a display monitor conforming to an sRGB signal, such as Exif format, As long as a function of writing additional information indicating model-dependent information such as the number, pixel arrangement, and the number of bits per pixel as metadata in a file header of digital image data and such a data format are adopted, digital Tag information is analyzed by image editing software (for example, Photoshop manufactured by Adobe) that displays image data on a display monitor, and it is possible to prompt a change of the monitor profile to sRGB or to perform an automatic change process. . Therefore, it is possible to reduce the difference in device characteristics between different displays, and to view digital image data captured by a digital camera in a suitable state on a display monitor.
[0009]
The additional information written in the file header of the digital image data includes, in addition to the above-described model-dependent information, information directly related to the camera type (model) such as a camera name and a code number, or an exposure time and a shutter speed. , Aperture value (F number), ISO sensitivity, brightness value, subject distance range, light source, presence or absence of strobe emission, subject area, white balance, zoom magnification, subject configuration, shooting scene type, amount of reflected light from strobe light source, shooting Tags (codes) indicating shooting condition settings such as saturation, information on the type of subject, and the like are used. The image editing software and the output device have a function of reading the additional information and making the image quality of the hard copy image more suitable.
[0010]
By the way, an image displayed on a display device such as a CRT display monitor or a hard copy image printed by various printing devices has a different color reproduction range depending on a configuration of a phosphor or a coloring material used. For example, the color reproduction area of a CRT display monitor corresponding to the sRGB standard color space has a wide area of bright green and blue, and there are areas that cannot be reproduced by hard copy such as a silver halide photographic print, an ink jet printer, and printing. There is an area which cannot be reproduced by a CRT display monitor corresponding to the sRGB standard color space in a cyan area or a yellow area of a silver halide photograph (for example, Corona "Fine Imaging and Digital Photography" (published by the Photographic Society of Japan) See page 444). On the other hand, there is a possibility that some of the subject scenes to be photographed have an area color that cannot be reproduced in any of these color reproduction areas.
[0011]
As described above, the color space (including sRGB) optimized on the premise of display / printing by a specific device has a limit on the recordable color gamut. Therefore, when recording information acquired by the imaging device, An adjustment for compressing and mapping to a recordable color gamut is required. The simplest mapping method is clipping, which maps chromaticity points outside the recordable color gamut onto the nearest gamut boundary, but this will collapse out-of-color gamut, The image becomes uncomfortable when watching. For this reason, currently, non-linear compression is generally employed in which chromaticity points in a region where the chroma is higher than an appropriate threshold value are smoothly compressed according to the size of the chroma. As a result, the chroma is compressed and recorded even at the chromaticity points inside the recordable color gamut. (Details of the color gamut mapping method are described in, for example, Corona Co., Ltd., "Fine Imaging and Digital Photography", Japan Photographic Society Publishing Committee, p. 447).
[0012]
In addition, images displayed on a display device such as a CRT display monitor, hard copy images printed by various printing devices, and a color space (including sRGB) optimized on the premise of display and printing by these devices are: The luminance range in which recording and reproduction can be performed is limited to about 100: 1 order. On the other hand, the subject scene to be photographed has a wide luminance range, and often reaches the order of several thousand to 1 outdoors (for example, the University of Tokyo Press, “New Color Science Handbook, 2nd Edition”, edited by the Japan Society of Color Science) 926). Therefore, when recording the information acquired by the imaging device, it is necessary to similarly compress the luminance. In this compression process, it is necessary to set appropriate conditions for each image in accordance with the dynamic range of the shooting scene and the luminance range of the main subject in the shooting scene.
[0013]
However, when the above-described compression operation of the color gamut and the luminance gamut is performed, gradation information before compression and information before clipping are lost at that time due to the principle of digital images recorded by discrete numerical values. It cannot be returned to its original state again. This greatly restricts the versatility of high-quality digital image data.
[0014]
For example, when an image recorded in the sRGB standard color space is printed by a printing device, it is necessary to perform mapping again based on the difference between the sRGB standard color space and the color gamut of the printing device. However, in an image recorded in the standard color space of sRGB, gradation information of a region once compressed at the time of recording is lost, so that information acquired by the imaging device is directly mapped to the color reproduction range of the printing device. Gradation smoothness is worse than that. Also, if the gradation compression condition during recording is inappropriate and there is a problem that the picture is whitish, the face is dark, the shadow is crushed, or the highlight area is overexposed, the image is improved by changing the gradation setting Even if it is attempted, since the gradation information before compression and the information of the crushed and overexposed portions have already been lost, only an extremely insufficient improvement is made as compared with the case where a new image is recreated from the information obtained by the imaging device. I can't.
[0015]
As a solution to such a problem, a technique of saving an image editing process as a backup and returning the image to a state before editing as necessary has been known for a long time. For example,
[0016]
The above-described problem is caused by compressing and recording information of a wide color gamut and a luminance gamut acquired by the imaging device into viewing image reference data optimized in consideration of a viewing image. On the other hand, if information of a wide color gamut and luminance range acquired by the imaging device is recorded as uncompressed scene reference image data, careless loss of information can be prevented. As a standard color space suitable for recording such scene reference image data, for example, “scRGB” (relative scene RGB color space), “RIMM RGB” (Reference Input Medium Metric RGB), and “ERIMM RGB” (Extended) Input Medium Metric RGB has been proposed (see Journal of Imaging Science and Technology 45, 418-426 (2001)).
[0017]
However, data represented in such a standard color space is not suitable for being directly displayed and viewed on a display monitor. 2. Description of the Related Art In general, a display monitor is built in or connected to a digital camera so that a user can confirm an angle of view before photographing or confirm photographed contents after photographing. When photographed digital image data is recorded as viewing image reference data such as sRGB, there is an advantage that the data can be directly displayed on a display monitor without conversion, but the photographed digital image data is stored in a scene monitor. When the data is recorded as reference image data, a process of re-converting the data as viewing image reference data to display the data is indispensable. Such double conversion processing in the camera increases the processing load and power consumption, lowers the continuous shooting performance, and limits the number of shots during battery shooting.
[0018]
On the other hand,
[0019]
Although a general digital camera has been described so far, it is needless to say that it is desirable that the imaging apparatus itself be further improved so as to obtain wider color gamut / luminance gamut information than conventional ones. Since the solid-state image sensor has a narrow dynamic range with respect to the incident intensity,
[0020]
Further, in
[0021]
[0022]
In addition, a method for selecting an output value of a low-sensitivity image sensor and a high-sensitivity image sensor according to an exposure area described in
[0023]
[Patent Document 1]
JP-A-7-57074
[Patent Document 2]
JP 2001-94778 A
[Patent Document 3]
JP-A-11-261933
[Patent Document 4]
Japanese Patent Publication No. 8-34558
[Patent Document 5]
JP 2000-125209 A
[Patent Document 6]
JP 2001-8104 A
[Patent Document 7]
JP 2003-18445 A
[Patent Document 8]
JP 2003-18479 A
[0024]
[Problems to be solved by the invention]
In a digital camera having an image pickup unit in which image pickup devices having different characteristics are highly integrated, scene reference image data (for example, “scRGB”, “RIMM RGB”) that does not compress information of a wide color gamut and luminance range acquired by the image pickup unit Or "ERIMM RGB"), it is possible to prevent loss of information. However, there is a problem that the processing load in the camera is further increased, there is a problem that the image quality varies due to characteristics inherent to the model of the imaging apparatus, or it is difficult to optimize the image quality for display and printing purposes, as with the RAW data. .
[0025]
An object of the present invention is to provide an imaging apparatus capable of recording captured image information of a wide dynamic range without information loss by a general-purpose and processing load-reduced method, and imaging of a wide dynamic range recorded by the imaging apparatus. An object of the present invention is to provide an image processing device and an image recording device that can easily edit and process image information.
[0026]
[Means for Solving the Problems]
In order to solve the above problems, the invention described in
In an imaging apparatus including at least two types of imaging elements having different sensitivities,
A scene reference raw data generating means for generating scene reference raw data for each type of the image sensor by imaging;
A synthesis assistant that generates synthesis auxiliary data, which is information necessary when generating scene standardized image reference data that is synthesized and standardized by performing image sensor characteristic correction processing on the scene reference raw data for each type of the image sensor and synthesizing them. Data generation means;
Recording control means for attaching the synthesis auxiliary data to scene reference raw data for each type of the image sensor, and further recording the data on a medium;
It is characterized by having.
[0027]
According to the imaging apparatus of the first aspect of the present invention, raw scene reference data for each type of image sensor having different sensitivity due to imaging is generated, and an image sensor characteristic correction process is performed on the raw scene reference data for each type of image sensor. By generating the composite reference data, which is information necessary for generating the standardized scene reference image data by performing the synthesis, and attaching the composite auxiliary data to the scene reference raw data for each type of the imaging device, and Record on media. Therefore, by generating the scene reference raw data depending on the image sensor characteristics for each type of image sensor having different sensitivities, it is possible to record a wide dynamic range image without information loss. Further, by omitting the conversion processing of the raw scene reference data into the scene reference image data in the imaging device, the processing load and power consumption of the imaging device are reduced, the processing (photographing) capability is improved, and the battery driving time is reduced. The number of processed (photographed) images can be increased. Furthermore, by attaching the synthesis auxiliary data to the generated scene reference raw data, the processing is performed by correcting the individual differences and the imaging device characteristics of each imaging device from a plurality of scene reference raw data, and the synthesis is standardized. Generation of single scene reference image data can be facilitated.
[0028]
Here, in the description of the present specification, “generation” means that a program and a processing circuit that operate in the imaging apparatus, the image processing apparatus, and the image recording apparatus according to the present invention newly generate image signals and data. It is. “Creation” may be used as a synonym.
[0029]
Further, the “imaging device” is a device provided with an imaging element (image sensor) having a photoelectric conversion function, and includes a so-called digital camera or scanner. Examples of the image pickup device include a CCD (charge coupled device), a charge transfer mechanism, and a checkerboard color filter, which are combined with a CCD type image pickup device or a CMOS type image pickup device. However, the present invention is characterized in that at least two types of image sensors having different sensitivities are used in combination. As an example of combining such image sensors having different sensitivities, Japanese Patent Application Laid-Open No. 2000-125209 discloses a low-sensitivity image sensor and a high-sensitivity image sensor in which the centers of the geometric shapes of the image sensors are aligned with each other (horizontal). 1) and / or a column (vertical) direction, a solid-state difference imaging device is described which is arranged in a honeycomb shape by being shifted by a half of the pitch indicating the interval of the light-receiving devices, that is, 1 / pitch. As shown in FIG. 2, in the image sensor of the present invention, it is desirable that a low-sensitivity image sensor and a high-sensitivity image sensor are arranged in a honeycomb shape. Output currents of these image sensors are digitized by an A / D converter. At this stage, the content of each color channel has a signal intensity based on the spectral sensitivity unique to the image sensor.
[0030]
The “scene-referred raw data” is a raw output signal directly recorded by the imaging apparatus in which information faithful to the subject is recorded. The data itself is digitized by the A / D converter, and the data itself has a fixed pattern noise, This means data on which noise correction such as dark current noise has been performed, and includes the above-described RAW data. The raw scene reference data is processed by image processing that modifies the data contents to improve the effects at the time of image appreciation such as gradation conversion, sharpness enhancement, and saturation enhancement, and for each color channel based on the spectral sensitivity unique to the image sensor. Is characterized by omitting the processing of mapping the signal strength of the above-mentioned signal into a standardized color space such as the aforementioned scRGB, RIMM RGB, and sRGB. The information amount (for example, the number of tones) of the scene reference raw data is preferably equal to or more than the information amount (for example, the number of tones) required for the viewing image reference data in accordance with the performance of the A / D converter. . For example, when the gradation number of the viewing image reference data is 8 bits per channel, the gradation number of the scene reference raw data is preferably 12 bits or more, more preferably 14 bits or more, and further preferably 16 bits or more.
[0031]
A first feature of the imaging apparatus of the present invention is that a wide dynamic range image can be obtained by generating the above-mentioned "scene-reference raw data" for each type of imaging element having a different sensitivity.
[0032]
Here, the “sensitivity” is an index indicating a response characteristic to the brightness (luminance) of the subject, and means that a higher sensitivity imaging device can respond to a darker subject. Generally, the sensitivity of an image sensor increases in proportion to the light receiving area of the image sensor. Further, the image sensor emits a weak noise signal (also called dark current noise or white noise) even when the light is completely blocked, and this noise signal is proportional to a gain value for adjusting the sensitivity gain of the image sensor. And increase. The intensity of the noise signal generated when the image sensor is blocked from light has a characteristic that is inversely proportional to the light receiving area. Therefore, when the image sensor is composed of two types of low-sensitivity and high-sensitivity image sensors, the high-sensitivity image sensor has a larger light receiving area or a larger number of units per unit area than the low-sensitivity image sensor. desirable. Further, it is desirable that the high-sensitivity imaging device is a monochrome device having no color sensitivity (color discrimination ability) and responding only to the luminance of the subject.
[0033]
"Dynamic range" is an index indicating response characteristics to a range of brightness (luminance) of a subject. An image sensor having a wider dynamic range can respond from a darker subject to a brighter subject. Means In general, the dynamic range of an image sensor depends on the material and structure of a light receiving section of the image sensor, and a device using a semiconductor such as a photodiode cannot provide a sufficient dynamic range. In addition, the higher the sensitivity of the imaging device, the higher the response to a darker subject. However, for a brighter subject, the dynamic range is insufficient and the signal is likely to be saturated. On the other hand, a low-sensitivity image sensor can respond to a brighter subject with less signal saturation, but lacks sensitivity for a darker subject. Therefore, in order to further configure the dynamic range with at least two types of image sensors, it is desirable to always minimize the overlap of the respective dynamic ranges.
[0034]
In the present invention, the quantization resolution of the scene reference raw data generated for each sensitivity of the image sensor (hereinafter, simply referred to as “gradation number”) may be the same, but the high-sensitivity image sensor has It is desirable that the number of gradations be larger than that of a low-sensitivity image sensor. The response characteristic of the image sensor with respect to the subject luminance is preferably linear as shown in FIG. 3, but may be different for each magnitude of sensitivity. Further, it is desirable that the low-sensitivity imaging device is composed of at least three types having different color sensitivity (color discrimination ability).
[0035]
Further, in the description of the present specification, “synthesized standardized scene reference image data” refers to a plurality of scene reference raw data generated for each sensitivity of the image sensor, at least an image sensor element correction process performed by an image sensor characteristic correction process described later. The signal intensity of each color channel based on its own spectral sensitivity is mapped to a standard color space such as the aforementioned scRGB, RIMM RGB, and ERIMM RGB, and the signal intensity is determined based on the brightness (luminance) of the main subject, the dynamic range, and the like. Image data obtained by performing synthesis processing to optimize within the range of the information capacity that can be held as image data, and improving image viewing effects such as gradation conversion, sharpness enhancement, and saturation enhancement Image data in which image processing for altering the data content is omitted. Further, the scene reference image data is used to correct the photoelectric conversion characteristics of the imaging apparatus (opto-electronic conversion function defined by ISO 1452, for example, see “Fine Imaging and Digital Photography” by Corona Co., Ltd., page 449 of the Japan Society of Photographic Society Press). It is preferable that this is performed. As a result of this processing, a single “synthesized standardized data” in which the difference in signal value between different “imaging devices” is corrected while retaining the amount of information divided and held by a plurality of “scene reference raw data”. Scene reference image data ".
[0036]
The information amount (for example, the number of tones) of the synthesized standardized scene reference image data is equivalent to the information amount (for example, the number of tones) required for the viewing image reference data described later according to the performance of the A / D converter. It is preferable that it is above. For example, when the gradation number of the viewing image reference data is 8 bits per channel, the gradation number of the scene reference image data is preferably 12 bits or more, more preferably 14 bits or more, and further preferably 16 bits or more.
[0037]
“Imaging element characteristic correction processing” means preprocessing necessary to convert “synthesized standardized scene reference image data” using raw scene reference data depending on the imaging element characteristics. The contents of the pre-processing include a process of mapping the signal intensity of each color channel based on at least the spectral sensitivity unique to the imaging device to the above-described standard color space such as scRGB, RIMM RGB, and ERIMM RGB. For example, in the case where the raw scene reference data depending on the image sensor characteristics has not been subjected to the interpolation processing based on the color filter array, it is necessary to additionally execute the processing. (Details of the interpolation processing based on the color filter array are described in, for example, Corona Co., Ltd. “Fine Imaging and Digital Photography” (published by The Photographic Society of Japan, page 51). Any processing such as smoothing processing, sharpening processing, or frequency processing calculation such as noise removal or moiré removal can be applied.
[0038]
The second feature of the image pickup apparatus of the present invention is that the “synthesis auxiliary data” is added to the “scene reference raw data” to thereby perform the “imaging element characteristic correction processing” and the “synthesis standardized scene reference image data”. Can be executed outside the imaging device.
[0039]
The “synthesis auxiliary data” refers to at least information for identifying a plurality of scene reference raw data generated for each sensitivity of the image sensor, and the signal intensity of each color channel based on the spectral sensitivity of the image sensor itself, as described above in scRGB, RIMMRGB. And information that can be mapped to a standard color space such as ERIMM RGB, that is, the spectral sensitivity characteristic of the image sensor or a matrix coefficient to be used when converting to a specific standard color space such as RIMM RGB. Need to be. For example, if only the model name of the imaging device is described, it can be said that the data is sufficient data because the image processing device that performs this processing may not have a correspondence table between the model name and the matrix coefficient. Absent. Further, for example, even if sufficient information is not directly described when performing this processing, if a URL indicating the location of the information on the Internet is described, it is not sufficient to perform this processing. Can be considered as data. These “synthesis auxiliary data” are preferably recorded as tag information to be written in a header section in the image file.
[0040]
If the “synthesis auxiliary data” is stored in the media independently of the “scene reference raw data”, any one of “synthesis auxiliary data” and “scene reference raw data” or both It is necessary to add information for associating the two or attach a status information file separately describing related information.
[0041]
The “media” is a storage medium used for storing “scene reference raw data” and “synthesis auxiliary data” output from the imaging device, and includes a compact flash (registered trademark), a memory stick, a smart media, a multimedia card, Any of a hard disk, a floppy (registered trademark) disk, a magnetic storage medium (MO), and a CD-R may be used. In addition, the unit for writing to the storage medium may be integrated with the image capturing device, or may be installed in a wired or wirelessly connected state via a code or the Internet. It may be any mode such as a unit performed. Further, when the imaging device and the writing unit for the storage medium are in a connected state, the image processing device or the image recording device has a function capable of reading “synthesis auxiliary data” and “necessary data” directly from the imaging device. It may be a mode having both. It is preferable that the file format at the time of “recording on a medium” is not a format unique to the imaging device, but is recorded in a standardized general-purpose file format such as TIFF, JPEG, and Exif.
[0042]
The image processing apparatus according to the second aspect of the present invention
Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
It is characterized by having.
[0043]
According to the second aspect of the present invention, synthesis standardization is performed based on scene reference raw data and synthesis auxiliary data that are input from an imaging device having a plurality of imaging devices having different sensitivities and depend on the imaging device characteristics of the imaging device. Generated scene reference image data. Therefore, the wide dynamic range image data output by the imaging device according to the first aspect can be used for print output in a home or work environment.
[0044]
Here, “input” according to
[0045]
An aspect in which the imaging device and the above-described writing unit for the storage medium are in a connected state, and the image processing device of the present invention has a function of directly reading “scene reference raw data” and “synthesis auxiliary data” directly from the imaging device. In this case, the image processing apparatus according to the present invention has a connection unit with the imaging device, and this connection unit corresponds to the input unit of the present invention. Also, portable "media" such as a memory card, a compact flash (registered trademark), a memory stick, a smart media, a multimedia card, a floppy (registered trademark) disk, a magneto-optical storage medium (MO), or a CD-R are used. If so, the image processing apparatus of the present invention has a corresponding reading means, and this reading means corresponds to the input means of the present invention. Further, when the writing unit is in an independent or remote location connected wirelessly via communication or the Internet, the image processing apparatus of the present invention has communication means for connecting to the communication or the Internet. This communication means corresponds to the input means of the present invention.
[0046]
The invention according to
In an imaging apparatus including at least two types of imaging elements having different sensitivities,
A scene reference raw data generating means for generating scene reference raw data for each type of the image sensor by imaging;
A synthesis assistant that generates synthesis auxiliary data, which is information necessary when generating scene standardized image reference data that is synthesized and standardized by performing image sensor characteristic correction processing on the scene reference raw data for each type of the image sensor and synthesizing them. Data generation means;
Photographing information data generating means for generating photographing information data which is a photographing condition setting at the time of photographing,
Recording control means for attaching the synthesis auxiliary data and the shooting information data to the scene reference raw data for each type of the imaging element, and further recording the data on a medium;
It is characterized by having.
[0047]
According to the imaging device of the third aspect of the present invention, raw scene reference data for each type of image sensor having different sensitivity due to imaging is generated, and image sensor characteristic correction processing is performed on the raw scene reference data for each type of image sensor. By generating and synthesizing the scene reference image data, which is information necessary for generating scene standardized scene reference image data, and photographing information data which is a photographing condition setting at the time of photographing, the photographing information data is generated for each type of image sensor. Attached to the scene reference raw data and further recorded on the media. Therefore, by generating the scene reference raw data depending on the image sensor characteristics for each type of image sensor having different sensitivities, it is possible to record a wide dynamic range image without information loss. In addition, by omitting the conversion processing to the scene reference image data in the imaging device, the processing load and power consumption of the imaging device are reduced, the processing (photographing) capability is improved, and the number of processes (photographing) when the battery is driven is performed. Can be increased. Also, by adding the synthesis auxiliary data to the generated scene reference raw data, the external image processing device or the image recording device can correct the individual differences and the image sensor characteristics of the plurality of scene reference raw data for each imaging device. And can be combined to facilitate the generation of a single scene standardized image reference image data, and by adding shooting information data, the generation of the "synthesized standardized scene reference image data" can be performed. It is possible to improve the accuracy or generate the viewing image reference data according to the shooting situation.
[0048]
“Shooting information data” in the description of the present application is a record of shooting condition settings at the time of shooting, and may include the same tag information written in the header section of the Exif file. Specifically, exposure time, shutter speed, aperture value (F number), ISO sensitivity, luminance value, subject distance range, light source, presence or absence of flash emission, subject area, white balance, zoom magnification, subject configuration, shooting scene type, The tag (code) indicates information related to the amount of reflected light from the strobe light source, the photographing saturation, the type of the subject, and the like.
[0049]
The “photographing information data” is a value obtained at the time of photographing of a sensor provided in a camera, data processed from the value of the sensor, or a value of the sensor for automating an exposure setting and a focus function of an imaging device. The camera is classified into the shooting conditions set based on the camera. In addition, a shooting mode dial (for example, portrait, sports, macro shooting mode, etc.) provided with the imaging device, and a setting switch for strobe forced emission are provided. And the like are manually set by the photographer.
[0050]
Note that the “shooting information data” may be stored independently in the medium, but it is particularly preferable that the “shooting information data” is recorded in the image file in the form of tag information written in the header portion. When the “shooting information data” is stored in the media independently of the “scene-referred raw data”, the “shooting information data”, “scene-referred raw data”, or both On the other hand, it is necessary to add information for associating the two or to attach a status information file separately describing related information.
[0051]
The image processing apparatus according to the fourth aspect of the present invention
Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data, and shooting information data, which is a shooting condition setting at the time of shooting,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, and synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
Data attaching means for attaching the input shooting information data to the generated scene reference image data,
It is characterized by having.
[0052]
According to the fourth aspect of the present invention, synthesis standardization is performed based on raw scene reference data and synthesis auxiliary data that are input from an imaging device having a plurality of imaging devices having different sensitivities and depend on the imaging device characteristics of the imaging device. The generated scene reference image data is generated, and the input photographing information data is attached to the generated scene reference image data. Therefore, the provision of the image processing device of the present invention makes it possible to use the wide dynamic range image data output by the imaging device according to
[0053]
The invention according to
Appearance image reference data generation means for performing image processing for optimizing the generated synthetic standardized scene reference image data for the formation of an appreciation image on an output medium to generate appreciation image reference data. It is characterized by:
[0054]
According to the fifth aspect of the present invention, in the second aspect of the present invention, the image processing for optimizing the generated synthesized standardized scene reference image data for forming an appreciation image on an output medium is performed. To generate the viewing image reference data. Therefore, it is possible to use a service that provides optimized viewing image reference data without loss of captured image information without going to a store.
[0055]
Here, in the description of the present specification, the “output medium” is a display device such as a CRT, a liquid crystal display, and a plasma display, and a paper for generating a hard copy image such as a silver halide printing paper, an inkjet paper, and a thermal printer paper. is there.
[0056]
"Appreciation image reference data" is used for a display device such as a CRT, a liquid crystal display, and a plasma display, or when the output device is a hard copy image on an output medium such as silver halide printing paper, inkjet paper, or thermal printer paper. Digital image data used for generation. On a display device such as a CRT, a liquid crystal, a plasma display, and the like, and on an output medium such as a silver halide printing paper, an ink jet paper, a thermal printer paper, etc., it is necessary that the “optimization processing” is performed so that an optimum image is obtained. This is different from “scene reference raw data”.
[0057]
The “optimization process” is a process for obtaining an optimum image on a display device such as a CRT, a liquid crystal display, and a plasma display, and on an output medium such as a silver halide printing paper, an inkjet paper, and a thermal printer paper. For example, if it is assumed that the image is displayed on a CRT display monitor compliant with the sRGB standard, the processing is performed so that the optimum color reproduction is obtained within the color gamut of the sRGB standard. Assuming output to silver halide photographic paper, processing is performed so as to obtain optimal color reproduction within the color gamut of silver halide photographic paper. In addition to the above-described color gamut compression, it also includes gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, processing corresponding to the output characteristics (LUT) of the output device, and the like. Further, it goes without saying that image processing such as noise suppression, sharpening, color balance adjustment, saturation adjustment, or dodging processing is performed.
[0058]
The invention according to
The generated, synthesized and standardized scene reference image data is subjected to image processing optimized for forming a viewing image on an output medium, the content of which has been determined based on the shooting information data, and a viewing image It is characterized by including a viewing image reference data generating means for generating reference data.
[0059]
According to the sixth aspect of the present invention, the generated synthesized standardized scene reference image data is optimized for the formation of a viewing image on an output medium, the content of which is determined based on the shooting information data. To generate the viewing image reference data. Therefore, it is possible to use a service that provides optimized viewing image reference data without loss of captured image information without going to a store.
[0060]
An example of optimization of the viewing image reference data using the “photographing information data” will be described below.
According to the “subject configuration” information in the shooting information data, for example, it is possible to partially apply the saturation emphasis processing, or to apply dodging processing to a scene having a wide dynamic range. With the “shooting scene type” information, for example, in night scene shooting, the degree of white balance adjustment can be reduced and the color balance can be specially adjusted. The distance between the photographer and the subject is estimated from the “amount of reflected light from the strobe light source” information, and can be reflected in, for example, image processing condition settings for suppressing skin whiteout. For example, in the case of portrait photography, by reducing the degree of sharpness and strengthening the smoothing process based on the “subject type” information, skin wrinkles can be made inconspicuous.
[0061]
Also, in order to supplement the above-mentioned “subject configuration”, “shooting scene type”, “amount of reflected light of the strobe light source”, and “subject type” information, “exposure time”, “shutter speed”, “aperture value ( F number), “ISO sensitivity”, “brightness value”, “subject distance range”, “light source”, “presence of strobe light emission”, “subject area”, “white balance”, “zoom magnification”, etc. , And can be used supplementarily. Further, the application amount of the noise suppression processing can be adjusted from the “ISO sensitivity” information, and the “light source” information can be used for readjustment of the white balance.
[0062]
The invention according to
Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
The generated, synthesized and standardized scene reference image data is subjected to image processing for optimizing for the formation of a viewing image on an output medium, and a viewing image reference data generating unit that generates viewing image reference data,
Image forming means for forming a viewing image on an output medium using the generated viewing image reference data,
It is characterized by having.
[0063]
The invention according to
Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data, and shooting information data, which is a shooting condition setting at the time of shooting,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
The generated, synthesized and standardized scene reference image data is subjected to image processing optimized for forming a viewing image on an output medium, the content of which has been determined based on the shooting information data, and a viewing image Viewing image reference data generation means for generating reference data,
Image forming means for forming a viewing image on an output medium using the generated viewing image reference data,
It is characterized by having.
[0064]
According to the invention described in
[0065]
According to the invention described in
[0066]
Here, the image recording apparatus of the present invention includes a color negative film, a color reversal film, a black-and-white negative film, a black-and-white negative film, in addition to a mechanism for performing the image processing of the present invention on digital image data obtained by the imaging apparatus of the present invention. A film scanner for inputting frame image information of a photographic photosensitive material recorded by an analog camera such as a reversal film or a flatbed scanner for inputting image information reproduced on color paper as silver halide photographic paper may be provided. Also obtained by a digital camera other than the imaging device of the present invention, such as a compact flash (registered trademark), a memory stick, a smart media, a multimedia card, a floppy (registered trademark) disk, a magneto-optical storage medium (MO), or a CD-R Means for reading digital image data stored in any known portable "media", or acquiring digital image data from a remote location via communication means such as a network, and displaying the image on a CRT, liquid crystal display, plasma display, etc. The apparatus may include a device and processing means for forming an appreciable image on any known "output medium" such as paper for generating a hard copy image such as silver halide printing paper, inkjet paper, or thermal printer paper.
[0067]
The invention according to
The imaging device includes two types of imaging devices, a high-sensitivity imaging device and a low-sensitivity imaging device,
The scene reference raw data generating means is characterized by generating high-sensitivity scene reference raw data from the high-sensitivity image sensor and low-sensitivity scene reference raw data from the low-sensitivity image sensor by imaging.
[0068]
The invention according to
The high-sensitivity scene reference raw data is a monochrome image in which only luminance information of a subject is recorded, and the low-sensitivity scene reference raw data is a color image.
[0069]
The invention according to claim 11 is the invention according to
The low-sensitivity image sensor and the high-sensitivity image sensor are arranged such that the centers of their geometric shapes are 互 い に of the pitch indicating the distance between the image sensors in the row (horizontal) direction and / or the column (vertical) direction. It is characterized in that it is arranged in a honeycomb shape by being shifted.
[0070]
According to the ninth to eleventh aspects, image data having a wide dynamic range can be obtained.
[0071]
According to a twelfth aspect of the present invention, in the first aspect of the present invention, there is provided an instruction for instructing and inputting a content of an image sensor characteristic correction process to be performed on the raw scene reference data. It is characterized by having input means.
[0072]
According to the twelfth aspect of the present invention, there is provided an instruction input means for inputting an instruction for the content of the image sensor characteristic correction processing to be performed on the scene reference raw data. Therefore, the user himself can select the contents of the image sensor characteristic correction processing to be applied to each of the scene reference raw data for each sensitivity and adjust individual parameters.
[0073]
The invention according to
The raw scene reference data is characterized by two types of raw high-sensitivity scene reference data generated by a high-sensitivity imaging device and low-sensitivity scene reference raw data generated by a low-sensitivity imaging device.
[0074]
The invention according to
The high-sensitivity scene reference raw data is a monochrome image in which only luminance information of a subject is recorded, and the low-sensitivity scene reference raw data is a color image.
[0075]
According to the inventions described in the thirteenth and fourteenth aspects, it is possible to use image data of a wide dynamic range obtained from an imaging device.
[0076]
The invention according to
The scene reference image data generating means is provided with an instruction input means for inputting an instruction for the content of an image sensor characteristic correction process to be performed on the scene reference raw data.
[0077]
According to the fifteenth aspect of the present invention, there is provided an instruction input means for inputting an instruction for the content of the image sensor characteristic correction processing to be performed on the scene reference raw data. Therefore, the user himself can select the contents of the image sensor characteristic correction processing to be applied to each of the scene reference raw data for each sensitivity and adjust individual parameters.
[0078]
The invention according to
The raw scene reference data is characterized by two types of raw high-sensitivity scene reference data generated by a high-sensitivity imaging device and low-sensitivity scene reference raw data generated by a low-sensitivity imaging device.
[0079]
The invention according to
The high-sensitivity scene reference raw data is a monochrome image in which only luminance information of a subject is recorded, and the low-sensitivity scene reference raw data is a color image.
[0080]
According to the inventions of
[0081]
The invention according to
The scene reference image data generating means is provided with an instruction input means for inputting an instruction for the content of an image sensor characteristic correction process to be performed on the scene reference raw data.
[0082]
According to the eighteenth aspect of the present invention, there is provided an instruction input means for inputting an instruction for the content of the image sensor characteristic correction processing to be performed on the raw scene reference data. Therefore, the user himself can select the contents of the image sensor characteristic correction processing to be applied to each of the scene reference raw data for each sensitivity and adjust individual parameters.
[0083]
The invention according to
The synthesis auxiliary data includes identification information of the scene reference raw data and information for specifying characteristics of the image sensor.
[0084]
The invention according to
The synthesis auxiliary data includes identification information of the scene reference raw data and information for specifying characteristics of the image sensor.
[0085]
The invention according to
The synthesis auxiliary data includes identification information of the scene reference raw data and information for specifying characteristics of the image sensor.
[0086]
According to the invention described in
[0087]
The invention according to
The scene reference image data generation means compares the information of the scene reference raw data for each type of the imaging element for each pixel at the same position, and synthesizes by selecting any one of the information to form one scene reference image. Generate data,
A pixel information recording means for recording information on which type of image sensor information is selected for each pixel is provided.
[0088]
The invention according to claim 23 is the invention according to
The pixel information recording means records information as to which type of image sensor information is selected for each pixel as synthesis auxiliary data.
[0089]
According to the invention as set forth in
[0090]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of an imaging device according to the present invention will be described with reference to the drawings.
<Configuration of
First, the configuration will be described.
[0091]
FIG. 1 is a block diagram showing a functional configuration of an
[0092]
The optical system of the
The
The
[0093]
Here, FIG. 2 shows an arrangement example of the low-sensitivity image sensor SL and the high-sensitivity image sensor SH in the
[0094]
FIG. 3 shows a relationship DL between the subject luminance and the signal charge amount in the low-sensitivity image sensor SL and a relationship DH between the subject luminance and the signal charge amount in the high-sensitivity image sensor SH. As shown in FIG. 3, in general, the higher the sensitivity of the image sensor SH, the faster the response to a darker (lower luminance) subject, but the higher the dynamic range for a brighter (higher luminance) subject. Is insufficient and the signal is easily saturated. On the other hand, the low-sensitivity image sensor SL can respond to a brighter subject with less signal saturation, but lacks sensitivity for a darker subject and is susceptible to noise. Therefore, the
[0095]
The
[0096]
The A /
The
[0097]
The
[0098]
The header
[0099]
The
[0100]
The
[0101]
The control unit 11 is configured by a CPU (Central Processing Unit) or the like, reads a control program of the
[0102]
When the output of the scene reference raw data is designated by the
[0103]
The synthesis auxiliary
[0104]
The information for identifying the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 generated by imaging associates the synthesis auxiliary data d1 with the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3. And / or information for enabling identification of the data area of each scene reference raw data. For example, the former is an identification number such as an image ID added to the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3, and the latter is a data area of each scene reference raw data in the image data. An identification code or the like used for identification.
[0105]
The information indicating the spectral sensitivity characteristic of the image sensor is information that enables the signal intensity of each color channel based on the spectral sensitivity characteristic of the image sensor to be mapped to a standardized color space such as scRGB, RIMM ROM, and ERIMM ROMM. For example, it may be the spectral sensitivity characteristic information of the image sensor itself, or when converting the signal intensity of each color channel based on the spectral sensitivity characteristic of the image sensor into a standardized color space such as scRGB, RIMM ROM, and ERIMM ROMM. It may be a matrix coefficient or the like to be used. That is, the combination auxiliary data d1 combines at least the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 to generate one piece of image data (scene reference image data d5) having a standardized color space. Information necessary for standardization of synthesis.
[0106]
In addition, the synthesis auxiliary
[0107]
The
[0108]
FIG. 4 shows an example of an
[0109]
The
[0110]
The
The
[0111]
The focal
The automatic
[0112]
<Operation of
Next, the operation will be described.
FIG. 5 shows a scene reference raw data storage process executed by the control of the control unit 11 when the output of the photographed digital image data by the scene reference raw data is set by the
[0113]
When the release button of the
[0114]
After generation of the low-sensitivity scene reference raw data d2, the high-sensitivity scene reference raw data d3, and the synthesis auxiliary data d1, a file including the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 is generated, and a header information processing unit As a result, the auxiliary data d1 is attached to the header of this file as tag information (step S4), and an attached data file is created (step S5). The attached data file is recorded and stored in the recording medium of the
[0115]
FIG. 6 is a diagram showing a data structure of digital image data recorded on the recording medium of the
[0116]
Here, “attaching” the synthetic auxiliary data d1 to the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 does not necessarily mean that the synthetic auxiliary data d1 itself refers to the low-sensitivity scene reference raw data d2 and the high-sensitivity scene. It is not necessary to record the raw data d3 on the recording medium as a header of the file, and it is sufficient if the raw data d3 is recorded on the recording medium together with information relating the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 to the synthesis auxiliary data d1. Although the data is recorded on the recording medium of the
[0117]
As described above, according to the
[0118]
Note that the number of tones of the raw scene reference data generated by the low-sensitivity image sensor SL and the high-sensitivity image sensor SH in the
[0119]
Further, the
[0120]
As shown in FIG. 7, the
[0121]
<Configuration of
Next, an
[0122]
When the output of the scene reference raw data is specified by the
[0123]
The photographing information
[0124]
The other configuration of the
[0125]
<Operation of
FIG. 9 shows an operation of the
[0126]
When the release button of the
[0127]
After generation of the low-sensitivity scene reference raw data d2, the high-sensitivity scene reference raw data d3, the synthesis auxiliary data d1, and the shooting information data d4, a file including the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 is generated. The combined auxiliary data d1 and the photographing information data d4 are recorded and attached as tag information to the header of this file (step S15), and an attached data file is created (step S16). The data is recorded and stored on the recording medium of the
[0128]
FIG. 10 is a diagram showing the data structure of digital image data recorded on the recording medium of the
[0129]
Here, the "attachment" of the composite auxiliary data d1 to the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 does not necessarily mean that the composite auxiliary data d1 and the shooting information data d4 themselves are the low-sensitivity scene reference raw data d2. It is not necessary to record in the header area of the high-sensitivity scene reference raw data d3. The low-sensitivity scene reference raw data d2, the high-sensitivity scene reference raw data d3, the synthesis auxiliary data d1, and the information for associating the shooting information data d4 with the recording medium. It only has to be recorded. Here, the data is recorded on the recording medium of the
[0130]
As described above, according to the
[0131]
<Configuration of
Next, an embodiment of the image processing apparatus of the present invention will be described.
First, the configuration will be described.
FIG. 11 is a block diagram showing a functional configuration of the
[0132]
The
[0133]
The header
[0134]
As shown in FIG. 11, the
[0135]
When the synthesis auxiliary data d1 is input from the header
[0136]
The scene reference image
[0137]
Specifically, in the image sensor characteristic correction processing, at least the signal intensity of each color channel based on the image sensor-specific spectral sensitivity of the image sensor that has generated the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3, For example, the processing includes mapping to a standard color space such as the aforementioned scRGB, RIMM RGB, and ERIMM RGB. In addition, frequency conversion calculations and the like such as gradation conversion processing, smoothing processing, sharpening processing, noise removal and moiré removal are performed.
[0138]
As a combination method, there is a method of comparing the signal values of the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 for each pixel at the same position, and selecting one of the signal values. For example, a threshold value is provided for the signal value of the low-sensitivity pixel, and when the signal value of the low-sensitivity pixel falls below the threshold value, the high-sensitivity pixel is selected. In addition, the signal value of the low-sensitivity scene reference raw data d2 and the signal value of the high-sensitivity scene reference raw data d3 are blended (for example,
[0139]
Further, in this embodiment, since the low-sensitivity image sensor SL is a color element and the high-sensitivity image sensor SH is a monochrome element, the low-sensitivity scene reference raw data d2 and the high-sensitivity image data are obtained for each pixel at the same position (or area). The luminance value of the scene reference raw data d3 is synthesized. That is, the RGB signal of each pixel of the low-sensitivity scene reference raw data d2 is converted into a luminance value L and color components a and b, and only the luminance value is combined with the luminance value L of the high-sensitivity scene reference raw data d3, and L ′ And Then, the generated L'ab is converted into RGB '.
Low sensitivity RGB → Lab
Low sensitivity L + High sensitivity L → L '
L'ab → RGB '
[0140]
In the scene reference image
[0141]
The
[0142]
As shown in FIG. 11, the
[0143]
The shooting information
[0144]
The viewing image reference
[0145]
The
[0146]
The setting
[0147]
The above-described divisions of the header
[0148]
<Operation of
FIG. 12 is a flowchart illustrating an image data generation process performed by the units of the
[0149]
When a recording medium having the data structure shown in FIG. 6 or FIG. 10 is mounted, a digital image data file recorded on the recording medium is input by the input unit 101 (step 21). The content of the input digital image data is analyzed by the header information analysis unit 102 (step S22), the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 (step S23), and the synthesis auxiliary data d1 (step S23). S24), divided into shooting information data d4 (step S25), the low-sensitivity scene reference raw data d2, the high-sensitivity scene reference raw data d3, and the synthesis auxiliary data d1 are sent to the
[0150]
When the synthesis auxiliary data d1 is input to the
[0151]
When the shooting information data d4 is input to the
[0152]
The setting
[0153]
FIG. 13 is a diagram illustrating an output data structure when the scene reference image data d5 is generated and output to the
[0154]
As described above, according to the
[0155]
<Configuration of
Next, a preferred embodiment of the image recording apparatus according to the present invention will be described.
FIG. 15 is a perspective view showing an external configuration of the
[0156]
In the
[0157]
In addition, a
[0158]
Documents read from the
[0159]
An
[0160]
An
[0161]
Other recording media having the frame image data according to the present invention include a multimedia card, a memory stick, MD data, a CD-ROM, and the like. The
[0162]
Further, an
[0163]
Further, the
[0164]
<Internal Configuration of
Next, the internal configuration of the
FIG. 16 is a block diagram showing the internal configuration of the
[0165]
The
[0166]
Further, the
[0167]
The
[0168]
The
[0169]
The
[0170]
The data storage means 271 stores and sequentially stores image information and order information corresponding thereto (information on how many prints are to be made from which frame image, print size information, etc.).
[0171]
The
[0172]
Note that the sample identification information is not limited to three types of sample identification information D1, D2, and D3, and may be more or less than three types.
Also, the sample identification information D1, D2, D3 designating the print sample is configured to be input from the
[0173]
As described above, the sample image data is recorded corresponding to the sample identification information D1 for specifying the print sample, the sample identification information D1 for specifying the print sample is input, and based on the input sample identification information D1. Various full-size samples are selected by the user to select the sample image data, combine the selected sample image data with the image data and / or character data based on the order, and create a print based on the designated sample. Can actually order a print by hand, and can respond to various requests from a wide range of users.
[0174]
Also, the first sample identification information D2 designating the first sample and the image data of the first sample are stored, and the second sample identification information D3 designating the second sample and the image of the second sample are stored. The data is stored, the sample image data selected based on the specified first and second sample identification information D2, D3, and the image data and / or character data based on the order are combined, and the sample according to the specification is synthesized. Therefore, a variety of images can be synthesized, and a print can be created that meets a wider range of users' various requirements.
[0175]
The
The print size is not limited to the prints P1, P2, and P3, and may be a print of another size.
[0176]
The
[0177]
The
[0178]
Further, the
[0179]
In addition, the
[0180]
As described above, the
[0181]
<Configuration of
FIG. 17 is a block diagram illustrating a functional configuration of the
[0182]
The image data input from the reflection
[0183]
The image data input from the image transfer means 230 and the communication means (input) 240 is subjected to image data format
[0184]
The designation of the size of the output image is input from the
[0185]
The synthesis auxiliary data d1 analyzed by the header
[0186]
The photographing information data d4 analyzed by the header
Based on commands from the
[0187]
The viewing image reference
[0188]
The image
[0189]
The CRT-
[0190]
The image data format
[0191]
The image data created in the viewing image reference
[0192]
The above-described film scan
[0193]
The classification of the header
[0194]
<Operation of
FIG. 18 is a flowchart illustrating an image data forming process executed by the units of the
[0195]
Data is input from the
[0196]
The synthesis auxiliary data d1 is output to the synthesis standardization processing unit 303a, and the synthesis standardization processing unit 303a determines processing conditions for generating the scene reference image data d5 based on the synthesis auxiliary data d1 and the processing condition table 303b. . When information indicating the content of image processing to be performed on the low-sensitivity scene reference raw data d2 and the high-sensitivity scene reference raw data d3 is input from the
[0197]
The photographing information data d4 is output to the photographing information
[0198]
As described above, according to the
[0199]
【The invention's effect】
According to the image pickup apparatus of the present invention, for each type of image pickup element having a different sensitivity, scene reference raw data that is a raw output signal directly from the image pickup apparatus that records information faithful to the subject and depends on the image pickup element characteristics is generated. Accordingly, it is possible to record a wide dynamic range image without information loss. Further, by omitting the conversion processing of the raw scene reference data into the scene reference image data in the imaging device, the processing load and power consumption of the imaging device are reduced, the processing (photographing) capability is improved, and the battery driving time is reduced. The number of processed (photographed) images can be increased. Furthermore, by attaching the synthesis auxiliary data to the generated scene reference raw data, the processing is performed by correcting the individual differences and the imaging device characteristics of each imaging device from a plurality of scene reference raw data, and the synthesis is standardized. Generation of single scene reference image data can be facilitated.
[0200]
According to the image processing apparatus of the present invention, wide dynamic range image data output from the imaging apparatus of the present invention is easily edited and processed, and display devices such as CRTs, liquid crystal displays, and plasma displays, silver halide photographic paper, and inkjet paper Generating optimized image reference data without loss of captured image information for output to any known “output medium”, such as paper for generating a hard copy image such as thermal printer paper, etc. Thus, the wide dynamic range image data output by the imaging device of the present invention can be used for print output in a home or work environment.
[0201]
According to the image recording apparatus of the present invention, wide dynamic range image data output by the imaging apparatus of the present invention can be easily edited and processed, and display devices such as CRTs, liquid crystal displays, and plasma displays, and silver halide printing Achieved the rapid formation of a viewing image optimized for the output destination without loss of captured image information on paper such as paper, inkjet paper, thermal printer paper, etc. for hard copy image generation Is done.
[0202]
In addition, although unexpected, as a result of trying to create a silver halide print from the image data obtained from the digital camera to which the present invention is applied by the image processing apparatus of the present invention, the highlight side jumps and the shadow side collapses. Was significantly suppressed, and it was found that the image quality of the silver halide print could be greatly improved.
[0203]
Even more surprisingly, as a result of applying the present invention to a film scanner, and attempting to create a silver halide print using the image processing apparatus of the present invention, it was found that, besides skipping on the highlight side and crushing on the shadow side, it was caused by the film. It was also found that it was effective to effectively suppress the granular noise.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a functional configuration of an
FIG. 2 is a schematic diagram showing an example of the arrangement of a low-sensitivity image sensor SL and a high-sensitivity image sensor SH in the
3 is a graph showing a relationship DL between a subject luminance and a signal charge amount in the low-sensitivity image sensor SL of FIG. 1 and a relationship DH between a subject luminance and a signal charge amount in the high-sensitivity image sensor SH.
FIG. 4 is a diagram showing an example of an
FIG. 5 is a flowchart showing a scene reference raw data storage process A executed by the control unit 11 of FIG. 1;
FIG. 6 is a diagram showing a data structure of digital image data recorded on a recording medium of a
FIG. 7 is a diagram showing an example in which the
FIG. 8 is a block diagram showing a functional configuration of an
9 is a flowchart showing a scene reference raw data storage process B executed by the control unit 11 of FIG. 8;
10 is a diagram showing a data structure of digital image data recorded on a recording medium of a
FIG. 11 is a block diagram showing a functional configuration of an
FIG. 12 is a flowchart showing an image data generation process executed by the units of the
13 is output data for generating and outputting the scene reference image data d5 to the
14 is a diagram illustrating output data when generating and outputting to the
FIG. 15 is an external perspective view of an
FIG. 16 is a diagram showing an internal configuration of the
17 is a block diagram illustrating a functional configuration of an
18 is a flowchart showing an image data forming process executed by the units of the
[Explanation of symbols]
1 lens
2 Aperture
3 CCD
4 Analog processing circuit
5 A / D converter
6. Temporary storage memory
7 Image processing unit
8 Header information processing section
9 Storage device
10 CCD drive circuit
11 Control part
12 shooting information data processing unit
13 Compositing auxiliary data processing unit
14 Operation unit
15 Display
16 Strobe drive circuit
17 Strobe
18 Focal length adjustment circuit
19 Auto focus drive circuit
20 motor
21 Imaging device
22 Imaging device
101 Input unit
102 Header information analysis unit
103a synthesis standardization processing unit
103b Processing condition table
104 Scene Reference Image Data Generation Unit
105 Temporary storage memory
106 shooting information data processing unit
107 Appreciation image reference data generation unit
108 Temporary storage memory
109 Setting input section
110 storage device
111 output device
112 Display device
113 First Processing Unit
114 Second processing unit
115 Image processing device
201 Image recording device
202 body
203 Magazine loading section
204 Exposure processing section
205 Print creation unit
206 trays
207 control unit
208 CRT
209 Film scanner unit
210 Reflective Document Input Device
211 Operation unit
212 Information input means
213a PC card
213b FD
214 Image reading unit
214a Adapter for PC card
214b FD Adapter
215 Image writing unit
215a FD Adapter
215b MO Adapter
215c Optical Disk Adapter
216a FD
216b MO
216c optical disk
230 Image transfer means
231 Image transport unit
240 communication means (input)
241 Communication means (output)
251 External printer
270 Image processing unit
701 Image adjustment processing unit
702 Film scan data processing unit
703 Reflected original scan data processing unit
704 Image data format decryption processing unit
705 Template processing unit
706 CRT specific processing unit
707 Printer-
708 Printer-
709 Image data format creation processing unit
302 Header information analysis unit
303a synthesis standardization processing unit
303b Processing condition table
304 Scene reference image data generation unit
306 shooting information data processing unit
307 Appreciation image reference data generation unit
271 Data storage means
272 template storage means
d1 Synthesis auxiliary data
d2 Raw data with low sensitivity scene reference
d3 High sensitivity scene reference raw data
d4 Shooting information data
d5 Scene reference image data
d6 Appreciation image reference data
Claims (23)
撮像により前記撮像素子の種類毎のシーン参照生データを生成するシーン参照生データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データを生成する合成補助データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに前記合成補助データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。In an imaging apparatus including at least two types of imaging elements having different sensitivities,
A scene reference raw data generating means for generating scene reference raw data for each type of the image sensor by imaging;
A synthesis assistant that generates synthesis auxiliary data, which is information necessary when generating scene standardized image reference data that is synthesized and standardized by performing image sensor characteristic correction processing on the scene reference raw data for each type of the image sensor and synthesizing them. Data generation means;
Recording control means for attaching the synthesis auxiliary data to scene reference raw data for each type of the image sensor, and further recording the data on a medium;
An imaging device comprising:
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
を備えたことを特徴とする画像処理装置。Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
An image processing apparatus comprising:
撮像により前記撮像素子の種類毎のシーン参照生データを生成するシーン参照生データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに撮像素子特性補正処理を施して合成することにより合成標準化されたシーン参照画像データを生成する際に必要な情報である合成補助データを生成する合成補助データ生成手段と、
撮影時の撮影条件設定である撮影情報データを生成する撮影情報データ生成手段と、
前記撮像素子の種類毎のシーン参照生データに、前記合成補助データ及び前記撮影情報データを添付し、さらにメディアに記録する記録制御手段と、
を備えたことを特徴とする撮像装置。In an imaging apparatus including at least two types of imaging elements having different sensitivities,
A scene reference raw data generating means for generating scene reference raw data for each type of the image sensor by imaging;
A synthesis assistant that generates synthesis auxiliary data, which is information necessary when generating scene standardized image reference data that is synthesized and standardized by performing image sensor characteristic correction processing on the scene reference raw data for each type of the image sensor and synthesizing them. Data generation means;
Photographing information data generating means for generating photographing information data which is a photographing condition setting at the time of photographing,
Recording control means for attaching the synthesis auxiliary data and the shooting information data to the scene reference raw data for each type of the imaging element, and further recording the data on a medium;
An imaging device comprising:
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、前記撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記入力された撮影情報データを、前記生成されたシーン参照画像データに添付するデータ添付手段と、
を備えたことを特徴とする画像処理装置。Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data, and shooting information data, which is a shooting condition setting at the time of shooting,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, and synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
Data attaching means for attaching the input shooting information data to the generated scene reference image data,
An image processing apparatus comprising:
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記生成された、合成標準化されたシーン参照画像データに、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
前記生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えたことを特徴とする画像記録装置。Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
The generated, synthesized and standardized scene reference image data is subjected to image processing for optimizing for the formation of a viewing image on an output medium, and a viewing image reference data generating unit that generates viewing image reference data,
Image forming means for forming a viewing image on an output medium using the generated viewing image reference data,
An image recording apparatus comprising:
前記入力された合成補助データに基づいて、前記各シーン参照生データに対して撮像素子特性補正処理を施し、該撮像素子特性補正処理の施された少なくとも2つのシーン参照生データを合成して、合成標準化されたシーン参照画像データを生成するシーン参照画像データ生成手段と、
前記生成された、合成標準化されたシーン参照画像データに、前記撮影情報データに基づいて内容が決定された、出力媒体上での鑑賞画像形成のために最適化する画像処理を施して、鑑賞画像参照データを生成する鑑賞画像参照データ生成手段と、
前記生成された鑑賞画像参照データを用いて出力媒体上に鑑賞画像を形成する画像形成手段と、
を備えたことを特徴とする画像記録装置。Combining by performing image sensor characteristic correction processing on the scene reference raw data for each type of image sensor generated by the imaging apparatus having at least two types of image sensors having different sensitivities, and synthesizing them. Input means for inputting synthesis auxiliary data, which is information necessary when generating standardized scene reference image data, and shooting information data, which is a shooting condition setting at the time of shooting,
Based on the input synthesis auxiliary data, perform an image sensor characteristic correction process on each of the scene reference raw data, synthesize at least two scene reference raw data subjected to the image sensor characteristic correction process, Scene reference image data generating means for generating synthetic standardized scene reference image data,
The generated, synthesized and standardized scene reference image data is subjected to image processing optimized for forming a viewing image on an output medium, the content of which has been determined based on the shooting information data, and a viewing image Viewing image reference data generation means for generating reference data,
Image forming means for forming a viewing image on an output medium using the generated viewing image reference data,
An image recording apparatus comprising:
前記シーン参照生データ生成手段は、撮像により前記高感度撮像素子から高感度シーン参照生データを、前記低感度撮像素子から低感度シーン参照生データを生成することを特徴とする請求項1又は3に記載の撮像装置。The imaging device includes two types of imaging devices, a high-sensitivity imaging device and a low-sensitivity imaging device,
The raw scene reference data generating means generates high-sensitivity scene reference raw data from the high-sensitivity image sensor and low-sensitivity scene reference raw data from the low-sensitivity image sensor by imaging. An imaging device according to item 1.
前記画素毎に何れの種類の撮像素子の情報が選択されたかの情報を記録する画素情報記録手段を備えたことを特徴とする請求項2、4、5、6、13〜15、20の何れか一項に記載の画像処理装置。The scene reference image data generation means compares the information of the scene reference raw data for each type of the imaging element for each pixel at the same position, and synthesizes by selecting any one of the information to form one scene reference image. Generate data,
21. A device according to claim 2, further comprising pixel information recording means for recording information of which type of image sensor information is selected for each pixel. The image processing device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003122639A JP2004328530A (en) | 2003-04-25 | 2003-04-25 | Imaging apparatus, image processing apparatus, and image recording apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003122639A JP2004328530A (en) | 2003-04-25 | 2003-04-25 | Imaging apparatus, image processing apparatus, and image recording apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004328530A true JP2004328530A (en) | 2004-11-18 |
Family
ID=33500795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003122639A Pending JP2004328530A (en) | 2003-04-25 | 2003-04-25 | Imaging apparatus, image processing apparatus, and image recording apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004328530A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007129533A1 (en) * | 2006-05-09 | 2007-11-15 | Sharp Kabushiki Kaisha | Imaging device |
JP2010512719A (en) * | 2006-12-12 | 2010-04-22 | ドルビー ラボラトリーズ ライセンシング コーポレイション | High dynamic range camera with multiple sensors and image generation method |
JP2012120025A (en) * | 2010-12-02 | 2012-06-21 | Canon Inc | Image processor |
JP2014147096A (en) * | 2014-03-24 | 2014-08-14 | Canon Inc | Imaging apparatus |
US9264685B2 (en) | 2009-06-30 | 2016-02-16 | Canon Kabushiki Kaisha | Image capture apparatus |
-
2003
- 2003-04-25 JP JP2003122639A patent/JP2004328530A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007129533A1 (en) * | 2006-05-09 | 2007-11-15 | Sharp Kabushiki Kaisha | Imaging device |
JP2010512719A (en) * | 2006-12-12 | 2010-04-22 | ドルビー ラボラトリーズ ライセンシング コーポレイション | High dynamic range camera with multiple sensors and image generation method |
US8513588B2 (en) | 2006-12-12 | 2013-08-20 | Dolby Laboratories Licensing Corporation | Electronic camera having multiple sensors for capturing high dynamic range images and related methods |
JP2017118551A (en) * | 2006-12-12 | 2017-06-29 | ドルビー ラボラトリーズ ライセンシング コーポレイション | High dynamic range camera having multiple sensors |
US10033940B2 (en) | 2006-12-12 | 2018-07-24 | Dolby Laboratories Licensing Corporation | Electronic camera having multiple sensors for capturing high dynamic range images and related methods |
US9264685B2 (en) | 2009-06-30 | 2016-02-16 | Canon Kabushiki Kaisha | Image capture apparatus |
JP2012120025A (en) * | 2010-12-02 | 2012-06-21 | Canon Inc | Image processor |
JP2014147096A (en) * | 2014-03-24 | 2014-08-14 | Canon Inc | Imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4131192B2 (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP2004173010A (en) | Image pickup device, image processor, image recorder, image processing method, program and recording medium | |
US20040247175A1 (en) | Image processing method, image capturing apparatus, image processing apparatus and image recording apparatus | |
JPWO2005079056A1 (en) | Image processing apparatus, photographing apparatus, image processing system, image processing method and program | |
JP2004128809A (en) | Method and apparatus for image processing, and imaging device | |
JP2004096500A (en) | Image pickup apparatus, image processing apparatus, and image recording apparatus | |
US20040041920A1 (en) | Image forming method, image processing apparatus, and image recording apparatus | |
WO2003036960A1 (en) | Control of image output using image processing control data | |
US7324702B2 (en) | Image processing method, image processing apparatus, image recording apparatus, program, and recording medium | |
JP2006203566A (en) | Imaging apparatus, image processing apparatus and image processing method | |
JP2004088345A (en) | Image forming method, image processor, print preparation device, and storage medium | |
JP2004336521A (en) | Image processing method, image processor, and image recording apparatus | |
JP2004328530A (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
US7609425B2 (en) | Image data processing apparatus, method, storage medium and program | |
JP2004096508A (en) | Image processing method, image processing apparatus, image recording apparatus, program, and recording medium | |
JP2004328534A (en) | Image forming method, image processing apparatus and image recording apparatus | |
WO2006077703A1 (en) | Imaging device, image processing device, and image recording device | |
JP2006203571A (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP4623024B2 (en) | Electronic camera | |
JP2002300405A (en) | Method for compressing image | |
JP4292873B2 (en) | Image processing method, image processing apparatus, and image recording apparatus | |
JP2003134457A (en) | Electronic camera | |
JP2004328132A (en) | Image pickup device, image processing device and image processing program | |
JP2006222612A (en) | Raw data output device, raw data structure, and raw data output method | |
JP2006203565A (en) | Apparatus and method for processing image, and image recording apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040830 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060421 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081111 |