JP2007184888A - 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2007184888A
JP2007184888A JP2006062445A JP2006062445A JP2007184888A JP 2007184888 A JP2007184888 A JP 2007184888A JP 2006062445 A JP2006062445 A JP 2006062445A JP 2006062445 A JP2006062445 A JP 2006062445A JP 2007184888 A JP2007184888 A JP 2007184888A
Authority
JP
Japan
Prior art keywords
index
image
calculating
processing
gradation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006062445A
Other languages
English (en)
Inventor
Daisuke Sato
大輔 佐藤
Jo Nakajima
丈 中嶋
Hiroaki Takano
博明 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2006062445A priority Critical patent/JP2007184888A/ja
Publication of JP2007184888A publication Critical patent/JP2007184888A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像データからより高精度に撮影シーンを判別することによって、主要被写体のオーバー、アンダー露光、順光、逆光シーンなどに応じた、より適切な補正処理を達成し、より適切な補正画像を得ることができる撮像装置、画像処理装置、画像処理方法、及び画像処理プログラムを提供する。
【解決手段】撮影時に算出される輝度情報を、画像のシーン判別のための指標算出に利用することにより、また判別されたシーンに応じて、階調変換処理の階調調整パラメータ算出に利用することにより、画像データからより高精度に撮影シーンを判別することができ、また主要被写体のオーバー、アンダー露光、順光、逆光シーンなどのシーン判別結果に応じた、より適切な補正処理を達成することができる。
【選択図】図13

Description

本発明は、撮影画像の画像処理を行う撮像装置、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年デジタルスチルカメラ(携帯電話やラップトップパソコン等の機器に組み込まれたものも含み、以下DSCと略称する)が広く普及し、従来のカラー写真フィルムのシステムと同様に、ハードコピー画像として出力したり、CRT等の媒体に表示したり、CD−R(CD−Recordable)等の記録媒体に記録するシステムが広く利用されている。
しかし、DSCなどで撮影された画像を、上記のように種々の媒体を通じて画像として鑑賞するに当たっては、撮影時の露出調整の不備等により、一般的にそのままでは鑑賞用画像として適切な画像を得ることはできない場合が多い。つまり、適正な鑑賞用の画像とするためには、撮影時の露出の過不足を補うために、適当な画像の階調補正処理が行われることが望ましい。
またそれ以外にも、例えば、逆光状態での撮影や、フラッシュを使用した近接撮影など、撮影時の光源状態の影響で、画像内で大きな輝度の偏りが生じている場合には、そのままでは鑑賞目的として適切な画像とはいえず、何らかの補正処理を行うことが望ましい。
このような問題点を解決するために、従来より階調変換処理などの補正処理が行われている。例えば、アンダーやオーバーの露光に対して、平均輝度を補正する変換処理に加えて、画像中に輝度の偏りの大きい大領域が生ずる場合には、判別分析や重回帰分析により補正値を算出して変換処理するなどの方法が行われたりしている。
しかしながら、こういった判別回帰分析方法では、例えば、フラッシュ近接撮影と、逆光シーンでの撮影とで算出される補正値が類似しているなど、撮影シーンを適切に判別した上での補正処理を行うことが困難な場合があった。
上記のような補正方法に代わる方法として、画像中の輝度値の分布を用いて適切な補正値を求める方法が提案されている(例えば、特許文献1参照)。また画像中の顔領域候補を抽出し、その平均輝度の偏りの大きさからシーン判別する方法が提案されている(例えば、特許文献2参照)。
特許文献1では、画像中の輝度の累積画素数(頻度数)を示すヒストグラムから、高輝度領域と低輝度領域を削除し、さらに頻度数を制限して、輝度平均を算出し、基準輝度との差分値から補正値を求めている。
また、特許文献2では、色相彩度のヒストグラムやパターンマッチングなどによる顔領域の候補を抽出し、その平均輝度の画像全体に対する偏りを算出し、偏りが大きい場合には、一次元の濃度ヒストグラムに基づき、逆光シーンと近接フラッシュ撮影とを判別している。
特開2002−247393号公報 特開2000−148980号公報
特許文献1に記載の技術は、逆光シーンや近接フラッシュ撮影での輝度の偏りの大きい領域の影響は低減されるが、例えば人物を主要被写体とする撮影シーンなどでは、顔領域の輝度が十分に適切な値には補正しきれないなどという問題がある。
また特許文献2に記載の技術では、典型的な逆光シーンや近接フラッシュ撮影では顔領域の特定を補償する効果を達成できるが、典型的な構図に当てはまらないと、補償効果が得られなくなるという問題がある。
本発明の目的は、上記の課題を解決し、画像データからより高精度に撮影シーンを判別することにより、主要被写体のオーバー、アンダー露光、順光、逆光シーンなどに応じて、より適切な補正処理を達成し、より適切な補正画像を得ることができる撮像装置、画像処理装置、画像処理方法、及び画像処理プログラムを提供することである。
本発明は上記の課題を解決するために、以下の特徴を有するものである。
1. 撮影により取得された第1の画像から画像サイズを縮小した第2の画像を取得する第2の画像取得手段と、前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得手段と、前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理手段と、前記シーン判別処理手段によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定手段と、を有し、前記シーン判別処理手段はさらに、前記輝度情報取得手段により取得された輝度情報に基づいてシーンの判別処理を行い、前記階調処理条件設定手段はさらに、前記輝度情報取得手段により取得された輝度情報に基づいて階調処理条件の設定を行う、ことを特徴とする撮像装置。
2. 前記シーン判別処理手段は、前記第2の画像の画像データについて色情報を取得し、取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出手段と、前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出手段と、前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出手段と、前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出手段と、前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出手段と、少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出手段と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出手段と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出手段と、前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別手段と、を有する、ことを特徴とする1に記載の撮像装置。
3. 前記階調処理条件設定手段は、前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出手段を有し、前記シーン判別処理手段によるシーン判別結果と前記階調調整パラメータ算出手段により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、ことを特徴とする1または2に記載の撮像装置。
4. 前記階調処理条件設定手段により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を有する、ことを特徴とする1乃至3の何れか1項に記載の撮像装置。
5. 撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得手段と、前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得手段と、前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理手段と、前記シーン判別処理手段によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定手段と、を有し、前記シーン判別処理手段はさらに、前記輝度情報取得手段により取得された輝度情報に基づいてシーンの判別処理を行い、前記階調処理条件設定手段はさらに、前記輝度情報取得手段により取得された輝度情報に基づいて階調処理条件の設定を行う、ことを特徴とする画像処理装置。
6. 前記シーン判別処理手段は、前記第2の画像の画像データについて色情報を取得し、取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出手段と、前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出手段と、前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出手段と、前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出手段と、前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出手段と、少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出手段と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出手段と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出手段と、前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別手段と、を有する、ことを特徴とする5に記載の画像処理装置。
7. 前記階調処理条件設定手段は、前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出手段を有し、前記シーン判別処理手段によるシーン判別結果と前記階調調整パラメータ算出手段により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、ことを特徴とする5または6に記載の画像処理装置。
8 前記階調処理条件設定手段により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を有する、ことを特徴とする5乃至7の何れか1項に記載の画像処理装置。
9. 撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得工程と、前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得工程と、前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理工程と、前記シーン判別処理工程によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定工程と、を備え、前記シーン判別処理工程ではさらに、前記輝度情報取得工程で取得された輝度情報に基づいてシーンの判別処理を行い、前記階調処理条件設定工程ではさらに、前記輝度情報取得工程で取得された輝度情報に基づいて階調処理条件の設定を行う、ことを特徴とする画像処理方法。
10. 前記シーン判別処理工程は、前記第2の画像の画像データについて色情報を取得し、取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出工程と、前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出工程と、前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出工程と、前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出工程と、前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出工程と、少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出工程と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出工程と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出工程と、前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別工程と、を備える、ことを特徴とする9に記載の画像処理方法。
11. 前記階調処理条件設定工程は、前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出工程を備え、前記シーン判別処理工程におけるシーン判別結果と前記階調調整パラメータ算出工程において算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、ことを特徴とする9または10に記載の画像処理方法。
12. 前記階調処理条件設定工程において設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を備える、ことを特徴とする9乃至11の何れか1項に記載の画像処理方法。
13. コンピュータに画像処理を実行させるための画像処理プログラムであって、撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得機能と、前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得機能と、前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理機能と、前記シーン判別処理機能によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定機能と、を有し、前記シーン判別処理機能はさらに、前記輝度情報取得機能により取得された輝度情報に基づいてシーンの判別処理を行い、前記階調処理条件設定機能はさらに、前記輝度情報取得機能により取得された輝度情報に基づいて階調処理条件の設定を行う、ことを特徴とする画像処理プログラム。
14. 前記シーン判別処理機能は、前記第2の画像の画像データについて色情報を取得し、取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出機能と、取得された前記色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出機能と、前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出機能と、前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出機能と、前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出機能と、少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出機能と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出機能と、前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出機能と、前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別機能と、を有する、ことを特徴とする13に記載の画像処理プログラム。
15. 前記階調処理条件設定機能は、前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出機能を有し、前記シーン判別処理機能によるシーン判別結果と前記階調調整パラメータ算出機能により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、ことを特徴とする13または14に記載の画像処理プログラム。
16. 前記階調処理条件設定機能により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理機能を有する、ことを特徴とする13乃至15の何れか1項に記載の画像処理プログラム。
本発明によれば、撮影時に算出される輝度情報を、画像のシーン判別のための指標算出に利用することにより、また判別されたシーンに応じて、階調変換処理の階調調整パラメータ算出に利用することにより、画像データからより高精度に撮影シーンを判別することができ、また主要被写体のオーバー、アンダー露光、順光、逆光シーンなどのシーン判別結果に応じて、より適切な補正処理を達成し、より適切な補正画像を得ることのできる撮像装置、画像処理装置、画像処理方法、及び画像処理プログラムが提供できる。
以下、図面を参照して、本発明の実施形態を説明する。
(第1の実施形態)
まず、本発明に係る第1の実施形態(撮像装置)における構成について説明する。
(撮像装置1の構成)
図1(a)に、本発明の実施形態に係る撮像装置1の前面図を示し、図1(b)に、撮像装置1の背面図を示す。撮像装置1は、例えば、デジタルカメラであり、金属または合成樹脂等の材料で構成された筐体21の内部または表面に、十字キー22、撮影光学系23、フラッシュ24、ファインダ25、電源スイッチ26、表示部27、レリーズボタン28が設けられている。
図2に、撮像装置1の内部構成を示す。撮像装置1は、図2に示すように、プロセッサ31、メモリ32、CCD(Charge Coupled Device)等の撮像素子33、撮影光学系23、タイミングジェネレータ41、シャッタユニット42、絞りユニット43、フォーカスユニット44、表示部27、操作部38、画像データ出力部37により構成される。またプロセッサ31には、撮影制御や撮影画像の処理を行う撮影処理部20と画像処理を行う画像処理部10がある。
十字キー22は、上下左右の4方向のボタンからなり、ユーザが種々のモードを選択または設定するためのものである。
撮影光学系23は、複数のレンズ、鏡胴等によって構成され、ズーム機能を有している。撮影光学系23は、レンズが受光した光を撮像素子33に結像させる。フラッシュ24は、被写体輝度が低い時に、プロセッサ31からの制御信号により補助光を照射する。
ファインダ25は、ユーザが接眼して撮影対象及び撮影領域を確認するためのものである。電源スイッチ26は、撮像装置1における動作のON/OFFを操作するためのスイッチである。
表示部27は、液晶パネルにより構成され、プロセッサ31から入力される表示制御信号に従って、撮像素子33に現在写っている画像、過去に撮影した画像、メニュー画面、設定画面等を表示する。
レリーズボタン28は、筐体21の上面に設けられており、ユーザによる半押し状態(予備撮影)と全押し状態(本撮影)とを区別して検出可能な2段階押し込みスイッチである。
メモリ32は、撮影によって得られた画像データを記憶(保存)する。また、メモリ32は、撮像装置1において実行される各種処理プログラム及び当該処理プログラムで利用されるデータ等を記憶する。
画像データ出力部37は、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)等)にメモリ32内の画像データを転送、記録する、あるいは外部装置へ転送する。画像データ出力部37はプロセッサ31により制御される。
撮像素子33は、結像された光を電荷に変換する。これにより、例えば、図12(a)に示すような画像データが得られる。この画像には、撮像範囲(撮影範囲)にある物、すなわち、撮影対象物(撮影の目標物)とそれ以外の物(背景)とが含まれている。この全体画像の各画素のRGB値は、例えば、256階調で表される。
シャッタユニット42は、レリーズボタン28によって検出された状態(半押し状態または全押し状態)に基づいて撮像素子33をリセットするタイミング及び電荷変換を行うタイミングなどを制御する。タイミングの制御はタイミングジェネレータ41により行われる。シャッタユニット42による露光量制御については後述する。
撮像素子33が受光する光量の調節は、絞りユニット43及び/またはシャッタユニット42によって行われる。フォーカスユニット44は、撮影光学系23を駆動させ撮影被写体に対して焦点を合わせる制御動作を実行する。フォーカスユニット44による合焦点制御については後述する。
(撮影処理部20の内部構成)
図3に、撮影処理部20の内部構成を示す。撮影処理部20は、撮影時に撮影条件に関わる制御や、撮影された画像の処理を行う。図3を用いて、撮影処理部20の内部構成を説明する。
図3に示すように、撮影処理部20は、撮影条件に関わるAE制御部51、AF制御部52、そして撮影された画像に対して画像処理を行う画素補間部53、AWB制御部54、ガンマ補正部55などにより構成される。
AE制御部51は、画像撮影時にその露光量の自動制御を行う。通常、撮影待機時の露光量制御は、絞り開放でシャッタ速度を制御することによって行われ、撮影時の露光量は絞りとシャッタ速度とで制御される。
AE制御部51における撮影待機時の露光量制御は、例えば以下のように行われる(図4(a)のフローチャート参照)。
まず絞りユニット43により、絞りが開放固定絞りに設定される(ステップS111)。AE制御部51により、撮像素子33によって得られた画像データから所定の測光エリアのデータが読み出され(ステップS112)、輝度値に相当する情報が取得される(ステップS113)。この輝度値に相当する情報は、AE制御のための情報として用いられ、簡易的にRGB3色成分のうちのG値が用いられることが多い(以下これを輝度情報Gと呼ぶ)。この輝度情報Gに応じて撮像素子33の次のフレームにおける電荷蓄積時間が設定され(ステップS114)、タイミングジェネレータ41により、所定の輝度レベルとなるように、次のフレームにおける電荷蓄積時間が制御される(ステップS117)。これがシャッタ速度の制御であり、電荷が蓄積される様子を図5に示す。すなわち、取得した輝度レベルが大きい(明るい)ときは電荷蓄積時間が短くなり、輝度レベルが小さい(暗い)ときは電荷蓄積時間が長くなることで、露光量を安定させる。
このように撮影待機時の露光量制御が行われることで、撮影者は液晶などの表示部27で露光量制御されたライブビュー画像を観察することができる。
AE制御部51における実際の撮影時の露光量制御は、上記のシャッタ速度制御に加えて、絞りの制御も行われる(図4(b)のフローチャート参照)。上記同様(ステップS112、S113)に得られた測光エリアの輝度情報Gに応じて、絞りユニット43が制御され、絞り値が設定される(ステップS116)。すなわち、取得した輝度レベルが大きい(明るい)ときは絞り値を小さくし、輝度レベルが小さい(暗い)ときは絞り値を大きくすることで、露光量を安定させる。シャッタ速度と組み合わせての調節レベルは、予め定められたプログラム線図のデータに基づき、例えば、撮像素子33の電荷蓄積時間が絞り値に応じて調整されるなどの制御が行われる(ステップS115、S117)。
このように撮影時に露光量制御が行われることで、撮影者は任意の、あるいは既定の、絞り値とシャッタ速度の組み合わせで、撮影画像に対する露光量設定を自動的に行うことができる。
AF制御部52は、画像撮影時に画像の焦点を合わせる自動制御を行う。この合焦点制御は、例えば以下のように撮影光学系を駆動することで合焦点位置を検知し、その位置に合わせて停止させることで行われる(図6のフローチャート参照)。
撮影光学系23の駆動が開始されると(ステップS121)、その駆動に伴い逐次、AF制御部52は、撮像素子33によって得られた画像データから所定の測距エリアのデータを読み出し(ステップS122)、このデータに応じてコントラスト情報を取得する(ステップS123)。これは、合焦点位置に達したかどうかを検知するためであり、次のように判定される。すなわち、コントラスト情報は、測距エリアのデータの各隣接画素間の差を取ることにより、エッジ部のシャープさに依存するように設定、算出されるものであり、測距エリア全体での総和が最大に達した状態が合焦点と判断される(ステップS124、S125)。合焦点位置でないと判断された場合は、撮影光学系の移動が継続される(ステップS126)。
撮影光学系23の移動に伴うコントラスト情報の変化と合焦点位置検出の様子を図7に示す。上記動作は、光学系を駆動しながら逐次コントラスト情報を取得して、合焦点位置を求めるという測距演算が行われたものであり、その焦点距離に合わせて撮影光学系23は停止される(ステップS127)。
このようなAF制御により、撮影時に常に自動的にピントのあった撮影画像を得ることができる。
画素補間部53は、撮像素子33におけるRGB各色成分を分散配置したCCD配列に対して、各色成分ごとに画素間の補間を行い、同一画素位置で各色成分値が得られるように画像データを処理する(図8のフローチャート参照)。
画素補間部53は、撮像素子33によって得られたRGB画像データ(ステップS141)をRGBの各画素フィルタパターンでマスキングし(ステップS142、S144、S146)、その後で平均補間(画素補間ともいう)を行う(ステップS143、S145、S147)。このうち、高帯域にまで画素を有するGの画素フィルタパターンは、周辺4画素の中間2値の平均値に置換して平均補間を行うメディアン(中間値)フィルタであり、RとBの画素フィルタパターンは、周辺9画素から同色に対して平均補間を行うものである。
AWB制御部54は、撮影画像におけるホワイトバランスを自動的に調整する。撮影された画像は、その中にRGBのカラーバランスがとれている(総和すればホワイト)被写体領域があるものという想定で、その領域のホワイトバランスを達成するように、画像のRGBの各成分値に対するレベル調整を行う。このホワイトバランス処理は、例えば以下のように行われる(図9のフローチャート参照)。
AWB制御部54は、撮像素子33によって得られた画像データの輝度や彩度のデータから(ステップS131)、本来ホワイトであると思われる領域を推測する(ステップS132)。その領域について、RGB各成分値の平均強度、及びG/R比、G/B比を求め、G値に対するR値、B値の補正ゲインを算出する(ステップS133、S134)。これに基づき、画像全体における各色成分に対するゲインの補正を行う(ステップS135)。
このようなAWB制御により、撮影時に生ずる画面全体のカラーバランスの崩れを自動的に補正することができ、実際の被写体の照明状態に拘わらず、安定した色調の画像を得ることができる。
ガンマ補正部55は、撮影画像の階調性を出力機器の特性に適するように変換する処理を行う。
ガンマ特性とは階調特性のことであり、入力階調に対してどのように出力階調を設定するかを補正値あるいは補正曲線などで示すものである。図10に入力値に対して、補正した出力値を示す補正曲線の例を示す。ガンマ補正は、この補正値あるいは補正曲線などに従い、入力値に対する出力値への変換を行う変換処理となる。出力機器によってこの階調特性は異なるため、その出力機器に適した階調とするために、このガンマ特性の補正を行う必要がある。これにより撮影されたリニア画像はノンリニア画像に変換されることになる。
出力機器としては一般的にはモニタが設定され、一般的なモニタのガンマ特性に合うように撮影画像のガンマ補正は行われる。
(画像処理部10の内部構成)
図11に、画像処理部10の内部構成を示す。画像処理部10は、撮像装置1における撮影画像に対して、シーン判別に基づく階調の補正動作を制御するものであり、撮影処理部20での処理後に、あるいはその処理とは独立して、画像取得、シーン判別、階調処理条件設定などの一連の処理を実行する。図11を用いて、画像処理部10の内部構成を説明する。
図11に示すように、画像処理部10は、第1画像取得部101、第2画像取得部102、占有率算出部103、指標算出部104、シーン判別部105、階調処理条件設定部107、そして階調変換処理部108により構成される。
第1画像取得部101は、レリーズボタン28が全押しされたタイミングで、撮像素子33に写った最新の画像の画像データを第1の画像として取得する。また撮影時に算出される輝度情報も合わせて取得する。すなわち、第1画像取得部101は輝度情報取得手段として機能する。本実施形態で取得する輝度情報は輝度値(Brightness_Value、以後BVと称する)であり、撮影時における測光値から算出され、Exif(Exchangeable_Image_File_Format)データとして画像データに付加記録されるものである。取得した第1の画像の画像データ、及び輝度情報BVはメモリ32に保持される。
第2画像取得部102は、取得した第1の画像を、N×M個の矩形の領域(垂直方向にM個及び水平方向にN個に分割された領域)に分割する。図12(a)に、第1の画像の一例を示し、図12(b)に、当該第1の画像が22×14個の領域に分割された例を示す。なお、分割領域の数は特に限定されない。本実施形態では、分割された各領域を画像データの「画素」と見なし、分割された画像を実質的にサイズが縮小された画像として扱う。この縮小された画像が、第2の画像であり、上記操作により第2の画像を取得することになる。従って第2画像取得部102は、第2の画像取得手段として機能する。
占有率算出部103は、第2の画像の画像データ、すなわち画像を構成する各画素に対して、色情報を取得する。取得された色情報に基づいて、画像の各画素を、明度と色相の組み合わせからなる所定の階級に分類し(図16参照)、分類された階級毎に、当該階級に属する画素が画像全体に占める割合を示す第1の占有率を算出する。すなわち、占有率算出部103は第1の占有率算出手段として機能する。
また、占有率算出部103は、各画素を、第2の画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し(図17参照)、分類された階級毎に、当該階級に属する画素が画像全体に占める割合を示す第2の占有率を算出する。すなわち、占有率算出部103は第2の占有率算出手段としても機能する。
占有率算出部103において実行される占有率算出処理については、後に図15を参照して詳細に説明する。
指標算出部104は、占有率算出部103で算出された第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標1、及び指標2を算出する。すなわち、指標算出部104は第1の指標算出手段、及び第2の指標算出手段として機能する。
また、指標算出部104は、占有率算出部103で算出された第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標3を算出する。すなわち、指標算出部104は第3の指標算出手段としても機能する。
さらに、指標算出部104は、第2の画像の画面中央部における平均輝度値と、最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標4を算出する。すなわち、指標算出部104は第4の指標算出手段として機能する。
また、指標算出部104は、第2の画像の画面中央部における肌色領域の平均輝度値(指標7とする)と、指標1及び指標3と、前述の撮影時の輝度情報BVとに、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標5を算出する。すなわち、指標算出部104は第5の指標算出手段として機能する。
また、指標算出部104は、当該平均輝度値と、指標2及び指標3と、前述の撮影時の輝度情報BVとに、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標6を算出する。すなわち、指標算出部104は第6の指標算出手段として機能する。
指標算出部104において実行される指標算出処理については、後に図18を参照して詳細に説明する。
シーン判別部105は、指標算出部104で算出された各指標に基づいて、第1の画像の撮影シーンを判別する。すなわち、シーン判別部105はシーン判別手段として機能する。ここで、撮影シーンとは、順光、逆光、近接フラッシュ等の被写体を撮影する時の光源条件を示しており、主要被写体(主に人物のことを指すが、これに限るものではない)のオーバー度、アンダー度などもこれに含まれる。撮影シーン判別の方法については、後に詳細に説明する。
以上のように、占有率算出部、指標算出部、そしてシーン判別部がシーン判別処理手段として機能する。
階調処理条件設定部107は、階調処理条件設定手段として機能し、シーン判別部105で判別された撮影シーンに基づいて、第1の画像に対する階調処理条件(図25参照)を設定する。
また、階調処理条件設定部107は、指標算出部104で算出された各指標に基づいて、第1の画像に対する階調調整のための階調調整パラメータを算出する。従って、上記階調処理条件設定部107は、階調調整パラメータ算出手段として機能する。階調処理条件の設定については、後に図24を参照して詳細に説明する。
階調変換処理部108は、階調変換処理手段として機能し、上記階調処理条件設定部107において設定された階調処理条件に従い、第1の画像に対する階調変換処理を実行する。
プロセッサ31は、上記画像処理部10で行われる処理以外に、公知技術に基づいて、自動ホワイトバランス処理、ガンマ変換処理などの撮影処理部20での処理や、またその他画像処理、画像フォーマット変換、画像データの記録などの処理動作を制御する機能を有する。
またプロセッサ31における各部の処理は、基本的にハードウエア処理によって行われるが、一部についてはメモリ32に記憶(保存)されているプログラムを実行するなどしてソフトウェア処理によって行われる。
(撮像装置1の動作フロー)
次に、本実施形態における撮像装置1の動作について説明する。
以下では、撮影対象物を「主要被写体」と呼ぶことにする。
まず、図13のフローチャートを参照して、撮像装置1で実行される処理の全体の流れを説明する。なお、これらの処理はプログラムを用いてコンピュータに実行させることができる。以下で説明する各工程は、画像処理プログラムの各機能としても同様の説明ができる。
まず、電源スイッチ26がONに操作されると(電源が投入されると)、メモリ32のリセット等の前処理が行われる(ステップS1)。ユーザは、主要被写体が撮像装置1の被写界に入るように撮像装置1をその主要被写体の方に向け、撮影のための操作を開始する。レリーズボタン28が押されて撮影が行われる(ステップS2)。撮像素子33に結像した画像は電気信号として取り込まれ、CCD配列に基づく補間処理が行われる(ステップS4)。ステップS5では、撮影画像として、第1の画像が取得され、メモリ32に保持される。第1の画像はリニア画像であり、RAW画像と呼称される。
一方、撮影が行われると、輝度情報取得工程であるステップS3では、輝度情報BVの取り込みが行われる。ここで取得する輝度情報BVは、撮影時に測光値から算出され、後で撮影画像がExif形式(Exchangeable_Image_File_Format)で記録される際に、合わせて記録されるものである。取得した輝度情報BVはメモリ32に保持される。
撮影により取得された第1の画像は、AWB(自動ホワイトバランス)の処理を施される(ステップS6)。これは以下に述べる第2の画像の取得が行われてから、第1の画像と第2の画像とに対して別途処理されてもよい。
AWB処理の後、第1の画像の画像データは、一方で複数の分割領域からなる分割画像、すなわち第2の画像として取得される(ステップS7)。分割画像の各分割領域は第2の画像の画素であり、第2の画像は第1の画像のサイズを縮小した画像となる。図12(a)に、第1の画像の一例を示し、図12(b)に、当該第1の画像が22×14個のセルに分割された例を示す。各セルが第2の画像の一画素に相当する。実際の画像データのサイズ縮小方法は、単純平均やバイリニア法やバイキュービック法など公知の技術を用いることができる。ステップS7は第2の画像取得工程として機能する。
次いで、シーン判別処理工程であるステップS8では、取得された第2の画像の画像データに基づいて、撮影シーンを判別するシーン判別処理が行われる。ステップS8における撮影シーン判別処理については、後に図14を参照して説明する。
次いで、階調処理条件設定工程であるステップS9では、ステップS8のシーン判別処理で得られた各指標及び撮影シーンの判別結果に基づいて、第1の画像の階調変換処理のために必要な条件を設定する処理が行われる。またここで、輝度情報取得工程で取得された輝度情報BVに基づく階調調整パラメータの算出が行われる。ステップS7の階調処理条件設定処理については、後に図24を参照して説明する。
一方、AWB処理後の第1の画像については、ガンマ変換処理が行われ、ノンリニア画像に変換される(ステップS10)。但し、ガンマ変換処理は階調の変換処理であり、次に述べるステップS11の階調変換処理と合わせて行ってもよい。
階調変換処理工程であるステップS11では、第2の画像に基づいて設定された階調処理条件に基づいて、撮影画像である第1の画像の画像データに対する階調変換処理が行われる。ガンマ変換は視覚に合わせてノンリニアの階調に変換したが、ステップS11の階調変換は撮影シーンの光源条件などによる階調への影響を補正するものであり、ステップS8でのシーン判別結果によりステップS9で設定した処理条件に基づき階調変換処理を行う。
なお本実施形態では、ステップS9、ステップS11で階調処理条件を設定し、変換処理する形態としているが、撮影された第1の画像に対する画像処理以外に、例えばその撮影シーンに対する最適な画像を取得するための露出条件をリアルタイムに算出し、撮影操作に反映するといった処理などを行うようにしてもよい。
次いで、画像記録のため、画像フォーマットの変換が行われる(ステップS12)。一般的にはJPEG形式の画像に変換処理される。その後JPEG形式の画像データが、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)等)に記録される(ステップS13)。Exif形式の画像記録においては、輝度情報BVもExifデータとして付加的に記録される。次の撮影に移るか、あるいは電源スイッチ26がOFFに操作されると、撮像装置1における動作は終了する。
(シーン判別処理1のフロー)
次に、図14のフローチャート及び図15〜図23を参照して、撮像装置1でのシーン判別処理1(図13のステップS8)について説明する。
シーン判別処理は、図14に示すように、色空問変換処理(ステップS20)、占有率算出処理(ステップS21)、指標算出処理(ステップS22)、シーン判別(ステップS23)の各処理により構成される。以下、図15〜図23を参照して、図14に示す各処理について詳細に説明する。
まず、図14のステップS20において、色空間変換処理が行われる。
まず、撮影された第1の画像から得られた第2の画像の各画素のRGB値、輝度値及びホワイトバランスを示す情報が取得される。なお、輝度値としては、RGB値を公知の変換式に代入して算出した値を用いてもよい。次いで、取得されたRGB値がHSV表色系に変換され、画像の色情報が取得される。HSV表色系とは、画像データを色相(Hue)、彩度(Saturation)、明度(ValueまたはBrightness)の3つの要素で表すものであり、マンセルにより提案された表色体系を元にして考案されたものである。HSV表色系への変換は、HSV変換プログラム等を用いて行われ、通常、入力であるR、G、Bに対して、算出された色相値Hは、スケールを0〜360と定義し、彩度値S、明度値Vは、単位を0〜255と定義している。
なお、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」の意昧である。以下の記載において、HSV表色系のV(0〜255)を「明度」として用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。
また、本実施形態において、「色相」は特に注釈を設けない限り一般に用いられる「色」の意味である。以下の記載において、HSV表色系のH(0〜360)を「色相」として用いるが、例えば赤色差値(Cr)や青色差値(Cb)によって表現される色を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。ステップS20では、上記のようにして求められたH、S、Vの値が色情報として取得される。
<占有率算出処理1>
次に、ステップS21では、占有率算出処理が行われる。図15のフローチャートを参照して、占有率算出処理について説明する。
まず、色空問変換処理で算出されたHSV値に基づいて、第2の画像の各画素が、色相と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積画素数を算出することによって2次元ヒストグラムが作成される(ステップS30)。
図16に、明度と色相の組み合わせからなる階級を示す。ステップS30では、明度(V)は、明度値が0〜5(v1)、6〜12(v2)、13〜24(v3)、25〜76(v4)、77〜109(v5)、110〜149(v6)、150〜255(v7)の7つの階級に分割される。図16に示すように、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広い。
色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相’(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10<彩度(S)<175;
色相’(H)=色相(H)+60 (0≦色相(H)<300のとき);
色相’(H)=色相(H)−300 (300≦色相(H)<360のとき).
輝度(Y)=R×0.30+G×0.59+B×0.11 (A)
として、
色相’(H)/輝度(Y)<3.0×(彩度(S)/255)+0.7 (1)
従って、第2の画像における階級の数は4×7=28個となる。また、最大の明度値(255)の1割の値以内に、少なくとも3つの階級(v1、v2、v3)を有する。なお、式(A)及び式(1)において明度(V)を用いることも可能である。
ステップS30の後、第2の画像の各画素が、画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積画素数を算出することによって2次元ヒストグラムが作成される(ステップS31)。
図17(a)に、ステップS31において、第2の画像の画面の外縁からの距離に応じて分割された3つの領域n1〜n3を示す。領域n1が外枠であり、領域n2が外枠の内側の領域であり.領域n3が第2の画像の中央部の領域である。ここでn1〜n3は略同等の画素数となるように分割することが好ましい。また本実施形態においては3つの分割としたがこれに限定されるものではない。また、ステップS31において、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。図17(b)に、3つの領域n1〜n3と明度の組み合わせからなる階級を示す。図17(b)に示すように、第2の画像を画面の外縁からの距離と明度の組み合わせからなる階級に分類した場合の階級の数は3×7=21個となる。
ステップS30において2次元ヒストグラムが作成されると、明度と色相の組み合わせからなる所定の階級毎に算出された累積画素数の全画素数(N×M個)に占める割合を示す第1の占有率が算出される(ステップS32)。すなわちステップS30とステップS32は第1の占有率算出工程として機能する。
明度領域vi、色相領域Hjの組み合わせからなる階級において算出された第1の占有率をRijとすると、各階級における第1の占有率は表1のように表される。
Figure 2007184888
ステップS31において2次元ヒストグラムが作成されると、画面の外縁からの距離と明度の組み合わせからなる所定の階級毎に算出された累積画素数の全画素数に占める割合を示す第2の占有率が算出され(ステップS33)、本占有率算出処理が終了する。すなわちステップS31とステップS33は第2の占有率算出工程として機能する。
明度領域vi、画面領域njの組み合わせからなる各階級において算出された第2の占有率をQijとすると、各階級における第2の占有率は表2のように表される。
Figure 2007184888
なお、各画素を画面の外縁からの距離、明度及び色相からなる階級に分類し、分類された階級毎に累積画素数を算出することによって3次元ヒストグラムを作成してもよい。以下では、2次元ヒストグラムを用いる方式を採用するものとする。
<指標算出処理1>
次に、図18のフローチャートを参照して、指標算出処理(図14のステップS22)について説明する。
まず、第1の指標算出工程であるステップS40では、占有率算出処理において階級毎に算出された第1の占有率に、撮影条件に応じて予め設定された係数(第1の係数)を乗算して和をとることにより、撮影シーンを特定するための指標1が算出される。指標1は、主要被写体のオーバー度を表す指標であり、「主要被写体がオーバー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。
次いで、第2の指標算出工程であるステップS41では、同じく階級毎に算出された第2の占有率に、撮影条件に応じて予め設定された第1の係数とは異なる係数(第2の係数)を乗算して和をとることにより、撮影シーンを特定するための指標2が算出される。指標2は、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に表す指標であり、「逆光」、「主要被写体がアンダー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。
以下、指標1及び指標2の算出方法について詳細に説明する。
表3に、指標1を算出するために必要な第1の係数を階級別に示す。表3に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
表3によると、高明度(v6)の肌色色相領域(H1)に分布する領域から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域から算出される第1の占有率には、負(−)の係数が用いられる。図19は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図19によると、高明度(V=77〜150)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(−)であり、両者の符号が異なっていることがわかる。
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。
Figure 2007184888
従って、H1〜H4領域の和は、下記の式(2−1)〜(2−4)のように表される。
H1領域の和=R11×0+R21×0+(中略)…+R71×(−8) (2−1)
H2領域の和=R12×(−2)+R22×(−1)+(中略)
…+R72×(−10) (2−2)
H3領域の和=R13×5+R23×(−2)+(中略)…+R73×(−12)
(2−3)
H4領域の和=R14×0+R24×(−1)+(中略)…+R74×(−12)
(2−4)
指標1は、式(2−1)〜(2−4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.5 (3)
表4に、指標2を算出するために必要な第2の係数を階級別に示す。表4に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
表4によると、肌色色相領域(H1)の中間明度に分布する領域(v4、v5)から算出される占有率には負(−)の係数が用いられ、肌色色相嶺域(H1)の低明度(シャドー)領域(v2、v3)から算出される占有率には係数0が用いられる。図20は、肌色領域(H1)における第2の係数を、明度全体にわたって連続的に変化する曲線(係数曲線)として示したものである。表4及び図20によると、肌色色相領域の、明度値が25〜150の中間明度領域の第2の係数の符号は負(−)であり、明度値6〜24の低明度(シャドー)領域の第2の係数は0であり、両領域での係数に大きな違いがあることがわかる。
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。
Figure 2007184888
従って、H1〜H4領域の和は、下記の式(4−1)〜(4−4)のように表される。
H1領域の和=R11×0+R21×0+(中略)…+R71×2 (4−1)
H2領域の和=R12×(−2)+R22×(−1)+(中略)…+R72×2
(4−2)
H3領域の和=R13×2+R23×1+(中略)…+R73×3 (4−3)
H4領域の和=R14×0+R24×(−1)+(中略)…+R74×3 (4−4)
指標2は、式(4−1)〜(4−4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.7 (5)
指標1及び指標2は、第2の画像の明度と色相の分布量に基づいて算出されるため、画像がカラー画像である場合の撮影シーンの判別に有効である。
指標1及び指標2が算出されると、第3の指標算出工程であるステップS42で、占有率算出処理において階級毎に算出された第2の占有率に、撮影条件に応じて予め設定された第3の係数(第1の係数、第2の係数とは異なる係数)を乗算して和をとることにより、撮影シーンを特定するための指標3が算出される。指標3は、主要被写体がアンダーな逆光と主要被写体がオーバーな画像間における、画像データの画面の中心と外側の明暗関係の差異を示すものである。
以下、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を階級別に示す。表5に示された各階級の係数は、表2に示した各階級の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
図21は、画面領域n1〜n3における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。
Figure 2007184888
従って、n1〜n3領域の和は、下記の式(6−1)〜(6−3)のように表される。
n1領域の和=Q11×12+Q21×10+(中略)…+Q71×0 (6−1)
n2領域の和=Q12×5+Q22×3+(中略)…+Q72×0 (6−2)
n3領域の和=Q13×(−1)+Q23×(−4)+(中略)…+Q73×(−8)
(6−3)
指標3は、式(6−1)〜(6−3)で示されたn1〜n3領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+0.7 (7)
指標3は、第2の画像の明度の分布位置による構図的な特徴(全体画像の画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
また、例えば公知の方法によって検出された焦点検出領域に応じて、画面の外縁からの距離と明度の所定の階級から算出される第2占有率に対して乗算される第3の係数の重みを変えることで、より高精度にシーンを判別する指標を算出することが可能である。
指標1〜3が算出されると、第4の指標算出工程であるステップS43で、第2の画像の画面中央部における肌色の平均輝度値と、第2の画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標4が算出される。
以下、図22のフローチャートを参照して、指標4の算出処理について詳細に説明する。
まず、第2の画像のRGB(Red、Green、Blue)値から、式(A)を用いて輝度Yが算出される。次いで、第2の画像の画面中央部における肌色領域の平均輝度値x1が算出される(ステップS50)。ここで、画面中央部とは、例えば図17(a)に示した領域n3により構成される領域である。次いで、第2の画像の最大輝度値と平均輝度値との差分値x2=最大輝度値−平均輝度値が算出される(ステップS51)。
次いで、第2の画像の輝度の標準偏差x3が算出され(ステップS52)、画面中央部における平均輝度値x4が算出される(ステップS53)。次いで、第2の画像における肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップS54)。この比較値x5は、下記の式(8−1)のように表される。
x5=(Yskin_max−Yskin_min)/2−Yskin_ave
(8−1)
次いで、ステップS50〜S54で算出された値x1〜x5の値の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4が算出され(ステップS55)、指標4算出処理が終了する。指標4は、下記の式(8−2)のように定義される。
指標4=0.05×x1+1.41×x2+(−0.01)×x3+(−0.01)
×x4+0.01×x5−5.34 (8−2)
この指標4は、第2の画像の画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特に、主要被写体がオーバーである撮影シーンとアンダー撮影シーンの判別に有効である。
指標4が算出されると、第5の指標算出工程であるステップS44(図18参照)で、指標1、指標3、輝度情報BV、及び第2の画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標5が算出される。
さらに第6の指標算出工程であるステップS45で、指標2、指標3、輝度情報BV、及び第2の画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標6が算出され、本指標算出処理が終了する。
以下、指標5及び指標6の算出方法について詳細に説明する。
第2の画像の画面中央部における肌色領域の平均輝度値を指標7とする。ここでの画面中央部とは、例えば、図17(a)の領域n2及び領域n3から構成される領域である。このとき、指標5は、指標1、指標3、指標7、及び輝度情報BVを用いて式(9)のように定義され、指標6は、指標2、指標3、指標7、及び輝度情報BVを用いて式(10)のように定義される。
指標5=0.45×指標1+0.16×指標3+0.003×指標7−0.64
×BV+4.00 (9)
指標6=0.74×指標2+0.08×指標3+0.011×指標7−0.01
×BV+1.35 (10)
ここで式(9)及び式(10)において各指標に乗算される係数は、撮影条件に応じて予め設定されている。
また輝度情報BVに基づいて、指標5、指標6を算出する代わりに、指標1、指標2、指標3を算出するのに輝度情報BVを用いてもよい。その場合、指標5、指標6を算出するのに輝度情報BVを用いる必要はない。
なお、図22における平均輝度値(例えば、全体平均輝度値)の算出方法としては、撮像装置1の各受光部から得られた個別輝度データの単純な加算平均値を求めてもよいし、撮像装置1の測光方式としてよく用いられる中央重点平均測光に類似した、画面中心付近の受光部より得られた輝度データに重み付けを高く、画面の周辺付近の受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法を用いてもよい。また、焦点検出領域に対応した受光部付近より得られた輝度データに重み付けを高くし、焦点検出位置から離れた受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法等を用いてもよい。
<シーン判別1>
図14に戻って、シーン判別を説明する。
指標4〜6が算出されると、これらの指標の値に基づいて撮影シーンが判別される(ステップS23)。表6に、指標4、指標5及び指標6の値による撮影シーンの判別内容を示す。撮影時の輝度情報BVに基づき指標5及び指標6は算出されており、輝度情報BVは撮影シーンの判別に間接的に寄与している。
Figure 2007184888
図23は、表6に示した判別内容を、指標4〜6の座標系を用いて表した判別マップである。
(階調処理条件設定のフロー)
次に、図24のフローチャートを参照して、第1の画像のガンマ変換処理後の画像に対する階調処理条件設定(図13のステップS9)について説明する。
<階調調整方法選択>
まず、判別された撮影シーンに応じて、ステップS70で第1の画像データのガンマ変換処理後に対する階調調整の方法が決定され、ステップS71で階調調整パラメータが算出されると、ステップS73で階調処理条件(階調変換曲線)が決定される。なお、本実施形態では、ステップS70とステップS73とにおいて階調調整方法と階調調整量の双方を決定する場合を示すが、階調調整量のみを選択、あるいは決定してもよい。
ステップS70で階調調整方法を決定する場合、図25に示すように、撮影シーンが順光である場合は階調調整方法A(図25(a))が選択され、逆光である場合は階調調整方法B(図25(b))が選択され、主要被写体がオーバーである場合は階調調整方法C(図25(c))が選択され、アンダーである場合は、階調調整方法B(図25(b))が選択される。
なお本実施形態においては、第1の画像のガンマ変換後の画像へ適用する階調変換曲線を決定する方法を示したが、階調変換工程をガンマ変換の前に実施する場合には、図25の階調変換曲線に対して、ガンマ変換の逆変換を施した曲線で階調変換が行われる。
<階調調整パラメータ算出>
階調調整方法が決定されると、ステップS71では、指標算出処理で算出された各指標に基づいて、階調調整に必要なパラメータが算出される。すなわち、ステップS71は階調調整パラメータ算出工程として機能する。以下、階調調整パラメータの算出方法について説明する。なお、以下では、8bitの撮影画像データは16bitへと事前に変換されているものとし、撮影画像データの値の単位は16bitであるものとする。
階調調整に必要なパラメータ(階調調整パラメータ)として、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
ここで、図26及び図27を参照して、パラメータP2(ブロック分割平均輝度)の算出方法について説明する。
まず、画像データを正規化するために、CDF(累積密度関数)を作成する。次いで、得られたCDFから最大値と最小値を決定する。この最大値と最小値は、RGB毎に求める。ここで、求められたRGB毎の最大値と最小値を、それぞれ、Rmax、Rmin、Gmax、Gmin、Bmax、Bminとする。
次いで、画像データの任意の画素(Rx、Gx、Bx)に対する正規化画像データを算出する。RプレーンにおけるRxの正規化データをRpoint、GプレーンにおけるGxの正規化データをGpoint、BプレーンにおけるBxの正規化データをBpointとすると、正規化データRpoint、Gpoint、Bpointは、それぞれ、式(11)〜式(13)のように表される。
Rpoint={(Rx−Rmin)/(Rmax−Rmin)}×65535
(11);
Gpoint={(Gx−Gmin)/(Gmax−Gmin)}×65535
(12);
Bpoint={(Bx−Bmin)/(Bmax−Bmin)}×65535
(13).
次いで、式(14)により画素(Rx、Gx、Bx)の輝度Npointを算出する。
Npoint=(Bpoint+Gpoint+Rpoint)/3 (14)
図26(a)は、正規化する前のRGB画素の輝度の度数分布(ヒストグラム)である。図26(a)において、横軸は輝度、縦軸は画素の頻度である。このヒストグラムは、RGB毎に作成する。輝度のヒストグラムが作成されると、式(11)〜式(13)により、画像データに対し、プレーン毎に正規化を行う。図26(b)は、式(14)により算出された輝度のヒストグラムを示す。撮影画像データが65535で正規化されているため、各画素は、最大値が65535で最小値が0の間で任意の値をとる。
図26(b)に示す輝度ヒストグラムを所定の範囲で区切ってブロックに分割すると、図26(c)に示すような度数分布が得られる。図26(c)において、横軸はブロック番号(輝度)、縦軸は頻度である。
次いで、図26(c)に示された輝度ヒストグラムから、ハイライト、シャドー領域を削除する処理を行う。これは、白壁や雪上シーンでは、平均輝度が非常に高くなり、暗闇のシーンでは平均輝度は非常に低くなっているため、ハイライト、シャドー領域は、平均輝度制御に悪影響を与えてしまうことによる。そこで、図26(c)に示した輝度ヒストグラムのハイライト領域、シャドー領域を制限することによって、両領域の影響を減少させる。図27(a)(または図26(c))に示す輝度ヒストグラムにおいて、高輝度領域(ハイライト領域)及び低輝度領域(シャドー領域)を削除すると、図27(b)のようになる。
次いで、図27(c)に示すように、輝度ヒストグラムにおいて、頻度が所定の閾値より大きい領域を削除する。これは、頻度が極端に多い部分が存在すると、この部分のデータが、撮影画像全体の平均輝度に強く影響を与えてしまうため、誤補正が生じやすいことによる。そこで、図27(c)に示すように、輝度ヒストグラムにおいて、閾値以上の画素数を制限する。図27(d)は、画素数の制限処理を行った後の輝度ヒストグラムである。
正規化された輝度ヒストグラムから、高輝度領域及び低輝度領域を削除し、さらに、累積画素数を制限することによって得られた輝度ヒストグラム(図27(d))の各ブロック番号と、それぞれの頻度に基づいて、輝度の平均値を算出したものがパラメータP2である。
パラメータP1は、画像データ全体の輝度の平均値であり、パラメータP3は、画像データのうち肌色領域(H1)の輝度の平均値である。パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(15)、式(16)、式(17)のように定義される。
P7(キー補正値)={P3−((指標6/6)×18000+22000)}
/24.78 (15)
P7’(キー補正値2)={P3−((指標4/6)×10000+30000)}
/24.78 (16)
P8(輝度補正値2)=(指標5/6)×17500 (17)
パラメータP7とP8が、指標5と指標6に基づいており、輝度情報BVを反映していることになる。
<シーンごとの階調処理条件設定>
図24に戻り、階調調整パラメータが算出されると、ステップS73では、その算出された階調調整パラメータに基づいて、撮影画像データに対する階調変換曲線の決定、すなわち階調処理条件が設定される。
すなわち、既に決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、シーンに応じて選択されたパラメータの値に対応する階調変換曲線が選択(決定)される。あるいは、パラメータの値に基づいて、階調変換曲線を算出するようにしてもよい。
階調変換曲線が決定されると、階調処理条件設定は終了する。
以下、各撮影シーン(光源条件及び露出条件)ごとに、階調変換曲線の決定方法(ステップS73での階調処理条件の決定)について説明する。
〈順光の場合〉
撮影シーンが順光である場合、パラメータP6を用いて、P1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(18)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (18)
従って、撮影シーンが順光の場合、図25(a)に示す複数の階調変換曲線の中から、式(18)に対応する階調変換曲線が選択される。または、式(18)に基づいて階調変換曲線を算出(決定)してもよい。
〈逆光の場合〉
撮影シーンが逆光である場合、図25(b)に示す複数の階調変換曲線の中から、パラメータP7(キー補正値)に対応する階調変換曲線が選択される。図25(b)の階調変換曲線の具体例を図28に示す。パラメータP7の値と、選択される階調変換曲線の対応関係を以下に示す。
−50<P7<+50 の場合→L3
+50≦P7<+150 の場合→L4
+150≦P7<+250 の場合→L5
−150<P7≦−50 の場合→L2
−250<P7≦−150 の場合→L1
なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。
〈アンダーの場合〉
撮影シーンがアンダーである場合、図25(b)に示す複数の階調変換曲線の中から、パラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。具体的には、撮影シーンが逆光の場合の階調変換曲線の選択方法と同様に、図28に示す階調変換曲線の中から、パラメータP7’の値に対応した階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。
〈主要被写体がオーパーの場合〉
主要被写体がオーパーである場合、パラメータP9を用いてオフセット補正(8bit値の平行シフト)を式(19)により行う。
出力画像のRGB値=入力画像のRGB値十P9 (19)
従って、主要被写体がオーパーの場合、図25(c)に示す複数の階調変換曲線の中から、パラメータP9に対応する階調変換曲線が選択される。または、式(19)に基づいて階調変換曲線を算出(決定)してもよい。なお、式(19)のパラメータP9の値が、予め設定された所定値αを上回った場合、図32に示す曲線L1〜L5の中から、キー補正値がP9−αに対応する曲線が選択される。
なお、本実施形熊では、実際に撮影画像データに対して階調変換処理を施す場合、上述の階調変換処理条件を16bitから8bitへ変更するものとする。
(第2の実施形態)
次に、本発明に係る第2の実施形態(画像処理装置)における構成について説明する。
図29には、本実施形態に係る画像処理装置2の外観構成の一例を示す。また図30には、画像処理装置2の概略構成をブロック図で示す。
(画像処理装置2の外観構成)
図29において、画像処理装置2は、筐体11の一側面に感光材料を装填する装填部13を備えている。筐体11の内部には、感光材料に露光する露光処理部86と、露光された感光材料を現像処理してプリントを作成するプリント作成部16を備えている。筐体11の他側面には、プリント作成部16で作成されたプリントを排出するトレー17を備えている。
筐体11の上部には、表示装置としてのCRT(CathodeRayTube)85、透過原稿を読み込む装置であるフィルムスキャナ部81、反射原稿入力装置82、操作部71を備えている。さらに筐体11には、各種デジタル記録媒体に記録された画像情報を読み取り可能な画像読み込み部14、各種デジタル記録媒体に画像信号を書き込み可能な画像書き込み部15を備え、また筐体11の内部には、これらの各部を制御する制御部72を備えている。画像読み込み部14は後述の画像転送手段83を含み、画像書き込み部15は後述の画像搬送部88を含んでいる。
これらの各構成要素はすべてが必要なわけではなく、また一体的に備えられた構造になっている必要もない。何れか一つ以上を画像処理装置2と別体として切り離す、あるいは外部装置として接続するようにしてもよい。
(画像処理装置2の構成)
図30には、本発明の実施形態に係る画像処理装置2の概略構成を示す。画像処理装置2は、図30に示すように、操作部71、制御部72、画像処理部10、フィルムスキャンデータ処理部73、反射原稿スキャンデータ処理部74、画像データ書式解読処理部75、CRT固有処理部76、プリンタ固有処理部A77、プリンタ固有処理部B78、画像データ書式作成処理部79により構成される。
フィルムスキャンデータ処理部73は、フィルムスキャナ部81から入力された画像データに対し、フィルムスキャナ部81固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像処理部10に出力する。また、フィルムサイズ、ネガポジ種別、フィルムに光学的あるいは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えば、APSの記載情報内容)等も併せて画像処理部10に出力する。
反射原稿スキャンデータ処理部74は、反射原稿入力装置82から入力された画像データに対し、反射原稿入力装置82固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像処理部10に出力する。
画像データ書式解読処理部75は、画像転送手段83及び/または通信手段(入力)84から入力された画像データに対し、その画像データのデータ書式に従って、必要に応じて圧縮符号の復元、色データの表現方法の変換等の処理を施し、画像処理部10内の演算に適したデータ形式に変換し、画像処理部10に出力する。
また、画像データ書式解読処理部75は、操作部71、通信手段(入力)84、画像転送手段83の何れかから出力画像の条件が指定された場合、その指定された情報を検出し、画像処理部10に出力する。なお、画像転送手段83により指定される出力画像の条件についての情報は、画像転送手段83が取得した画像データのヘッダ情報、タグ情報に埋め込まれている。
画像処理部10は、操作部71または制御部72の指令に基づいて、フィルムスキャナ部81、反射原稿入力装置82、画像転送手段83、通信手段(入力)84の何れかから受け取った画像データに対し、後述の画像処理(図14、図15、図18及び図24参照)を施して、出力媒体上での鑑賞に最適化された画像形成用のデジタル画像データを生成し、CRT固有処理部76、プリンタ固有処理部A77、プリンタ固有処理部B78、画像データ書式作成処理部79の何れかに出力する。
画像処理部10の内部構成については、後で図11を用いて説明する。
CRT固有処理部76は、画像処理部10から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT85に出力する。
プリンタ固有処理部A77は、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を行い、処理済の画像データを露光処理部86に出力する。
本発明の画像処理装置2に、外部プリンタ87が接続可能な場合には、接続するプリンタ装置毎にプリンタ固有処理部B78が備えられている。このプリンタ固有処理部B78は、プリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を施し、処理済の画像データを外部プリンタ87に出力する。
画像データ書式作成処理部79は、画像処理部10から入力された画像データに対して、必要に応じてJPEG、TIFF、ビットマップ等に代表される各種の汎用画像フォーマットへの変換を施し、処理済の画像データを画像搬送部88や通信手段(出力)89に出力する。
なお、図30に示したフィルムスキャンデータ処理部73、反射原稿スキャンデータ処理部74、画像データ書式解読処理部75、画像処理部10、CRT固有処理部76、プリンタ固有処理部A77、プリンタ固有処理部B78、画像データ書式作成処理部79、という区分は、画像処理装置2の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUによるソフトウエア処理の種類の区分として実現されてもよい。
(画像処理部10の内部構成)
図11に、画像処理部10の内部構成を示す。画像処理部10は、画像処理装置2の入力画像に対して、シーン判別に基づく階調の補正動作を制御するものであり、画像取得、シーン判別、階調処理条件設定などの一連の処理を実行する。本実施形態では入力画像が撮影画像データであるとし、図11を用いて、画像処理部10の内部構成を説明する。
図11に示すように、画像処理部10は、第1画像取得部101、第2画像取得部102、占有率算出部103、指標算出部104、シーン判別部105、階調処理条件設定部107、そして階調変換処理部108により構成される。
第1画像取得部101は、各入力データ処理部からの入力画像データを取得する。入力画像は撮影画像データであるので、例えば画像転送手段83あるいは通信手段84を経て画像データ書式解読処理部75に入力された撮影画像データが、その画像データのデータ書式に従って、必要に応じて圧縮符号の復元、データの表現方法の変換等の処理が施され、画像処理部10によって第1の画像として取得される。撮影画像データは通常撮影時にJPEG画像形式などのノンリニア画像に変換され、記録されている。ここではノンリニア画像に変換後の画像を第1の画像として取得したものとする。もちろん、撮影時のリニア画像(RAW画像)を取得してもかまわない。
また第1画像取得部101は、入力画像から、例えば撮影時に記録されるExif情報などを読み出し、撮影時に算出される輝度情報も合わせて取得する。すなわち、第1画像取得部101は輝度情報取得手段としても機能する。本実施形態で取得する輝度情報BVは輝度値であり、撮影時における測光値から算出され、Exifデータとして画像データに付加記録されたものである。取得した第1の画像の画像データ、及び輝度情報BVは画像処理部10内のメモリ(不図示)に保持される。
第2画像取得部102は、第1の実施形態の場合と同様に第2の画像取得手段として機能する。取得した第1の画像から、実質的に縮小された第2の画像を取得することになるのも同様であり、説明は省略する。
以下、第1の実施形態(撮像装置の場合)と同様の機能を有する構成要素については、説明を簡略にする。
占有率算出部103は、第1の占有率算出手段として機能し、第2の画像の画像データに対して取得した色情報に基づいて、画像を明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に各階級に属する画素が画像全体に占める割合を示す第1の占有率を算出する。
また、占有率算出部103は、第2の占有率算出手段としても機能し、同じく画像を画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、各階級毎に第2の占有率を算出する。
占有率算出部103において実行される占有率算出処理について、第1の実施形態と異なるところは、後に図15を参照して説明する。
指標算出部104は、第1の指標算出手段、及び第2の指標算出手段として機能する。すなわち、算出された第1の占有率から指標1、及び指標2を算出する。
また、指標算出部104は、第3の指標算出手段としても機能する。すなわち、算出された第2の占有率から指標3を算出する。
さらに、指標算出部104は、第4の指標算出手段としても機能する。第2の画像の画面中央部における平均輝度値と、最大輝度値と平均輝度値との差分値から指標4を算出する。
また、指標算出部104は、第5の指標算出手段として機能する。すなわち、第2の画像の画面中央部における肌色領域の平均輝度値(指標7)と、指標1及び指標3と、前述の撮影時の輝度情報BVとから、新たな指標5を算出する。
また、指標算出部104は、第6の指標算出手段として機能する。当該平均輝度値と、指標2及び指標3と、前述の撮影時の輝度情報BVとから、新たな指標6を算出する。
指標算出部104において実行される指標算出処理について第1の実施形態の場合と異なるところは、後に図18を参照して詳細に説明する。
シーン判別部105は、指標算出部104で算出された各指標に基づいて、第1の画像の撮影シーンを判別する。すなわち、シーン判別手段として機能する。ここで、撮影シーンとは、順光、逆光、近接フラッシュ等の被写体を撮影する時の光源条件を示しており、主要被写体(主に人物のことを指すが、これに限るものではない)のオーバー度、アンダー度などもこれに含まれる。
以上のように、占有率算出部、指標算出部、そしてシーン判別部がシーン判別処理手段として機能するのも、第1の実施形態の場合と同じである。
階調処理条件設定部107は、階調処理条件設定手段として機能する。シーン判別部105で判別された撮影シーンに基づいて第1の画像に対する階調処理条件の設定を行う。また階調処理条件設定部107は、階調調整のための階調調整パラメータを算出し、階調調整パラメータ算出手段として機能する。階調処理条件の設定方法は、第1の実施形態の場合と同様である。
階調変換処理部108は、階調変換処理手段として機能し、上記階調処理条件設定部107において設定された階調処理条件に従い、第1の画像に対する階調変換処理を実行する。
(画像処理装置2の動作フロー)
次に、本実施形態における画像処理装置2の動作について説明する。
以下では、撮影画像を対象とし、その撮影対象物を「主要被写体」と呼ぶことにする。
まず、図31のフローチャートを参照して、画像処理装置2で実行される処理の全体の流れを説明する。なお、これらの処理はプログラムを用いてコンピュータに実行させることができる。以下で説明する各工程は、画像処理プログラムの各機能としても同様の説明ができる。
まず、画像処理装置2への入力操作が行われると、各入力処理部73〜75の何れかで入力処理が行われる(ステップS101)。撮影画像に対しては、画像データ書式解読処理部75での処理を経て、画像処理部10に送られる。ステップS102では、画像処理部10において、撮影画像として第1の画像が取得される。第1の画像はノンリニア画像であり、JPEG画像であるとする。
一方、輝度情報取得工程であるステップS103では、取得した第1の画像に付加されたExif情報が読み出され、輝度情報BVの取り込みが行われる。取得する輝度情報BVは、撮影時に測光値から算出され、撮影画像がExif形式で記録される際に、合わせて記録されたものである。取得した輝度情報BVはメモリに保持される。
その後、第1の画像の画像データは、一方で複数の分割領域からなる分割画像、すなわち第2の画像として取得される(ステップS104)。第2の画像が第1の画像のサイズを縮小した画像となるのは第1の実施形態の場合と同様であり、ステップS104は第2の画像取得工程として機能する。
次いで、シーン判別処理工程であるステップS105では、取得された第2の画像の画像データに基づいて、撮影シーンを判別するシーン判別処理が行われる。ステップS105におけるシーン判別処理については、後に図14を参照して、第1の実施形態の場合と異なるところを説明する。
次いで、階調処理条件設定工程であるステップS106では、第1の実施形態の場合と同様に、ステップS105の撮影シーン判別処理で得られた各指標及び撮影シーンの判別結果に基づいて、第1の画像の階調変換処理のために必要な条件を設定する階調処理条件設定処理が行われる。またここで、輝度情報取得工程で取得された輝度情報BVに基づく指標を用いて、階調調整パラメータの算出が行われる。
階調変換処理工程であるステップS107では、第2の画像に基づいて設定された階調処理条件に基づいて、撮影画像である第1の画像の画像データに対する階調変換処理が行われる。ステップS107の階調変換は撮影シーンの光源条件などによる階調への影響を補正するものであり、ステップS105でのシーン判別結果によりステップS106で設定した条件に基づき階調変換処理を行う。
なお本実施形態では、ステップS106、ステップS107で階調処理条件を設定し、変換処理する形態としているが、撮影シーンに基づいて上記階調処理以外に他の画像特性、例えば色調整の最適化処理などを行うようにしてもよい。
次いで、その他の画像処理(ノイズ処理やシャープネス処理など)が適宜行われる(ステップS108)。その後画像データは、各出力処理部76〜79で処理され、出力される。あるいは、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)等)に記録される(ステップS109)。出力、あるいは記録が終わると、画像処理装置2における動作は終了する。
(シーン判別処理2のフロー)
次に、図14のフローチャート及び図15、18、22及び32〜35を参照して、画像処理装置2でのシーン判別処理2(図31のステップS105)について説明する。第1の実施形態(撮像装置1)と異なるところを説明し、同じところは適宜省略する。
シーン判別処理は、第1の実施形態と同様、図14に示すように、色空問変換処理(ステップS20)、占有率算出処理(ステップS21)、指標算出処理(ステップS22)、シーン判別(ステップS23)の各処理により構成される。以下、適宜上記図面を参照して、図14に示す各処理について説明する。
まず、図14のステップS20において、色空間変換処理が行われる。処理内容は第1の実施形態の場合と同様であり、説明は省略する。
<占有率算出処理2>
次に、ステップS21では、占有率算出処理が行われる。図15のフローチャートを参照して、占有率算出処理について説明する。
まず、色空問変換処理で算出されたHSV値に基づいて、第2の画像の各画素が、色相と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積画素数を算出することによって2次元ヒストグラムが作成される(ステップS30)。
明度の分割については、第1の実施形態の場合と異なる。これはリニア画像とノンリニア画像との違いによるものである。ステップS30では、明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの階級に分割される。
色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。これらは第1の実施形態の場合と同様である。また、肌色色相領域が、さらに、肌色領域(H1)と、それ以外の領域(H2)に分割されるのも同様である。
ステップS31の2次元ヒストグラム作成も第1の実施形態の場合と同様である。
図32に、ステップS31において、第2の画像の画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。領域n1が外枠であり、領域n2が外枠の内側の領域であり.領域n3が領域n2のさらに内側の領域であり、領域n4が第2の画像の中央部の領域である。また、ステップS31において、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、第2の画像を画面の外縁からの距離と明度の組み合わせからなる階級に分類した場合の階級の数は4×7=28個となる。
ステップS32が、ステップS30とともに、第1の占有率算出工程として機能し、第1の占有率が算出されるのは第1の実施形態の場合と同様である。
明度領域vi、色相領域Hjの組み合わせからなる階級において算出された第1の占有率をRijとすると、各階級における第1の占有率は表7のように表される。
Figure 2007184888
ステップS33が、ステップS31とともに、第2の占有率算出工程として機能し、第2の占有率が算出されるのも第1の実施形態の場合と同様である。
明度領域vi、画面領域njの組み合わせからなる各階級において算出された第2の占有率をQijとすると、各階級における第2の占有率は表8のように表される。
Figure 2007184888
<指標算出処理2>
次に、図18のフローチャートを参照して、指標算出処理(図14のステップS22)について説明する。
まず、第1の指標算出工程であるステップS40では、第1の占有率に予め設定された第1の係数を乗算して和をとることにより、指標1が算出され、次いで、第2の指標算出工程であるステップS41では、同じく第2の占有率に予め設定された第2の係数を乗算して和をとることにより、指標2が算出されるのは、第1の実施形態の場合と同様である。
指標1は、主要被写体のオーバー度を表す指標であり、「主要被写体がオーバー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。指標2は、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に表す指標であり、「逆光」、「主要被写体がアンダー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。
以下、指標1及び指標2の算出方法について説明する。
表9に、指標1を算出するために必要な第1の係数を階級別に示す。表9に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
表9によると、高明度(v5、v6)の肌色色相領域(H1)に分布する領域から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域から算出される第1の占有率には、負(−)の係数が用いられる。図33は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表9及び図33によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(−)であり、両者の符号が異なっていることがわかる。
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。
Figure 2007184888
従って、H1〜H4領域の和は、下記の式(2−5)〜(2−8)のように表される。
H1領域の和=R11×(−44)+R21×(−16)+(中略)
…+R71×(−11.3) (2−5)
H2領域の和=R12×0+R22×8.6+(中略)…+R72×(−11.1)
(2−6)
H3領域の和=R13×0+R23×(−6.3)+(中略)…+R73×(−10)
(2−7)
H4領域の和=R14×0+R24×(−1.8)+(中略)
…+R74×(−14.6) (2−8)
指標1は、式(2−5)〜(2−8)で示されたH1〜H4領域の和を用いて、式(21)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424
(21)
表10に、指標2を算出するために必要な第2の係数を階級別に示す。表10に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
表10によると、肌色色相領域(H1)の中間明度に分布する領域(v4)から算出される占有率には負(−)の係数が用いられ、肌色色相嶺域(H1)の低明度(シャドー)領域(v2、v3)から算出される占有率には正(+)の係数が用いられる。図34は、肌色領域(H1)における第2の係数を、明度全体にわたって連続的に変化する曲線(係数曲線)として示したものである。表10及び図34によると、肌色色相領域の、明度値が26〜84の低明度(シャドー)領域の第2の係数の符号は正(+)であり、明度値が85〜169の中間明度領域及びその他の領域での第2の係数の符号は負(−)であり、両領域での係数の符号が異なっていることがわかる。
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。
Figure 2007184888
従って、H1〜H4領域の和は、下記の式(4−5)〜(4−8)のように表される。
H1領域の和=R11×(−27)+R21×4.5+(中略)
…+R71×(−24) (4−5)
H2領域の和=R12×0+R22×4.7+(中略)…+R72×(−8.5)
(4−6)
H3領域の和=R13×0+R23×0+(中略)…+R73×0 (4−7)
H4領域の和=R14×0+R24×(−5.1)+(中略)…+R74×7.2
(4−8)
指標2は、式(4−5)〜(4−8)で示されたH1〜H4領域の和を用いて、式(22)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554
(22)
指標1及び指標2は、第2の画像の明度と色相の分布量に基づいて算出されるため、画像がカラー画像である場合の撮影シーンの判別に有効である。
指標1及び指標2が算出されると、第3の指標算出工程であるステップS42で、第2の占有率に、予め設定された第3の係数を乗算して和をとることにより、指標3が算出される。指標3は、主要被写体がアンダーな逆光と主要被写体がオーバーな画像間における、画像データの画面の中心と外側の明暗関係の差異を示すものである。
以下、指標3の算出方法について説明する。
表11に、指標3を算出するために必要な第3の係数を階級別に示す。表11に示された各階級の係数は、表2に示した各階級の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Figure 2007184888
図35は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。
Figure 2007184888
従って、n1〜n4領域の和は、下記の式(6−5)〜(6−8)のように表される。
n1領域の和=Q11×40.1+Q21×37+(中略)…+Q71×22
(6−5)
n2領域の和=Q12×(−14.8)+Q22×(−10.5)+(中略)
…+Q72×0 (6−6)
n3領域の和=Q13×24.6+Q23×12.1+(中略)…+Q73×10.1
(6−7)
n4領域の和=Q14×1.5+Q24×(−32.9)+(中略)
…+Q74×(−52.2) (6−8)
指標3は、式(6−5)〜(6−8)で示されたn1〜n4領域の和を用いて、式(23)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和+12.6201
(23)
指標3は、第2の画像の明度の分布位置による構図的な特徴(全体画像の画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
指標1〜3が算出されると、第4の指標算出工程であるステップS43で、第2の画像の画面中央部における肌色の平均輝度値と、最大輝度値と平均輝度値との差分値のそれぞれに、予め設定された係数を乗算することにより、指標4が算出される。
以下、図22のフローチャートを参照して、指標4の算出処理について説明する。
まず、ステップS50からステップS54に至る、第2の画像の画面中央部における肌色領域の平均輝度値x1、第2の画像の最大輝度値と平均輝度値との差分値x2=最大輝度値−平均輝度値、第2の画像の輝度の標準偏差x3、画面中央部における平均輝度値x4、そして第2の画像における肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5を算出する処理については、第1の実施形態の場合と同様であり、説明を省略する。
次いで、ステップS50〜S54で算出された値x1〜x5の値の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4が算出され(ステップS55)、指標4算出処理が終了する。指標4は、下記の式(8−3)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(−0.01)
×x4+0.03×x5−6.50 (8−3)
この指標4は、第2の画像の画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特に、主要被写体がオーバーである撮影シーンとアンダー撮影シーンの判別に有効である。
指標4が算出されると、第5の指標算出工程であるステップS44で、指標1、指標3、輝度情報BV、及び第2の画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標5が算出される。
さらに第6の指標算出工程であるステップS45で、指標2、指標3、輝度情報BV、及び第2の画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標6が算出され、本指標算出処理が終了する。
以下、指標5及び指標6の算出方法について説明する。
第2の画像の画面中央部における肌色領域の平均輝度値を指標7とする。ここでの画面中央部とは、例えば、図32の領域n2、領域n3及び領域n4から構成される領域である。このとき、指標5は、指標1、指標3、指標7、及び輝度情報BVを用いて式(24)のように定義され、指標6は、指標2、指標3、指標7、及び輝度情報BVを用いて式(25)のように定義される。
指標5=0.18×指標1+0.19×指標3+0.004×指標7−0.68
×BV+4.39 (24)
指標6=0.24×指標2+0.16×指標3+0.034×指標7−0.05
×BV+4.61 (25)
ここで式(24)及び式(25)において各指標に乗算される係数は、撮影条件に応じて予め設定されている。
また輝度情報BVに基づいて、指標5、指標6を算出する代わりに、指標1、指標2、指標3を算出するのに輝度情報BVを用いてもよい。その場合、指標5、指標6を算出するのに輝度情報BVを用いる必要はない。
<シーン判別2>
図14のステップS23(シーン判別)に戻る。
指標4〜6が算出されると、これらの指標の値に基づいて撮影シーンが判別されるが、シーン判別方法は第1の実施形態の場合と同様であり、説明は省略する。
(階調処理条件設定のフロー)
次に、第1の画像に対する階調処理条件設定(図31のステップS106)は、第1の実施形態の場合と同様であり、図24のフローチャートを用いて説明したとおりである。よって説明は省略する。
以上のように、上記第1の実施形態、第2の実施形態によれば、撮影時に算出される輝度情報を、画像のシーン判別のための指標算出に利用することにより、また判別されたシーンに応じて、階調変換処理の階調調整パラメータ算出に利用することにより、画像データからより高精度に撮影シーンを判別することができ、また主要被写体のオーバー、アンダー露光、順光、逆光シーンなどのシーン判別結果に応じて、より適切な補正処理を達成し、より適切な補正画像を得ることができる。
なお本発明の実施形態は、上記の実施形態に限定されるものではなく、本発明の趣旨に則る限り、様々な変更された形態もその範囲に含まれるものである。
本発明の実施形態に係る撮像装置1の外観構成例を示す図である。 撮像装置1の内部構成を示すブロック図である。 撮像処理部20の内部構成を示すブロック図である。 AE制御部での露光量制御を示すフローチャートである。 シャッタ速度の制御において撮像素子に電荷が蓄積する様子を示す図である。 AF制御部での画像の焦点を合わせる制御を示すフローチャートである。 撮影光学系の移動に伴うコントラスト情報の変化と合焦点位置検出の様子を示す図である。 画素補間部での、RGB各色成分ごとに画素間の補間を行う画像データの処理を示すフローチャートである。 AWB制御部での、撮影画像におけるホワイトバランスを自動的に調整する処理を示すフローチャートである。 ガンマ補正曲線の例を示す図である。 画像処理部10の内部構成を示すブロック図である。 撮影された第1の画像の一例を示す図(a)と、第1の画像を分割し、M×N画素の縮小画像とした第2の画像の一例を示す図(b)である。 撮像装置1において実行される処理の全体の流れを示すフローチャートである。 画像処理部10において実行されるシーン判別処理を示すフローチャートである。 占有率算出処理を示すフローチャートである。 明度と色相からなる階級を示す図である。 画面の外縁からの距離に応じて決定される領域n1〜n3を示す図(a)と、領域n1〜n3と明度からなる階級を示す図(b)である。 指標算出処理を示すフローチャートである。 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図である。 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図である。 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n3)に示す図である。 指標4算出処理を示すフローチャートである。 撮影シーン(順光、フラッシュ、逆光、アンダー)と指標4〜6の関係を示すプロット図である。 階調処理条件設定を示すフローチャートである。 各階調調整方法に対応する階調変換曲線を示す図である。 輝度の度数分布(ヒストグラム)(a)、正規化されたヒストグラム(b)及びブロック分割されたヒストグラム(c)を示す図である。 輝度のヒストグラムからの低輝度領域及び高輝度領域の削除を説明する図((a)及び(b))と、輝度の頻度の制限を説明する図((c)及び(d))である。 撮影シーンが逆光またはアンダーである場合の階調処理条件を表す階調変換曲線を示す図である。 本発明の実施形態に係る画像処理装置2の外観構成例を示す図である。 画像処理装置2の構成例を示すブロック図である。 画像処理装置2において実行される処理の全体の流れを示すフローチャートである。 画面の外縁からの距離に応じて決定される領域n1〜n4を示す図である。 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図である。 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図である。 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図である。
符号の説明
1 撮像装置
2 画像処理装置
10 画像処理部
11 筐体
13 装填部
14 画像読み込み部
15 画像書き込み部
16 プリント作成部
17 トレー
20 撮像処理部
21 筐体
22 十字キー
23 撮影光学系
24 フラッシュ
25 ファインダ
26 電源スイッチ
27 表示部
28 レリーズボタン
31 プロセッサ
32 メモリ
33 撮像素子
37 画像データ出力部
38 操作部
41 タイミングジェネレータ
42 シャッタユニット
43 絞りユニット
44 フォーカスユニット
51 AE制御部
52 AF制御部
53 画素補間部
54 AWB制御部
55 ガンマ補正部
71 操作部
72 制御部
73 フィルムスキャンデータ処理部
74 反射原稿スキャンデータ処理部
75 画像データ書式解読処理部
76 CRT固有処理部
77 プリンタ固有処理部A
78 プリンタ固有処理部B
79 画像データ書式作成処理部
81 フィルムスキャナ部
82 反射原稿入力装置
83 画像転送手段
84 通信手段(入力)
85 CRT
86 露光処理部
87 外部プリンタ
88 画像搬送部
89 通信手段(出力)
101 第1画像取得部
102 第2画像取得部
103 占有率算出部
104 指標算出部
105 シーン判別部
107 階調処理条件設定部
108 階調変換処理部

Claims (16)

  1. 撮影により取得された第1の画像から画像サイズを縮小した第2の画像を取得する第2の画像取得手段と、
    前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得手段と、
    前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理手段と、
    前記シーン判別処理手段によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定手段と、を有し、
    前記シーン判別処理手段はさらに、
    前記輝度情報取得手段により取得された輝度情報に基づいてシーンの判別処理を行い、
    前記階調処理条件設定手段はさらに、
    前記輝度情報取得手段により取得された輝度情報に基づいて階調処理条件の設定を行う、
    ことを特徴とする撮像装置。
  2. 前記シーン判別処理手段は、
    前記第2の画像の画像データについて色情報を取得し、
    取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出手段と、
    前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出手段と、
    前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出手段と、
    前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出手段と、
    前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出手段と、
    少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出手段と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出手段と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出手段と、
    前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別手段と、を有する、
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記階調処理条件設定手段は、
    前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出手段を有し、
    前記シーン判別処理手段によるシーン判別結果と前記階調調整パラメータ算出手段により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、
    ことを特徴とする請求項1または2に記載の撮像装置。
  4. 前記階調処理条件設定手段により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を有する、
    ことを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。
  5. 撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得手段と、
    前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得手段と、
    前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理手段と、
    前記シーン判別処理手段によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定手段と、を有し、
    前記シーン判別処理手段はさらに、
    前記輝度情報取得手段により取得された輝度情報に基づいてシーンの判別処理を行い、
    前記階調処理条件設定手段はさらに、
    前記輝度情報取得手段により取得された輝度情報に基づいて階調処理条件の設定を行う、
    ことを特徴とする画像処理装置。
  6. 前記シーン判別処理手段は、
    前記第2の画像の画像データについて色情報を取得し、
    取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出手段と、
    前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出手段と、
    前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出手段と、
    前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出手段と、
    前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出手段と、
    少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出手段と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出手段と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出手段と、
    前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別手段と、を有する、
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記階調処理条件設定手段は、
    前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出手段を有し、
    前記シーン判別処理手段によるシーン判別結果と前記階調調整パラメータ算出手段により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、
    ことを特徴とする請求項5または6に記載の画像処理装置。
  8. 前記階調処理条件設定手段により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を有する、
    ことを特徴とする請求項5乃至7の何れか1項に記載の画像処理装置。
  9. 撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得工程と、
    前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得工程と、
    前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理工程と、
    前記シーン判別処理工程によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定工程と、を備え、
    前記シーン判別処理工程ではさらに、
    前記輝度情報取得工程で取得された輝度情報に基づいてシーンの判別処理を行い、
    前記階調処理条件設定工程ではさらに、
    前記輝度情報取得工程で取得された輝度情報に基づいて階調処理条件の設定を行う、
    ことを特徴とする画像処理方法。
  10. 前記シーン判別処理工程は、
    前記第2の画像の画像データについて色情報を取得し、
    取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出工程と、
    前記取得された色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出工程と、
    前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出工程と、
    前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出工程と、
    前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出工程と、
    少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出工程と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出工程と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出工程と、
    前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別工程と、を備える、
    ことを特徴とする請求項9に記載の画像処理方法。
  11. 前記階調処理条件設定工程は、
    前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出工程を備え、
    前記シーン判別処理工程におけるシーン判別結果と前記階調調整パラメータ算出工程において算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、
    ことを特徴とする請求項9または10に記載の画像処理方法。
  12. 前記階調処理条件設定工程において設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理手段を備える、
    ことを特徴とする請求項9乃至11の何れか1項に記載の画像処理方法。
  13. コンピュータに画像処理を実行させるための画像処理プログラムであって、
    撮影された画像を取得した第1の画像に基づき、画像サイズを縮小した第2の画像を取得する第2の画像取得機能と、
    前記第1の画像の撮影時に算出される輝度情報を取得する輝度情報取得機能と、
    前記第2の画像に基づき撮影シーンの判別処理を行うシーン判別処理機能と、
    前記シーン判別処理機能によって得られたシーン判別結果に基づき、前記第1の画像に対する階調処理条件を設定する階調処理条件設定機能と、を有し、
    前記シーン判別処理機能はさらに、
    前記輝度情報取得機能により取得された輝度情報に基づいてシーンの判別処理を行い、
    前記階調処理条件設定機能はさらに、
    前記輝度情報取得機能により取得された輝度情報に基づいて階調処理条件の設定を行う、
    ことを特徴とする画像処理プログラム。
  14. 前記シーン判別処理機能は、
    前記第2の画像の画像データについて色情報を取得し、
    取得された前記色情報に基づいて、前記画像データを所定の明度と色相の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第1の占有率を算出する第1の占有率算出機能と、
    取得された前記色情報に基づいて、前記画像データを画面の外縁からの距離と明度の組み合わせからなる階級に分類し、当該分類された階級ごとに、前記画像データ全体に占める割合を示す第2の占有率を算出する第2の占有率算出機能と、
    前記第1の占有率に予め設定された第1の係数を乗算することにより、指標1を算出する第1の指標算出機能と、
    前記第1の占有率に予め設定された第2の係数を乗算することにより、指標2を算出する第2の指標算出機能と、
    前記第2の占有率に予め設定された第3の係数を乗算することにより、指標3を算出する第3の指標算出機能と、
    少なくとも前記画像データの画面中央部における肌色の平均輝度に、予め設定された第4の係数を乗算することにより、指標4を算出する第4の指標算出機能と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第5の係数を乗算することにより、指標5を算出する第5の指標算出機能と、
    前記指標1、前記指標2、及び前記指標3のうち少なくとも一つ以上の指標、及び前記輝度情報に、予め設定された第6の係数を乗算することにより、指標6を算出する第6の指標算出機能と、
    前記指標4、前記指標5、及び前記指標6に基づき、前記画像データのシーンを特定するシーン判別機能と、を有する、
    ことを特徴とする請求項13に記載の画像処理プログラム。
  15. 前記階調処理条件設定機能は、
    前記第2の画像、及び前記輝度情報に基づき算出された指標、に基づき階調調整パラメータを算出する階調調整パラメータ算出機能を有し、
    前記シーン判別処理機能によるシーン判別結果と前記階調調整パラメータ算出機能により算出された前記階調調整パラメータとに基づき、前記第1の画像に対する階調処理条件を設定する、
    ことを特徴とする請求項13または14に記載の画像処理プログラム。
  16. 前記階調処理条件設定機能により設定された階調処理条件に基づき、前記第1の画像に対する階調変換処理を行う階調変換処理機能を有する、
    ことを特徴とする請求項13乃至15の何れか1項に記載の画像処理プログラム。
JP2006062445A 2005-12-05 2006-03-08 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム Pending JP2007184888A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006062445A JP2007184888A (ja) 2005-12-05 2006-03-08 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005350477 2005-12-05
JP2006062445A JP2007184888A (ja) 2005-12-05 2006-03-08 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2007184888A true JP2007184888A (ja) 2007-07-19

Family

ID=38340567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006062445A Pending JP2007184888A (ja) 2005-12-05 2006-03-08 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2007184888A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010148016A (ja) * 2008-12-22 2010-07-01 Nippon Hoso Kyokai <Nhk> ノイズレベル検出装置
JP2010147969A (ja) * 2008-12-22 2010-07-01 Rohm Co Ltd 画像補正処理回路及びこれを集積化して成る半導体装置
WO2010074012A1 (ja) * 2008-12-22 2010-07-01 ローム株式会社 画像補正処理回路、半導体装置、画像補正処理装置
JP2010148014A (ja) * 2008-12-22 2010-07-01 Nippon Hoso Kyokai <Nhk> ノイズレベル検出装置
JP2010166351A (ja) * 2009-01-16 2010-07-29 Nippon Hoso Kyokai <Nhk> 動画像ノイズ除去装置および動画像ノイズ除去プログラム
WO2012176557A1 (ja) * 2011-06-22 2012-12-27 株式会社日立国際電気 テレビジョンカメラ装置
CN108777768A (zh) * 2018-05-31 2018-11-09 中国科学院西安光学精密机械研究所 一种基于标定的快速自动曝光调节方法
CN116485979A (zh) * 2023-04-28 2023-07-25 北京优酷科技有限公司 映射关系计算方法、颜色校准方法及电子设备

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102265594B (zh) * 2008-12-22 2014-07-02 罗姆股份有限公司 图像修正处理电路、半导体装置、图像修正处理装置
JP2010147969A (ja) * 2008-12-22 2010-07-01 Rohm Co Ltd 画像補正処理回路及びこれを集積化して成る半導体装置
WO2010074012A1 (ja) * 2008-12-22 2010-07-01 ローム株式会社 画像補正処理回路、半導体装置、画像補正処理装置
JP2010148014A (ja) * 2008-12-22 2010-07-01 Nippon Hoso Kyokai <Nhk> ノイズレベル検出装置
CN102265594A (zh) * 2008-12-22 2011-11-30 罗姆股份有限公司 图像修正处理电路、半导体装置、图像修正处理装置
JP2010148016A (ja) * 2008-12-22 2010-07-01 Nippon Hoso Kyokai <Nhk> ノイズレベル検出装置
US8675962B2 (en) 2008-12-22 2014-03-18 Rohm Co., Ltd. Image correction processing circuit, semiconductor device, and image correction processing device
JP2010166351A (ja) * 2009-01-16 2010-07-29 Nippon Hoso Kyokai <Nhk> 動画像ノイズ除去装置および動画像ノイズ除去プログラム
WO2012176557A1 (ja) * 2011-06-22 2012-12-27 株式会社日立国際電気 テレビジョンカメラ装置
US8860842B2 (en) 2011-06-22 2014-10-14 Hitachi Kokusai Electric, Inc. Television camera
CN108777768A (zh) * 2018-05-31 2018-11-09 中国科学院西安光学精密机械研究所 一种基于标定的快速自动曝光调节方法
CN116485979A (zh) * 2023-04-28 2023-07-25 北京优酷科技有限公司 映射关系计算方法、颜色校准方法及电子设备
CN116485979B (zh) * 2023-04-28 2024-03-26 神力视界(深圳)文化科技有限公司 映射关系计算方法、颜色校准方法及电子设备

Similar Documents

Publication Publication Date Title
US8797423B2 (en) System for and method of controlling a parameter used for detecting an objective body in an image and computer program
EP2608527B1 (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
JP2006319714A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2007184888A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
US20100265356A1 (en) Image processing method, image processing apparatus, image capturing appartus and image processing program
US20110043656A1 (en) Image processing device, imaging device, and image processing program
JP2006333205A (ja) 撮像装置、画像処理方法及び画像処理プログラム
JPWO2005112428A1 (ja) 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム
JP2007228221A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2007243542A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2007311895A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2007293686A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2007184887A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
WO2006033235A1 (ja) 画像処理方法、画像処理装置、撮像装置及び画像処理プログラム
JP2007221678A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2007312294A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2006318255A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2007288245A (ja) 撮像装置、画像処理方法及び画像処理プログラム
JP2007235369A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム
JP2007243556A (ja) 撮像装置、画像処理方法及び画像処理プログラム
JP2007201679A (ja) 撮像装置、画像処理方法、及び画像処理プログラム
JP2006197460A (ja) 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置
JP2006190154A (ja) 画像処理方法、画像処理装置、画像処理プログラム及び撮像装置
JP2007188464A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
JP2007293528A (ja) 撮像装置、画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827