JP2008244997A - 画像処理システム - Google Patents

画像処理システム Download PDF

Info

Publication number
JP2008244997A
JP2008244997A JP2007084133A JP2007084133A JP2008244997A JP 2008244997 A JP2008244997 A JP 2008244997A JP 2007084133 A JP2007084133 A JP 2007084133A JP 2007084133 A JP2007084133 A JP 2007084133A JP 2008244997 A JP2008244997 A JP 2008244997A
Authority
JP
Japan
Prior art keywords
color
image data
subject
image
shooting mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007084133A
Other languages
English (en)
Inventor
Takashi Fujita
貴志 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007084133A priority Critical patent/JP2008244997A/ja
Publication of JP2008244997A publication Critical patent/JP2008244997A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】異なる撮影モードで撮影された場合であっても、デジタル画像データの色を、被写体に相応しい撮影モードで記録される色に変換可能な画像処理システムを提供すること。
【解決手段】該画像データの撮影モード情報を取得する(ステップS201)。次いで、画像データ中の被写体を検出し(ステップS202)、被写体が検出される場合、取得された撮影モード情報に基づいて、画像データの撮影モードが、検出された被写体に相応しいか否かを判断する(ステップS204)。画像データの撮影モードが検出された被写体に相応しくないと判断される場合、画像データの撮影モードにより作成される色から、検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得する(ステップS206)。次いで、取得されたカラーテーブルに基づいて、画像データを色変換する(ステップS207)。
【選択図】図7

Description

本発明は、画像処理システムに関し、より詳細には、撮影モード間によって色処理の特性の異なる画像入力装置により作成された複数のデジタル写真画像データ間で、その入力色を近づけるための画像処理システムに関する。
近年では、安価で高性能なデジタルスチルカメラの普及により写真画像のデジタル化が手軽になり、特にパーソナルコンピュータ(以下、PC)上において、写真調の画像をデジタル画像データとして手軽に扱う機会が増えてきた。
具体的には、コンピュータ上で各種のアプリケーションソフトウェアを使用することで、写真調のデジタル画像データに好みの加工及び編集処理を容易に行うことができるようになった。こうした手軽さと高画質化により、益々、デジタル画像データを取り扱う機会が増えている。
また、最近ではデジタルスチルカメラの機能の拡張に伴い、多種多様の撮影モードを搭載するデジタルスチルカメラが増えてきている。
特開2003−110868号公報 特開2004−062651号公報 特開2004−303193号公報 特開2004−061762号公報
さて、デジタルスチルカメラの色作りは、それぞれの機種において、機種間で異なっている場合が多い。また、同じ機種であっても、撮影モードによって色作りが異なっている。また、ユーザは被写体や撮影シーンに応じて、撮影モードを切り替えて撮影する。このため、例えば、被写体が人物であるにも関わらず、撮影モードを人物撮影に相応しくないモードで撮影してしまうことにより、例えば肌色が過度に鮮やかになるなど、不自然な色に記録されることが考えられる。
このように、デジタルスチルカメラによって撮影したデジタル画像データに基づいて印刷を行う方式は、編集処理等を容易に行うことができるので有力な方式であるが、まだ改善すべき点が残されている。特に、撮影者が設定ミスにより被写体に相応しくない撮影モードで記録したデジタル画像データを、画像中の被写体に相応しい撮影モードで記録されるべき画像データの色に変換する仕組みが必要である。
本発明は、このような問題を鑑みてなされたものであり、その目的とするところは、異なる撮影モードで撮影された場合であっても、デジタル画像データの色を、被写体に相応しい撮影モードで記録される色に変換可能な画像処理システムを提供することにある。
このような目的を達成するために、本発明は、被写体を含む画像データを色変換する画像処理システムであって、前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、前記画像データ中の被写体を検出する被写体検出手段と、前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段とを備えることを特徴とする。
また、本発明は、被写体の撮影時に該被写体に相応しくない撮影モードで作成した画像データに対して、被写体に相応しい撮影モードで作成される色に近づけるように色変換する画像処理システムであって、前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、前記被写体の種類を特定する特定手段と、前記特定された被写体の種類に応じて、前記画像データから前記被写体を検出する被写体検出手段と、前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段とを備えることを特徴とする。
また、本発明は、被写体を含む画像データを色変換する画像処理装置であって、前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、前記画像データ中の被写体を検出する被写体検出手段と、前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段とを備えることを特徴とする。
本発明によれば、例えば被写体が人物であるにも関わらず、撮影モードを風景モードのような人物撮影に相応しくないモードで撮影記録した場合、人物モード以外の撮影モードで記録した場合の入力色から人物モードで記録した場合に得られる色に近づける。すなわち、画像データの撮影モードにより作成される色から、検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを作成し、該カラーテーブルによって画像データを補正する。このように補正することによって、デジタル画像データの色を、被写体に相応しい撮影モードで記録される色に変換可能である。よって、例えば過度に鮮やかに表された肌色を、本来の画像入力装置が意図する肌色に補正することが可能になる。
以下、図面を参照して本発明の実施形態を詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
(第1の実施形態)
図1は、本実施形態に係る画像処理システム100の概略構成を示すブロック図である。本実施形態において、画像処理システム100は、被写体を含む、少なくとも1つのデジタル画像データ(以下、単に“画像データ”とも呼ぶ)を色変換する。すなわち、画像処理システム100は、被写体の撮影時に該被写体に相応しくない撮影モードで作成した(記録した)画像データに対して、被写体に相応しい(適した)撮影モードで作成される色に近づけるように色変換する。また画像処理システム100は、少なくとも2つ以上の機種から入力されたデジタル画像データを同一の印刷媒体上または印刷ジョブによって印刷することもできる。
101は、CCD撮像素子等により撮影によって取得された画像を画像データに変換する画像入力部を示す。当該画像入力部101の画像入力装置として、デジタルスチルカメラが所定インターフェース(I/F)を介して接続されている。画像入力部101は、ケーブル接続、赤外線通信又は無線通信によりシステム100に接続する。画像入力部101により入力した画像データは、後述するROM105及びハードディスク(HD)109に記憶可能である。
なお、本実施形態において、画像入力部101には、複数の画像入力装置を接続することができる。すなわち、画像入力部101には、少なくとも1つの画像入力装置が接続されることになる。なお、画像入力装置として、デジタルビデオカメラを用いることもできる。
102は、各種処理動作を指示する指令あるいはデータ等を入力するための各種キーを備えるキーボード、及び、指示カーソルを操作するマウス等からなる操作部である。
103は、ROM105及び/又はHD109に記憶される各種プログラムに従って本システム100の全体を制御し、目的の画像データ処理を行うCPUである。すなわち、CPU103が、格納するROM105及び/又はHD109に記憶された本実施形態に係る処理などの制御プログラムに従って、種々の演算、制御、判別などの処理動作を実行する。
104は、ROM105及び/またはHD109に記憶される各種プログラムのワークエリア及びエラー処理時の一時退避エリアとして用いられるRAMである。
ROM105及びHD109には、本システム100を動作させるための各種プログラム等が格納されている。ROM105及びHD109には、プログラム以外にも、本実施例で利用する画像ファイル及び作成した画像ファイルを格納することもできる。
リーダ106には、フロッピー(登録商標)ディスクドライブ、MOドライブ、CDドライブ、及びメモリーカードリーダ等の、種々の記録媒体から記録データを読み取る装置がI/Fを介して接続する。システム100に接続されていないスキャナまたはデジタルカメラによってデジタル画像データを記録された記録媒体をリーダ106に接続することにより、そのデジタル画像データをシステム100に取り込むことが出来る。
107はCRT又は液晶ディスプレイ等からなる表示部である。表示部107は、各種プログラムの進行状況、デジタル画像データの画像、及び各種操作に必要なユーザインターフェースを表示するのに使用される。
画像データ処理部108は、撮影情報解析部108a、機種/モード情報保持部108b、被写体検出/判定部108c、画像/モード判定部108d、カラーテーブル指定部108e、カラーテーブル保持部108f、色変換処理部108gを有する。画像データ処理部108は、説明の便宜上、システムのハードウェア構成の一部のように記述しているが、RAM105又はHD109中に格納されたプログラムによって動作するソフトウェアであってもよい。
110は、印刷のために画像信号処理を施した画像信号にもとづいてドット画像を形成するプリンタである。プリンタ110としては、例えば、シリアルスキャン形式、ライン形式のインクジェット方式のプリンタ、電子写真方式のプリンタ、サーマルヘッド方式のプリンタ等を適用可能である。
111は、本システム100内のアドレス信号、データ及び制御信号等を伝送するバスラインである。
尚、本実施形態の画像処理システム100は、パーソナルコンピュータ上で動作する各種ソフトウェアの起動により実現するものとしても良いし、これに限られることはなく、その一部又は全部をハードウェアにより実現してもよい。画像データ処理部108を画像入力部101やプリンタ110に設けるように構成してもよい。このように、画像データ処理部108を単一の装置に組み込むことにより、例えば図7に示す本発明に特徴的な処理を画像処理装置内で行うことができる。
始めに、カラーテーブルの作り方の一例として、図2に、本実施形態に係るカラーテーブル作成の処理フローチャートを示す。
本実施形態では、画像処理システム100は、複数の撮影モード(人物モードや風景モード)に対してそれぞれ、カラーテーブルを作成する。すなわち、第1の撮影モード(例えば、人物モード)に設定して画像入力装置にて作成される画像データの色から、第2の撮影モード(例えば、風景モード)に設定して画像入力装置にて作成される画像データの色に近づけるようにカラーテーブルを予め作成する。
あるインクジェットプリンタで、例えばRGB空間を均等に分割したカラーパッチをある出力媒体に印刷出力する。本実施形態では、各成分を9分割した729パッチの画像データを用いる。このようにして、各成分を9分割した729パッチが記録された出力媒体を用意する。次いで、上記印刷出力した出力媒体を、任意の入力デバイス(画像入力装置)により、撮影モードA、Bのそれぞれで撮影する(ステップS100)。すなわち、上記入力デバイスを撮影モードA、Bに夫々に設定し、各撮影モードにおいて上記カラーパッチを撮影する。このようにして、上記入力デバイスは、撮影モードAにて作成されたパッチ画像データA、および撮影モードBにて作成されたパッチ画像データBをそれぞれ取得する。この時、光源などの撮影環境、露出などの撮影条件を同一に設定する。このようにして撮影して得られたカラーパッチ画像はRAWデータである。
本実施形態では、ステップS100で得られたカラーパッチ画像をRAWデータとしているがこれに限定されず、JPEG等に変換された後の画像データであった良い。
本明細書において、「撮影モード」とは、被写体に適した(相応しい)色作りを行うためのモードである。よって、例えば撮影モードAが人物モードであり、被写体が人物である場合、デジタルスチルカメラ等の入力デバイスを撮影モードAに設定することにより、人物に適した色作りを行うシーケンスが実行されることになる。
また、本明細書において、「被写体、主要被写体」とは、画像入力装置(入力デバイス)による撮影の対象となるもの、すなわち、撮影対象となる人、物、景色等である。よって、画像の中に、人物や景色が存在する場合、撮影対象が人物の場合は、被写体は人物となり、景色の場合は、被写体は景色になる。
次いで、上記入力デバイスは、取得されたパッチ画像データA、B中のカラーパッチのRGBデータを中間の色空間に変換する。中間の色空間としては、例えば、CIE(国際照明委員会)で定められているXYZ(CIE/XYZ)やL*a*b*(CIE/Lab)が利用できる。ここでは、Labに変換して以下の処理を行うものとする(ステップS101、102)。
また、RGBデータは入力デバイスの作業色空間(デバイスRGB)によって定義されるものとする。例えば、デジタルカメラであれば、sRGBを作業色空間としていることが多い。ここでは、RGBデータを作業色空間(sRGB)の定義に基づいて、Labに変換する。
すなわち、上記入力デバイスは、ステップS101にて、パッチ画像データA中の全パッチのRGBデータ、およびパッチ画像データB中の全パッチのRGBデータをsRGBに変換する。次いで、ステップS102にて、該変換されたsRGBから、撮影モードAに関するLabデータA、および撮影モードBに関するLabデータBを算出して取得する。
次いで、上記入力デバイスを画像入力部101に接続し、LabデータAおよびLabデータBを画像処理システム100に入力する。なお、この入力は、LabデータA,Bが記録された記録媒体からリーダ106を介して行っても良い。その際は、LabデータAおよびLabデータBを上記記録媒体に記録すれば良い。
画像処理システム100は、入力された撮影モードA、B夫々のLabデータAおよびLabデータBを照らし合わせ、撮影モードBを目標にするならば撮影モードBのLab値に近づけるように、撮影モードAの色相、彩度、明度を変換するテーブルを作る。具体的には、各パッチにおいて特に色差が大きいパッチを優先的に撮影モードA、BのLab値を基に、色相(H)、彩度(S)、明度(L)に関する変換定義を作る(ステップS103)。色相、彩度、明度に関する変換定義に従って、各要素を独立に変換する方法としては、特許文献1などが挙げられ、当業者には周知の技術である。
ステップS104について、図3に本実施形態において上記変換定義に基づいてカラーテーブルを作成する処理構成図を示す。ステップS104にて、画像処理システム100は、始めに作業色空間の8ビットRGB値(R)を夫々16レベルずつに分割した4913点に対してLab(L)に変換する(B100)。次にLをステップS103により作成された変換定義に基づいてLに変換する(B101)。当変換によって出力されるLを作業色空間のRGB値(R)に変換し(B102)、Rを記述することによって、カラーテーブルを作成する。このようにして、撮影モード間のRGB色空間での対応関係を記述したカラーテーブルが作成されることになる。
なお、本明細書において、「カラーテーブル」とは、撮影モードAにて作成された画像データの色を、撮影モードBにて作成された画像データの色に近づけるために用いる色変換テーブルを指す。
以上のステップにより、撮影モードAから入力される色を撮影モードBに入力される色に近づける色変換テーブルを予め作成する。このようにして作成された色変換テーブルは、ROM105および/またはHD109に格納される。
なお、本実施形態では、パッチ画像データからLabデータを作成する処理を、入力デバイスにて行っているが、画像処理システム100にて行っても良い。この場合は、ステップS100にてパッチ画像データを取得した後に、該パッチ画像データを画像処理システム100に入力し、画像処理システム100によってステップS101〜S102を行えば良い。
図4に上記作成されたカラーテーブルを保持する形式の一例として、カラーテーブル群112を示す。同じ撮影モードでも入力機種によって色作りが異なるため、入力機種A〜Dごとにカラーテーブルが作成されている。例えば、当該カラーテーブル群112中の「Portrait」は人物モード、「Scene」は風景モード、「Natural」は標準モードを意味する。例えば、「Scene to Portrait」は、風景モードで記録される色を人物モードで記録される色に近づけるカラーテーブルを意味する。
本実施形態では、ステップS103における変換定義の作成において、中間色空間としてLAB色空間を例にあげているが、特にLAB色空間に限ったものではなく、CIEで定義されたXYZ色空間、またはLUV色空間であってもよい。すなわち、作成されるカラーテーブルを、CIEで定義されたLAB色空間、XYZ色空間、およびLUV色空間の何れか一つに色空間との関係を記述するカラーテーブルとすることができる。
また、撮影されるカラーパッチも上記729パッチに限定するわけではないことは言うまでもない。例えば、他の方法として、R、G、B夫々の階調特性を示すチャートをデバイスA、Bで撮影し、各撮影モードにおいて、RGB各チャンネルの階調特性を示す入力データを取得する。
この時、本実施形態のようにRGBをLabに変換せずにカラーテーブルを作成する方法の一例を示す。例えば風景モードによって取得された階調特性を人物モードによって取得された階調特性に近づけるために、階調特性値の差分を算出し、算出された差分値に基づいて、変換定義を作成してもよい。
テーブル内部の一例について図5に示す。1行目に変換対象になる撮影モード、2行目に変換目標となる撮影モードの番号を記す。これは、テーブル探索の時に、これらの情報を基に必要なテーブルを簡単に探索できるようにするためである。3行目からRGBデータが記述される。
また、撮影機種、撮影モードとID番号との対応表を図6に示す。前記対応表を基に撮影モード情報にID番号を付けて、後述のステップS206においてカラーテーブルの1、2行目のデータを読み取ることにより、目的とするカラーテーブルをカラーテーブル保持部108eの中から検索する。
図5,6の例では、デバイスAにより被写体が人物である人物画像を風景モードで撮影記録した画像に対して、デバイスAの人物モードで得られる色に変換する。
図7は、画像データ処理部108の処理動作を示すフローチャートである。また、図8は本実施形態を実現するためのアプリケーションのユーザインターフェース(UI)1000を示す。読み取る画像データは、画像入力部101により直接読み込んだものでも、リーダ106で読み取ったものでも良い。もちろん、ROM105又はHD109に格納される画像ファイルから読み取った画像データでもよい。このようにして、画像処理システム100は少なくとも1つの入力画像データを取得する。以下図7、図8を参照しながら、被写体が人物である場合についての画像データ処理部108の処理動作を説明する。
なお、画像処理システム100に入力された画像データには、撮影機種に関する撮影機種情報および撮影モードが何モードかを示す撮影モード情報が添付されている。
本実施形態では、被写体が人物である場合(被写体人物モード)における色変換について説明する。よって、本処理が始まる前に、表示部107に表示されたダイアログからユーザにより、被写体人物モードが選択されることになる。すなわち、該選択により、画像処理システム100は、所定の画像において、被写体に適した撮影モードか否かの判断の基準になる撮影モードを取得する。
本実施形態では、被写体として人物を想定しているので、上記基準になる撮影モードとして人物モードを入力しているが、これに限定されない。すなわち、被写体として風景を想定する場合は、上記基準になる撮影モードとして風景モードを入力すれば良い。
また、上述のように本処理の初めに基準となる撮影モードを入力することに限定されない。例えば、予め画像処理システム100に対して、基準となる撮影モードを設定するようにしても良い。この場合は、本処理をスタートすると、自動的に基準となる撮影モードが人物モードとして本処理が行われる。
本実施形態で重要なことは、基準となる撮影モードをいつ設定するということではなく、後述の被写体を検出するステップ(S202)の前に、上記基準となる撮影モードを指定しておくことである。このように指定しておくことにより、各画像データにおいて、ユーザが所望の被写体を検出することができる。
また、本実施形態の本質は、上述の被写体を検出するステップ(S202)の前に、上記基準となる撮影モードを指定することではなく、上記ステップの前に、ユーザが想定する被写体の種類を画像処理システム100に認識させることである。すなわち、画像処理システム100が、ユーザが想定する被写体の種類が何であるかを取得できれば良いのである。上述のように、基準となる撮影モードを予め入力しておけば、該撮影モードからユーザが想定する被写体が分かるので、画像処理システム100は、被写体の種類を認識することになる。従って、ユーザが想定する被写体の種類を画像処理システム100に直接入力しても良い。このようにして、画像処理システム100は、後述する被写体の検出ステップにて検出の対象となる被写体の種類を取得することができる。
なお、本明細書において、「被写体の種類」とは、被写体として撮影の対象となるものの種類を指す。すなわち、被写体の種類としては、人物、風景、建築物等、様々なものが挙げられるが、撮影時にユーザは、撮影の対象として選択した(想定した)ものに適した撮影モードを選択することができる。
ステップS200では、入力された全ての画像データに対して本発明に係る処理を実行しても良いが、画像データの数量が多いほど処理時間が増大する。そのため、処理時間を短縮するために印刷あるいは編集する目的の画像データを選択し、当該選択された画像データに対してのみ処理を実行しても良い。図8では、画像データ1002〜1005のサムネイル画像が選択されていて、各サムネイル画像の周辺領域が配色されている。
すなわち、ステップS200では、画像データ処理部108は、ユーザにより画像データ1002〜1005が選択されると、該選択に応じて処理すべき画像データを選択し、各サムネイル画像の周辺領域に所定の色を配色する。このようにして、画像データ処理部108は、少なくとも1つ以上の処理すべき画像データを指定する。
ステップS201では、撮影情報解析部108aは、ステップS200で選択された画像データ1002〜1005の各々に対して、それぞれの画像データに添付された情報を解析することにより、撮影機種情報および撮影モード情報を取得する。撮影情報解析部108aは、取得した、撮影機種情報、撮影モード情報を機種/モード情報保持部108bに保持する。
ステップS202では、被写体検出/判定部108cは、ステップS201にて選択された画像データの各々に対して、被写体である人物の一部分を検出する処理を行う。本実施形態では、上述のように基準となる撮影モードとして人物モードが指定されているので、上述のように、人物の一部分を検出するのである。すなわち、被写体検出/判定部108cは、取得した検出の対象となる被写体の種類に応じて、画像データ中の被写体(ここでは、人物の一部分)を検出する。
本実施形態では、上記一部分を顔領域としている。被写体の顔領域を検出する処理方法に関しては、特許文献2等が開示されており、当業者には周知に技術である。
このようにして、被写体検出/判定部108cは、処理すべき画像データ中の所定の被写体(ここでは、人物)を検出し、画像データ1002〜1005において、被写体としての人物が含まれる画像データを特定する。
ステップS203では、被写体検出/判定部108cは、ステップS202にて少なくとも1つの画像データにおいて顔領域が検出された場合は、画像データ1002〜1005の少なくとも1つには、被写体である人物が存在すると判断する。次いで、ステップS204に進む。ステップS202にて、いずれの選択された画像データにも顔領域が検出されない場合は、画像データ1002〜1005には、被写体である人物が存在しない判断し、ステップS208に進む。
以下では、画像データ1002に人物が含まれている場合を説明する。従って、ステップS202において、被写体として人物が含まれる画像データとして画像データ1002が特定される。
ステップS204では、画像/モード判定部108dは、ステップS201で取得された画像データ1002〜1005の撮影モード情報を解析し、画像データ1002〜1005のうち人物を含む画像データについて、人物モードで撮影されたか否かを判定する。すなわち、画像/モード判定部108dは、ステップS202にて人物が含まれると特定された画像データ1002が、相応しい撮影モードである人物モードで撮影されたか否かを、ステップS201にて解析され取得された撮影モード情報に基づいて判断する。つまり、画像データ1002が、取得された撮影モード情報に基づいて、画像データ1002の撮影モードが、ステップS202にて検出された被写体に相応しいか否かを判断する
本実施形態では、図8に示した、モード判定ボタン1001をユーザが指定して当該判定処理(ステップS204)を行う。すなわち、ステップS203にてYESと判断すると、画像データ処理部108は、表示部107に、ユーザに撮影モードが被写体に相応しいか否かを判断させる旨が記載されたダイアログを表示し、ユーザにモード判定ボタン1001を指定させる。ここでは、画像データ1002のみ被写体の人物を含んでいるため、画像データ1002に対して被写体の顔領域が検出され、モード判定が行われる。
また、本実施形態では、ステップS203とステップS204との間に、ユーザにユーザ判定ボタン1001を指定させているが、この指定を行わなくても良い。すなわち、ステップS203が終了したら、自動的にステップS204を行うようにしても良い。
ステップS204において、被写体を含む画像データ1002の撮影モード情報が人物モードである場合は、画像データ処理部108は、当該画像データに対してステップS205〜S207の処理を行わずに、ステップS208に進む。そして、次の入力画像データがあるか否かの判断を行う。
ステップS204における判定結果、画像データ1002の撮影モード情報が人物モードと異なる場合は、画像データ処理部108は、ステップS205にて、表示部107によって警告を表示する。以下、この条件に当てはまる画像、すなわち、処理すべき画像のうち、被写体が適した撮影モードで撮影したものではない画像を対象画像と呼ぶ。
例えば、画像データ1002からは、被写体の顔領域が検出されたが、撮影モード情報が風景モードである場合、対象画像(画像データ1002)のサムネイル画像の周囲部に警告枠1006を表示する。
ステップS206では、カラーテーブル指定部108eは、上記機種/モード情報保持部108bに保持された機種情報、撮影モード情報に従って、該当するカラーテーブルをカラーテーブル群112から指定して取得する。次いで、カラーテーブル指定部108eは、取得したカラーテーブルをカラーテーブル保持部108fに保持する。すなわち、画像データ1002の入力元の機種が機種Aである場合、カラーテーブル112中の、機種Aの“Scene to Portrait”のカラーテーブルを選択する。
このように、カラーテーブル指定部108eは、画像データ1002の撮影モード(風景モード)により作成される色から、ステップS202にて検出された被写体に相応しい撮影モード(人物モード)により作成される色へ色変換するカラーテーブルを取得する。
なお、カラーテーブル群112の中に該当するカラーテーブルが存在しない場合は、Webを介してカラーテーブルを取得してもよい。Web上にも無い場合は、図2のテーブル作成フローに従って、新たにカラーテーブルを作成してもよい。あるいは、当該対象画像データに対して処理せずに終了してもよい。
ステップS207では、色変換処理部108gは、上記選択されたカラーテーブルに基づいて、対象画像に対して色変換処理を行う。
以上の処理結果、風景モードの色で記録される対象画像1002は、風景モードから人物モードの色に変換するカラーテーブルによって色変換することにより、対象画像1002は人物モードの色に変換される。
ステップS208では、画像データ処理部108は、次の入力画像データが存在するか否かの判断を行う。画像データ処理部108は、表示部107に、図8のユーザインターフェースを示し、ステップS200にて選択されなかった画像データをユーザに選択させる。このとき、ユーザによって選択されない場合は、次の入力画像データが存在しないことになる。次の入力画像データが存在しない場合は、画像データ処理部108は、本画像処理を終了する。また、ユーザによって新たに画像データが選択された場合は、ステップS201に進み、ステップS201〜S208を繰り返す。
本実施形態によれば、被写体を含む画像データを色変換する画像処理システムにおいて、処理すべき画像データの撮影モードが、該画像データ中の被写体に相応しいか否かを判断し、相応しくない場合は、適した色になるように色補正(色変換)を行う。従って、画像入力装置上で撮影時に設定された撮影モードにより作成された色が適していない場合、該色を、上記システム上で印刷する前の段階で、被写体に適した撮影モードによる色に補正することができる。
(第2の実施形態)
第1の実施形態では、ステップS200にて選択された少なくとも1つの画像データ全てについて同時にステップS201以降の処理を行っているが、これに限定されない。例えば、上記選択された少なくとも1つ以上の画像データについて1つずつステップS201以降の処理を行っても良い。
ステップS201では、撮影情報解析部108aは、ステップS200で選択された画像データ1002〜1005の1つに対して、それぞれの画像データに添付された情報を解析することにより、撮影機種情報および撮影モード情報を取得する。撮影情報解析部108aは、取得した、撮影機種情報、撮影モード情報を機種/モード情報保持部108bに保持する。以下では、画像データ1002についての処理を示す。
ステップS202では、被写体検出/判定部108cは、ステップS201にて選択された画像データ1002に対して、被写体である人物の一部分である顔領域を検出する処理を行う。上記ステップS201、S202によって、被写体検出/判定部108cは、被写体としての人物が含まれる画像データを特定することになる。
ステップS203では、被写体検出/判定部108cは、ステップS202にて顔領域が検出された場合は、画像データ1002には、被写体である人物が存在すると判断し、ステップS204に進む。ステップS202にて顔領域が検出されない場合は、画像データ1002には、被写体である人物が存在しない判断し、ステップS208に進む。
ステップS204では、画像/モード判定部108dは、ステップS201において取得された画像データ1002の撮影モード情報を解析し、ステップS201にて選択された画像データ1002について、人物モードで撮影されたか否かを判定する。すなわち、画像/モード判定部108dは、ステップS201にて得られた撮影モード情報に基づいて、人物を含むと特定された画像データ1002が、画像データ1002の被写体に適した撮影モードで撮影され作成された画像データであるか否かを判断する。
本実施形態では、図8に示した、モード判定ボタン1001をユーザが指定して当該判定処理(ステップS204)を行う。すなわち、ステップS203にてYESと判断すると、画像データ処理部108は、表示部107に、ユーザに撮影モードが被写体に相応しいか否かを判断させる旨が記載されたダイアログを表示し、ユーザにモード判定ボタン1001を指定させる。ここでは、画像データ1002のみ被写体の人物を含んでいるため、画像データ1002に対して被写体の顔領域が検出され、モード判定が行われる。すなわち、画像データ1003〜1005については、ステップS203にてNoに進む。
ステップS204において撮影モード情報が人物モードである場合は、画像データ処理部108は、当該画像データに対してステップS205〜S207の処理を行わずに、ステップS208に進む。そして、次の入力画像データ(画像データ1003〜1005)についてステップS201以降の処理を行う。
ステップS204における判定結果、取得された撮影モード情報が人物モードと異なる場合は、画像データ処理部108は、ステップS205にて、表示部107によって警告を表示する。
例えば、画像データ1002からは、被写体の顔領域が検出されたが、撮影モード情報が風景モードである場合、対象画像(画像データ1002)のサムネイル画像の周囲部に警告枠1006を表示する。
ステップS206では、カラーテーブル指定部108eは、第1の実施形態と同様にして、該当するカラーテーブルをカラーテーブル群112から指定して取得する。次いで、カラーテーブル指定部108eは、取得したカラーテーブルをカラーテーブル保持部108fに保持する。
ステップS207では、色変換処理部108gは、上記選択されたカラーテーブルに基づいて、対象画像に対して色変換処理を行う。
ステップS208では、画像データ処理部108は、次の入力画像データが存在するか否かの判断を行う。すなわち、画像データ処理部108は、ステップS200にて選択された画像データのうちステップS201〜S207までの処理が行われていない画像データがある場合は、ステップS201に戻る。このとき、表示部107に、図8のユーザインターフェースを示し、ステップS200にて選択されなかった画像データをユーザに選択させても良い。このとき、ユーザによって選択されない場合は、次の入力画像データが存在しないことになる。次の入力画像データが存在しない場合は、画像データ処理部108は、本画像処理を終了する。
<カラーテーブルの作成>
(第3の実施形態)
第1の実施形態では、図4に示すように各被写体モードへの変換を示すカラーテーブルを保持する場合は、あらゆる撮影モードの組み合わせのカラーテーブルを選択できるが、撮影モードが増える度に変換カラーテーブル数の増え方も大きい。
各モードに比べて色加工要素を抑制されたモードがあれば、当該モードにおけるカラーテーブルのXYZやLabを媒介することによって、カラーテーブル数を減らすことができる。図9(a)、(b)に、夫々第1の実施形態、本実施形態において、ある入力機種に関するカラーテーブル群の概略図を示す。
具体的には、RAW形式で撮影できるデジタルスチルカメラであれば、忠実に現像できるモードを有することが多い。
本実施形態では、RAW形式で撮影可能なデジタルスチルカメラにより撮影される画像データを例にとって説明する。
例えば、人物を被写体として撮影した画像は、人物に関するモードによって、肌色がきれいに見えるように色作りをされることが望ましい。しかし、撮影ミスによって被写体人物を風景に関するモードによって撮影した場合、風景に関するモードは鮮やかに色加工するモードであるため、肌色が鮮やかに色加工されることが考えられる。つまり、人物写真としては違和感が生じる。
まず、上記カラーパッチに関して、人物、風景など各撮影モードで取得される画像データLab1と、忠実モードで取得される画像データLabを作成する。第1の実施形態と同様に、画像データLab1の色を画像データLabの色に近づける色変換定義を定義すれば、各撮影モードで取得される作業色空間(例えばsRGB)とLabの関係を示すカラーテーブルを作成する。また、画像データLabの色を画像データLab1の色に近づける色変換定義に基づいて、忠実モードのLabから標準モードで得られる作業色空間のRGBへ変換するカラーテーブルを作成する。
具体的には、各カラーパッチにおいて、特に色差が大きいパッチを優先的に画像データLab1、画像データLabのLab値を基に、色相、彩度、明度に関する変換定義を作る。
同様に、この手順を想定される撮影モードに適用すれば、図9(b)に示す形態でカラーテーブル群を構成できる。人物モードをP、風景モードをS、それ以外のモードをOther1〜4とする。また、人物モードで記録される色へのカラーテーブル(toP)と、風景モードで記録される色へのカラーテーブル(toS)を保持するケースを想定する。
例えば、風景モードの色を人物モードの色へ近づける場合には、始めに風景モードのRGB値からLab値へ変換するカラーテーブル(StoLab)に基づいて、風景モードのRGB値からLab値へ変換する。次に当該変換により出力されたLab値に対して、Lab値から人物モードのRGB値へ変換するカラーテーブル(LabtoP)によって変換することにより、人物モードのRGB値に近づくように変換する。
第1の実施形態(図9(a))では、1機種あたり撮影モードが増える度に変換カラーテーブル数はtoP、toSと2個増える。これに対して本実施形態(図9(b))では、当該撮影モードにおける入力プロファイル(toLab)を保持するだけでよく、つまり1機種あたり1個増えるだけで済む。
本実施形態はRAW形式で撮影可能な機種を例にとったが、各メーカーがカラーテーブル群を提供してもよい。すなわち、RAW形式で保存できないデバイスであっても、メーカーが上記カラーテーブルを提供すれば、ユーザーはWEBを経由するなどして容易にカラーテーブルを取得することができ、被写体人物に相応しい色変換を実現することができる。
なお、本実施形態ではRGBとLabの関係を示すカラーテーブルを記述するが、Labの変わりに、XYZを記述しても良いのは言うまでも無い。
(第4の実施形態)
第3の実施形態では色変換定義をカラーテーブルとして説明したが、これはRGBと中間の色空間の関係を示しているのに他ならない。よって、本実施形態では、第3の実施形態において作成されるカラーテーブルであれば、当該カラーテーブルをICCプロファイル形式の入力プロファイルとして作成し、各出力デバイスに保持する。ICCプロファイルを用いることによって、一般的なのCMS(カラーマネジメントシステム)を利用することができる。すなわち、上記作成された入力プロファイルは、カラーマネジメントシステムに適用される。
例えば、Windows(登録商標)はICM、MacではColorSyncがOS標準のCMSとして提供されている。
第3の実施形態に従って説明すると、例えば風景モードの色を人物モードの色へ近づける場合には、入力プロファイルをStoLab、出力プロファイルをLabtoPの夫々ICCプロファイル形式で作成したものを用いる。こうすることより、テーブル数の削減とともに、一般的なCMSを利用することができる。
あるいは、入力プロファイルはデバイスBへの変換定義を含めたLab値を記述され、出力プロファイルは該当する出力デバイス(プリンタ等の画像形成装置)の出力プロファイルであっても良い。
入力プロファイルについて、具体的には、第1の実施形態と同様に図2の処理フローに従って作成する。ステップS102で得られた風景モードのLabを人物モードのLabに近づけるための変換定義に基づいて、例えば作業色空間sRGBのRGBから変換されたLabを更に変換する(L´a´b´)。このように、RGB値と対応づけられたL´a´b´を記述したテーブルを、入力プロファイルとする。
第1の実施形態では、作業色空間の色再現域の外に存在する色は、作業色空間の色再現域の外枠に張り付けられる。しかし、本実施形態のプロファイルを用いることにより、作業色空間の色再現域より出力デバイスの色再現域の方が広い領域では、作業色空間の色再現域外に存在する色は作業色空間の色再現域の外枠に張り付けられずに出力デバイスのRGB値に変換される。このため、出力デバイスの色再現域を最大限に生かすことができる。
図10に、本実施形態に係るカラーテーブル指定処理および色変換処理のフローチャートを示す。
画像データ処理部108は、入力プロファイルを保持するカラーテーブル群の中から、入力プロファイルを選択する(ステップS210)。次いで、画像データ処理部108は、当該カラーテーブル群の中から出力プロファイルを探索し(ステップS211)、出力プロファイルが存在する場合は、当該出力プロファイルを選択する(ステップS212)。次いで、画像データ処理部108は、選択された入出力プロファイルに基づいてCMSを実行する(ステップS214)。
ステップS211において該当する出力デバイスの出力プロファイルが存在しない場合は、画像データ処理部108は、Labから作業色空間のRGB値へ変換する出力プロファイルを選択する(ステップS213)。次いで、画像データ処理部108は、当該選択された入出力プロファイルによって色変換し(ステップS214)、ステップS214によって出力された作業色空間のRGB値を、プリンタ等の一般的な出力デバイスの色処理フローへ送る。
また、本実施形態ではRGBとLabの関係を示すカラーテーブルを記述するが、Labの変わりにXYZを記述しても良いのは言うまでも無い。
<警告表示方法>
(第5の実施形態)
第1の実施形態では、ステップS205において、取得された撮影モード情報が人物モードと異なる場合にユーザーへ警告を促す。しかし、第1の実施形態の図8のように、警告としてサムネイル画像の周囲に枠線を表示するステップに限定しなくてもよい。
例えば、ステップS201で保持される撮影モード情報に基づき、サムネイル画像の下部に撮影モードを表示してもよい。本実施形態では、風景モードを「Landscape」、標準モードを「Standard」という文字列を表示する。
図11に、本実施形態の処理ステップを実行するアプリケーションのUI1100を示す。モード判定ボタン1101によってモード判定処理を開始すると、撮影モードが風景モードの画像データ1102、1105、撮影モードが標準モードの画像データ1104は、それぞれサムネイル画像の下部に、撮影モード名を表示される。なお、撮影モードが人物モードの画像データ1103には、撮影モード名は表示されなくてもよい。
本実施形態により、一目で撮影モードが画像データの人物に相応しくないかを知ることができ、更に撮影モードの設定ミスの内容を知ることができる。
(第6の実施形態)
第5の実施形態の他にも、サムネイル画像の撮影モード名を表示する方法として、以下に示すステップによって実行してもよい。
すなわち、入力画像データのサムネイル表示画像領域に、ポインティングデバイスの操作によって上記表示部画面上の表示位置が移動するポインタを近づけた時に、撮影モード名をポップアップ表示するようにしても良い。
図12に、本実施形態に係る処理ステップを実行するアプリケーション1200を示す。モード判定ボタン1201によって実行開始したモード判定処理の結果、撮影モード情報が人物に関するモードと異なる場合には、ポインタ1202をサムネイル画像に近づけることによって、ポップアップ表示1203を表示する。すなわち、ポインタ1202を近づけることにより、当該ポインタ1202に最も近い位置のサムネイル画像の機種名をポップアップ表示1203のように表示する。
また、当該モード判定処理の結果、入力画像の機種が複数ある場合は、ユーザーに当該結果をより明確に伝えるために、例えば「撮影モードと被写体がマッチしてない画像があります!」などのメッセージボックスを表示してもよい。
(第7の実施形態)
第1の実施形態では、図8のアプリケーションUI1000に示すように、選択されているサムネイル画像は周辺部に配色され、警告としてサムネイル画像の周囲に枠線を表示する。
しかし、特に上記の表示形式に限定しなくてもよい。本実施形態では、第1の実施形態とは逆に、選択されているサムネイル画像の周囲に枠線を表示し、警告の表示方法としてサムネイル画像の周囲部に配色する。図13に、本実施形態を実現するアプリケーションのUI1300を示す。画像データ1302〜1305が選択されていて、モード判定処理の結果、画像データ1302、1304、1305に警告が表示される。すなわち、撮影モードが被写体に適していない画像データ1302、1304、1305のサムネイル画像の周囲部を所定の色に配色する。なお、撮影モードが被写体に適している画像データ1303の周囲部にも配色しても良い。この場合は、適しているか否かの判別を容易にするために、上記適した画像データ1303の背景色と、適していない画像データ1302、1304、1305の背景色とを異なるように配色すれば良い。
<撮影モードが標準の場合のメッセージ表示>
(第8の実施形態)
標準モードで撮影された画像データは、撮影者にとっては明らかな撮影ミスとは断定できないケースも考えられる。また、同一被写体を標準モード、人物に関するモード夫々の撮影モードに設定して撮影した画像データが混在することも考えられる。
本実施形態では上記のケースを考慮するために、画像処理システム100が、一旦、ユーザへメッセージを促すステップを含む。当該メッセージ内容は、標準モードに設定して被写体人物を撮影した画像データを、被写体人物に相応しいモードによって記録される色に変換するかという旨である。画像処理システム100は、上記メッセージを表示部107に表示する。
図14は、上記ステップを実行するために表示されるメッセージボックスを示す。本実施形態では、ステップS204が終了すると、画像データ処理部108は、図14に示したメッセージボックスを表示部107に表示する。ユーザがOKを選択した場合は、画像データ処理部108は、ステップS205以降の処理をする。Cancelを選択した場合は、画像データ処理部108は、標準モードに設定した画像データに対しては、ステップS205以降の処理をせずに、次の画像データへ進む。
このように、本実施形態では、画像データ処理部108は、ステップS202にて人物が検出され、かつ処理すべき画像データの撮影モードが標準モードである場合、人物モードで撮影した時に得られる色に変換するか否かをユーザに選択させる。この選択は、ステップS207における色変換の前に行わせる。
なお、本実施形態では、基準となる撮影モードを人物モードとしているが、風景モードであっても良い。この場合は、画像データ処理部108は、解析される画像データの被写体の種類が風景であり、かつ処理すべき画像データの撮影モードが標準モードである場合、風景モードで撮影した時に得られる色に変換するか否かをユーザに選択させる。なお、解析される画像データの被写体の種類が風景である形態については、後述の第15の実施形態にて説明する。
(種類の異なる枠線)
(第9の実施形態)
第8の実施形態のように、撮影モードが標準モードの画像が混在している場合にユーザに告知するならば、標準モードの画像については、別の形式の警告を促しても良い。標準モードの画像とそれ以外のモードとで警告の種類を分けることによって、ユーザはどの画像が標準モードで撮影されたのかの確認を容易にすることができる。また、第8の実施形態で示した標準モードの画像を被写体に相応しい画像にするべきかどうかの判断の材料にすることができる。
本実施形態では、第1の実施形態と同様に、選択されたサムネイル画像は、周辺領域の背景が配色される。そして、警告を表示するためにサムネイル画像の周辺に枠線が表示されるケースに基づいて、説明する。
本実施形態の処理について具体的には、撮影モードが標準モードの画像と標準モード以外の画像において、異なる種類、または色の枠線をサムネイル画像の外枠に表示する。
図15に、本実施形態を実行するアプリケーション1400を示す。画像データ1402〜1405が選択されている。撮影モードに関しては、画像データ1402、1405は標準モード以外(本実施例では風景に関するモード)、1403は人物に関するモード(人物モード)、1403は標準モードである。モード判定ボタン1401によりモード判定処理の実行を開始すると、前記選択画像のうち、サムネイル画像1402、1404、1405の外枠に警告を意味する枠線が表示される。この時、サムネイル画像1404は、1402、1405と種類の異なる枠線が表示される。このサムネイル画像1404の枠線の色を変えるようにしても良い。
また、凡例1406には、標準モードの場合と標準モード以外の場合のそれぞれの枠線が表示される。
(種類の異なる背景色)
(第10の実施形態)
第7の実施形態では、選択されたサムネイル画像は画像の周辺に枠線が表示され、警告表示されるサムネイル画像は周辺の背景が配色される。本実施形態では、撮影モードが標準モードの画像と撮影モードが標準に関するモード(標準モード)以外である画像のサムネイル表示画像周辺の背景色を、それぞれ異なるように配色する。
図16に、本実施形態を実行するアプリケーション1500を示す。
画像データ1502〜1505が選択されている。撮影モードに関しては、画像データ1502、1505は標準モード以外(本実施形態では風景に関するモード)、1503は人物モード、1504は標準モードである。モード判定ボタン1501によりモード判定処理の実行を開始すると、上記選択画像のうち、サムネイル画像1502、1504、1505の外枠に警告を意味する背景色が配色される。この時、サムネイル画像1504は、1502、1505と色の異なる背景色が配色される。また、凡例1506には、標準モードの場合と標準モード以外の場合のそれぞれの背景色が表示される。
<人物を含む画像(人物画像)以外の消去>
(第11の実施形態)
被写体検出結果、被写体の一部分が検出されなかった画像データ(被写体の顔が検出されなかった画像データ)については、本発明の処理対象外のため、サムネイル表示画像を消去しても良い。当該処理対象外のサムネイル画像を消去することによって、アプリケーション上には人物画像のみ表示されるため、ユーザは人物画像のみに集中してチェックできる。
本実施形態について、図17(a)、(b)に基づいて説明する。アプリケーション1600は、被写体検出ボタン1601を有し、入力画像データのうちサムネイル画像1602〜1610がアプリケーション3200上に表示される。当該サムネイル画像のうち、1602、1606〜1608は人物が含まれている(図17(a))。被写体検出ボタン1601の実行により、被写体の顔が検出されない画像データのサムネイル表示画像は消去される。そして、当該消去によって空いたスペースを埋めるために、被写体の顔が検出された画像1602、1606〜1608の表示位置がシフトされる(図17(b))。当該シフトによって、図17(a)ではスクローリングされないと表示されなく、かつ被写体の顔が検出されたサムネイル画像1611、1612は、図17(b)では新たに表示される。
以上の処理の通り、選択したサムネイル画像を消去することによって、ユーザはアプリケーション上に表示される未選択画像のみに集中してチェックできる。
<人物判定方法>
(第12の実施形態)
本実施形態は、第1の実施形態と同様に図7の処理図に従って実施される。ただし、本実施形態では、画像/モード判定部108dにおいて「被写体は人物か否か」の判定方法をもう少し詳細に行う。
例えば、人物領域を検出し、検出された面積に対して背景の空や山などの風景がはるかに大きな比率を占めている画像を挙げる。顔領域のみならず胴体領域を含めた人物領域を検出する処理方法に関しては、特許文献3のように、顔検出処理によって得られた顔矩形座標に基づいてマスク処理を行うことによって、人物領域を検出する。
この場合、人物に対して最適な処理を施すよりも、背景に対して最適な処理を施した方が画像データとして処理効果が大きい。それを実現するために、人物領域を含むが背景領域の方がはるかに大きな画像に対しては、主要被写体は人物ではないと判定する方法を挙げる。
具体的には、ステップS203において、被写体検出/判定部108cが検出した人物領域が画像データ全体に占める面積比率に応じて、人物を主要被写体とする画像か(人物モードに設定して撮影されるのが望ましいか)否かを判定する。より具体的には、被写体検出/判定部108cは、ステップS202にて検出された人物領域が、該人物領域が含まれる画像データ全体に占める割合(面積比率)(“人物領域の割合”とも呼ぶ)を算出する。
予め画像/モード判定部108dには、当該判定するための閾値が設定される。当該面積比率が閾値以上ならば、解析された画像は人物を主要とする被写体であると判定される。その場合は、第1の実施形態と同様にステップS104以降の処理を実行する。すなわち、画像/モード判定部108dは、上記算出された割合(面積比率)に基づき、上記閾値と比較することによって、解析されている画像データの被写体の種類を判定する。この判定結果、検出された人物領域の画像データ全体に占める割合が閾値を越える場合には、上記被写体に相応しい撮影モードは人物モードである、と判定される。
一方、上記割合が閾値以下である場合は、画像データ処理部108は、設定されている基準となる撮影モードは人物モードであるが、解析されている画像データにおいて適した撮影モードは風景モードと判断する。従ってこの場合に限り、画像/モード判定部108dは、ステップS204にて、ステップS201にて取得された撮影モード情報が風景モードであるか否かの判断を行い、風景モードではない場合にステップS205に進む。
本実施形態に対して検出される領域に関して、人物領域に限定はしないのは言うまでも無い。例えば、検出された顔領域等、人物の少なくとも一部分に対して本実施形態を適用しても良い。
また、前記閾値の設定手順は、ユーザが任意に調整できる機能を持たせても良い。その場合は人物と風景が入っているサンプル画像を表示し、調整された面積比率に応じてトリミングラインをサンプル画像上に表示させる。
<人物判定の閾値設定方法>
(第13の実施形態)
第12の実施形態では、人物を主要被写体とする画像か否かを判定するために、予め閾値を設定する。本実施形態では、当該閾値の設定方法について述べる。
図18に、当該閾値を定めるためのアプリケーション1700を示す。サンプル画像として、人物の背景が風景である背景画像の構図にしている。
本実施形態では、複数段階に被写体人物の占める領域の大きさを変えているサンプル画像を並べる。ユーザはこの中から最低ラインの人物画像、つまりこれ以上人物が小さい場合は顔領域への色補正/加工処理されなくても良いと思うような画像を選択する。
また、構図が縦か横かによって、人物の大きさ、または画像の持つ雰囲気も違うので、横構図のみではなく、1701のように縦構図のサンプル画像も表示し、ユーザは横、縦ともに人物を主要被写体とした画像を選択する。
以上の方法により、選択されたサンプル人物画像における人物領域の画像データ全体に占める割合(面積比率)を閾値として、設定する。本実施形態では、面積比率は固定されている。そのため、後はユーザにより定められたトリミングライン中の画素数を求め、人物領域の面積比率を算出する。当該算出結果を、閾値として設定する。
本実施形態に対して算出される面積比率に関して、人物領域に限定しないのは言うまでも無い。例えば、顔領域等、人物の少なくとも一部分に対して本実施形態を適用しても良い。
(第14の実施形態)
第13の実施形態の他にも、ユーザが自由にトリミングすることにより、人物の占める割合を定めても良い。すなわち、本実施形態では、上記閾値は、人物を被写体にして風景を背景にして撮影されたサンプル画像をトリミングする結果に基づいて設定される。本方法により、第12の実施形態に示すように予め人物領域の割合の定められたサンプル画像の中から選択するよりも細かく調整できるため、ユーザの本当にイメージしている人物画像の基準を設定することができる。
図19に、当該閾値を定めるためのアプリケーション1800を示す。サンプル画像の横構図1801、縦構図1803が表示される。ユーザは夫々の画像上に表示されているトリミングライン1802、1804をポインティングデバイスの操作によって拡大/縮小することによって、前記最低ラインの人物画像を定める。
以上の方法により定められたサンプル人物画像における人物領域の面積比率を算出する。本実施形態では、人物領域の面積は予め固定される。後はユーザにより定められたトリミングライン1802、1804中の画素数を求め、人物領域の面積比率を算出する。当該算出結果を、閾値として設定する。
本実施形態に対して算出される面積比率に関して、人物領域に限定しないのは言うまでも無く、例えば、顔領域等、人物の少なくとも一部分に対して本実施形態を適用しても良い。
<人物/風景判定方法>
(第15の実施形態)
本実施形態では、画像/モード判定部108dにおいて「主要被写体は風景である否か」の判定を行う。前記風景解析の方法としては、特許文献4などが挙げられる。特許文献4では、画像入力装置としてのデジタルカメラにて作成される撮影情報の中から得られた被写体距離に関する情報に基づいて判定している。
本実施形態では、デジタルスチルカメラ等の画像入力装置は、被写体の撮影を行う際に、ユーザによるレリーズボタンの半押し等により焦点調整を行うと共に、撮影レンズの焦点位置から被写体までの距離(被写体距離)を測定する。次いで、該測定された被写体距離に関する被写体距離情報を画像データに添付する。よって、この画像入力装置が画像処理システム100に接続されると、画像処理システム100は、画像データ、撮影機種情報、撮影モード情報と共に、被写体距離情報を取得する。
具体的な処理手順を図20のフローチャートに従って説明する。
ステップS300では、図7のステップS200のように画像データを選択するなどして、画像データ処理部108は、処理すべき画像データを取得する。
ステップS301では、撮影情報解析部108aは、ステップS201と同様にして、処理すべき画像データの撮影機種、撮影モードの他に被写体距離についても解析し、撮影機種情報、撮影モード情報、および被写体距離情報を取得する。次いで、撮影情報解析部108aは、取得された、撮影機種情報、撮影モード情報、および被写体距離情報を撮影情報保持部108bに保持する。
ステップS302では、被写体検出/判定部108cは、ステップS202と同様にして被写体の人物領域を検出する。
ステップS303では、被写体検出/判定部108cは、被写体として人物が検出された場合は、ステップS304に進み、第12の実施形態にて説明した方法に基づいて、人物領域の割合を求め、閾値Thと比較する。ステップS304における閾値は、第13、14の実施形態の方法に基づいて予め設定することができる。
ステップS304にて人物領域の割合が閾値Th以上の場合は、被写体検出/判定部108cは、主要被写体が人物であると判断して(ステップS305)、ステップS308に進む。人物領域の割合が閾値Th未満の場合は、被写体検出/判定部108cは、主要被写体が人物ではないと判断して、ステップS306に進む。
ステップS303において被写体として人物が検出されなかった場合、あるいは、検出された被写体の人物領域の割合が閾値未満の場合は、ステップS306に進む。ステップS306では、被写体検出/判定部108cは、撮影情報保持部108bから読み出された被写体距離情報が所定値(例えば15m)以上か否かを判定する。
当該判定結果、被写体距離が15m以上である場合、被写体検出/判定部108cは、ステップS307において処理すべき画像の主要被写体は風景であると判定する。このとき、画像データ処理部108は、当該処理されている画像データに関してのみ、基準となる撮影モードを人物モードから風景モードに変更する。
よってこの場合は、風景に関するモードが最も相応しいことになる。ゆえに、撮影情報保持部108bによって検出された撮影モードから風景に関するモードで記録される色に変換するカラーテーブルを指定する。
当該判定結果、被写体距離が15mである場合、被写体検出/判定部108cは、ステップS307において処理すべき画像の主要被写体は風景ではないと判定する。当画像データに対し以降の処理は行わず、ステップS300に戻り、次の選択画像に対して処理を行う。
ステップS308では、画像/モード判定部108dは、ステップS301にて取得された撮影モード情報に基づいて、撮影モードが被写体に適しているか否かを判定する。ステップS305に続く処理の場合は、撮影モードが人物モードか否かの判断を行い、ステップS307に続く処理の場合は、撮影モードが風景モードか否かの判断を行う。
撮影モードが相応しいモードでは無い場合は、画像/モード判定部108dは、ステップS309に進む。撮影モードが相応しいモードであると判断された場合は、当画像データに対し以降の処理は行わず、ステップS300に戻り、次の選択画像に対して処理を行う。
ステップS309〜S311については、ステップS205〜S207と同様の処理を行う。
このように本実施形態では、画像データ処理部108は、人物領域の割合が閾値Thを超えない場合であり、かつ被写体距離が所定値を超える場合は、画像データの被写体の種類を風景と定める。
なお、本実施形態に対して検出される領域は、人物領域に限定しないのは言うまでも無く、例えば、顔領域等、人物の少なくとも一部分に対して本実施形態を適用しても良い。
<カラーテーブルの取得方法>
(第16の実施形態)
第1の実施形態では、ROM105やHD109などの記憶装置からカラーテーブルを探索し、取得する。しかし、第1の実施形態のように全てのカラーテーブルを記憶装置に保持するなら、カラーテーブルの増加に伴い記憶装置の増設を要することが考えられるが、常にWebサーバからカラーテーブルを取得することにより、記憶装置の増設の必要は無い。そのため、上記の方法に限定せず、例えば、常にネットワークを介してWeb上からカラーテーブルを取得しても良い。以下、第1の実施形態と異なる処理手段についてのみ説明する。
図21に本実施形態の構成を示すブロック図を示し、図22に本実施形態に係る処理に関するフローチャートを示す。
本実施形態に係る画像処理システム200は、第1の実施形態の画像処理システム100の内部にネットワークIF部201を備えている。画像処理システム200は、ネットワークIF部201およびネットワーク202を介してWebサーバ203へアクセスする。一例として、カラーテーブル群205には各機種において、対象となる撮影モードの色から目標となる撮影モードの色へ近づけるためのカラーテーブルがそれぞれ蓄積されている。
具体的な実施形態について説明する。始めに、画像処理システム200は、第1の実施形態と同様に機種情報、撮影モード情報を取得する。次に、機種情報、撮影モード情報に対応するID番号(図6)に基づいて、ネットワークIF部201がカラーテーブル取得先アドレスを設定する(ステップS300)。当該設定されるアドレスは、Webサーバ203のカラーテーブル群205中に存在する上記ID番号に該当するカラーテーブルのアドレスを示す。当該アドレスにアクセスすることにより、該当するカラーテーブルへ自動的にアクセスすることができる。つまり、ユーザは容易にカラーテーブルを取得(ダウンロード)することができる。
画像処理システム200は、ネットワーク202を介してWebサーバ203へアクセスする(ステップS301)。
カラーテーブル選択部204は、ネットワークIF部201から受信したアドレスに従ってカラーテーブルを選択する(ステップS302)。画像処理システム200は、ネットワーク202を介して、当該選択したカラーテーブルをダウンロードすることにより(ステップS303)、カラーテーブルを保持する(ステップS304)。
なお、図22に示す処理を、後述の実施形態の説明を容易にするために「処理A」と名づける。
以上のステップによって、ユーザはWebサーバから、第1の実施形態と同様の方法で取得された機種情報、撮影モード情報に該当するカラーテーブルを取得する。すなわち、画像処理システム200は、常にネットワーク202を介してテーブル管理装置としてのWebサーバ203にアクセスすることができる。画像処理システム200は、Webサーバ203にアクセスして、適切なカラーテーブルを探索し、該カラーテーブルをWeb上からダウンロードすることにより、上記カラーテーブルを取得する。
なお、この取得されたカラーテーブルは、画像処理システム200が有するROMやHDに蓄積しても良いし、RAMにて一時的に保持するようにしても良い。
上記実施形態のように全てのカラーテーブルを記憶装置に保持するなら、記憶装置の増設を要することが考えられるが、常にWebサーバからカラーテーブルを取得することにより、記憶装置の増設の必要は無い。また、カラーテーブルの一部を記憶装置に保持し、一部をWebからダウンロードするようにすることで、上記記憶装置の増設を低減することができる。
なお、ネットワーク202としては、LAN、インターネット、無線等、Web環境の通信手順に対応するものであれば、その種類を問わない。
(第17の実施形態)
第16の実施形態では、カラーテーブルを選択するステップにおいて、常にネットワークを介してWebサーバにアクセスし、Web上からダウンロードするが、上記カラーテーブルの取得先については上述の例に限定しない。
図23に本実施形態の構成を示すブロック図を示し、図24に本実施形態における処理に関するフローチャートを示す。
図23では、本実施形態に係る画像処理システム210と、ネットワーク212としてはLAN接続を介して予めデータベースサーバ213が構築、接続される。また、インターネット等のネットワーク212を介してWebサーバ214が接続される。ここで、ネットワーク212は、機器と機器とを結ぶネットワークであり、本実施形態では、LANやインターネットを含む。
画像処理システム210は、ネットワークIF部211およびネットワーク212を介してデータベース213、Webサーバ214へアクセスする。Webサーバ214、カラーテーブル選択部215、カラーテーブル群216は、第16の実施形態のWebサーバ203、カラーテーブル選択部204、カラーテーブル群205に夫々相当するため、詳しい説明は省く。
例えば、本実施形態に係る画像処理システム210とLAN接続して、予め、ローカルサーバとしてのデータベースサーバを構築しておく。このデータベースサーバは各カラーテーブルを蓄積するためのカラーテーブルデータベース213が蓄積されている。画像処理システム210は、カラーテーブルデータベース213にアクセスし(ステップS310)、データベースサーバは、当該データベース上に蓄積されるカラーテーブルの中から、該当するカラーテーブルを探索する(ステップS311)。
ステップS311での探索結果、該当するカラーテーブルが存在する場合は、データベースサーバはデータベース上から選択し、該選択されたカラーテーブルを画像処理システム210に送信する。(ステップS312)。画像処理システム210は、送信されたカラーテーブルを保持する(ステップS313)。すなわち、上記カラーテーブルがカラーテーブルデータベース213に存在する場合は、画像処理システム210は、上記データベースの中からカラーテーブルを取得する。
該当するカラーテーブルが存在しない場合は、画像処理システム210は、Webサーバ214にアクセスし、第16の実施形態に従ってネットワーク212を介してダウンロードすることにより、カラーテーブルを取得する(処理A)。
なお、上記取得されたカラーテーブルは、画像処理システム210が有するROMやHDに蓄積しても良いし、RAMにて一時的に保持するようにしても良い。
(第18の実施形態)
入力機種がユーザにとっては稀な機種である場合、上記カラーテーブルをWeb上からダウンロードするステップにおいて、関連するカラーテーブルは選択される機会が将来的に極めて少ないと考えられる。よって、データベースの中に蓄積しても記憶装置の容量を消費するだけである。そのため、本実施形態では、カラーテーブルを取得する際に、上記データベースの中に蓄積するかどうかを選択するステップを設ける。上記ステップを実行することにより、ユーザが今回を除いて今後はおそらく扱わないと判断した入力機種に関連するカラーテーブルに関しては、データベースの中に蓄積されることなく、現時点の色変換に用いることができる。
図25に、本実施形態における処理に関するフローチャートを示す。
画像処理システムは、データベースサーバが有するデータベースにアクセスし(ステップS320)、当該データベース上に蓄積されるカラーテーブルの中から、該当するカラーテーブルを探索する(ステップS321)。上記探索結果、該当するカラーテーブルが存在する場合は、データベースサーバはデータベース上から選択し、該選択されたカラーテーブルを画像処理システムに送信する。(ステップS322)。画像処理システムは、送信されたカラーテーブルを保持する(ステップS323)。
該当するカラーテーブルが存在しない場合は、画像処理システムは、Webサーバにアクセスし、上述の実施形態に従ってカラーテーブルを取得する(処理A)。
画像処理システムは、処理フAによって保持されるカラーテーブルに関して、データベースの中に蓄積するかどうかを選択する(ステップS325)。例えば、「カラーテーブルを保存しますか?」とメッセージウインドウを表示させ、ユーザがカラーテーブルを蓄積するか否を判定できるようにする。ユーザがカラーテーブルを保存しないと命令した場合、つまり蓄積しない場合は、画像処理システム510は処理を終了し、蓄積する場合は、データベースの中にカラーテーブルを蓄積する(ステップS326)。
(本発明の他の実施形態)
上述の実施形態では、複数の機器を備える画像処理システムに、本発明に特徴的な処理を適用しているが、1つの機器(例えば、PC、MFP、プリンタなど)に適用しても良い。
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。また、前述のプログラムが記憶された記憶媒体はもちろんそのプログラム自体も上述の実施形態に含まれる。
かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。
また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。
本発明の一実施形態に係る画像処理システムの概略構成ブロック図である。 本発明の一実施形態に係るカラーテーブル作成の処理フローチャートである。 本発明の一実施形態に係るカラーテーブル作成処理の処理構成図である。 本発明の一実施形態に係るカラーテーブル群の一例を示す図である。 本発明の一実施形態に係るカラーテーブルの形態の一例を示す図である。 本発明の一実施形態に係る撮影機種、撮影モードとID番号の対応表の一例を示す図である。 本発明の一実施形態に係る画像データ処理部の処理フローチャートである。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るカラーテーブル群の詳細図である。 本発明の一実施形態に係るカラーテーブル選択の処理フローチャートである。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るメッセージウインドウの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係るアプリケーションの一例を示す図である。 本発明の一実施形態に係る処理フローチャートである。 本発明の一実施形態に係るカラーテーブル選択処理の構成ブロック図である。 本発明の一実施形態に係るカラーテーブル選択処理のフローチャートである。 本発明の一実施形態に係るカラーテーブル選択処理の構成ブロック図である。 本発明の一実施形態に係るカラーテーブル選択処理の処理フローチャートである。 本実施形態に一実施形態に係る処理フローチャートである。
符号の説明
100 画像処理システム
101 画像入力部
102 操作部
103 CPU
104 RAM
105 ROM
106 リーダ部
107 表示部
108 画像データ処理部
109 HD
110 プリンタ
111 バスライン
200 画像処理システム
201 ネットワークインターフェース
202 ネットワーク
203 WEBサーバ
204 カラーテーブル選択部
205 カラーテーブル群
206 カラーテーブル
210 画像処理システム
211 ネットワークインターフェース
212 ネットワーク
213 WEBサーバ
214 カラーテーブル選択部
215 データベース
216 カラーテーブル群

Claims (30)

  1. 被写体を含む画像データを色変換する画像処理システムであって、
    前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、
    前記画像データ中の被写体を検出する被写体検出手段と、
    前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、
    前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、
    前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段と
    を備えることを特徴とする画像処理システム。
  2. 前記カラーテーブルを作成するカラーテーブル作成手段をさらに備え、
    前記カラーテーブル作成手段は、複数の撮影モードに対してそれぞれ、第1の撮影モードに設定して画像入力装置にて作成される画像データの色から、第2の撮影モードに設定して画像入力装置にて作成される画像データの色に近づけるようにカラーテーブルを予め作成することを特徴とする請求項1に記載の画像処理システム。
  3. 前記取得手段は、前記画像データに添付された情報を解析することによって前記撮影モード情報を取得することを特徴とする請求項1または2に記載の画像処理システム。
  4. 前記画像データには、前記画像データの撮影機種情報がさらに添付されていることを特徴とする請求項1乃至3のいずれかに記載の画像処理システム。
  5. 前記カラーテーブル作成手段は、前記複数の撮影モードに対してそれぞれ、第1の撮影モードで作成される画像データの色の色相、彩度、明度を変換することにより、前記第1の撮影モードで作成される画像データの色を第2の撮影モードで作成される画像データの色へ近づけるように色変換を行うためのカラーテーブルを作成することを特徴とする請求項2に記載の画像処理システム。
  6. 前記カラーテーブルは、撮影モード間のRGB色空間での対応関係を記述したカラーテーブルであることを特徴とする請求項1乃至5のいずれかに記載の画像処理システム。
  7. 前記カラーテーブルは、CIEで定義されたLAB色空間、XYZ色空間、およびLUV色空間のうち何れか一つの色空間との関係を記述するカラーテーブルであることを特徴とする請求項1乃至5のいずれかに記載の画像処理システム。
  8. 前記カラーテーブルは、ICCプロファイル形式の入力プロファイルとして作成され、前記作成された入力プロファイルは、カラーマネジメントシステムに適用されることを特徴とする請求項1乃至5のいずれかに記載の画像処理システム。
  9. 前記検出された被写体の前記画像データ全体に占める割合を算出する算出手段と、
    前記割合に基づいて、前記被写体の種類を判定する判定手段と
    をさらに備えることを特徴とする請求項1乃至8のいずれかに記載の画像処理システム。
  10. 前記検出された被写体の前記画像データ全体に占める割合が閾値を超える場合には、前記被写体に相応しい撮影モードは人物モードと判定する手段をさらに備えることを特徴とする請求項9に記載の画像処理システム。
  11. 前記閾値は、人物を被写体にして風景を背景に作成されたサンプル画像をトリミングする結果に基づいて設定されることを特徴とする請求項10に記載の画像処理システム。
  12. 前記画像データには、被写体距離情報がさらに添付されおり、
    前記検出された被写体の前記画像データ全体に占める割合が閾値を越えず、かつ前記被写体距離情報を解析して得られた被写体距離が第2の閾値を超える場合は、前記画像データの種類を風景と判定する手段をさらに備えることを特徴とする請求項9乃至11のいずれかに記載の画像処理システム。
  13. 前記画像データには、被写体距離情報がさらに添付されおり、
    前記被写体検出手段により被写体が検出されなかった場合、かつ前記被写体距離情報を解析して得られた被写体距離が第2の閾値を超える場合は、前記画像データの種類を風景と判定する手段をさらに備えることを特徴とする請求項9乃至12のいずれかに記載の画像処理システム。
  14. 前記検出される被写体は人物であることを特徴とする請求項1乃至13のいずれかに記載の画像処理システム。
  15. 前記被写体検出手段により被写体が検出されなかった画像に対しては、サムネイル表示画像を消去する手段をさらに備えることを特徴とする請求項1乃至14のいずれかに記載の画像処理システム。
  16. 前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、表示部に警告を表示する警告表示手段をさらに備えることを特徴とする請求項1乃至15のいずれかに記載の画像処理システム。
  17. 前記警告表示手段は、画像データのサムネイル表示画像の周辺に枠線を表示することを特徴とする請求項16に記載の画像処理システム。
  18. 前記警告表示手段は、画像データのサムネイル表示画像の周辺に枠線を表示する際に、撮影モード情報が標準モードの画像と、撮影モード情報が前記標準モード以外の画像において、枠線の種類あるいは色をそれぞれ異なるように表示することを特徴とする請求項17に記載の画像処理システム。
  19. 前記警告表示手段は、画像データのサムネイル表示画像の周辺に背景色を配色することを特徴とする請求項16に記載の画像処理システム。
  20. 前記警告表示手段は、画像データのサムネイル表示画像の周辺に背景色を配色する際に、
    撮影モード情報が標準モードの画像と、撮影モード情報が前記標準モード以外である画像のサムネイル表示画像周辺の背景色を、それぞれ異なるように配色することを特徴とする請求項19に記載の画像処理システム。
  21. 前記警告表示手段は、画像データのサムネイル表示画像領域の周辺に撮影モード名を表示することを特徴とする請求項16に記載の画像処理システム。
  22. 前記警告表示手段は、画像データのサムネイル表示画像領域に、ポインティングデバイスの操作によって前記表示部画面上の表示位置が移動するポインタを近づけた時に、撮影モード名をポップアップ表示することを特徴とする請求項16に記載の画像処理システム。
  23. 前記被写体検出手段により人物が検出され、かつ前記取得手段よって取得される撮影モード情報は標準モードである場合には、前記色変換手段による色変換の前に、人物モードで撮影した時に得られる色に変換するか否かをユーザに選択させる手段を有することを特徴とする請求項1乃至22のいずれかに記載の画像処理システム。
  24. 前記被写体の種類は風景であり、前記取得手段によって取得される撮影モード情報は標準モードである場合には、前記色変換手段による色変換の前に、風景モードで撮影した時に得られる色に変換するか否かをユーザに選択させる手段をさらに備えることを特徴とする請求項1乃至23のいずれかに記載の画像処理システム。
  25. ネットワークを介してテーブル管理装置にアクセスして、前記カラーテーブルを探索する探索手段と、
    前記カラーテーブルをWeb上からダウンロードするダウンロード手段と
    をさらに備えることを特徴とする請求項1乃至24のいずれかに記載の画像処理システム。
  26. 前記カラーテーブルを蓄積するためのデータベースが構築されたローカルサーバと、
    前記データベースから前記カラーテーブルを探索する探索手段と、
    前記カラーテーブルの探索結果、前記カラーテーブルが前記データベースの中に存在する場合は、前記データベースの中から前記カラーテーブルを取得する取得手段と
    をさらに備えることを特徴とする請求項1乃至24のいずれかに記載の画像処理システム。
  27. 前記データベースから前記カラーテーブルを探索した結果、前記カラーテーブルが前記データベースの中に存在しない場合は、ネットワークを介して前記カラーテーブルをWeb上からダウンロードするダウンロード手段をさらに備えることを特徴とする請求項26に記載の画像処理システム。
  28. 前記カラーテーブルをダウンロードして前記カラーテーブルを取得する際に、前記データベースの中に蓄積するか否かを選択する手段さらに備えることを特徴とする請求項27に記載の画像処理システム。
  29. 被写体の撮影時に該被写体に相応しくない撮影モードで作成した画像データに対して、被写体に相応しい撮影モードで作成される色に近づけるように色変換する画像処理システムであって、
    前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、
    前記被写体の種類を特定する特定手段と、
    前記特定された被写体の種類に応じて、前記画像データから前記被写体を検出する被写体検出手段と、
    前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、
    前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、
    前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段と
    を備えることを特徴とする画像処理システム。
  30. 被写体を含む画像データを色変換する画像処理装置であって、
    前記画像データに添付された、該画像データの撮影モード情報を取得する取得手段と、
    前記画像データ中の被写体を検出する被写体検出手段と、
    前記被写体検出手段にて被写体が検出される場合、前記取得された撮影モード情報に基づいて、前記画像データの撮影モードが、前記検出された被写体に相応しいか否かを判断する判断手段と、
    前記画像データの撮影モードが前記検出された被写体に相応しくないと判断される場合、前記画像データの撮影モードにより作成される色から、前記検出された被写体に相応しい撮影モードにより作成される色へ色変換するカラーテーブルを取得するカラーテーブル取得手段と、
    前記取得されたカラーテーブルに基づいて、前記画像データを色変換する色変換手段と
    を備えることを特徴とする画像処理装置。
JP2007084133A 2007-03-28 2007-03-28 画像処理システム Pending JP2008244997A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007084133A JP2008244997A (ja) 2007-03-28 2007-03-28 画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007084133A JP2008244997A (ja) 2007-03-28 2007-03-28 画像処理システム

Publications (1)

Publication Number Publication Date
JP2008244997A true JP2008244997A (ja) 2008-10-09

Family

ID=39915757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007084133A Pending JP2008244997A (ja) 2007-03-28 2007-03-28 画像処理システム

Country Status (1)

Country Link
JP (1) JP2008244997A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117787A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp 画像処理装置
JP2010166113A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp 色変換プログラムおよび色変換方法
CN101964874A (zh) * 2009-07-23 2011-02-02 卡西欧计算机株式会社 图像处理装置及图像处理方法
JP2013065226A (ja) * 2011-09-20 2013-04-11 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
JP2013073392A (ja) * 2011-09-27 2013-04-22 Fujitsu Ltd 表示制御装置、表示制御プログラムおよび表示制御方法
US8599285B2 (en) 2009-09-29 2013-12-03 Fujifilm Corporation Image layout determining method, recording medium and information processing apparatus for the same
JP2015191644A (ja) * 2014-03-31 2015-11-02 株式会社日立公共システム Html文書更新方法、html文書更新装置およびシステム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117787A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp 画像処理装置
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus
JP2010166113A (ja) * 2009-01-13 2010-07-29 Seiko Epson Corp 色変換プログラムおよび色変換方法
CN101964874A (zh) * 2009-07-23 2011-02-02 卡西欧计算机株式会社 图像处理装置及图像处理方法
JP2011044132A (ja) * 2009-07-23 2011-03-03 Casio Computer Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
US8446485B2 (en) 2009-07-23 2013-05-21 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and storage medium thereof
US8599285B2 (en) 2009-09-29 2013-12-03 Fujifilm Corporation Image layout determining method, recording medium and information processing apparatus for the same
JP2013065226A (ja) * 2011-09-20 2013-04-11 Sony Corp 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
US9131148B2 (en) 2011-09-20 2015-09-08 Sony Corporation Image processing device, method of controlling image processing device and program causing computer to execute the method
JP2013073392A (ja) * 2011-09-27 2013-04-22 Fujitsu Ltd 表示制御装置、表示制御プログラムおよび表示制御方法
JP2015191644A (ja) * 2014-03-31 2015-11-02 株式会社日立公共システム Html文書更新方法、html文書更新装置およびシステム

Similar Documents

Publication Publication Date Title
JP4576770B2 (ja) 画像ファイルの生成
JP3991196B2 (ja) 画像処理システム及び画像処理サーバ
JP4662356B2 (ja) 撮像装置及びその制御方法、及びその制御プログラム、制御プログラムを格納した記憶媒体
JP2002314936A (ja) 画像ファイルの生成および画像処理
JP2006211525A (ja) 撮像装置及びその制御方法
JP2008244997A (ja) 画像処理システム
JP2003009075A (ja) 画像ファイルの生成
US20030184812A1 (en) Image processing apparatus and method
JP2008244996A (ja) 画像処理システム
JP4906658B2 (ja) 色処理装置およびその方法
JP2003030670A (ja) 画像処理およびレイアウトの指定が可能な画像ファイルの生成
JP2006129082A (ja) 画像処理方法及び画像処理装置
JP2004336521A (ja) 画像処理方法、画像処理装置及び画像記録装置
JP2005096301A (ja) 画像出力装置、画像補正方法、画像調整方法、プログラム、記録媒体
JP2002314724A (ja) ユーザの嗜好に応じた画像ファイルの生成
JP4115416B2 (ja) 画像処理方法、及び画像処理装置、及び画像処理システム、及び画像処理プログラム
JP4168610B2 (ja) 処理制御データ付き画像ファイルの生成装置
JP3840141B2 (ja) 画像処理装置および情報入力装置、並びに、それらの方法
JP2008244995A (ja) 画像処理システム
JP2005284411A (ja) 画像処理方法、及び画像処理装置、及び画像処理システム、及び画像処理プログラム
JP2010220229A (ja) 撮像装置及びその制御方法
JP2005202749A (ja) 画像処理方法、画像処理装置及び画像記録装置
JP4579582B2 (ja) 印刷装置、印刷方法、コンピュータプログラム及び記録媒体
JP2004357001A (ja) 画像処理方法、画像処理装置及び画像記録装置
JP5842940B2 (ja) 画像処理装置及び電子カメラ