JP3991196B2 - Image processing system and image processing server - Google Patents

Image processing system and image processing server Download PDF

Info

Publication number
JP3991196B2
JP3991196B2 JP2001384786A JP2001384786A JP3991196B2 JP 3991196 B2 JP3991196 B2 JP 3991196B2 JP 2001384786 A JP2001384786 A JP 2001384786A JP 2001384786 A JP2001384786 A JP 2001384786A JP 3991196 B2 JP3991196 B2 JP 3991196B2
Authority
JP
Japan
Prior art keywords
correction
image
processing
user
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001384786A
Other languages
Japanese (ja)
Other versions
JP2003187215A (en
Inventor
吉晴 日比
優 奥津
香奈子 林
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2001384786A priority Critical patent/JP3991196B2/en
Publication of JP2003187215A publication Critical patent/JP2003187215A/en
Application granted granted Critical
Publication of JP3991196B2 publication Critical patent/JP3991196B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像に対して補正処理を行う画像処理システム、および、そのような画像に対する補正処理の依頼をインターネットに接続された情報処理端末から受け付ける画像処理装置サーバに関するものである。
【0002】
【従来の技術】
従来のフイルムカメラからプリントを得るシステムでは、フィルムへの露光条件がカメラの測光システムにより決定されるのが一般的である。露光条件は被写体がごく平均的な条件であることを前提として決められるため、被写体撮影時の照明条件や、被写体への光の当たり具合、逆光条件など平均的な条件とは異なる条件下では、フィルム上での撮影画像データに露出の偏りなど不具合が生じている場合がある。例えば、逆光条件のため、主要被写体の人物の顔が暗く写ってしまうということがある。また、被写体を照らす光源の違い(太陽光、蛍光灯など)や、屋外での太陽の条件(夕焼け、曇りなど)により、カラーフィルム上で著しくカラーバランスがシフトして写りこんでしまう不具合が生じる場合があった。
【0003】
これらの不具合は、一般的にネガフィルムからカラープリントに焼き付ける際に補正される場合が多い。通常のプリント条件で焼き付けて条件に不具合がある場合には、焼き付け条件(露光時間や、カラーバランスフィルターなど)を変更し、プリント補正を行って仕上げるのである。また近年は、ネガフィルム上の撮影画像データを解析し、露出条件、カラーバランス条件などの補正は、デジタル画像処理により行われる場合が多い。
【0004】
一方、スライドフィルム撮影(ポジフィルム)においては、撮影時の状態がそのままフィルム上に撮影されるため、撮影画像に不具合があった場合にはスライドそのものに不具合が残ってしまうことになる。スライドフィルムからカラープリントに焼き付けることも可能であり、その際にある程度の補正を行うことができるが、一般的にはネガフィルムからのプリントの方が補正のラティチュードは広く、一般的なカメラ撮影を行う場合は、ネガフィルムを用いることが通例となっている。
【0005】
近年、パーソナルコンピュータやカラープリンタ、フィルムスキャナ、反射型スキャナ等の普及や性能の向上により、画像データをデジタル画像データとして取り扱うことが増加している。また、従来のフィルムカメラのシステムから、デジタルスチルカメラと呼ばれるカメラシステムが一般的になってきている。これは、従来のように撮影画像をフィルムに露光させるのではなく、CCDなどの光電変換素子によって光信号を電気信号に変換するなどして、撮影画像をモニタなどでそのまま表示可能なRGBデジタル信号を画像データとして蓄積するシステムである。デジタルスチルカメラ本体では、撮影された画像データを、メモリカードや光ディスクといった記録メディアに画像ファイルとして蓄積するのが現在一般的である。ユーザは、記録メディアに蓄積された画像を、通信手段を用いてユーザのパソコンに取り込む、あるいは記録メディアそのものを取り出してパソコン側の記録メディア読取手段などから画像データを取り込んで、パソコンなどのモニタ上で画像を鑑賞することが可能になっている。また、画像の鑑賞は、前記ユーザのパソコンのモニタに表示することや、カラープリンタなどに出力してユーザ自身でプリントすることが可能である。
【0006】
しかしながら撮影された画像データは、デジタルの画像ファイルとしてユーザが手軽に撮影画像を鑑賞することが可能になっているものの、デジタルスチルカメラの撮影データは、上述のフィルムカメラシステムでいうスライドフィルム撮影の場合に相当し、撮影時の状況に不具合があるとそのまま記録メディアに記録されてしまう。そのため、鑑賞時に上述のような不具合が多く発生しているという問題があった。つまり、ユーザがデジタルスチルカメラで撮影した画像を鑑賞する場合、従来のネガフィルムシステムで補正されて得られたプリント画像とは異なり、カメラ撮影時の露出条件や、被写体の状態や、逆光条件などが補正されていない、いわゆる失敗作品が多くなっている状況にある。
【0007】
このため、撮影された画像をユーザの鑑賞に堪えうるようにパソコン上で補正するアプリケーションや、カラープリント時に補正する機構(プリンタドライバなど)の必要性が高まってきている。補正を行う場合、記録されたデジタル画像はフィルムカメラシステムのスライドフィルム撮影のように、ラティチュードが狭い範囲で効果的に画像を補正する技術、さらには、補正方法に関しても従来のフィルムカメラシステムにはない補正方法(デジタルカメラの特性や補正情報に関するもの、画像サイズによる調整、任意の出力先に対する色補正、一般ユーザが簡単に行える調整方法)に対応する必要が生じてきている。
【0008】
このように狭いラティチュードの原画像データから、自動的に効果的な補正方法、補正パラメータを作成するには、画像から撮影された状況や、シーン(風景や人物等)などの特徴量を解析し、解析結果に応じた統計的な補正方法や、個人の好みを反映する補正パラメータを用いることが必要である。しかし、従来のアプリケーション等では、実験的に限られた条件で算出された補正パラメータ等を使用するしかなく、様々なデータや個人の好みの特性などを考慮に入れた補正方法はなかった。
【0009】
一方、ユーザが画像データを取り扱う際の不具合もある。つまり、上述のように画像データの補正をパソコンのアプリケーションや、プリンタドライバでの補正機構で実施することは可能であるが、デジタルスチルカメラのユーザにとって、アプリケーションがインストールされたパソコンでしか処理ができなかったり、補正機能をもつプリンタでしか処理できないという不具合があった。
【0010】
また、補正画像はユーザが望む出力装置(モニタやカラープリンタ等)の特性によって、処理方法やパラメータを変更しないと最適な出力が得られない。そのため、ユーザが一度補正した画像を次に別の出力デバイスで利用する場合には、そのままの補正画像を使用するのではなく、該補正情報をもとにして別の出力装置用に再補正することが必要となる。しかし、従来はそのような画像データと補正情報と出力情報を効果的に管理する方法がなかった。
【0011】
さらに、デジタルスチルカメラの場合、RGBの画像データを作成するところまではカメラ側で処理することが一般的である。標準的な規格としてRGB画像データをsRGB(standard RGB)というRGB信号規格で蓄積することなどは推奨されているが、被写体の撮影からRGB信号を作成するまでには複雑な条件やカメラメーカーの測光システム、画像再現方針等が絡み合っているため、異なるカメラシステムからの出力が一様でないという問題もあった。
【0012】
【発明が解決しようとする課題】
本発明は、上述した事情に鑑みてなされたもので、様々な撮影条件とともにユーザの好みの特性などを考慮に入れ、ユーザにとって好ましい画像に補正することができる画像処理システムを提供することを目的とするものである。また、そのようなユーザにとって好ましい画像へ補正するサービスを、インターネットなどのネットワークを介して提供する画像処理サーバを実現することを目的とするものである。
【0013】
【課題を解決するための手段】
本発明は、画像に対して補正処理を行う画像処理システムにおいて、処理対象の画像から複数の特徴量を求め、求めた特徴量を利用して過去の補正処理に関する情報を保持しているデータベースを参照し、処理対象の画像に対して行う補正処理のための補正方法や補正パラメータを決定するものであって、データベースは、共用と個人ユーザ用の2種類のデータベースによって構成され、前記共用のデータベースは、画像の特徴量を含む複数の分類キーに対応して前記補正方法及び前記補正パラメータを格納しており、また個人ユーザ用のデータベースは前記決定手段による補正方法及び補正パラメータの決定結果を過去の補正処理に関する情報として蓄積し、前記個人ユーザ用のデータベースから共用データベースへ補正処理に関する情報を反映させることを特徴としている。そして、決定された補正方法及び補正パラメータによって、処理対象の画像に対して補正処理を施せば、当該画像の特徴に対するユーザの好みを補正処理に反映した、ユーザにとって好ましい画質に補正される。
【0014】
また本発明の画像処理サーバでは、インターネットに接続された情報処理端末からの画像のアップロードを受け付け、アップロードされた画像を処理対象の画像として、上述のように画像から複数の特徴量を求め、求めた特徴量を利用して過去の補正処理に関する情報を保持しているデータベースを参照し、処理対象の画像に対して行う補正処理のための補正方法や補正パラメータを決定し、決定した補正方法及び補正パラメータによってアップロードされた画像に対して補正処理を施す構成であって、データベースは、共用と個人ユーザ用の2種類のデータベースによって構成され、前記共用のデータベースは、画像の特徴量を含む複数の分類キーに対応して前記補正方法及び前記補正パラメータを格納しており、また個人ユーザ用のデータベースは前記決定手段による補正方法及び補正パラメータの決定結果を過去の補正処理に関する情報として蓄積し、前記個人ユーザ用のデータベースから共用データベースへ補正処理に関する情報を反映させることを特徴としている。これによって、画像の特徴とともにユーザの好みの特性に応じた補正処理が行われる。
【0015】
データベースには、画像の特徴量を含む複数の分類キーに対応して、補正方法及び補正パラメータを格納しており、画像の特徴に応じたユーザの好みを反映することができる。また、データベースを共用と個人ユーザ用の2種類のデータベースで構成しており、各ユーザ毎の細かな対応が可能となる。また共用のデータベースを利用すれば、一般的な補正処理も可能である。さらに、個人用のデータベースの内容を共用のデータベースに反映させている。これによって、その時々の一般的な好みの変化に対応することが可能になる。
【0016】
また、ユーザに対して補正方法及び補正パラメータの候補に関する情報を提供したり、いくつかの補正画像を提示し、ユーザによる決定指示あるいは選択指示を受けるように構成することができる。これによってユーザの好みが分かるので、これをデータベースに反映するように構成することができる。
【0017】
なお、処理対象の画像に、その画像の特徴量を示す情報や、その画像に対して補正処理が既になされている旨を示す情報が存在する場合、それらの情報を考慮して特徴量を抽出することができる。それらの情報は、例えばタグによって付加されていたり、あるいは画像中に埋め込まれていることが考えられ、それらを取得すればよい。また、画像に対して補正処理を行った場合には、その旨を示す情報を例えばタグに付加したり、あるいは画像中に埋め込んでおくことができる。
【0018】
さらに、補正後の画像を出力する出力デバイスが特定される場合には、その出力デバイスに合わせた補正方法及び補正パラメータを決定して画像変換を行ったり、あるいは出力デバイスの特性を示すプロファイルとともに補正後の画像を出力するように構成することができる。
【0019】
【発明の実施の形態】
図1は、本発明の画像処理システムの実施の一形態を示すブロック構成図である。図中、11は内包情報解析・補正部、12は特徴量抽出・解析部、13は補正方法・補正量決定部、14はユーザ環境補正量算出部、15はデータベース、16は補正処理部、21はガンマ補正・色空間変換処理部、22はハイライト・シャドー補正部、23は明暗コントラスト補正部、24は色相・カラーバランス補正部、25は彩度補正部、26は記憶色補正部、27はシャープネス・強調処理部である。
【0020】
この例では、特徴量抽出手段として、内包情報解析・補正部11及び特徴量抽出・解析部12を有している。内包情報解析・補正部11では、入力された補正対象の画像データの解析を行う前に、当該画像データに付加されている情報が存在しているか否かを判断し、存在しているのであれば、その情報を本画像データを補正する際の基準データへの補正パラメータとして、あるいは特徴量として利用することを可能とするものである。そのような情報は、例えば入力画像データを含む画像ファイルにタグとして付加されていたり、あるいは、画像データそのものに埋め込まれている場合などが考えられる。
【0021】
具体例としては、デジタルカメラ関連各社で制定した規格であるEXIF情報があり、このEXIF情報は圧縮画像フォーマットであるJFIFフォーマットに内包することが可能である。この規格をサポートしているデジタルカメラで撮影した場合、撮影した画像をJFIFフォーマットで記録する際に、いくらかの情報がEXIF規格にそって記録される。たとえば、撮影されたカメラの種類や、撮影日付、フラッシュの有無などの情報が格納されている場合がある。これらの情報に関して利用可能な情報があれば、その情報を特徴量として認識しておくことができる。また、ICC(International Color Consortium)プロファイルのように、画像の色の特性を表す情報が内包されていれば、後工程の解析のためにこれらの情報を取得し、ガンマ特性や標準解析空間(例えばsRGBなど)への補正等を行っておく。
【0022】
このように画像データに付加されている情報から関連づけが可能な画像の特徴量属性としては、カメラの機種情報からあらかじめ取得しておいた当該カメラの特性を利用して特定色(例えば肌色)データの分布を持たせておいたり、階調特性(明るめ、暗めなど)の傾向などを特徴量化しておき、利用することも考えられる。また、機種に特有なカメラ撮影モード、画像サイズ、フラッシュの有無などを元に、画像補正方法や補正パラメータを設定することが考えられる。たとえば、撮影モードとして人物、風景などを記録している場合は、画像データのシーン属性を特定することが可能であるし、画像サイズからシャープネス特性の補正方法を選択することが可能である。
【0023】
特徴量抽出・解析部12では、画像データ自体を解析して、該画像における複数の特徴量を抽出する。特徴量の例としては、RGBヒストグラムや、画像データのHSL(Hue:色相,Saturation:彩度,Lightness:明度)ヒストグラムなどから画像内の明度分布、彩度分布、カラーバランスを特徴づけたり、画像サイズ、画像データのエッジ量やエッジ強さなどから、画像シャープネスのエッジ度を特徴量として算出することができる。また、さらに詳細には、画像内部の肌色分布や、顔らしさの形状抽出などを組み合わせ、人物らしさの特徴量を抽出したり、該シーンが人物主体のシーンであるか否かなどのシーン分類特徴量の算出や、主要被写体の顔の大きさの算出、人物人数の算出などを行うことができる。さらには、画像内部の局所的な明るさの分布状態などからシーンの撮影状況(主要被写体の逆光状況、人物の大きさ等)などの特徴量を抽出すると共に、逆光状態特徴量の算出を行うことができる。
【0024】
図2は、特徴量抽出・解析部12で抽出される特徴量の分類キーの一例の説明図である。特徴量抽出・解析部12で抽出される特徴量は、例えば図2に示すように大分類キー、中分類キー、そして図示しない小分類キーに特徴量を対応づけることができる。この例では大分類キーとして入力デバイス、画像ファイル、シーン・被写体、全体画質、出力デバイスなどのキーを設けている。また、各大分類キーについて、図2に示すような中分類キーを設けている。さらに、大分類キーと中分類キーの組み合わせに対して1ないし複数の小分類キーが設けられている。例えば大分類キーが「全体画質」、中分類キーが「彩度」の組み合わせに対して、小分類キーとして上述の「彩度ヒストグラム」あるいは「彩度ヒストグラム中央値」などを設けておくことができる。また、例えば大分類キーが「シーン・被写体」、中分類キーが「画像シーンタイプ」のとき、「人物」、「風景」、「物品」、「文字」などの小分類キーを設けておくことができる。特徴量抽出・解析部12では、大分類キー、中分類キー、小分類キーで表されるすべての特徴量について取得できるとは限らないが、取得した特徴量については大分類キー、中分類キー、小分類キーなどと対応づけておくことができる。
【0025】
図1に戻り、補正方法・補正量決定部13では、特徴量抽出・解析部12で抽出した特徴量を利用して、後述するデータベース15を検索し、画像データに対して行う補正処理のための補正方法及び補正パラメータを決定する。データベース15の検索は、上述の大分類キー、中分類キー、小分類キー、及び特徴量を用いて行うことができる。探索結果からは、場合により同じ補正方法であるにもかかわらず、異なる補正パラメータが抽出される場合も考えられる。あるいは補正方法自体が複数抽出される場合も考えられる。その場合は、特徴量の優先順位を決めておいたり、平均的な補正パラメータを使用するなど、調停処理を実施すればよい。図3は、調停処理の一例の説明図である。図3(A)に示すように複数の補正方法及び補正パラメータ検索された場合には、図3(B)においてこれらの補正方法を合成して最適化し、また補正パラメータを連結して最適化する。そして、その最適化された補正方法及び補正パラメータを、使用する補正方法及び補正パラメータとして決定すればよい。あるいは、検索された複数の補正方法及び補正パラメータを図示しない表示手段に表示し、同じく図示しない選択手段によってユーザに選択してもらうように構成することもできる。さらに、補正方法及び補正パラメータを決定する際には、検索された補正方法及び補正パラメータを図示しない表示手段に表示してユーザによる修正などを受け付けるように構成してもよい。
【0026】
図1に戻り、ユーザ環境補正量算出部14は、補正処理後の画像を出力する出力デバイスの特性に応じた補正方法及び補正パラメータの決定を行うための情報を補正方法・補正量決定部13に渡す。あるいは、補正後の画像を出力する出力デバイスの特性を示すプロファイルを、補正後の画像に付加する。
【0027】
ユーザにとって好ましい画像変換を行う場合、ユーザがどのような出力デバイスで補正後の画像を鑑賞するかによって補正方法、あるいは補正パラメータが変わってくる場合がある。例えば、ユーザが自分のパソコンに付属しているモニタで見る場合、あるいは256色など限定された発色のモバイル端末で鑑賞する場合、さらにはプロジェクタを使用して表示する場合、A社のインクジェットカラープリンタで出力する場合、B社のカラーレーザープリンタで出力する場合、など様々なケースが考えられ、それぞれの場合についてそれぞれの出力デバイスの特性によって画質や発色が変わってしまうことがある。
【0028】
デジタルカメラの画像は、一般的にはsRGBと呼ばれる標準的なRGB色空間の特性によって扱われている。従って、画像の変換もsRGBの特性に基づいて解析、変換することが一般的である。しかしながら、前述したように、ユーザが最終的に得たい画像出力が、例えばユーザの持っているプリンタであれば、そのプリンタの特性を考慮しないで画質の補正を行うことは、色再現の点やシャープネス再現の点で異なる補正パラメータが選ばれてしまう場合がある。
【0029】
従って、ユーザのカラープリンタなどの出力デバイスの機種特性(解像度、スクリーンなど)、あるいはICCプロファイル(色再現特性)をユーザ環境補正量算出部14において取得し、そのような特性を加味した上で補正方法・補正量決定部13において補正方法、補正パラメータを選択・決定するように構成している。
【0030】
データベース15は、過去の補正処理に関する情報を保持している。特に、上述の図2に示したような大分類キー、中分類キー、それに小分類キー及び特徴量に対応づけて補正方法及び補正パラメータを格納しておくことができる。図4は、データベース15に格納されている補正処理に関する情報の一例の説明図である。図4(A)に示す例では、図2に示す分類キーにおける大分類が「全体画質」中分類キーが「彩度」、小分類キーが「彩度ヒストグラム中央値」の場合の補正方法及び補正パラメータの一例を示している。この例では、画像全体の彩度に関するヒストグラムの中央値により、彩度補正処理を行うか否かの選択、および彩度補正処理のパラメータ(強調量)を決定する。例えば彩度ヒストグラム中央値Xが所定の値C1とC2の間の値である(C1<X<C2)場合には、彩度補正を行うこと、及び、そのときの補正パラメータとして「+2」が保持されている。
【0031】
図4(B)に示す例では、図2に示す分類キーにおける大分類キーが「全体画質」、中分類キーが「シャープネス」、小分類キーが「エッジ度」の場合の補正方法及び補正パラメータの一例を示している。この例では、画像全体のエッジ度(例えば微分フィルタによる強調量のヒストグラムを用いて算出する)により、平滑処理、シャープネス処理を行うか否かの選択、および補正処理のパラメータ(平滑量、強調量)を決定する。例えばエッジ度Yが所定の値E1よりも小さいときには、シャープネス補正処理を行うこと、及びそのときの補正パラメータとして「+4」とすることが保持されている。また、エッジ度Yが所定の値E2とE3の間の値である(E2<Y<E3)の場合には、平滑化処理を行うこと、及びそのときの補正パラメータとして「+1」とすることが保持されている。さらにエッジ度Yが所定の値E3よりも大きいときには、平滑化処理とシャープネス補正処理の両方を行うこと、及び平滑化処理のときの補正パラメータとして「+2」、シャープネス補正処理のときの補正パラメータとして「−2」とすることが保持されている。このように特徴量に応じて、補正方法のパラメータを変更するだけでなく、補正方法を変えて適用するような補正処理に関する情報を保持することもできる。
【0032】
図4(C)に示す例では、図2に示す分類キーにおける大分類キーが「シーン・被写体」、中分類キーが「画像シーンタイプ」、小分類キーが「人物」、「風景」、「物品」、「文字」のときの補正方法及び補正パラメータの一例を示している。この例では、画像シーンタイプのそれぞれの値により、明度調整やコントラスト調整、シャープネス処理、肌色補正処理、黒文字補正処理などを行うか否か、及び明度調整やコントラスト調整、シャープネス処理についてはパラメータ調整量が保持されている。このときのパラメータ調整量は相対的な調整量を示しており、他の種々の特徴量から決定された調整量に対しての相対的なレベルを調整することを示している。例えば画像シーンタイプが「人物」である場合には、明度調整を行うとともに、そのときのパラメータ調整量として「+2」が設定されている。これによって他の種々の特徴量から決定された明度調整のパラメータを2レベル明るめに設定することを示している。同時にシャープネス補正処理を行うとともに、そのときのパラメータ調整量として「−1」が設定されており、他の種々の特徴量から決定されたシャープネス補正処理のパラメータを1レベル低く設定することを示している。さらに画像シーンタイプが「人物」である場合に特有の肌色補正処理を実施することが設定されている。他の画像シーンタイプについても同様である。
【0033】
データベース15では、このように分類キーに補正方法及び補正パラメータを対応づけた補正処理に関する情報を保持しており、補正方法・補正量決定部13からの分類キー及び特徴量を用いた検索によって補正処理に関する情報が取り出される。このデータベース15に保持されている補正処理に関する情報は、ユーザによって過去に行われた補正処理において用いた補正方法及び補正パラメータに基づいて生成されるものである。例えば上述のように補正方法・補正量決定部13によってデータベース15から複数の補正方法及び補正パラメータが検索されたとき、補正方法・補正量決定部13が自動的に決定した補正方法及び補正パラメータ、あるいは、ユーザに提示して選択あるいは修正された補正方法及び補正パラメータに基づいて、データベース15に保持されている補正処理に関する情報を更新してゆくことができる。更新は、補正処理が行われる毎に行ってもよいし、あるいはある程度の期間や回数毎に行ってもよい。このように、過去に行われた補正処理の履歴を補正処理に関する情報に反映することによって、ユーザの好みの特性などを考慮した、ユーザにとって好ましい画像に補正することが可能となる。なお、データベース15の具体的な構成方法については任意であり、種々の公知のデータベース技術を用いることができる。
【0034】
またデータベース15として、共用のデータベースと、それぞれのユーザ毎の個人ユーザ用のデータベースの2種類を備えておくことができる。そして、上述の補正処理の履歴によって補正処理に関する情報を更新する際には個人ユーザ用のデータベースを更新するように構成することができる。これによって、それぞれのユーザ毎に、ユーザの好みやユーザの環境などを反映した補正処理を行うことが可能になる。また、適宜、個人ユーザ用のデータベースから共用データベースへ補正処理に関する情報を反映させることもできる。これによって、その時々の一般的な好みの変化に対応することが可能になる。なお、共用のデータベースと個人ユーザ用のデータベースは、基本的には同様のものでよい。
【0035】
図1に戻り、補正処理部16は補正方法・補正量決定部13によって決定された補正方法及び補正パラメータに従って、入力された画像データに対して実際に補正処理を行う。図1に示した例では、補正処理部16は、ガンマ補正・色空間変換処理部21,ハイライト・シャドー補正部22、明暗コントラスト補正部23、色相・カラーバランス補正部24、彩度補正部25、記憶色補正部26、シャープネス・強調処理部27などを有している。各処理部は、それぞれ公知の方法によってそれぞれの補正処理を行うように構成することができる。例えば彩度補正部25においては、RGBの画像データをHSL変換したときの彩度の値に対して所定係数を乗算し、増加・減少の処理を施すといった手法や、明度の値に応じて割合を変える手法など種々の補正方法が考えられる。各処理部は、常にすべての処理が行われるわけではなく、補正方法・補正量決定部13によって補正を行うと決定された処理だけが行われる。またその補正処理の内容も、補正方法・補正量決定部13から渡される補正パラメータによって変更される。なお、補正処理後の画像データに対して、当該補正後の画像を出力する出力デバイスの特性を示すプロファイルをユーザ環境補正量算出部14が付加する場合もある。
【0036】
上述の本発明の画像処理システムの実施の一形態における動作について簡単に説明しておく。処理対象の画像データが入力されると、内包情報解析・補正部11において当該画像データに付加されている情報が存在していれば、その付加されている情報を解析して、取得可能な特徴量についてはここで取得しておく。さらに特徴量抽出・解析部12において、入力された画像データから特徴量を抽出する。内包情報解析・補正部11及び特徴量抽出・解析部12において抽出した特徴量は、例えば図2に示したような分類キーに対応づけ、補正方法・補正量決定部13に渡される。
【0037】
補正方法・補正量決定部13では、特徴量抽出・解析部12から渡される分類キー及び抽出した特徴量をもとにデータベース15を検索し、1ないし複数の補正方法及び補正パラメータを取得する。さらに場合によっては、ユーザ環境補正量算出部14からの出力デバイスに応じた補正情報なども取得する。そして、これらの情報から自動的に、あるいはユーザによる選択や修正などを経て、補正方法及び補正パラメータを決定し、補正処理部16の各処理部のうち、補正処理を行うと決定した処理部に対して補正パラメータを渡して補正処理を指示する。これを受けて、補正処理部16のうち補正処理を行うと決定した処理部は、入力された画像データに対して補正処理を実行し、出力する。
【0038】
また、実際に行った補正方法及び補正パラメータについてはデータベース15にフィードバックされ、データベース15(個人ユーザ用のデータベースが存在する場合には個人ユーザ用データベース)の更新を行う。
【0039】
上述の処理の具体例について、画像の状況を文章で定性的に記述して説明してみる。例えば、「一人の被写体を近景で撮影した画像であるが、逆光状態でフラッシュの使用もないことから、被写体人物の顔部の肌色が暗く写っている」という画像データが入力されたとする。この文章のような特徴量を内包情報解析・補正部11及び特徴量抽出・解析部12で抽出してデータベース15を検索する。この場合、人物シーンに適した処理と逆光補正として、被写体人物の顔部分が明るく補正されるような補正方法及び補正パラメータを自動選択あるいはユーザによる選択修正によって決定する。また、例えば「空や海が主体の風景画像であるが、明度コントラストや彩度、シャープネス特徴量が弱い」画像データが入力された場合には、内包情報解析・補正部11及び特徴量抽出・解析部12による解析結果に基づく特徴量によりデータベース15が検索され、該画像データに対して、明度コントラスト、彩度、シャープネスを強調する補正方法及び補正パラメータを自動選択あるいはユーザによる選択修正によって決定する。そして、決定された補正方法及び補正パラメータに基づいて、補正処理部16において補正処理を行う。データベース15には、過去の補正処理に関する情報が格納されているので、過去にユーザが行った補正処理に基づいて補正方法及び補正パラメータが決定されるため、ユーザの好みなどを反映した、ユーザに最適な補正処理を行うことができる。
【0040】
図5は、本発明の画像処理システムの実施の一形態を画像処理サーバとして利用した場合の一例を示す構成図である。図中、31は画像処理サーバ、32,33は情報処理端末、34はネットワークである。ネットワーク34は、インターネットやイントラネット、LANなどで構成される通信路である。以下の説明ではネットワーク34はインターネットであるものとして説明するが、これに限られるものではない。
【0041】
画像処理サーバ31は、例えば図1に示す画像処理システムを含むものである。画像処理サーバ31はネットワーク34に接続され、Webなどで作成された各クライアント(例えば情報処理端末32,33など)からのサービス要求を受け付け、またサービスを提供する機構を持つ。そのために図示しないアップロード手段やダウンロード手段などを有している。なおデータベース15は、図5では画像処理サーバ31とは別に図示しているが、画像処理サーバ31内に含まれていてよい。あるいは、データベース15はネットワーク34に接続された別のデータベースサーバとして構成してもよい。
【0042】
情報処理端末32,33は、少なくともネットワーク34を通じて画像処理サーバ31と通信可能な端末である。情報処理装置32,33としては、ユーザのパソコンであるのが一般的であるが、デジタルカメラ機能やインターネット通信機能を内蔵したモバイル端末などであってもかまわない。また、図示したようにスキャナやデジタルカメラなどの画像入力装置から画像を取り込める構成を有していてよい。もちろん、画像入力装置などは任意であり、例えば他のコンピュータやサーバなどから画像を取得してもよい。
【0043】
図6は、本発明の画像処理システムの実施の一形態を画像処理サーバとして利用した場合の一例における動作例を示すフローチャートである。上述のような構成において、ここでは情報処理端末32から画像処理サーバ31へ画像データの補正処理を依頼し、補正処理結果を受け取るものとして説明する。もちろん、情報処理端末33から画像処理サーバ31へ依頼する場合も同様である。
【0044】
情報処理端末32から画像処理サーバ31へ画像データの補正処理を依頼する際には、まずS61において、ユーザは情報処理端末32から、画像処理サーバ31が提供するサービスにログインする。このとき、ユーザを識別するための識別情報を送信しておくとよい。また、例えば暗証などによってユーザの認証を行う場合もある。
【0045】
画像処理サーバ31にログインしたら、ユーザはS62において所望のサービスメニューを選択する。説明のため、一例として“画像の自動補正”、“画像の自動補正(複数選択)”のサービスメニューから選択するものとして説明する。もちろん本発明のサービスメニューの例としてはこれに限ったものではない。
【0046】
まず、ユーザがサービスメニューから“画像の自動補正”を選択したものとする。メニューの選択後、S63において、ユーザは、ユーザが使用している情報処理端末32内の補正対象となる画像データを含む画像ファイルを、画像処理サーバ31へアップロードする操作を行う。もちろん、画像ファイルはユーザがアップロードの操作を行うことができる場所にあれば、操作を行っている情報処理端末32内に存在していなくてもよい。画像ファイルのアップロード操作によって、処理対象の画像ファイルが画像処理サーバ31によって管理可能となる。
【0047】
アップロードされた画像ファイルは、S64において、自動補正を行うジョブによって上述のような補正処理が実行される。すなわち自動補正ジョブでは、画像データを解析して各種の特徴量を抽出し、抽出した特徴量を用いてデータベース15を検索して1ないし複数の補正方法及び補正パラメータを取得し、その中の1つを用いて画像ファイル内の画像データに対して補正処理を行う。データベース15には、上述のように、ユーザが過去に行った補正処理に基づいて設定された補正方法及び補正パラメータが格納されている。そのため、過去の補正処理から考えてユーザにとっての好ましいと思われる補正方法や補正パラメータを選択あるいは算出し、その補正方法及び補正パラメータで補正処理を行うことができる。
【0048】
補正処理を行ったら、補正後の画像データをユーザの情報処理端末32にダウンロードし、S65において、補正後の結果画像を表示する。このとき、補正前の元画像のサムネールを作成し、ユーザの情報処理端末32に元画像のサムネールと共に結果画像を表示することも可能である。これによって補正前後の画像を比較して補正処理の適否をユーザが判断しやすくなる。
【0049】
S65において表示された結果画像をユーザが参照し、S66においてユーザは補正処理の適否を判断して入力し、判断結果が画像処理サーバ31に伝えられる。もしユーザが補正画像に納得しない場合は、S64へ戻り、他の補正方法およびパラメータ候補から他の1つを選択して再度の補正処理を行い、ユーザの情報処理端末32に元画像のサムネールと共に表示して、ユーザの判断を伺う。このような処理を、ユーザが満足するか、あるいは候補が無くなるまで繰り返す。
【0050】
なお、ユーザが補正画像に納得しない場合に、いくつかの特徴量やパラメータを情報処理端末32に表示し、ユーザの気に入らなかった特徴量を元に次候補を選択するなどの処理を行うと、効率的に次候補を選択することができる。例えば、“全体の明るさ”という特徴量に対し、“明るい”,“暗い”といった補正パラメータを指示することなどが挙げられる。
【0051】
ユーザが納得した補正画像が得られたら、その旨を入力することで画像処理サーバ31に伝えられる。補正画像は既に情報処理端末32にダウンロードされているので、ユーザは補正後の画像データを利用可能である。ユーザが納得した旨を受けた画像処理サーバ31では、S67において、ユーザが納得した補正処理時に使用した補正方法及び補正パラメータをデータベース15に追加記録あるいはデータベース15を更新する。また、当該補正前後の画像を保存しておくこともできる。このようにして、一連の画像データに対する補正処理を終える。
【0052】
上述の動作例では、ユーザが納得しない場合でも補正後の画像をいちいち情報処理端末32にダウンロードしているが、速度向上のため、例えばS65においてユーザに提示する画像は補正後の画像のサムネールとし、ユーザの納得が得られた後にS67において実際の補正後の画像を情報処理端末32にダウンロードするように構成することができる。またこの場合、サムネールを提示する際には最初に画像データからサムネール画像を生成し、そのサムネール画像に対して補正処理を施すことによって、さらに高速化が可能である。
【0053】
また、検索によって複数の補正方法及び補正パラメータが得られている場合に、それらについて補正処理を行って補正後の画像を用意しておくことができる。図7は、補正画像を複数用意しておく場合の一例の説明図である。図7に示すように、検索によって得られたそれぞれの補正方法及び補正パラメータを用いて、入力された画像データの補正処理を行い、補正画像を得ておく。そして、ユーザに提供する際に、例えばサムネールを作成して情報処理端末32へ元画像のサムネールとともに表示させることができる。例えばある1つの補正方法及び補正パラメータを用いて補正処理を行い、ユーザに提示している間に、他の補正方法及び補正パラメータを用いた補正処理を行っておくことができる。これによって、ユーザが提示している補正画像に納得しなかった場合に、次の補正画像を提示するまでの時間(ターンアラウンドタイム)を短縮し、操作性のよいシステムを構築することが可能である。
【0054】
S62において、ユーザがサービスメニューから“画像の自動補正(複数選択)”を選択したものとする。メニューの選択後、S71において、上述のS63と同様にユーザは補正対象となる画像データを含む画像ファイルを画像処理サーバ31へアップロードする操作を行う。アップロードされた画像ファイルは、上述の“画像の自動補正”を選択した場合と同様に、画像データが解析されて各種の特徴量が抽出され、抽出された特徴量を用いてデータベース15の検索が行われて1ないし複数の補正方法及び補正パラメータが取得される。この“画像の自動補正(複数選択)”では、S72において、取得された複数の補正方法及び補正パラメータの中から1ないし複数個を一度に決定あるいは選択し、それぞれの補正方法及び補正パラメータによって補正処理を行い、1ないし複数の補正後の画像データを得る。この1ないし複数の補正後の画像データを情報処理端末32にダウンロードし、S73において1ないし複数の補正結果を表示させる。
【0055】
図8は、複数の補正画像の候補を複数同時に表示させた表示画面の一例の説明図である。この例では、元画像と補正画像とを比較できるように、元画像の周囲に補正画像を配置している。ユーザはそれぞれの補正画像と元画像とを比較し、好みにあった補正画像の選択が可能である。もちろん、表示方法は任意であり、図8に示す例に限られるものではないが、元画像と比較できるように配置することで、補正効果が比較できるようにすることが望ましい。このように複数の中から選択可能にすることは、ユーザにとって好ましい画像候補を一度に判別し、比較しながら選択できることになり、ユーザにとってより良好なサービスとなる。
【0056】
このように“画像の自動補正(複数選択)”では、補正画像が複数表示されるので、S74において、ユーザは表示されている1ないし複数の補正結果から所望の画像を選択すればよい。あるいは、表示された補正結果では納得しない旨を入力することができる。このユーザの意向は画像処理サーバ31に伝えられる。
【0057】
もし、ユーザが複数の補正結果に納得しない場合には、S72に戻って、検索結果中に他の補正方法及び補正パラメータが存在していれば、その中から1ないし複数個を選択して上述のように補正処理を行い、ユーザに提示すればよい。また、ユーザが納得しない旨を入力する際に、上述のようにいくつかの特徴量やパラメータを情報処理端末32に表示し、ユーザの気に入らなかった特徴量を元に次候補を選択するなどの処理を行うように構成することもできる。
【0058】
ユーザが納得した補正画像が選択されたら、画像処理サーバ31はS75において、ユーザが納得した補正画像に対して使用した補正方法及び補正パラメータをデータベース15に追加記録あるいはデータベース15を更新する。また、当該補正前後の画像を保存しておくこともできる。このようにして、一連の画像データに対する補正処理を終える。
【0059】
上述の動作例では、1ないし複数の補正後の画像データをダウンロードして表示させることとしたが、速度向上のため、例えばS73においてユーザに提示する1ないし複数の補正後の画像をサムネール画像に変換してダウンロードし、ユーザが選択した後に、その選択された補正後の画像をS75において情報処理端末32にダウンロードするように構成してもよい。またこの場合、最初に入力された画像データからサムネール画像を生成し、そのサムネール画像に対してそれぞれの補正処理を施すことによって、さらに高速化が可能である。
【0060】
図9は、データベースに対する補正結果の登録更新処理の概要の説明図である。データベース15は、初期状態では、例えば図4に示したような特徴量の分類にしたがって、あらかじめ設定された補正方法や補正パラメータが格納されている。上述の動作例で説明したように、補正後の画像あるいはそのサムネールをユーザに提示して、所望する補正画像であると了承あるいは選択された場合には、その補正画像を生成する際に用いた補正方法及び補正パラメータ、それに当該補正前の画像データの特徴量とともにデータベース15に履歴として追加・更新される。また、原画像と補正画像等もデータベース15に記録してもよい。
【0061】
このとき、図9に示すようにデータベース15が共用のデータベースと、それぞれのユーザ毎の個人ユーザ用のデータベースによって構成されている場合には、このような履歴や原画像、補正画像などは個人ユーザ用のデータベースに記録することができる。原画像や補正画像などについてもデータベース15で管理することによって、例えば内包情報解析・補正部11や特徴量抽出・解析部12で解析した特徴量と対応づけて原画像や補正画像の管理をユーザが行うことができるという利便性も提供できる。
【0062】
上述のようにして補正処理の履歴をデータベース15に追加してゆくだけでは、ユーザ個人の好みや、ユーザの選択による学習効果が反映されず、補正方法や補正パラメータが画一化されてしまう。したがって、最終的にユーザが選択した画像の補正方法、補正パラメータをデータベース15にフィードバックすることが必要である。
【0063】
図10は、ユーザにより選択された補正方法及び補正パラメータのデータベースへ反映した場合の補正方法及び補正パラメータの具体例の説明図である。図10には、大分類キーが「全体画質に関する分類」、中分類キーが「彩度」の例を示している。この例では、特徴量の小分類に対して、実際にユーザが選択した彩度調整量の平均値(彩度補正履歴ave)が格納されている。例えば、彩度ヒストグラム中央値Xが所定の値C3より大きい(C3<X)場合、予め設定されている彩度補正のパラメータは「−1」であるが、これまでの履歴の平均値は「−0.2」となっており、補正レベルを0としたパラメータの方が良さそうであることを示している。これによって、例えば当該ユーザについては彩度補正処理を行う場合の補正パラメータを「0」(あるいは彩度補正処理を行わない)とすることができる。このようにして、ユーザの好みに応じた補正処理を行うことができる。
【0064】
このような補正処理の履歴に応じた補正方法及び補正パラメータの更新は、例えばユーザが画像の補正を実行するたびに行ったり、あるいは、ある程度履歴を蓄積しておいて、所定のタイミングで更新を行うことができる。所定のタイミングとしては、所定の時間の経過や、所定回数の補正処理の実行などとすることができる。また、更新の際に参照する履歴については、それまで設定されているユーザ毎の補正方法及び補正パラメータとそれまでに記録されている履歴すべてを反映させるほか、例えば所定期間の履歴のみによってユーザ毎の補正方法及び補正パラメータの更新を行うことができる。例えば好みの変化が激しい場合には、過去の履歴に引きずられるよりも、最近の履歴によって補正方法及び補正パラメータの更新を行った方が、現在のユーザの好みをよりよく反映することができる。
【0065】
上述のようなユーザによって過去に行われた補正処理に関する情報は、図9に示す共用のデータベースに記録しておくことも可能であるが、それぞれのユーザ毎の好みを反映するため、個人ユーザ用のデータベースに記録させることが望ましい。これによって、それぞれのユーザの好みを反映した補正情報を参照し、補正方法や補正パラメータを決定することが可能である。そして、個人ユーザ用のデータベースに履歴に基づいた補正方法及び補正パラメータが存在しない特徴量に関しては共用のデータベースを参照するように構成すればよい。また、例えば個人ユーザ用のデータベースからの検索結果による補正方法及び補正パラメータではユーザが了解しない場合にも、共用のデータベースを検索して一般的な補正方法及び補正パラメータを取得するように構成してもよい。あるいは、両方のデータベースから検索結果を取得しておいて、これらの検索結果から所定の優先順位などに従って、利用する補正方法及び補正パラメータを選択、決定すればよい。
【0066】
また、それぞれのユーザ毎に蓄積している履歴や補正方法及び補正パラメータを、共用のデータベースに反映することも可能である。多くのユーザにより利用されているシステムでは、ユーザ全体の好みの傾向を把握することが可能であり、その全体の好みの傾向を共用のデータベースに反映することができる。これによって、時流にあった補正処理を行うことが可能になる。
【0067】
図11は、ユーザ毎の補正方法及び補正パラメータの選択を行う具体例の説明図である。図11(A)には、補正対象となる画像が示されている。この画像データの特徴量解析から、1人の人物を中心にして写したシーンであるが、逆光状態であるため、主要被写体がアンダーに写ってしまっている状態であるという特徴量が取得される。具体的には、図2に示した分類キーに従っていえば、例えば大分類キーがシーン・被写体について、中分類キーが画像シーンタイプでは小分類キーが「人物」、同様に、「主要被写体有無」では「あり」、「主要被写体大きさ」では「中」、「主要被写体光条件」では「逆光」、「人物人数」では「1人」、…となる。
【0068】
このような画像データに対しては、一般的な補正方法では、人物を中心として逆光状態によりアンダーになっている人物部を明るめに補正する。従って共用のデータベースからは、そのような補正を行う補正方法、およびパラメータが選択・決定される。このような一般的な補正方法及び補正パラメータにより補正した結果を図11(B)に示している。
【0069】
しかしながら、このような一般的な補正方法及び補正パラメータを用いて補正処理を行うと、人物の顔は明るくなるが、背景が飛びすぎる傾向になる。このような背景の飛びを嫌うユーザは、例えば図11(C)に示すように若干弱めの補正をかけた画像を好む。このような場合、個人ユーザ用のデータベースにこのような補正処理に関する情報が登録されていなければ、まず図11(B)に示す補正画像が提示され、了解せずに再補正を指示し、図11(C)に示す補正画像が提示された時点で了解する指示を行えばよい。このような補正の履歴がデータベース15に蓄積され、個人ユーザ用のデータベースに反映される。
【0070】
個人ユーザ用のデータベースに過去の補正情報が反映された後、再び同様の画像(例えば図11(A)に示す画像)が入力された場合、抽出した特徴量によるデータベースの検索によって、個人ユーザ用のデータベースから得られた検索結果を優先して選択・決定することができる。これによって、最初から図11(C)に示す補正画像をユーザに提示することができる。
【0071】
このように、図11に示した例では、共用のデータベース中の補正方法及び補正パラメータでは、画像全体の明度・コントラストを変更するために、人物の顔の明るさを補正すると相対的に背景などの風景のディテールが失われてしまうことになり、シーンの雰囲気が生かせないことが多い。このユーザは、人物よりむしろ背景をバランス良く補正する傾向があると理解し、図11(C)に示すように人物の顔はやや暗いものの、背景の飛びを抑えた補正画像を第1候補としてユーザに提示することができる。このようにして、ユーザの好みを反映した補正処理が可能になる。
【0072】
以上、本発明の画像処理システム及び本発明の画像処理システムを含む画像処理サーバについて説明した。以下、これらの変形例についていくつか示す。図12は、補正処理済みの画像に対する扱いの一例の説明図である。上述のような画像補正処理を実行すると、元画像に対して何らかの画像変換が加えられことになる。既に画像解析、画像変換を施された変換画像であるにかかわらず、後で補正後の画像データが再度入力される事態も想定される。この場合、上述のような補正処理において、画像データに対し、補正処理を行ったことを示す情報を補正後の画像データに付加しておき、再入力されたときに内包情報解析・補正部11あるいは特徴量抽出・解析部12においてこの情報を取得することが考えられる。
【0073】
例えば図12(A)に示すように、補正処理を行ったことを示す情報を、画像の蓄積フォーマットに内包するタグ情報の形式で付加することができる。あるいは、図12(B)に示すように例えばWater Markingと呼ばれる画像データ自身に情報を埋め込む方式でもかまわない。この場合、例えば特徴量抽出・解析部12などにおいて、埋め込まれた情報を復元する処理を行えばよい。
【0074】
入力された画像データから、既に補正処理済みである旨の情報が取得された場合には、ユーザに対して補正済である旨を通知して、再度の補正を行うか否かを判断してもらうように構成することができる。このような通知を行うか否かや、再度の補正を許可するか拒否するかなどを設定可能に構成しておいてもよい。
【0075】
また別の変形例を説明する。上述の説明ではユーザに提示する画像とダウンロードする画像とは、サムネールか否かの違いはあるものの実質的には同じ画像であったが、例えばプリンタなどによって出力する画像に補正しようとする場合、上述のように出力デバイス毎に発色などが異なるため、画面上で選択した補正画像とプリントアウトされた画像とでは見えが異なる場合がある。
【0076】
従来から、特定の環境で利用できるものとして、異なるデバイス間での色の違いの問題を解決する方法にColor Management System(以降CMSとよぶ)が存在している。アップル社のMacintosh(登録商標)システムではColorSync,マイクロソフト社のWindows(登録商標)システムではICMといわれるシステムが知られている。これらは、画像を表示、プリントする場合に、入力側のデバイスのプロファイル(ソースプロファイル)と出力側のデバイスのプロファイル(ターゲットプロファイル)をそれぞれ入力、あるいは準備し、それらを用いて色変換することで、色の一致性を保証しようというシステムである。
【0077】
本システム(あるいは本サーバ)では、例えば色の一致性に関しては、上述のCMSを利用して、補正処理時に、ユーザが出力したいデバイスのプロファイルを用いて、ユーザが一時的に確認する際には表示画面上で出力デバイスにおける色再現(ソフトプルーフィング)を行って、ユーザに出力時の見えを提示することが可能である。また、シャープネスなどのモニタ画像とプリント画像との見え方の違いに関しては、データベースに機種データを有しておき、ユーザによる選択時とダウンロード時とでシャープネス補正量などを加減することによって、できるだけ見えを似せることも可能である。
【0078】
また、ユーザがプリンタのプロファイルを持たない場合は、ユーザの指定するカラープリンタ等のデバイスのICCプロファイル等をインターネット上から検索し、入手して処理することができる。あるいは、あらかじめデータベースとしてプロファイルを保持しておいて処理し、必要に応じてユーザに送付することも可能である。
【0079】
【発明の効果】
以上の説明から明らかなように、本発明によれば、ユーザがデジタルカメラ等で撮影した画像など、さまざまな入力画像データに対して、自動解析して好ましい画像に補正処理を行うことができるとともに、補正処理の際にユーザの好みを反映した補正効果を得ることができるという効果がある。また、ユーザ毎に補正方法及び補正パラメータを保持することによって、より特定ユーザの好みを反映した補正効果を得ることもできる。さらに、インターネットを介して、ユーザの画像の蓄積、管理についても、補正処理と併用した環境としてユーザに提供することができるという効果もある。
【図面の簡単な説明】
【図1】 本発明の画像処理システムの実施の一形態を示すブロック構成図である。
【図2】 特徴量抽出・解析部12で抽出される特徴量の分類キーの一例の説明図である。
【図3】 調停処理の一例の説明図である。
【図4】 データベース15に格納されている補正処理に関する情報の一例の説明図である。
【図5】 本発明の画像処理システムの実施の一形態を画像処理サーバとして利用した場合の一例を示す構成図である。
【図6】 本発明の画像処理システムの実施の一形態を画像処理サーバとして利用した場合の一例における動作例を示すフローチャートである。
【図7】 補正画像を複数用意しておく場合の一例の説明図である。
【図8】 複数の補正画像の候補を複数同時に表示させた表示画面の一例の説明図である。
【図9】 データベースに対する補正結果の登録更新処理の概要の説明図である。
【図10】 ユーザにより選択された補正方法及び補正パラメータのデータベースへ反映した場合の補正方法及び補正パラメータの具体例の説明図である。
【図11】 ユーザ毎の補正方法及び補正パラメータの選択を行う具体例の説明図である。
【図12】 補正処理済みの画像に対する扱いの一例の説明図である。
【符号の説明】
11…内包情報解析・補正部、12…特徴量抽出・解析部、13…補正方法・補正量決定部、14…ユーザ環境補正量算出部、15…データベース、16…補正処理部、21…ガンマ補正・色空間変換処理部、22…ハイライト・シャドー補正部、23…明暗コントラスト補正部、24…色相・カラーバランス補正部、25…彩度補正部、26…記憶色補正部、27…シャープネス・強調処理部、31…画像処理サーバ、32,33…情報処理端末、34…ネットワーク。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing system that performs correction processing on an image, and an image processing apparatus server that receives a request for correction processing for such an image from an information processing terminal connected to the Internet.
[0002]
[Prior art]
In a system in which a print is obtained from a conventional film camera, the film exposure condition is generally determined by a camera photometry system. Since the exposure conditions are determined on the assumption that the subject is very average, under conditions that are different from the average conditions such as lighting conditions when shooting the subject, how light strikes the subject, and backlight conditions, There may be a problem such as uneven exposure in image data on the film. For example, the face of the person who is the main subject may appear dark due to backlight conditions. Also, due to the difference in the light source that illuminates the subject (sunlight, fluorescent light, etc.) and the outdoor sun conditions (sunset, cloudy, etc.), the color balance may shift significantly on the color film. There was a case.
[0003]
In general, these defects are often corrected when printing from a negative film to a color print. If there are defects in the printing conditions under normal printing conditions, the printing conditions (exposure time, color balance filter, etc.) are changed, and printing correction is performed for finishing. In recent years, image data on a negative film is analyzed, and corrections such as exposure conditions and color balance conditions are often performed by digital image processing.
[0004]
On the other hand, in slide film photography (positive film), the state at the time of photography is photographed as it is on the film, so that if the photographed image is defective, the slide itself remains defective. It is also possible to print from a slide film to a color print, and some correction can be performed at that time, but in general, the correction latitude is wider for printing from negative film, and general camera photography is not possible. When doing so, it is customary to use a negative film.
[0005]
In recent years, with the spread of personal computers, color printers, film scanners, reflective scanners, and the like and improvement in performance, the handling of image data as digital image data is increasing. Also, a camera system called a digital still camera has become common from a conventional film camera system. This is an RGB digital signal that allows the captured image to be displayed as it is on a monitor, for example, by converting the optical signal into an electrical signal by a photoelectric conversion element such as a CCD, instead of exposing the captured image to film as in the past. Is stored as image data. In a digital still camera body, it is now common to store captured image data as an image file on a recording medium such as a memory card or an optical disk. The user captures the image stored in the recording medium into the user's personal computer using the communication means, or takes out the recording medium itself and captures the image data from the recording medium reading means on the personal computer side, on a monitor such as a personal computer. It is possible to appreciate images. In addition, images can be viewed on the monitor of the user's personal computer, or output to a color printer or the like and printed by the user.
[0006]
However, although the captured image data can be easily viewed by the user as a digital image file, the captured data of the digital still camera is the same as that of the above-described film camera system. If there is a problem in the situation at the time of shooting, it will be recorded on the recording medium as it is. For this reason, there has been a problem that many of the above-described problems occur during viewing. In other words, when viewing images taken by a digital still camera, the exposure conditions at the time of camera shooting, the state of the subject, the backlight conditions, etc., unlike print images obtained by correcting with a conventional negative film system, etc. There are many so-called failed works that are not corrected.
[0007]
For this reason, there is an increasing need for an application that corrects a photographed image on a personal computer so that it can be enjoyed by a user and a mechanism (such as a printer driver) that corrects the image at the time of color printing. When performing correction, the recorded digital image is a technique for effectively correcting the image within a narrow range of latitude, such as slide film shooting of a film camera system. There is a need to cope with non-correction methods (related to characteristics and correction information of digital cameras, adjustment by image size, color correction for an arbitrary output destination, adjustment method that can be easily performed by general users).
[0008]
In order to automatically create effective correction methods and correction parameters from such narrow-latency original image data, the features taken from the images and scenes (landscapes, people, etc.) are analyzed. It is necessary to use a statistical correction method according to the analysis result and a correction parameter reflecting personal preference. However, in conventional applications and the like, correction parameters calculated under experimentally limited conditions have only to be used, and there has been no correction method that takes into consideration various data and personal preference characteristics.
[0009]
On the other hand, there is a problem when the user handles image data. In other words, as described above, image data correction can be performed by a PC application or a correction mechanism in a printer driver, but for digital still camera users, processing can only be performed by a PC on which the application is installed. There was a problem that it could not be processed only by a printer having a correction function.
[0010]
The corrected image cannot be output optimally unless the processing method and parameters are changed according to the characteristics of the output device (monitor, color printer, etc.) desired by the user. Therefore, when the image corrected by the user once is used in another output device, the corrected image is not used as it is, but is corrected again for another output device based on the correction information. It will be necessary. However, there has been no method for effectively managing such image data, correction information, and output information.
[0011]
Furthermore, in the case of a digital still camera, processing up to the point where RGB image data is created is generally processed on the camera side. Although it is recommended that RGB image data be stored in the RGB signal standard called sRGB (standard RGB) as a standard standard, complicated conditions and camera manufacturer photometry are required from the shooting of the subject to the creation of the RGB signal. Since the system and the image reproduction policy are intertwined, there is also a problem that the output from different camera systems is not uniform.
[0012]
[Problems to be solved by the invention]
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image processing system capable of correcting an image preferable for the user in consideration of various photographing conditions and user-preferred characteristics. It is what. Another object of the present invention is to realize an image processing server that provides a service for correcting an image preferable for such a user via a network such as the Internet.
[0013]
[Means for Solving the Problems]
In an image processing system that performs correction processing on an image, the present invention obtains a database that obtains a plurality of feature amounts from an image to be processed and uses the obtained feature amounts to hold information relating to past correction processing. A correction method and correction parameters for correction processing to be performed on an image to be processed are referred to, and the database is composed of two types of databases for common use and individual users, and the common database Stores the correction method and the correction parameters corresponding to a plurality of classification keys including image feature amounts, and the database for individual users stores the correction method and correction parameter determination results by the determination means in the past. Is stored as information related to the correction processing of the personal information from the database for the individual user to the shared database. It is characterized in that to reflect. Then, if correction processing is performed on the image to be processed according to the determined correction method and correction parameter, the image quality that is preferable for the user, which reflects the user's preference for the feature of the image in the correction processing, is corrected.
[0014]
The image processing server of the present invention accepts uploading of an image from an information processing terminal connected to the Internet, obtains a plurality of feature amounts from the image as described above, using the uploaded image as a processing target image, A correction method and a correction parameter for correction processing to be performed on an image to be processed by referring to a database that holds information on past correction processing using the obtained feature amount, and the determined correction method and Compensation processing is performed on an image uploaded with correction parameters, and the database is composed of two types of databases for shared use and individual users, and the shared database includes a plurality of image feature amounts. The correction method and the correction parameter are stored corresponding to the classification key, and data for an individual user is stored. Base is characterized by reflecting the information about the correction process to the shared database from the determination results of the correction method and correction parameters by the determination unit stores the information about past correction processing, database for the individual user. As a result, correction processing is performed in accordance with the characteristics of the image and the characteristics desired by the user.
[0015]
The database stores correction methods and correction parameters corresponding to a plurality of classification keys including image feature amounts, and can reflect user preferences according to image features. In addition, the database is composed of two types of databases for shared use and individual users, and detailed correspondence for each user is possible. If a shared database is used, general correction processing is also possible. Furthermore, the contents of the personal database are reflected in the shared database. This makes it possible to cope with changes in general preferences from time to time.
[0016]
In addition, it is possible to provide the user with information related to the correction method and correction parameter candidates, or to present some correction images and receive a determination instruction or selection instruction from the user. As a result, the user's preference can be understood, and this can be configured to be reflected in the database.
[0017]
If the image to be processed includes information indicating the feature amount of the image or information indicating that correction processing has already been performed on the image, the feature amount is extracted in consideration of the information. can do. Such information may be added by a tag or embedded in an image, for example, and may be acquired. When correction processing is performed on an image, information indicating that can be added to, for example, a tag or embedded in the image.
[0018]
Furthermore, when an output device that outputs a corrected image is specified, image correction is performed by determining a correction method and correction parameters according to the output device, or correction is performed with a profile indicating the characteristics of the output device. It can be configured to output a later image.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing an embodiment of the image processing system of the present invention. In the figure, 11 is an inclusion information analysis / correction unit, 12 is a feature amount extraction / analysis unit, 13 is a correction method / correction amount determination unit, 14 is a user environment correction amount calculation unit, 15 is a database, 16 is a correction processing unit, 21 is a gamma correction / color space conversion processing unit, 22 is a highlight / shadow correction unit, 23 is a light / dark contrast correction unit, 24 is a hue / color balance correction unit, 25 is a saturation correction unit, 26 is a memory color correction unit, Reference numeral 27 denotes a sharpness / enhancement processing unit.
[0020]
In this example, an inclusion information analysis / correction unit 11 and a feature amount extraction / analysis unit 12 are provided as feature amount extraction means. The inclusion information analysis / correction unit 11 determines whether or not information added to the image data exists before analyzing the input image data to be corrected. For example, the information can be used as a correction parameter for reference data or a feature amount when correcting the main image data. For example, such information may be added as a tag to an image file including input image data, or may be embedded in the image data itself.
[0021]
As a specific example, there is EXIF information that is a standard established by various companies related to digital cameras, and this EXIF information can be included in a JFIF format that is a compressed image format. When shooting with a digital camera that supports this standard, some information is recorded according to the EXIF standard when the captured image is recorded in the JFIF format. For example, information such as the type of camera that has been shot, the shooting date, and the presence or absence of a flash may be stored. If there is information that can be used for these pieces of information, the information can be recognized as a feature amount. In addition, if information representing the color characteristics of an image is included as in an ICC (International Color Consortium) profile, such information is acquired for analysis in a later process, and gamma characteristics and standard analysis spaces (for example, correction to sRGB etc.).
[0022]
As the feature amount attribute of the image that can be related from the information added to the image data in this way, the specific color (for example, skin color) data using the characteristics of the camera acquired in advance from the camera model information. It is conceivable that the distribution of the above-mentioned distribution is used, and the tendency of the gradation characteristics (brightness, darkness, etc.) is converted into feature quantities and used. It is also conceivable to set an image correction method and correction parameters based on the camera shooting mode, image size, presence / absence of flash, etc., which are specific to the model. For example, when a person, landscape, or the like is recorded as the shooting mode, it is possible to specify the scene attribute of the image data, and it is possible to select a sharpness characteristic correction method from the image size.
[0023]
The feature quantity extraction / analysis unit 12 analyzes the image data itself and extracts a plurality of feature quantities in the image. Examples of feature amounts include characterizing lightness distribution, saturation distribution, and color balance in an image from an RGB histogram, HSL (Hue: Hue, Saturation, Lightness) histogram of image data, The edge degree of image sharpness can be calculated as a feature amount from the size, the edge amount and edge strength of image data, and the like. Further, in more detail, a combination of the skin color distribution in the image and the shape extraction of the facial appearance is combined to extract a human characteristic amount, and whether or not the scene is a person-oriented scene. It is possible to calculate the amount, calculate the face size of the main subject, calculate the number of persons, and the like. Furthermore, feature quantities such as a scene shooting situation (backlight situation of a main subject, size of a person, etc.) are extracted from a local brightness distribution state in the image, and a backlight state feature quantity is calculated. be able to.
[0024]
FIG. 2 is an explanatory diagram of an example of a feature quantity classification key extracted by the feature quantity extraction / analysis unit 12. For example, as shown in FIG. 2, the feature quantity extracted by the feature quantity extraction / analysis unit 12 can be associated with a large classification key, a middle classification key, and a small classification key (not shown). In this example, keys such as an input device, an image file, a scene / subject, an overall image quality, and an output device are provided as large classification keys. Further, for each major classification key, a middle classification key as shown in FIG. 2 is provided. Further, one or more small classification keys are provided for the combination of the large classification key and the middle classification key. For example, the above-mentioned “saturation histogram” or “saturation histogram median” may be provided as a small classification key for the combination of the large classification key “whole image quality” and the middle classification key “saturation”. it can. For example, when the major classification key is “Scene / Subject” and the middle classification key is “Image Scene Type”, minor classification keys such as “Person”, “Landscape”, “Article”, “Text”, etc. should be provided. Can do. The feature quantity extraction / analysis unit 12 may not be able to acquire all the feature quantities represented by the large classification key, middle classification key, and small classification key. Can be associated with a small classification key.
[0025]
Returning to FIG. 1, the correction method / correction amount determination unit 13 searches the database 15 to be described later using the feature amount extracted by the feature amount extraction / analysis unit 12 and performs correction processing to be performed on the image data. The correction method and correction parameters are determined. The database 15 can be searched using the above-described major classification key, middle classification key, minor classification key, and feature amount. In some cases, different correction parameters may be extracted from the search result even though the correction method is the same. Alternatively, there may be a case where a plurality of correction methods are extracted. In that case, arbitration processing may be performed, such as determining the priority order of feature amounts or using an average correction parameter. FIG. 3 is an explanatory diagram of an example of the arbitration process. When a plurality of correction methods and correction parameters are searched as shown in FIG. 3A, these correction methods are synthesized and optimized in FIG. 3B, and the correction parameters are linked and optimized. . Then, the optimized correction method and correction parameter may be determined as the correction method and correction parameter to be used. Alternatively, the plurality of searched correction methods and correction parameters may be displayed on a display unit (not shown), and may be selected by a user using a selection unit (not shown). Furthermore, when the correction method and the correction parameter are determined, the searched correction method and the correction parameter may be displayed on a display unit (not shown) so as to accept correction by the user.
[0026]
Returning to FIG. 1, the user environment correction amount calculation unit 14 uses the correction method / correction amount determination unit 13 as information for determining a correction method and correction parameters according to the characteristics of the output device that outputs the corrected image. To pass. Alternatively, a profile indicating the characteristics of the output device that outputs the corrected image is added to the corrected image.
[0027]
When image conversion preferable for the user is performed, the correction method or the correction parameter may vary depending on the output device with which the user views the corrected image. For example, when viewing on a monitor attached to his / her personal computer, viewing on a mobile terminal with a limited color such as 256 colors, or displaying using a projector, the inkjet color printer of company A There are various cases such as when outputting with the color laser printer of company B, and the image quality and color development may change depending on the characteristics of each output device in each case.
[0028]
An image of a digital camera is generally handled by characteristics of a standard RGB color space called sRGB. Therefore, image conversion is generally performed based on the sRGB characteristics. However, as described above, if the image output that the user wants to finally obtain is, for example, a printer owned by the user, correcting the image quality without considering the characteristics of the printer may cause color reproduction or A different correction parameter may be selected in terms of sharpness reproduction.
[0029]
Therefore, the user environment correction amount calculation unit 14 acquires the model characteristics (resolution, screen, etc.) or ICC profile (color reproduction characteristics) of the output device such as the user's color printer, and corrects the characteristics in consideration of such characteristics. The method / correction amount determination unit 13 is configured to select and determine a correction method and a correction parameter.
[0030]
The database 15 holds information regarding past correction processing. In particular, the correction method and the correction parameter can be stored in association with the large classification key, the middle classification key, the small classification key, and the feature amount as shown in FIG. FIG. 4 is an explanatory diagram of an example of information related to the correction process stored in the database 15. In the example shown in FIG. 4A, the correction method when the major classification in the classification key shown in FIG. 2 is “saturation” in the “total image quality” middle classification key and the “saturation histogram median” is in the minor classification key. An example of a correction parameter is shown. In this example, the selection of whether or not to perform saturation correction processing and the parameters (enhancement amount) of the saturation correction processing are determined based on the median value of the histogram relating to the saturation of the entire image. For example, when the saturation histogram median value X is a value between predetermined values C1 and C2 (C1 <X <C2), saturation correction is performed, and “+2” is set as a correction parameter at that time. Is retained.
[0031]
In the example shown in FIG. 4B, the correction method and correction parameters when the large classification key in the classification key shown in FIG. 2 is “whole image quality”, the middle classification key is “sharpness”, and the small classification key is “edge degree”. An example is shown. In this example, the selection of whether or not to perform smoothing and sharpness processing, and correction processing parameters (smoothing amount and enhancement amount) based on the degree of edge of the entire image (e.g., calculated using a histogram of the enhancement amount by the differential filter). ). For example, when the edge degree Y is smaller than a predetermined value E1, it is held that sharpness correction processing is performed and “+4” is set as a correction parameter at that time. When the edge degree Y is a value between the predetermined values E2 and E3 (E2 <Y <E3), smoothing processing is performed and “+1” is set as a correction parameter at that time. Is held. Further, when the edge degree Y is larger than the predetermined value E3, both the smoothing process and the sharpness correction process are performed, and “+2” is used as a correction parameter during the smoothing process, and as a correction parameter during the sharpness correction process. “−2” is held. In this way, not only the parameters of the correction method are changed according to the feature amount, but also information regarding correction processing that is applied by changing the correction method can be held.
[0032]
In the example shown in FIG. 4C, the major classification key in the classification key shown in FIG. 2 is “scene / subject”, the middle classification key is “image scene type”, the minor classification keys are “person”, “landscape”, “ An example of a correction method and correction parameters for “article” and “character” is shown. In this example, whether or not to perform brightness adjustment, contrast adjustment, sharpness processing, skin color correction processing, black character correction processing, etc. depending on each value of the image scene type, and parameter adjustment amount for brightness adjustment, contrast adjustment, and sharpness processing Is held. The parameter adjustment amount at this time indicates a relative adjustment amount, and indicates that the relative level with respect to the adjustment amount determined from other various feature amounts is adjusted. For example, when the image scene type is “person”, brightness adjustment is performed, and “+2” is set as the parameter adjustment amount at that time. This indicates that the brightness adjustment parameter determined from various other feature values is set to be brighter by two levels. At the same time, sharpness correction processing is performed, and “−1” is set as the parameter adjustment amount at that time, and the sharpness correction processing parameters determined from other various feature amounts are set one level lower. Yes. Furthermore, it is set to perform a specific skin color correction process when the image scene type is “person”. The same applies to other image scene types.
[0033]
The database 15 holds information related to the correction process in which the correction method and the correction parameter are associated with the classification key as described above, and is corrected by a search using the classification key and the feature amount from the correction method / correction amount determination unit 13. Information about processing is retrieved. The information regarding the correction process held in the database 15 is generated based on the correction method and correction parameters used in the correction process performed in the past by the user. For example, when a plurality of correction methods and correction parameters are retrieved from the database 15 by the correction method / correction amount determination unit 13 as described above, the correction method and correction parameters automatically determined by the correction method / correction amount determination unit 13; Alternatively, based on the correction method and correction parameters that are presented to the user and selected or corrected, information relating to correction processing held in the database 15 can be updated. The update may be performed every time correction processing is performed, or may be performed every certain period or number of times. In this way, by reflecting the history of correction processing performed in the past in the information related to correction processing, it is possible to correct the image to be preferable for the user in consideration of the user's favorite characteristics and the like. Note that the specific configuration method of the database 15 is arbitrary, and various known database techniques can be used.
[0034]
As the database 15, two types of databases, that is, a shared database and a database for individual users for each user can be provided. When updating the information related to the correction process based on the correction process history described above, the database for the individual user can be updated. This makes it possible to perform a correction process reflecting the user's preference, the user's environment, etc. for each user. In addition, information regarding correction processing can be appropriately reflected from the database for individual users to the shared database. This makes it possible to cope with changes in general preferences from time to time. The shared database and the personal user database may be basically the same.
[0035]
Returning to FIG. 1, the correction processing unit 16 actually performs correction processing on the input image data in accordance with the correction method and correction parameters determined by the correction method / correction amount determination unit 13. In the example shown in FIG. 1, the correction processing unit 16 includes a gamma correction / color space conversion processing unit 21, a highlight / shadow correction unit 22, a light / dark contrast correction unit 23, a hue / color balance correction unit 24, and a saturation correction unit. 25, a memory color correction unit 26, a sharpness / enhancement processing unit 27, and the like. Each processing unit can be configured to perform a respective correction process by a known method. For example, the saturation correction unit 25 multiplies a saturation coefficient when RGB image data is subjected to HSL conversion by a predetermined coefficient and performs an increase / decrease process, or a ratio according to the brightness value. Various correction methods such as a method of changing the value can be considered. Each processing unit does not always perform all processing, but only processing determined to be corrected by the correction method / correction amount determination unit 13 is performed. The content of the correction process is also changed by the correction parameter passed from the correction method / correction amount determination unit 13. Note that the user environment correction amount calculation unit 14 may add a profile indicating the characteristics of the output device that outputs the corrected image to the corrected image data.
[0036]
The operation in the above-described embodiment of the image processing system of the present invention will be briefly described. When image data to be processed is input, the inclusion information analysis / correction unit 11 can acquire the information added to the image data by analyzing the added information. Get the amount here. Further, the feature amount extraction / analysis unit 12 extracts a feature amount from the input image data. The feature amounts extracted by the inclusion information analysis / correction unit 11 and the feature amount extraction / analysis unit 12 are associated with a classification key as shown in FIG. 2, for example, and passed to the correction method / correction amount determination unit 13.
[0037]
The correction method / correction amount determination unit 13 searches the database 15 based on the classification key passed from the feature amount extraction / analysis unit 12 and the extracted feature amount, and acquires one or more correction methods and correction parameters. Further, in some cases, correction information corresponding to the output device from the user environment correction amount calculation unit 14 is also acquired. Then, the correction method and the correction parameter are determined automatically or through selection or correction by the user from these pieces of information, and among the processing units of the correction processing unit 16, the processing unit that has been determined to perform the correction processing is determined. On the other hand, a correction parameter is passed to instruct correction processing. In response to this, the processing unit that has been determined to perform the correction process in the correction processing unit 16 executes the correction process on the input image data, and outputs it.
[0038]
Further, the correction method and correction parameters actually performed are fed back to the database 15 and the database 15 (individual user database if a database for individual users exists) is updated.
[0039]
A specific example of the above-described processing will be described by qualitatively describing the situation of an image with text. For example, it is assumed that image data “an image obtained by photographing a single subject in the foreground, but the skin color of the face of the subject person appears dark because there is no flash in the backlit state” is input. A feature amount such as this sentence is extracted by the inclusion information analysis / correction unit 11 and the feature amount extraction / analysis unit 12 to search the database 15. In this case, as a process suitable for a human scene and backlight correction, a correction method and correction parameters that brightly correct the face portion of the subject person are determined by automatic selection or selection correction by the user. For example, when image data “a landscape image mainly composed of the sky and the sea but having low brightness contrast, saturation, and sharpness feature amount” is input, the inclusion information analysis / correction unit 11 and feature amount extraction / The database 15 is searched for the feature amount based on the analysis result by the analysis unit 12, and a correction method and a correction parameter for enhancing brightness contrast, saturation, and sharpness are automatically selected for the image data or determined by selection correction by the user. . Then, based on the determined correction method and correction parameters, the correction processing unit 16 performs correction processing. Since the database 15 stores information related to past correction processing, the correction method and correction parameters are determined based on correction processing performed by the user in the past. Optimal correction processing can be performed.
[0040]
FIG. 5 is a block diagram showing an example when an embodiment of the image processing system of the present invention is used as an image processing server. In the figure, 31 is an image processing server, 32 and 33 are information processing terminals, and 34 is a network. The network 34 is a communication path constituted by the Internet, an intranet, a LAN, or the like. In the following description, the network 34 is described as being the Internet, but is not limited to this.
[0041]
The image processing server 31 includes, for example, the image processing system shown in FIG. The image processing server 31 is connected to a network 34 and has a mechanism for receiving a service request from each client (for example, the information processing terminals 32 and 33) created on the Web and providing a service. For this purpose, uploading means and downloading means (not shown) are provided. The database 15 is illustrated separately from the image processing server 31 in FIG. 5, but may be included in the image processing server 31. Alternatively, the database 15 may be configured as another database server connected to the network 34.
[0042]
The information processing terminals 32 and 33 are terminals that can communicate with the image processing server 31 through at least the network 34. The information processing devices 32 and 33 are generally user's personal computers, but may be mobile terminals with built-in digital camera functions or Internet communication functions. Further, as shown in the figure, it may have a configuration capable of capturing an image from an image input device such as a scanner or a digital camera. Of course, the image input device or the like is arbitrary, and for example, an image may be acquired from another computer or server.
[0043]
FIG. 6 is a flowchart showing an operation example in an example in which one embodiment of the image processing system of the present invention is used as an image processing server. In the configuration as described above, it is assumed here that the information processing terminal 32 requests the image processing server 31 to perform image data correction processing and receives the correction processing result. Of course, the same applies to a request from the information processing terminal 33 to the image processing server 31.
[0044]
When requesting image data correction processing from the information processing terminal 32 to the image processing server 31, first, in S 61, the user logs in to the service provided by the image processing server 31 from the information processing terminal 32. At this time, identification information for identifying the user may be transmitted. In some cases, the user is authenticated by, for example, a password.
[0045]
After logging in to the image processing server 31, the user selects a desired service menu in S62. For the sake of explanation, it is assumed that the selection is made from the service menu of “automatic image correction” and “automatic image correction (multiple selection)” as an example. Of course, the service menu of the present invention is not limited to this example.
[0046]
First, it is assumed that the user selects “automatic image correction” from the service menu. After selecting the menu, in S63, the user performs an operation of uploading an image file including image data to be corrected in the information processing terminal 32 used by the user to the image processing server 31. Of course, the image file does not have to exist in the information processing terminal 32 performing the operation as long as the user can perform the upload operation. The image processing server 31 can manage the image file to be processed by the image file upload operation.
[0047]
In S64, the uploaded image file is subjected to the correction process as described above by a job for automatic correction. That is, in the automatic correction job, various feature values are extracted by analyzing image data, the database 15 is searched using the extracted feature values, and one or more correction methods and correction parameters are acquired. Is used to correct the image data in the image file. As described above, the database 15 stores correction methods and correction parameters set based on correction processing performed by the user in the past. For this reason, it is possible to select or calculate a correction method or correction parameter that is preferable for the user in view of past correction processing, and to perform correction processing using the correction method and correction parameter.
[0048]
After performing the correction process, the corrected image data is downloaded to the information processing terminal 32 of the user, and the corrected result image is displayed in S65. At this time, it is also possible to create a thumbnail of the original image before correction and display the result image together with the thumbnail of the original image on the information processing terminal 32 of the user. This makes it easier for the user to compare the images before and after correction to determine whether the correction process is appropriate.
[0049]
The user refers to the result image displayed in S65. In S66, the user determines and inputs the suitability of the correction process, and the determination result is transmitted to the image processing server 31. If the user is not satisfied with the corrected image, the process returns to S64 to select another correction method and another parameter candidate and perform the correction process again. Display and ask the user's judgment. Such processing is repeated until the user is satisfied or there are no more candidates.
[0050]
When the user is not satisfied with the corrected image, some feature amounts and parameters are displayed on the information processing terminal 32, and processing such as selecting a next candidate based on the feature amount that the user does not like is performed. The next candidate can be selected efficiently. For example, a correction parameter such as “bright” or “dark” may be designated with respect to the feature amount “overall brightness”.
[0051]
When a corrected image that the user is satisfied with is obtained, the fact is input to the image processing server 31. Since the corrected image has already been downloaded to the information processing terminal 32, the user can use the corrected image data. When the image processing server 31 receives the fact that the user is satisfied, in S67, the correction method and the correction parameters used during the correction processing that the user is satisfied are additionally recorded in the database 15 or the database 15 is updated. It is also possible to save images before and after the correction. In this way, the correction process for a series of image data is completed.
[0052]
In the above operation example, even if the user is not satisfied, the corrected image is downloaded to the information processing terminal 32 one by one. For speed improvement, for example, the image presented to the user in S65 is a thumbnail of the corrected image. After the user's consent is obtained, the actual corrected image can be downloaded to the information processing terminal 32 in S67. In this case, when a thumbnail is presented, a thumbnail image is first generated from the image data, and correction processing is performed on the thumbnail image, so that the speed can be further increased.
[0053]
In addition, when a plurality of correction methods and correction parameters are obtained by the search, correction processing can be performed on these to prepare a corrected image. FIG. 7 is an explanatory diagram of an example when a plurality of corrected images are prepared. As shown in FIG. 7, using the respective correction methods and correction parameters obtained by the search, the input image data is corrected to obtain a corrected image. And when providing to a user, for example, a thumbnail can be created and displayed on the information processing terminal 32 together with the thumbnail of the original image. For example, correction processing using one correction method and correction parameter may be performed, and correction processing using another correction method and correction parameter may be performed while presenting to the user. As a result, when the corrected image presented by the user is not satisfied, it is possible to shorten the time (turnaround time) until the next corrected image is presented and to construct a system with good operability. is there.
[0054]
In S62, it is assumed that the user selects “automatic image correction (multiple selection)” from the service menu. After selecting the menu, in S71, the user performs an operation of uploading an image file including the image data to be corrected to the image processing server 31 as in S63 described above. The uploaded image file is analyzed for image data and various feature quantities are extracted as in the case of selecting “automatic image correction” described above, and the database 15 is searched using the extracted feature quantities. One or more correction methods and correction parameters are acquired. In this “automatic image correction (multiple selection)”, one or more of a plurality of acquired correction methods and correction parameters are determined or selected at a time in S72, and correction is performed according to the respective correction methods and correction parameters. Processing is performed to obtain one or more corrected image data. The one or more corrected image data are downloaded to the information processing terminal 32, and one or more correction results are displayed in S73.
[0055]
FIG. 8 is an explanatory diagram illustrating an example of a display screen on which a plurality of correction image candidates are simultaneously displayed. In this example, the corrected image is arranged around the original image so that the original image and the corrected image can be compared. The user compares each corrected image with the original image, and can select a corrected image according to his / her preference. Of course, the display method is arbitrary, and is not limited to the example shown in FIG. 8, but it is desirable that the correction effect can be compared by arranging it so as to be compared with the original image. In this way, making it possible to select from a plurality of images makes it possible to determine image candidates that are preferable for the user at a time and select them while comparing them, which is a better service for the user.
[0056]
As described above, in “automatic image correction (multiple selection)”, a plurality of corrected images are displayed. In S74, the user may select a desired image from one or more displayed correction results. Alternatively, it is possible to input that the displayed correction result is not satisfactory. This user's intention is transmitted to the image processing server 31.
[0057]
If the user is not satisfied with the plurality of correction results, the process returns to S72, and if there are other correction methods and correction parameters in the search result, one or more of them are selected and the above described. The correction process may be performed as described above and presented to the user. In addition, when the user inputs that the user is not convinced, some feature quantities and parameters are displayed on the information processing terminal 32 as described above, and the next candidate is selected based on the feature quantities that the user does not like. It can also be configured to perform processing.
[0058]
When the corrected image accepted by the user is selected, the image processing server 31 additionally records or updates the database 15 with the correction method and correction parameters used for the corrected image accepted by the user in S75. It is also possible to save images before and after the correction. In this way, the correction process for a series of image data is completed.
[0059]
In the above-described operation example, one or more corrected image data are downloaded and displayed. However, in order to improve the speed, for example, the one or more corrected images presented to the user in S73 are converted into thumbnail images. After converting and downloading, and selecting by the user, the selected corrected image may be downloaded to the information processing terminal 32 in S75. Further, in this case, it is possible to further increase the speed by generating a thumbnail image from the first input image data and applying the respective correction processes to the thumbnail image.
[0060]
FIG. 9 is an explanatory diagram of the outline of the registration update processing of the correction result for the database. In the initial state, the database 15 stores correction methods and correction parameters set in advance according to, for example, the classification of feature amounts as shown in FIG. As explained in the above operation example, when the corrected image or its thumbnail is presented to the user and it is accepted or selected as the desired corrected image, it is used to generate the corrected image. The correction method, the correction parameter, and the feature amount of the image data before correction are added / updated to the database 15 as a history. Further, the original image and the corrected image may be recorded in the database 15.
[0061]
At this time, as shown in FIG. 9, when the database 15 is composed of a shared database and a database for individual users for each user, such history, original images, corrected images, etc. Can be recorded in the database. By managing the original image and the corrected image in the database 15, for example, the user can manage the original image and the corrected image in association with the feature amount analyzed by the inclusion information analysis / correction unit 11 and the feature amount extraction / analysis unit 12. Can also be provided.
[0062]
If the correction processing history is simply added to the database 15 as described above, the user's personal preference and the learning effect by the user's selection are not reflected, and the correction method and correction parameters are unified. Therefore, it is necessary to feed back to the database 15 the correction method and correction parameters of the image finally selected by the user.
[0063]
FIG. 10 is an explanatory diagram of a specific example of the correction method and the correction parameter when the correction method and the correction parameter selected by the user are reflected in the database. FIG. 10 shows an example in which the major classification key is “classification related to overall image quality” and the middle classification key is “saturation”. In this example, an average value (saturation correction history ave) of the saturation adjustment amount actually selected by the user is stored for the small classification of the feature amount. For example, when the saturation histogram median X is larger than a predetermined value C3 (C3 <X), the preset saturation correction parameter is “−1”, but the average value of the history so far is “ -0.2 ", indicating that the parameter with the correction level of 0 seems to be better. Accordingly, for example, for the user, the correction parameter when performing the saturation correction process can be set to “0” (or the saturation correction process is not performed). In this way, correction processing according to the user's preference can be performed.
[0064]
The correction method and the correction parameter according to the correction processing history are updated every time the user corrects the image, for example, or the history is accumulated to some extent and updated at a predetermined timing. It can be carried out. The predetermined timing may be elapse of a predetermined time or execution of a predetermined number of correction processes. In addition, the history to be referred to at the time of updating reflects the correction method and correction parameters for each user set up to that point and all the history recorded so far. The correction method and the correction parameter can be updated. For example, when the preference change is severe, the current user's preference can be better reflected by updating the correction method and the correction parameter according to the recent history rather than being dragged by the past history.
[0065]
Information related to the correction processing performed in the past by the user as described above can be recorded in the shared database shown in FIG. 9, but it reflects the preference for each user. It is desirable to record in the database. This makes it possible to determine correction methods and correction parameters with reference to correction information reflecting each user's preference. Then, a correction method based on the history and a feature quantity for which no correction parameter exists in the database for individual users may be configured to refer to the shared database. Further, for example, even when the user does not understand the correction method and the correction parameter based on the search result from the database for individual users, the common database is searched to obtain a general correction method and correction parameter. Also good. Alternatively, search results may be acquired from both databases, and a correction method and correction parameters to be used may be selected and determined from these search results according to a predetermined priority order.
[0066]
It is also possible to reflect the history, correction method, and correction parameters accumulated for each user in a shared database. In a system used by many users, it is possible to grasp the tendency of preference of the entire user, and to reflect the tendency of preference of the entire user in a shared database. As a result, it is possible to perform a correction process in time.
[0067]
FIG. 11 is an explanatory diagram of a specific example for selecting a correction method and correction parameters for each user. FIG. 11A shows an image to be corrected. From the feature amount analysis of this image data, the feature amount that is a scene that is photographed with a single person as the center, but is in a backlit state, is a state in which the main subject is reflected under. . Specifically, according to the classification key shown in FIG. 2, for example, the large classification key is “scene / subject”, the middle classification key is an image scene type, the small classification key is “person”, and similarly, “main subject presence / absence” is set. Then, “Yes”, “Main subject size” is “Medium”, “Main subject light condition” is “Backlight”, “Number of persons” is “One person”, and so on.
[0068]
For such image data, in a general correction method, the person portion that is under-focused by the backlight condition with the person as the center is corrected brightly. Therefore, a correction method and parameters for performing such correction are selected and determined from the shared database. FIG. 11B shows the result of correction using such a general correction method and correction parameters.
[0069]
However, when correction processing is performed using such a general correction method and correction parameters, the face of a person becomes bright but the background tends to fly too much. A user who dislikes such background skipping prefers an image with a slightly weaker correction as shown in FIG. 11C, for example. In such a case, if information related to such correction processing is not registered in the database for individual users, the correction image shown in FIG. 11B is first presented, and re-correction is instructed without understanding. An instruction to be accepted when the corrected image shown in 11 (C) is presented may be given. Such correction history is accumulated in the database 15 and reflected in the database for individual users.
[0070]
After the past correction information is reflected in the database for individual users, when a similar image (for example, the image shown in FIG. 11A) is input again, the database is searched for the individual user by searching the database based on the extracted feature amount. The search results obtained from the database can be selected and determined with priority. As a result, the corrected image shown in FIG. 11C can be presented to the user from the beginning.
[0071]
As described above, in the example shown in FIG. 11, the correction method and correction parameters in the shared database change the brightness / contrast of the entire image to correct the brightness of the person's face, so that the background, etc. The details of the scenery will be lost, and the atmosphere of the scene cannot often be utilized. This user understands that there is a tendency to correct the background rather than the person in a balanced manner, and as shown in FIG. 11C, the corrected image with the background of the person somewhat dark but with the background skip suppressed as the first candidate. It can be presented to the user. In this way, it is possible to perform a correction process reflecting the user's preference.
[0072]
The image processing system of the present invention and the image processing server including the image processing system of the present invention have been described above. Hereinafter, some of these modifications will be described. FIG. 12 is an explanatory diagram of an example of handling for a corrected image. When the image correction processing as described above is executed, some kind of image conversion is applied to the original image. Regardless of the converted image that has already undergone image analysis and image conversion, a situation in which the corrected image data is input again later is also assumed. In this case, in the correction process as described above, information indicating that the correction process has been performed on the image data is added to the corrected image data, and the inclusion information analysis / correction unit 11 when re-input is performed. Alternatively, it is conceivable that the feature amount extraction / analysis unit 12 acquires this information.
[0073]
For example, as shown in FIG. 12A, information indicating that correction processing has been performed can be added in the form of tag information included in the image storage format. Alternatively, as shown in FIG. 12B, for example, a method of embedding information in image data itself called “Water Marking” may be used. In this case, for example, the feature amount extraction / analysis unit 12 may perform processing for restoring the embedded information.
[0074]
When information indicating that the correction processing has already been performed is acquired from the input image data, the user is notified that the correction has been completed, and whether or not correction is performed again is determined. Can be configured to receive. It may be configured to be able to set whether or not to perform such notification, whether to permit or reject correction again.
[0075]
Another modification will be described. In the above description, the image to be presented to the user and the image to be downloaded are substantially the same although there is a difference between thumbnails or not. For example, when trying to correct the image to be output by a printer or the like, As described above, since the color development or the like is different for each output device, the corrected image selected on the screen may be different in appearance from the printed image.
[0076]
Conventionally, as a method that can be used in a specific environment, there is a color management system (hereinafter referred to as CMS) as a method for solving the problem of color difference between different devices. A system called ColorSync is known for Apple's Macintosh system, and ICM is known for Microsoft's Windows system. When displaying or printing an image, input device profiles (source profiles) and output device profiles (target profiles) are input or prepared, and color conversion is performed using them. It is a system that tries to guarantee color consistency.
[0077]
In this system (or this server), for example, with respect to color matching, when the user temporarily confirms using the above-described CMS and using the profile of the device that the user wants to output at the time of correction processing, By performing color reproduction (soft proofing) in the output device on the display screen, it is possible to present the appearance at the time of output to the user. In addition, regarding the difference in appearance between the monitor image and print image such as sharpness, the model data is stored in the database, and the sharpness correction amount is adjusted at the time of selection by the user and at the time of download, so that it can be seen as much as possible. It is also possible to resemble
[0078]
If the user does not have a printer profile, an ICC profile or the like of a device such as a color printer designated by the user can be retrieved from the Internet, obtained, and processed. Alternatively, it is possible to store a profile in advance as a database, process it, and send it to the user as necessary.
[0079]
【The invention's effect】
As is apparent from the above description, according to the present invention, various input image data such as an image taken by a user with a digital camera or the like can be automatically analyzed and corrected to a preferable image. There is an effect that a correction effect reflecting the user's preference can be obtained during the correction process. Further, by holding the correction method and the correction parameter for each user, it is possible to obtain a correction effect that more reflects the preference of the specific user. Furthermore, there is also an effect that the user's image accumulation and management can be provided to the user via the Internet as an environment used in combination with the correction process.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an image processing system according to the present invention.
FIG. 2 is an explanatory diagram of an example of a feature quantity classification key extracted by a feature quantity extraction / analysis unit 12;
FIG. 3 is an explanatory diagram of an example of arbitration processing;
FIG. 4 is an explanatory diagram of an example of information related to correction processing stored in a database 15;
FIG. 5 is a configuration diagram showing an example when an embodiment of the image processing system of the present invention is used as an image processing server;
FIG. 6 is a flowchart showing an operation example in an example when an embodiment of the image processing system of the present invention is used as an image processing server;
FIG. 7 is an explanatory diagram of an example when a plurality of corrected images are prepared.
FIG. 8 is an explanatory diagram illustrating an example of a display screen on which a plurality of correction image candidates are simultaneously displayed.
FIG. 9 is an explanatory diagram of an overview of registration update processing of correction results for a database.
FIG. 10 is an explanatory diagram of a specific example of a correction method and a correction parameter when the correction method and the correction parameter selected by the user are reflected in the database.
FIG. 11 is an explanatory diagram of a specific example in which a correction method and a correction parameter are selected for each user.
FIG. 12 is an explanatory diagram of an example of handling for a corrected image.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 11 ... Inclusion information analysis / correction part, 12 ... Feature quantity extraction / analysis part, 13 ... Correction method / correction quantity determination part, 14 ... User environment correction amount calculation part, 15 ... Database, 16 ... Correction processing part, 21 ... Gamma Correction / color space conversion processing unit, 22 ... highlight / shadow correction unit, 23 ... light / dark contrast correction unit, 24 ... hue / color balance correction unit, 25 ... saturation correction unit, 26 ... memory color correction unit, 27 ... sharpness Emphasis processing unit, 31: image processing server, 32, 33: information processing terminal, 34: network.

Claims (17)

画像に対して補正処理を行う画像処理システムにおいて、過去の補正処理に関する情報を保持するデータベースと、処理対象の画像から複数の特徴量を求める特徴量抽出手段と、該特徴量抽出手段で抽出した特徴量を利用して前記データベースを参照し前記画像に対して行う補正処理のための補正方法及び補正パラメータを決定する決定手段を有し、前記データベースは、共用と個人ユーザ用の2種類のデータベースによって構成され、前記共用のデータベースは、画像の特徴量を含む複数の分類キーに対応して前記補正方法及び前記補正パラメータを格納しており、また個人ユーザ用のデータベースは前記決定手段による補正方法及び補正パラメータの決定結果を過去の補正処理に関する情報として蓄積し、前記個人ユーザ用のデータベースから共用データベースへ補正処理に関する情報を反映させることを特徴とする画像処理システム。  In an image processing system that performs correction processing on an image, a database that holds information on past correction processing, a feature amount extraction unit that obtains a plurality of feature amounts from an image to be processed, and the feature amount extraction unit A correction method for correction processing performed on the image by referring to the database using feature amounts and a determination unit for determining correction parameters are included, and the databases are two types of databases for shared use and individual users The shared database stores the correction method and the correction parameters corresponding to a plurality of classification keys including image feature amounts, and the database for an individual user is a correction method by the determination means And correction parameter determination results are stored as information relating to past correction processing, and the database for the individual user is stored. The image processing system characterized by reflecting the information about the correction process to the shared database from. 前記決定手段は、補正方法及び補正パラメータの候補に関する情報をユーザに提供するとともにユーザによる補正方法及び補正パラメータの決定指示あるいは選択指示を受けて利用する補正方法及び補正パラメータを決定することを特徴とする請求項1に記載の画像処理システム。  The determining means provides the user with information on a correction method and correction parameter candidates, and determines a correction method and a correction parameter to be used in response to an instruction for determining or selecting a correction method and a correction parameter by the user. The image processing system according to claim 1. 前記特徴量抽出手段は、前記画像の特徴を解析する際に、前記画像に該画像の特徴量を示すタグが付加されているか否かを判定し、該判定結果によって処理を異ならせることを特徴とする請求項1または請求項2に記載の画像処理システム。  The feature amount extraction unit determines whether or not a tag indicating the feature amount of the image is added to the image when analyzing the feature of the image, and performs different processing depending on the determination result. The image processing system according to claim 1 or 2. 前記特徴量抽出手段は、前記画像の特徴を解析する際に、前記画像に対して補正処理がなされていることを示すタグの付加、あるいは画像に埋め込まれた情報の存在の有無を判定し、該判定結果によって処理を異ならせることを特徴とする請求項1ないし請求項3のいずれか1項に記載の画像処理システム。  The feature amount extraction unit, when analyzing the feature of the image, determines whether or not a tag indicating that correction processing has been performed on the image, or presence of information embedded in the image, The image processing system according to any one of claims 1 to 3, wherein the processing is made different depending on the determination result. さらに、前記決定手段で決定された補正方法及び補正パラメータを用いて前記画像に対して補正処理を行う処理手段を有することを特徴とする請求項1ないし請求項4のいずれか1項に記載の画像処理システム。  5. The apparatus according to claim 1, further comprising a processing unit that performs correction processing on the image using the correction method and the correction parameter determined by the determination unit. Image processing system. 前記決定手段は、前記補正方法及び前記補正パラメータとして複数を決定し、前記処理手段は、前記決定手段で決定されたそれぞれの補正方法及び補正パラメータに従って前記画像をそれぞれ変換して複数の変換画像を生成することを特徴とする請求項5に記載の画像処理システム。  The determination means determines a plurality of correction methods and correction parameters, and the processing means converts the images according to the correction methods and correction parameters determined by the determination means, respectively, thereby converting a plurality of converted images. The image processing system according to claim 5, wherein the image processing system is generated. 前記処理手段で生成された複数の前記変換画像をユーザから選択可能に表示する表示手段と、表示された前記変換画像のうちからユーザが選択可能な選択手段を有し、前記データベースは、前記選択手段によってユーザが選択した変換画像に対応する過去の補正処理に関する情報を更新することを特徴とする請求項6に記載の画像処理システム。  A display unit configured to display a plurality of converted images generated by the processing unit so as to be selectable by a user; and a selection unit capable of being selected by the user from the displayed converted images. 7. The image processing system according to claim 6, wherein information relating to past correction processing corresponding to the converted image selected by the user by means is updated. 前記決定手段は、補正後の画像を出力する出力デバイスの特性にあわせた補正方法及び補正パラメータを決定することを特徴とする請求項1ないし請求項7のいずれか1項に記載の画像処理システム。  The image processing system according to claim 1, wherein the determination unit determines a correction method and a correction parameter in accordance with characteristics of an output device that outputs a corrected image. . 前記処理手段は、補正後の画像を出力する出力デバイスの特性を示すプロファイルを前記補正後の画像とともに出力することを特徴とする請求項5ないし請求項7のいずれか1項に記載の画像処理システム。  The image processing according to claim 5, wherein the processing unit outputs a profile indicating characteristics of an output device that outputs a corrected image together with the corrected image. system. インターネットに接続された情報処理端末から画像に対する処理の依頼を受け付ける画像処理装置サーバにおいて、前記情報処理端末からの画像のアップロードを受け付けるアップロード手段と、過去の補正処理に関する情報を保持するデータベースと、アップロードされた画像から複数の特徴量を求める特徴量抽出手段と、該特徴量抽出手段で抽出した特徴量を利用して前記データベースを参照し前記画像に対して行う補正処理のための補正方法及び補正パラメータを決定する決定手段と、前記決定手段で決定された補正方法及び補正パラメータに従って前記画像に対して処理を行う処理手段を有し、前記データベースは、共用と個人ユーザ用の2種類のデータベースによって構成され、前記共用のデータベースは、画像の特徴量を含む複数の分類キーに対応して前記補正方法及び前記補正パラメータを格納しており、また個人ユーザ用のデータベースは前記決定手段による補正方法及び補正パラメータの決定結果を過去の補正処理に関する情報として蓄積し、前記個人ユーザ用のデータベースから共用データベースへ補正処理に関する情報を反映させることを特徴とする画像処理サーバ。  In an image processing apparatus server that receives an image processing request from an information processing terminal connected to the Internet, an upload unit that receives an image upload from the information processing terminal, a database that holds information relating to past correction processing, and an upload A feature amount extraction unit for obtaining a plurality of feature amounts from the image obtained, a correction method and correction for correction processing performed on the image with reference to the database using the feature amounts extracted by the feature amount extraction unit Determining means for determining parameters, and processing means for processing the image in accordance with the correction method and correction parameters determined by the determining means, and the database includes two types of databases for shared use and individual users And the shared database includes a plurality of image features including image features. The correction method and the correction parameter are stored corresponding to the classification key, and the database for the individual user stores the correction method and correction parameter determination result by the determining means as information on past correction processing, An image processing server, wherein information relating to correction processing is reflected from the database for individual users to a shared database. 前記特徴量抽出手段は、前記画像の特徴を解析する際に、アップロードされた画像に該画像の特徴量を示すタグが付加されているか否かを判定し、該判定結果によって処理を異ならせることを特徴とする請求項10に記載の画像処理サーバ。  The feature amount extraction unit determines whether or not a tag indicating the feature amount of the image is added to the uploaded image when analyzing the feature of the image, and performs different processing depending on the determination result. The image processing server according to claim 10. 前記特徴量抽出手段は、前記画像の特徴を解析する際に、前記画像に対して補正処理がなされていることを示すタグの付加、あるいは画像に埋め込まれた情報の存在の有無を判定し、該判定結果によって処理を異ならせることを特徴とする請求項10または請求項11に記載の画像処理サーバ。  The feature amount extraction unit, when analyzing the feature of the image, determines whether or not a tag indicating that correction processing has been performed on the image, or presence of information embedded in the image, The image processing server according to claim 10, wherein the processing is different depending on the determination result. 前記決定手段は、前記補正方法及び前記補正パラメータとして複数を決定し、前記処理手段は、前記決定手段で決定されたそれぞれの補正方法及び補正パラメータに従って前記画像をそれぞれ変換して複数の変換画像を生成することを特徴とする請求項10ないし請求項12のいずれか1項に記載の画像処理サーバ。  The determination means determines a plurality of correction methods and correction parameters, and the processing means converts the images according to the correction methods and correction parameters determined by the determination means, respectively, thereby converting a plurality of converted images. The image processing server according to claim 10, wherein the image processing server is generated. 前記処理手段で生成された複数の前記変換画像を前記情報処理端末へダウンロードさせるダウンロード手段と、ダウンロードした前記変換画像のうちからユーザが選択した変換画像に関する情報を取得する取得手段を有し、前記データベースは、前記取得手段によって取得した前記ユーザが選択した変換画像に関する情報に従って過去の補正処理に関する情報を更新することを特徴とする請求項13に記載の画像処理サーバ。  Download means for downloading the plurality of converted images generated by the processing means to the information processing terminal, and acquisition means for acquiring information related to the converted image selected by the user from the downloaded converted images, The image processing server according to claim 13, wherein the database updates information relating to past correction processing according to information relating to the converted image selected by the user acquired by the acquisition unit. 前記複数の変換画像はサムネイル画像であり、前記決定手段は、前記取得手段により取得したユーザが選択した変換画像に関する情報に従って最終の補正方法及び補正パラメータを決定し、前記処理手段は前記決定手段で決定した最終の補正方法及び補正パラメータに従って補正処理を行って最終補正画像を生成し、前記ダウンロード手段は前記最終補正画像をダウンロードすることを特徴とする請求項13または請求項14に記載の画像処理サーバ。  The plurality of converted images are thumbnail images, and the determining unit determines a final correction method and a correction parameter according to information about the converted image selected by the user acquired by the acquiring unit, and the processing unit is the determining unit. 15. The image processing according to claim 13, wherein the final correction image is generated by performing correction processing according to the determined final correction method and correction parameter, and the download unit downloads the final correction image. server. 前記決定手段は、補正後の画像を出力する出力デバイスの特性にあわせた補正方法及び補正パラメータを決定することを特徴とする請求項10ないし請求項15のいずれか1項に記載の画像処理サーバ。  16. The image processing server according to claim 10, wherein the determination unit determines a correction method and a correction parameter in accordance with characteristics of an output device that outputs a corrected image. . 前記処理手段は、補正後の画像を出力する出力デバイスの特性を示すプロファイルを前記補正後の画像とともに出力することを特徴とする請求項10ないし請求項15のいずれか1項に記載の画像処理サーバ。  16. The image processing according to claim 10, wherein the processing unit outputs a profile indicating characteristics of an output device that outputs a corrected image together with the corrected image. server.
JP2001384786A 2001-12-18 2001-12-18 Image processing system and image processing server Expired - Fee Related JP3991196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001384786A JP3991196B2 (en) 2001-12-18 2001-12-18 Image processing system and image processing server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001384786A JP3991196B2 (en) 2001-12-18 2001-12-18 Image processing system and image processing server

Publications (2)

Publication Number Publication Date
JP2003187215A JP2003187215A (en) 2003-07-04
JP3991196B2 true JP3991196B2 (en) 2007-10-17

Family

ID=27594436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001384786A Expired - Fee Related JP3991196B2 (en) 2001-12-18 2001-12-18 Image processing system and image processing server

Country Status (1)

Country Link
JP (1) JP3991196B2 (en)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517788B2 (en) * 2003-11-12 2010-08-04 セイコーエプソン株式会社 Image classification device, image classification method, image selection device, image selection method, and recording medium
JP2005190435A (en) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc Image processing method, image processing apparatus and image recording apparatus
JP2005202469A (en) * 2004-01-13 2005-07-28 Fuji Xerox Co Ltd Image processor, image processing method and program
JP2005234839A (en) * 2004-02-19 2005-09-02 Ricoh Co Ltd Digital image processing method and program
JP2006033646A (en) * 2004-07-20 2006-02-02 Sony Corp Information processing system, information processing method, and computer program
US20060256392A1 (en) * 2005-05-13 2006-11-16 Microsoft Corporation Scanning systems and methods
JP4839952B2 (en) 2006-05-01 2011-12-21 ソニー株式会社 Image processing apparatus and method, and program
JP4543067B2 (en) * 2006-09-19 2010-09-15 シャープ株式会社 Image processing apparatus, image forming apparatus, image reading apparatus, image processing system, image processing method, computer program, and recording medium
US8107728B2 (en) 2006-09-19 2012-01-31 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, computer program and recording medium
JP5022979B2 (en) * 2007-07-12 2012-09-12 株式会社リコー Image processing apparatus, image processing method, and program
US8050505B2 (en) 2007-08-01 2011-11-01 Sharp Kabushiki Kaisha Image processing apparatus, image processing system, image processing method, and image forming apparatus
JP4433017B2 (en) 2007-08-31 2010-03-17 ブラザー工業株式会社 Image processing apparatus and image processing program
US8174731B2 (en) 2007-08-31 2012-05-08 Brother Kogyo Kabushiki Kaisha Image processing device outputting image for selecting sample image for image correction
US8159716B2 (en) 2007-08-31 2012-04-17 Brother Kogyo Kabushiki Kaisha Image processing device performing image correction by using a plurality of sample images
JP4442664B2 (en) 2007-08-31 2010-03-31 ブラザー工業株式会社 Image processing apparatus, image processing method, and image processing program
JP4831020B2 (en) * 2007-08-31 2011-12-07 ブラザー工業株式会社 Image processing apparatus, image processing method, and image processing program
US8094343B2 (en) 2007-08-31 2012-01-10 Brother Kogyo Kabushiki Kaisha Image processor
JP4793356B2 (en) 2007-08-31 2011-10-12 ブラザー工業株式会社 Image processing apparatus and image processing program
JP4399486B2 (en) 2007-09-27 2010-01-13 シャープ株式会社 Image processing apparatus, external storage apparatus, image forming apparatus, image transmission apparatus, image reading apparatus, image processing system, image processing method, program, and recording medium thereof
JP5264155B2 (en) * 2007-11-29 2013-08-14 キヤノン株式会社 Program, file management apparatus and file management method
JP5412038B2 (en) * 2008-01-29 2014-02-12 京セラドキュメントソリューションズ株式会社 Image forming apparatus and image information storage method
US8264585B2 (en) 2008-01-31 2012-09-11 Panasonic Corporation Imaging apparatus capable of readily specifying undesirable photographing parameters form auto photographing parameters
JP5096194B2 (en) * 2008-03-17 2012-12-12 株式会社リコー Data processing apparatus, program, and data processing method
JP4974968B2 (en) * 2008-05-28 2012-07-11 株式会社リコー Image processing system, image processing method, image processing program, and recording medium
JP5117982B2 (en) * 2008-10-07 2013-01-16 株式会社リコー Information extraction apparatus, information extraction method, program, and recording medium
JP4839389B2 (en) * 2009-03-31 2011-12-21 富士フイルム株式会社 Digital camera and image processing apparatus
JP2010251817A (en) * 2009-04-10 2010-11-04 Sony Corp Imaging apparatus and method, and program
JP5531646B2 (en) * 2010-01-28 2014-06-25 日本電気株式会社 Mobile terminal image automatic correction system, method and program thereof
JP5849976B2 (en) 2012-03-30 2016-02-03 カシオ計算機株式会社 Social network service system and image display method
JP6103826B2 (en) * 2012-06-08 2017-03-29 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2016067040A (en) * 2015-12-21 2016-04-28 セイコーエプソン株式会社 Image data output adjusting device, image data output adjustment method, image data output adjustment program, and imaging apparatus
WO2017134751A1 (en) * 2016-02-02 2017-08-10 オリンパス株式会社 Image-capturing device, image processing device, image processing method, and image processing program
KR20180006691A (en) * 2016-07-11 2018-01-19 주식회사 스토어카메라 Method and program for taking the image to upload on online-mall
JP7414564B2 (en) * 2020-02-04 2024-01-16 キヤノン株式会社 Information processing device and method
WO2022259323A1 (en) * 2021-06-07 2022-12-15 三菱電機株式会社 Image processing device, image processing method, and image processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63228874A (en) * 1987-03-17 1988-09-22 Nec Corp Image file system and its device
JPH04117069A (en) * 1990-09-03 1992-04-17 Hitachi Ltd Image synthesizing method for image processor
JP3869910B2 (en) * 1997-07-14 2007-01-17 キヤノン株式会社 Image processing method and apparatus, and storage medium
JP4010722B2 (en) * 1998-11-25 2007-11-21 富士フイルム株式会社 Search system and image processing apparatus
JP3853107B2 (en) * 1999-06-03 2006-12-06 富士写真フイルム株式会社 Image processing device
JP2001325601A (en) * 2000-05-17 2001-11-22 Konica Corp System and device for editing image

Also Published As

Publication number Publication date
JP2003187215A (en) 2003-07-04

Similar Documents

Publication Publication Date Title
JP3991196B2 (en) Image processing system and image processing server
US7522770B2 (en) Methods and apparatus for automated image correction for digital image acquisition
US6839064B2 (en) Image file generation
US6011547A (en) Method and apparatus for reproducing image from data obtained by digital camera and digital camera used therefor
JP4854748B2 (en) Development server and development method
US7483168B2 (en) Apparatus, method, signal and computer program product configured to provide output image adjustment of an image file
US7924472B2 (en) Update control of image processing control data
US20040169873A1 (en) Automatic determination of custom parameters based on scanned image data
US20020140693A1 (en) Output image adjustment method, apparatus and computer program product for graphics files
WO2000011606A1 (en) Image data processor, medium on which set of image data is recorded, medium on which image data processing program is recorded, and image data processing method
US20010005427A1 (en) Method, apparatus and recording medium for image processing
US7372595B1 (en) Flexible image rendering system utilizing intermediate device-independent unrendered image data
KR100668267B1 (en) Image processing apparatus, image processing method and computer-readable medium on which image processing program is recorded
JP5156423B2 (en) Color processing apparatus and color processing method
US7224383B2 (en) Manipulating digital images based on a user profile
JP2003085556A (en) Image processing device and program
JP2003052002A (en) Output image adjustment of image file
JP2002314724A (en) Generation of image file in response to preference of user
US20040057617A1 (en) Image data supply method, recording apparatus and program
JP2005202749A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2024047232A (en) Image processing method and image processing device
Walker et al. Complete Guide to Digital Color Correction
JP2004357001A (en) Image processing method, image processor, and image recorder
AU2002309533A1 (en) Method and apparatus for automated image correction for digital image acquisition
JP2004336516A (en) Image processing method, image processor, and image recording apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070710

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100803

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110803

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120803

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130803

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees