JP2011124955A - 画像処理方法及び画像処理装置 - Google Patents
画像処理方法及び画像処理装置 Download PDFInfo
- Publication number
- JP2011124955A JP2011124955A JP2009283434A JP2009283434A JP2011124955A JP 2011124955 A JP2011124955 A JP 2011124955A JP 2009283434 A JP2009283434 A JP 2009283434A JP 2009283434 A JP2009283434 A JP 2009283434A JP 2011124955 A JP2011124955 A JP 2011124955A
- Authority
- JP
- Japan
- Prior art keywords
- color
- cluster
- image data
- pixel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
【課題】異なる光源下で撮影された2つの画像で画素単位の位置合わせが不可能の場合でもこれらの画像の色合わせを高速に行うことである。
【解決手段】原画を第1、第2の光源下それぞれで撮影して得られた第1と第2の画像データにより表現される色を合わせる色合わせ処理で次のような画像処理を行う。即ち、第1と第2の画像データの主要色を判定する。次に、第1の画像データに関し、その主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する。一方、第2の画像データに関し、その主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素も抽出する。そして、第1と第2の画像データそれぞれに関して抽出されたクラスタ領域を対応付け、クラスタペアを構成する。最後に、第1と第2の画像データそれぞれの主要色の対応関係と構成されたクラスタペアの対応関係とに基づき、色合わせに用いる色変換パラメータを生成する。
【選択図】 図2
【解決手段】原画を第1、第2の光源下それぞれで撮影して得られた第1と第2の画像データにより表現される色を合わせる色合わせ処理で次のような画像処理を行う。即ち、第1と第2の画像データの主要色を判定する。次に、第1の画像データに関し、その主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する。一方、第2の画像データに関し、その主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素も抽出する。そして、第1と第2の画像データそれぞれに関して抽出されたクラスタ領域を対応付け、クラスタペアを構成する。最後に、第1と第2の画像データそれぞれの主要色の対応関係と構成されたクラスタペアの対応関係とに基づき、色合わせに用いる色変換パラメータを生成する。
【選択図】 図2
Description
本発明は、例えば、フラッシュ撮影画像の色をフラッシュを使用しない時に見える色に変換する画像処理方法及びその方法を用いた画像処理装置に関する。
近年、デジタル技術によってレプリカ作成が行われている。つまり、原画をデジタルカメラ等で撮影し、撮影されたデジタルデータ画像を色補正等の画像処理を行って、プリンタに出力することによって、レプリカを作成するのである。この時、照明斑を無くし原画を精細に撮影するためには、フラッシュ等を用いて撮影することが望ましい。しかし、フラッシュ光は自然光に近い分光特性をもっている為、フラッシュ撮影を行って作成したレプリカは自然光では原画に近い色となるが、蛍光灯下では違った色に見えてしまう。この様な撮影に使用した照明と異なる照明下の画像の再現方法として、フラッシュ光を使用した画像と使用してない画像の2枚の画像を連続して撮影し、フラッシュ光が有無の2枚の画像を用いて補正する方法が提案されている(特許文献1)。
しかしながら上記従来の方法では以下のような問題があった。
レプリカ作成において、原画サイズが大きい場合、解像度を上げる為に何枚かに分けて分割撮影を行い、撮影後、分割撮影された画像を合成する。このため、分割画像を合成する時に画像が歪んだり、拡大圧縮が行われる為、合成されたフラッシュ撮影した画像とフラッシュ無しで撮影した画像を平行移動するだけでは、合成画像全体を画素単位で位置合わせをすることは出来なかった。
特許文献1に開示された画像処理装置は、フラッシュ撮影画像とフラッシュ無し撮影画像が、少なくとも平行移動によって画素単位で位置が合わせられることが前提となっている。従って、分割撮影を行って、画像を合成する場合、大きなサイズの原画のレプリカ作成には適応することが出来なかった。たとえ分割合成を行わなくても、何らかの理由で、フラッシュ撮影画像とフラッシュ無し画像が画素単位で位置が合っていない場合、この装置は適応出来なかった。
また、画素単位で位置が合っていない2つの画像の対応関係を求める方法として、パターンマッチングを行う方法が考えられるが、画像の全ての領域でパターンマッチングを行うと処理時間がかかるという問題があった。
本発明は上記従来例に鑑みてなされたもので撮影光源の異なる2つの画像が画素単位で位置合わせが不可能でも、第1の光源で撮影された画像を第2の光源で撮影された画像の色に高速に色合わせできる画像処理方法と画像処理装置を提供することを目的とする。
上記目的を達成するために本発明の画像処理方法は次のような構成からなる。
即ち、原画を第1の光源下で撮影することにより得られた第1の画像データにより表現される色に前記原画を第2の光源下で撮影することにより得られた第2の画像データにより表現される色に合わせる色合わせ処理を行う画像処理方法であって、前記第1の画像データの主要色を判定する第1の判定工程と、前記第1の画像データに関し、前記第1の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第1の抽出工程と、前記第2の画像データの主要色を判定する第2の判定工程と、前記第2の画像データに関し、前記第2の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第2の抽出工程と、前記第1の抽出工程において抽出されたクラスタ領域と該クラスタ領域に対応する前記第2の抽出工程において抽出されたクラスタ領域を対応付け、クラスタペアを構成する対応付け工程と、前記第1の画像データの主要色と前記第2の画像データの主要色との対応関係と、前記対応付け工程において構成されたクラスタペアの対応関係とに基づいて、前記色合わせに用いる色変換パラメータを生成する生成工程とを有することを特徴とする。
また他の発明によれば、その方法を適用した画像処理装置を備える。
従って本発明によれば、原画を例えばフラッシュ有りと無しのような2つの光源下で撮影し、これら2つの画像の画素単位の位置合わせが困難な場合でも、ある光源下で撮影された画像の色を別の光源下で撮影された画像の色へ高速に合わせることができる。
以下添付図面を参照して本発明の好適な実施例について、さらに具体的かつ詳細に説明する。なお、以下の実施例で開示する構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本発明に従う実施例1の画像処理装置の構成を示すブロック図である。この装置は、DVD、USBメモリ、SDカードなどの画像データを入出力する外部記憶装置1を装着可能である。そして、この装置は内部に、画像処理を実行するCPU2、入力画像等を表示する表示装置3、キー入力のためのキー入力部4、CPU2で実行される画像処理プログラムを格納するROM5を備える。さらに、この装置は、外部記憶装置1から入力した画像データを記憶したり、プログラムの実行に使用されるワーク領域として用いられるRAM6を備えている。なお、DVD、USBメモリ、SDカードなどの外部記憶装置1にはデジタルカメラ100などで撮影された同じ原画に対するフラッシュ撮影画像ファイルとフラッシュ無し撮影ファイルとが格納されている。
フラッシュ無し撮影ファイルは第1の光源下(例えば、蛍光灯などの観察光)で撮影された画像ファイル或いは画像データ(第1の画像データ)である。一方、フラッシュ撮影画像ファイルは第2の光源下(例えば、自然光や自然光に近い分光特性をもつフラッシュ光)で撮影された画像ファイル或いは画像データ(第2の画像データ)である。
次に、画像処理装置の動作について、図2に示すフローチャートを参照して説明する。以下の動作は画像処理装置のCPU2がROM5に格納された画像処理プログラムを実行することにより実現される。
まず、ステップS1では、外部記憶装置1に記憶されたフラッシュ撮影画像ファイルを読み込むことによりフラッシュ撮影画像データを装置内に入力する。ステップS2ではステップS1と同様にしてフラッシュ無し撮影画像データを入力する。
ステップS3では、フラッシュ撮影画像の主要色を判定する(第1の判定)。これについては、図3に示す主要色の判定方法を模式的に示す図を参照して説明する。ここでは、入力画像の各画素は各色成分が8ビットで表現されるRGBデータとし、全ての画素の色値を基に図3のようなヒストグラムを作成する。図3に示す例では、RGB色空間の領域を16×16×16に分割し、4096個各領域毎の画素数を表している。図3の例では、(8,9,6)の領域が最多(最頻値)となっている。従って、この領域の色を主要色とする。
これにより、各画素のRGB各成分を表現する8ビットのうちの上位4ビットだけを調べることにより、このヒストグラムを作成できる。このようにして、処理する画像データ量や処理時間を削減することができる。
ステップS4では、ステップS3で判定された主要色と、予め決められた閾値(Th)以上の色差が有る色を抽出する。
次にステップS5では、抽出された色の画素位置と隣接するクラスタ領域を検出する(第1の抽出)。これについては、図4を参照してその検出方法を説明する。図4(a)において、注目画素501の周辺画素について、注目画素の色値との色差が予め決められた閾値Th1未満かを調べる。なお、図4(a)の例では、斜線部が色差Th1未満の領域で、白抜きの領域が、色差Th1以上の領域を示している。
この実施例では、図4(b)に示すように注目画素501に隣接する周辺8画素からなる黒く塗りつぶされた領域を調べる。その次に、図4(c)に示すように、上記周辺8画素を囲む16画素からなる黒く塗りつぶされた領域を調べる。このようにして調査対象となる周辺画素を拡大してゆきながら、調査を繰り返し行い、調査領域の全ての画素が、色差Th1以上になるまで、調査を続ける。図4の例では、最外郭まで調査が行われると調査領域の全ての画素が色差Th1以上となる。ここで探索を終了して、図4(a)に示した矩形領域(11×11画素)をクラスタ領域として記憶する。このような調査をステップS4では抽出された全ての色に対して行うが、図4の注目画素以外の斜線部の画素については、次の色の調査からは除外する。
このようにして、フラッシュ撮影画像に関し、主要色からは離れた(異なる)色の画素(特徴画素)とその画素の色に近い領域(クラスタ領域)の画素だけが処理対象として抽出される。
ステップS6で、フラッシュ無し撮影画像の主要色を判定する(第2の判定)。その判定方法は、ステップS3で説明したフラッシュ撮影画像の場合と同じである。従って、フラッシュ無し撮影画像に関しても、処理する画像データ量を削減することができる。さらにステップS7では、フラッシュ無し撮影画像の主要色と異なる色を抽出する。その抽出方法は、ステップS4で説明したフラッシュ撮影画像の場合と同じである。さらに、ステップS8では、フラッシュ無し撮影画像の抽出された色の画素位置と隣接するクラスタ領域を検出する(第2の抽出)。その検出方法は、ステップS5で説明したフラッシュ撮影画像の場合と同じである。このようにしてフラッシュ撮影画像と同様に検出されたクラスタ領域を記憶する。
このようにして、フラッシュ無し撮影画像に関し、主要色からは離れた(異なる)色の画素(特徴画素)とその画素の色に近い色の領域(クラスタ領域)の画素だけが処理対象として抽出される。
次にステップS9で、ステップS5で検出されたクラスタ領域に、その領域に対応するステップS8で検出されたクラスタ領域を対応付け、クラスタペアを構成するかどうかを判定する。これについては、図5を参照してその構成方法を説明する。
ここでは、2つのクラスタのクラスタ内の画素数、クラスタの幅、クラスタの高さ、クラスタの中心座標を用いて、2つのクラスタが互いに対応するクラスタペアを構成するかどうかを判定する。無論、これらの2つ以上を組み合わせて総合的に判定しても良い。クラスタ内の画素数は、図5に示す斜線部の画素数で定義する。クラスタの幅は図5に示す斜線領域の横軸方向で最も長い部分と定義する。即ち、図5に示す例では画素604から画素603までの画素数である。同様にクラスタの高さは図5に示す斜線領域の縦軸方向で、最も長い部分と定義する。図5に示す例では、画素601から画素605までの画素数である。クラスタの中心座標は、幅を定義する時に使用された画素群と高さを定義する時に使用された画素群との交点部分の画素と定義する。図5に示す例では、画素602である。この対応関係は、各クラスタを特徴付けるクラスタ内の画素数、クラスタの幅、クラスタの高さ、クラスタの中心座標などのパラメータの比較によって判断される。クラスタペアと判定されたクラスタについて、色差Th1未満の画素、即ち、図4(a)の例では、その斜線部に含まれる画素の平均値を、フラッシュ撮影画像とフラッシュ無し撮影画像について算出し、対応関係を作成する。
ステップS10では、ステップS3で判定されたフラッシュ撮影画像についての主要色とステップS6で判定されたフラッシュ無し撮影画像についての主要色との対応関係を作成する。これについては、図6に示すフローチャートを参照して説明する。
まず、ステップS61では、ステップS9でクラスタペアと判定されたフラッシュ撮影画像とフラッシュ無し撮影画像のクラスタの中心座標の位置ずれを算出し、全てのクラスタペアの中心座標の位置ずれの平均値を算出する。
ステップS62では、ステップS61で算出された位置ずれの平均値だけフラッシュ撮影画像の画素の座標を移動する。これにより、フラッシュ撮影画像とフラッシュ無し撮影画像の対応画素の位置座標を大まかに合わせることができる。
ステップS63では、フラッシュ撮影画像から主要色をサンプリングする。全体から満遍なくサンプリングする為に、座標系の原点(0,0)の画素から縦横共に100画素毎にサンプリングするものとする。無論、本発明は100画素というサンプリング間隔の値に限定されるものではなく、他の値を用いることができる。サンプリングした画素が、主要色で無い場合は、処理対象から除外する。
ステップS64では、図7に示すようにサンプリングされた主要色の注目画素の周辺5画素分の色値の平均値を算出する。ここで、周辺5画素とは、注目画素が上下左右に最大で5画素分の距離がある画素のことを指し、図7において、注目画素を黒で塗りつぶされた画素であるとすれば、その周辺5画素は合計、121画素となる。この実施例では、その121画素の平均値を算出する。この時、主要色で無い画素があった場合は、処理対象から除外される。
ステップS65では、ステップS63でサンプリングされた画素と同じ座標のフラッシュ無し画像の画素の周辺5画素分の色値の平均値を算出する。この時、フラッシュ無し画像において、主要色でない画素があった場合は、処理対象から除外する。
ステップS66では、ステップS64とステップS65で算出された色値の平均値の対応関係で主要色の対応関係を作成する。ステップS64〜ステップS66までの処理をステップS63でサンプリングされた画素全てで行い、対応関係を作成する。
次に説明は図2に戻ると、ステップS11で、ステップS10で作成された主要色の対応関係とステップS9で判定されたクラスタペアの対応関係を基に色合わせに用いる色変換パラメータを生成する。ここで、色変換パラメータの生成方法について説明する。フラッシュ撮影画像の色からフラッシュ無し撮影画像への変換式が、式1の関係が成り立っているものとする。
┌ ┐ ┌ ┐┌ ┐
|R| |A00 A01 A02||R0|
| | | || |
|G| = |A10 A11 A12||G0| …… (1)
| | | || |
|B| |A20 A21 A22||B0|
└ ┘ └ ┘└ ┘
|R| |A00 A01 A02||R0|
| | | || |
|G| = |A10 A11 A12||G0| …… (1)
| | | || |
|B| |A20 A21 A22||B0|
└ ┘ └ ┘└ ┘
ステップS9〜S10で作成された色値の対応関係が成り立つように変換マトリックスの各要素を最小2乗法で求める。この実施例では、3×3のマトリクスを用いたが、本発明はこれに限定されるものではなく、他のサイズのマトリクスを用いても良い。
従って以上説明した実施例に従えば、フラッシュ撮影画像とフラッシュ無し撮影画像からより少ない量のデータを用いて主要色を求め、さらに、その主要色から離れた色の画素とその画素の色に近い色の領域だけが処理対象として抽出される。これにより、主要色を中心とし、離散的な色をもつ画素のデータだけを用いてフラッシュ撮影画像とフラッシュ無し撮影画像の対応画素の位置を大まかながらも合わせることができる。また、主要色のサンプリングも離散的に行われるので、対象画像全面から均等に位置合わせに必要なデータを得ることができる。
従って、従来と比較して、処理データ量が少ないためにより高速に処理が実行されるとともに、対象画像全面から均等に位置合わせに必要な処理データを得られるので、偏りのない良好な位置合わせを実現することができる。
ここでは、実施例1とは異なるエッジ検出によるクラスタ領域の検出、及びエッジ画素で囲まれた閉領域を検出する方法について説明する。
図8はエッジ検出処理を示すフローチャートである。
まず、ステップS81では特徴画素として検出された全画素に対してCIE LAB値を求める。原画の画像データがRGBデータである場合、公知の計算式に基づきRGB値からCIE LAB値 (L*,a*,b*)を算出する。
ステップS82〜ステップS86は、特徴画素として検出された個々の画素に対する処理である。
ステップS82では、特徴画素として検出された一つの注目画素に対してその周辺4画素が同じく特徴画素であるかどうかを調べる。一つでも特徴画素以外の画素が周辺に存在した場合、処理はステップS87に進み、その画素はエッジ画素であると見なす。これに対して、全ての周辺画素が特徴画素であれば処理はステップS83に進む。
ステップS83では、特徴画素として検出された個々の画素夫々に対してその周辺4画素夫々に対して色差dEを式(2)を用いて算出する。
dE={(L1−L0)2+(a1−a0)2+(b1−b0)2}1/2 ……(2)
ここで、(L0,a0,b0)と(L1,a1,b1)は比較する2つの画素のCIE LAB値である。
ここで、(L0,a0,b0)と(L1,a1,b1)は比較する2つの画素のCIE LAB値である。
ステップS84では、周辺4画素との色差のうち最も大きな色差を、周辺との最大色差dEmaxとして選択する。ステップS85では、最大色差と予め設定した閾値を比較し、最大色差が閾値より大きければ処理はステップS87へ進み、そうでなければステップS86へ進む。閾値は画像の特性によって最適な値が異なるが、通常5〜10程度を指定すると好適な結果が得られることが多い。
ステップS86では注目画素は非エッジとして、その判定結果をメモリ(RAM6)に格納し、その後処理はステップS88へ進む。ステップS87では注目画素はエッジとして、その判定結果をメモリ(RAM6)に格納する。その後、処理はステップS88へ進む。以上で注目画素に対するエッジ判定が完了する。
次に、ステップS88では、特徴画素として検出された全画素に対してエッジ判定が完了したかどうかを判断し、未判定の画素が残っていれば、処理はステップS82に戻り、残りの画素の判定を続ける。これに対して、全ての画素に対する判定が完了したと判断されたなら、エッジ画素の検出は完了する。
なお、この実施例ではより正確性を期すためにCIE LAB値から色差を算出した。より高速な計算が求められる場合には、単純に2つの画素のRGB値に対してそのままユーグリット距離(RGB空間での距離)を求め、その距離が所定の閾値より大きいかどうかでエッジを判定するといった簡略化した方法を実行しても良い。
次に、エッジ画素で囲まれた閉領域を求める方法について説明する。
ここで、図9に示すように、画像の左上を起点にX方向(横方向)を主走査方向、Y方向(縦方向)を副走査方向として、各画素に対して次の処理を行う。
特徴画素でない画素には識別ID=0を割り振る。これに対して、特徴画素であるがエッジ画素と判定された画素には識別ID=−1を割り振る。特徴画素であり非エッジ画素と判定された画素に対しては、最初に現れた画素に対しては識別ID=1を割り振る。1以上のIDは閉領域の候補画素を表す。2回目以降に現れた画素に対しては、図10に示すフローチャートの処理に基づき識別IDを割り振る。
以下、図10に示す識別ID割り振り処理について説明する。
ステップS101では、注目画素の上画素と左画素が共にエッジであるかどうかを調べる。ここで、共にエッジであれば、処理はステップS105に進み、この画素は新しい候補画素と見なされ、識別IDとして過去に割り当てた識別IDの最大値に1を加えた値を割り当てる。これに対して、2つの画素の少なくともどちらかがエッジでなければ、処理はステップS102に進む。
ステップS102では、注目画素の上画素と左画素のどちらかがエッジであるかどうかを調べる。ここで、2つの画素のどちらかがエッジであれば、注目画素はエッジでない方の画素と同じ閉領域を構成すると見なし、処理はステップS106に進み、エッジでない方の画素の識別IDをそのまま割り当てる。これに対して、2つの画素のどちらもエッジでなければ、処理はステップS103に進む。
ステップS103では、上画素と左画素のIDが同じであるかどうかを調べる。ここで2つの画素のIDが同じであれば注目画素は上画素および左画素と同じ閉領域を構成すると見なし、処理はステップS107に進み、それらの識別IDをそのまま割り当てる。これに対して、2つのIDが異なる場合には、処理はステップS104に進む。
処理がステップS104に達した場合、上画素の候補領域と、左画素の候補領域が注目画素を接点に接していたことになる為、一方の候補領域のIDをもう一方の候補領域のIDに全て置換することで同じ候補領域とする。即ち、これまで1以上のIDを割り振った画素を全て調べ、大きい方の識別IDを有する画素のIDを全て小さい方の識別IDに置換する。その後、注目画素自体にも小さい方の識別IDを割り当てる。
上記ルールを適用しながら画像全体の画素を調べ終えると、1以上のIDが割り当てられた画素は全て閉領域を構成する画素となる。同じIDが割り当てられた画素が一つの閉領域を構成することになる。
以上、エッジ検出に基づき検出された全ての閉領域が、クラスタ領域となる。
以上説明したようにこの実施例によれば、クラスタ領域として抽出された画像の部分からフラッシュ撮影画像とフラッシュ無し撮影画像の対応関係を作成することができる。このようにすることでも、より少ない量の画像データから対応関係が作成されるので、実施例1と同様に高速に処理が実行される。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或は装置に供給し、そのシステム或は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (6)
- 原画を第1の光源下で撮影することにより得られた第1の画像データにより表現される色に前記原画を第2の光源下で撮影することにより得られた第2の画像データにより表現される色に合わせる色合わせ処理を行う画像処理方法であって、
前記第1の画像データの主要色を判定する第1の判定工程と、
前記第1の画像データに関し、前記第1の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第1の抽出工程と、
前記第2の画像データの主要色を判定する第2の判定工程と、
前記第2の画像データに関し、前記第2の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第2の抽出工程と、
前記第1の抽出工程において抽出されたクラスタ領域と該クラスタ領域に対応する前記第2の抽出工程において抽出されたクラスタ領域を対応付け、クラスタペアを構成する対応付け工程と、
前記第1の画像データの主要色と前記第2の画像データの主要色との対応関係と、前記対応付け工程において構成されたクラスタペアの対応関係とに基づいて、前記色合わせに用いる色変換パラメータを生成する生成工程とを有することを特徴とする画像処理方法。 - 前記第1の抽出工程は、前記第1の抽出工程において抽出された領域に対してエッジ検出処理を適用し、該エッジ検出処理により検出されたエッジに囲まれた閉領域をクラスタとして抽出し、
前記第2の抽出工程は、前記第2の抽出工程において抽出された領域に対して前記エッジ検出処理を適用し、該エッジ検出処理により検出されたエッジに囲まれた閉領域をクラスタとして抽出することを特徴とする請求項1に記載の画像処理方法。 - 前記対応付け工程は、前記第1の抽出工程において抽出されたクラスタ領域と前記第2の抽出工程において抽出されたクラスタ領域において、前記クラスタの中心座標、前記クラスタの画素数、前記クラスタの幅、前記クラスタの高さのうち少なくとも一つ以上に基づき、クラスタペアを構成するかどうかを判定することを特徴とする請求項1に記載の画像処理方法。
- 前記第1の光源はフラッシュ光であり、
前記第2の光源は観察光であることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理方法。 - 原画を第1の光源下で撮影することにより得られた第1の画像データにより表現される色に前記原画を第2の光源下で撮影することにより得られた第2の画像データにより表現される色に合わせる色合わせ処理を行う画像処理装置であって、
前記第1の画像データの主要色を判定する第1の判定手段と、
前記第1の画像データに関し、前記第1の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第1の抽出手段と、
前記第2の画像データの主要色を判定する第2の判定手段と、
前記第2の画像データに関し、前記第2の画像データの主要色から離れた色の画素と該画素の色に近い色をもつクラスタ領域の画素を抽出する第2の抽出手段と、
前記第1の抽出手段によって抽出されたクラスタ領域と該クラスタ領域に対応する前記第2の抽出手段によって抽出されたクラスタ領域を対応付け、クラスタペアを構成する対応付け手段と、
前記第1の画像データの主要色と前記第2の画像データの主要色との対応関係と、前記対応付け手段によって構成されたクラスタペアの対応関係とに基づいて、前記色合わせに用いる色変換パラメータを生成する生成手段とを有することを特徴とする画像処理装置。 - コンピュータを請求項5に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283434A JP2011124955A (ja) | 2009-12-14 | 2009-12-14 | 画像処理方法及び画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283434A JP2011124955A (ja) | 2009-12-14 | 2009-12-14 | 画像処理方法及び画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011124955A true JP2011124955A (ja) | 2011-06-23 |
Family
ID=44288372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009283434A Withdrawn JP2011124955A (ja) | 2009-12-14 | 2009-12-14 | 画像処理方法及び画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011124955A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311513A (zh) * | 2020-02-11 | 2020-06-19 | 浙江大华技术股份有限公司 | 图像的颜色风格统一方法、设备及计算机存储介质 |
CN114863095A (zh) * | 2022-03-25 | 2022-08-05 | 电子科技大学 | 一种基于颜色转换的答题卡图像分割方法 |
-
2009
- 2009-12-14 JP JP2009283434A patent/JP2011124955A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311513A (zh) * | 2020-02-11 | 2020-06-19 | 浙江大华技术股份有限公司 | 图像的颜色风格统一方法、设备及计算机存储介质 |
CN111311513B (zh) * | 2020-02-11 | 2023-05-12 | 浙江大华技术股份有限公司 | 图像的颜色风格统一方法、设备及计算机存储介质 |
CN114863095A (zh) * | 2022-03-25 | 2022-08-05 | 电子科技大学 | 一种基于颜色转换的答题卡图像分割方法 |
CN114863095B (zh) * | 2022-03-25 | 2023-11-28 | 电子科技大学 | 一种基于颜色转换的答题卡图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI729995B (zh) | 基於場景之拍攝圖像而產生合併、融合三維點雲 | |
US9773302B2 (en) | Three-dimensional object model tagging | |
CA2867365C (en) | Method, system and computer storage medium for face detection | |
JP4772839B2 (ja) | 画像識別方法および撮像装置 | |
JP5818091B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、および、プログラム | |
CN109360203A (zh) | 图像配准方法、图像配准装置及存储介质 | |
US9064178B2 (en) | Edge detection apparatus, program and method for edge detection | |
WO2013145295A1 (ja) | カラーチャート検出装置、カラーチャート検出方法及びカラーチャート検出用コンピュータプログラム | |
JP7024736B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6104198B2 (ja) | 物体認識装置 | |
CN110598795A (zh) | 图像差异检测方法及装置、存储介质、终端 | |
Recky et al. | Façade segmentation in a multi-view scenario | |
Ancuti et al. | Decolorizing images for robust matching | |
JP2008040557A (ja) | 画像表示装置、画像表示方法及び画像表示プログラム | |
JP2010271921A (ja) | 皮膚領域抽出方法、皮膚領域抽出装置、および皮膚領域抽出プログラム | |
JP5051671B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2011124955A (ja) | 画像処理方法及び画像処理装置 | |
JP2002342758A (ja) | 視覚認識システム | |
JP6326622B2 (ja) | 人物検出装置 | |
JP6546385B2 (ja) | 画像処理装置及びその制御方法、プログラム | |
WO2020107196A1 (zh) | 一种对拍摄装置的拍摄质量评测方法、装置及终端设备 | |
JP6006675B2 (ja) | マーカ検出装置、マーカ検出方法、及びプログラム | |
CN115527160A (zh) | 一种道路中井盖的缺陷监测方法和装置 | |
JP7227481B2 (ja) | 石材位置特定プログラム、石材位置特定システム、及び石材位置特定装置 | |
JP2019100937A (ja) | 欠陥検査装置及び欠陥検査方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130305 |