JP6939455B2 - Image processing equipment, image processing methods, image processing systems and programs - Google Patents
Image processing equipment, image processing methods, image processing systems and programs Download PDFInfo
- Publication number
- JP6939455B2 JP6939455B2 JP2017220878A JP2017220878A JP6939455B2 JP 6939455 B2 JP6939455 B2 JP 6939455B2 JP 2017220878 A JP2017220878 A JP 2017220878A JP 2017220878 A JP2017220878 A JP 2017220878A JP 6939455 B2 JP6939455 B2 JP 6939455B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- color
- color conversion
- extracting
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像処理装置、画像処理方法、画像処理システム、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, an image processing system, and a program.
近年、デジタルカメラやスマートフォン、タブレット等の機器の普及によりデジタル画像を撮影・閲覧するユーザが増加している。このとき撮影を行なう環境は、照明光等の影響により様々であり、また撮影対象も様々である。そのため撮影後に撮影された画像がユーザの意図するようなものとならないことがあり、そのため撮影された画像の色味等を調整することが一般的に行われている。 In recent years, the number of users who shoot and browse digital images is increasing due to the spread of devices such as digital cameras, smartphones, and tablets. At this time, the shooting environment varies depending on the influence of the illumination light and the like, and the shooting target also varies. Therefore, the image taken after shooting may not be what the user intended, and therefore it is common practice to adjust the color tone and the like of the shot image.
特許文献1には、画像処理装置として、次の処理を行なうものが記載されている。即ち、チャート画像における各パッチ毎に、基準値と測色値を取得する。基準値と測色値の差分ベクトルのうち、その大きさが閾値を超えるものを処理対象から除外し、残りの差分ベクトルに応じて3D−LUTを補正し、さらに4D−LUTを作成する。そして、除外された差分ベクトルに対応する測色値からパッチデータを算出して新たなチャートデータを作成し、新たなチャートデータによるキャリブレーションを繰り返す。 Patent Document 1 describes an image processing apparatus that performs the following processing. That is, the reference value and the color measurement value are acquired for each patch in the chart image. Of the difference vectors of the reference value and the color measurement value, those whose magnitude exceeds the threshold value are excluded from the processing target, the 3D-LUT is corrected according to the remaining difference vector, and the 4D-LUT is further created. Then, patch data is calculated from the color measurement values corresponding to the excluded difference vectors, new chart data is created, and calibration with the new chart data is repeated.
また特許文献2には、画像処理装置として、次の処理を行なうものが記載されている。即ち、入出力部は、第一の照明条件で被写体を撮影した第一の画像データ、および、第一の照明条件と異なる第二の照明条件で被写体を撮影した第二の画像データを入力する。色抽出部は、第一の画像データの各領域から色データを抽出し、第一の画像データの各領域に対応する第二の画像データの各領域から色データを抽出する。相関解析部は、第一の画像データの領域から抽出された色データと、第二の画像データの対応する領域から抽出された色データの間の相関性または差分に基づき、抽出された色データから第一および第二の画像データの代表色を設定する。色補正部は、代表色の色データを用いて第一の照明条件に依存する第一の画像データを第二の照明条件に依存する画像データに変換するための色補正条件を作成する。 Further, Patent Document 2 describes an image processing apparatus that performs the following processing. That is, the input / output unit inputs the first image data in which the subject is photographed under the first lighting condition and the second image data in which the subject is photographed under the second lighting condition different from the first lighting condition. .. The color extraction unit extracts color data from each area of the first image data, and extracts color data from each area of the second image data corresponding to each area of the first image data. The correlation analysis unit is the color data extracted based on the correlation or difference between the color data extracted from the area of the first image data and the color data extracted from the corresponding area of the second image data. Set the representative color of the first and second image data from. The color correction unit creates a color correction condition for converting the first image data depending on the first lighting condition into the image data depending on the second lighting condition using the color data of the representative color.
色調整を行なうための色変換モデルを作成するのに、色変換モデルがより理想的な変換となるようにするため、作成の材料となる色データをレタッチ技術が習熟した人のものを集めて作成することが望ましい。
しかしながら、レタッチ技術に習熟した人でも、画像データの内容(同系色の画像か、複数色の画像か、無地の画像か、模様が入った画像か等)によって、そのレタッチの方向性が異なる場合がある。その場合、このレタッチの方向性が異なる画像データが含まれた状態で色変換モデルを作成しても、理想的な色変換モデルが作成されない場合があった。
本発明は、より理想的な色変換モデルを作成するために、レタッチの方向性が異なる色データを排除して、色変換モデルを作成することができる画像処理装置等を提供することを目的とする。
In order to create a color conversion model for color adjustment, in order to make the color conversion model a more ideal conversion, the color data used as the material for creation is collected from people who are proficient in retouching technology. It is desirable to create it.
However, even a person who is proficient in retouching technology may have different retouching directions depending on the content of the image data (similar color image, multiple color image, plain image, patterned image, etc.). There is. In that case, even if the color conversion model is created in the state where the image data having different directions of retouching is included, the ideal color conversion model may not be created.
An object of the present invention is to provide an image processing device or the like capable of creating a color conversion model by excluding color data having different retouching directions in order to create a more ideal color conversion model. do.
請求項1に記載の発明は、色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定手段と、前記指定手段によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出手段と、前記抽出手段によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成手段と、前記指定手段により指定された前記領域において画像情報を抽出する間隔を決定する決定手段と、を備え、前記抽出手段は、前記決定手段で決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理装置である。
請求項2に記載の発明は、前記決定手段は、前記領域に含まれる色数、階調数および柄の少なくとも1つを基に画像情報を抽出する間隔を決定することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記決定手段は、柄を周波数分析により求めることを特徴とする請求項2に記載の画像処理装置である。
請求項4に記載の発明は、前記決定手段は、色空間内を予め定められた方法で区切られた色領域を考えたときに、前記領域に含まれる色が入る当該色領域の個数を基に画像情報を抽出する間隔を決定することを特徴とする請求項2に記載の画像処理装置である。
請求項5に記載の発明は、前記決定手段は、さらに前記色領域内に含まれる色数を基に画像情報を抽出する間隔を決定することを特徴とする請求項4に記載の画像処理装置である。
請求項6に記載の発明は、前記指定手段は、背景以外の箇所を画像情報を抽出する領域とすることを特徴とする請求項1に記載の画像処理装置である。
請求項7に記載の発明は、前記指定手段は、人の肌色の箇所をさらに除外して画像情報を抽出する領域とすることを特徴とする請求項6に記載の画像処理装置である。
請求項8に記載の発明は、前記抽出手段で抽出した前記色変換情報を表示装置で表示するために出力する抽出結果確認手段をさらに備えることを特徴とする請求項1に記載の画像処理装置である。
請求項9に記載の発明は、前記抽出結果確認手段は、抽出した前記色変換情報の一部をユーザからの指示により削除することを特徴とする請求項8に記載の画像処理装置。
請求項10に記載の発明は、前記決定手段は、画像情報を抽出する間隔に加え、または画像情報を抽出する間隔に代わり、抽出した前記色変換情報に対する重みを決定することを特徴とする請求項1に記載の画像処理装置である。
請求項11に記載の発明は、色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定工程と、前記指定工程によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出工程と、前記抽出工程によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成工程と、前記指定工程により指定された前記領域において画像情報を抽出する間隔を決定する工程と、を含み、前記抽出工程は、決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理方法である。
請求項12に記載の発明は、撮影対象を撮影する撮影装置と、前記撮影装置により撮影した画像に対し色調整を行なう画像処理装置と、を備え、前記画像処理装置は、色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定手段と、前記指定手段によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出手段と、前記抽出手段によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成手段と、前記色変換特性を基に、前記撮影装置により撮影した画像に対し色調整を行なう色調整手段と、前記指定手段により指定された前記領域において画像情報を抽出する間隔を決定する決定手段と、を備え、前記抽出手段は、前記決定手段で決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理システムである。
請求項13に記載の発明は、コンピュータに、色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定機能と、前記指定機能によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出機能と、前記抽出機能によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成機能と、前記指定機能により指定された前記領域において画像情報を抽出する間隔を決定する工程と、を実現させ、前記抽出機能は、決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定するプログラムである。
The invention according to claim 1 is a designation means for designating an area for extracting image information for either an image of a first image before color conversion or a second image after color conversion, and the designation. Color conversion information between the pixels of the image information in the region of one image of the first image or the second image specified by the means and the pixels of the image information corresponding to the pixels of the other image. An extraction means for extracting, a creation means for creating a color conversion characteristic based on a plurality of the color conversion information extracted by the extraction means, and an interval for extracting image information in the area designated by the designated means. The extraction means is an image processing device that determines to extract the color conversion information according to an interval for extracting the image information determined by the determination means.
The invention according to claim 2 is characterized in that the determination means determines an interval for extracting image information based on at least one of a number of colors, a number of gradations, and a pattern included in the region. The image processing apparatus according to 1.
The invention according to claim 3, wherein the determining means is an image processing apparatus according to claim 2, wherein the determination by the frequency analysis of pattern.
The invention according to claim 4 is based on the number of color regions in which a color contained in the region is contained, when the determination means considers a color region in which the color space is divided by a predetermined method. The image processing apparatus according to claim 2 , wherein the interval for extracting image information is determined.
Invention of claim 5, wherein the determining means, the image processing apparatus according to claim 4, characterized in that to determine the distance to further extract the image information based on the number of colors included in the color area Is.
The invention according to claim 6 is the image processing apparatus according to claim 1, wherein the designated means is a region other than the background for extracting image information.
The invention according to claim 7, wherein the designation means is an image processing apparatus according to claim 6, characterized in that the region for extracting a portion further image information to the exclusion of human skin color.
The invention described in claim 8, the image processing apparatus according to claim 1, further comprising an extraction result confirmation means for outputting to display the color conversion information extracted by the extraction means with the display device Is.
Invention according to claim 9, wherein the extraction result confirmation means, the image processing apparatus according to claim 8, characterized in that to remove some of the extracted the color conversion information according to an instruction from the user.
The invention according to
Invention according to
The invention according to
The invention according to
請求項1の発明によれば、レタッチの方向性が異なる画像情報を排除して、色変換モデルを作成することで、より理想的な色変換モデルを作成することができる画像処理装置を提供することができる。また、抽出する画像情報の数がより適度になり、抽出する画像情報にレタッチの方向性が異なるものがさらに入り込みにくくなる。
請求項2の発明によれば、画像情報を抽出する間隔を決定するのにより適したパラメータを使用することができる。
請求項3の発明によれば、より簡単な方法で柄の差異を判断することができる。
請求項4の発明によれば、より簡単な方法で画像情報を抽出する間隔を決定することができる。
請求項5の発明によれば、より簡単な方法で画像情報を抽出する間隔を決定することができる。
請求項6の発明によれば、商品の画像等のより重要な個所を画像情報を抽出する領域とすることができる。
請求項7の発明によれば、人の肌色について、色調整を行なわないようにすることができる。
請求項8の発明によれば、ユーザが画像情報の抽出結果を確認することができる。
請求項9の発明によれば、抽出した画像情報うち不必要なものをユーザが削除することができる。
請求項10の発明によれば、精度のよい色変換モデルを作成することができる。
請求項11の発明によれば、レタッチの方向性が異なる画像情報を排除して、色変換モデルを作成することで、より理想的な色変換モデルを作成することができる画像処理方法を提供することができる。また、抽出する画像情報の数がより適度になり、抽出する画像情報にレタッチの方向性が異なるものがさらに入り込みにくくなる。
請求項12の発明によれば、色調整の精度が低下しにくい変換関係を作成できる画像処理システムが提供できる。また、抽出する画像情報の数がより適度になり、抽出する画像情報にレタッチの方向性が異なるものがさらに入り込みにくくなる。
請求項13の発明によれば、レタッチの方向性が異なる画像情報を排除して、色変換モデルを作成することで、より理想的な色変換モデルを作成することができる機能をコンピュータにより実現できる。また、抽出する画像情報の数がより適度になり、抽出する画像情報にレタッチの方向性が異なるものがさらに入り込みにくくなる。
According to the first aspect of the present invention, there is provided an image processing apparatus capable of creating a more ideal color conversion model by excluding image information having different retouching directions and creating a color conversion model. be able to. In addition, the number of image information to be extracted becomes more appropriate, and it becomes more difficult for the image information to be extracted to have a different retouching direction.
According to the invention of claim 2 , more suitable parameters can be used to determine the interval for extracting image information.
According to the invention of claim 3 , the difference in the pattern can be determined by a simpler method.
According to the invention of claim 4 , the interval for extracting image information can be determined by a simpler method.
According to the invention of claim 5 , the interval for extracting image information can be determined by a simpler method.
According to the invention of claim 6 , a more important part such as an image of a product can be a region for extracting image information.
According to the invention of claim 7 , it is possible to prevent the color adjustment of the human skin color from being performed.
According to the invention of claim 8 , the user can confirm the extraction result of the image information.
According to the invention of claim 9, the user can delete unnecessary image information extracted.
According to the invention of
According to the invention of
According to the invention of
According to the thirteenth aspect of the present invention, by excluding image information having different retouching directions and creating a color conversion model, a function capable of creating a more ideal color conversion model can be realized by a computer. .. In addition, the number of image information to be extracted becomes more appropriate, and it becomes more difficult for the image information to be extracted to have a different retouching direction.
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<画像処理システム全体の説明>
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、カメラ40により撮影した原画像に対し色調整(色変換)を行なう画像処理装置10と、画像処理装置10により出力された画像データに基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30と、撮影対象Sを撮影し画像処理装置10で色調整するための画像データを生成するカメラ40とを備える。
<Explanation of the entire image processing system>
FIG. 1 is a diagram showing a configuration example of the image processing system 1 according to the present embodiment.
As shown in the figure, the image processing system 1 of the present embodiment is based on an
画像処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、画像処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、色調整等が行われるようになっている。
The
表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。
The
入力装置30は、キーボードやマウス等で構成される。入力装置30は、色調整を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、色調整を行なう際に、ユーザが画像処理装置10に対し色調整を行なうための指示を入力するのに使用する。
The
カメラ40は、撮影装置の一例であり、例えば、入射した光を収束する光学系と、光学系により収束された光を検出する撮像手段であるイメージセンサとを備える。
光学系は、単一のレンズまたは複数のレンズを組み合わせて構成される。光学系は、レンズの組み合わせおよびレンズ表面に施されたコーティング等により、各種の収差が除去されている。イメージセンサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を配列して構成される。
The
The optical system is composed of a single lens or a combination of a plurality of lenses. In the optical system, various aberrations are removed by the combination of lenses and the coating applied to the lens surface. The image sensor is configured by arranging image pickup elements such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor).
画像処理装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
さらに画像処理装置10およびカメラ40とは、図示する例では、有線で接続されており、例えば、USB、IEEE1394、RS−232Cを介して接続されている。これにより有線によりカメラ40で撮影された画像の画像データが、画像処理装置10に送られる。ただしこれに限られるものではなく、無線LAN(Local Area Network)、ブルートゥース(Bluetooth)(登録商標)等の無線接続であってもよい。さらに画像処理装置10およびカメラ40とを接続せず、SDカード等のメモリカード等を介して画像データを画像処理装置10に受け渡してもよい。
The
Further, the
Further, the
このような画像処理システム1において、まず最初にユーザが、カメラ40により撮影対象Sを撮影する。カメラ40により撮影した画像は、第1の画像としての原画像であり、この画像データは、画像処理装置10に送られる。そして表示装置20には、色処理を行なう前の画像である原画像が表示される。次にユーザが入力装置30を使用して、画像処理装置10に対し色調整を行なうための指示を入力すると、画像処理装置10により原画像に対し色調整がなされる。この色調整の結果は、例えば、表示装置20に表示される画像に反映され、第1の画像とは異なる第2の画像としての色調整後の画像が再描画されて表示装置20に表示される。この場合、ユーザは、表示装置20を見ながらインタラクティブに色調整を行なうことができ、より直感的に、またより容易に色調整の作業を行える。
また、第2の画像として、画像処理装置10による色調整後の画像の他、カメラ40とは機種特性が異なる、即ち撮影条件が異なる他のカメラによって撮影された他の画像としてもよい。この場合は、カメラ40で撮影した画像を第1の画像とし、撮影条件が異なるカメラで撮影された他の画像を第2の画像として見ることができる。
In such an image processing system 1, the user first photographs the image target S with the
Further, as the second image, in addition to the image after color adjustment by the
また画像処理装置10では、色調整の結果を基に、原画像の色調整を行ない色調整後の画像とすることができる変換関係を作成する。この色調整は、例えば、第1の色データおよび第2の色データがRed(R)、Green(G)、Blue(B)からなるRGBデータであったとき、第1の色データを(Ra、Ga、Ba)、第2の色データを(Rb、Gb、Bb)とすると、(Ra、Ga、Ba)→(Rb、Gb、Bb)とする処理である。この変換関係を使用することで、先に行なった色調整と同様の色調整を再現することができる。この変換関係は、プロファイルとも呼ばれ、例えば、3次元LUT(Look up Table)として作成することができる。ただしこれに限られるものではない。例えば、変換関係は、Ra→Rb、Ga→Gb、Ba→Bbとする1次元LUTであってもよい。また変換関係は、(Ra、Ga、Ba)→(Rb、Gb、Bb)とする多次元マトリクスであってもよい。この変換関係を作成する処理については後述する。
Further, the
なお本実施の形態における画像処理システム1は、図1の形態に限られるものではない。例えば、画像処理システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにタッチ等のユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。なおカメラ40としては、タブレット端末に内蔵されたカメラを用いることができる。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、画像処理装置10により出力された画像データに基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで色調整を行なうための指示を入力する。
The image processing system 1 in the present embodiment is not limited to the embodiment shown in FIG. For example, a tablet terminal can be exemplified as the image processing system 1. In this case, the tablet terminal is provided with a touch panel, and the touch panel is used to display an image and input a user's instruction such as a touch. That is, the touch panel functions as the
ここで画像処理装置10が、変換関係を作成するには、上述したように色調整前(色変換前)の画像である原画像から第1の色データを取得し、色調整後(色変換後)の画像から第2の色データを取得する必要がある。
しかしながらこのとき画像中から色データを取得する箇所が過度に少なく、これらの色データの数が少なすぎると、例えば、必要な階調値の色データが抜け落ち、変換関係の精度が低下する。また画像中から色データを取得する箇所が過度に多く、これらの色データの数が多すぎると、例えば、色変換に必要でない箇所の色データまで取得してしまい、その結果、後述する色変換モデルにノイズが入り込む。つまりレタッチの方向性が異なる色データが入り込む。その結果、精度の高い色変換モデルが作成しにくくなり、変換関係の精度が低下する。
そこで本実施の形態では、画像処理装置10の構成を以下のようにし、画像処理装置10で変換関係を作成する際に、上述した問題が生じにくくする。
Here, in order to create a conversion relationship, the
However, at this time, if the number of places where color data is acquired from the image is excessively small and the number of these color data is too small, for example, the color data of the required gradation value is omitted, and the accuracy of the conversion relationship is lowered. In addition, if there are too many places to acquire color data from the image and the number of these color data is too large, for example, even the color data of the parts not necessary for color conversion will be acquired, and as a result, the color conversion described later will be performed. Noise gets into the model. In other words, color data with different retouching directions is included. As a result, it becomes difficult to create a highly accurate color conversion model, and the accuracy of the conversion relationship is lowered.
Therefore, in the present embodiment, the configuration of the
<画像処理装置の説明>
次に画像処理装置10について説明を行なう。
<Explanation of image processing device>
Next, the
図2は、本実施の形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち本実施の形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像データを取得する画像データ取得部11と、画像データから色データを抽出する領域を決定する領域決定部12と、色データを抽出する方法を決定する抽出決定部13と、画像データから色データを抽出する色データ抽出部14と、ユーザに色データの抽出結果を確認させる抽出結果確認部15と、色変換モデルを作成する色変換モデル作成部16と、変換関係を作成する変換関係作成部17と、出力部18とを備える。
FIG. 2 is a block diagram showing a functional configuration example of the
As shown in the figure, the
画像データ取得部11は、色調整前(色変換前)の原画像の画像データである第1の画像データと、色調整後(色変換後)の画像データである第2の画像データとを取得する。これらの画像データは、表示装置20で表示を行なうためのデータ形式となっており、例えば、前述のRGBデータである。なお画像データ取得部11は、他のデータ形式で画像データを取得し、これを色変換してRGBデータ等としてもよい。
The image
図3(a)〜(f)は、画像データ取得部11が取得する画像データの例について示した図である。
ここでは、商品である衣服または商品である衣服を着用した人物を撮影したときの画像データを3組用意した場合を示している。このうち図3(a)および図3(b)は、それぞれダウンジャケットを撮影したときの第1の画像データ(色調整前の画像データ)および第2の画像データ(色調整後の画像データ)を示している。また図3(c)および図3(d)は、それぞれシャツおよびズボンを着用した人物を撮影したときの第1の画像データおよび第2の画像データを示している。さらに図3(e)および図3(f)は、それぞれワンピースを撮影したときの第1の画像データおよび第2の画像データを示している。
3A to 3F are diagrams showing an example of image data acquired by the image
Here, the case where three sets of image data at the time of photographing the clothes which are the products or the person who wears the clothes which are the products is prepared is shown. Of these, FIGS. 3 (a) and 3 (b) show the first image data (image data before color adjustment) and the second image data (image data after color adjustment) when the down jacket was photographed, respectively. Is shown. Further, FIGS. 3 (c) and 3 (d) show first image data and second image data when a person wearing a shirt and trousers is photographed, respectively. Further, FIGS. 3 (e) and 3 (f) show the first image data and the second image data when the dress is photographed, respectively.
このように第1の画像データと第2の画像データとを複数組用意することで、より多くの色を含む画像データを取得することができる。 By preparing a plurality of sets of the first image data and the second image data in this way, it is possible to acquire image data including more colors.
領域決定部12は、指定手段の一例であり、色調整前(色変換前)の原画像と色調整後(色変換後)の画像のうちいずれか一方の画像について、色データ(画像情報)を抽出する領域を指定する。
つまり領域決定部12は、例えば、図3に示した画像データの中から色データをどの位置から取得するかを決定する。この場合、色調整は商品である衣服の箇所に対して行われる。つまり商品の色は、色再現をより厳密に行ない、実際の商品の色と画像として表示される商品の色とが合致することが要求される。そのため色調整を行なう対象となりやすい。対して商品の背景の領域は、このような要求がされにくく、色調整を行なう対象となりにくい。そのため領域決定部12は、この衣服の箇所を、色データを抽出する領域とする。
The
That is, the
具体的には、領域決定部12は、背景以外の箇所を色データを抽出する領域とする。そのために領域決定部12は、背景と背景以外の箇所を判断する必要がある。ここで背景の画像データは、画像の左端の画像データとほぼ同じとなる。そのため画像の左端の画像データと大きく画像データが変化している箇所を背景以外の箇所とすることができる。画像の左端の画像データと比較する画像データをサンプリングするには、例えば、画像中において予め定められた間隔で画素位置を決定し、画像の左端の画素との画像データを比較する。また予め定められたサイズのマスクを画像データに適用し、このマスク内の画像データの平均値と画像の左端の画素との画像データを比較してもよい。
Specifically, the
さらに他の方法としては、画像データを基に周波数解析をし、高周波が発生した画素位置を取得する。この画素位置は、背景以外の箇所の輪郭となるため、この輪郭の内側を背景以外の箇所とする。さらに他の方法としては、画像の中央から予め定められたサイズの範囲を規定しておき、この内部を背景以外の箇所とする。 As yet another method, frequency analysis is performed based on the image data, and the pixel position where the high frequency is generated is acquired. Since this pixel position is a contour of a portion other than the background, the inside of this contour is defined as a portion other than the background. As yet another method, a predetermined size range is defined from the center of the image, and the inside is set as a part other than the background.
領域決定部12は、人の肌色の箇所をさらに除外して色データを抽出する領域とすることが好ましい。即ち、人の肌色は、色調整を行なわない方が好ましく、色調整を行なう対象とすると不自然な色になりやすい。そのため色データを抽出する領域として人の肌色の箇所は含めない方がよい。
It is preferable that the
なお領域決定部12は、画像データ取得部11が取得した第1の画像データおよび第2の画像データの組毎に色データを抽出する領域を決定する。図3に示した例では、領域決定部12は、3組の画像データのそれぞれについて、第1の画像データまたは第2の画像データを使用して色データを抽出する領域を決定する。ただしそれぞれの画像データの組の全てを利用せず、一部を利用してもよい。一部を利用する場合は、領域決定部12は、例えば、ランダムに選択を行なう。取得した画像データが多い場合は、領域決定部12は、このように画像データを選択する処理を行なってもよい。
The
抽出決定部13は、決定手段の一例であり、領域決定部12により指定された領域において色データを抽出する間隔を決定する。よってこの色データを抽出する間隔がより小さければ、この領域において色データを抽出する位置のピッチがより小さくなり、抽出される色データの数がより多くなる。対してこの色データを抽出する間隔がより大きければ、この領域において色データを抽出する位置のピッチがより大きくなり、抽出される色データの数がより少なくなる。なお色データを抽出する間隔が同じであれば、領域内の画素数がより少ないほど抽出される色データの数はより少なくなり、領域内の画素数がより多いほど抽出される色データの数はより多くなる。
The
具体的には、抽出決定部13は、この領域に含まれる色数、階調数および柄の少なくとも1つを基に色データを抽出する間隔を決定する。
Specifically, the
図4(a)は、領域に含まれる柄を基に色データを抽出する間隔を決定する場合を示している。
ここでは、抽出決定部13は、柄を周波数分析により求める。図4(a)で横軸は、この領域における周波数を表す。また縦軸は、色データを抽出するデータの数を表す。
このとき、周波数がより低いほど色データを抽出する間隔をより大きくし、周波数がより高いほど色データを抽出する間隔をより小さくする。即ち、衣服等の柄が細かくない場合は、色データを抽出する間隔を大きくし、抽出する色データの数を少なくする。対して衣服等の柄が細かい場合は、色データを抽出する間隔を小さくし、抽出する色データの数を多くする。
FIG. 4A shows a case where the interval for extracting color data is determined based on the pattern included in the region.
Here, the
At this time, the lower the frequency, the larger the interval for extracting the color data, and the higher the frequency, the smaller the interval for extracting the color data. That is, when the pattern of clothes or the like is not fine, the interval for extracting color data is increased and the number of color data to be extracted is reduced. On the other hand, when the pattern of clothes or the like is fine, the interval for extracting color data is reduced and the number of color data to be extracted is increased.
図4(b)は、色数や階調数を基に色データを抽出する間隔を決定する場合を示している。
ここでは、抽出決定部13は、色空間内を予め定められた方法で区切られた色領域(ボックス)を考えたときに、領域決定部12により決定された領域に含まれる色が入る色領域の個数(ボックス数)を基に色データを抽出する間隔を決定する。領域決定部12により決定された領域に含まれる色数や階調数が多いほどボックス数はより多くなり、少ないほどボックス数はより少なくなる。図4(b)で横軸は、領域決定部12により決定された領域に含まれる色が入るボックス数を表す。また縦軸は、色データを抽出するデータの数を表す。
FIG. 4B shows a case where the interval for extracting color data is determined based on the number of colors and the number of gradations.
Here, the
図示するように、ボックス数がより小さいほど色データを抽出する間隔をより大きくすることで抽出する色データの数を小さくし、ボックス数がより大きいほど色データを抽出する間隔をより小さくすることで抽出する色データの数を大きくする。即ち、領域に含まれる色数や階調数が少ない場合は、色データを抽出する間隔を大きくし、抽出する色データの数を少なくする。対して領域に含まれる色数や階調数が多い場合は、色データを抽出する間隔を小さくし、抽出する色データの数を多くする。 As shown in the figure, the smaller the number of boxes, the smaller the number of color data to be extracted by increasing the interval for extracting color data, and the larger the number of boxes, the smaller the interval for extracting color data. Increase the number of color data to be extracted with. That is, when the number of colors and the number of gradations included in the area are small, the interval for extracting color data is increased and the number of color data to be extracted is decreased. On the other hand, when the number of colors and the number of gradations included in the area are large, the interval for extracting the color data is reduced and the number of the color data to be extracted is increased.
また抽出決定部13は、さらにボックス内に含まれる色数を基に色データを抽出する間隔を決定してもよい。
図4(c)は、色数や階調数に加え、ボックス内に含まれる色数を基に色データを抽出する間隔を決定する場合を示している。図4(c)で横軸は、領域に含まれる色が入るボックスのうち、予め定められた色数以上が含まれるボックス数を表す。また縦軸は、色データを抽出するデータの数を表す。
図示するように、含まれる色数が閾値以上のボックス数がより小さいほど色データを抽出する間隔をより大きくすることで抽出する色データの数をより小さくし、含まれる色数が閾値以上のボックス数がより大きいほど色データを抽出する間隔をより小さくすることで抽出する色データの数をより大きくする。この場合は、少ない色数しか含まれないボックスについてはボックス数としてカウントしない。この場合も、領域に含まれる色数や階調数が少ない場合は、色データを抽出する間隔を大きくし、抽出する色データの数を少なくする。対して領域に含まれる色数や階調数が多い場合は、色データを抽出する間隔を小さくし、抽出する色データの数を多くする。
Further, the
FIG. 4C shows a case where the interval for extracting color data is determined based on the number of colors included in the box in addition to the number of colors and the number of gradations. In FIG. 4C, the horizontal axis represents the number of boxes containing a predetermined number of colors or more among the boxes containing the colors included in the area. The vertical axis represents the number of data for which color data is extracted.
As shown in the figure, the smaller the number of boxes whose number of colors is equal to or greater than the threshold value, the smaller the number of color data to be extracted by increasing the interval for extracting color data, and the number of colors included is equal to or greater than the threshold value. As the number of boxes is larger, the number of color data to be extracted is increased by making the interval for extracting color data smaller. In this case, boxes containing only a small number of colors are not counted as the number of boxes. Also in this case, when the number of colors and the number of gradations included in the area are small, the interval for extracting the color data is increased and the number of the color data to be extracted is decreased. On the other hand, when the number of colors and the number of gradations included in the area are large, the interval for extracting the color data is reduced and the number of the color data to be extracted is increased.
また色データを抽出する間隔を決定する方法としては、上記方法に限られるものではない。
例えば、色データを抽出する領域内に含まれる柄物の画像の数を基に色データを抽出する間隔を決定してもよい。この場合、この領域内に含まれる柄物の画像の数がより少ないほど色データを抽出する間隔をより大きくし、この領域内に含まれる柄物の画像の数がより多いほど色データを抽出する間隔をより小さくする。
The method for determining the interval for extracting color data is not limited to the above method.
For example, the interval for extracting the color data may be determined based on the number of images of the pattern included in the area for extracting the color data. In this case, the smaller the number of patterned images contained in this area, the larger the interval for extracting color data, and the larger the number of patterned images contained in this area, the larger the interval for extracting color data. To be smaller.
また抽出決定部13は、色データを抽出する間隔に加え、または色データを抽出する間隔に代わり、抽出した色データに対する重みを決定してもよい。つまり色データを抽出する間隔と抽出した色データに対する重みとを併用してもよく、色データを抽出する間隔は、一定とし、抽出した色データに対する重みを代わりに使用してもよい。
Further, the
色データ抽出部14は、抽出決定部13で決定された色データを抽出する間隔に従い、領域決定部12によって指定された、原画像(第1の画像)または色調整後の画像(第2の画像)のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素とから色データとして色変換情報を抽出する。これは、画像中の互いに対応する位置における色データの組として、第1の画像データから第1の色データを抽出するとともに、第2の画像データから第2の色データを抽出する、と言うこともできる。この場合、抽出した第1の色データと第2の色データの組が色変換情報である。
つまり第1の画像データおよび第2の画像データから、画像中で同じとなる位置において第1の色データおよび第2の色データを抽出する。
The color
That is, the first color data and the second color data are extracted from the first image data and the second image data at the same positions in the image.
図5(a)〜(b)は、第1の色データと第2の色データとの対の例を示した図である。
ここで図5(a)は、色調整前の画像である原画像と抽出した第1の色データの例を示している。ここでは、原画像がブラウスの画像であり、その中の1〜5で示した箇所において抽出した色データをRGBa1〜RGBa5として示している。この場合、ブラウスは、青単色であり、RGBa1〜RGBa5は、何れも青色を表すRGBデータとなっている。
また図5(b)は、色調整後の画像と抽出した第2の色データの例を示している。ここでは、図5(a)と同様の1〜5で示した箇所において抽出した色データをRGBb1〜RGBb5として示している。
5 (a) to 5 (b) are diagrams showing an example of a pair of the first color data and the second color data.
Here, FIG. 5A shows an example of the original image which is the image before the color adjustment and the extracted first color data. Here, the original image is an image of a blouse, and the color data extracted at the locations shown by 1 to 5 in the original image are shown as RGBa1 to RGBa5. In this case, the blouse is a single blue color, and RGBa1 to RGBa5 are all RGB data representing blue.
Further, FIG. 5B shows an example of the color-adjusted image and the extracted second color data. Here, the color data extracted at the locations shown in 1 to 5 similar to FIG. 5A are shown as RGBb1 to RGBb5.
抽出結果確認部15は、抽出結果確認手段の一例であり、色データ抽出部14で抽出した色データ(色変換情報)を表示装置20で表示するために出力する。
図6は、色データ抽出部14で抽出した色データを確認する画面の第1の例である。
ここでは色データ抽出部14で抽出した色データの分布を、「取得色の分布」として表示している。そして白〜ピンクまでの12色について抽出できた色数を4段階で示している。この例では、例えば、白、黒、グレー、青、紫、ピンクについては、必要な色数が取得できたが、他の色、特に、黄、緑、水色については、必要な色数が不足している場合を示す。その結果、診断結果として「学習させる画像が少なすぎます。セットする画像の数を増やしてください。」という通知がユーザに対しなされている。つまり画像データ取得部11で取得した第1の色データと第2の色データとの組数が不足しており、そのため色データ抽出部14で抽出できた色数が不足した状態となった場合である。抽出できた色数が充足しているか不足しているかの判定は、抽出結果確認部15が行なうことができる。
The extraction
FIG. 6 is a first example of a screen for confirming the color data extracted by the color
Here, the distribution of the color data extracted by the color
図7は、色データ抽出部14で抽出した色データを確認する画面の第2の例である。
ここでは色データ抽出部14で抽出した色データの分布をRGB色空間中でプロットし、色空間画像として表示装置20で表示した場合を示している。図中、黒丸で示した点が色データ抽出部14で抽出した色データを表している。
これによりユーザは、抽出した色データの分布を視覚的に把握することができる。またこのとき抽出結果確認部15は、抽出した第1の色データおよび第2の色データ(色変換情報)の一部をユーザからの指示により削除することができる。これは例えば、ユーザが図7の中から不必要であると判断した色データを削除する作業を行なうことで実現できる。
FIG. 7 is a second example of a screen for confirming the color data extracted by the color
Here, the case where the distribution of the color data extracted by the color
As a result, the user can visually grasp the distribution of the extracted color data. At this time, the extraction
色変換モデル作成部16は、作成手段の一例であり、色データ抽出部14によって抽出された複数の第1の色データおよび第2の色データの組(色変換情報)をもとに色変換特性(色変換モデル)を作成する。つまり色データ抽出部14で抽出した第1の色データと第2の色データとの関係を表す色変換モデルを作成する。
The color conversion
図8は、色変換モデルの一例について示した図である。
ここで横軸は、色調整前の色データである第1の色データを表し、縦軸は、色調整後の色データである第2の色データを表す。第1の色データおよび第2の色データは、RGBデータであり、図では、第1の色データは、RGBa、第2の色データは、RGBbとして図示している。
FIG. 8 is a diagram showing an example of a color conversion model.
Here, the horizontal axis represents the first color data which is the color data before the color adjustment, and the vertical axis represents the second color data which is the color data after the color adjustment. The first color data and the second color data are RGB data, and in the figure, the first color data is shown as RGBa, and the second color data is shown as RGBb.
そして黒丸は、色データ抽出部14で抽出された第1の色データと第2の色データとをプロットしたものであり、ここでは、色データ抽出部14で抽出された第1の色データと第2の色データとの対が、12個であったことを示している。
The black circle is a plot of the first color data and the second color data extracted by the color
また実線は、第1の色データと第2の色データとの関係であり、色変換モデル作成部16で作成された色変換モデルを表す。即ち、色変換モデルは、第1の色データと第2の色データとの関係を表した関数であると言うこともできる。この関数をfとすると、RGBb=f(RGBa)と表すこともできる。この色変換モデルは、公知の方法で作成することができる。ただし、重み付け回帰モデルやニューラルネットワークなどの非線形特性に対するフィッティング性能が高い方法を使用することが好ましい。ただし、非線形特性に限定されず、Matrixモデルを使用した線形特性を用いてもよい。
The solid line is the relationship between the first color data and the second color data, and represents the color conversion model created by the color conversion
また色変換モデル作成部16は、第1の色データと第2の色データとの関係が非線形の単調増加関数となるように色変換モデルを作成することが好ましい。
図9(a)〜(b)は、第1の色データと第2の色データとの関係が単調増加関数になるように色変換モデルを作成した場合と、単調増加関数とならないように色変換モデルを作成した場合を比較した図である。
図中、実線で描かれた曲線は色変換モデルを表す。この色変換モデルのうち太線の方は、第1の色データと第2の色データとの関係が単調増加関数となるように色変換モデルを作成した場合であり、図8と同様の色変換モデルである。また細線の方は、第1の色データと第2の色データとの関係が単調増加関数とならないように色変換モデルを作成した場合である。なおここで単調増加関数とは、色変換モデルを表す実線の接線の傾きが0以上となることであり、傾きが0となる箇所があってもよい。即ち広義の単調増加関数である。
Further, the color conversion
9 (a) to 9 (b) show the case where the color conversion model is created so that the relationship between the first color data and the second color data becomes a monotonically increasing function, and the case where the colors do not become a monotonically increasing function. It is the figure which compared the case where the transformation model was created.
In the figure, the curve drawn by the solid line represents the color conversion model. The thick line in this color conversion model is a case where the color conversion model is created so that the relationship between the first color data and the second color data becomes a monotonically increasing function, and the same color conversion as in FIG. It is a model. The thin line is a case where the color conversion model is created so that the relationship between the first color data and the second color data does not become a monotonically increasing function. Here, the monotonically increasing function means that the slope of the tangent line of the solid line representing the color conversion model is 0 or more, and there may be a place where the slope is 0. That is, it is a monotonically increasing function in a broad sense.
太線で示した色変換モデルは、接線の傾きが0未満(負)となる場合はなく、常に0以上である。
対して細線で示した色変換モデルは、接線の傾きが0未満(負)となる場合がある。即ちRGBaが増加するとRGBbが減少する箇所がある。この色変換モデルを使用して作成された変換関係を利用して色調整を行なうと、色調整後の画像に階調段差が生じることがある。第1の色データと第2の色データとの関係が単調増加関数になるように色変換モデルを作成すると階調段差が生じるのが低減でき、色調整のばらつきも低減できる。
In the color conversion model shown by the thick line, the slope of the tangent line is not less than 0 (negative) and is always 0 or more.
On the other hand, in the color conversion model shown by the thin line, the slope of the tangent line may be less than 0 (negative). That is, there is a place where RGBb decreases as RGBa increases. When color adjustment is performed using the conversion relationship created by using this color conversion model, a gradation step may occur in the image after color adjustment. If a color conversion model is created so that the relationship between the first color data and the second color data becomes a monotonically increasing function, it is possible to reduce the occurrence of gradation steps and reduce the variation in color adjustment.
色変換モデル作成部16が、太線で示したような色変換モデルを作成するには、例えば、Pr1、Pr2およびPr3として図示した第1の色データおよび第2の色データの対がより少ない方が好ましい。このPr1、Pr2およびPr3として図示したものは、上述したレタッチの方向性が異なる色データである。本実施の形態では、画像データ取得部11で、色調整前の画像データである第1の画像データと、色調整後の画像データである第2の画像データとを取得し、その中から第1の色データと第2の色データの組として種々の色の色データを取得することでレタッチの方向性が異なる色データが入り込むことを抑制することができる。また抽出決定部13で色データを抽出する間隔を決定し、色データ抽出部14で抽出する色データを適度な数とすることで、レタッチの方向性が異なる色データが入り込むことをさらに抑制することができる。また図7で説明したように、ユーザが不必要であると判断した色データを削除する作業を行なうことで、レタッチの方向性が異なる色データが入り込むことをさらに抑制することができる。
In order for the color conversion
また色変換モデル作成部16は、第1の色データと第2の色データとの対に対し重みを設定した場合は、この重みを使用して色変換モデルを作成する。
Further, when the color conversion
変換関係作成部17は、色変換モデル作成部16で作成した色変換モデルを基に、第1の画像(原画像)の色調整を再現する変換関係を作成する。色変換モデルは、第1の色データと第2の色データとの組(色変換情報)から作成されるため、変換関係作成部17は、第1の色データと第2の色データとの組を基に、色調整を再現する変換関係を作成する、と言うこともできる。この変換関係は、ユーザが原画像に対し行なった色調整の結果を再現するものとなる。つまり色調整前の画像(原画像)に対しこの変換関係を使用して色調整を行なうと、ユーザが先に行なった色調整と同様の色調整を再び行ない、色調整後の画像とすることができる。
The conversion
変換関係が3次元LUTである場合は、R、G、Bのそれぞれについて代表となる画素値を選択する。例えば、R、G、Bのそれぞれのデータが8bitの階調で表される場合、画素値は0〜255の整数となるが、これを例えば、8分割する。そして8分割したそれぞれの画素値で表すことができるRGBデータを格子点とする(いわゆる9格子点)。この場合、格子点は、93=729個となる。そしてこの格子点のそれぞれについて、色変換モデルを基に第1の色データと第2の色データとの対応関係を算出する。この対応関係をLUT(Look Up Table)で表したものが3次元LUTである。その結果、3次元LUTは、各格子点毎に入力値(Ra、Ga、Ba)−出力値(Rb、Gb、Bb)の対応関係として記述される。 When the conversion relationship is a three-dimensional LUT, representative pixel values are selected for each of R, G, and B. For example, when each of the data of R, G, and B is represented by an 8-bit gradation, the pixel value is an integer of 0 to 255, and this is divided into, for example, eight. Then, RGB data that can be represented by each pixel value divided into 8 is used as a grid point (so-called 9 grid points). In this case, grid points is 9 3 = 729. Then, for each of the grid points, the correspondence relationship between the first color data and the second color data is calculated based on the color conversion model. A three-dimensional LUT expresses this correspondence by a LUT (Look Up Table). As a result, 3-dimensional LUT, the input values for each lattice point (R a, G a, B a) - the output value (R b, G b, B b) are described as the corresponding relationship.
このとき変換関係作成部17は、領域決定部12により決定された領域に含まれる色については色調整を行なうが、他の色については色調整を行なわない変換関係を作成することが好ましい。例えば、図5で示した画像の場合は、変換関係作成部17は、青の色領域に対しては色調整を行なうが、他の色については色調整を行なわない変換関係を作成する。変換関係が3次元LUTである場合、この3次元LUTは、領域決定部12により決定された領域に含まれる色に近い格子点の入力値(Ra、Ga、Ba)と出力値(Rb、Gb、Bb)とは異なる値となるが、他の格子点の入力値(Ra、Ga、Ba)と出力値(Rb、Gb、Bb)とは同じ値となる。よって領域決定部12が、人の肌色の箇所をさらに除外して色データを抽出する領域とした場合、この色は、色調整が行なわれない。
At this time, it is preferable that the conversion
出力部18は、変換関係を用いて、カメラ40により撮影した画像に対し色調整を行なう色調整手段の一例であり、色調整後の画像データや変換関係のデータを出力する。色調整後の画像データは、表示装置20に出力され、表示装置20では、この画像データに基づいた色調整後の画像が表示される。また変換関係のデータは、例えば、画像処理装置10に記憶され、この変換関係を用いて色調整を行なうことができる。また画像処理装置10とは異なる外部機器に対し出力され、この外部機器においてこの変換関係を用いて色調整を行なうことができる。
The
次に画像処理装置10の動作について説明する。
図10は、画像処理装置10の動作について説明したフローチャートである。なお以下に説明する画像処理装置10の動作は、画像処理装置10により行なわれる画像処理方法であると捉えることもできる。
Next, the operation of the
FIG. 10 is a flowchart illustrating the operation of the
画像データ取得部11が、色調整前の原画像の画像データである第1の画像データと、色調整後の画像データである第2の画像データとを取得する(ステップ101:画像データ取得工程)。
The image
次に領域決定部12が、色調整前の原画像と色調整後の画像のうちいずれか一方の画像について、色データを抽出する領域を指定する(ステップ102:指定工程)。このとき領域決定部12は、背景以外の箇所を色データを抽出する領域とする。また領域決定部12は、人の肌色の箇所をさらに除外して色データを抽出する領域とすることが好ましい。
Next, the
さらに抽出決定部13が、領域決定部12により指定された領域において色データを抽出する間隔を決定する(ステップ103:決定工程)。このとき抽出決定部13は、この領域に含まれる色数、階調数および柄の少なくとも1つを基に色データを抽出する間隔を決定する。
Further, the
そして色データ抽出部14が、抽出決定部13で決定された色データを抽出する間隔に従い、領域決定部12によって指定された、原画像または色調整後の画像のうち一方の画像の領域内の画素と、他方の画像のこれに対応する画素とから色データとして色変換情報を抽出する(ステップ104:抽出工程)。
Then, the color
次に抽出結果確認部15が、色データ抽出部14で抽出した色データを表示装置20で表示するために出力する(ステップ105:抽出結果確認工程)。
このとき例えば、ユーザは図8で説明したように、不必要であると判断した色データを削除する作業を行なうようにすることもできる。
Next, the extraction
At this time, for example, as described with reference to FIG. 8, the user may perform the work of deleting the color data determined to be unnecessary.
そして色変換モデル作成部16が、色データ抽出部14によって抽出された複数の第1の色データおよび第2の色データの組(色変換情報)をもとに色変換モデルを作成する(ステップ106:作成工程)。
Then, the color conversion
さらに変換関係作成部17が、色変換モデル作成部16で作成した色変換モデルを基に、色調整を再現する変換関係を作成する(ステップ107:変換関係作成工程)。これは、上述の通り、例えば、3次元LUTで作成される。出力形式としては、ICC Profileの形式等、一般的に知られているフォーマットを使用すればよい。
Further, the conversion
そして出力部18が、色調整後の画像データや変換関係のデータを出力する(ステップ108)。
Then, the
本実施の形態では、レタッチの方向性が異なる色データを排除して、色変換モデルを作成することで、より理想的な色変換モデルを作成することができる。そしてより精度の高い変換関係を作成することができる。この色変換モデルを使用して作成した出力データ(例えば、ICC Profile)を使用して、カメラ40で撮影した画像を色変換することでより理想的な色調整ができる。
In the present embodiment, a more ideal color conversion model can be created by excluding color data having different retouching directions and creating a color conversion model. Then, a more accurate conversion relationship can be created. More ideal color adjustment can be performed by color-converting the image captured by the
なお上述した例では、原画像としてカメラ40により撮影された画像を用いたが、原画像については特に限られるものではない。例えば、原画像としてスキャナにより読み込んだ画像を使用してもよい。また市販されている画像データやインターネット等で配布されている画像データをそのまま原画像としてもよい。
In the above-mentioned example, an image taken by the
<画像処理装置のハードウェア構成例>
次に、画像処理装置10のハードウェア構成について説明する。
図11は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行なうための通信インターフェース(通信I/F)94を備える。
<Hardware configuration example of image processing device>
Next, the hardware configuration of the
FIG. 11 is a diagram showing a hardware configuration of the
The
Further, the
<プログラムの説明>
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
<Program description>
The process performed by the
よって本実施の形態で画像処理装置10が行なう処理は、コンピュータに、第1の画像と第2の画像のうちいずれか一方の画像について、色データを抽出する領域を指定する指定機能と、指定機能によって指定された、第1の画像または第2の画像のうち一方の画像の色データの画素と、他方の画像のこれに対応する色データの画素との色変換情報を抽出する抽出機能と、抽出機能によって抽出された複数の色変換情報をもとに色変換モデルを作成する作成機能と、を実現させるためのプログラムとして捉えることができる。
Therefore, the processing performed by the
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。 The program that realizes the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。 Although the present embodiment has been described above, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear from the description of the claims that the above-described embodiment with various modifications or improvements is also included in the technical scope of the present invention.
1…画像処理システム、10…画像処理装置、11…画像データ取得部、12…領域決定部、13…抽出決定部、14…色データ抽出部、15…抽出結果確認部、16…色変換モデル作成部、17…変換関係作成部、18…出力部 1 ... image processing system, 10 ... image processing device, 11 ... image data acquisition unit, 12 ... area determination unit, 13 ... extraction determination unit, 14 ... color data extraction unit, 15 ... extraction result confirmation unit, 16 ... color conversion model Creation unit, 17 ... Conversion-related creation unit, 18 ... Output unit
Claims (13)
前記指定手段によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出手段と、
前記抽出手段によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成手段と、
前記指定手段により指定された前記領域において画像情報を抽出する間隔を決定する決定手段と、
を備え、
前記抽出手段は、前記決定手段で決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理装置。 A designation means for designating an area for extracting image information for either the first image before color conversion or the second image after color conversion, and
Color conversion between the pixels of the image information in the area of one image of the first image or the second image designated by the designating means and the pixels of the image information corresponding to the pixels of the other image. An extraction method for extracting information and
A creation means for creating a color conversion characteristic based on a plurality of the color conversion information extracted by the extraction means, and a creation means.
Determining means for determining the interval for extracting image information in the area designated by the designated means, and
Equipped with a,
The extraction means is an image processing device that determines to extract the color conversion information according to an interval for extracting the image information determined by the determination means.
前記指定工程によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出工程と、
前記抽出工程によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成工程と、
前記指定工程により指定された前記領域において画像情報を抽出する間隔を決定する工程と、
を含み、
前記抽出工程は、決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理方法。 A designation step of designating an area for extracting image information for one of the first image before color conversion and the second image after color conversion, and
Color conversion between the pixels of the image information in the area of one image of the first image or the second image designated by the designated step and the pixels of the image information corresponding to the pixels of the other image. The extraction process to extract information and
A creation step of creating color conversion characteristics based on a plurality of the color conversion information extracted by the extraction step, and
A step of determining an interval for extracting image information in the area designated by the designated step, and a step of determining the interval for extracting image information.
Only including,
The extraction step is an image processing method that determines to extract the color conversion information according to the determined interval for extracting the image information.
前記撮影装置により撮影した画像に対し色調整を行なう画像処理装置と、
を備え、
前記画像処理装置は、
色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定手段と、
前記指定手段によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出手段と、
前記抽出手段によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成手段と、
前記色変換特性を基に、前記撮影装置により撮影した画像に対し色調整を行なう色調整手段と、
前記指定手段により指定された前記領域において画像情報を抽出する間隔を決定する決定手段と、
を備え、
前記抽出手段は、前記決定手段で決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定する画像処理システム。 A shooting device that shoots the subject and
An image processing device that adjusts the color of the image captured by the imaging device, and
With
The image processing device is
A designation means for designating an area for extracting image information for either the first image before color conversion or the second image after color conversion, and
Color conversion between the pixels of the image information in the area of one image of the first image or the second image designated by the designating means and the pixels of the image information corresponding to the pixels of the other image. An extraction method for extracting information and
A creation means for creating a color conversion characteristic based on a plurality of the color conversion information extracted by the extraction means, and a creation means.
A color adjusting means for performing color adjustment on an image captured by the photographing apparatus based on the color conversion characteristics, and
Determining means for determining the interval for extracting image information in the area designated by the designated means, and
Equipped with a,
The extraction means is an image processing system that determines to extract the color conversion information according to an interval for extracting the image information determined by the determination means.
色変換前の第1の画像と色変換後の第2の画像のうちいずれか一方の画像について、画像情報を抽出する領域を指定する指定機能と、
前記指定機能によって指定された、前記第1の画像または前記第2の画像のうち一方の画像の領域内の画像情報の画素と、他方の画像のこれに対応する画像情報の画素との色変換情報を抽出する抽出機能と、
前記抽出機能によって抽出された複数の前記色変換情報をもとに色変換特性を作成する作成機能と、
前記指定機能により指定された前記領域において画像情報を抽出する間隔を決定する工程と、
を実現させ、
前記抽出機能は、決定された画像情報を抽出する間隔に従い、前記色変換情報を抽出することを決定するプログラム。 On the computer
A specification function for specifying an area for extracting image information for either the first image before color conversion or the second image after color conversion, and
Color conversion between the pixels of the image information in the area of one image of the first image or the second image designated by the designation function and the pixels of the image information corresponding to the pixels of the other image. An extraction function that extracts information and
A creation function that creates color conversion characteristics based on a plurality of the color conversion information extracted by the extraction function, and
A step of determining an interval for extracting image information in the area designated by the designated function, and
Realized ,
The extraction function is a program that determines to extract the color conversion information according to the determined interval at which the image information is extracted.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/888,267 US10602026B2 (en) | 2017-06-20 | 2018-02-05 | Image processing apparatus, image processing method, and non-transitory computer readable medium |
CN201810189366.6A CN109104545A (en) | 2017-06-20 | 2018-03-08 | Image processing equipment, image processing method and image processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120823 | 2017-06-20 | ||
JP2017120823 | 2017-06-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019009764A JP2019009764A (en) | 2019-01-17 |
JP6939455B2 true JP6939455B2 (en) | 2021-09-22 |
Family
ID=65026950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220878A Active JP6939455B2 (en) | 2017-06-20 | 2017-11-16 | Image processing equipment, image processing methods, image processing systems and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6939455B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021149825A (en) | 2020-03-23 | 2021-09-27 | 富士フイルムビジネスイノベーション株式会社 | Image processing apparatus and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3890211B2 (en) * | 2001-09-14 | 2007-03-07 | キヤノン株式会社 | Image processing method, image processing apparatus, program, and storage medium |
JP2007094623A (en) * | 2005-09-28 | 2007-04-12 | Fujifilm Corp | Image correcting method and device, and program |
JP4438741B2 (en) * | 2005-11-30 | 2010-03-24 | ソニー株式会社 | Color adjustment apparatus, printing apparatus, image processing apparatus, color adjustment method, program |
JP2007233717A (en) * | 2006-03-01 | 2007-09-13 | Canon Inc | Image processor and image processing method; and control program and storage medium |
JP2010093428A (en) * | 2008-10-06 | 2010-04-22 | Canon It Solutions Inc | Image processing device and method, program, and storage medium |
-
2017
- 2017-11-16 JP JP2017220878A patent/JP6939455B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019009764A (en) | 2019-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10853925B2 (en) | Methods, systems, and media for image processing | |
CN107274351B (en) | Image processing apparatus, image processing system, and image processing method | |
US10602026B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
JP5164692B2 (en) | Image processing apparatus, image processing method, and program | |
JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
JP2017130060A (en) | Image processing device, image processing method, and program | |
JP2012165146A (en) | Image processing apparatus and method | |
CN113132696A (en) | Image tone mapping method, device, electronic equipment and storage medium | |
JP6977483B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
JP2011249939A (en) | Image processing apparatus, control method and program | |
JP6915483B2 (en) | Image processing equipment, image processing systems and programs | |
JP6939455B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
JP5569504B2 (en) | Image processing apparatus, image processing method, and program | |
JP5943112B1 (en) | Image processing apparatus, image processing system, and program | |
KR20150028474A (en) | Color compansation method for 3D Image | |
JP5127638B2 (en) | Image processing apparatus and method | |
JP5824423B2 (en) | Illumination light color estimation device, illumination light color estimation method, and illumination light color estimation program | |
US10397483B2 (en) | Image processing device, image processing system and non-transitory computer readable medium storing program | |
JP6753145B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
JP7005215B2 (en) | Image processing equipment, image processing method, computer program | |
JP2010055404A (en) | Image processing method and image processing apparatus | |
CN113781330A (en) | Image processing method, device and electronic system | |
JP2021089654A (en) | Image processing apparatus, image processing method, and program | |
JP5483949B2 (en) | Image processing apparatus, image processing method, and program | |
JP2021157356A (en) | Image processing device, image processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6939455 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |