JP2002077660A - Image processor - Google Patents

Image processor

Info

Publication number
JP2002077660A
JP2002077660A JP2000268268A JP2000268268A JP2002077660A JP 2002077660 A JP2002077660 A JP 2002077660A JP 2000268268 A JP2000268268 A JP 2000268268A JP 2000268268 A JP2000268268 A JP 2000268268A JP 2002077660 A JP2002077660 A JP 2002077660A
Authority
JP
Japan
Prior art keywords
image
input
color
spectral reflectance
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000268268A
Other languages
Japanese (ja)
Inventor
Mutsuko Nichogi
睦子 二梃木
Katsuhiro Kanamori
克洋 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000268268A priority Critical patent/JP2002077660A/en
Publication of JP2002077660A publication Critical patent/JP2002077660A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor to convert inputted images at high accuracy into a color space which is not dependent on apparatuses or on apparatuses and illumination. SOLUTION: In the processor, a specific object is recognized through images inputted from an image input device, and each pixel of the inputted images by selecting an estimating means based on recognized results is converted into color data which is not dependent on the apparatus or the apparatus and illumination, so that the inputted data can be converted at high accuracy.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像入力装置から
入力されたカラー画像データを、装置あるいは装置およ
び照明に依存しない色空間に、高精度に変換する画像処
理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device for converting color image data input from an image input device into a color space independent of the device or the device and the illumination with high accuracy.

【0002】[0002]

【従来の技術】近年、カラー画像を処理する装置として
スキャナ、デジタルカメラ、プリンタ、ディスプレイ等
さまざまなものが利用されている。これらの装置間で画
像データを交換する手法に、入力装置から入力されたカ
ラー画像データを、一度装置に依存しない独立な色空間
に変換してから、出力装置に出力するカラー画像データ
に変換するものがある。
2. Description of the Related Art In recent years, various devices, such as scanners, digital cameras, printers, and displays, have been used as devices for processing color images. According to a technique for exchanging image data between these devices, color image data input from an input device is once converted into an independent color space independent of the device, and then converted into color image data to be output to an output device. There is something.

【0003】このように、画像入力装置の信号と装置に
依存しない色空間との変換を確立しておけば、あらゆる
画像出力装置にデータを渡すことができるため、入力装
置と出力装置の組み合わせの数だけ色変換処理を決める
必要がない。
As described above, if the conversion between the signal of the image input device and the color space independent of the device is established, the data can be transferred to any image output device. There is no need to determine the number of color conversion processes.

【0004】また、画像入力装置から入力されたカラー
画像データを装置だけでなく照明にも依存しない独立な
色空間に変換しておけば、画像入力時の照明と異なる照
明下の画像を出力装置から出力することもできる。
If the color image data input from the image input device is converted into an independent color space not depending on the device but also on the illumination, an image under illumination different from the illumination at the time of image input can be output to the output device. You can also output from.

【0005】装置に依存しない独立な色空間としては、
国際標準機関CIEが規定するXYZ三刺激値や、L*a*b*表色
系、L*u*v*表色系、あるいはCAM97sなどのカラーアピア
ランスモデルを用いることが一般的であるが、カラーア
ピアランスモデルの属性値はXYZ三刺激値から算出され
るため、画像入出力装置の信号からXYZ三刺激値を推定
することができれば上記色変換が可能になる。
[0005] As an independent color space independent of the device,
XYZ tristimulus values specified by the International Standards Institute CIE, and L * a * b * color system, L * u * v * color system, or it is common to use a color appearance model such as CAM97s, Since the attribute values of the color appearance model are calculated from the XYZ tristimulus values, if the XYZ tristimulus values can be estimated from the signals of the image input / output device, the above color conversion becomes possible.

【0006】また、装置および照明に依存しない色空間
としては、被写体の分光反射率を用いることが一般的で
ある。分光反射率に所望の照明をかけ積分すれば、XYZ
三刺激値を算出することができる。
As a color space that does not depend on the device and the illumination, it is general to use the spectral reflectance of the subject. By integrating the spectral reflectance with the desired illumination, XYZ
Tristimulus values can be calculated.

【0007】このように、各画像入出力装置の色空間か
ら被写体のXYZ三刺激値あるいは分光反射率を推定する
ことをキャラクタライゼーションと呼ぶ。
Estimating the XYZ tristimulus values or the spectral reflectance of a subject from the color space of each image input / output device in this manner is called characterization.

【0008】本発明は、デジタルカメラ、マルチスペク
トルカメラ、スキャナをはじめとする画像入力装置のキ
ャラクタライゼーションに関するものである。
The present invention relates to the characterization of an image input device such as a digital camera, a multispectral camera, and a scanner.

【0009】従来の画像入力装置のキャラクタライゼー
ション技術には、特開平11−85952号公報記載の
色再現装置がある。特開平11−85952号公報記載
の色再現装置のブロック構成図を図12に示し、以下に
説明する。
As a conventional characterization technique for an image input device, there is a color reproduction device described in Japanese Patent Application Laid-Open No. H11-89552. FIG. 12 shows a block diagram of a color reproducing apparatus disclosed in Japanese Patent Application Laid-Open No. 11-89552, which will be described below.

【0010】図12において、1201はバンド数が3
バンドより大きい画像入力装置、1202は画像入力装
置1201から入力された入力画像、1203は入力画
像1202から各画素の分光反射率データを推定し、分
光反射率画像として出力する画像処理装置、1204は
入力画像1202を記憶しておく入力画像記憶部、12
05は入力画像記憶部1204から1画素ずつ読み出さ
れる注目画像データ、1206は注目画像データ120
5からXYZ三刺激値データを推定するXYZ推定部、120
7はXYZ推定部1206で用いるパラメータを記憶して
おくパラメータ記憶部、1209はXYZ推定部1206
で推定されたXYZデータ、1210は推定されたXYZデー
タを順次記憶しておく画像記録部、1211は推定され
たXYZデータを画素値とするXYZ画像、1212は注目画
像データの推定処理が終了したことを伝える制御信号、
1213は制御信号1212を受けて、次に処理すべき
画像データを入力画像記憶部1204から読み出すこと
を指示する全体制御部である。
In FIG. 12, reference numeral 1201 indicates that the number of bands is three.
An image input device 1202 larger than the band 1202 is an input image input from the image input device 1201, an image processing device 1203 estimates spectral reflectance data of each pixel from the input image 1202, and outputs it as a spectral reflectance image 1204. An input image storage unit for storing the input image 1202, 12
05 is the image data of interest read out one pixel at a time from the input image storage unit 1204, 1206 is the image data of interest 120
XYZ estimator for estimating XYZ tristimulus value data from 5, 120
7 is a parameter storage unit for storing parameters used in the XYZ estimation unit 1206, and 1209 is an XYZ estimation unit 1206
XYZ data estimated in the above, 1210 is an image recording unit that sequentially stores the estimated XYZ data, 1211 is an XYZ image having the estimated XYZ data as a pixel value, and 1212 is the estimation process of the target image data is completed. Control signal that tells
Reference numeral 1213 denotes an overall control unit which receives a control signal 1212 and instructs to read out image data to be processed next from the input image storage unit 1204.

【0011】本装置の動作を説明する。まず、画像入力
装置1201は、画像のバンド数を一般的なRGBの3バン
ドより増やしNバンド(N>3)としたものであり、マルチス
ペクトルカメラ、あるいは、ハイパースペクトルカメラ
と呼ばれるものである。画像入力装置1201から入力
された1画素あたりがN次元の入力画像1202は入力
画像記憶部1204に記憶され、全体制御部1213の
指示により、左上の画素から順に1画素ずつ、注目画像
データ1205としてXYZ推定部1206に出力され
る。XYZ推定部1206では、パラメータ記憶部120
7に記憶されている行列を推定パラメータ1208とし
て用いて、XYZデータの推定を行う。得られたXYZデータ
1209は画像記録部1210に順次蓄積され、全画素
の処理が終わるとXYZ画像として出力される。
The operation of the apparatus will be described. First, the image input device 1201 increases the number of image bands from three general RGB bands to N bands (N> 3), and is called a multispectral camera or a hyperspectral camera. An N-dimensional input image 1202 per pixel input from the image input device 1201 is stored in the input image storage unit 1204, and in accordance with an instruction from the overall control unit 1213, one pixel at a time starting from the upper left pixel as target image data 1205. Output to XYZ estimation section 1206. In the XYZ estimating unit 1206, the parameter storage unit 120
The XYZ data is estimated using the matrix stored in 7 as the estimation parameter 1208. The obtained XYZ data 1209 is sequentially stored in the image recording unit 1210, and is output as an XYZ image when all pixels have been processed.

【0012】次に、XYZ推定部1206の詳細な動作を
説明する。XYZ推定部1206では、N次の画像データか
らXYZ三刺激値を求める。このときに用いる推定行列は
次のように算出される。
Next, the detailed operation of the XYZ estimator 1206 will be described. The XYZ estimator 1206 calculates XYZ tristimulus values from the N-th image data. The estimation matrix used at this time is calculated as follows.

【0013】まず、三刺激値Tと画像データベクトルI
は、(数1)のように表すことができる。(数1)にお
いて、EOは観察時の照明行列、Xは等色関数を横ベクト
ルとした行列、fは分光反射率、Emは撮影時の照明行
列、Sは画像入力装置分光感度を横ベクトルとした行列
である。(数1)を重回帰行列(数2)に代入すると
(数3)が得られる。この(数3)において、Rffは、
被写体の分光反射率の相関行列である。入力画像の主要
な構成要素となる被写体の分光反射率の相関行列を予め
算出しておき、(数3)のRffに代入しておくことで、
画像データからXYZ三刺激値を予測する行列(数3)を
得ることができる。
First, the tristimulus value T and the image data vector I
Can be expressed as (Equation 1). In equation (1), E O lighting matrix during observation, X is the matrix of the color matching function and a lateral vector, f is the spectral reflectance, E m is the illumination matrix at the time of photographing, S is an image input device spectral sensitivity This is a matrix as a horizontal vector. By substituting (Equation 1) into the multiple regression matrix (Equation 2), (Equation 3) is obtained. In this (Equation 3), R ff is
It is a correlation matrix of the spectral reflectance of the subject. By calculating in advance the correlation matrix of the spectral reflectance of the subject, which is a main component of the input image, and substituting it for R ff in (Equation 3),
A matrix (Equation 3) for predicting XYZ tristimulus values can be obtained from the image data.

【0014】[0014]

【数1】 (Equation 1)

【0015】[0015]

【数2】 (Equation 2)

【0016】[0016]

【数3】 (Equation 3)

【0017】このように上記従来の画像入力装置のキャ
ラクタライゼーション方法では、入力画像の主な被写体
を予め想定しておき、前記被写体の画像データと分光反
射率を予め計測して、(数3)に示す画像データからXY
Z三刺激値を推定する行列を決定している。
As described above, in the characterization method of the conventional image input apparatus, a main subject of the input image is assumed in advance, and the image data and the spectral reflectance of the subject are measured in advance to obtain (Equation 3) XY from the image data shown
The matrix for estimating the Z tristimulus values is determined.

【0018】上記方法では、高精度に色データを推定す
るために、センサのバンド数を通常のRGB3バンドより
も多くしている。これをマルチバンド化という。センサ
をマルチバンド化する理由は、次の2点にある。
In the above method, in order to estimate color data with high accuracy, the number of bands of the sensor is set to be larger than that of the normal three RGB bands. This is called multibanding. There are two reasons for using a multi-band sensor.

【0019】第1に、被写体の分光反射率を表現するの
に必要な基底の数が多い場合にも、カメラのバンド数を
それと同数にすることで、基底係数を一意に算出するこ
とができるようになる。
First, even when the number of bases necessary to represent the spectral reflectance of the subject is large, the base coefficient can be uniquely calculated by setting the number of bands of the camera to the same number. Become like

【0020】また、第2に、異なる分光反射率を持つ被
写体が、画像入力装置の同一の信号値となってしまう可
能性を減らす。これをセンサメタメリズムという。例え
ば、唇とりんごは、同じ赤色をしていても、異なる物体
であるため分光反射率も異なる。それにもかかわらず、
RGB3バンドの画像入力装置では同一の信号値となってし
まうことがある。これに対し、センサのバンド数を増や
せば、これら2つの物体の信号値を異ならせる可能性も
高くなる。
Secondly, the possibility that subjects having different spectral reflectances have the same signal value of the image input device is reduced. This is called sensor metamerism. For example, even though the lips and the apple have the same red color, they are different objects and therefore have different spectral reflectances. Nevertheless,
In the case of an image input device of RGB 3 band, the same signal value may be obtained. On the other hand, if the number of bands of the sensor is increased, there is a high possibility that the signal values of these two objects differ.

【0021】しかし、マルチバンド化により、画像入力
装置は非常に高価であるし、また大規模なものとなるた
め、できるだけ少ないバンド数の画像入力装置で被写体
のXYZ三刺激値や分光反射率を推定することが望まし
い。
However, the image input device is very expensive and large-scaled due to the multi-band configuration. Therefore, the XYZ tristimulus value and the spectral reflectance of the object can be obtained with an image input device having as few bands as possible. It is desirable to estimate.

【0022】[0022]

【発明が解決しようとする課題】上記従来の方法では、
バンド数が少ない画像入力装置の画像データから被写体
のXYZ三刺激値や分光反射率を高精度に算出する方法は
未だ解決されない課題となっている。
In the above conventional method,
A method of calculating XYZ tristimulus values and spectral reflectance of a subject with high accuracy from image data of an image input device having a small number of bands has not been solved.

【0023】本発明は、かかる点に鑑みてなされたもの
で、入力装置から入力されたカラー画像データを装置お
よび照明に依存しない色空間に高精度に変換する画像処
理方法を提供することを目的とする。
The present invention has been made in view of the above points, and has as its object to provide an image processing method for converting color image data input from an input device into a color space that does not depend on the device and illumination with high accuracy. And

【0024】[0024]

【課題を解決するための手段】本発明は、異なる分光反
射率を持つ被写体が画像入力装置の同一の信号値とな
り、ひいては同じ分光反射率を持つと推定されてしまう
問題を、センサをマルチバンド化すること無く、すなわ
ち、センサのバンド数が少ない場合でも解決するもので
あり、画像入力装置から入力される画像から特定の物体
を認識し、認識結果に基づいて推定手段を選択して入力
された画像データの各画素から装置あるいは装置および
照明に依存しない色データを推定するようにしたもので
ある。
SUMMARY OF THE INVENTION The present invention solves the problem that objects having different spectral reflectances have the same signal value of the image input device, and are consequently estimated to have the same spectral reflectance. That is, even if the number of sensor bands is small, a specific object is recognized from an image input from an image input device, and an estimating unit is selected and input based on the recognition result. The color data independent of the device or the device and the illumination is estimated from each pixel of the image data.

【0025】このようにすることで、認識された物体は
極めて高精度に、それ以外の被写体についてもほぼ精度
良く、入力画像データから装置あるいは装置および照明
に依存しない色データを推定することができる。
In this way, the recognized object can be estimated with extremely high accuracy and the other objects can be estimated with high accuracy, and color data independent of the device or the device and the illumination can be estimated from the input image data. .

【0026】[0026]

【発明の実施の形態】請求項1に記載の発明は、入力さ
れた画像から物体を認識する物体認識手段と、前記物体
認識手段の認識結果に応じて異なる色変換処理を選択す
る色変換処理選択手段と、前記色変換処理選択手段によ
って選択された色変換処理で前記入力画像の注目画素の
色を変換する色変換処理手段とを具備したものであり、
画像入力装置から入力された画像信号を高精度に色変換
することができるという作用を有する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 is an object recognizing means for recognizing an object from an input image, and a color conversion processing for selecting a different color conversion processing according to a recognition result of the object recognizing means. Selecting means, and a color conversion processing means for converting the color of the pixel of interest of the input image in the color conversion processing selected by the color conversion processing selection means,
This has the effect that the color of the image signal input from the image input device can be converted with high accuracy.

【0027】請求項2に記載の発明は、前記色変換処理
は、入力された画像を装置あるいは装置および照明に依
存しない色データに変換することを特徴とする請求項1
記載の画像処理装置としたものであり、入力された画像
を高精度に装置あるいは装置および照明に依存しない色
データに変換することができるという作用を有する。
According to a second aspect of the present invention, in the color conversion processing, the input image is converted into color data independent of a device or a device and illumination.
The image processing apparatus described above has an effect that an input image can be converted into color data that does not depend on the apparatus or the apparatus and the illumination with high accuracy.

【0028】請求項3に記載の発明は、前記色変換処理
選択手段は、前記物体認識手段で認識された物体に属す
る画素は、所望の物体の統計的性質を用いて色変換処理
を選択することを特徴とする請求項2記載の画像処理装
置としたものであり、認識された物体については特に高
精度に色変換することができるという作用を有する。
According to a third aspect of the present invention, the color conversion processing selecting means selects a color conversion processing for a pixel belonging to the object recognized by the object recognizing means by using a statistical property of a desired object. The image processing apparatus according to claim 2 has an effect that a recognized object can be color-converted with particularly high accuracy.

【0029】請求項4に記載の発明は、前記色変換処理
選択手段は、前記物体認識手段で認識された物体に属す
る画素は、重回帰分析により色変換処理を選択すること
を特徴とする請求項2記載の画像処理装置としたもので
あり、認識された物体については特に高精度に色変換す
ることができるという作用を有する。
According to a fourth aspect of the present invention, the color conversion processing selection means selects a color conversion processing for pixels belonging to the object recognized by the object recognition means by multiple regression analysis. Item 2 is an image processing apparatus according to Item 2, which has an effect that a recognized object can be subjected to particularly high-precision color conversion.

【0030】請求項5に記載の発明は、前記物体認識手
段は、予め既知とする物体の形状情報を用いて、前記入
力画像から物体を認識することを特徴とする請求項1か
ら4のいずれかに記載の画像処理装置としたものであ
り、入力画像における所望の物体を高精度に認識するこ
とができるという作用を有する。
The invention according to claim 5 is characterized in that the object recognizing means recognizes an object from the input image using shape information of the object known in advance. An image processing apparatus according to the above item (1), which has an effect that a desired object in an input image can be recognized with high accuracy.

【0031】請求項6に記載の発明は、前記物体認識手
段は、入力画像が動画の場合、予め既知とする物体の動
き情報を用いて、前記入力画像から物体を認識すること
を特徴とする請求項1から4のいずれかに記載の画像処
理装置としたものであり、入力画像における所望の物体
を高精度に認識することができるという作用を有する。
According to a sixth aspect of the present invention, when the input image is a moving image, the object recognizing means recognizes the object from the input image using motion information of the object which is known in advance. An image processing apparatus according to any one of claims 1 to 4, having an effect that a desired object in an input image can be recognized with high accuracy.

【0032】以下、本発明の実施の形態について、図を
用いて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

【0033】(実施の形態1)本実施の形態では、最も
一般的な画像入力系として、RGB3バンドの出力を持つデ
ジタルカメラを想定し、RGB画像データから装置および
照明に依存しないデータである被写体の分光反射率を推
定する。
(Embodiment 1) In this embodiment, a digital camera having an output of three RGB bands is assumed as the most common image input system, and a subject which is data independent of a device and illumination from RGB image data is assumed. Is estimated.

【0034】このとき、入力画像から人間の顔を認識
し、皮膚に属する画素では、予め用意した皮膚のRGB画
像データの統計的性質から分光反射率を推定する手段を
選択し、皮膚以外の画素では、汎用的に分光反射率を推
定する手段を選択する。これにより、皮膚では、極めて
高精度に分光反射率を推定し、それ以外の画素でも、ほ
ぼ精度良く分光反射率を推定することができる。
At this time, a human face is recognized from the input image, and for the pixels belonging to the skin, means for estimating the spectral reflectance from the statistical properties of the RGB image data of the skin prepared in advance is selected. Then, means for estimating the spectral reflectance for general use is selected. As a result, the spectral reflectance of the skin can be estimated with extremely high accuracy, and the spectral reflectance of other pixels can be estimated with high accuracy.

【0035】図1は、実施の形態1にかかる画像入力装
置のRGB画像データから分光反射率画像を推定する画像
処理装置のブロック図である。
FIG. 1 is a block diagram of an image processing apparatus for estimating a spectral reflectance image from RGB image data of the image input apparatus according to the first embodiment.

【0036】図1において、101はRGB3バンドの
画像データを取得する画像入力装置、102は入力画
像、103は本発明の特徴となる入力画像から分光反射
率画像を推定する画像処理装置、104は入力画像10
2から顔を認識する画像認識部、105は画像認識部1
04で認識された顔の部位を画素値1、顔以外の部位を
画素値0とした認識画像、106は認識画像105を記
憶する認識画像記憶部、107は全体制御部121の指
示により認識画像記憶部106に記憶されている認識画
像105から順次読み出される画素値であり、注目画像
データが認識物体の一部か否かを示す注目認識信号、1
08は注目認識信号107に応じて分光反射率を推定す
る方式を選択する処理選択部、109は処理選択部10
8によって選択された処理方式を表す処理選択信号、1
10は予め算出されている画像入力装置の信号から分光
反射率を推定するための皮膚用および皮膚以外用のパラ
メータを記憶するパラメータ記憶部、111は処理選択
信号109に応じてパラメータ記憶部110から読み出
された分光反射率推定に用いる推定パラメータ、112
は入力画像102を記憶する入力画像記憶部、113は
全体制御部121の指示により入力画像記憶部112か
ら読み出された各画素の画素値である注目画像データ、
114は注目画像データ113から非線形性を除去する
非線形性除去部、115は非線形性除去部114によっ
て得られる非線形性を除去した画像データであり、これ
を以降、スカラー画像データと呼ぶことにする。116
は推定パラメータ111を用いてスカラー画像データ1
15から分光反射率推定を行う分光反射率推定部、11
7は推定された注目画像データの分光反射率データ、1
18は分光反射率データを記録する画像記録部、119
は画像処理装置103の処理の結果として出力される分
光反射率画像、120は注目画像データ113の分光反
射率推定が終了したことを指示する制御信号、121は
入力画像102の各画素の処理制御を行う全体制御部で
ある。
In FIG. 1, reference numeral 101 denotes an image input device for acquiring image data of three RGB bands, 102 denotes an input image, 103 denotes an image processing device for estimating a spectral reflectance image from an input image, which is a feature of the present invention, and 104 denotes an image processing device. Input image 10
2, an image recognition unit for recognizing a face;
A recognition image in which a part of the face recognized in 04 has a pixel value of 1 and a part other than the face has a pixel value of 0, 106 is a recognition image storage unit that stores a recognition image 105, and 107 is a recognition image according to an instruction from the overall control unit 121. It is a pixel value sequentially read from the recognition image 105 stored in the storage unit 106, and is a recognition signal indicating whether or not the image data of interest is a part of the recognition object.
08 is a processing selection unit for selecting a method of estimating the spectral reflectance according to the attention recognition signal 107, and 109 is a processing selection unit 10.
8, a processing selection signal indicating the processing method selected by
Reference numeral 10 denotes a parameter storage unit that stores parameters for skin and non-skin for estimating the spectral reflectance from a signal of the image input device calculated in advance, and 111 denotes a parameter from the parameter storage unit 110 according to the processing selection signal 109. Estimated parameters used for estimating the read spectral reflectance, 112
Is an input image storage unit that stores the input image 102; 113 is target image data that is a pixel value of each pixel read from the input image storage unit 112 according to an instruction of the overall control unit 121;
Reference numeral 114 denotes a non-linearity removing unit for removing non-linearity from the image data of interest 113, and reference numeral 115 denotes image data from which the non-linearity obtained by the non-linearity removing unit 114 has been removed, which will be hereinafter referred to as scalar image data. 116
Is the scalar image data 1 using the estimation parameter 111
Spectral reflectance estimating unit for performing spectral reflectance estimation from 15, 11
7 is the estimated spectral reflectance data of the image data of interest, 1
Reference numeral 18 denotes an image recording unit that records spectral reflectance data, 119
Is a spectral reflectance image output as a result of the processing of the image processing apparatus 103, 120 is a control signal indicating that the spectral reflectance estimation of the target image data 113 has been completed, and 121 is processing control of each pixel of the input image 102. This is the overall control unit that performs the following.

【0037】図1の画像処理装置の動作を説明する。The operation of the image processing apparatus shown in FIG. 1 will be described.

【0038】まず、画像入力装置101で被写体を撮像
する。
First, a subject is imaged by the image input device 101.

【0039】図2は画像入力装置101で入力された入
力画像102の例である。図2には、メインとなる被写
体である人間の上半身と、その背景に丸い形をしたオブ
ジェが写っている。このオブジェは肌色に近いベージュ
色である。
FIG. 2 is an example of an input image 102 input by the image input device 101. FIG. 2 shows a human upper body, which is a main subject, and a round object in the background. This object is a beige color close to skin color.

【0040】次に、入力画像102は画像認識部104
に入力され、入力画像102中から顔の位置を認識す
る。そして、認識された顔の部位を画素値1、顔以外の
部位を画素値0とした認識画像を作成し、出力する。図
3は認識画像105の例である。画像認識部104で
は、色から顔であるか、顔でないかを判定するのではな
く、後述するように目、鼻、口といった形状と位置の情
報から、あるいは、動画であれば連続する画像における
動きの情報から人間の顔の位置を認識する。
Next, the input image 102 is sent to the image recognition unit 104.
, And the position of the face is recognized from the input image 102. Then, a recognized image in which the recognized face part has a pixel value of 1 and a part other than the face has a pixel value of 0 is created and output. FIG. 3 is an example of the recognition image 105. The image recognizing unit 104 does not determine whether the face is a face or a face based on the color. Instead, the image recognizing unit 104 uses shape and position information such as eyes, nose, and mouth as described later, or in a continuous image in the case of a moving image. The position of the human face is recognized from the motion information.

【0041】入力画像102は、また、入力画像記憶部
112に記憶される。そして、全体制御部121の指示
により、左上の画素から、順次、画素値が非線形除去部
114へ注目画像データ113として読み出される。
The input image 102 is also stored in the input image storage unit 112. Then, in accordance with an instruction from the overall control unit 121, pixel values are sequentially read out from the upper left pixel to the non-linear removal unit 114 as the target image data 113.

【0042】非線形性除去部114では、注目画像デー
タ113をスカラー画像データ115に変換し、分光反
射率推定部116に出力する。
The non-linearity removing unit 114 converts the image data of interest 113 into scalar image data 115 and outputs it to the spectral reflectance estimating unit 116.

【0043】また、全体制御部121は、認識画像記憶
部106に記憶されている認識画像105から順次、注
目画像データ113に対応する認識信号を、注目認識信
号107として読み出す。処理選択部108は、注目認
識信号107が1か0かに応じて、異なる分光反射率推
定方法を選択し、その選択信号を処理選択信号109と
して出力する。パラメータ記憶部110には、予め処理
選択信号が1の場合、すなわち、皮膚である場合の分光
反射率推定用パラメータと、処理選択信号が0の場合、
すなわち、皮膚以外の場合の分光反射率推定用パラメー
タが記憶されているので、処理選択信号109に応じて
推定用パラメータ111を分光反射率推定部116に出
力する。
The overall control unit 121 sequentially reads out recognition signals corresponding to the image data of interest 113 from the recognition image 105 stored in the recognition image storage unit 106 as the attention recognition signal 107. The processing selection unit 108 selects a different spectral reflectance estimation method depending on whether the target recognition signal 107 is 1 or 0, and outputs the selected signal as the processing selection signal 109. In the parameter storage unit 110, when the processing selection signal is 1 in advance, that is, when the spectral selection parameter is 0 when the processing selection signal is 0,
That is, since the parameters for estimating the spectral reflectance in cases other than the skin are stored, the parameter for estimation 111 is output to the spectral reflectance estimating unit 116 in accordance with the processing selection signal 109.

【0044】分光反射率推定部116では、推定用パラ
メータ111を用いて、スカラー画像データ115から
分光反射率を推定し、分光反射率データ117として出
力する。得られた分光反射率データ117は画像記録部
118に記録される。これら一連の処理が注目画像デー
タ113に対して終了すると、処理の終了を意味する制
御信号120が全体制御部121に出力される。全体制
御部121では制御信号120を受けると、次の処理対
象となる画像データを入力画像記憶部112から注目画
像データ113として読み出し、また、認識画像記憶部
106から注目画像データが顔であるか、否かを示す注
目認識信号107を読み出す。
The spectral reflectance estimating section 116 estimates the spectral reflectance from the scalar image data 115 by using the estimation parameter 111 and outputs it as spectral reflectance data 117. The obtained spectral reflectance data 117 is recorded in the image recording unit 118. When the series of processes is completed for the image data of interest 113, a control signal 120 indicating the end of the process is output to the overall control unit 121. Upon receiving the control signal 120, the overall control unit 121 reads out image data to be processed next from the input image storage unit 112 as attention image data 113, and checks whether the attention image data is a face from the recognition image storage unit 106. , Is read out.

【0045】以上の処理を入力画像102の画素全体に
対して繰り返す。
The above processing is repeated for all the pixels of the input image 102.

【0046】次に、非線形除去部106の詳細な動作の
例を示しておく。
Next, an example of a detailed operation of the nonlinear elimination unit 106 will be described.

【0047】非線形性除去部114における処理は、例
えば、マルチレイヤーパーセプトロンを用いて行うこと
ができる。マルチレイヤーパーセプトロンは、ニューラ
ルネットワークの一つで、ニューロンのパラメータであ
る重みと閾値を予め学習しておき、その学習によって得
られたパラメータを用いて推定を行う。ここで用いるマ
ルチレイヤーパーセプトロンは、入力を画像データ、出
力を画像データから非線形性が除去されたデータ、すな
わち、スカラー画像データとするものである。
The processing in the non-linearity removing section 114 can be performed using, for example, a multi-layer perceptron. The multi-layer perceptron is a kind of neural network, in which weights and thresholds, which are parameters of neurons, are learned in advance, and estimation is performed using the parameters obtained by the learning. The multi-layer perceptron used here has an input as image data and an output as data obtained by removing non-linearity from the image data, that is, scalar image data.

【0048】このようなマルチレイヤーパーセプトロン
のパラメータ学習手順について図4を用いて説明する。
手順401で複数の色から構成された色票の画像データ
と測色値(分光反射率)を予め取得しておく。次に、手
順402で前記色票の測色値(分光反射率)から画像入
力装置101の信号発生モデルを用いて予測される理想
的な画像データを算出する。次に、手順403で画像デ
ータ102を入力データとし、理想的な画像データを教
師データとして重みと閾値を学習する。
The parameter learning procedure of such a multi-layer perceptron will be described with reference to FIG.
In step 401, image data and a colorimetric value (spectral reflectance) of a color chart composed of a plurality of colors are obtained in advance. Next, in step 402, ideal image data predicted using the signal generation model of the image input apparatus 101 is calculated from the colorimetric value (spectral reflectance) of the color chart. Next, in step 403, weights and thresholds are learned using the image data 102 as input data and ideal image data as teacher data.

【0049】手順402における理想的な画像データの
算出方法について詳細を説明する。
The method of calculating ideal image data in step 402 will be described in detail.

【0050】理想的な画像データは画像入力装置101
の信号発生モデルに色票の測色値(分光反射率)を代入
することで求めることができる。信号発生モデルは、被
写体の分光反射率R(λ)と照明の分光分布S(λ)と画像入
力装置101のRGB3バンドの分光感度CR(λ)、C
G(λ)、CB(λ)を用いて、(数4)で書くことがで
きる。画像入力装置101の分光感度と照明の分光分布
は既知とする。
The ideal image data is stored in the image input device 101
Can be obtained by substituting the colorimetric value (spectral reflectance) of the color chart into the signal generation model. The signal generation model includes the spectral reflectance R (λ) of the subject, the spectral distribution S (λ) of the illumination, and the spectral sensitivities C R (λ) and C of the three RGB bands of the image input apparatus 101.
Using G (λ) and C B (λ), it can be written by (Equation 4). It is assumed that the spectral sensitivity of the image input device 101 and the spectral distribution of illumination are known.

【0051】[0051]

【数4】 (Equation 4)

【0052】(数4)のR(λ)に色票の分光反射率を代
入して得られるR',G',B'が理想的な画像データとなる。
(数4)の信号発生モデルの説明図を図5に示す。図5
において、501は信号発生モデルに代入する色票の分
光反射率、502は既知の画像入力装置101の分光感
度特性、503は画像データ102撮影時の照明特性、
504は(数4)の信号発生モデル、505は色票の理
想画像データである。図5に示すように、信号発生モデ
ルすなわち(数4)に、画像入力装置101の分光感度
特性502、及び、照明特性503、及び、被写体の分
光反射率501を与えることにより、被写体の理想画像
データ505が得られる。
R ′, G ′, B ′ obtained by substituting the spectral reflectance of the color chart for R (λ) in (Equation 4) become ideal image data.
FIG. 5 is an explanatory diagram of the signal generation model of (Equation 4). FIG.
, 501 is the spectral reflectance of the color chart to be substituted into the signal generation model, 502 is the spectral sensitivity characteristic of the known image input device 101, 503 is the illumination characteristic at the time of capturing the image data 102,
504 is a signal generation model of (Equation 4), and 505 is ideal image data of a color chart. As shown in FIG. 5, the spectral sensitivity characteristic 502, the illumination characteristic 503, and the spectral reflectance 501 of the image input apparatus 101 are given to the signal generation model, that is, (Equation 4), so that the ideal image of the object is obtained. Data 505 is obtained.

【0053】以上のようにして学習された重みと閾値の
ニューラルネットワークを用いて行われる非線形性除去
部114の動作は、学習済みのニューラルネットワーク
に注目画像データ113を入力して、ニューラルネット
ワークの出力としてスカラー画像データ115を得ると
いうものになる。
The operation of the non-linearity removing unit 114 performed using the neural network of the weight and the threshold value learned as described above is performed by inputting the target image data 113 to the learned neural network and outputting the neural network. Scalar image data 115 is obtained.

【0054】以上で、非線形性除去部114の動作説明
を終える。
The operation of the nonlinearity removing section 114 has been described above.

【0055】次に、本発明の特徴となる処理選択部10
8、パラメータ記憶部110、分光反射率推定部116
の動作の詳細について説明する。
Next, the processing selecting section 10 which is a feature of the present invention.
8. Parameter storage unit 110, spectral reflectance estimating unit 116
The operation of will be described in detail.

【0056】本発明の特徴は、画像認識部104で顔を
認識し、認識された結果、皮膚に属する画素と、皮膚以
外に属する画素で異なる分光反射率推定方法を用いる点
に特徴がある。
The feature of the present invention is that the face is recognized by the image recognition unit 104, and as a result of the recognition, different spectral reflectance estimation methods are used for pixels belonging to the skin and pixels belonging to other than the skin.

【0057】皮膚用、あるいは皮膚以外用の推定行列
は、パラメータ記憶部110に予め格納されており、処
理選択部108は画像認識部104で認識された結果で
ある注目認識信号107を受けると、パラメータ記憶部
110に格納されている複数の推定行列のうち、注目認
識信号107が1ならば、すなわち、顔であれば、皮膚
用の推定行列を読み出し、注目認識信号107が0なら
ば、すなわち、顔以外であれば、皮膚以外用の汎用的な
推定行列を分光反射率推定部116に渡す。分光反射率
推定部116は、指定された行列を用いて、スカラー画
像データ115から被写体の分光反射率を推定する。
The estimation matrix for the skin or for the area other than the skin is stored in the parameter storage unit 110 in advance, and when the processing selection unit 108 receives the attention recognition signal 107 which is the result of recognition by the image recognition unit 104, If the attention recognition signal 107 is 1 among the plurality of estimation matrices stored in the parameter storage unit 110, that is, if it is a face, the estimation matrix for skin is read, and if the attention recognition signal 107 is 0, that is, If it is not a face, a general-purpose estimation matrix for other than the skin is passed to the spectral reflectance estimating unit 116. The spectral reflectance estimating unit 116 estimates the spectral reflectance of the subject from the scalar image data 115 using the designated matrix.

【0058】分光反射率の推定は、(数4)の左辺(R',
G',B')にスカラー画像データ115を代入したときに分
光反射率R(λ)を求める問題となる。
The spectral reflectance is estimated by calculating the left side (R ′,
When the scalar image data 115 is substituted for G ′, B ′), a problem arises in obtaining the spectral reflectance R (λ).

【0059】(数4)において、スカラー画像データと
分光反射率は線形な関係にあるから、(数4)を離散的
な行列表現に書きかえれば(数5)となる。
In (Equation 4), since the scalar image data and the spectral reflectance have a linear relationship, (Equation 5) is obtained by rewriting (Equation 4) into a discrete matrix expression.

【0060】[0060]

【数5】 (Equation 5)

【0061】(数5)の左辺はスカラー画像データ11
5、(R1,R2,…,Rn)Tは被写体の分光反射率の離散的表現
であり、各成分は例えば、400nmから700nmの10nmおきの
各波長における反射率を表す。行列Aは画像入力装置1
01の分光感度と照明の分光分布によって決まる行列で
ある。
The left side of (Equation 5) is the scalar image data 11
5, (R1, R2,..., Rn) T is a discrete expression of the spectral reflectance of the object, and each component represents the reflectance at each wavelength of, for example, 400 nm to 700 nm every 10 nm. Matrix A is image input device 1
It is a matrix determined by the spectral sensitivity of 01 and the spectral distribution of illumination.

【0062】(数5)を用いて、スカラー画像データ1
15から被写体の分光反射率Rを推定する問題は線形逆
問題であり、画像データが例えばRGB3バンドの場合、
(R1,R2,…,Rn)Tは次元数が3よりも格段に大きく推定す
ることが難しい。
Using (Equation 5), scalar image data 1
The problem of estimating the spectral reflectance R of the subject from 15 is a linear inverse problem. If the image data is, for example, RGB three bands,
(R1, R2,..., Rn) It is difficult to estimate T with a dimension number much larger than three.

【0063】この問題を解決する方法として、例えば、
被写体の分光反射率をnよりも低次の基底関数で表現す
る方法がある。この方法によれば、求めるべきデータの
次元数を減らすことができる。
As a method for solving this problem, for example,
There is a method of expressing the spectral reflectance of a subject by a basis function having a lower order than n. According to this method, the number of dimensions of data to be obtained can be reduced.

【0064】例えば、基底関数を3次元O1(λ),O2(λ),
O3(λ)とすれば、(数4)は(数6)に書き換えること
ができ、推定すべきデータは(a,b,c)の3次のベクトル
となる。従って、(数5)は(数7)に書き換えること
ができる。(数7)において、行列Bは、画像入力装置
101の分光感度と照明の分光分布と上記基底関数によ
り決まる行列である。
For example, the basis functions are defined as three-dimensional O 1 (λ), O 2 (λ),
If O 3 (λ), (Equation 4) can be rewritten as (Equation 6), and the data to be estimated is a cubic vector of (a, b, c). Therefore, (Equation 5) can be rewritten as (Equation 7). In Equation 7, the matrix B is a matrix determined by the spectral sensitivity of the image input apparatus 101, the spectral distribution of illumination, and the basis function.

【0065】[0065]

【数6】 (Equation 6)

【0066】[0066]

【数7】 (Equation 7)

【0067】基底関数としては、例えば、雑誌カラーリ
サーチアンドアプリケーション、ボリューム19、ナンバ
ー1、1994年、ページ4から9のヴィーヘル著「メジャ
メント アンド アナリシス オブ オブジェクト リ
フレクタンス スペクトラ」記載のものを用いることが
できる。この基底関数は、自然被写体、人工被写体の多
くを計測して算出したものであるため、非常に汎用的な
基底関数であるといえる。
As the basis functions, for example, those described in “Measurement and Analysis of Object Reflectance Spectra” by Wihel, pp. 4 to 9, Magazine Color Research and Application, Volume 19, Number 1, 1994, can be used. . Since these basis functions are calculated by measuring many natural subjects and artificial subjects, they can be said to be very general-purpose basis functions.

【0068】あるいは、マクベスチャートの分光反射率
を測定し、得られた分光反射率を主成分分析して、上位
数成分の主成分ベクトルを基底関数として用いてもよ
い。
Alternatively, the spectral reflectance of the Macbeth chart may be measured, the obtained spectral reflectance may be subjected to principal component analysis, and the principal component vectors of the top several components may be used as basis functions.

【0069】このようにして得られた(数7)は特に被
写体を限定したものではないため、推定される分光反射
率の精度はあらゆる被写体でほぼ同程度となる。また、
行列Bは正方行列であるため、一意な解を得ることがで
きる。
Since (Equation 7) obtained in this way does not particularly limit the subject, the accuracy of the estimated spectral reflectance is almost the same for all subjects. Also,
Since the matrix B is a square matrix, a unique solution can be obtained.

【0070】しかし、基底関数が3次ですべての被写体
を表すことはできないこと、被写体が完全拡散である仮
定の上に成り立つ式であること、更にノイズが考慮され
ていないことから、高精度な推定は不可能である。
However, since the basis function cannot represent all the objects in the third order, the expression is based on the assumption that the objects are completely diffused, and furthermore, since noise is not considered, a highly accurate Estimation is not possible.

【0071】一方、被写体が限定されたときには、上記
のように信号発生モデル(数4)を解くよりも、被写体
に関する画像データと分光反射率データの統計的性質か
ら推定を行う重回帰分析やニューラルネットワークの方
が高精度な解が得られる。ただし、この場合は、限定し
た被写体については極めて高精度な推定が得られるもの
の、それ以外の被写体については誤差が極めて大きくな
る。
On the other hand, when the subject is limited, rather than solving the signal generation model (Equation 4) as described above, multiple regression analysis or neural regression for estimating from the statistical properties of image data and spectral reflectance data relating to the subject is performed. A network provides a more accurate solution. However, in this case, extremely accurate estimation can be obtained for a limited subject, but the error becomes extremely large for other subjects.

【0072】そこで、本発明では、特定した被写体、す
なわち、皮膚については、重回帰分析やニューラルネッ
トワークなどを用いて高精度な推定方法を予め用意して
おく。そして、入力された画像内の各画素が顔であるか
を画像認識部115で判定し、顔の一部であると判定さ
れれば、前記重回帰分析やニューラルネットワークなど
を用いた推定を行い、顔以外であると判定されれば、
(数7)による推定を行う。
Therefore, in the present invention, a highly accurate estimation method is prepared in advance for the specified subject, that is, the skin, using a multiple regression analysis, a neural network, or the like. Then, the image recognition unit 115 determines whether each pixel in the input image is a face, and if it is determined that the pixel is a part of the face, performs estimation using the multiple regression analysis or the neural network. , If it is determined that it is not a face,
Estimation according to (Equation 7) is performed.

【0073】このようにすることで、特定した被写体に
ついては、極めて高精度な推定が可能となり、それ以外
の被写体についてもほぼ精度の良い解を得ることができ
る。
In this manner, extremely high-precision estimation can be performed for the specified subject, and an almost accurate solution can be obtained for other subjects.

【0074】次に、注目画素が顔の一部である場合の、
すなわち、注目認識信号107および処理選択信号10
9が1である場合の重回帰分析やニューラルネットワー
クなどによる推定方法について説明する。
Next, when the target pixel is a part of the face,
That is, the attention recognition signal 107 and the processing selection signal 10
An estimation method using multiple regression analysis or a neural network when 9 is 1 will be described.

【0075】推定方法には、前述したように重回帰分析
やニューラルネットワークなど複数考えられるが、ここ
では、重回帰分析による方法について図6を用いて説明
する。
As described above, a plurality of estimation methods are conceivable, such as a multiple regression analysis and a neural network. Here, a method based on the multiple regression analysis will be described with reference to FIG.

【0076】手順601で、カテゴリに属する被写体の
複数の画像データを画像入力部から得ておき、また、測
色計を用いて分光反射率データを得ておく。この様子を
図7に示す。手順602で、非線形除去部106と同様
の処理で画像データをスカラー画像データに変換する。
手順603で、分光反射率データを基底係数に変換にす
る。基底関数は、(数7)と同じくヴィーヘルらのもの
を用いてもよいし、あるいは、予め特定した被写体(本
実施の形態の場合は皮膚)の分光反射率を主成分分析し
て、上位数成分の主成分ベクトルを用いてもよい。後者
の場合は、基底関数も、皮膚に特化したものとなるた
め、表現精度もより高くなる。手順604で重回帰分析
により画像データから分光反射率データの基底係数を推
定する行列を作成する。
In step 601, a plurality of image data of a subject belonging to a category is obtained from an image input unit, and spectral reflectance data is obtained using a colorimeter. This is shown in FIG. In step 602, the image data is converted into scalar image data by the same processing as that of the nonlinear elimination unit 106.
In step 603, the spectral reflectance data is converted into basis coefficients. As for the basis function, the same as in (Equation 7) may be used, or the spectral reflectance of a previously specified subject (skin in the present embodiment) may be subjected to principal component analysis to obtain a higher number. The principal component vector of the component may be used. In the latter case, since the basis functions are also specialized for the skin, the expression accuracy is higher. In step 604, a matrix for estimating the basis coefficient of the spectral reflectance data from the image data is created by multiple regression analysis.

【0077】手順604の詳細を説明する。手順602
で算出した複数のスカラー画像データ(縦ベクトル)を
データ数分横に並べた行列をX、手順603で算出した
分光反射率の基底係数(縦ベクトル)をデータ数分横に
並べた行列をRとおくと、画像データから基底係数を推
定する行列Mは(数8)で表される。(数8)におい
て、Rxxは相関行列を表す。例えばRRXはTとXの相関行
列であり、(数9)で定義される。
The details of the procedure 604 will be described. Step 602
X is a matrix in which a plurality of scalar image data (vertical vectors) calculated in the above are arranged horizontally by the number of data, and R is a matrix in which base coefficients (longitudinal vectors) of the spectral reflectances calculated in the step 603 are arranged horizontally by the number of data. In other words, the matrix M for estimating the basis coefficient from the image data is represented by (Equation 8). In (Equation 8), R xx represents a correlation matrix. For example, R RX is a correlation matrix of T and X, and is defined by (Equation 9).

【0078】[0078]

【数8】 (Equation 8)

【0079】[0079]

【数9】 (Equation 9)

【0080】(数8)のMは推定される基底係数と、手
順603で算出された基底係数との誤差が最小となるよ
うに決定された重回帰行列である。
M in (Equation 8) is a multiple regression matrix determined so as to minimize the error between the estimated basis coefficient and the basis coefficient calculated in step 603.

【0081】以上の手順によって得られた行列Mを用い
て、任意のスカラー画像データx=(R',G',B')tから分光
反射率の基底係数r=(a,b,c)tを(数10)で推定する。
Using the matrix M obtained by the above procedure, from the arbitrary scalar image data x = (R ′, G ′, B ′) t , the basis coefficient r = (a, b, c) of the spectral reflectance t is estimated by (Equation 10).

【0082】[0082]

【数10】 (Equation 10)

【0083】得られた基底係数から分光反射率を算出す
る。以上で、重回帰分析による皮膚用の推定行列の作成
方法についての説明を終える。
The spectral reflectance is calculated from the obtained basis coefficients. This concludes the description of a method for creating an estimation matrix for skin by multiple regression analysis.

【0084】ここで、特定した被写体用(皮膚用)の推
定行列(数8)および(数10)と、特定した被写体以
外(皮膚以外)と判定された場合に用いる汎用的な推定
行列(数7)の関係について説明しておく。
Here, the estimation matrices (Equation 8) and (Equation 10) for the specified subject (for the skin) and the general estimation matrix (Formula) used when it is determined that the subject is other than the specified subject (other than the skin). The relationship 7) will be described.

【0085】画像入力装置101の各バンドの感度を縦
ベクトルとして並べた行列をC、基底関数を縦ベクトル
として並べた行列をPとおくと、画像入力装置101の
信号発生モデルの(数4)は、(数11)のように書く
ことができる。ここで、Xは手順602で算出した複数
のスカラー画像データ(縦ベクトル)をデータ数分横に
並べた行列、Rは手順603で算出した分光反射率の基
底係数(縦ベクトル)をデータ数分横に並べた行列であ
る。
When a matrix in which the sensitivities of the respective bands of the image input apparatus 101 are arranged as vertical vectors is C and a matrix in which the basis functions are arranged as vertical vectors is P, (Equation 4) Can be written as (Equation 11). Here, X is a matrix in which a plurality of scalar image data (vertical vectors) calculated in step 602 are arranged horizontally by the number of data, and R is a base coefficient (vertical vector) of the spectral reflectance calculated in step 603 by the number of data. It is a matrix arranged side by side.

【0086】[0086]

【数11】 [Equation 11]

【0087】(数10)に、(数8)および(数11)
を代入すると(数12)となる。
In (Equation 10), (Equation 8) and (Equation 11)
Is substituted into (Equation 12).

【0088】[0088]

【数12】 (Equation 12)

【0089】(数12)において、被写体を限定しない
と、分光反射率の基底係数の相関行列RRRは単位行列で
あるとみなせるので、(数13)となる。(数13)に
おいて+はムーアペンローズの一般逆行列を意味する。
In (Equation 12), if the subject is not limited, the correlation matrix R RR of the basis coefficient of the spectral reflectance can be regarded as a unit matrix, so that (Equation 13) is obtained. In (Equation 13), + means the general inverse matrix of Moore Penrose.

【0090】なお、基底関数を画像入力装置のバンド数
を同じ3次まで用いることにすれば、PtCは対称行列とな
るから、一般逆行列は通常の逆行列と解釈することがで
きる。
If the basis function is used up to the same third order in the number of bands of the image input device, the general inverse matrix can be interpreted as a normal inverse matrix because P t C is a symmetric matrix.

【0091】[0091]

【数13】 (Equation 13)

【0092】(数8)と(数7)で用いる基底関数が同
じものであれば、(数13)は(数7)と等価になるこ
とに注意して欲しい。すなわち、カテゴリ毎の推定行列
(数8)、(数10)において、基底係数の相関行列を
単位行列とした場合が、(数7)の信号発生モデル解に
相当するのである。
It should be noted that if the basis functions used in (Equation 8) and (Equation 7) are the same, (Equation 13) is equivalent to (Equation 7). That is, in the estimation matrices (Equation 8) and (Equation 10) for each category, the case where the correlation matrix of the basis coefficients is a unit matrix corresponds to the signal generation model solution of (Equation 7).

【0093】次に、本発明の特徴となる画像認識部10
4の詳細な動作の説明を行う。
Next, the image recognition unit 10 which is a feature of the present invention is described.
4 will be described in detail.

【0094】画像認識部104は、入力画像102から
顔の位置を認識し、顔にあたる部分を1、それ以外を0
と画素値とした認識画像105を出力する。
The image recognizing section 104 recognizes the position of the face from the input image 102, and sets the portion corresponding to the face to 1 and the rest to 0.
And the recognition image 105 having the pixel value is output.

【0095】画像認識部104が顔の位置を認識する方
法には、例えば、テンプレートマッチングを用いた方法
がある。本認識方法の手順を図8を用いて説明する。
As a method for the image recognition unit 104 to recognize the position of the face, for example, there is a method using template matching. The procedure of this recognition method will be described with reference to FIG.

【0096】まず、手順801で、入力画像102のR,
G,B値の平均を取り、カラー画像を8ビットの白黒画像に
変換する。次に手順802で、白黒画像において、m×n
画素のブロック毎の平均値を画素値とした画像を作成す
る。これをブロック画像と呼ぶことにする。手順803
で、手順802で得られたブロック画像の左上から、予
め用意した複数の顔用のテンプレートとの相関を求め、
相関値の最も高い位置を求める。図9は顔用テンプレー
トの例である。手順804で、手順803において算出
した最大相関値を、予め決められた閾値と比較し、閾値
よりも大きければ、最大相関値を示した位置に顔がある
と判定する。手順805で、入力画像102において、
顔があると判定された位置の画素値RGBに近い画素値
で、かつ、顔があると判定された位置に隣接する画素を
人間の顔および肌の部分であると認識してマージし、そ
の画素値を1とし、それ以外の画素値を0とした画像を
認識画像105として出力する。
First, in step 801, R, R
The G and B values are averaged and the color image is converted to an 8-bit black and white image. Next, in step 802, m × n
An image is created with an average value of pixels for each block as a pixel value. This is called a block image. Step 803
Then, from the upper left of the block image obtained in step 802, a correlation with a plurality of face templates prepared in advance is obtained,
Find the position with the highest correlation value. FIG. 9 is an example of a face template. In step 804, the maximum correlation value calculated in step 803 is compared with a predetermined threshold value. If the maximum correlation value is larger than the threshold value, it is determined that a face is present at the position indicating the maximum correlation value. In step 805, in the input image 102,
Pixel values that are close to the pixel value RGB of the position determined to have a face and that are adjacent to the position determined to have a face are recognized as human faces and skin, and merged. An image having a pixel value of 1 and other pixel values of 0 is output as a recognition image 105.

【0097】あるいは、入力画像102が動画であれ
ば、フレーム間差分をとり、差分値の大きい位置に人間
がいると判断し、人間がいると判断した位置の画素値RG
Bに近い画素値で、かつ、人間がいると判定された位置
に隣接する画素を人間の顔および肌の部分であると認識
して、その画素値を1とし、それ以外の画素値を0とし
た画像を認識画像105としてもよい。
Alternatively, if the input image 102 is a moving image, an inter-frame difference is obtained, it is determined that there is a human at a position where the difference value is large, and the pixel value RG at the position where it is determined that there is a human.
A pixel having a pixel value close to B and adjacent to the position where it is determined that a human is present is recognized as a human face and skin, and its pixel value is set to 1, and the other pixel values are set to 0. The image described as above may be used as the recognition image 105.

【0098】以上で図1の画像処理装置の各部の動作の
説明を全て終える。
The description of the operation of each part of the image processing apparatus of FIG. 1 has been completed.

【0099】本画像処理装置による処理の効果を説明す
る。
The effects of the processing by the image processing apparatus will be described.

【0100】例えば、図2に示した入力画像の例では、
背景のオブジェはベージュであり、人間の肌色に近い色
を持つため、画像入力装置からの画像信号はほぼ同一で
ある。しかし、人間の肌はヘモグロビンによる吸収のた
め500nmの付近で反射率が若干落ち込むような分光反射
率を持ち、一方、オブジェは人工物であるため、そのよ
うな落ち込みがないというように、これら2つの物体
は、本来は異なる分光反射率を持っている。
For example, in the example of the input image shown in FIG.
Since the background object is beige and has a color close to human skin color, the image signal from the image input device is almost the same. However, human skin has a spectral reflectance such that the reflectance slightly drops at around 500 nm due to absorption by hemoglobin, while the object is an artificial object, and there is no such reduction. The two objects originally have different spectral reflectances.

【0101】従来の画像処理装置によれば、これら2つ
の物体は、本来は異なる分光反射率を持っているにもか
かわらず、画像入力装置が同一の画像信号値を出してい
れば、2つの物体の見分けはもはやつかないため、同じ
分光反射率を推定してしまう。
According to the conventional image processing apparatus, these two objects have different spectral reflectances, but if the image input device outputs the same image signal value, the two objects have two different spectral reflectances. Since the object can no longer be distinguished, the same spectral reflectance is estimated.

【0102】それに対し、本発明の画像処理装置によれ
ば、図3に示すように認識画像において、2つの物体は
異なると認識されているため、皮膚については(数8)
および(数10)で表される推定方法が適用され、オブ
ジェについては(数7)で表される推定方法が適用され
るというように、認識された物体によって異なる推定方
法が適用されることになり、双方の分光反射率を正確に
再現することができる。
On the other hand, according to the image processing apparatus of the present invention, as shown in FIG. 3, in the recognition image, the two objects are recognized as being different from each other.
And the estimation method represented by (Equation 10) is applied, and the estimation method represented by (Equation 7) is applied to an object. That is, both spectral reflectances can be accurately reproduced.

【0103】図1の画像処理装置の第1の応用例を図1
0に示す。図10において、1001は画像入力装置1
01、1002は画像処理装置118、1003はディ
スプレイ、1004はプリンタである。画像入力装置1
001で被写体の画像が入力され、画像処理装置100
2内の処理により分光反射率画像119が出力される。
分光反射率画像119はディスプレイ1003あるいは
プリンタ1004に渡され、各装置の信号に変換されて
からディスプレイ1003上に表示されたり、あるい
は、プリンタ1004から出力される。分光反射率画像
119から各装置への信号の変換は、ディスプレイ10
02あるいはプリンタ1003の内部のCPUで行って
もよいし、あるいは、別途のパーソナルコンピュータな
どの演算処理装置で行ってからディスプレイ1002あ
るいはプリンタ1003に渡してもよい。また、画像処
理装置1002の処理をすべて、画像入力装置1001
内部のCPUで行ってもよい。
FIG. 1 shows a first application example of the image processing apparatus of FIG.
0 is shown. 10, reference numeral 1001 denotes an image input device 1
Reference numerals 01 and 1002 denote image processing devices 118 and 1003, a display, and 1004, a printer. Image input device 1
In step 001, an image of a subject is input, and the image processing apparatus 100
2, the spectral reflectance image 119 is output.
The spectral reflectance image 119 is passed to a display 1003 or a printer 1004, converted into a signal of each device, displayed on the display 1003, or output from the printer 1004. The conversion of the signal from the spectral reflectance image 119 to each device is performed on the display 10.
02 or the CPU inside the printer 1003, or may be performed by an arithmetic processing device such as a separate personal computer and then transferred to the display 1002 or the printer 1003. In addition, all processing of the image processing apparatus 1002 is performed by the image input apparatus 1001.
It may be performed by the internal CPU.

【0104】このような図10の画像入出力装置では、
入力された画像を一度、装置あるいは装置および照明に
依存しない色データに変換してから、各出力装置の信号
に変換することで、被写体の本当の色をディスプレイや
プリンタに出力することができるようになる。特に、肌
の色のように、画像を観察するときに注目されやすい重
要な色はより精度高く再現することができる。
In such an image input / output device of FIG. 10,
Once the input image is converted into color data that does not depend on the device or the device and illumination, and then converted into signals from each output device, the true color of the subject can be output to a display or printer. become. In particular, important colors that are easily noticed when observing an image, such as skin colors, can be reproduced with higher accuracy.

【0105】また、図11は、図1の画像処理装置の第
2の応用例である遠隔医療用画像処理装置である。11
01は画像入力装置、1102は本発明の画像処理装
置、l103はディスプレイ、1104は医師、110
5は患者である。医師1104はディスプレイ1103
と共に、患者1105とは離れた遠隔地に存在する。
FIG. 11 shows a remote medical image processing apparatus which is a second application example of the image processing apparatus shown in FIG. 11
01 is an image input device, 1102 is an image processing device of the present invention, 1103 is a display, 1104 is a doctor, 110
5 is a patient. The doctor 1104 has a display 1103
At the same time, it exists in a remote place away from the patient 1105.

【0106】患者1105の画像を画像入力装置110
1で撮影し、その入力画像を画像処理装置1102で分
光反射率画像に変換してから、伝送し、その後、ディス
プレイ1103の色特性を用いて、ディスプレイ用の信
号に変換し、表示する。あるいは、入力画像を伝送して
から、医師1104の側で、画像処理装置1102によ
り分光反射率画像に変換してもよい。
An image of the patient 1105 is input to the image input device 110.
1, the input image is converted into a spectral reflectance image by the image processing device 1102, transmitted, and then converted into a signal for display using the color characteristics of the display 1103 and displayed. Alternatively, after transmitting the input image, the doctor 1104 may convert the image into a spectral reflectance image by the image processing device 1102.

【0107】医療用では、人間の肌の正確な色を知る必
要がある。そのため、本画像処理装置によって肌の正確
な分光反射率画像を取得し、患者の肌の正確な色を再現
することで、患者の顔色や、皮膚病、その他患部の病状
に関する誤診断、誤判断を軽減することができる。
For medical use, it is necessary to know the exact color of human skin. For this reason, the image processing device acquires an accurate spectral reflectance image of the skin and reproduces the exact color of the patient's skin, thereby erroneously diagnosing and erroneously determining the patient's complexion, skin disease, and other medical conditions of the affected part. Can be reduced.

【0108】なお、本実施の形態では、RGB3バンドの
画像入力部について説明を行っているが、フィルタをRG
Bだけでなく、より数多く増やした場合にも本手法を同
様に適用することができる。また、画像入力部はデジタ
ルカメラだけでなく、スキャナや、アナログ出力をデジ
タイズしたデータとしてもよいし、更に動画の各画像に
本処理を適用してもよい。
Although the present embodiment has been described with reference to an image input unit for three RGB bands, the filter is set to RG.
The present method can be similarly applied to not only B but also to a larger number. Further, the image input unit may be not only a digital camera but also a scanner or data obtained by digitizing an analog output, or the present process may be applied to each image of a moving image.

【0109】また、本発明は、図1における画像処理装
置の動作をCD−ROMに記憶し、CD−ROMに記憶
してあるプログラムをPC上のRAMにダウンロード
し、PC上のCPUに色推定手段の処理を行わせるものであ
る。または、画像入力装置内のROMに記憶しておき、画
像入力装置内のCPUに前記手段の処理を行わせるもので
ある。この場合には、画像入力装置から出力される画像
データは、入力装置に固有の色空間表示ではなく、装置
あるいは装置及び照明に依存しない色空間の画像データ
となるため、従来のようにコンピュータ上に色推定手段
をインストールする手間が省けるため、コンピュータや
色変換に詳しくない一般ユーザーにも簡易に扱うことが
できるという利点を持つ。ただし、入力装置のRGB画像
データの取得も、モードを変えることでできるようにし
ておくと、従来装置との整合性もとれて良い。
Further, according to the present invention, the operation of the image processing apparatus in FIG. 1 is stored in a CD-ROM, a program stored in the CD-ROM is downloaded to a RAM on a PC, and color estimation is performed on a CPU on the PC. The processing of the means is performed. Alternatively, it is stored in a ROM in the image input device, and causes the CPU in the image input device to perform the processing of the means. In this case, the image data output from the image input device is not a color space display specific to the input device, but is image data in a color space independent of the device or the device and the illumination. Since it is not necessary to install the color estimation means in the computer, it has an advantage that it can be easily handled by general users who are not familiar with computers and color conversion. However, if the RGB image data of the input device can be obtained by changing the mode, consistency with the conventional device may be obtained.

【0110】以上のように、本実施の形態によれば、画
像入力装置から入力される画像から特定の物体を認識
し、認識結果に基づいて推定手段を選択して入力された
画像データの各画素から装置あるいは装置および照明に
依存しない色データを推定することで、入力画像のバン
ド数が少なくても高精度に装置あるいは装置および照明
に依存しない色データを推定することができる。
As described above, according to the present embodiment, a specific object is recognized from an image input from an image input device, and an estimating unit is selected based on the recognition result, and each of the input image data is recognized. By estimating the color data that does not depend on the device or the device and the illumination from the pixels, the color data that does not depend on the device or the device and the illumination can be estimated with high accuracy even if the number of bands of the input image is small.

【0111】[0111]

【発明の効果】以上のように本発明によれば、画像入力
装置から入力されたカラー画像データを高精度に装置あ
るいは装置および照明に依存しない色空間に高精度に変
換する画像処理装置を提供することができる。
As described above, according to the present invention, there is provided an image processing apparatus for converting color image data input from an image input apparatus into a color space which does not depend on the apparatus or the apparatus and the illumination with high accuracy. can do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1にかかる画像処理装置の
ブロック図
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention;

【図2】実施の形態1にかかる入力画像102の例を示
す図
FIG. 2 is a diagram showing an example of an input image 102 according to the first embodiment;

【図3】実施の形態1にかかる認識画像105の例を示
す図
FIG. 3 is a diagram showing an example of a recognition image 105 according to the first embodiment;

【図4】実施の形態1にかかる非線形除去ニューラルネ
ットワークの学習手順を示す図
FIG. 4 is a diagram showing a learning procedure of the nonlinear elimination neural network according to the first embodiment;

【図5】実施の形態1にかかる信号発生モデルの説明図FIG. 5 is an explanatory diagram of a signal generation model according to the first embodiment;

【図6】実施の形態1にかかる特定物体用の推定行列作
成手順を示す図
FIG. 6 is a diagram showing a procedure for creating an estimation matrix for a specific object according to the first embodiment;

【図7】特定物体の画像データと測色値の取得の説明図FIG. 7 is an explanatory diagram of acquisition of image data and a colorimetric value of a specific object.

【図8】実施の形態1にかかる画像認識部の動作手順を
示す図
FIG. 8 is a diagram illustrating an operation procedure of the image recognition unit according to the first embodiment;

【図9】実施の形態1にかかる顔用テンプレートの例を
示す図
FIG. 9 is a diagram showing an example of a face template according to the first embodiment;

【図10】実施の形態1にかかる画像処理装置の第1の
応用例の画像入出力装置の構成図
FIG. 10 is a configuration diagram of an image input / output device of a first application example of the image processing device according to the first embodiment;

【図11】実施の形態1にかかる画像処理装置の第2の
応用例の医療用画像処理装置の構成図
FIG. 11 is a configuration diagram of a medical image processing apparatus according to a second application example of the image processing apparatus according to the first embodiment;

【図12】従来例にかかる画像処理装置のブロック図FIG. 12 is a block diagram of an image processing apparatus according to a conventional example.

【符号の説明】[Explanation of symbols]

101 画像入力装置 102 入力画像 103 画像処理装置 104 画像認識部 105 認識画像 106 認識画像記憶部 107 注目認識信号 108 処理選択部 109 処理選択信号 110 パラメータ記憶部 111 推定パラメータ 112 入力画像記憶部 113 注目画像データ 114 非線形除去部 115 スカラーRGB画像データ 116 分光反射率推定部 117 分光反射率データ 118 画像記録部 119 分光反射率画像 120 制御信号 121 全体制御部 Reference Signs List 101 Image input device 102 Input image 103 Image processing device 104 Image recognition unit 105 Recognition image 106 Recognition image storage unit 107 Attention recognition signal 108 Processing selection unit 109 Processing selection signal 110 Parameter storage unit 111 Estimation parameter 112 Input image storage unit 113 Attention image Data 114 Nonlinear removal unit 115 Scalar RGB image data 116 Spectral reflectance estimating unit 117 Spectral reflectance data 118 Image recording unit 119 Spectral reflectance image 120 Control signal 121 Overall control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 9/64 H04N 1/46 Z Fターム(参考) 5B057 CA01 CA08 CA12 CB01 CB08 CB12 CE18 DA11 DC09 5C066 AA11 CA27 DD01 EE01 GA01 KD06 KE01 KE04 KM02 5C077 MM27 MP08 PP31 PP32 PP36 PP55 PP65 PP71 PQ08 PQ12 PQ15 PQ22 SS01 TT09 5C079 HB01 HB05 HB08 HB09 HB11 LA01 LA31 LB02 MA13 NA03 NA29 5L096 AA02 FA32 FA34 HA02 JA11──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 9/64 H04N 1/46 Z F-term (Reference) 5B057 CA01 CA08 CA12 CB01 CB08 CB12 CE18 DA11 DC09 5C066 AA11 CA27 DD01 EE01 GA01 KD06 KE01 KE04 KM02 5C077 MM27 MP08 PP31 PP32 PP36 PP55 PP65 PP71 PQ08 PQ12 PQ15 PQ22 SS01 TT09 5C079 HB01 HB05 HB08 HB09 HB11 LA01 LA31 LB02 MA13 NA03 NA29 5L096 AA02 FA

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像から所望の物体を認識す
る物体認識手段と、前記物体認識手段の認識結果に応じ
て異なる色変換処理を選択する色変換処理選択手段と、
前記色変換処理選択手段によって選択された色変換処理
により前記入力画像の注目画素の色を変換する色変換処
理手段とを具備することを特徴とする画像処理装置。
An object recognizing means for recognizing a desired object from an input image, a color conversion processing selecting means for selecting a different color conversion processing according to a recognition result of the object recognizing means,
An image processing apparatus comprising: a color conversion processing unit configured to convert a color of a pixel of interest of the input image by a color conversion process selected by the color conversion process selection unit.
【請求項2】 前記色変換処理は、入力された画像を装
置あるいは装置および照明に依存しない色データに変換
する処理であることを特徴とする請求項1記載の画像処
理装置。
2. The image processing device according to claim 1, wherein the color conversion process is a process of converting an input image into color data that does not depend on a device or a device and illumination.
【請求項3】 前記色変換処理選択手段は、前記物体認
識手段で認識された物体に属する画素は、前記物体の統
計的性質を用いて、色変換処理を選択することを特徴と
する請求項1または2記載の画像処理装置。
3. The color conversion processing selecting unit selects a color conversion process for a pixel belonging to an object recognized by the object recognition unit by using a statistical property of the object. 3. The image processing device according to 1 or 2.
【請求項4】 前記色変換処理選択手段は、前記物体認
識手段で認識された物体に属する画素は、重回帰分析に
より色変換処理を選択することを特徴とする請求項1ま
たは2記載の画像処理装置。
4. The image according to claim 1, wherein said color conversion processing selection means selects color conversion processing for pixels belonging to the object recognized by said object recognition means by multiple regression analysis. Processing equipment.
【請求項5】 前記物体認識手段は、予め既知とする物
体の形状情報を用いて、前記入力画像から物体を認識す
ることを特徴とする請求項1から4のいずれかに記載の
画像処理装置。
5. The image processing apparatus according to claim 1, wherein the object recognition unit recognizes the object from the input image using shape information of the object that is known in advance. .
【請求項6】 前記物体認識手段は、入力画像が動画の
場合、予め既知とする物体の動き情報を用いて、前記入
力画像から物体を認識することを特徴とする請求項1か
ら4のいずれかに記載の画像処理装置。
6. The apparatus according to claim 1, wherein the object recognizing means recognizes the object from the input image using motion information of the object which is known in advance when the input image is a moving image. An image processing device according to any one of the above.
JP2000268268A 2000-09-05 2000-09-05 Image processor Pending JP2002077660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000268268A JP2002077660A (en) 2000-09-05 2000-09-05 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000268268A JP2002077660A (en) 2000-09-05 2000-09-05 Image processor

Publications (1)

Publication Number Publication Date
JP2002077660A true JP2002077660A (en) 2002-03-15

Family

ID=18755070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000268268A Pending JP2002077660A (en) 2000-09-05 2000-09-05 Image processor

Country Status (1)

Country Link
JP (1) JP2002077660A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352910B2 (en) 2004-06-09 2008-04-01 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing apparatus, and image enlarging method
JP2009129362A (en) * 2007-11-27 2009-06-11 Canon Inc Color processing equipment and color processing method
JP2009147632A (en) * 2007-12-13 2009-07-02 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
JP2016090576A (en) * 2014-10-29 2016-05-23 パナソニックIpマネジメント株式会社 Imaging apparatus, spectroscopy system, and spectroscopy method
JP2020509455A (en) * 2017-02-28 2020-03-26 ヴェリリー ライフ サイエンシズ エルエルシー System and method for multi-class classification of images using a programmable light source

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352910B2 (en) 2004-06-09 2008-04-01 Matsushita Electric Industrial Co., Ltd. Image processing method, image processing apparatus, and image enlarging method
JPWO2005122089A1 (en) * 2004-06-09 2008-04-10 松下電器産業株式会社 Image processing method, image processing apparatus, and image enlargement method
JP2009129362A (en) * 2007-11-27 2009-06-11 Canon Inc Color processing equipment and color processing method
JP2009147632A (en) * 2007-12-13 2009-07-02 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
US8189234B2 (en) 2007-12-13 2012-05-29 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program
JP2016090576A (en) * 2014-10-29 2016-05-23 パナソニックIpマネジメント株式会社 Imaging apparatus, spectroscopy system, and spectroscopy method
US9880053B2 (en) 2014-10-29 2018-01-30 Panasonic Intellectual Property Management Co., Ltd. Image pickup apparatus, spectroscopic system, and spectroscopic method
JP2020509455A (en) * 2017-02-28 2020-03-26 ヴェリリー ライフ サイエンシズ エルエルシー System and method for multi-class classification of images using a programmable light source
US11229353B2 (en) 2017-02-28 2022-01-25 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
US11699102B2 (en) 2017-02-28 2023-07-11 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source

Similar Documents

Publication Publication Date Title
JP3767541B2 (en) Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method
US8855412B2 (en) Systems, methods, and apparatus for image processing, for color classification, and for skin color detection
JP4212165B2 (en) Color reproduction system
US6888963B2 (en) Image processing apparatus and image processing method
JPH1196333A (en) Color image processor
JP3736394B2 (en) Image compression device
JP2001258044A (en) Medical use image processing unit
JP4262359B2 (en) Color reproduction system
US7230642B2 (en) Apparatus and method for converting spectral data of an object in a photographing environment into spectral data in an observation environment
JP2001119587A (en) Method for compressing multi-spectral image and image compressor
US7782367B2 (en) Direct calibration of color imaging devices
JP4715288B2 (en) Spectral reflectance candidate calculation method, color conversion method, spectral reflectance candidate calculation device, color conversion device, spectral reflectance candidate calculation program, color conversion program
JP2008206163A (en) Color image processor
JP2002262305A5 (en)
JP2002077660A (en) Image processor
JP3257189B2 (en) Image processing device
JP2001311666A (en) Colorimetric conversion coefficient calculating method and colorimetric image converting method, colorimetric conversion coefficient computing device and colorimetric image converting device, and computer-readable information recording medium with colorimetric conversion coefficient computing program or colorimetric image pickup program recorded thereon
JP4529210B2 (en) Colorimetric conversion coefficient calculation method and colorimetric image conversion method, colorimetric conversion coefficient calculation apparatus and colorimetric image conversion apparatus, and computer-readable information recording a colorimetric conversion coefficient calculation program or colorimetric imaging program recoding media
JP4378810B2 (en) Colorimetric conversion coefficient calculation method, colorimetric imaging method, colorimetric conversion coefficient calculation device, colorimetric imaging device, and computer-readable information recording medium recording a colorimetric conversion program
JP2002131133A (en) Method for specifying color of image, method for extracting color of image, and image processor
JP2002027264A (en) Image processing method and image processor
JP2002033933A (en) Apparatus and method for image processing
JPH11261740A (en) Picture evaluating method, its device and recording medium
Munzenmayer et al. A spectral color correction framework for medical applications
JP2002204364A (en) Image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050405

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050906