JP4349568B2 - Object recognition apparatus, object recognition method, program, and recording medium - Google Patents

Object recognition apparatus, object recognition method, program, and recording medium Download PDF

Info

Publication number
JP4349568B2
JP4349568B2 JP2003387151A JP2003387151A JP4349568B2 JP 4349568 B2 JP4349568 B2 JP 4349568B2 JP 2003387151 A JP2003387151 A JP 2003387151A JP 2003387151 A JP2003387151 A JP 2003387151A JP 4349568 B2 JP4349568 B2 JP 4349568B2
Authority
JP
Japan
Prior art keywords
image
specular reflection
illumination light
object recognition
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003387151A
Other languages
Japanese (ja)
Other versions
JP2005070026A (en
Inventor
勝 土田
隆仁 川西
茂 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003387151A priority Critical patent/JP4349568B2/en
Publication of JP2005070026A publication Critical patent/JP2005070026A/en
Application granted granted Critical
Publication of JP4349568B2 publication Critical patent/JP4349568B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体表面に鏡面反射や光沢が観察される状況において、静止画像、もしくは連続して入力される動画像中の鏡面反射成分を除去し、その結果を用いて物体を認識する物体認識装置および方法、そのプログラム並びに記録媒体に関する。   The present invention eliminates the specular reflection component in a still image or continuously input moving image in a situation where specular reflection or gloss is observed on the object surface, and recognizes the object using the result. The present invention relates to an apparatus and method, a program thereof, and a recording medium.

画像を用いた物体認識技術では、被写体表面に鏡面反射や光沢が観察される場合には、その影響により認識精度が低下する。この問題を解決するために、一般には、鏡面反射成分を含まない領域のみによる処理や、入力画像から鏡面反射成分を分離して得られた拡散反射成分の画像を用いた処理が行われている。   In the object recognition technique using an image, when specular reflection or gloss is observed on the surface of a subject, the recognition accuracy is lowered due to the influence. In order to solve this problem, in general, processing using only an area that does not include a specular reflection component or processing using an image of a diffuse reflection component obtained by separating the specular reflection component from an input image is performed. .

しかし、鏡面反射成分を含まない領域のみを用いた処理では、鏡面反射を含むか否かの判別を行う必要があり、複雑な処理を必要とする。また、被写体を特徴付けるテクスチヤが鏡面反射により隠蔽されている場合には、認識精度が著しく低下する。   However, in the process using only the region not including the specular reflection component, it is necessary to determine whether or not the specular reflection is included, and a complicated process is required. In addition, when the texture characterizing the subject is concealed by specular reflection, the recognition accuracy is significantly reduced.

一方、鏡面反射成分と拡散反射成分との分離を行い、拡散反射成分の画像を用いた処理では、照明光源および画像撮影装置の入力部において光の偏光を制御することで鏡面反射成分を除去し、拡散反射成分のみの画像を得ることができる(例えば、非特許文献1参照)。また、異なる方向から被写体に照明を当てて撮影した画像から、被写体の鏡面反射成分と拡散反射成分とを分離することができる(例えば、非特許文献2参照)。しかし、非特許文献1および非特許文献2に記載の技術では、1枚の拡散反射成分の画像を得るためには撮影条件を変えて撮影した複数枚の入力画像を必要とするため、動く物体を被写体とする場合や、動画像を入力画像とする場合には適さない。さらに、特殊な撮影装置を要するため、この技術を使用できる状況も制限されている。   On the other hand, the specular reflection component and the diffuse reflection component are separated, and in the processing using the diffuse reflection component image, the specular reflection component is removed by controlling the polarization of light in the illumination light source and the input unit of the image capturing apparatus. Thus, an image having only a diffuse reflection component can be obtained (see, for example, Non-Patent Document 1). In addition, the specular reflection component and the diffuse reflection component of the subject can be separated from an image taken by illuminating the subject from different directions (see, for example, Non-Patent Document 2). However, in the techniques described in Non-Patent Document 1 and Non-Patent Document 2, in order to obtain a single diffuse reflection component image, a plurality of input images taken under different shooting conditions are required. Is not suitable for a case where a subject is a subject or a moving image is an input image. Furthermore, since a special photographing apparatus is required, the situation in which this technology can be used is also limited.

また、被写体を多方向から撮影した複数の画像からは、画像での対応点追跡を行い、その結果を用いて鏡面反射成分と拡散反射成分を分離することができる(例えば、特許文献1参照)。しかし、特許文献1に記載の技術では、照明光源が複数存在する場合には鏡面反射成分や光沢の影響により対応点追跡の精度が低下し、その結果、鏡面反射成分と拡散反射成分との分離精度が低下する。   Further, from a plurality of images obtained by photographing a subject from multiple directions, corresponding points can be tracked in the image, and the specular reflection component and the diffuse reflection component can be separated using the result (see, for example, Patent Document 1). . However, in the technique described in Patent Document 1, when there are a plurality of illumination light sources, the accuracy of tracking corresponding points is lowered due to the influence of the specular reflection component and gloss, and as a result, the specular reflection component and the diffuse reflection component are separated. Accuracy is reduced.

また、被写体の分光反射率を推定することにより、撮影時とは異なる照明環境(照明光スペクトルが異なる場合)でも、同じ照明下で観察した際の色を再現することができる。現在、この技術を医療分野や電子美術館(デジタルアーカイブ)、電子商取引(オンラインショッピング等)に応用した高色再画像システムの開発が進められている。しかし、主に目視による識別が主目的で、データベース等に蓄積された画像と入力画像で画像同士での照合を行う、画像認識、探索、検索は行われていない。その理由としては、鏡面反射が観測される(画像が含まれる)場合には、その影響により色再現が困難であること、また本来観察されるべき被写体表面のテクスチャが鏡面反射により隠蔽されていることがあげられる。   Further, by estimating the spectral reflectance of the subject, it is possible to reproduce the color observed under the same illumination even in an illumination environment different from that at the time of photographing (when the illumination light spectrum is different). Currently, development of a high-color re-image system in which this technology is applied to the medical field, an electronic museum (digital archive), and electronic commerce (online shopping, etc.) is in progress. However, image recognition, search, and search are not performed in which the primary purpose is mainly visual identification, and the images stored in the database or the like and the input images are compared with each other. The reason for this is that when specular reflection is observed (including an image), color reproduction is difficult due to the effect, and the texture of the subject surface to be originally observed is hidden by specular reflection. Can be mentioned.

小島伸俊、他2名、「化粧肌の質感推定(II)(肌の凹凸情報の定量化)」、日本写真学会誌、56(4)、1993、pp.264〜269Nobutoshi Kojima, 2 others, “Estimation of Makeup Skin Texture (II) (Quantification of skin irregularities information)”, Journal of the Japan Photography Society, 56 (4), 1993, pp. 264-269 YoichiSato、他2名、「Temporal-color space analysis of reflection」,Journal of OpticalSociety of America,A/vol.11,November,1994,pp.2990〜3002YoichiSato and two others, “Temporal-color space analysis of reflection”, Journal of Optical Society of America, A / vol. 11, November, 1994, pp. 2990-3002. 特開2003−85531号広報JP 2003-85531 A

本発明は、上記従来技術の問題点を解決すべくなされたもので、照明光成分を用いて鏡面反射成分を含まない画像(鏡面反射除去画像)を生成し、得られた鏡面反射除去画像を用いて、照明条件(光源の数や種類、配置)の変化に対し、物体認識処理を安定に行うことができる物体認識装置及び方法、そのプログラム並びに記録媒体を提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art. An illumination light component is used to generate an image (specular reflection removal image) that does not include a specular reflection component, and the obtained specular reflection removal image is obtained. It is an object of the present invention to provide an object recognition apparatus and method, a program thereof, and a recording medium that can stably perform object recognition processing with respect to changes in illumination conditions (the number, type, and arrangement of light sources).

また、本発明は、入力画像と照合画像とで撮影時の照明の種類(分光スペクトル)が異なる場合でも、画素値毎の単純な比較による照合が可能である物体認識装置及び方法、そのプログラム並びに記録媒体を提供することを目的とする。   Further, the present invention provides an object recognition apparatus and method, a program thereof, and an object recognition device capable of collation by simple comparison for each pixel value even when the type of illumination (spectral spectrum) at the time of shooting is different between the input image and the collation image An object is to provide a recording medium.

本発明は、物体の撮影時に用いる照明光源の照明光成分を取得する手段と、撮影装置により撮影された対象物の画像である入力画像と対象物の表面からの反射光の分光放射輝度とを取り込む手段と、予め撮影されている対象物の画像である蓄積画像と、該蓄積画像の撮影時の照明光成分とを、少なくとも蓄積する手段と、取得した照明光成分を用いて入力画像から鏡面反射成分を含まない鏡面反射除去画像を生成する手段を備える。 The present invention includes means for acquiring an illumination light component of an illumination light source used for photographing an object , an input image that is an image of the object photographed by the photographing apparatus, and a spectral radiance of reflected light from the surface of the object. Means for capturing, at least means for accumulating an accumulated image that is an image of an object that has been captured in advance, and an illumination light component at the time of capturing the accumulated image, and a mirror surface from the input image using the acquired illumination light component Means for generating a specular reflection removal image that does not include a reflection component.

また、本発明は、鏡面反射除去画像と蓄積手段に蓄積された蓄積画像とを照合する手段を更に備える。また、入力画像と当該入力画像の鏡面反射除去画像、または、入力画像と当該入力画像の鏡面反射除去画像および蓄積画像と当該蓄積画像の鏡面反射除去画像とを表示する手段を備える。
Further, the present invention further comprises means for collating the stored images stored in the storage means and the specular reflection removed image. In addition, the image processing apparatus includes means for displaying an input image and a specular reflection removal image of the input image, or an input image, a specular reflection removal image and an accumulation image of the input image, and a specular reflection removal image of the accumulation image.

鏡面反射除去画像の生成は、入力画像の分光放射輝度を照明光成分で割って総合反射率画像を得(照明光を用いて物体表面の各画素における見かけの反射率を算出)、この総合反射率画像の各画素の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することで行うThe specular reflection removal image is generated by dividing the spectral radiance of the input image by the illumination light component to obtain the total reflectance image (calculating the apparent reflectance at each pixel on the object surface using the illumination light), and this total reflection a signal value of each pixel rate image, vector U (λ) = [1,1, ..., 1] (λ is wavelength) performed by projecting the hyperplane to the normal line.

なお、照明光成分の計測装置、および画像の取り込みに用いる撮影装置に関しては、予め当該機器の入力及び出力特性を計測しておく。   Note that the input and output characteristics of the device are measured in advance with respect to the illumination light component measurement device and the imaging device used for image capture.

まず、照明光源等の照明光成分の取得について説明する。一般には白色板からの拡散光を照明光成分とし、その計測には分光輝度計、色彩輝度計、もしくは3バンド以上の画像撮影が可能なデジタルカメラが用いられる。一般的に3バンドとは「赤、緑、青」の三原色を指す。ここで照明光成分とは、照明光の分光スペクトル、光原色、もしくは撮影装置により撮影された白色板の画像の信号値とする。デジタルカメラを使用する場合、一般に入力された光の強度と、出力される信号値は、比例関係にない。そこで、あらかじめデジタルカメラの特性を計測しておき、その結果を参照して信号値を明るさで規格化する。計測時には、1種類の照明光源だけ点灯させ、他の照明は消灯した状態で行う。これをすべての照明光源に対して行い、複数の照明光成分を得る。オフィス環境など、使用されている光源が有限種類に限定できる場合には、照明光源としてそれらすべてを仮定し、予め計測しておいたデータを用いてもよい。また、照明光としては太陽光等の自然光を用いることも可能である。ただし、自然光と複数の人工的な照明光とを組み合わせて照明光群として使用する場合は、人工的な照明光のみが被写体(対象物)を照らすことを可能にするような構成が必要になる。その構成としては、例えば、被写体と人工的な照明光との組み合わせを自然光から遮断するような覆いを用いる。   First, acquisition of illumination light components such as illumination light sources will be described. In general, diffused light from a white plate is used as an illumination light component, and a spectral luminance meter, a color luminance meter, or a digital camera capable of taking an image of three or more bands is used for the measurement. Generally, the three bands refer to the three primary colors “red, green, and blue”. Here, the illumination light component is a spectral value of illumination light, a light primary color, or a signal value of an image of a white plate photographed by a photographing apparatus. When a digital camera is used, the intensity of input light and the output signal value are not generally proportional. Therefore, the characteristics of the digital camera are measured in advance, and the signal value is normalized by brightness with reference to the result. At the time of measurement, only one type of illumination light source is turned on, and the other illuminations are turned off. This is performed for all illumination light sources to obtain a plurality of illumination light components. When the light sources used can be limited to a finite type, such as in an office environment, all of them may be assumed as illumination light sources and data measured in advance may be used. Further, natural light such as sunlight can be used as illumination light. However, when natural light and a plurality of artificial illumination lights are used in combination as an illumination light group, a configuration is required that enables only artificial illumination light to illuminate the subject (object). . As the configuration, for example, a cover that blocks the combination of the subject and artificial illumination light from natural light is used.

次に、被写体の画像取込みについて説明する。撮影装置としては、例えば、3バンド以上の画像撮影が可能なデジタルカメラを用いる。撮影装置からの出力信号値は、照明情報取得時と同じく、あらかじめ計測しておいた機器特性を基に明るさでの規格化を行う。画像中の光沢や鏡面反射が明るすぎて撮影装置のダイナミックレンジを超えてしまい画像情報が欠損する場合には、露光時間や絞り値を適切な値に調節するか、露光時間を変えて取得した複数のダイナミックレンジが広い1枚の画像を合成する。また用途にあわせ、得られた信号値から、撮影装置に入力された光の分光スペクトルもしくは色度値を推定する。   Next, image capturing of a subject will be described. As the photographing device, for example, a digital camera capable of photographing images of three bands or more is used. The output signal value from the imaging device is normalized by brightness based on the device characteristics measured in advance, as in the case of obtaining illumination information. If the image information is lost because the glossiness or specular reflection in the image is too bright and exceeds the dynamic range of the imaging device, the exposure time and aperture value are adjusted to appropriate values or acquired by changing the exposure time. A single image with a wide dynamic range is synthesized. Further, the spectral spectrum or chromaticity value of the light input to the photographing apparatus is estimated from the obtained signal value according to the application.

次に、照明光成分を用いて入力画像から鏡面反射成分を含まない鏡面反射除去画像を得る原理について説明する。ここでは、分光スペクトルを入力とする場合について述べる。   Next, the principle of obtaining a specular reflection-removed image that does not include a specular reflection component from the input image using the illumination light component will be described. Here, a case where a spectral spectrum is input will be described.

初めに、入力画像の各画素の信号値を照明光成分に直交する空間に投影することで、鏡面反射除去画像が得られる原理を、図13にもとづき説明する。
対象とする被写体は、非金属で2色正反射が仮定できる有彩色の拡散物体とする。簡単のため、1つの点光源で被写体を照明する場合について考える。ある方向が被写体を観察した際に観察される、物体表面の1点からの反射光の分光放射輝度(反射光スペクトル)I(λ)は、標準2色性反射モデルが仮定できる場合、(1)式のように、拡散反射成分(第1項)と鏡面反射成分(第2項)の線形和で表わされる。

Figure 0004349568
λは波長、kは鏡面反射成分の強度を表わす係数、E(λ)は照明光の分光分布である。 First, the principle of obtaining a specular reflection-removed image by projecting the signal value of each pixel of the input image onto a space orthogonal to the illumination light component will be described with reference to FIG.
The target object is a non-metallic chromatic diffuse object that can assume two-color regular reflection. For simplicity, consider the case where a subject is illuminated with a single point light source. The spectral radiance (reflected light spectrum) I (λ) of reflected light from one point on the object surface observed when a subject is observed in a certain direction is (1) when the standard dichroic reflection model can be assumed. ) As a linear sum of a diffuse reflection component (first term) and a specular reflection component (second term).
Figure 0004349568
λ is a wavelength, k is a coefficient representing the intensity of a specular reflection component, and E (λ) is a spectral distribution of illumination light.

鏡面反射成分は照明光と同じ分光分布を持つ。I(λ)をE(λ)に直交する空間に投影して得られる成分をP(λ)とすると、

Figure 0004349568
と表わすことができる。αと(1)式を(2)式に代入すると、
Figure 0004349568
となり、P(λ)は、拡散反射成分I(λ)をE(λ)に直交する空間へ投影したものであることが分かる(図13)。したがって、P(λ)は鏡面反射成分の影響を含まないため、この成分に注目することで鏡面反射成分の変化に頑健な画像認識が可能となる。 The specular reflection component has the same spectral distribution as the illumination light. When a component obtained by projecting I (λ) onto a space orthogonal to E (λ) is P (λ),
Figure 0004349568
Can be expressed as Substituting α and equation (1) into equation (2),
Figure 0004349568
Thus, it can be seen that P (λ) is a projection of the diffuse reflection component I d (λ) onto a space orthogonal to E (λ) (FIG. 13). Therefore, since P (λ) does not include the influence of the specular reflection component, by paying attention to this component, it is possible to perform image recognition that is robust against changes in the specular reflection component.

次に、分光分布が異なるL個の照明光源で被写体を照明する場合を考える。i番目の照明光源の分光スペクトルをE(λ)とすると、観察される被写体表面のある1点からの反射光の分光放射輝度(反射光スペクトル)I(λ)は次式のように表わされる。

Figure 0004349568
D(λ)は各光源単独で被写体を照明した際に観察される拡散反射成分の和、kは各光源に対応する鏡面反射成分の強度を表わす係数である。 Next, consider a case where a subject is illuminated with L illumination light sources having different spectral distributions. Assuming that the spectral spectrum of the i-th illumination light source is E i (λ), the spectral radiance (reflected light spectrum) I (λ) of the reflected light from a certain point on the observed object surface is expressed by the following equation. It is.
Figure 0004349568
D (λ) is a sum of diffuse reflection components observed when the subject is illuminated by each light source alone, and k i is a coefficient representing the intensity of the specular reflection component corresponding to each light source.

ここで、各光源の分光スペクトルE(λ)(i=1,2,…,N)全てに直交する空間をG(λ
)とすると、反射光スペクトルI(λ)を空間G(λ)に投影して得られる成分P(λ)は次式のように表わされる。

Figure 0004349568
従って、全ての照明光源の分光スペクトルに直交する空間G(λ)を求め、I(λ)をG(λ)へ投影することにより、先の照明光源が1種類の時と同様の処理が可能である。 Here, a space orthogonal to all the spectral spectra E i (λ) (i = 1, 2,..., N) of each light source is represented by G (λ
), The component P (λ) obtained by projecting the reflected light spectrum I (λ) onto the space G (λ) is expressed by the following equation.
Figure 0004349568
Therefore, by calculating the space G (λ) orthogonal to the spectral spectrum of all illumination light sources and projecting I (λ) onto G (λ), the same processing as when one type of illumination light source is used is possible. It is.

なお、照明光スペクトルに直交する成分P(λ)は次のように求めることもできる。反射光スペクトルI(λ)のi番目の照明光源の分光スペクトルに直交する成分P(λ)を求め、さらにP(λ)を(i+1)番目の照明光源の分光スペクトルに直交する空間へ投影する。この処理をi=0,・・・,Lに関して繰り返すことで、用いたすべての照明光スペクトルに直交する成分P(λ)が次式のように求まる。

Figure 0004349568
Figure 0004349568
The component P (λ) orthogonal to the illumination light spectrum can also be obtained as follows. A component P i (λ) orthogonal to the spectral spectrum of the i-th illumination light source of the reflected light spectrum I (λ) is obtained, and P i (λ) is further converted to a space orthogonal to the spectral spectrum of the (i + 1) -th illumination light source. Project. By repeating this process for i = 0,..., L, a component P (λ) orthogonal to all the illumination light spectra used is obtained as follows.
Figure 0004349568
Figure 0004349568

ここで、上記式(5)あるいは式(6)、(7)の処理の違いは、計算機資源の使い方やプログラムに依存する。   Here, the difference in the processing of the above formula (5) or formulas (6) and (7) depends on the usage of the computer resources and the program.

オフィス環境など、使用されている光源が有限種類に限定できる場合には、照明光源としてそれら全てを仮定し、仮定した照明光源の分光スペクトルのすべてに直交する空間をG(λ)としてもよい。   When the light sources used can be limited to a finite type, such as in an office environment, all of them may be assumed as illumination light sources, and a space orthogonal to all of the assumed spectrum of the illumination light sources may be G (λ).

以上の原理は、線形な入出力特性をもつ撮影装置からの出力信号に対しても同様に成り立つ。まず、各光源を単独に点灯させた状態で標準白色板のマルチバンド画像(バンド数:N≧3、波長選択性の強いカラーフィルタを複数用いた場合の画像に相当する)を撮影し、i番目の光源下における画像の信号値を正規化したものW=[W(1),・・・,W(N)]を、照明分光の分光スペクトルE(λ)の代わりに用いる。次に被写体のマルチバンド画像を撮影する。なお、撮影装置は標準白色板の撮影時と同じものを使用する。分光スペクトルが異なるl個の照明光源で被写体を照明する場合を考える。画像上の1画素には被写体表面のある1点からの反射光が記録されると仮定すると、nバンド目の画像上のある1画素の画素値c(n)は次のように表される。

Figure 0004349568
The above principle holds true for an output signal from a photographing apparatus having linear input / output characteristics. First, a multiband image of a standard white plate (with a number of bands: N ≧ 3, corresponding to an image using a plurality of color filters with strong wavelength selectivity) is taken with each light source lit alone, and i W i = [W i (1),..., W i (N)] obtained by normalizing the signal value of the image under the second light source is used instead of the spectral spectrum E i (λ) of the illumination spectrum. . Next, a multiband image of the subject is taken. The same photographing device as that used for photographing a standard white plate is used. Consider a case where an object is illuminated with one illumination light source having different spectral spectra. Assuming that one pixel on the image records reflected light from one point on the surface of the subject, the pixel value c (n) of one pixel on the n-th band image is expressed as follows. .
Figure 0004349568

(n)はi番目の照明光源下で白色板の画素値を正規化したもの、D'(n)とk'(n)W(n)はi番目の照明光源のみで被写体を照明したときの拡散反射成分と鏡面成分、
k'(n)は鏡面反射成分の強度を表す係数である。全てのWに直交するベクトルG'=[G'(1),・・・,G'(N)]を求め、c=[c(1),・・・,c(N)]をG'へ投影することにより、鏡面反射成分を含まない成分P'=[P'(1),・・・,P'(N)]が得られる。

Figure 0004349568
W i (n) is a normalized pixel value of the white plate under the i-th illumination light source, and D ′ i (n) and k ′ i (n) W i (n) are only the i-th illumination light source. Diffuse reflection component and specular component when the subject is illuminated,
k ′ i (n) is a coefficient representing the intensity of the specular reflection component. All W i vectors orthogonal to G '= [G' (1 ), ···, G '(N)] sought, c = [c (1) , ···, c (N)] The G By projecting onto ', a component P ′ = [P ′ (1),..., P ′ (N)] that does not include a specular reflection component is obtained.
Figure 0004349568

以上の処理を画像中の全画素に対して行うことで、鏡面反射成分を含まない鏡面反射除去画像が得られる。なお、得られる画像は拡散成分の画像とは異なる。その画素値はG'に依存し、負の値にもなる。   By performing the above processing on all the pixels in the image, a specular reflection-removed image not including the specular reflection component is obtained. The obtained image is different from the image of the diffusion component. The pixel value depends on G ′ and becomes a negative value.

上記のように求められた照明光スペクトルに直交する成分P(λ)、もしくはP'を用いて認識処理を行うことにより、鏡面反射成分の影響を受けない、照明変化に対して頑健な物体認識が可能となる。   By performing recognition using the component P (λ) or P ′ that is orthogonal to the illumination light spectrum obtained as described above, object recognition that is not affected by specular reflection components and is robust against illumination changes Is possible.

さらに、得られた成分P(λ)、もしくはP’の各画素値を、そのパワーで正規化(例えば、P(λ)/|P(λ)|)して、照明条件に依存しない鏡面反射成分の除去された画像(照明不変画像)を生成し、この画像を用いて認識処理を行ってもよい。   Furthermore, each pixel value of the obtained component P (λ) or P ′ is normalized by its power (for example, P (λ) / | P (λ) |), and specular reflection independent of illumination conditions An image from which components are removed (illumination invariant image) may be generated, and recognition processing may be performed using this image.

次に、入力画像の分光放射輝度を照明光成分で割り、総合反射率画像を生成し(照明光スペクトルを用いて物体表面の各画素における見かけの反射率を算出)、総合反射率画像をベクトルU(λ)=[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る原理について説明する。ここでも、分光スペクトルを入力とする場合について述べる。 Next, the spectral radiance of the input image is divided by the illumination light component to generate an overall reflectance image (the apparent reflectance at each pixel on the object surface is calculated using the illumination light spectrum), and the overall reflectance image is vectorized The principle of obtaining a specular reflection-removed image by projecting onto a hyperplane having the normal line U (λ) = [1, 1,..., 1] will be described. Here, the case where a spectrum is input is described.

一つの点光源で被写体を照明する場合について考える。ある方向から被写体を観察した際に観測される、物体表面の1点xからの反射光の分光放射輝度(反射光スペクトル)I(x,λ)は、標準2色反射モデルが仮定できる場合、(10)式で表わされる。これは、先の(1)式と基本的に同じ式である(先の(1)式は位置座標xを省略した簡略式)。

Figure 0004349568
xは物体表面の位置座標(x=[x,y,z])、λは波長、I(x,y)は拡散反射成分、I(x,λ)は鏡面反射成分、E(λ)は照明光の分光スペクトル、D(x)は拡散反射成分の明るさ、f(x,λ)は拡散反射率、S(x)は鏡面反射の強度である。 Consider the case where a subject is illuminated with a single point light source. The spectral radiance (reflected light spectrum) I (x, λ) of the reflected light from one point x on the object surface observed when observing the subject from a certain direction can be assumed when a standard two-color reflection model can be assumed. It is represented by the formula (10). This is basically the same formula as the previous formula (1) (the previous formula (1) is a simplified formula in which the position coordinate x is omitted).
Figure 0004349568
x is the position coordinate of the object surface (x = [x, y, z] T ), λ is the wavelength, I d (x, y) is the diffuse reflection component, I s (x, λ) is the specular reflection component, E ( λ) is the spectral spectrum of the illumination light, D (x) is the brightness of the diffuse reflection component, f d (x, λ) is the diffuse reflectance, and S (x) is the intensity of the specular reflection.

ここで、総合反射率画像F(x,λ)を

Figure 0004349568
とし、F(x,λ)を、ベクトルU(λ)を法線にもつ超平面に投影し、U(λ)に直交する成分P(x,λ)を次のように求める。 Here, the total reflectance image F (x, λ)
Figure 0004349568
And F (x, λ) is projected onto a hyperplane having the vector U (λ) as a normal line, and a component P (x, λ) orthogonal to U (λ) is obtained as follows.

Figure 0004349568
これにより、P(x,λ)は物体の拡散反射率f(x,λ)のみに依存することが分かる。また、f(x,λ)は、照明光に依存しない物体固有の関数であるため、入力画像と照合用画像とで撮影時の照明の種類が異なる場合でも、P(x,λ)は分光スペクトル空間内内で同じ方向を指す(P(x,λ)を正規化したものが等しくなる)。なお、P(x,λ)の正規化はP(x,λ)/|P(x,λ)|で求まる。
Figure 0004349568
This shows that P (x, λ) depends only on the diffuse reflectance f d (x, λ) of the object. Further, since f d (x, λ) is an object-specific function that does not depend on illumination light, P (x, λ) can be obtained even when the type of illumination at the time of shooting differs between the input image and the verification image. It points in the same direction in the spectrum space (normalized P (x, λ) is equal). The normalization of P (x, λ) is obtained by P (x, λ) / | P (x, λ) |.

本発明によれば、鏡面反射により隠れているテクスチャ等の可視化が実現でき、入力画像と蓄積画像(照合用画像)の比較を行う際に、鏡面反射による認識精度の低下を抑制することができる。したがって、例えば、複数の照明光源が存在するオフィス環境や、窓のある部屋、また蓄積画像撮影時とは異なる照明環境での物体認識が容易となる。また、照明光スペクトルを用いて物体表面(各画素)における見かけの反射率を算出し、得られた結果をベクトルU(λ)=[1,1,…,1](全ての成分の値が同じ)を法線とする超平面に投影し、鏡面反射成分の除去された画像を用いることにより、入力画像と照合用画像とで撮影時の照明の種類(分光スペクトル)が異なる場合でも、画素値ごとの単純な比較による照合が可能になる。   According to the present invention, it is possible to visualize a texture or the like hidden by specular reflection, and it is possible to suppress a decrease in recognition accuracy due to specular reflection when comparing an input image and an accumulated image (collation image). . Therefore, for example, object recognition is facilitated in an office environment in which a plurality of illumination light sources exist, a room with a window, or an illumination environment different from that when an accumulated image is captured. Further, the apparent reflectance on the object surface (each pixel) is calculated using the illumination light spectrum, and the obtained result is expressed as a vector U (λ) = [1, 1,..., 1] (values of all components are The same image is projected onto a hyperplane with the normal as the normal line, and the image from which the specular reflection component has been removed is used. Collation by simple comparison for each value is possible.

以下、本発明の一実施の形態について図面により説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態に係る物体認識システムの概略構成図を示す。物体認識装置1は、例えばパソコンなどのコンピュータで構成し、撮影装置であるデジタルCCDカメラ2の露光時間および画像取り込み、物体認識等の処理を制御する。また、取り込まれた画像は、物体認識装置1の内部に記憶される。該物体認識装置1には、あらかじめ照合用として撮影されている画像やその撮影時における照明光成分、鏡面反射除去画像等が蓄積されている。被写体3の撮影結果、鏡面反射除去画像および物体認識処理の結果等は結果表示用モニタ4に表示される。照明光源群5は、分光スペクトルが異なる複数の光源により構成されており、図示しない照明制御装置により、点灯、消灯を独立に制御できるようになっている。なお、物体認識装置1が照明制御装置を兼ねてもよい。白色板6の画像はデジタルCCDカメラ2により撮影され、各光源の照明光成分の算出に用いられる。   FIG. 1 is a schematic configuration diagram of an object recognition system according to an embodiment of the present invention. The object recognition apparatus 1 is constituted by a computer such as a personal computer, for example, and controls exposure time, image capture, object recognition, and other processes of the digital CCD camera 2 that is a photographing apparatus. The captured image is stored inside the object recognition apparatus 1. The object recognition apparatus 1 stores an image previously captured for verification, an illumination light component at the time of capturing, a specular reflection removed image, and the like. The photographing result of the subject 3, the specular reflection removal image, the result of the object recognition processing, and the like are displayed on the result display monitor 4. The illumination light source group 5 is composed of a plurality of light sources having different spectral spectra, and can be controlled to be turned on and off independently by an illumination control device (not shown). Note that the object recognition device 1 may also serve as a lighting control device. An image of the white plate 6 is taken by the digital CCD camera 2 and used for calculating the illumination light component of each light source.

図2は、本発明における物体認識装置1の一実施例を示す全体構成図である。本物体認識装置1は、撮影装置の入力、出力特性を計測する撮影装置特性計測部11、照明光源の照明光成分を取得する照明光情報取得部12、撮影装置により撮影される入力画像を取り込む画像取込部13、入力画像から鏡面反射成分を含まない鏡面反射除去画像を生成する鏡面反射除去部14、あらかじめ照合用として撮影されている画像やその撮影時における照明光成分、さらに鏡面反射除去画像等を蓄積している画像等蓄積部(照合画像データベース)15、鏡面反射除去画像を照合用画像と照合して認識処理を行う画像解析部(画像認識部)16、物体認識結果、あるいは入力画像とその鏡面反射除去画像、さらには蓄積されている画像やその鏡面反射除去画像の一部あるいは全部の表示を制御する画像表示制御部17で構成される。   FIG. 2 is an overall configuration diagram showing an embodiment of the object recognition apparatus 1 according to the present invention. The object recognition apparatus 1 captures an input image captured by the imaging apparatus, an imaging apparatus characteristic measuring unit 11 that measures input and output characteristics of the imaging apparatus, an illumination light information acquisition unit 12 that acquires an illumination light component of the illumination light source, and the like. Image capturing unit 13, specular reflection removing unit 14 that generates a specular reflection removal image that does not include a specular reflection component from an input image, an image that has been previously captured for verification, an illumination light component at the time of photographing, and further, specular reflection removal An image storage unit (collation image database) 15 that stores images and the like, an image analysis unit (image recognition unit) 16 that performs recognition processing by collating the specular reflection-removed image with a collation image, an object recognition result, or an input The image and its specular reflection removal image, and further, an image display control unit 17 that controls display of the stored image and part or all of the specular reflection removal image. .

図3に、物体認識装置1の全体的処理フロー図を示す。撮影装置特性計測部11では、あらかじめ撮影装置であるデジタルCCDカメラ2の入力、出力特性を計測しておく(S1001)。計測結果の撮影装置特性データは照明光情報取得部12および画像取込部13に送られる。   FIG. 3 shows an overall process flow diagram of the object recognition apparatus 1. The imaging device characteristic measurement unit 11 measures input and output characteristics of the digital CCD camera 2 that is an imaging device in advance (S1001). The imaging device characteristic data of the measurement result is sent to the illumination light information acquisition unit 12 and the image capture unit 13.

照明光情報取得部12では、デジタルCCDカメラ2において撮影された白色板6の画像を取り込み、撮影装置特性データを参照して信号値の変換を行い(γ補正処理)、規格化された信号値から照明光成分を取得し、記憶しておく(S1002)。この照明光成分は鏡面反射除去部14に送られる。   The illumination light information acquisition unit 12 captures an image of the white plate 6 photographed by the digital CCD camera 2, converts the signal value by referring to the photographing device characteristic data (γ correction processing), and standardized signal value The illumination light component is acquired from the data and stored (S1002). This illumination light component is sent to the specular reflection removing unit 14.

画像取込部13では、デジタルCCDカメラ2において撮影された被写体3の画像を取り込み、撮影装置特性データを参照して信号値の変換を行い(γ補正処理)、規格化された入力画像を出力する(S1003)。ここで、デジタルCCDカメラ2により取り込まれる入力画像には、鏡面反射成分に関する明るさおよび色の情報が記録されている。   The image capturing unit 13 captures an image of the subject 3 photographed by the digital CCD camera 2, converts signal values with reference to photographing device characteristic data (γ correction processing), and outputs a standardized input image (S1003). Here, in the input image captured by the digital CCD camera 2, brightness and color information relating to the specular reflection component is recorded.

鏡面反射除去部14では、入力画像の分光放射輝度を照明光成分で割り、総合反射率画像を生成し、この総合反射率画像を、ベクトル[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る(S1004)。 The specular reflection removing unit 14 divides the spectral radiance of the input image by the illumination light component to generate an overall reflectance image, and has the vector [1, 1,..., 1] as a normal line. By projecting onto the hyperplane, a specular reflection removal image is obtained ( S1004 ).

画像解析部16では、鏡面反射除去部14で得られた鏡面反射除去画像を用い、該鏡面反射除去画像と画像等蓄積部15にあらかじめ蓄積されている照合用画像とを照合することで、認識処理を行い、画像中の物体の認識結果を出力する(S1005)。ここで、照合用画像としては、あらかじめ撮影されて画像等蓄積部15に蓄積されている画像(蓄積画像)、あるいはその鏡面反射除去画像が用いられる。   The image analysis unit 16 uses the specular reflection removal image obtained by the specular reflection removal unit 14, and collates the specular reflection removal image with a collation image stored in advance in the image storage unit 15 to recognize the image. Processing is performed, and the recognition result of the object in the image is output (S1005). Here, as the verification image, an image (accumulated image) that has been captured in advance and stored in the image storage unit 15 or a specular reflection-removed image thereof is used.

画像表示制御部17では、画像解析部16で得られた物体認識結果を結果表示用モニタ2に表示する(S1006)。画像表示制御部17では、この時、物体認識結果と共に入力画像、鏡面反射除去画像等を表示してもよい。   The image display control unit 17 displays the object recognition result obtained by the image analysis unit 16 on the result display monitor 2 (S1006). At this time, the image display control unit 17 may display an input image, a specular reflection removed image, and the like together with the object recognition result.

なお、図2の構成図では必要な矢印は省略したが、鏡面反射除去部14では、画像蓄積部15からも蓄積画像の照明光成分データを入力して、これと照明光情報取得部12からの照明光成分データとを用いて、入力画像と蓄積画像共通の投影空間を求めて、鏡面反射除去画像を得ることも可能である。この場合、算出された投影空間データは画像等蓄積部15に送る。画像等蓄積部15では、照合用画像に蓄積画像の鏡面反射除去画像を用いる場合、例えば、鏡面反射除去部14で算出された投影空間データを用いて、蓄積画像の鏡面反射除去画像を生成し、その結果を照合用画像として画像解析部16へ送るようにする。   Although the necessary arrows are omitted in the configuration diagram of FIG. 2, the specular reflection removing unit 14 also inputs the illumination light component data of the accumulated image from the image accumulation unit 15, and the illumination light information acquisition unit 12 It is also possible to obtain a specular reflection-removed image by obtaining a projection space common to the input image and the accumulated image using the illumination light component data. In this case, the calculated projection space data is sent to the image storage unit 15. When the specular reflection removal image of the stored image is used as the collation image, the image storage unit 15 generates a specular reflection removal image of the stored image using, for example, the projection space data calculated by the specular reflection removal unit 14. The result is sent to the image analysis unit 16 as a verification image.

図4に、物体認識装置1の他の処理フロー図を示す。図4において、S2001〜S2004までは図3のS1001〜S1004と同じである。図4では、鏡面反射除去部14において入力画像の鏡面反射除去画像が得られたならば(S2005)、画像解析部16での画像認識処理は行わず、画像表示制御部17は、入力画像およびその鏡面反射除去画像、さらには画像等蓄積部15の画像等を結果表示用モニタ4に表示して、認識は人間により視覚的な判別にゆだねるものである(S2005)。この場合、画像解析部(画像認識部)16は省略でき、物体認識装置の構成が簡単化される。   FIG. 4 shows another processing flow diagram of the object recognition apparatus 1. 4, S2001 to S2004 are the same as S1001 to S1004 in FIG. In FIG. 4, if the specular reflection removal image of the input image is obtained in the specular reflection removal unit 14 (S2005), the image recognition processing in the image analysis unit 16 is not performed, and the image display control unit 17 The specular reflection-removed image, the image of the image storage unit 15 and the like are displayed on the result display monitor 4, and the recognition is left to human visual discrimination (S2005). In this case, the image analysis unit (image recognition unit) 16 can be omitted, and the configuration of the object recognition device is simplified.

なお、画像等蓄積部15に対して、あらかじめ照合用の画像やその撮影時における照明光成分、鏡面反射除去画像等を蓄積する場合の動作は、基本的に図3の処理フロー図で説明したと同様であるので、説明は省略する。   Note that the operation in the case where the image for collation, the illumination light component at the time of photographing, the specular reflection removal image, etc. is stored in advance in the image storage unit 15 is basically described in the processing flow diagram of FIG. Since it is the same as that, description is abbreviate | omitted.

次に、図2に示した物体認識装置1の各部の構成、動作について説明する。
撮影装置特性計測部11では、例えば図11に示す方法により、あらかじめデジタルCCDカメラ2の入力、出力の特性を計測する。なお、対象のデジタルCCDカメラ2のホワイトバランス、ゲイン、γ値などの自動補正機能はOFFにしておく。まず、CRT等の表示装置に明るさが既知である白色を表示し、それをデジタルCCDカメラ2で撮影する。次に、表示した白色の明るさを変化させ、再び画像を撮影する。この作業を数回繰り返し、撮影装置(デジタルCCDカメラ)への入力光の明るさと、出力信号値との関係を計測する。そして、この計測結果を基に、撮影装置からの出力信号値から入力光の明るさを推定する撮影装置特性データとしての変換式(多項式近似あるいは変換テーブル)を求める(図12参照)。
Next, the configuration and operation of each part of the object recognition apparatus 1 shown in FIG. 2 will be described.
The imaging device characteristic measurement unit 11 measures input and output characteristics of the digital CCD camera 2 in advance by, for example, the method shown in FIG. Note that the automatic correction functions such as white balance, gain, and γ value of the target digital CCD camera 2 are turned off. First, a white color with a known brightness is displayed on a display device such as a CRT, and this is photographed by the digital CCD camera 2. Next, the brightness of the displayed white is changed, and an image is taken again. This operation is repeated several times, and the relationship between the brightness of the input light to the photographing apparatus (digital CCD camera) and the output signal value is measured. Based on the measurement result, a conversion formula (polynomial approximation or conversion table) is obtained as imaging device characteristic data for estimating the brightness of the input light from the output signal value from the imaging device (see FIG. 12).

図5に照明光情報取得部12の構成例を示す。照明光情報取得部12は、照明光取込部121、規格化処理部122、正規化処理部123、照明光成分蓄積部124から構成される。デジタルCCDカメラ2において撮影された白色板6の画像(照明光)は照明光情報取込部121で取込まれ、規格化処理部122において、撮影装置特性計測部11からの撮影装置特性データを参照して信号値の変換が行われ(γ補正処理)、規格化された信号値を得る。更に正規化処理部124において、パワーが1になるように正規化処理が行われ、その結果を照明光成分として照明光成分蓄積部125に蓄積する。照明制御装置7は、白色板6の画像撮影時に点灯している照明光源が1つのみとなるよう照明光源群5の照明を制御する。この処理を全ての照明光源に対して行い、得られた複数の照明光成分のデータが照明光成分蓄積部125に蓄積され、鏡面反射除去部14へ送られる。なお、照明光情報取得部12では、有限種類の一般的に用いられている照明光源の照明光成分をあらかじめ計測しておいて照明光成分蓄積部124に蓄積しておくことでもよい。   FIG. 5 shows a configuration example of the illumination light information acquisition unit 12. The illumination light information acquisition unit 12 includes an illumination light capture unit 121, a normalization processing unit 122, a normalization processing unit 123, and an illumination light component accumulation unit 124. An image (illumination light) of the white plate 6 photographed by the digital CCD camera 2 is captured by the illumination light information capturing unit 121, and the standardization processing unit 122 captures the photographing device characteristic data from the photographing device characteristic measuring unit 11. The signal value is converted with reference (γ correction processing) to obtain a standardized signal value. Further, the normalization processing unit 124 performs normalization processing so that the power becomes 1, and the result is stored in the illumination light component storage unit 125 as an illumination light component. The illumination control device 7 controls illumination of the illumination light source group 5 so that only one illumination light source is lit when the white plate 6 is imaged. This processing is performed on all illumination light sources, and the obtained data of a plurality of illumination light components is accumulated in the illumination light component accumulation unit 125 and sent to the specular reflection removal unit 14. Note that the illumination light information acquisition unit 12 may measure in advance illumination light components of a limited number of commonly used illumination light sources and store them in the illumination light component accumulation unit 124.

図6に画像取込部13の構成例を示す。画像取込部13は、規格化処理部131から構成される。デジタルCCDカメラ2において撮影された被写体3の入力画像は、規格化処理部131において、撮影装置特性計測部11からの撮影装置特性データを参照にした信号値の変換により(γ補正処理)、規格化された画像となり鏡面反射除去部14へ送られる。この規格化画像には、光沢び鏡面反射成分に関する明るさおよび色の情報が含まれている。   FIG. 6 shows a configuration example of the image capturing unit 13. The image capturing unit 13 includes a normalization processing unit 131. An input image of the subject 3 photographed by the digital CCD camera 2 is converted into a standard by converting a signal value referring to the photographing device characteristic data from the photographing device characteristic measuring unit 11 (γ correction processing) in the standardization processing unit 131. The converted image is sent to the specular reflection removing unit 14. The standardized image includes brightness and color information regarding the glossy and specular reflection component.

図7に鏡面反射除去部14の第1の構成例を示す。これは、入力画像を照明光成分に直交する空間に投影することで、鏡面反射除去画像を得る場合の構成例である。本鏡面反射除去部14は、投影空間算出部141、投影演算処理部142から構成される。投影空間算出部141では照明光情報取得部12で得られた全ての照明光成分に直交する空間(投影空間データ)を算出する。投影演算処理部142では、その結果に基づき、画像取込部13において得られた規格化後の入力画像の各画素の信号値を投影空間へ投影し、鏡面反射成分を除去する。この処理を全ての画素に関して行うことで、鏡面反射除去画像が得られる。   FIG. 7 shows a first configuration example of the specular reflection removing unit 14. This is a configuration example in the case where a specular reflection removed image is obtained by projecting an input image onto a space orthogonal to the illumination light component. The specular reflection removal unit 14 includes a projection space calculation unit 141 and a projection calculation processing unit 142. The projection space calculation unit 141 calculates a space (projection space data) orthogonal to all the illumination light components obtained by the illumination light information acquisition unit 12. Based on the result, the projection calculation processing unit 142 projects the signal value of each pixel of the normalized input image obtained by the image capturing unit 13 onto the projection space, and removes the specular reflection component. By performing this process for all the pixels, a specular reflection removed image is obtained.

先に述べたように、該鏡面反射除去部14では、画像等蓄積部15からの蓄積画像の照明光成分データと、照明光情報取得部12で取られた人力画像撮影時の照明光成分データを用いて、投影空間算出部141にて入力画像と蓄積画像共通の投影空間データを算出し、投影演算処理部142にて、画像取込部13において得られた規格化後の入力画像の各画素の信号値を該投影空間へ投影し、鏡面反射成分を除去することでもよい。投影空間算出部141で算出された入力画像と蓄積画像共通の投影空聞データは、画像等蓄積部15にも送られる。   As described above, in the specular reflection removing unit 14, the illumination light component data of the accumulated image from the image storage unit 15 and the illumination light component data at the time of photographing a human power image taken by the illumination light information acquiring unit 12 are used. The projection space calculation unit 141 calculates the projection space data common to the input image and the stored image, and the projection calculation processing unit 142 calculates each of the normalized input images obtained by the image capturing unit 13. The signal value of the pixel may be projected onto the projection space, and the specular reflection component may be removed. The projection sound data common to the input image and the accumulated image calculated by the projection space calculating unit 141 is also sent to the image storing unit 15.

なお、図7では省略したが、投影演算処理部142の出力側に正規化処理部を設け、投影演算処理部142で得られた鏡面反射除去画像の各画素値をそのパワーで正規化するようにしてもよい。これにより、照明条件に依存しない鏡面反射除去画像(照明不変画像)が得られる。   Although omitted in FIG. 7, a normalization processing unit is provided on the output side of the projection calculation processing unit 142 so that each pixel value of the specular reflection-removed image obtained by the projection calculation processing unit 142 is normalized by its power. It may be. Thereby, a specular reflection removal image (illumination invariant image) independent of the illumination condition is obtained.

図8に鏡面反射除去部14の第2の構成例を示す。これが、入力画像の分光放射輝度を照明光成分で割って総合反射率画像を生成し、この総合反射率画像を、ベクトルU(λ)=[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る場合の本発明の構成例である。本鏡面反射除去部14は、法線ベクトル設定部143、総合反射率画像生成部144、投影演算処理部145から構成される。法線ベクトル設定部143は、あらかじめベクトルU(λ)=[1,1,…,1]を保持している。ベクトルの次元(要素数)Nは、取得する画像の色成分に対応し、例えば、色成分が3の場合はN=3で、U(λ)=[1,1,,1]となる。総合反射率画像生成部144では、照明光情報取得部12で得られた照明光成分データ群と画像取込み部13において得られた入力画像から総合反射率画像を生成する。すなわち、照明光スペクトルを用いて、入力画像の各画素における見かけの反射率を算出する。投影演算処理部145では、法線ベクトル設定部143からベクトル[1,1,…,1]を入力し、該ベクトルを法線に持つ超平面に、総合反射率画像生成部144で得られた総合反射率画像の各画素の信号値(画素値)を投影し、鏡面反射成分を除去する。この処理を全ての画素に関して行うことで、入力画像から鏡面反射成分の除去された鏡面反射除去画像が得られる。 FIG. 8 shows a second configuration example of the specular reflection removing unit 14. This generates a total reflectance image by dividing the spectral radiance of the input image by the illumination light component, and this total reflectance image has a vector U (λ) = [1, 1,..., 1] as a normal line. It is a structural example of this invention in the case of obtaining a specular reflection removal image by projecting on a hyperplane. The specular reflection removal unit 14 includes a normal vector setting unit 143, a total reflectance image generation unit 144, and a projection calculation processing unit 145. The normal vector setting unit 143 holds a vector U (λ) = [1, 1,..., 1] in advance. The dimension (number of elements) N of the vector corresponds to the color component of the image to be acquired. For example, when the color component is 3, N = 3 and U (λ) = [1, 1, 1]. The total reflectance image generation unit 144 generates a total reflectance image from the illumination light component data group obtained by the illumination light information acquisition unit 12 and the input image obtained by the image capturing unit 13. That is, the apparent reflectance at each pixel of the input image is calculated using the illumination light spectrum. In the projection calculation processing unit 145, the vector [1, 1,..., 1] is input from the normal vector setting unit 143, and the total reflectance image generation unit 144 obtains the hyperplane having the vector as a normal line. The signal value (pixel value) of each pixel of the total reflectance image is projected to remove the specular reflection component. By performing this process for all pixels, a specular reflection-removed image from which the specular reflection component has been removed can be obtained from the input image.

なお、図8でも省略したが、投影演算処理部145の出力側に正規化処理部を設け、投影演算処理部142で得られた鏡面反射除去画像の各画素値をそのパワーで正規化するようにしてもよい。これにより、照明条件に依存しない鏡面反射除去画像(照明不変画像)が得られる。   Although omitted in FIG. 8, a normalization processing unit is provided on the output side of the projection calculation processing unit 145 so that each pixel value of the specular reflection removal image obtained by the projection calculation processing unit 142 is normalized by its power. It may be. Thereby, a specular reflection removal image (illumination invariant image) independent of the illumination condition is obtained.

図9に画像等蓄積部(照合画像データベース)15の第1の構成例を示す。本画像等蓄積部15は照明光成分蓄積部151、規格化画像蓄積部152、鏡面反射除去画像蓄積部153から構成される。規格化画像蓄積部152及び鏡面反射除去画像蓄積部153には、あらかじめ照合用としてデジタルCCDカメラ2で撮影された全ての画像について、画像取込部13及び鏡面反射除去部14で算出された規格化画像及び鏡面反射除去画像がそれぞれ蓄積されている。照明光成分蓄積部151には、この照合用の画像の撮影時における照明光源の照明光成分データが照明光情報取得部12から送られて蓄積されている。この規格化画像蓄積部152の規格化画像及び/又は鏡面反射除去画像蓄積部153の鏡面反射除去画像が照合用画像として画像解析部16に送られる。   FIG. 9 shows a first configuration example of the image storage unit (collation image database) 15. The main image storage unit 15 includes an illumination light component storage unit 151, a normalized image storage unit 152, and a specular reflection removed image storage unit 153. The standardized image storage unit 152 and the specular reflection removal image storage unit 153 store the standards calculated by the image capturing unit 13 and the specular reflection removal unit 14 for all images previously captured by the digital CCD camera 2 for verification. Each of the converted image and the specular reflection removed image is accumulated. The illumination light component storage unit 151 stores the illumination light component data of the illumination light source from the illumination light information acquisition unit 12 when the verification image is captured. The standardized image of the standardized image storage unit 152 and / or the specular reflection removal image of the specular reflection removal image storage unit 153 are sent to the image analysis unit 16 as a verification image.

図10に画像等蓄積部15の第2の構成例を示す。本画像等蓄積部15は、照明光成分蓄積部151、規格化画像蓄積部152、投影空間算出部154、投影演算処理部155から構成される。照明光成分蓄積部151、規格化画像蓄積部152は図9と同じである。図10は、鏡面反射除去画像蓄積部153をなくして、当該画像等蓄積部15自体で照合用画像としての鏡面反射除去画像を生成するものである。必要な投影空間データは当該画像等蓄積部15自体で同様に算出するか、あるいは鏡面反射除去部14から送られたものを利用する。すなわち、規格化画像蓄積部152の各規格化画像に対応する照明光成分蓄積部151内の照明光成分から、投影空間算出部154にて投影空間データを算出し、投影演算処理部155にて、規格化画像蓄積部152の各規格化画像(蓄積画像)の鏡面反射除去画像を算出し、これを照合用画像とする。もしくは、照明光成分蓄積部151内の照明光成分データを鏡面反射除去部14へ送り、得られた入力画像と蓄積画像共通の投影空間データを用いて、投影演算処理部154にて規格化画像蓄積部152の各規格化画像(蓄積画像)の鏡面反射除去画像を算出し、これを照合用画像とする。   FIG. 10 shows a second configuration example of the image storage unit 15. The main image storage unit 15 includes an illumination light component storage unit 151, a normalized image storage unit 152, a projection space calculation unit 154, and a projection calculation processing unit 155. The illumination light component storage unit 151 and the normalized image storage unit 152 are the same as those in FIG. In FIG. 10, the specular reflection removal image storage unit 153 is eliminated, and the specular reflection removal image as the verification image is generated by the image storage unit 15 itself. Necessary projection space data is calculated in the same manner by the image storage unit 15 itself, or the data sent from the specular reflection removal unit 14 is used. That is, the projection space calculation unit 154 calculates projection space data from the illumination light component in the illumination light component storage unit 151 corresponding to each standardized image in the standardized image storage unit 152, and the projection calculation processing unit 155 Then, a specular reflection removed image of each standardized image (accumulated image) of the standardized image storage unit 152 is calculated, and this is used as a verification image. Alternatively, the illumination light component data in the illumination light component accumulating unit 151 is sent to the specular reflection removing unit 14, and the projection calculation processing unit 154 uses the obtained input image and the projection space data common to the accumulated image to obtain a normalized image. A specular reflection removal image of each normalized image (accumulated image) in the accumulation unit 152 is calculated, and this is used as a collation image.

一般には、図9及び図10で説明した照合用画像のいずれか、あるいは全部を照合用画像とすることができる。   In general, any or all of the matching images described with reference to FIGS. 9 and 10 can be used as matching images.

図11に画像解析部16の構成例を示す。画像解析部16は、基本的に画像照合部161から構成される。画像照合部161にて、鏡面反射除去部14からの鏡面反射除去画像と、画像等蓄積部15からの照合用画像の照合を行い、物体の認識結果を得る。なお、画像解析部16では、必要に応じて、画像等蓄積部15からの照合用画像との照合処理を行わずに、鏡面反射除去部14からの鏡面反射除去画像を解析して認識結果を得るようにしてもよい。   FIG. 11 shows a configuration example of the image analysis unit 16. The image analysis unit 16 basically includes an image matching unit 161. The image collating unit 161 collates the specular reflection removed image from the specular reflection removing unit 14 with the collating image from the image storage unit 15 to obtain an object recognition result. Note that the image analysis unit 16 analyzes the specular reflection removal image from the specular reflection removal unit 14 and performs the recognition result without performing the collation processing with the image for collation from the image storage unit 15 as necessary. You may make it obtain.

画像表示制御部17は、画像解析部15からの物体の認識結果を結果表示用モニタ2に表示する。該表示制御部17の構成図は省略する。先にも述べたように、表示制御部17では、画像取込部13と鏡面反射除去部14からの入力画像およびその鏡面反射除去画像並びに画像等蓄積部15からの蓄積画像およびその鏡面反射除去画像(照合用画像)、もしくは上記入力画像およびその鏡面反射除去画像のみを結果表示用モニタ4に表示し、人間により視覚的な判別を行うようにすることもできる。   The image display control unit 17 displays the recognition result of the object from the image analysis unit 15 on the result display monitor 2. A configuration diagram of the display control unit 17 is omitted. As described above, in the display control unit 17, the input image from the image capturing unit 13 and the specular reflection removal unit 14 and the specular reflection removal image thereof, the accumulation image from the image storage unit 15 and the specular reflection removal thereof are included. It is also possible to display only the image (image for comparison) or the input image and the specular reflection-removed image on the result display monitor 4 so that the person can visually discriminate.

以上、本発明の一実施形態を説明したが、図2で示した物体認識装置における各部の一部もしくは全部の処理機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図3や図4で示した処理手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行させることができることは言うまでもない。また、コンピュータでその処理機能を実現させるためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FDやMO、ROM、メモリーカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることができるとともに、インターネット等のネットワークを通してそのプログラムを配布したりすることが可能である。   Although one embodiment of the present invention has been described above, some or all of the processing functions of each part in the object recognition apparatus shown in FIG. 2 are configured by a computer program, and the program is executed using the computer. Needless to say, the invention can be realized, or the processing procedure shown in FIGS. 3 and 4 can be configured by a computer program and the program can be executed using the computer. In addition, a computer-readable recording medium such as an FD, MO, ROM, memory card, CD, or the like is stored in a computer-readable recording medium. In addition, the program can be recorded and stored on a DVD, a removable disk, etc., and the program can be distributed through a network such as the Internet.

本発明の物体認識技術は、ロボットによる物体探索や物体認識、物体の形状推定、文字認識、データベース上の画像検索、内視鏡画像でのテクスチャ解析等に応用が可能である。   The object recognition technique of the present invention can be applied to object search and object recognition by a robot, object shape estimation, character recognition, image search on a database, texture analysis with an endoscopic image, and the like.

本発明の一実施形態に係る物体認識システムの概略構成図である。1 is a schematic configuration diagram of an object recognition system according to an embodiment of the present invention. 本発明における物体認識装置の全体構成例を示す図である。It is a figure which shows the example of whole structure of the object recognition apparatus in this invention. 図2の全体的処理フロー(その一)を示す図である。FIG. 3 is a diagram showing an overall processing flow (part 1) of FIG. 2. 図2の全体的処理フロー(その二)を示す図である。It is a figure which shows the whole processing flow (the 2) of FIG. 照明光情報取得部の詳細構成を示す図である。It is a figure which shows the detailed structure of an illumination light information acquisition part. 画像取得部の詳細構成を示す図である。It is a figure which shows the detailed structure of an image acquisition part. 鏡面反射除去部の詳細構成(その一)を示す図である。It is a figure which shows the detailed structure (the 1) of a specular reflection removal part. 鏡面反射除去部の詳細構成(その二)を示す図である。It is a figure which shows the detailed structure (the 2) of a specular reflection removal part. 画像等蓄積部の詳細構成(その一)を示す図である。It is a figure which shows the detailed structure (the 1) of a storage part, such as an image. 画像等蓄積部の詳細構成(その二)を示す図である。It is a figure which shows the detailed structure (the 2) of storage parts, such as an image. 画像解析部の詳細構成を示す図である。It is a figure which shows the detailed structure of an image analysis part. 撮影装置の入出力特性の計測を説明する図である。It is a figure explaining the measurement of the input-output characteristic of an imaging device. 鏡面反射成分除去の原理を説明する図である。It is a figure explaining the principle of a specular reflection component removal.

符号の説明Explanation of symbols

1 物体認識装置
2 デジタルCCDカメラ
3 被写体
4 結果表示用モニタ
5 照明光源群
6 白色板
7 照明制御装置
11 撮影装置特性計測部
12 照明光情報取得部
13 画像取込部
14 鏡面反射除去部
15 画像等蓄積部
16 画像解析部
17 画像表示制御部
S1001、S2001 撮影装置特性計測ステップ
S1002、S2002 照明光成分計測ステップ
S1003、S2003 画像取込みステップ
S1004、S2004 鏡面反射成分除去ステップ
S1005 画像解析ステップ
S1006 認識結果等表示ステップ
S2005 入力画像、鏡面反射除去画像等表示ステップ
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 2 Digital CCD camera 3 Subject 4 Monitor for result display 5 Illumination light source group 6 White board 7 Illumination control apparatus 11 Imaging apparatus characteristic measurement part 12 Illumination light information acquisition part 13 Image capture part 14 Specular reflection removal part 15 Image Equal accumulation unit 16 Image analysis unit 17 Image display control unit S1001, S2001 Imaging device characteristic measurement step S1002, S2002 Illumination light component measurement step S1003, S2003 Image capture step S1004, S2004 Specular reflection component removal step S1005 Image analysis step S1006 Recognition result, etc. Display Step S2005 Display Step of Input Image, Specular Reflection Removal Image, etc.

Claims (14)

対象物の画像である入力画像から鏡面反射成分を除去した鏡面反射除去画像と予め撮影された対象物の画像である蓄積画像とを照合することにより、対象物の認識を行う物体認識装置であって、
前記入力画像の撮影時の照明光源の照明光成分を取得する照明光情報取得手段と、
撮影装置により撮影された入力画像と前記対象物の表面からの反射光の分光放射輝度とを取り込む画像取込手段と、
前記予め撮影されている対象物の画像である蓄積画像と、前記蓄積画像の撮影時の照明光成分とを、少なくとも蓄積する蓄積手段と、
前記対象物の表面からの反射光の分光放射輝度を前記照明光情報取得手段で取得した照明光成分で割って総合反射率画像を生成し、該総合反射率画像の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することにより、前記入力画像から鏡面反射成分を除去した鏡面反射除去画像を生成する鏡面反射除去手段と、
を有することを特徴とする物体認識装置。
An object recognition apparatus that recognizes an object by collating a specular reflection-removed image obtained by removing a specular reflection component from an input image, which is an image of the object, and an accumulated image that is an image of the object photographed in advance. And
Illumination light information acquisition means for acquiring an illumination light component of an illumination light source at the time of capturing the input image ;
An image capturing means for capturing an input image captured by the imaging device and a spectral radiance of reflected light from the surface of the object ;
Wherein the stored image is an image of the object which is previously shot and an illumination light component at the time of photographing of the stored images, and storage means for at least storing,
A total reflectance image is generated by dividing the spectral radiance of the reflected light from the surface of the object by the illumination light component acquired by the illumination light information acquisition means , and the signal value of the total reflectance image is expressed as a vector U ( Specular reflection removal that generates a specular reflection removal image from which the specular reflection component is removed from the input image by projecting onto the hyperplane with λ) = [1,1,..., 1] (λ is the wavelength) as a normal line Means,
An object recognition apparatus comprising:
請求項1に記載の物体認識装置において、前記鏡面反射除去画像と前記蓄積手段に蓄積された蓄積画像とを照合する画像解析手段を更に有することを特徴とする物体認識装置。 2. The object recognition apparatus according to claim 1, further comprising image analysis means for collating the specular reflection-removed image with the accumulated image accumulated in the accumulation means. 請求項1乃至2に記載の物体認識装置において、前記入力画像と当該入力画像の鏡面反射除去画像、または、前記入力画像と当該入力画像の鏡面反射除去画像および前記蓄積画像とあらかじめ生成して当該蓄積画像と共に蓄積されている当該蓄積画像の鏡面反射除去画像とを表示する画像表示制御手段を更に有することを特徴とする物体認識装置。 3. The object recognition apparatus according to claim 1, wherein the input image and the specular reflection removal image of the input image, or the input image, the specular reflection removal image of the input image and the accumulated image are generated in advance and object recognition apparatus characterized by further having an image display control means for displaying a specular reflection removal image of the stored image which is stored along with the stored images. 請求項1乃至3のいずれか1項に記載の物体認識装置において、あらかじめ撮影装置の入力及び出力特性を計測する撮影装置特性計測手段を更に備え、前記画像取込手段では、前記撮影装置特性計測手段の計測結果である撮影装置の入出力特性を基に規格化された画像を得ることを特徴とする物体認識装置。   The object recognition apparatus according to any one of claims 1 to 3, further comprising a photographing device characteristic measuring unit that measures input and output characteristics of the photographing device in advance, wherein the image capturing unit includes the photographing device characteristic measurement. An object recognition apparatus characterized in that a standardized image is obtained based on input / output characteristics of a photographing apparatus as a measurement result of a means. 請求項1乃至3のいずれか1項に記載の物体認識装置において、前記鏡面反射除去手段では、全ての照明光源に関する照明光成分を入力画像から除去することにより、鏡面反射成分を含まない鏡面反射除去画像を生成することを特徴とする物体認識装置。   4. The object recognition apparatus according to claim 1, wherein the specular reflection removing unit removes the illumination light components related to all illumination light sources from the input image, so that the specular reflection component does not include the specular reflection component. 5. An object recognition apparatus that generates a removed image. 請求項1乃至3のいずれか1項に記載の物体認識装置において、有限種類の一般的に用いられている照明光源の照明光成分をあらかじめ蓄積しておく照明光成分蓄積手段を備え、前記鏡面反射除去手段では、前記蓄積された照明光成分を用いて鏡面反射除去画像を得ることを特徴とする物体認識装置。   The object recognition apparatus according to claim 1, further comprising an illumination light component accumulating unit that accumulates illumination light components of finite types of commonly used illumination light sources in advance. An object recognition apparatus characterized in that the reflection removal means obtains a specular reflection removal image using the accumulated illumination light component. 対象物の画像である入力画像から鏡面反射成分を除去した鏡面反射除去画像と予め撮影された対象物の画像である蓄積画像とを照合することにより、対象物の認識を行う物体認識方法であって、An object recognition method for recognizing an object by collating a specular reflection-removed image obtained by removing a specular reflection component from an input image that is an image of the object and an accumulated image that is an image of the object that has been captured in advance. And
前記入力画像の撮影時の照明光源の照明光成分を取得する照明光情報取得ステップと、Illumination light information acquisition step of acquiring an illumination light component of an illumination light source at the time of capturing the input image;
撮影装置により撮影された入力画像と前記対象物の表面からの反射光の分光放射輝度とを取り込む画像取込ステップと、  An image capturing step for capturing an input image captured by the imaging device and a spectral radiance of reflected light from the surface of the object;
前記予め撮影されている対象物の画像である蓄積画像と、前記蓄積画像の撮影時の照明光成分とを、少なくとも蓄積手段に蓄積する蓄積制御ステップと、An accumulation control step of accumulating at least an accumulation image that is an image of the object that has been imaged in advance and an illumination light component at the time of imaging of the accumulation image;
前記対象物の表面からの反射光の分光放射輝度を前記照明光情報取得ステップで取得した照明光成分で割って総合反射率画像を生成し、該総合反射率画像の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することにより、前記入力画像から鏡面反射成分を除去した鏡面反射除去画像を生成する鏡面反射除去ステップと、The spectral radiance of the reflected light from the surface of the object is divided by the illumination light component acquired in the illumination light information acquisition step to generate a total reflectance image, and the signal value of the total reflectance image is expressed as a vector U ( Specular reflection removal that generates a specular reflection removal image from which the specular reflection component is removed from the input image by projecting onto the hyperplane with λ) = [1,1,..., 1] (λ is the wavelength) as a normal line Steps,
を有することを特徴とする物体認識方法。An object recognition method characterized by comprising:
請求項7に記載の物体認識方法において、The object recognition method according to claim 7.
前記鏡面反射除去画像と前記蓄積手段に蓄積された蓄積画像とを照合する画像解析ステップを更に有することを特徴とする物体認識方法。An object recognition method, further comprising an image analysis step of collating the specular reflection-removed image with the accumulated image accumulated in the accumulation means.
請求項7乃至8に記載の物体認識方法において、前記入力画像と当該入力画像の鏡面反射除去画像、または、前記入力画像と当該入力画像の鏡面反射除去画像および前記蓄積画像とあらかじめ生成して当該蓄積画像と共に蓄積されている当該蓄積画像の鏡面反射除去画像を表示手段に表示する画像表示制御ステップを更に有することを特徴とする物体認識方法。9. The object recognition method according to claim 7, wherein the input image and the specular reflection removal image of the input image, or the input image, the specular reflection removal image of the input image, and the accumulated image are generated in advance. An object recognition method, further comprising an image display control step of displaying on the display means a specular reflection-removed image of the accumulated image accumulated together with the accumulated image. 請求項7乃至9のいずれか1項に記載の物体認識方法において、あらかじめ撮影装置の入力及び出力特性を計測する撮影装置特性計測ステップを更に備え、前記画像取込ステップでは、前記撮影装置特性計測ステップの計測結果である撮影装置の入出力特性を基に規格化された画像を得ることを特徴とする物体認識方法。10. The object recognition method according to claim 7, further comprising a photographing device characteristic measuring step for measuring input and output characteristics of the photographing device in advance, wherein the photographing device characteristic measurement is performed in the image capturing step. An object recognition method characterized by obtaining a standardized image based on input / output characteristics of a photographing apparatus, which is a measurement result of a step. 請求項7乃至9のいずれか1項に記載の物体認識方法において、前記鏡面反射除去ステップでは、全ての照明光源に関する照明光成分を入力画像から除去することにより、鏡面反射成分を含まない鏡面反射除去画像を生成することを特徴とする物体認識方法。10. The object recognition method according to claim 7, wherein in the specular reflection removing step, the specular reflection not including the specular reflection component is performed by removing the illumination light components related to all illumination light sources from the input image. An object recognition method comprising generating a removed image. 請求項7乃至9のいずれか1項に記載の物体認識方法において、有限種類の一般的に用いられている照明光源の照明光成分をあらかじめ蓄積手段に蓄積しておく照明光成分蓄積制御ステップを更に有し、前記鏡面反射除去ステップでは、前記蓄積された照明光成分を用いて鏡面反射除去画像を得ることを特徴とする物体認識方法。10. The object recognition method according to claim 7, further comprising: an illumination light component accumulation control step in which illumination light components of a finite type of illumination light source that is generally used are accumulated in an accumulation unit in advance. An object recognition method further comprising: obtaining a specular reflection removal image using the accumulated illumination light component in the specular reflection removal step. コンピュータを請求項1乃至6のいずれか1項に記載の物体認識装置として機能させるためのプログラム。The program for functioning a computer as an object recognition apparatus of any one of Claims 1 thru | or 6. コンピュータを請求項1乃至6のいずれか1項に記載の物体認識装置の各手段として機能させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。A computer-readable recording medium on which a program for causing a computer to function as each unit of the object recognition device according to any one of claims 1 to 6 is recorded.
JP2003387151A 2003-08-04 2003-11-17 Object recognition apparatus, object recognition method, program, and recording medium Expired - Fee Related JP4349568B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003387151A JP4349568B2 (en) 2003-08-04 2003-11-17 Object recognition apparatus, object recognition method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003285714 2003-08-04
JP2003387151A JP4349568B2 (en) 2003-08-04 2003-11-17 Object recognition apparatus, object recognition method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005070026A JP2005070026A (en) 2005-03-17
JP4349568B2 true JP4349568B2 (en) 2009-10-21

Family

ID=34425136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003387151A Expired - Fee Related JP4349568B2 (en) 2003-08-04 2003-11-17 Object recognition apparatus, object recognition method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4349568B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4917959B2 (en) * 2007-05-09 2012-04-18 日本電信電話株式会社 Perceptual specular / diffuse reflection image estimation method and apparatus, program, and storage medium
JP5058838B2 (en) * 2008-02-01 2012-10-24 キヤノン株式会社 Information processing apparatus and method
JP5009865B2 (en) * 2008-06-16 2012-08-22 日本電信電話株式会社 Image conversion apparatus, image conversion method, image conversion program, and computer-readable recording medium recording the image conversion program
US9042609B2 (en) * 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JP5928076B2 (en) * 2012-03-28 2016-06-01 セイコーエプソン株式会社 Analysis method, imaging device
CN103413318B (en) * 2013-08-27 2016-03-02 北京航空航天大学 Target ball mirror surface center positioning method
WO2020145023A1 (en) * 2019-01-10 2020-07-16 コニカミノルタ株式会社 Optical characteristic analysis apparatus and program

Also Published As

Publication number Publication date
JP2005070026A (en) 2005-03-17

Similar Documents

Publication Publication Date Title
JP3767541B2 (en) Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method
US8705815B2 (en) Systems and methods for automatic skin-based identification of people using digital images
US9134121B2 (en) Determining material properties using speckle statistics
JP2002279416A (en) Method and device for correcting color
JP2009508648A (en) System and method for analyzing human skin condition using digital images
JP2008529170A (en) Distinguishing between illumination and reflection boundaries
JP5340907B2 (en) Information processing apparatus, information processing method, and program
JP2009134383A (en) Image processing device, method, and program
JP4974599B2 (en) Microscope color imaging apparatus, microscope color imaging program, and microscope color imaging method
JP2006084425A (en) Multispectral image processing method, and diagnosing method using multispectral skin image
JP2014027597A (en) Image processor, object identification device, and program
JP4349568B2 (en) Object recognition apparatus, object recognition method, program, and recording medium
US20110304820A1 (en) Method and device for imaging a target
JP4756148B2 (en) Gloss / color reproduction system, gloss / color reproduction program
JP4415446B2 (en) Colorimetric image conversion method, colorimetric image conversion apparatus, and computer-readable information recording medium recording a colorimetric image conversion program
JP2001311666A (en) Colorimetric conversion coefficient calculating method and colorimetric image converting method, colorimetric conversion coefficient computing device and colorimetric image converting device, and computer-readable information recording medium with colorimetric conversion coefficient computing program or colorimetric image pickup program recorded thereon
EP3340111A2 (en) Biometric authentication apparatus, biometric authentication system and biometric authentication method
JP4378810B2 (en) Colorimetric conversion coefficient calculation method, colorimetric imaging method, colorimetric conversion coefficient calculation device, colorimetric imaging device, and computer-readable information recording medium recording a colorimetric conversion program
JP2009258770A (en) Image processing method, image processor, image processing program, and imaging device
CN114972547A (en) Method for determining tooth color
JP2001186540A (en) Colorimetry conversion coefficient calculation method, colorimetry image conversion method, and colorimetry conversion coefficient calculation device and colorimetry image converter, and computer-readable information recording medium for recording colorimetry conversion coefficient calculation program or colorimetry image pickup program
JP2002157588A (en) Method and apparatus for processing image data and recording medium with recording program for performing the method recorded thereon
JP2011095110A (en) Apparatus and method for estimation of light source
JP6317703B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
Brogle Incorporating High Dynamic Range into Multispectral Imaging for Cultural Heritage Documentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees