JP4349568B2 - Object recognition apparatus, object recognition method, program, and recording medium - Google Patents
Object recognition apparatus, object recognition method, program, and recording medium Download PDFInfo
- Publication number
- JP4349568B2 JP4349568B2 JP2003387151A JP2003387151A JP4349568B2 JP 4349568 B2 JP4349568 B2 JP 4349568B2 JP 2003387151 A JP2003387151 A JP 2003387151A JP 2003387151 A JP2003387151 A JP 2003387151A JP 4349568 B2 JP4349568 B2 JP 4349568B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- specular reflection
- illumination light
- object recognition
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、物体表面に鏡面反射や光沢が観察される状況において、静止画像、もしくは連続して入力される動画像中の鏡面反射成分を除去し、その結果を用いて物体を認識する物体認識装置および方法、そのプログラム並びに記録媒体に関する。 The present invention eliminates the specular reflection component in a still image or continuously input moving image in a situation where specular reflection or gloss is observed on the object surface, and recognizes the object using the result. The present invention relates to an apparatus and method, a program thereof, and a recording medium.
画像を用いた物体認識技術では、被写体表面に鏡面反射や光沢が観察される場合には、その影響により認識精度が低下する。この問題を解決するために、一般には、鏡面反射成分を含まない領域のみによる処理や、入力画像から鏡面反射成分を分離して得られた拡散反射成分の画像を用いた処理が行われている。 In the object recognition technique using an image, when specular reflection or gloss is observed on the surface of a subject, the recognition accuracy is lowered due to the influence. In order to solve this problem, in general, processing using only an area that does not include a specular reflection component or processing using an image of a diffuse reflection component obtained by separating the specular reflection component from an input image is performed. .
しかし、鏡面反射成分を含まない領域のみを用いた処理では、鏡面反射を含むか否かの判別を行う必要があり、複雑な処理を必要とする。また、被写体を特徴付けるテクスチヤが鏡面反射により隠蔽されている場合には、認識精度が著しく低下する。 However, in the process using only the region not including the specular reflection component, it is necessary to determine whether or not the specular reflection is included, and a complicated process is required. In addition, when the texture characterizing the subject is concealed by specular reflection, the recognition accuracy is significantly reduced.
一方、鏡面反射成分と拡散反射成分との分離を行い、拡散反射成分の画像を用いた処理では、照明光源および画像撮影装置の入力部において光の偏光を制御することで鏡面反射成分を除去し、拡散反射成分のみの画像を得ることができる(例えば、非特許文献1参照)。また、異なる方向から被写体に照明を当てて撮影した画像から、被写体の鏡面反射成分と拡散反射成分とを分離することができる(例えば、非特許文献2参照)。しかし、非特許文献1および非特許文献2に記載の技術では、1枚の拡散反射成分の画像を得るためには撮影条件を変えて撮影した複数枚の入力画像を必要とするため、動く物体を被写体とする場合や、動画像を入力画像とする場合には適さない。さらに、特殊な撮影装置を要するため、この技術を使用できる状況も制限されている。 On the other hand, the specular reflection component and the diffuse reflection component are separated, and in the processing using the diffuse reflection component image, the specular reflection component is removed by controlling the polarization of light in the illumination light source and the input unit of the image capturing apparatus. Thus, an image having only a diffuse reflection component can be obtained (see, for example, Non-Patent Document 1). In addition, the specular reflection component and the diffuse reflection component of the subject can be separated from an image taken by illuminating the subject from different directions (see, for example, Non-Patent Document 2). However, in the techniques described in Non-Patent Document 1 and Non-Patent Document 2, in order to obtain a single diffuse reflection component image, a plurality of input images taken under different shooting conditions are required. Is not suitable for a case where a subject is a subject or a moving image is an input image. Furthermore, since a special photographing apparatus is required, the situation in which this technology can be used is also limited.
また、被写体を多方向から撮影した複数の画像からは、画像での対応点追跡を行い、その結果を用いて鏡面反射成分と拡散反射成分を分離することができる(例えば、特許文献1参照)。しかし、特許文献1に記載の技術では、照明光源が複数存在する場合には鏡面反射成分や光沢の影響により対応点追跡の精度が低下し、その結果、鏡面反射成分と拡散反射成分との分離精度が低下する。 Further, from a plurality of images obtained by photographing a subject from multiple directions, corresponding points can be tracked in the image, and the specular reflection component and the diffuse reflection component can be separated using the result (see, for example, Patent Document 1). . However, in the technique described in Patent Document 1, when there are a plurality of illumination light sources, the accuracy of tracking corresponding points is lowered due to the influence of the specular reflection component and gloss, and as a result, the specular reflection component and the diffuse reflection component are separated. Accuracy is reduced.
また、被写体の分光反射率を推定することにより、撮影時とは異なる照明環境(照明光スペクトルが異なる場合)でも、同じ照明下で観察した際の色を再現することができる。現在、この技術を医療分野や電子美術館(デジタルアーカイブ)、電子商取引(オンラインショッピング等)に応用した高色再画像システムの開発が進められている。しかし、主に目視による識別が主目的で、データベース等に蓄積された画像と入力画像で画像同士での照合を行う、画像認識、探索、検索は行われていない。その理由としては、鏡面反射が観測される(画像が含まれる)場合には、その影響により色再現が困難であること、また本来観察されるべき被写体表面のテクスチャが鏡面反射により隠蔽されていることがあげられる。 Further, by estimating the spectral reflectance of the subject, it is possible to reproduce the color observed under the same illumination even in an illumination environment different from that at the time of photographing (when the illumination light spectrum is different). Currently, development of a high-color re-image system in which this technology is applied to the medical field, an electronic museum (digital archive), and electronic commerce (online shopping, etc.) is in progress. However, image recognition, search, and search are not performed in which the primary purpose is mainly visual identification, and the images stored in the database or the like and the input images are compared with each other. The reason for this is that when specular reflection is observed (including an image), color reproduction is difficult due to the effect, and the texture of the subject surface to be originally observed is hidden by specular reflection. Can be mentioned.
本発明は、上記従来技術の問題点を解決すべくなされたもので、照明光成分を用いて鏡面反射成分を含まない画像(鏡面反射除去画像)を生成し、得られた鏡面反射除去画像を用いて、照明条件(光源の数や種類、配置)の変化に対し、物体認識処理を安定に行うことができる物体認識装置及び方法、そのプログラム並びに記録媒体を提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art. An illumination light component is used to generate an image (specular reflection removal image) that does not include a specular reflection component, and the obtained specular reflection removal image is obtained. It is an object of the present invention to provide an object recognition apparatus and method, a program thereof, and a recording medium that can stably perform object recognition processing with respect to changes in illumination conditions (the number, type, and arrangement of light sources).
また、本発明は、入力画像と照合画像とで撮影時の照明の種類(分光スペクトル)が異なる場合でも、画素値毎の単純な比較による照合が可能である物体認識装置及び方法、そのプログラム並びに記録媒体を提供することを目的とする。 Further, the present invention provides an object recognition apparatus and method, a program thereof, and an object recognition device capable of collation by simple comparison for each pixel value even when the type of illumination (spectral spectrum) at the time of shooting is different between the input image and the collation image An object is to provide a recording medium.
本発明は、物体の撮影時に用いる照明光源の照明光成分を取得する手段と、撮影装置により撮影された対象物の画像である入力画像と対象物の表面からの反射光の分光放射輝度とを取り込む手段と、予め撮影されている対象物の画像である蓄積画像と、該蓄積画像の撮影時の照明光成分とを、少なくとも蓄積する手段と、取得した照明光成分を用いて入力画像から鏡面反射成分を含まない鏡面反射除去画像を生成する手段を備える。 The present invention includes means for acquiring an illumination light component of an illumination light source used for photographing an object , an input image that is an image of the object photographed by the photographing apparatus, and a spectral radiance of reflected light from the surface of the object. Means for capturing, at least means for accumulating an accumulated image that is an image of an object that has been captured in advance, and an illumination light component at the time of capturing the accumulated image, and a mirror surface from the input image using the acquired illumination light component Means for generating a specular reflection removal image that does not include a reflection component.
また、本発明は、鏡面反射除去画像と蓄積手段に蓄積された蓄積画像とを照合する手段を更に備える。また、入力画像と当該入力画像の鏡面反射除去画像、または、入力画像と当該入力画像の鏡面反射除去画像および蓄積画像と当該蓄積画像の鏡面反射除去画像とを表示する手段を備える。
Further, the present invention further comprises means for collating the stored images stored in the storage means and the specular reflection removed image. In addition, the image processing apparatus includes means for displaying an input image and a specular reflection removal image of the input image, or an input image, a specular reflection removal image and an accumulation image of the input image, and a specular reflection removal image of the accumulation image.
鏡面反射除去画像の生成は、入力画像の分光放射輝度を照明光成分で割って総合反射率画像を得(照明光を用いて物体表面の各画素における見かけの反射率を算出)、この総合反射率画像の各画素の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することで行う。 The specular reflection removal image is generated by dividing the spectral radiance of the input image by the illumination light component to obtain the total reflectance image (calculating the apparent reflectance at each pixel on the object surface using the illumination light), and this total reflection a signal value of each pixel rate image, vector U (λ) = [1,1, ..., 1] (λ is wavelength) performed by projecting the hyperplane to the normal line.
なお、照明光成分の計測装置、および画像の取り込みに用いる撮影装置に関しては、予め当該機器の入力及び出力特性を計測しておく。 Note that the input and output characteristics of the device are measured in advance with respect to the illumination light component measurement device and the imaging device used for image capture.
まず、照明光源等の照明光成分の取得について説明する。一般には白色板からの拡散光を照明光成分とし、その計測には分光輝度計、色彩輝度計、もしくは3バンド以上の画像撮影が可能なデジタルカメラが用いられる。一般的に3バンドとは「赤、緑、青」の三原色を指す。ここで照明光成分とは、照明光の分光スペクトル、光原色、もしくは撮影装置により撮影された白色板の画像の信号値とする。デジタルカメラを使用する場合、一般に入力された光の強度と、出力される信号値は、比例関係にない。そこで、あらかじめデジタルカメラの特性を計測しておき、その結果を参照して信号値を明るさで規格化する。計測時には、1種類の照明光源だけ点灯させ、他の照明は消灯した状態で行う。これをすべての照明光源に対して行い、複数の照明光成分を得る。オフィス環境など、使用されている光源が有限種類に限定できる場合には、照明光源としてそれらすべてを仮定し、予め計測しておいたデータを用いてもよい。また、照明光としては太陽光等の自然光を用いることも可能である。ただし、自然光と複数の人工的な照明光とを組み合わせて照明光群として使用する場合は、人工的な照明光のみが被写体(対象物)を照らすことを可能にするような構成が必要になる。その構成としては、例えば、被写体と人工的な照明光との組み合わせを自然光から遮断するような覆いを用いる。 First, acquisition of illumination light components such as illumination light sources will be described. In general, diffused light from a white plate is used as an illumination light component, and a spectral luminance meter, a color luminance meter, or a digital camera capable of taking an image of three or more bands is used for the measurement. Generally, the three bands refer to the three primary colors “red, green, and blue”. Here, the illumination light component is a spectral value of illumination light, a light primary color, or a signal value of an image of a white plate photographed by a photographing apparatus. When a digital camera is used, the intensity of input light and the output signal value are not generally proportional. Therefore, the characteristics of the digital camera are measured in advance, and the signal value is normalized by brightness with reference to the result. At the time of measurement, only one type of illumination light source is turned on, and the other illuminations are turned off. This is performed for all illumination light sources to obtain a plurality of illumination light components. When the light sources used can be limited to a finite type, such as in an office environment, all of them may be assumed as illumination light sources and data measured in advance may be used. Further, natural light such as sunlight can be used as illumination light. However, when natural light and a plurality of artificial illumination lights are used in combination as an illumination light group, a configuration is required that enables only artificial illumination light to illuminate the subject (object). . As the configuration, for example, a cover that blocks the combination of the subject and artificial illumination light from natural light is used.
次に、被写体の画像取込みについて説明する。撮影装置としては、例えば、3バンド以上の画像撮影が可能なデジタルカメラを用いる。撮影装置からの出力信号値は、照明情報取得時と同じく、あらかじめ計測しておいた機器特性を基に明るさでの規格化を行う。画像中の光沢や鏡面反射が明るすぎて撮影装置のダイナミックレンジを超えてしまい画像情報が欠損する場合には、露光時間や絞り値を適切な値に調節するか、露光時間を変えて取得した複数のダイナミックレンジが広い1枚の画像を合成する。また用途にあわせ、得られた信号値から、撮影装置に入力された光の分光スペクトルもしくは色度値を推定する。 Next, image capturing of a subject will be described. As the photographing device, for example, a digital camera capable of photographing images of three bands or more is used. The output signal value from the imaging device is normalized by brightness based on the device characteristics measured in advance, as in the case of obtaining illumination information. If the image information is lost because the glossiness or specular reflection in the image is too bright and exceeds the dynamic range of the imaging device, the exposure time and aperture value are adjusted to appropriate values or acquired by changing the exposure time. A single image with a wide dynamic range is synthesized. Further, the spectral spectrum or chromaticity value of the light input to the photographing apparatus is estimated from the obtained signal value according to the application.
次に、照明光成分を用いて入力画像から鏡面反射成分を含まない鏡面反射除去画像を得る原理について説明する。ここでは、分光スペクトルを入力とする場合について述べる。 Next, the principle of obtaining a specular reflection-removed image that does not include a specular reflection component from the input image using the illumination light component will be described. Here, a case where a spectral spectrum is input will be described.
初めに、入力画像の各画素の信号値を照明光成分に直交する空間に投影することで、鏡面反射除去画像が得られる原理を、図13にもとづき説明する。
対象とする被写体は、非金属で2色正反射が仮定できる有彩色の拡散物体とする。簡単のため、1つの点光源で被写体を照明する場合について考える。ある方向が被写体を観察した際に観察される、物体表面の1点からの反射光の分光放射輝度(反射光スペクトル)I(λ)は、標準2色性反射モデルが仮定できる場合、(1)式のように、拡散反射成分(第1項)と鏡面反射成分(第2項)の線形和で表わされる。
The target object is a non-metallic chromatic diffuse object that can assume two-color regular reflection. For simplicity, consider the case where a subject is illuminated with a single point light source. The spectral radiance (reflected light spectrum) I (λ) of reflected light from one point on the object surface observed when a subject is observed in a certain direction is (1) when the standard dichroic reflection model can be assumed. ) As a linear sum of a diffuse reflection component (first term) and a specular reflection component (second term).
鏡面反射成分は照明光と同じ分光分布を持つ。I(λ)をE(λ)に直交する空間に投影して得られる成分をP(λ)とすると、
次に、分光分布が異なるL個の照明光源で被写体を照明する場合を考える。i番目の照明光源の分光スペクトルをEi(λ)とすると、観察される被写体表面のある1点からの反射光の分光放射輝度(反射光スペクトル)I(λ)は次式のように表わされる。
ここで、各光源の分光スペクトルEi(λ)(i=1,2,…,N)全てに直交する空間をG(λ
)とすると、反射光スペクトルI(λ)を空間G(λ)に投影して得られる成分P(λ)は次式のように表わされる。
), The component P (λ) obtained by projecting the reflected light spectrum I (λ) onto the space G (λ) is expressed by the following equation.
なお、照明光スペクトルに直交する成分P(λ)は次のように求めることもできる。反射光スペクトルI(λ)のi番目の照明光源の分光スペクトルに直交する成分Pi(λ)を求め、さらにPi(λ)を(i+1)番目の照明光源の分光スペクトルに直交する空間へ投影する。この処理をi=0,・・・,Lに関して繰り返すことで、用いたすべての照明光スペクトルに直交する成分P(λ)が次式のように求まる。
ここで、上記式(5)あるいは式(6)、(7)の処理の違いは、計算機資源の使い方やプログラムに依存する。 Here, the difference in the processing of the above formula (5) or formulas (6) and (7) depends on the usage of the computer resources and the program.
オフィス環境など、使用されている光源が有限種類に限定できる場合には、照明光源としてそれら全てを仮定し、仮定した照明光源の分光スペクトルのすべてに直交する空間をG(λ)としてもよい。 When the light sources used can be limited to a finite type, such as in an office environment, all of them may be assumed as illumination light sources, and a space orthogonal to all of the assumed spectrum of the illumination light sources may be G (λ).
以上の原理は、線形な入出力特性をもつ撮影装置からの出力信号に対しても同様に成り立つ。まず、各光源を単独に点灯させた状態で標準白色板のマルチバンド画像(バンド数:N≧3、波長選択性の強いカラーフィルタを複数用いた場合の画像に相当する)を撮影し、i番目の光源下における画像の信号値を正規化したものWi=[Wi(1),・・・,Wi(N)]を、照明分光の分光スペクトルEi(λ)の代わりに用いる。次に被写体のマルチバンド画像を撮影する。なお、撮影装置は標準白色板の撮影時と同じものを使用する。分光スペクトルが異なるl個の照明光源で被写体を照明する場合を考える。画像上の1画素には被写体表面のある1点からの反射光が記録されると仮定すると、nバンド目の画像上のある1画素の画素値c(n)は次のように表される。
Wi(n)はi番目の照明光源下で白色板の画素値を正規化したもの、D'i(n)とk'i(n)Wi(n)はi番目の照明光源のみで被写体を照明したときの拡散反射成分と鏡面成分、
k'i(n)は鏡面反射成分の強度を表す係数である。全てのWiに直交するベクトルG'=[G'(1),・・・,G'(N)]を求め、c=[c(1),・・・,c(N)]をG'へ投影することにより、鏡面反射成分を含まない成分P'=[P'(1),・・・,P'(N)]が得られる。
k ′ i (n) is a coefficient representing the intensity of the specular reflection component. All W i vectors orthogonal to G '= [G' (1 ), ···, G '(N)] sought, c = [c (1) , ···, c (N)] The G By projecting onto ', a component P ′ = [P ′ (1),..., P ′ (N)] that does not include a specular reflection component is obtained.
以上の処理を画像中の全画素に対して行うことで、鏡面反射成分を含まない鏡面反射除去画像が得られる。なお、得られる画像は拡散成分の画像とは異なる。その画素値はG'に依存し、負の値にもなる。 By performing the above processing on all the pixels in the image, a specular reflection-removed image not including the specular reflection component is obtained. The obtained image is different from the image of the diffusion component. The pixel value depends on G ′ and becomes a negative value.
上記のように求められた照明光スペクトルに直交する成分P(λ)、もしくはP'を用いて認識処理を行うことにより、鏡面反射成分の影響を受けない、照明変化に対して頑健な物体認識が可能となる。 By performing recognition using the component P (λ) or P ′ that is orthogonal to the illumination light spectrum obtained as described above, object recognition that is not affected by specular reflection components and is robust against illumination changes Is possible.
さらに、得られた成分P(λ)、もしくはP’の各画素値を、そのパワーで正規化(例えば、P(λ)/|P(λ)|)して、照明条件に依存しない鏡面反射成分の除去された画像(照明不変画像)を生成し、この画像を用いて認識処理を行ってもよい。 Furthermore, each pixel value of the obtained component P (λ) or P ′ is normalized by its power (for example, P (λ) / | P (λ) |), and specular reflection independent of illumination conditions An image from which components are removed (illumination invariant image) may be generated, and recognition processing may be performed using this image.
次に、入力画像の分光放射輝度を照明光成分で割り、総合反射率画像を生成し(照明光スペクトルを用いて物体表面の各画素における見かけの反射率を算出)、総合反射率画像をベクトルU(λ)=[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る原理について説明する。ここでも、分光スペクトルを入力とする場合について述べる。 Next, the spectral radiance of the input image is divided by the illumination light component to generate an overall reflectance image (the apparent reflectance at each pixel on the object surface is calculated using the illumination light spectrum), and the overall reflectance image is vectorized The principle of obtaining a specular reflection-removed image by projecting onto a hyperplane having the normal line U (λ) = [1, 1,..., 1] will be described. Here, the case where a spectrum is input is described.
一つの点光源で被写体を照明する場合について考える。ある方向から被写体を観察した際に観測される、物体表面の1点xからの反射光の分光放射輝度(反射光スペクトル)I(x,λ)は、標準2色反射モデルが仮定できる場合、(10)式で表わされる。これは、先の(1)式と基本的に同じ式である(先の(1)式は位置座標xを省略した簡略式)。
ここで、総合反射率画像F(x,λ)を
本発明によれば、鏡面反射により隠れているテクスチャ等の可視化が実現でき、入力画像と蓄積画像(照合用画像)の比較を行う際に、鏡面反射による認識精度の低下を抑制することができる。したがって、例えば、複数の照明光源が存在するオフィス環境や、窓のある部屋、また蓄積画像撮影時とは異なる照明環境での物体認識が容易となる。また、照明光スペクトルを用いて物体表面(各画素)における見かけの反射率を算出し、得られた結果をベクトルU(λ)=[1,1,…,1](全ての成分の値が同じ)を法線とする超平面に投影し、鏡面反射成分の除去された画像を用いることにより、入力画像と照合用画像とで撮影時の照明の種類(分光スペクトル)が異なる場合でも、画素値ごとの単純な比較による照合が可能になる。 According to the present invention, it is possible to visualize a texture or the like hidden by specular reflection, and it is possible to suppress a decrease in recognition accuracy due to specular reflection when comparing an input image and an accumulated image (collation image). . Therefore, for example, object recognition is facilitated in an office environment in which a plurality of illumination light sources exist, a room with a window, or an illumination environment different from that when an accumulated image is captured. Further, the apparent reflectance on the object surface (each pixel) is calculated using the illumination light spectrum, and the obtained result is expressed as a vector U (λ) = [1, 1,..., 1] (values of all components are The same image is projected onto a hyperplane with the normal as the normal line, and the image from which the specular reflection component has been removed is used. Collation by simple comparison for each value is possible.
以下、本発明の一実施の形態について図面により説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施の形態に係る物体認識システムの概略構成図を示す。物体認識装置1は、例えばパソコンなどのコンピュータで構成し、撮影装置であるデジタルCCDカメラ2の露光時間および画像取り込み、物体認識等の処理を制御する。また、取り込まれた画像は、物体認識装置1の内部に記憶される。該物体認識装置1には、あらかじめ照合用として撮影されている画像やその撮影時における照明光成分、鏡面反射除去画像等が蓄積されている。被写体3の撮影結果、鏡面反射除去画像および物体認識処理の結果等は結果表示用モニタ4に表示される。照明光源群5は、分光スペクトルが異なる複数の光源により構成されており、図示しない照明制御装置により、点灯、消灯を独立に制御できるようになっている。なお、物体認識装置1が照明制御装置を兼ねてもよい。白色板6の画像はデジタルCCDカメラ2により撮影され、各光源の照明光成分の算出に用いられる。
FIG. 1 is a schematic configuration diagram of an object recognition system according to an embodiment of the present invention. The object recognition apparatus 1 is constituted by a computer such as a personal computer, for example, and controls exposure time, image capture, object recognition, and other processes of the digital CCD camera 2 that is a photographing apparatus. The captured image is stored inside the object recognition apparatus 1. The object recognition apparatus 1 stores an image previously captured for verification, an illumination light component at the time of capturing, a specular reflection removed image, and the like. The photographing result of the subject 3, the specular reflection removal image, the result of the object recognition processing, and the like are displayed on the result display monitor 4. The illumination
図2は、本発明における物体認識装置1の一実施例を示す全体構成図である。本物体認識装置1は、撮影装置の入力、出力特性を計測する撮影装置特性計測部11、照明光源の照明光成分を取得する照明光情報取得部12、撮影装置により撮影される入力画像を取り込む画像取込部13、入力画像から鏡面反射成分を含まない鏡面反射除去画像を生成する鏡面反射除去部14、あらかじめ照合用として撮影されている画像やその撮影時における照明光成分、さらに鏡面反射除去画像等を蓄積している画像等蓄積部(照合画像データベース)15、鏡面反射除去画像を照合用画像と照合して認識処理を行う画像解析部(画像認識部)16、物体認識結果、あるいは入力画像とその鏡面反射除去画像、さらには蓄積されている画像やその鏡面反射除去画像の一部あるいは全部の表示を制御する画像表示制御部17で構成される。
FIG. 2 is an overall configuration diagram showing an embodiment of the object recognition apparatus 1 according to the present invention. The object recognition apparatus 1 captures an input image captured by the imaging apparatus, an imaging apparatus
図3に、物体認識装置1の全体的処理フロー図を示す。撮影装置特性計測部11では、あらかじめ撮影装置であるデジタルCCDカメラ2の入力、出力特性を計測しておく(S1001)。計測結果の撮影装置特性データは照明光情報取得部12および画像取込部13に送られる。
FIG. 3 shows an overall process flow diagram of the object recognition apparatus 1. The imaging device
照明光情報取得部12では、デジタルCCDカメラ2において撮影された白色板6の画像を取り込み、撮影装置特性データを参照して信号値の変換を行い(γ補正処理)、規格化された信号値から照明光成分を取得し、記憶しておく(S1002)。この照明光成分は鏡面反射除去部14に送られる。
The illumination light
画像取込部13では、デジタルCCDカメラ2において撮影された被写体3の画像を取り込み、撮影装置特性データを参照して信号値の変換を行い(γ補正処理)、規格化された入力画像を出力する(S1003)。ここで、デジタルCCDカメラ2により取り込まれる入力画像には、鏡面反射成分に関する明るさおよび色の情報が記録されている。
The
鏡面反射除去部14では、入力画像の分光放射輝度を照明光成分で割り、総合反射率画像を生成し、この総合反射率画像を、ベクトル[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る(S1004)。
The specular
画像解析部16では、鏡面反射除去部14で得られた鏡面反射除去画像を用い、該鏡面反射除去画像と画像等蓄積部15にあらかじめ蓄積されている照合用画像とを照合することで、認識処理を行い、画像中の物体の認識結果を出力する(S1005)。ここで、照合用画像としては、あらかじめ撮影されて画像等蓄積部15に蓄積されている画像(蓄積画像)、あるいはその鏡面反射除去画像が用いられる。
The
画像表示制御部17では、画像解析部16で得られた物体認識結果を結果表示用モニタ2に表示する(S1006)。画像表示制御部17では、この時、物体認識結果と共に入力画像、鏡面反射除去画像等を表示してもよい。
The image
なお、図2の構成図では必要な矢印は省略したが、鏡面反射除去部14では、画像蓄積部15からも蓄積画像の照明光成分データを入力して、これと照明光情報取得部12からの照明光成分データとを用いて、入力画像と蓄積画像共通の投影空間を求めて、鏡面反射除去画像を得ることも可能である。この場合、算出された投影空間データは画像等蓄積部15に送る。画像等蓄積部15では、照合用画像に蓄積画像の鏡面反射除去画像を用いる場合、例えば、鏡面反射除去部14で算出された投影空間データを用いて、蓄積画像の鏡面反射除去画像を生成し、その結果を照合用画像として画像解析部16へ送るようにする。
Although the necessary arrows are omitted in the configuration diagram of FIG. 2, the specular
図4に、物体認識装置1の他の処理フロー図を示す。図4において、S2001〜S2004までは図3のS1001〜S1004と同じである。図4では、鏡面反射除去部14において入力画像の鏡面反射除去画像が得られたならば(S2005)、画像解析部16での画像認識処理は行わず、画像表示制御部17は、入力画像およびその鏡面反射除去画像、さらには画像等蓄積部15の画像等を結果表示用モニタ4に表示して、認識は人間により視覚的な判別にゆだねるものである(S2005)。この場合、画像解析部(画像認識部)16は省略でき、物体認識装置の構成が簡単化される。
FIG. 4 shows another processing flow diagram of the object recognition apparatus 1. 4, S2001 to S2004 are the same as S1001 to S1004 in FIG. In FIG. 4, if the specular reflection removal image of the input image is obtained in the specular reflection removal unit 14 (S2005), the image recognition processing in the
なお、画像等蓄積部15に対して、あらかじめ照合用の画像やその撮影時における照明光成分、鏡面反射除去画像等を蓄積する場合の動作は、基本的に図3の処理フロー図で説明したと同様であるので、説明は省略する。
Note that the operation in the case where the image for collation, the illumination light component at the time of photographing, the specular reflection removal image, etc. is stored in advance in the
次に、図2に示した物体認識装置1の各部の構成、動作について説明する。
撮影装置特性計測部11では、例えば図11に示す方法により、あらかじめデジタルCCDカメラ2の入力、出力の特性を計測する。なお、対象のデジタルCCDカメラ2のホワイトバランス、ゲイン、γ値などの自動補正機能はOFFにしておく。まず、CRT等の表示装置に明るさが既知である白色を表示し、それをデジタルCCDカメラ2で撮影する。次に、表示した白色の明るさを変化させ、再び画像を撮影する。この作業を数回繰り返し、撮影装置(デジタルCCDカメラ)への入力光の明るさと、出力信号値との関係を計測する。そして、この計測結果を基に、撮影装置からの出力信号値から入力光の明るさを推定する撮影装置特性データとしての変換式(多項式近似あるいは変換テーブル)を求める(図12参照)。
Next, the configuration and operation of each part of the object recognition apparatus 1 shown in FIG. 2 will be described.
The imaging device
図5に照明光情報取得部12の構成例を示す。照明光情報取得部12は、照明光取込部121、規格化処理部122、正規化処理部123、照明光成分蓄積部124から構成される。デジタルCCDカメラ2において撮影された白色板6の画像(照明光)は照明光情報取込部121で取込まれ、規格化処理部122において、撮影装置特性計測部11からの撮影装置特性データを参照して信号値の変換が行われ(γ補正処理)、規格化された信号値を得る。更に正規化処理部124において、パワーが1になるように正規化処理が行われ、その結果を照明光成分として照明光成分蓄積部125に蓄積する。照明制御装置7は、白色板6の画像撮影時に点灯している照明光源が1つのみとなるよう照明光源群5の照明を制御する。この処理を全ての照明光源に対して行い、得られた複数の照明光成分のデータが照明光成分蓄積部125に蓄積され、鏡面反射除去部14へ送られる。なお、照明光情報取得部12では、有限種類の一般的に用いられている照明光源の照明光成分をあらかじめ計測しておいて照明光成分蓄積部124に蓄積しておくことでもよい。
FIG. 5 shows a configuration example of the illumination light
図6に画像取込部13の構成例を示す。画像取込部13は、規格化処理部131から構成される。デジタルCCDカメラ2において撮影された被写体3の入力画像は、規格化処理部131において、撮影装置特性計測部11からの撮影装置特性データを参照にした信号値の変換により(γ補正処理)、規格化された画像となり鏡面反射除去部14へ送られる。この規格化画像には、光沢び鏡面反射成分に関する明るさおよび色の情報が含まれている。
FIG. 6 shows a configuration example of the
図7に鏡面反射除去部14の第1の構成例を示す。これは、入力画像を照明光成分に直交する空間に投影することで、鏡面反射除去画像を得る場合の構成例である。本鏡面反射除去部14は、投影空間算出部141、投影演算処理部142から構成される。投影空間算出部141では照明光情報取得部12で得られた全ての照明光成分に直交する空間(投影空間データ)を算出する。投影演算処理部142では、その結果に基づき、画像取込部13において得られた規格化後の入力画像の各画素の信号値を投影空間へ投影し、鏡面反射成分を除去する。この処理を全ての画素に関して行うことで、鏡面反射除去画像が得られる。
FIG. 7 shows a first configuration example of the specular
先に述べたように、該鏡面反射除去部14では、画像等蓄積部15からの蓄積画像の照明光成分データと、照明光情報取得部12で取られた人力画像撮影時の照明光成分データを用いて、投影空間算出部141にて入力画像と蓄積画像共通の投影空間データを算出し、投影演算処理部142にて、画像取込部13において得られた規格化後の入力画像の各画素の信号値を該投影空間へ投影し、鏡面反射成分を除去することでもよい。投影空間算出部141で算出された入力画像と蓄積画像共通の投影空聞データは、画像等蓄積部15にも送られる。
As described above, in the specular
なお、図7では省略したが、投影演算処理部142の出力側に正規化処理部を設け、投影演算処理部142で得られた鏡面反射除去画像の各画素値をそのパワーで正規化するようにしてもよい。これにより、照明条件に依存しない鏡面反射除去画像(照明不変画像)が得られる。
Although omitted in FIG. 7, a normalization processing unit is provided on the output side of the projection
図8に鏡面反射除去部14の第2の構成例を示す。これが、入力画像の分光放射輝度を照明光成分で割って総合反射率画像を生成し、この総合反射率画像を、ベクトルU(λ)=[1,1,…,1]を法線に持つ超平面に投影することで、鏡面反射除去画像を得る場合の本発明の構成例である。本鏡面反射除去部14は、法線ベクトル設定部143、総合反射率画像生成部144、投影演算処理部145から構成される。法線ベクトル設定部143は、あらかじめベクトルU(λ)=[1,1,…,1]を保持している。ベクトルの次元(要素数)Nは、取得する画像の色成分に対応し、例えば、色成分が3の場合はN=3で、U(λ)=[1,1,,1]となる。総合反射率画像生成部144では、照明光情報取得部12で得られた照明光成分データ群と画像取込み部13において得られた入力画像から総合反射率画像を生成する。すなわち、照明光スペクトルを用いて、入力画像の各画素における見かけの反射率を算出する。投影演算処理部145では、法線ベクトル設定部143からベクトル[1,1,…,1]を入力し、該ベクトルを法線に持つ超平面に、総合反射率画像生成部144で得られた総合反射率画像の各画素の信号値(画素値)を投影し、鏡面反射成分を除去する。この処理を全ての画素に関して行うことで、入力画像から鏡面反射成分の除去された鏡面反射除去画像が得られる。
FIG. 8 shows a second configuration example of the specular
なお、図8でも省略したが、投影演算処理部145の出力側に正規化処理部を設け、投影演算処理部142で得られた鏡面反射除去画像の各画素値をそのパワーで正規化するようにしてもよい。これにより、照明条件に依存しない鏡面反射除去画像(照明不変画像)が得られる。
Although omitted in FIG. 8, a normalization processing unit is provided on the output side of the projection
図9に画像等蓄積部(照合画像データベース)15の第1の構成例を示す。本画像等蓄積部15は照明光成分蓄積部151、規格化画像蓄積部152、鏡面反射除去画像蓄積部153から構成される。規格化画像蓄積部152及び鏡面反射除去画像蓄積部153には、あらかじめ照合用としてデジタルCCDカメラ2で撮影された全ての画像について、画像取込部13及び鏡面反射除去部14で算出された規格化画像及び鏡面反射除去画像がそれぞれ蓄積されている。照明光成分蓄積部151には、この照合用の画像の撮影時における照明光源の照明光成分データが照明光情報取得部12から送られて蓄積されている。この規格化画像蓄積部152の規格化画像及び/又は鏡面反射除去画像蓄積部153の鏡面反射除去画像が照合用画像として画像解析部16に送られる。
FIG. 9 shows a first configuration example of the image storage unit (collation image database) 15. The main
図10に画像等蓄積部15の第2の構成例を示す。本画像等蓄積部15は、照明光成分蓄積部151、規格化画像蓄積部152、投影空間算出部154、投影演算処理部155から構成される。照明光成分蓄積部151、規格化画像蓄積部152は図9と同じである。図10は、鏡面反射除去画像蓄積部153をなくして、当該画像等蓄積部15自体で照合用画像としての鏡面反射除去画像を生成するものである。必要な投影空間データは当該画像等蓄積部15自体で同様に算出するか、あるいは鏡面反射除去部14から送られたものを利用する。すなわち、規格化画像蓄積部152の各規格化画像に対応する照明光成分蓄積部151内の照明光成分から、投影空間算出部154にて投影空間データを算出し、投影演算処理部155にて、規格化画像蓄積部152の各規格化画像(蓄積画像)の鏡面反射除去画像を算出し、これを照合用画像とする。もしくは、照明光成分蓄積部151内の照明光成分データを鏡面反射除去部14へ送り、得られた入力画像と蓄積画像共通の投影空間データを用いて、投影演算処理部154にて規格化画像蓄積部152の各規格化画像(蓄積画像)の鏡面反射除去画像を算出し、これを照合用画像とする。
FIG. 10 shows a second configuration example of the
一般には、図9及び図10で説明した照合用画像のいずれか、あるいは全部を照合用画像とすることができる。 In general, any or all of the matching images described with reference to FIGS. 9 and 10 can be used as matching images.
図11に画像解析部16の構成例を示す。画像解析部16は、基本的に画像照合部161から構成される。画像照合部161にて、鏡面反射除去部14からの鏡面反射除去画像と、画像等蓄積部15からの照合用画像の照合を行い、物体の認識結果を得る。なお、画像解析部16では、必要に応じて、画像等蓄積部15からの照合用画像との照合処理を行わずに、鏡面反射除去部14からの鏡面反射除去画像を解析して認識結果を得るようにしてもよい。
FIG. 11 shows a configuration example of the
画像表示制御部17は、画像解析部15からの物体の認識結果を結果表示用モニタ2に表示する。該表示制御部17の構成図は省略する。先にも述べたように、表示制御部17では、画像取込部13と鏡面反射除去部14からの入力画像およびその鏡面反射除去画像並びに画像等蓄積部15からの蓄積画像およびその鏡面反射除去画像(照合用画像)、もしくは上記入力画像およびその鏡面反射除去画像のみを結果表示用モニタ4に表示し、人間により視覚的な判別を行うようにすることもできる。
The image
以上、本発明の一実施形態を説明したが、図2で示した物体認識装置における各部の一部もしくは全部の処理機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図3や図4で示した処理手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行させることができることは言うまでもない。また、コンピュータでその処理機能を実現させるためのプログラム、あるいは、コンピュータにその処理手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FDやMO、ROM、メモリーカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、提供したりすることができるとともに、インターネット等のネットワークを通してそのプログラムを配布したりすることが可能である。 Although one embodiment of the present invention has been described above, some or all of the processing functions of each part in the object recognition apparatus shown in FIG. 2 are configured by a computer program, and the program is executed using the computer. Needless to say, the invention can be realized, or the processing procedure shown in FIGS. 3 and 4 can be configured by a computer program and the program can be executed using the computer. In addition, a computer-readable recording medium such as an FD, MO, ROM, memory card, CD, or the like is stored in a computer-readable recording medium. In addition, the program can be recorded and stored on a DVD, a removable disk, etc., and the program can be distributed through a network such as the Internet.
本発明の物体認識技術は、ロボットによる物体探索や物体認識、物体の形状推定、文字認識、データベース上の画像検索、内視鏡画像でのテクスチャ解析等に応用が可能である。 The object recognition technique of the present invention can be applied to object search and object recognition by a robot, object shape estimation, character recognition, image search on a database, texture analysis with an endoscopic image, and the like.
1 物体認識装置
2 デジタルCCDカメラ
3 被写体
4 結果表示用モニタ
5 照明光源群
6 白色板
7 照明制御装置
11 撮影装置特性計測部
12 照明光情報取得部
13 画像取込部
14 鏡面反射除去部
15 画像等蓄積部
16 画像解析部
17 画像表示制御部
S1001、S2001 撮影装置特性計測ステップ
S1002、S2002 照明光成分計測ステップ
S1003、S2003 画像取込みステップ
S1004、S2004 鏡面反射成分除去ステップ
S1005 画像解析ステップ
S1006 認識結果等表示ステップ
S2005 入力画像、鏡面反射除去画像等表示ステップ
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 2 Digital CCD camera 3 Subject 4 Monitor for
Claims (14)
前記入力画像の撮影時の照明光源の照明光成分を取得する照明光情報取得手段と、
撮影装置により撮影された入力画像と前記対象物の表面からの反射光の分光放射輝度とを取り込む画像取込手段と、
前記予め撮影されている対象物の画像である蓄積画像と、前記蓄積画像の撮影時の照明光成分とを、少なくとも蓄積する蓄積手段と、
前記対象物の表面からの反射光の分光放射輝度を前記照明光情報取得手段で取得した照明光成分で割って総合反射率画像を生成し、該総合反射率画像の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することにより、前記入力画像から鏡面反射成分を除去した鏡面反射除去画像を生成する鏡面反射除去手段と、
を有することを特徴とする物体認識装置。 An object recognition apparatus that recognizes an object by collating a specular reflection-removed image obtained by removing a specular reflection component from an input image, which is an image of the object, and an accumulated image that is an image of the object photographed in advance. And
Illumination light information acquisition means for acquiring an illumination light component of an illumination light source at the time of capturing the input image ;
An image capturing means for capturing an input image captured by the imaging device and a spectral radiance of reflected light from the surface of the object ;
Wherein the stored image is an image of the object which is previously shot and an illumination light component at the time of photographing of the stored images, and storage means for at least storing,
A total reflectance image is generated by dividing the spectral radiance of the reflected light from the surface of the object by the illumination light component acquired by the illumination light information acquisition means , and the signal value of the total reflectance image is expressed as a vector U ( Specular reflection removal that generates a specular reflection removal image from which the specular reflection component is removed from the input image by projecting onto the hyperplane with λ) = [1,1,..., 1] (λ is the wavelength) as a normal line Means,
An object recognition apparatus comprising:
前記入力画像の撮影時の照明光源の照明光成分を取得する照明光情報取得ステップと、Illumination light information acquisition step of acquiring an illumination light component of an illumination light source at the time of capturing the input image;
撮影装置により撮影された入力画像と前記対象物の表面からの反射光の分光放射輝度とを取り込む画像取込ステップと、 An image capturing step for capturing an input image captured by the imaging device and a spectral radiance of reflected light from the surface of the object;
前記予め撮影されている対象物の画像である蓄積画像と、前記蓄積画像の撮影時の照明光成分とを、少なくとも蓄積手段に蓄積する蓄積制御ステップと、An accumulation control step of accumulating at least an accumulation image that is an image of the object that has been imaged in advance and an illumination light component at the time of imaging of the accumulation image;
前記対象物の表面からの反射光の分光放射輝度を前記照明光情報取得ステップで取得した照明光成分で割って総合反射率画像を生成し、該総合反射率画像の信号値を、ベクトルU(λ)=[1,1,…,1](λは波長)を法線とする超平面に投影することにより、前記入力画像から鏡面反射成分を除去した鏡面反射除去画像を生成する鏡面反射除去ステップと、The spectral radiance of the reflected light from the surface of the object is divided by the illumination light component acquired in the illumination light information acquisition step to generate a total reflectance image, and the signal value of the total reflectance image is expressed as a vector U ( Specular reflection removal that generates a specular reflection removal image from which the specular reflection component is removed from the input image by projecting onto the hyperplane with λ) = [1,1,..., 1] (λ is the wavelength) as a normal line Steps,
を有することを特徴とする物体認識方法。An object recognition method characterized by comprising:
前記鏡面反射除去画像と前記蓄積手段に蓄積された蓄積画像とを照合する画像解析ステップを更に有することを特徴とする物体認識方法。An object recognition method, further comprising an image analysis step of collating the specular reflection-removed image with the accumulated image accumulated in the accumulation means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003387151A JP4349568B2 (en) | 2003-08-04 | 2003-11-17 | Object recognition apparatus, object recognition method, program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003285714 | 2003-08-04 | ||
JP2003387151A JP4349568B2 (en) | 2003-08-04 | 2003-11-17 | Object recognition apparatus, object recognition method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005070026A JP2005070026A (en) | 2005-03-17 |
JP4349568B2 true JP4349568B2 (en) | 2009-10-21 |
Family
ID=34425136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003387151A Expired - Fee Related JP4349568B2 (en) | 2003-08-04 | 2003-11-17 | Object recognition apparatus, object recognition method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4349568B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4917959B2 (en) * | 2007-05-09 | 2012-04-18 | 日本電信電話株式会社 | Perceptual specular / diffuse reflection image estimation method and apparatus, program, and storage medium |
JP5058838B2 (en) * | 2008-02-01 | 2012-10-24 | キヤノン株式会社 | Information processing apparatus and method |
JP5009865B2 (en) * | 2008-06-16 | 2012-08-22 | 日本電信電話株式会社 | Image conversion apparatus, image conversion method, image conversion program, and computer-readable recording medium recording the image conversion program |
US9042609B2 (en) * | 2011-09-05 | 2015-05-26 | Morpho, Inc. | Face authentication system, face authentication method, and face authentication program |
JP5928076B2 (en) * | 2012-03-28 | 2016-06-01 | セイコーエプソン株式会社 | Analysis method, imaging device |
CN103413318B (en) * | 2013-08-27 | 2016-03-02 | 北京航空航天大学 | Target ball mirror surface center positioning method |
WO2020145023A1 (en) * | 2019-01-10 | 2020-07-16 | コニカミノルタ株式会社 | Optical characteristic analysis apparatus and program |
-
2003
- 2003-11-17 JP JP2003387151A patent/JP4349568B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005070026A (en) | 2005-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3767541B2 (en) | Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method | |
US8705815B2 (en) | Systems and methods for automatic skin-based identification of people using digital images | |
US9134121B2 (en) | Determining material properties using speckle statistics | |
JP2002279416A (en) | Method and device for correcting color | |
JP2009508648A (en) | System and method for analyzing human skin condition using digital images | |
JP2008529170A (en) | Distinguishing between illumination and reflection boundaries | |
JP5340907B2 (en) | Information processing apparatus, information processing method, and program | |
JP2009134383A (en) | Image processing device, method, and program | |
JP4974599B2 (en) | Microscope color imaging apparatus, microscope color imaging program, and microscope color imaging method | |
JP2006084425A (en) | Multispectral image processing method, and diagnosing method using multispectral skin image | |
JP2014027597A (en) | Image processor, object identification device, and program | |
JP4349568B2 (en) | Object recognition apparatus, object recognition method, program, and recording medium | |
US20110304820A1 (en) | Method and device for imaging a target | |
JP4756148B2 (en) | Gloss / color reproduction system, gloss / color reproduction program | |
JP4415446B2 (en) | Colorimetric image conversion method, colorimetric image conversion apparatus, and computer-readable information recording medium recording a colorimetric image conversion program | |
JP2001311666A (en) | Colorimetric conversion coefficient calculating method and colorimetric image converting method, colorimetric conversion coefficient computing device and colorimetric image converting device, and computer-readable information recording medium with colorimetric conversion coefficient computing program or colorimetric image pickup program recorded thereon | |
EP3340111A2 (en) | Biometric authentication apparatus, biometric authentication system and biometric authentication method | |
JP4378810B2 (en) | Colorimetric conversion coefficient calculation method, colorimetric imaging method, colorimetric conversion coefficient calculation device, colorimetric imaging device, and computer-readable information recording medium recording a colorimetric conversion program | |
JP2009258770A (en) | Image processing method, image processor, image processing program, and imaging device | |
CN114972547A (en) | Method for determining tooth color | |
JP2001186540A (en) | Colorimetry conversion coefficient calculation method, colorimetry image conversion method, and colorimetry conversion coefficient calculation device and colorimetry image converter, and computer-readable information recording medium for recording colorimetry conversion coefficient calculation program or colorimetry image pickup program | |
JP2002157588A (en) | Method and apparatus for processing image data and recording medium with recording program for performing the method recorded thereon | |
JP2011095110A (en) | Apparatus and method for estimation of light source | |
JP6317703B2 (en) | Image processing apparatus, image processing system, image processing method, and image processing program | |
Brogle | Incorporating High Dynamic Range into Multispectral Imaging for Cultural Heritage Documentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081001 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090715 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090716 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120731 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130731 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |