JP2003223639A - Object identification information recognition system and method, image input device, and object identification information recognition device - Google Patents

Object identification information recognition system and method, image input device, and object identification information recognition device

Info

Publication number
JP2003223639A
JP2003223639A JP2002020170A JP2002020170A JP2003223639A JP 2003223639 A JP2003223639 A JP 2003223639A JP 2002020170 A JP2002020170 A JP 2002020170A JP 2002020170 A JP2002020170 A JP 2002020170A JP 2003223639 A JP2003223639 A JP 2003223639A
Authority
JP
Japan
Prior art keywords
identification information
object identification
images
information code
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002020170A
Other languages
Japanese (ja)
Inventor
Toshiki Iso
俊樹 磯
Masaji Katagiri
雅二 片桐
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2002020170A priority Critical patent/JP2003223639A/en
Publication of JP2003223639A publication Critical patent/JP2003223639A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object identification information recognition system prevented from being restricted by a reading direction and a distance from an object identification information code when reading the object identification information code. <P>SOLUTION: The object identification information code comprising a plurality of feature points peculiar to the object and a first geometric invariant corresponding to the object identification code are produced, an image input device provides a plurality of images of the object added with the object identification information codes from a plurality of viewpoints, a plurality of independent images are produced out of the plurality of images, and feature points positions constituting the object identification information code are selected for the plurality of independent images. A second geometric invariant is calculated from the selected feature points positions and the object identification information code being the closest to the calculated second geometric invariant and corresponding to the first geometric invariant is detected. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体識別情報の認
識に関し、特に、小売、物流、広告等における物品管理
システムに利用される物体識別情報の認識に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to recognition of object identification information, and more particularly to recognition of object identification information used in an article management system in retail, distribution, advertisement and the like.

【0002】[0002]

【従来の技術】物体の同定は、一般的には、タグのよう
な、物体を識別するための物体識別情報コードを利用し
て行われる。特に、最近では、非接触型のタグであり且
つ、タグ内の情報の書き換えも可能なRFIDのような、無
線により情報を読み取るタグが利用されている。また、
他のタグとしては、専用の読み取り装置を使用して情報
の読み取りを行うバーコードのようなタグも利用されて
いる。さらに、画像入力装置を利用して情報を読み取る
物体識別情報コードとして、CyberCodeや電子
透かし等を利用した物体識別情報コードも利用されてい
る。
2. Description of the Related Art Identification of an object is generally performed using an object identification information code such as a tag for identifying the object. In particular, recently, a tag that is a non-contact type tag and that reads information wirelessly, such as an RFID that allows rewriting of information in the tag, has been used. Also,
As another tag, a tag such as a bar code which uses a dedicated reading device to read information is also used. Further, as an object identification information code for reading information using an image input device, an object identification information code using CyberCode, a digital watermark or the like is also used.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、RFIDの
ような、無線により情報を読み取るタグは、タグと通信
することができる範囲が狭く、また、高価であるという
問題がある。一方では、バーコードを読み取るには、専
用の読み取り装置を必要とし、かつ、タグに近接しない
とバーコードを読み取ることができないという問題があ
る。更に、CyberCodeや電子透かし等を利用し
て、ID(識別)コードを画像に埋め込む形式のタグに
ついては、ほぼ正面から、画像を取得しなければならな
いという制約がある。
However, a tag such as RFID that reads information wirelessly has a problem that it has a narrow range in which it can communicate with the tag and is expensive. On the other hand, there is a problem that a dedicated reading device is required to read the bar code, and the bar code cannot be read unless it is close to the tag. Furthermore, for a tag in the form of embedding an ID (identification) code in an image using CyberCode, a digital watermark, etc., there is a constraint that the image must be acquired almost from the front.

【0004】本発明は、上記の課題に鑑みてなされたも
のであり、タグ等の物体識別情報コードを読み込む場
合、その読み込み方向や物体識別情報コードとの距離等
による制約を受けることのない物体識別情報認識システ
ム及び物体識別情報認識方法を提供することを主な目的
とする。
The present invention has been made in view of the above problems, and when an object identification information code such as a tag is read, the object is not restricted by the reading direction or the distance from the object identification information code. The main object is to provide an identification information recognition system and an object identification information recognition method.

【0005】[0005]

【課題を解決するための手段】本発明は、上記課題を解
決するために、画像入力装置により取得された画像から
物体を特定する、物体識別情報認識システムであって、
物体に固有の、複数の特徴点より構成される物体識別情
報コードと物体識別コードに対応する第1の幾何学的不
変量を生成する手段と、生成する手段により生成された
物体識別情報コードと第1の幾何学的不変量を、物体ご
とに記憶する手段と、画像入力装置によって、複数の視
点から、物体識別情報コードが付加された物体の複数の
画像を取得する手段と、画像を取得する手段により取得
された、複数の画像の中から、独立な複数の画像を発生
する手段と、画像を発生する手段により発生された、独
立な複数の画像のそれぞれに対して、物体識別情報コー
ドを構成する特徴点位置を抽出する手段と、抽出する手
段により抽出された特徴点位置から、第2の幾何学的不
変量を計算する手段と、計算する手段により計算された
第2の幾何学的不変量に最も近い、記憶する手段に記憶
されている第1の幾何学的不変量に対応する物体識別情
報コードを検出する手段とを有する物体識別情報認識シ
ステムを提供する。
In order to solve the above-mentioned problems, the present invention is an object identification information recognition system for specifying an object from an image acquired by an image input device,
Unique to the object, means for generating an object identification information code composed of a plurality of feature points and a first geometric invariant corresponding to the object identification code, and an object identification information code generated by the generating means, A means for storing the first geometric invariant for each object, a means for acquiring a plurality of images of the object to which the object identification information code is added from a plurality of viewpoints by the image input device, and an image Object identification information code for each of the means for generating a plurality of independent images from the plurality of images acquired by the means and the plurality of independent images generated by the means for generating an image. Means for extracting the position of the feature point forming the second geometrical invariant from the feature point position extracted by the extracting means, and the second geometry calculated by the calculating means. Invariant Nearest provides object identification information recognition system having means for detecting the object identification information code corresponding to the first geometric invariant stored in the means for storing.

【0006】本発明により、タグ等の物体識別情報コー
ドを読み込む場合、その読み込み方向や物体識別情報コ
ードとの距離等による制約を受けることのない物体識別
情報認識システムを実現できる。
According to the present invention, when an object identification information code such as a tag is read, it is possible to realize an object identification information recognition system which is not restricted by the reading direction or the distance from the object identification information code.

【0007】[0007]

【発明の実施の形態】本発明の実施例を、図を参照し
て、以下に説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0008】図1は、本発明の原理を示す図である。図
1を用いて、物体識別情報コードの生成とその幾何学的
不変量の計算及び、画像入力装置により取得した複数の
画像から、幾何学的不変量を求める本発明の原理につい
て説明する。参照番号101は、物理空間を示し、物理
空間101内の各点O,O,O,O,O及び,O
は、識別される物体上に付された物体識別情報コードを
構成する幾何学的に配置された特徴点である。又、参照
番号102は、物体上に付された物体識別情報コード
を、画像入力装置により取得した、投影面を示し、投影
面102内の各点P,P,P,P,P及び,P
は、それぞれ、物理空間101内の各点O,O,O
,O,O及び,Oに対応する。
FIG. 1 is a diagram showing the principle of the present invention. Figure
1 to generate the object identification information code and its geometric
Calculation of invariants and multiple images acquired by the image input device
Regarding the principle of the present invention for obtaining a geometric invariant from an image
Explain. Reference numeral 101 indicates a physical space
Each point O in space 1011, OTwo, OThree, OFour, O5And O 6
Is the object identification information code on the identified object.
It is the characteristic points that are geometrically arranged to configure. See also
The number 102 is an object identification information code attached to the object
, Showing the projection plane acquired by the image input device,
Each point P on the plane 1021, PTwo, PThree, PFour, P5And P
6Are the points O in the physical space 101, respectively.1, OTwo, O
Three, OFour, O5And O6Corresponding to.

【0009】先ず最初に、物体識別情報コードを構成す
る幾何学的に配置された特徴点の幾何学的不変量の計算
について説明する。物体識別情報コードを構成する幾何
学的に配置された特徴点の幾何学的不変量は、以下のよ
うに計算される。
First, the calculation of the geometric invariant of the geometrically arranged feature points forming the object identification information code will be described. The geometric invariants of the geometrically arranged feature points forming the object identification information code are calculated as follows.

【0010】先ず第1に、物理空間101内の特徴点O
,O,O,O,Oについて、O の物理空間10
1内での座標を(1,0,0,0)に、Oの物理空間
101内での座標を(0,1,0,0)に、Oの物理
空間101内での座標を(0,0,1,0)に、O
物理空間101内での座標を(0,0,0,1)にそし
て、Oの物理空間101内での座標を(1,1,1,
1)にそれぞれ変換する空間共線変換行列A4x4を算
出する。即ち、空間共線変換行列A4x4は、次の関係
を満たす行列である。
First, the feature point O in the physical space 101.
1, OTwo, OThree, OFour, O5About, O 1Physical space 10
The coordinate within 1 is (1, 0, 0, 0), and OTwoPhysical space
The coordinates within 101 are (0, 1, 0, 0), and OThreePhysics
The coordinates in space 101 are set to (0,0,1,0), and OFourof
The coordinates in the physical space 101 are changed to (0,0,0,1)
O5The coordinates in the physical space 101 of (1, 1, 1,
Spatial collinear transformation matrix A to be transformed into 1)4x4Calculate
Put out. That is, the spatial collinear transformation matrix A4x4Is the following relationship
Is a matrix that satisfies.

【0011】[0011]

【数1】 次に、この空間共線変換行列A4x4により、Oの物理
空間101内での座標を変換して、(X,Y,Z,T)
を得る。即ち、空間共線変換行列A4x4により、O
の座標は次のように変換される。
[Equation 1] Next, the coordinates of O 6 in the physical space 101 are transformed by this space collinear transformation matrix A 4x4 , and (X, Y, Z, T)
To get That is, the spatial collinear transformation matrix A 4 × 4 gives O 6
The coordinates of are converted as follows.

【0012】[0012]

【数2】 このX,Y,Z,Tにより、幾何学的不変量α、β、γ
は、 α=X/T,β=Y/T,γ=Z/T のように計算することができる。このようにして、幾何
学的に配置された特徴点から構成される物体識別情報コ
ード生成時の第1の幾何学的不変量を求めることができ
る。このようにして生成された物体識別情報コードと第
1の幾何学的不変量は、後に説明する画像入力装置によ
り取得された画像から計算される第2の幾何学的不変量
と比較するために、物体毎に物体識別情報コードと共に
物体識別情報認識システムに記憶される。
[Equation 2] By these X, Y, Z, and T, geometric invariants α, β, γ
Can be calculated as α = X / T, β = Y / T, γ = Z / T. In this way, the first geometric invariant at the time of generating the object identification information code composed of the geometrically arranged feature points can be obtained. The object identification information code and the first geometrical invariant generated in this way are compared with the second geometrical invariant calculated from the image acquired by the image input device described later. , Is stored in the object identification information recognition system together with the object identification information code for each object.

【0013】一方、画像入力装置により取得した画像の
枚数をnとし、各画像の画像ID(識別子)をk=1,
2,..,nとする。本実施例では、例えば、n=4と
する。
On the other hand, the number of images acquired by the image input device is n, and the image ID (identifier) of each image is k = 1,
2 ,. . , N. In this embodiment, for example, n = 4.

【0014】ここで、各画像に対して、投影面上の特徴
点P,P,P,Pに対して、P の投影面102内
での座標を(1,0,0)に、Pの投影面102内で
の座標を(0,1,0)に、Pの投影面102内での
座標を(0,0,1)に、そして、Pの投影面102
内での座標を(1,1,1)に、それぞれ変換する平面
共線変換行列A3x3を算出する。即ち、空間共線変換
行列A4x4は、次の関係を満たす行列である。
Here, for each image, the features on the projection surface
Point P1, PTwo, PThree, PFourAgainst P 1In the projection plane 102 of
Set the coordinates at (1,0,0) to PTwoWithin the projection plane 102 of
Coordinate of (0,1,0), PThreeIn the projection plane 102 of
Set the coordinates to (0,0,1) and PFourProjection plane 102
The plane to convert the coordinates inside to (1,1,1) respectively
Collinear transformation matrix A3x3To calculate. That is, spatial collinear transformation
Matrix A4x4Is a matrix satisfying the following relation.

【0015】[0015]

【数3】 次に、この平面共線変換行列A3x3により、PとP
の投影面102内での座標を変換して、(u
,w)及び、(u,v,w)を得る。即
ち、空間共線変換行列A3x3により、PとPの座
標は次のように変換される。
[Equation 3] Next, using this plane collinear transformation matrix A 3x3 , P 5 and P
By converting the coordinates of 6 on the projection plane 102, (u 5 ,
v 5 , w 5 ) and (u 6 , v 6 , w 6 ) are obtained. That is, the coordinates of P 5 and P 6 are transformed as follows by the spatial collinear transformation matrix A 3 × 3 .

【0016】[0016]

【数4】 ここで、 I=XY,I=XZ,I=XT及び、 I=YZ,I=YT,I=ZT を定義する。[Equation 4] Here, I 1 = XY, I 2 = XZ, I 3 = XT and I 4 = YZ, I 5 = YT, I 6 = ZT are defined.

【0017】更に、 i (k)=(u (k)−v (k))w (k) (k)=(w (k)−u (k))v (k) (k)=(v (k)−w (k))u (k) (k)=(u (k)−v (k))w (k) (k)=(w (k)−u (k))v (k) (k)=(v (k)−w (k))u (k) を定義するする。ここで、本実施例ではk=1から4で
ある。
Further, i1 (K)= (U5 (K)-V5 (K)) W5 (K) iTwo (K)= (W5 (K)-U5 (K)) V5 (K) iThree (K)= (V5 (K)-W5 (K)) U5 (K) iFour (K)= (U6 (K)-V6 (K)) W6 (K) i5 (K)= (W6 (K)-U6 (K)) V6 (K) i6 (K)= (V6 (K)-W6 (K)) U6 (K) To define. Here, in this embodiment, k = 1 to 4
is there.

【0018】このように定義した、I,I,I
,I,Iと、i (k),i (k),i
(k),i (k),i (k),i (k)の間に
は、次の不変関係、Σ(i (k))=0及び、Σ
(i (k))=0、が成立する。ここで、jは特徴点
IDで、本実施例ではj=1から6であり、また、本実
施例ではk=1から4である。
As defined above, I 1 , I 2 , I 3 ,
I 4 , I 5 , I 6 and i 1 (k) , i 2 (k) , i 3
Between (k) , i 4 (k) , i 5 (k) , and i 6 (k) , the following invariant relations, Σ (i j (k) I j ) = 0 and Σ
(I j (k) ) = 0 holds. Here, j is a feature point ID, j = 1 to 6 in the present embodiment, and k = 1 to 4 in the present embodiment.

【0019】以上により、平面共線変換行列A3x3
より、投影面102内でのPとP の座標を変換し
て、それぞれ(u,v,w)及び、(u
,w)を得た後に、上記の不変関係を満たす
,I,I,I,I,Iを求めれば、例え
ば、次の式、α=I/I,β=I/I,γ=I
/Iにより、不変量α、β、γを求めることができ
る。なお、I,I,I,I ,I,Iから、
不変量α、β、γを求める関係は、上記の関係に限るも
のではない。
From the above, the plane collinear transformation matrix A3x3To
Therefore, P on the projection plane 1025And P 6Transform the coordinates of
Respectively (u5, V5, W5) And (u6
v6, W6), Then satisfy the above invariant relation
I1, ITwo, IThree, IFour, I5, I6If you ask
For example, the following equation, α = I1/ I5, Β = I1/ IThree, Γ = I
Two/ IThreeTo obtain the invariants α, β, γ
It Note that I1, ITwo, IThree, I Four, I5, I6From
The relations for obtaining the invariants α, β, γ are limited to the above relations.
Not of.

【0020】例えば、以下に示す式、For example, the following equation,

【0021】[0021]

【数5】 に従って、I1からI1及び、I2からI2
算出する。そして、 α=I2−I2、 β=−(I2/I1)I1+I2、及び、 γ=(I2I1−I1I2)/(I2I1
−I1I2) により、不変量α、β、γを求めることができる。
[Equation 5] According to, I1 1 to I1 4 and I2 1 to I2 4 are calculated. Then, α = I2 2 −I2 1 , β = − (I2 1 / I1 2 ) I1 4 + I2 4 and γ = (I2 1 I1 2 −I1 2 I2 2 ) / (I2 1 I1 3).
The invariants α, β, and γ can be obtained by −I1 2 I2 3 ).

【0022】このようにして、画像入力装置により取得
した複数の画像の各画像から、第2の幾何学的不変量を
計算することができる。
In this way, the second geometric invariant can be calculated from each image of the plurality of images acquired by the image input device.

【0023】図2は、本発明のシステム全体の一実施例
の概念的なブロック図を示す。本システムは、本発明に
従って生成された、物体識別情報コード201、202
及び203がそれぞれ付されている物体211、212
及び213、画像入力装置221を有する携帯情報端末
220、移動通信網230、及び、処理装置241、物
体識別IDデータベース242より構成される。処理装
置241は、図示されている構成に限るものではない
が、パーソナルコンピュータ本体243とモニタ244
等により構成されても良い。物体識別IDデータベース
242は、上述のように、物体識別情報コードと第1の
幾何学的不変量を記憶する。
FIG. 2 shows a conceptual block diagram of one embodiment of the overall system of the present invention. The system includes object identification information codes 201, 202 generated according to the present invention.
And 211 to which objects 203 and 203 are attached respectively
And 213, a portable information terminal 220 having an image input device 221, a mobile communication network 230, a processing device 241, and an object identification ID database 242. The processing device 241 is not limited to the illustrated configuration, but may be a personal computer main body 243 and a monitor 244.
And the like. The object identification ID database 242 stores the object identification information code and the first geometric invariant, as described above.

【0024】次に、図2に示す本発明のシステム全体の
一実施例の動作について、図3を用いて説明する。
Next, the operation of one embodiment of the entire system of the present invention shown in FIG. 2 will be described with reference to FIG.

【0025】図3は、本発明の一実施例のフローチャー
トを示し、特に、識別される上述の物体211、21
2、213上に付された物体識別情報コード201、2
02、203を構成する幾何学的に配置された特徴点
を、携帯情報端末220に画像入力装置221により読
み込んで、物体を識別する実施例を示したものである。
図3を用いて、本発明の識別処理の概略を説明する。
FIG. 3 shows a flow chart of an embodiment of the invention, in particular the above-mentioned objects 211, 21 to be identified.
Object identification information codes 201 and 2 attached to
This is an example in which the geometrically arranged feature points forming 02 and 203 are read into the portable information terminal 220 by the image input device 221 to identify the object.
The outline of the identification processing of the present invention will be described with reference to FIG.

【0026】図3において、本実施例がステップ301
で開始した後に、ステップ302で、画像入力装置22
1により、複数枚の画像フレームを取得する。次にステ
ップ303において、取得した複数枚の画像フレームの
間の隣接画像フレーム間の相関を計算し、画像フレーム
を抽出する。本実施例では例えば、画像フレーム間の相
関値が最小のものから順に3枚の画像フレームを抽出す
る。そして、この3枚の画像フレームを区切りとして、
連続する複数の画像フレームを、本実施例では例えば、
4つの連続する画像フレーム群に分割する。
In FIG. 3, step 301 is performed in this embodiment.
Then, in step 302, the image input device 22 is started.
According to 1, a plurality of image frames are acquired. Next, in step 303, the correlation between adjacent image frames between the acquired plurality of image frames is calculated, and the image frames are extracted. In this embodiment, for example, three image frames are extracted in order from the one having the smallest correlation value between the image frames. Then, with these three image frames as a delimiter,
In this embodiment, a plurality of consecutive image frames are
Divide into four consecutive image frame groups.

【0027】次にステップ304において、ステップ3
03でグループ化した画像フレームについて、各グルー
プ毎に平均画像を計算する。平均画像を計算することに
より、画像フレームの対応する画素の平均値を画素値と
する新たな画像フレームを生成する。このようにして、
4つのグループの4つの平均画像を生成することによ
り、独立な4つの視点からの画像を得ることができる。
Next, in step 304, step 3
For the image frames grouped in 03, an average image is calculated for each group. By calculating the average image, a new image frame whose pixel value is the average value of the corresponding pixels of the image frame is generated. In this way
By generating four average images of four groups, it is possible to obtain images from four independent viewpoints.

【0028】次にステップ305において、独立な4つ
の視点からの画像毎に、物体識別情報コードを構成する
幾何学的に配置された特徴点の位置の検出を行う。そし
て、ステップ306において、そのように検出した、独
立な4つの視点からの各画像の各特徴点の位置情報に基
づいて、前記の幾何学的不変量の計算を行い、上述した
第2の幾何学的不変量を算出する。
Next, in step 305, the positions of the geometrically arranged feature points forming the object identification information code are detected for each image from four independent viewpoints. Then, in step 306, the geometric invariant is calculated based on the position information of each feature point of each image from the four independent viewpoints detected in this way, and the second geometry described above is calculated. The invariant is calculated.

【0029】最後にステップ307において、ステップ
306で計算された第2の幾何学的不変量を、物体識別
情報認識システム内に登録されている前述の第1の幾何
学的不変量と比較し、最も一致するものを選択して、そ
の第1の幾何学的不変量を持つ物体の物体識別情報コー
ドを決定する。
Finally, in step 307, the second geometric invariant calculated in step 306 is compared with the aforementioned first geometric invariant registered in the object identification information recognition system, The best match is selected to determine the object identification code of the object having that first geometric invariant.

【0030】次に、本発明の実施例の詳細な動作につい
て説明する。
Next, the detailed operation of the embodiment of the present invention will be described.

【0031】図4は、画像入力部により取得した一連の
複数の画像に基づいて、独立した4視点からの画像を算
出する概念図である。
FIG. 4 is a conceptual diagram for calculating an image from four independent viewpoints based on a series of a plurality of images acquired by the image input unit.

【0032】前述の図1に示した物体の表面に付された
物体識別情報コード201は、図3のステップ302に
示したように、画像入力装置221の位置を、位置41
1から414に変えながら、画像入力装置221により
取得される。参照符号421から424に示す画像は、
位置411から414において観測される、物体識別情
報コード201を示す。連続画像フレーム431から4
42は、取得された複数枚の画像フレームを示す。
The object identification information code 201 attached to the surface of the object shown in FIG. 1 is set to the position of the image input device 221 as shown in step 302 of FIG.
It is acquired by the image input device 221 while changing from 1 to 414. The images denoted by reference numerals 421 to 424 are
The object identification information code 201 observed at positions 411 to 414 is shown. Continuous image frames 431 to 4
42 indicates a plurality of acquired image frames.

【0033】次に図3のステップ303に示したよう
に、取得した複数枚の画像フレームの間の隣接画像フレ
ーム間の相関を計算し、画像フレーム間の相関値が最小
となるような3枚の画像フレームを抽出する。図4にお
いては、画像フレーム433、436、439が、上記
の3枚の画像フレームに対応する。そして、この3枚の
画像フレーム433、436、439を区切りとして、
連続する画像フレーム431から442を、4つの連続
する画像フレーム群に分割する。図4においては、第1
の画像フレーム群は、画像フレーム431,432,4
33から構成される。第2の画像フレーム群は、画像フ
レーム434,435,436から構成される。第3の
画像フレーム群は、画像フレーム437,438,43
9から構成される。そして、第4の画像フレーム群は、
画像フレーム440,441,442から構成される。
なお、画像フレーム群を構成する画像の数はこれに限る
ものではない。
Next, as shown in step 303 of FIG. 3, the correlation between adjacent image frames between the obtained plurality of image frames is calculated, and the correlation value between the three image frames is minimized. Extract the image frame of. In FIG. 4, the image frames 433, 436, and 439 correspond to the above-mentioned three image frames. Then, the three image frames 433, 436, and 439 are used as delimiters,
The continuous image frames 431 to 442 are divided into four continuous image frame groups. In FIG. 4, the first
The image frame groups of are image frames 431, 432, 4
It consists of 33. The second image frame group is composed of image frames 434, 435, 436. The third image frame group includes image frames 437, 438, 43.
It is composed of 9. Then, the fourth image frame group is
It is composed of image frames 440, 441, 442.
The number of images forming the image frame group is not limited to this.

【0034】次に、図3のステップ304に示したよう
に、上述のようにグループ化した3枚の画像フレームに
ついて、第1から第4の各グループ毎に、平均画像を計
算する。平均画像を計算することにより、3枚の画像フ
レームの対応する画素の平均値を画素値とする新たな画
像フレーム451,452,453及び、454を生成
する。このようにして、4つのグループの4つの平均画
像を生成することにより、独立な4つの視点からの画像
を得る。
Next, as shown in step 304 of FIG. 3, an average image is calculated for each of the first to fourth groups for the three image frames grouped as described above. By calculating the average image, new image frames 451, 452, 453, and 454 having the average value of the corresponding pixels of the three image frames as the pixel value are generated. In this way, images from four independent viewpoints are obtained by generating four average images of four groups.

【0035】図5は、画像中の特徴点の位置情報を算出
する一実施例のフローチャートを示す。図5に示すフロ
ーチャートは、図3のステップ305に示した、画像中
の特徴点の位置情報を算出する方法の一実施例である。
FIG. 5 shows a flow chart of an embodiment for calculating the position information of the feature points in the image. The flowchart shown in FIG. 5 is an example of the method of calculating the position information of the feature points in the image shown in step 305 of FIG.

【0036】上述のように生成された、独立な4つの視
点からの各画像について、以下の処理を行う。
The following processing is performed on each of the images from the four independent viewpoints generated as described above.

【0037】ステップ501においては、本処理に入力
された画像について、色変換処理を行う。色変換処理
は、入力されたRGB信号より構成される画像のRGB
値を、次に示す式
In step 501, color conversion processing is performed on the image input to this processing. The color conversion processing is performed on the RGB of the image composed of the input RGB signals.
An expression whose value is

【0038】[0038]

【数6】 に従って、I値に色変換することにより行
う。
[Equation 6] According to the above, color conversion into I 1 I 2 I 3 values is performed.

【0039】ステップ502においては、本処理に入力
された画像について、前処理を行う。前処理は、ガウシ
ャンフィルタにより画像の平滑化を行うことにより、画
像内に存在するノイズを除去し、且つヒストグラムのダ
イナミックレンジを拡大することにより、画像強調を行
う。
In step 502, preprocessing is performed on the image input to this processing. In the preprocessing, the image is enhanced by smoothing the image with a Gaussian filter to remove noise existing in the image and by expanding the dynamic range of the histogram.

【0040】次にステップ503において、タグ領域の
抽出処理を行う。タグ領域の検出に際しては、予め、I
色空間において、タグの境界線を示す代表色
を定めておく。画像の中で、この代表色に近い色を有す
る画素を選択することにより、タグの境界線を抽出す
る。そして、その境界線の内部を、タグ領域として決定
する。
Next, in step 503, extraction processing of the tag area is performed. Before detecting the tag area, I
In the 1 I 2 I 3 color space, a representative color indicating the boundary line of the tag is defined. The boundary line of the tag is extracted by selecting a pixel having a color close to this representative color in the image. Then, the inside of the boundary line is determined as the tag area.

【0041】ステップ504においては、カラーセグメ
ンテーション処理を行う。カラーセグメンテーション処
理においては、予め、I色空間において、各
特長点の6色の代表色を定めておく。そして、画像の中
のタグ領域内で、代表色に近い色を有する画素を選択す
ることにより、各色毎に各画素を分離して抽出する。
In step 504, color segmentation processing is performed. In the color segmentation process, six representative colors of each feature point are defined in advance in the I 1 I 2 I 3 color space. Then, by selecting a pixel having a color close to the representative color in the tag area in the image, each pixel is separated and extracted for each color.

【0042】ステップ505においては、上記のステッ
プで分離して抽出した各画素に対して、SUSANフィ
ルタ処理を行い、コーナー検出を行う。SUSANフィ
ルタを用いるコーナー検出では、抽出した各画素を中心
とした円形の小領域内で、隣接する画素値間の差が所定
の値以上大きな差を有する画素数を計数する。そして、
その計数値が大きい場所、即ちコーナー強度の高い場所
を、コーナーとして検出する。検出され情報は、コーナ
ーの位置情報とそのコーナー強度値である。
In step 505, SUSAN filter processing is performed on each pixel separated and extracted in the above step to perform corner detection. In the corner detection using the SUSAN filter, the number of pixels in which a difference between adjacent pixel values has a large difference of a predetermined value or more is counted within a circular small area centered on each extracted pixel. And
A place having a large count value, that is, a place having a high corner strength is detected as a corner. The detected information is corner position information and the corner strength value.

【0043】次にステップ506において、上記のステ
ップで検出したコーナーの位置情報に、その位置のコー
ナー強度を重み付けすることにより、その重心を算出す
る。そして、この重心の位置を、特徴点の位置として決
定する。
Next, in step 506, the center of gravity is calculated by weighting the position information of the corner detected in the above step with the corner strength at that position. Then, the position of this center of gravity is determined as the position of the feature point.

【0044】以上の処理を、独立な4つの視点からの各
画像内の6つの特徴点それぞれについて行うことによ
り、画像中の特徴点の位置情報を算出することができ
る。
By carrying out the above processing for each of the six feature points in each image from four independent viewpoints, the position information of the feature points in the image can be calculated.

【0045】次に、図3のステップで306で説明した
ように、このように算出された、独立な4つの視点から
の各画像内の6つの特徴点を用いて、図1において説明
した、幾何学的不変量α、β、γを算出する。この結
果、独立な4つの視点からの各画像に関する、4つの幾
何学的不変量の組みが算出される。
Next, as described in step 306 in FIG. 3, the six feature points in each image from the four independent viewpoints calculated in this way are used to describe in FIG. Geometric invariants α, β, γ are calculated. As a result, a set of four geometric invariants is calculated for each image from four independent viewpoints.

【0046】次に、図3のステップで307で説明した
ように、上述のようにで計算された第2の幾何学的不変
量を、物体識別情報認識システム内に登録されている前
述の第1の幾何学的不変量と比較し、最も一致するもの
を選択して、その第1の幾何学的不変量を持つ物体の物
体識別情報コードを決定する。この処理においては、マ
ハラノビス距離を判断基準として、2つの幾何学的不変
量の比較を行う。
Next, as described in step 307 in FIG. 3, the second geometrical invariant calculated as described above is registered in the object identification information recognition system, and the second geometric invariant described above is registered. One of the geometric invariants is compared, and the best match is selected to determine the object identification information code of the object having the first geometric invariant. In this process, two geometric invariants are compared using the Mahalanobis distance as a criterion.

【0047】マハラノビス距離とは、次のように計算す
る。あるクラスタに属するパターンについて、平均パタ
ーンをμ、共分散行列をΣとすると、未知パターンPi
とそのクラスタの間のマハラノビス距離Dは、 D=(Pi−μ)(Σ−1)(Pi−μ) より計算される。ここで、Σ−1は共分散行列Σの逆行
列であり、そして、(Pi−μ)は(Pi−μ)の転
置行列である。
The Mahalanobis distance is calculated as follows. For a pattern belonging to a certain cluster, if the average pattern is μ and the covariance matrix is Σ, the unknown pattern Pi
The Mahalanobis distance D between a and its cluster is calculated by D = (Pi-μ) T−1 ) (Pi-μ). Here, Σ −1 is the inverse matrix of the covariance matrix Σ, and (Pi−μ) T is the transposed matrix of (Pi−μ).

【0048】本実施例においては、クラスタを構成する
パターンは、独立な4つの視点からの各画像に関する4
つの幾何学的不変量の組み即ち、前述の第2の幾何学的
不変量(α、β、γ)であるとする。未知パターンPi
は、図1で説明した、前述の物体識別情報コード生成時
の第1の幾何学的不変量とする。そして、先ず最初に、
4つの幾何学的不変量の組み(α、β、γ)に対して、
それらの平均パターンμと、共分散行列Σが計算され
る。
In the present embodiment, the patterns forming the cluster are 4 for each image from four independent viewpoints.
A set of two geometric invariants, that is, the above-mentioned second geometric invariant (α, β, γ). Unknown pattern Pi
Is the first geometric invariant at the time of generating the above-described object identification information code, which has been described with reference to FIG. And first of all,
For a set of four geometric invariants (α, β, γ),
Their average pattern μ and the covariance matrix Σ are calculated.

【0049】次に、物体識別情報コード生成時の第1の
幾何学的不変量と、上述の平均パターンμと、共分散行
列Σより、マハラノビス距離Dを計算する。
Next, the Mahalanobis distance D is calculated from the first geometric invariant at the time of generating the object identification information code, the above-mentioned average pattern μ, and the covariance matrix Σ.

【0050】マハラノビス距離Dの計算は、第1の幾何
学的不変量は、図2のデータベース242にそれらの物
体識別情報コードと共に登録されている。従って、この
マハラノビス距離Dの最も小さい第1の幾何学的不変量
を算出し、その第1の幾何学的不変量に対応する物体識
別情報コードをデータベース242内で検索することに
より、物体識別情報コードを検出することができる。
In the calculation of the Mahalanobis distance D, the first geometric invariant is registered in the database 242 of FIG. 2 together with those object identification information codes. Therefore, by calculating the first geometric invariant having the smallest Mahalanobis distance D and searching the object identification information code corresponding to the first geometric invariant in the database 242, the object identification information is obtained. The code can be detected.

【0051】なお、本実施例では、マハラノビス距離を
判断基準として、2つの幾何学的不変量の比較を行う構
成としたが、例えば、ユークリッド距離等の他の距離を
判断基準として、2つの幾何学的不変量の比較を行うこ
とも可能である。
In this embodiment, the Mahalanobis distance is used as a criterion to compare two geometric invariants. However, for example, another distance such as Euclidean distance is used as a criterion, and two geometric invariants are used as the criterion. It is also possible to make a comparison of the geometric invariants.

【0052】このようにして、抽出された物体識別情報
コードは、図2に示す本発明のシステムにおいて、処理
装置241から、移動通信網230を介して、携帯情報
端末220へ返送することができる。
The object identification information code thus extracted can be returned from the processing device 241 to the portable information terminal 220 via the mobile communication network 230 in the system of the present invention shown in FIG. .

【0053】[0053]

【発明の効果】本発明によれば、タグ等の物体識別情報
コードを読み込む場合、その読み込み方向や物体識別情
報コードとの距離等による制約を受けることのない物体
識別情報認識システムを実現できるという効果を得るこ
とができる。
According to the present invention, when an object identification information code such as a tag is read, it is possible to realize an object identification information recognition system which is not restricted by the reading direction or the distance from the object identification information code. The effect can be obtained.

【0054】また、本発明によれば、幾何学的不変量の
算出に必要な4つの独立した視点からの画像を、連続す
るフレームの相関に基づいて、自動的に取得できる。
Further, according to the present invention, images from four independent viewpoints necessary for calculating the geometric invariant can be automatically acquired based on the correlation of consecutive frames.

【0055】さらに、本発明は、物体識別情報コードを
表現する特徴点の幾何学的な配置は、空間上の任意の6
点で構成されるので、用途に応じて様々な表現を発生で
きる。
Further, according to the present invention, the geometrical arrangement of the feature points expressing the object identification information code is arbitrary 6 in space.
Since it is composed of dots, various expressions can be generated depending on the application.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理を示す図である。FIG. 1 is a diagram showing the principle of the present invention.

【図2】本発明のシステム全体の一実施例の概念的なブ
ロック構成を示す図である。
FIG. 2 is a diagram showing a conceptual block configuration of one embodiment of the entire system of the present invention.

【図3】本発明の一実施例のフローチャートを示す図で
ある。
FIG. 3 is a diagram showing a flowchart of an embodiment of the present invention.

【図4】画像入力部により取得した一連の複数の画像に
基づいて、独立した4視点からの画像を算出する概念図
である。
FIG. 4 is a conceptual diagram of calculating images from four independent viewpoints based on a series of a plurality of images acquired by an image input unit.

【図5】画像中の特徴点の位置情報を算出する一実施例
のフローを示す図である。
FIG. 5 is a diagram illustrating a flow of an example of calculating position information of feature points in an image.

【符号の説明】[Explanation of symbols]

201、202、203 物体識別情報コード 211、212、213 物体 221 画像入力装置 220 携帯情報端末 230 移動通信網 241 処理装置 243 パーソナルコンピュータ本体 244 モニタ 201, 202, 203 Object identification information code 211, 212, 213 objects 221 image input device 220 Personal Digital Assistant 230 mobile communication network 241 processor 243 Personal computer body 244 monitor

フロントページの続き (72)発明者 杉村 利明 東京都千代田区永田町二丁目11番1号 株 式会社エヌ・ティ・ティ・ドコモ内 Fターム(参考) 5B057 AA02 CH01 DA11 DC34 DC36 5B058 CA40 KA02 KA08 YA18 5L096 BA20 CA03 DA02 FA09 FA34 FA69 HA09 JA03 Continued front page    (72) Inventor Toshiaki Sugimura             2-11-1, Nagatacho, Chiyoda-ku, Tokyo Stock             Ceremony company NTT Docomo F term (reference) 5B057 AA02 CH01 DA11 DC34 DC36                 5B058 CA40 KA02 KA08 YA18                 5L096 BA20 CA03 DA02 FA09 FA34                       FA69 HA09 JA03

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 画像入力装置により取得された画像から
物体を特定する、物体識別情報認識システムであって、 前記物体に固有の、複数の特徴点より構成される物体識
別情報コードと前記物体識別コードに対応する第1の幾
何学的不変量を生成する手段と、 前記生成する手段により生成された前記物体識別情報コ
ードと前記第1の幾何学的不変量を、前記物体ごとに記
憶する手段と、 前記画像入力装置によって、複数の視点から、前記物体
識別情報コードが付加された物体の複数の画像を取得す
る手段と、 前記画像を取得する手段により取得された、前記複数の
画像の中から、独立な複数の画像を発生する手段と、 前記画像を発生する手段により発生された、前記独立な
複数の画像のそれぞれに対して、前記物体識別情報コー
ドを構成する前記特徴点位置を抽出する手段と、 前記抽出する手段により抽出された前記特徴点位置か
ら、第2の幾何学的不変量を計算する手段と、 前記計算する手段により計算された前記第2の幾何学的
不変量に最も近い、前記記憶する手段に記憶されている
前記第1の幾何学的不変量に対応する前記物体識別情報
コードを検出する手段とを有する物体識別情報認識シス
テム。
1. An object identification information recognition system for identifying an object from an image acquired by an image input device, the object identification information code being unique to the object, the object identification information code including a plurality of feature points, and the object identification. Means for generating a first geometric invariant corresponding to the code, means for storing the object identification information code and the first geometric invariant generated by the means for generating, for each object A means for acquiring a plurality of images of the object to which the object identification information code is added from a plurality of viewpoints by the image input device; and a plurality of the images acquired by the means for acquiring the image. From the means for generating an independent plurality of images, and before configuring the object identification information code for each of the independent plurality of images generated by the means for generating the image Means for extracting a feature point position; means for calculating a second geometric invariant from the feature point position extracted by the extracting means; and the second geometry calculated by the calculating means. Object identification information recognition system having means for detecting the object identification information code corresponding to the first geometrical invariant stored in the storing means, which is closest to the geometric invariant.
【請求項2】 前記独立な複数の画像は、独立な4つの
画像である、請求項1に記載の物体識別情報認識システ
ム。
2. The object identification information recognition system according to claim 1, wherein the plurality of independent images are four independent images.
【請求項3】 複数の視点から、前記物体識別情報コー
ドが付加された物体の複数の画像を取得する手段と、 前記画像を取得する手段により取得された、前記複数の
画像の中から、独立な複数の画像を発生する手段とを有
する画像入力装置。
3. A means for acquiring a plurality of images of the object to which the object identification information code is added from a plurality of viewpoints, and an independent image from the plurality of images acquired by the means for acquiring the image. Image input device having means for generating a plurality of different images.
【請求項4】 前記独立な複数の画像は、独立な4つの
画像である、請求項3に記載の画像入力装置。
4. The image input device according to claim 3, wherein the plurality of independent images are four independent images.
【請求項5】 物体に固有の、複数の特徴点より構成さ
れる物体識別情報コードと前記物体識別コードに対応す
る第1の幾何学的不変量を生成する手段と、 前記生成する手段により生成された前記物体識別情報コ
ードと前記第1の幾何学的不変量を、前記物体ごとに記
憶する手段と、 前記物体識別情報コードが付加された物体の独立な複数
の画像を入力する手段と、 前記独立な複数の画像のそれぞれに対して、物体識別情
報コードを構成する特徴点位置を抽出する手段と、 前記抽出する手段により抽出された前記特徴点位置か
ら、第2の幾何学的不変量を計算する手段と、 前記計算する手段により計算された前記第2の幾何学的
不変量に最も近い、前記記憶する手段に記憶されている
前記第1の幾何学的不変量に対応する前記物体識別情報
コードを検出する手段とを有する物体識別情報認識装
置。
5. An object identification information code, which is unique to an object and is composed of a plurality of feature points, and means for generating a first geometrical invariant corresponding to the object identification code; The object identification information code and the first geometric invariant, means for storing each object, means for inputting a plurality of independent images of the object to which the object identification information code is added, A second geometric invariant is calculated from the feature point position forming the object identification information code for each of the plurality of independent images, and the feature point position extracted by the extracting unit. Calculating means, and the object closest to the second geometric invariant calculated by the calculating means and corresponding to the first geometric invariant stored in the storing means. Identification code Object identification information recognition device having means for detecting.
【請求項6】 画像入力装置により取得された画像から
物体を特定する、物体識別情報認識方法であって、 前記物体に固有の、複数の特徴点より構成される物体識
別情報コードと前記物体識別コードに対応する第1の幾
何学的不変量を生成するステップと、 前記生成するステップにより生成された前記物体識別情
報コードと前記第1の幾何学的不変量を、前記物体ごと
に記憶するステップと、 前記画像入力装置によって、複数の視点から、前記物体
識別情報コードが付加された物体の複数の画像を取得す
るステップと、 前記画像を取得するステップにより取得された、前記複
数の画像の中から、独立な複数の画像を発生するステッ
プと、 前記画像を発生するステップにより発生された、前記独
立な複数の画像のそれぞれに対して、前記物体識別情報
コードを構成する前記特徴点位置を抽出するステップ
と、 前記抽出するステップにより抽出された前記特徴点位置
から、第2の幾何学的不変量を計算するステップと、 前記計算するステップにより計算された前記第2の幾何
学的不変量に最も近い、前記記憶するステップに記憶さ
れている前記第1の幾何学的不変量に対応する前記物体
識別情報コードを検出する手段とを有する物体識別情報
認識方法。
6. An object identification information recognition method for identifying an object from an image acquired by an image input device, the object identification information code being unique to the object, the object identification information code including a plurality of feature points, and the object identification. Generating a first geometric invariant corresponding to the code, storing the object identification information code and the first geometric invariant generated by the generating step, for each object A step of acquiring a plurality of images of the object to which the object identification information code is added from a plurality of viewpoints by the image input device; and a step of acquiring the images from the plurality of images. From the step of generating a plurality of independent images, and the object identification for each of the plurality of independent images generated in the step of generating the image. Calculating a second geometric invariant from the feature point positions extracted by the extracting step; calculating the feature point position forming the information code; Object identification information that is closest to the second geometric invariant and that detects the object identification information code corresponding to the first geometric invariant stored in the storing step. Recognition method.
【請求項7】 前記独立な複数の画像は、独立な4つの
画像である、請求項6に記載の物体識別情報認識方法。
7. The object identification information recognition method according to claim 6, wherein the plurality of independent images are four independent images.
JP2002020170A 2002-01-29 2002-01-29 Object identification information recognition system and method, image input device, and object identification information recognition device Pending JP2003223639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002020170A JP2003223639A (en) 2002-01-29 2002-01-29 Object identification information recognition system and method, image input device, and object identification information recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002020170A JP2003223639A (en) 2002-01-29 2002-01-29 Object identification information recognition system and method, image input device, and object identification information recognition device

Publications (1)

Publication Number Publication Date
JP2003223639A true JP2003223639A (en) 2003-08-08

Family

ID=27743743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002020170A Pending JP2003223639A (en) 2002-01-29 2002-01-29 Object identification information recognition system and method, image input device, and object identification information recognition device

Country Status (1)

Country Link
JP (1) JP2003223639A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248452A (en) * 2006-02-15 2007-09-27 Sumitomo Electric Ind Ltd Method for measuring warpage on back face of substrate
WO2008090908A1 (en) 2007-01-23 2008-07-31 Nec Corporation Marker generating and marker detecting system, method and program
WO2011010693A1 (en) * 2009-07-23 2011-01-27 日本電気株式会社 Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
US8170329B2 (en) 2008-07-18 2012-05-01 Fuji Xerox Co., Ltd. Position measuring system, position measuring method and computer readable medium
CN102473310A (en) * 2009-07-23 2012-05-23 日本电气株式会社 Marker judgment device, marker judgment detection system, marker judgment detection device, marker, marker judgment method and program therefor

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248452A (en) * 2006-02-15 2007-09-27 Sumitomo Electric Ind Ltd Method for measuring warpage on back face of substrate
WO2008090908A1 (en) 2007-01-23 2008-07-31 Nec Corporation Marker generating and marker detecting system, method and program
US8655076B2 (en) 2007-01-23 2014-02-18 Nec Corporation Marker generating and marker detecting system, method and program
US9760804B2 (en) 2007-01-23 2017-09-12 Nec Corporation Marker generating and marker detecting system, method and program
US8170329B2 (en) 2008-07-18 2012-05-01 Fuji Xerox Co., Ltd. Position measuring system, position measuring method and computer readable medium
WO2011010693A1 (en) * 2009-07-23 2011-01-27 日本電気株式会社 Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
CN102473310A (en) * 2009-07-23 2012-05-23 日本电气株式会社 Marker judgment device, marker judgment detection system, marker judgment detection device, marker, marker judgment method and program therefor
CN102473312A (en) * 2009-07-23 2012-05-23 日本电气株式会社 Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program therefor
US8693786B2 (en) 2009-07-23 2014-04-08 Nec Corporation Marker determination device, marker determination detection system, marker determination detection device, marker, marker determination method, and program therefor
US8755608B2 (en) 2009-07-23 2014-06-17 Nec Corporation Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
JP5794427B2 (en) * 2009-07-23 2015-10-14 日本電気株式会社 Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program thereof

Similar Documents

Publication Publication Date Title
JP4284288B2 (en) Pattern recognition apparatus and method
Ennesser et al. Finding Waldo, or focus of attention using local color information
JP4894741B2 (en) Information processing apparatus, information processing method, program, and recording medium
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
CN108629261A (en) Remote identity recognition method and system and computer readable recording medium
JP2004265407A (en) Detection method of color object in digital image
Prakash et al. Human recognition using 3D ear images
JP2012238121A (en) Image recognition device, control method for the device, and program
JP6410450B2 (en) Object identification device, object identification method, and program
US20120269446A1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program
JP4772819B2 (en) Image search apparatus and image search method
CN110009615B (en) Image corner detection method and detection device
JP3914864B2 (en) Pattern recognition apparatus and method
EP2458558B1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
Vardhan et al. Unsupervised approach for object matching using speeded up robust features
EP2458559B1 (en) Marker determination device, marker determination detection system, marker determination detection device, marker, marker determination method, and program therefor
Tharewal et al. Score-level fusion of 3D face and 3D ear for multimodal biometric human recognition
EP2458556A1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
JP2003223639A (en) Object identification information recognition system and method, image input device, and object identification information recognition device
Benedens Robust watermarking and affine registration of 3d meshes
Desai et al. Performance evaluation of image retrieval systems using shape feature based on wavelet transform
KR101521136B1 (en) Method of recognizing face and face recognition apparatus
Pachouri A comparative analysis & survey of various feature extraction techniques
Kochra et al. Study on hill climbing algorithm for image segmentation
Gajdoš et al. Iris recognition on GPU with the usage of non-negative matrix factorization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080715