JP2004192342A - Object identification code recognition device and method - Google Patents

Object identification code recognition device and method Download PDF

Info

Publication number
JP2004192342A
JP2004192342A JP2002359698A JP2002359698A JP2004192342A JP 2004192342 A JP2004192342 A JP 2004192342A JP 2002359698 A JP2002359698 A JP 2002359698A JP 2002359698 A JP2002359698 A JP 2002359698A JP 2004192342 A JP2004192342 A JP 2004192342A
Authority
JP
Japan
Prior art keywords
code
marker
geometric
code recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002359698A
Other languages
Japanese (ja)
Inventor
Toshiki Iso
俊樹 磯
Masaharu Kurakake
正治 倉掛
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2002359698A priority Critical patent/JP2004192342A/en
Publication of JP2004192342A publication Critical patent/JP2004192342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object ID code recognition device reading and recognizing an ID tag from an arbitrary direction independent from a viewpoint direction. <P>SOLUTION: This object ID code recognition device is provided with an ID marker creating means creating an ID marker to be an individual indicator for recognizing the ID code of the object, an ID marker region extraction means importing the image of the object attached with the ID marker obtained by photographing from an arbitrary viewpoint by an image input device, performing an image processing relative to the image and extracting the region of the ID marker, a feature point position extraction means extracting the positions of a plurality of feature points from the image of the ID marker region, a geometric invariant calculating means calculating, at least, a single geometric invariant from the positions of the plurality of invariants, and an ID code recognition means selecting the ID code of the object linked with the geometric invariant from database prestoring the geometric invariants linked with the object ID code. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、物体IDコード認識装置および方法に係り、詳しくは、バーコードのような物体を識別するためのIDタグを抽出する物体認識装置に利用されるものである。
【0002】
【従来の技術】
実世界の物体(オブジェクト)を識別する方法としては、物体IDコード(タグ)を利用した1次元バーコードや2次元バーコード(例えば、非特許文献1)、磁気カード、ICカードなど様々な方法が実用化されている。また、最近では、非接触型のタグであり情報を無線で書き換えることができるという長所をもったRFID(Radio Frequency Identification)のような無線系タグも実用化され、技術進歩により読み取り精度が向上しコストが低下してきたことから、物流などの分野に応用されている。また、カメラ等の画像入力装置を用いるものでは、CyberCode(サイバーコード、登録商標)や電子透かしといったIDタグも注目されている。例えば、非特許文献2によれば、CyberCode(登録商標)を実世界で利用する際の種々のアプリケーション例が報告されている。
【0003】
上で述べたような物体IDコードを用いてあるオブジェクトの情報の管理を綿密に行なうには、対象となるオブジェクトと情報とを強固に結びつけるための「タグ」の認識技術が重要となってくる。そのようなタグの認識技術として、オブジェクトに個体標識を添付し、その標識にIDを符号化しておき、コンピュータがその符号化されたIDを認識するといった技術が非特許文献3に報告されている。
【0004】
【非特許文献1】
平本純也、“知っておきたいバーコード・二次元バーコードの知識”、日本工業出版株式会社、1991
【非特許文献2】
Jun Rekimoto and Yuji Ayatsuka, CyberCode: Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Environments (DARE 2000), 2000
【非特許文献3】
伊藤俊樹、“幾何学的不変量に基づく個体標識を用いた作業者支援の研究”、大阪大学大学院 工学研究科 電子制御機械工学専攻 平成12年度修士論文、http://www-cape.mech.eng.osaka-u.ac.jp/ccm06adm/oldboys/2000/ito/ito.pdf
【0005】
【発明が解決しようとする課題】
上述したバーコードの場合、専用の読取機が必要であり、かつ手作業でスキャンし1つずつ読み取る必要があるため手間がかかる。また、バーコードに近接しないと読み取れないという問題がある。
【0006】
また、RFIDのような無線系タグの場合、通信可能範囲が狭く、かつ安価でないという問題がある。
【0007】
また、CyberCode(登録商標)や電子透かしを用いたID埋め込み型のタグも、ほぼ正面からでないとIDコードを読み込めないという問題がある。
【0008】
このように上記バーコード、RFID、CyberCode(登録商標)等といったIDタグの読取処理では、広い視野内での認識は難しく、読取距離や方向に制約があった。
【0009】
本発明は、上記のような問題点に鑑みてなされたもので、その課題とするところは、視点方向に依存しないで任意の方向からIDタグを読み込み、かつ識別することのできる物体IDコード認識装置および方法を提供することである。
【0010】
【課題を解決するための手段】
上記課題を解決するため、本発明は、請求項1に記載されるように、画像入力装置により入力された入力画像に写っている物体のIDコードを認識する物体IDコード認識装置において、前記物体のIDコードを認識するための個体標識となるIDマーカを幾何学的不変量に基づいて生成するIDマーカ生成手段と、 任意の視点から撮影して得られる前記IDマーカが貼付された物体の画像を前記画像入力装置により取り込み、その取り込んだ画像に対して画像処理を行なって該IDマーカの領域を抽出するIDマーカ領域抽出手段と、前記抽出されたIDマーカ領域の画像から複数の特徴点の位置を抽出する特徴点位置抽出手段と、 前記抽出された複数の特徴点の位置から少なくとも1つの幾何学的不変量を算出する幾何学的不変量算出手段と、前記幾何学的不変量算出手段により算出された少なくとも1つの幾何学的不変量と対応付けられる物体のIDコードを、予め幾何学的不変量と物体IDコードとを対応付けて格納しているデータベースから選出するIDコード認識手段と、を有することを特徴としている。
【0011】
また、本発明の請求項2は、前記物体IDコード認識装置において、前記幾何学的不変量算出手段は、前記抽出された複数の特徴点の位置から幾何学的不変量を複数組算出する幾何学的不変量組算出手段をさらに有し、前記データベースは、予め幾何学的不変量の組と対応付けた物体のIDコードを格納する幾何学的不変量対IDコード格納手段を有し、前記IDコード認識手段は、前記幾何学的不変量組算出手段により算出された幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースから選出することを特徴としている。
【0012】
また、本発明の請求項3は、前記物体IDコード認識装置において、前記IDマーカ生成手段により生成されるIDマーカは、同一平面上の任意の位置に配置された複数の特徴点から得られる複数の幾何学的不変量に基づいて生成されることを特徴としている。
【0013】
また、本発明の請求項4は、前記物体IDコード認識装置において、前記特徴点位置抽出手段は、前記抽出されたIDマーカ領域の画像から物体IDマーカを表す複数のIDサブマーカに分離するIDマーカ分離手段と、前記分離された複数のIDサーブマーカから特徴点の位置を抽出することを特徴としている。
【0014】
また、本発明の請求項5は、前記物体IDコード認識装置において、前記IDコード認識手段は、前記幾何学的不変量算出手段により算出された複数の幾何学的不変量と、前記IDマーカ生成手段により得られた複数の幾何学的不変量との類似度を求める類似度計算手段を有し、最も類似性の高い幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースより選出することを特徴としている。
【0015】
また、本発明の請求項6は、前記物体IDコード認識装置において、前記類似度は、マハラノビス距離、ユークリッド距離のいずれにて計算されることを特徴としている。
【0016】
上記本発明の構成によれば、視点に依存しない情報(幾何学的不変量)を抽出し、これをタグの識別情報として用いることで、任意の方向(視点)からのタグの読み込み、認識が可能となり、従来の問題であった読取距離や方向の制約から開放される。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
【0018】
図1は、本発明の実施の一形態に係る物体IDコード認識装置のシステム構成図である。
【0019】
図1において、本発明に係る物体IDコード認識装置は、例えば、携帯電話機等の携帯端末100に搭載され、カメラ1等の撮像手段にて撮像された画像の情報を取得する画像取得部2、IDマーカと呼ばれるタグの領域を抽出するIDマーカ領域抽出部3、IDマーカ上の特徴点の位置を抽出する特徴点位置抽出部4、特徴点位置から幾何学的不変量を算出する幾何学的不変量算出部5、算出された幾何学的不変量に基づき物体のIDコードを認識するIDコード認識部6、幾何学的不変量と物体IDコードを関連付けて格納している物体IDコードデータベース7から構成される。
【0020】
本実施形態では、実世界の対象、例えば、ある物体200に個体標識を表すIDマーカが貼付けされる。このIDマーカは、幾何学的不変量(ここで、幾何学的不変量とは、構成している点や直線、コニックが幾何学的にある条件を満たした時に配置対象を見る視点に依らず不変な特徴量をいう)を利用して生成され、撮影対象となる物体が2次元物体である場合には、以下の不変量の存在が確認されている。
【0021】
(平面上の5点)
同一平面状の5点(ただし、少なくとも3点が同一直線上でも同一点上にもない)に対して、2個の不変量(関数的に独立な)が存在する。
【0022】
本実施形態では、平面上の任意の位置に配置された5つの特徴点がそれぞれ異なる色で表現され、物体ごとに特徴点の配置を変えるようにしている。これにより、物体固有の情報である物体IDサブマーカに相当する幾何学的不変量が1組(2つの実数値)算出することができる(具体的な算出方法は後述する)。また、上記同様、5つの特徴点の表現を変えたもの、例えば、特徴点に黒枠を付けたものを用意すれば、物体ごとに特徴点の配置を変えることで物体固有の情報である物体IDサーブマーカに相当する幾何学的不変量が1組(2つの実数値)算出することができる。
図2は、上記IDマーカの生成例を説明するための図である。
【0023】
同図(a)が示すように、本実施形態におけるIDマーカは、例えば、5色の特徴点(a〜e)と5つの黒色特徴点(f〜j)がタグ上に配置される。5つの黒色特徴点は5色の特徴点のどの色の領域に属しているか特徴点の対応付けを行なうために、同一の領域にある有彩度色の色が中心に表示される(f〜j内の中心にある小さな四角形)。本実施形態におけるIDサブマーカは、基本的に各5点1組の特徴点を合成することで表現(生成)される。
【0024】
上記図2の(a)に示すIDマーカは、後述する処理において、色情報(彩度、色相、明度)等により、黒色とそれ以外に二つ(例えば、G1、G2)に分離(同図(b)、(c))される。同図(b)は、5色の特徴点(a〜e)を表現し、
例えば、明度ごとに番号が付される(P1(G1)、P2(G1)、・・・、P5(G1))。同図(c)は、5つの黒色特徴点(f〜j)のうちの黒色部分のみが表現され、中央にあった有彩度色の小さな四角形は同図(b)上の5色の特徴点(a〜e)と対応する色の領域に投影される(矢印参照)。また、同図(c)は、上記図2(b)の5色の特徴点(a〜e)の領域に対応させた番号が付される(P1(G2)、P2(G2)、・・・、P5(G2))。
【0025】
このようにして生成されたIDマーカは物体に貼付され、本発明に係る物体IDコード認識装置においてIDコード認識される。
【0026】
次に、図3を用いて物体IDコード認識装置における物体IDコードの認識処理について説明する。図3は、物体IDコード認識装置におけるIDコードの認識処理手順を示すフローチャートである。
【0027】
図3において、まず、画像取得部2では、カメラ等により撮像された物体の画像が画像処理できる形式で取り込まれる(S1)。この画像取得部2に取り込まれる入力画像には、物体のIDマーカの領域が含まれている。
【0028】
画像取得部2で取得された画像の情報は、その後、IDマーカ領域抽出部3に入力され、フーリエ変換が施され、空間周波数に変換される。その後、物体IDマーカ領域の背景画像の空間周波数データとの相似形又は一致形がパターンマッチングにより抽出(S2)される。IDマーカ領域抽出部3は、このようにして抽出された空間周波数データに逆フーリエ変換を施し、この逆フーリエ変換後に得られる画像パターンを二値化処理して輪郭抽出を行ない、輪郭内部を「1」、それ以外を「0」の値を持つマスクパターンを生成(S3)する。IDマーカ領域抽出部3は上記マスクパターンを用い、画像取得部2で取り込まれた画像情報から物体IDマーカ領域(特定領域)を抽出(S4)して特徴点位置抽出部4に出力する。
【0029】
特徴点位置抽出部4は入力した物体IDマーカ領域の彩度が第一の閾値(Th1)以下で、かつ明度が大きいものから順に背景面積分に相当する画素を選択し、それらの平均R、G、B値が255(最大)になるように、色補正変換を算出する。そして、この色補正変換の算出をIDマーカ領域の全ての画素について施し(S5)、彩度が第二の閾値(Th2)以下で、かつ明度が第三の閾値(Th3)以下のものを「G1」、彩度が第二の閾値(Th2)以上で、かつ明度が第三の閾値(Th3)以上のものを「G2」として、それぞれIDマーカ領域からIDサブマーカとして抽出(分離)する(S6)。
【0030】
特徴点位置抽出部4は、上記のようにして分離した「G1」、「G2」に対し、次の処理を施す。
(G1の処理)
IDサブマーカとして抽出されたG1にある5個の特徴点領域のそれぞれについて重心の位置を算出し、それを特徴点の位置として抽出(S7)する。そして、この抽出された5個の特徴点領域の色相の大きさに基づき、それぞれの特徴点をソートして特徴点の点番号(例えば、色相が大きいものから順にP1、P2、・・・、P5とする)との対応付けを行なう(S8)。
【0031】
(G2の処理)
上記G1の場合と同様、IDサブマーカとして抽出されたG2にある10個の特徴点領域のそれぞれについて重心の位置を算出し、それを特徴点の位置として抽出(S9)し、この抽出された特徴点位置のうち、G1で抽出された特徴点位置と近傍にある5個の特徴点を抽出し、それぞれを近傍な特徴点に対応付けてG1に移す(S10)。そして、上記同様、この抽出された5個の特徴点領域の色相の大きさに基づき、それぞれの特徴点をソートして特徴点の点番号(例えば、色相が大きいものから順にP1、P2、・・・、P5とする)との対応付けを行なう(S11)。
【0032】
幾何学的不変量算出部5は、上記のようにしてG1、G2ごとに、特徴点の対応付けが行なわれた5個の特徴点を用い、下記式にしたがって幾何学的不変量を算出(S12、S13)する。
【0033】
【数1】

Figure 2004192342
この幾何学的不変量算出部5にて算出された不変量(α1、β1、α2、β2)は、その後、合成(S14)されて物体IDコード認識の際に用いられる値となる。
【0034】
IDコード認識部6は、上記のようにして合成して得られた幾何学的不変量(▲1▼)と物体IDコード生成のときに算出された幾何学的不変量(▲2▼)を特徴量空間上のベクトル表現として得、このベクトルに基づいてそれぞれの距離値が求められる。この距離値を求める代表的な手法としては、マハラノビス距離、ユークリッド距離、ベイズ識別、複合類似度などがあり、本例では、上記距離値の算出手法にマハラノビス距離を適用するものとする。
【0035】
IDコード認識部6は、上記▲1▼の幾何学的不変量と▲2▼の幾何学的不変量との間の距離値をマハラノビス距離手法にて求め、その値が最小になる幾何学的不変量を検索キーとして求める(マハラノビス距離の値が小さければ、上記▲1▼と▲2▼が似ていることになる(確率密度最大))。そして、事前に理論的に算出された幾何学的不変量と物体IDコードの対応付けが格納されている物体IDコードデータベース7から上記検索キーとなる幾何学的不変量とある近傍値d内にあるもののうち、最も近いものを検索し、その検索で得られた幾何学的不変量に対応付けられている物体IDコードを抽出(選出)し(S15)、それを物体IDコードとして認識して一連の処理を終える。
【0036】
上述したように、本実施形態では、視点に依らない幾何学的不変量が算出できる特徴点で物体IDコード(タグ)を生成したので、物体IDコードの画像情報が全て取得できれば近接ないし撮影距離からの画面に基づき幾何学的不変量を算出することができる。その結果、それと関連付けられた物体IDコードの識別が可能となる。
【0037】
また、同一平面内にある5点から得られる幾何学的不変量を5色の色情報と組み合わせて物体IDコードを表現しているので、5色の色情報の相対的な関係のみが分ればよいので、複雑な形状を識別する必要がなく、高品質な画像でなくても適用することが可能である。また、特徴点を増やすことで、容易にIDコードの表現能力を拡張することができる。
【0038】
また、複数のIDサブコードを分離する際には、背景色の条件から色補正をかけてから分類しているので、照明条件に対しロバストな利用が可能となる。
【0039】
また、本実施形態では、任意の視点からの画像があればよく、最低でも1点の視点からの画像があれば物体のIDコードを算出して物体IDコードの情報を取得することが可能である。したがって、映像データが取得できなくてもカメラ等の画像入力装置を具備している携帯端末であれば、コード読取機械等の特別な装置を必要とせずに、物体IDコードの認識が行なえるようになる。
【0040】
さらに、物体IDコードを表現する特徴点の幾何学的配置は、平面上の任意の5点で構成されるので、用途に応じて様々な表現を生成できるという効果を奏す。
【0041】
上記例において、幾何学的不変量算出部5の不変量算出機能がIDマーカ生成手段に、IDマーカ領域抽出部3のIDマーカ領域抽出機能がIDマーカ領域抽出手段、幾何学的不変量算出手段に、特徴点位置抽出部4の特徴点位置抽出機能が特徴点位置抽出手段に対応する。また、IDコード認識部6のIDコード認識機能がIDコード認識手段、類似度計算手段に対応し、物体IDコードデータベース7のデータ格納・管理機能が幾何学的不変量対IDコード格納手段に対応する。
【0042】
【発明の効果】
以上、説明したように、本願発明によれば、視点に依存しない情報(幾何学的不変量)を抽出し、これをタグの識別情報として用いることで、任意の方向(視点)からのタグの読み込み、認識が可能となり、従来の問題であった読取距離や方向の制約から開放される。
【図面の簡単な説明】
【図1】本発明の実施の一形態に係る物体IDコード認識装置のシステム構成図である。
【図2】IDマーカの生成例を説明するための図である。
【図3】物体IDコード認識装置におけるIDコードの認識処理手順を示すフローチャートである。
【符号の説明】
1 カメラ
2 画像取得部
3 IDマーカ領域抽出部
4 特徴点位置抽出部
5 幾何学的不変量算出部
6 IDコード認識部
7 物体IDコードデータベース(DB)
100 カメラ搭載携帯端末
200 物体
210 物体IDコード(タグ)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an object ID code recognition apparatus and method, and more particularly, to an object ID code recognition apparatus for extracting an ID tag for identifying an object such as a barcode.
[0002]
[Prior art]
There are various methods for identifying an object in the real world, such as a one-dimensional barcode or a two-dimensional barcode (for example, Non-Patent Document 1) using an object ID code (tag), a magnetic card, an IC card, and the like. Has been put to practical use. In recent years, wireless tags such as RFID (Radio Frequency Identification), which are non-contact tags and have the advantage that information can be rewritten wirelessly, have been put into practical use. Since the cost has decreased, it has been applied to fields such as logistics. In the case of using an image input device such as a camera, an ID tag such as CyberCode (registered trademark) or a digital watermark has also attracted attention. For example, according to Non-Patent Document 2, various application examples when using CyberCode (registered trademark) in the real world are reported.
[0003]
In order to manage information of a certain object using the object ID code as described above, a "tag" recognition technique for firmly connecting a target object and information becomes important. . Non-Patent Document 3 discloses a technology for recognizing such tags, in which an individual marker is attached to an object, an ID is encoded on the marker, and a computer recognizes the encoded ID. .
[0004]
[Non-patent document 1]
Junya Hiramoto, "Knowledge of Barcodes and 2D Barcodes to Know", Nippon Kogyo Publishing Co., Ltd., 1991
[Non-patent document 2]
Jun Rekimoto and Yuji Ayatsuka, CyberCode: Designing Augmented Reality Environments with Visual Tags, Designing Augmented Reality Environments (DARE 2000), 2000
[Non-Patent Document 3]
Toshiki Ito, "Research on Worker Support Using Individual Indices Based on Geometric Invariants," Graduate School of Engineering, Osaka University, Master's Thesis, 2000, http: //www-cape.mech. eng.osaka-u.ac.jp/ccm06adm/oldboys/2000/ito/ito.pdf
[0005]
[Problems to be solved by the invention]
In the case of the above-described barcode, a dedicated reader is required, and it is necessary to scan manually and read one by one, which is troublesome. In addition, there is a problem that reading cannot be performed unless the bar code is close to the bar code.
[0006]
In the case of a wireless tag such as an RFID, there is a problem that the communicable range is narrow and the price is not low.
[0007]
In addition, an ID-embedded tag using CyberCode (registered trademark) or a digital watermark has a problem that an ID code cannot be read unless it is almost from the front.
[0008]
As described above, in the reading processing of the ID tag such as the barcode, the RFID, and the CyberCode (registered trademark), it is difficult to recognize the ID tag in a wide visual field, and the reading distance and the direction are limited.
[0009]
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to read an ID tag from an arbitrary direction without depending on a viewpoint direction and to recognize an object ID code. It is to provide an apparatus and a method.
[0010]
[Means for Solving the Problems]
In order to solve the above problem, the present invention provides an object ID code recognizing device for recognizing an ID code of an object appearing in an input image input by an image input device. ID marker generating means for generating an ID marker serving as an individual marker for recognizing the ID code of the object based on a geometric invariant, and an image of an object to which the ID marker is attached, obtained by photographing from an arbitrary viewpoint ID marker area extracting means for performing image processing on the captured image to extract an area of the ID marker, and extracting a plurality of feature points from the image of the extracted ID marker area. Feature point position extracting means for extracting a position; and a geometric invariant calculation for calculating at least one geometric invariant from the positions of the plurality of extracted feature points. A step and an ID code of an object associated with at least one geometric invariant calculated by the geometric invariant calculating means are stored in advance by associating the geometric invariant with the object ID code. ID code recognizing means selected from a database.
[0011]
According to a second aspect of the present invention, in the object ID code recognition device, the geometric invariant calculating means calculates a plurality of sets of geometric invariants from the positions of the plurality of extracted feature points. Further comprising a geometric invariant set calculating means, wherein the database further comprises a geometric invariant pair ID code storing means for storing an ID code of an object previously associated with the geometric invariant set, The ID code recognition means selects from the database an ID code of an object associated with a set similar to the set of geometric invariants calculated by the set of geometric invariant sets. I have.
[0012]
According to a third aspect of the present invention, in the object ID code recognition device, the ID markers generated by the ID marker generating means are obtained from a plurality of feature points arranged at arbitrary positions on the same plane. Is generated based on the geometric invariant of.
[0013]
Further, in the object ID code recognition device according to the present invention, in the object ID code recognition device, the feature point position extracting means separates the extracted image of the ID marker area into a plurality of ID sub-markers representing an object ID marker. A separating unit extracts a position of a feature point from the plurality of separated ID serve markers.
[0014]
According to a fifth aspect of the present invention, in the object ID code recognizing device, the ID code recognizing means includes: a plurality of geometric invariants calculated by the geometric invariant calculating means; Means for calculating the degree of similarity with a plurality of geometric invariants obtained by the means, and a set of objects in correspondence with a set similar to the set of geometric invariants having the highest similarity. An ID code is selected from the database.
[0015]
According to a sixth aspect of the present invention, in the object ID code recognition device, the similarity is calculated by any one of the Mahalanobis distance and the Euclidean distance.
[0016]
According to the configuration of the present invention, information (geometric invariant) independent of a viewpoint is extracted and used as tag identification information, so that reading and recognition of a tag from an arbitrary direction (viewpoint) can be performed. It becomes possible, and it is released from the restriction of the reading distance and the direction, which is a conventional problem.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 is a system configuration diagram of an object ID code recognition device according to one embodiment of the present invention.
[0019]
In FIG. 1, an object ID code recognition device according to the present invention is mounted on a portable terminal 100 such as a mobile phone, for example, and acquires an image acquisition unit 2 that acquires information on an image captured by an imaging unit such as a camera 1. An ID marker area extracting unit 3 for extracting a tag area called an ID marker; a feature point position extracting unit 4 for extracting the position of a feature point on the ID marker; a geometric unit for calculating a geometric invariant from the feature point position Invariant calculation unit 5, ID code recognition unit 6 for recognizing the ID code of an object based on the calculated geometric invariant, object ID code database 7 storing the geometric invariant and the object ID code in association with each other Consists of
[0020]
In the present embodiment, an ID marker indicating an individual marker is attached to an object in the real world, for example, a certain object 200. This ID marker is a geometric invariant (here, a geometric invariant is a point which does not depend on a viewpoint at which an arrangement target is viewed when a constituent point, a straight line, or a conic satisfies a certain condition geometrically). When the object to be photographed is a two-dimensional object, the presence of the following invariants has been confirmed.
[0021]
(5 points on a plane)
There are two invariants (functionally independent) for 5 points on the same plane (however, at least 3 points are neither on the same straight line nor on the same point).
[0022]
In the present embodiment, five feature points arranged at arbitrary positions on the plane are represented by different colors, and the arrangement of the feature points is changed for each object. As a result, one set (two real values) of the geometric invariants corresponding to the object ID submarker, which is information unique to the object, can be calculated (a specific calculation method will be described later). In the same manner as described above, if the representation of the five feature points is changed, for example, a feature point with a black frame is prepared, the arrangement of the feature points is changed for each object, and the object ID which is information unique to the object is obtained. One set (two real values) of the geometric invariants corresponding to the serve marker can be calculated.
FIG. 2 is a diagram for explaining an example of generating the ID marker.
[0023]
As shown in FIG. 7A, in the ID marker according to the present embodiment, for example, five color feature points (a to e) and five black feature points (f to j) are arranged on the tag. The colors of the chromatic colors in the same region are displayed at the center in order to associate the five black feature points with which color region of the five color feature points the feature points correspond to (f to f). small square in j). The ID submarker in the present embodiment is basically expressed (generated) by synthesizing a set of five feature points.
[0024]
The ID marker shown in FIG. 2A is separated into black and other two (for example, G1 and G2) by color information (saturation, hue, lightness) and the like in a process described later (FIG. (B) and (c)). FIG. 4B shows the five color feature points (a to e).
For example, a number is assigned to each lightness (P1 (G1), P2 (G1),..., P5 (G1)). FIG. 11C shows only the black portion of the five black feature points (f to j), and the small square of the chromatic color at the center is the feature of the five colors shown in FIG. It is projected on the area of the color corresponding to the points (a to e) (see arrows). In FIG. 2C, numbers corresponding to the areas of the five color feature points (a to e) in FIG. 2B are assigned (P1 (G2), P2 (G2),...). *, P5 (G2)).
[0025]
The ID marker generated in this manner is attached to an object, and the object ID code recognition device according to the present invention recognizes the ID code.
[0026]
Next, an object ID code recognition process in the object ID code recognition device will be described with reference to FIG. FIG. 3 is a flowchart showing the ID code recognition processing procedure in the object ID code recognition device.
[0027]
In FIG. 3, first, the image acquisition unit 2 captures an image of an object captured by a camera or the like in a format that allows image processing (S1). The input image captured by the image acquisition unit 2 includes an ID marker area of the object.
[0028]
The information of the image acquired by the image acquisition unit 2 is then input to the ID marker area extraction unit 3, where it is subjected to Fourier transform and converted to a spatial frequency. Thereafter, a similar or coincident form with the spatial frequency data of the background image of the object ID marker area is extracted by pattern matching (S2). The ID marker area extraction unit 3 performs an inverse Fourier transform on the spatial frequency data extracted in this manner, binarizes the image pattern obtained after the inverse Fourier transform, extracts a contour, and extracts the inside of the contour as “ A mask pattern having a value of "1" and other values of "0" is generated (S3). Using the mask pattern, the ID marker area extraction unit 3 extracts an object ID marker area (specific area) from the image information captured by the image acquisition unit 2 (S4) and outputs the extracted object ID marker area to the feature point position extraction unit 4.
[0029]
The feature point position extraction unit 4 selects pixels corresponding to the background area in descending order of the saturation of the input object ID marker area that is equal to or less than the first threshold value (Th1) and the brightness is large. The color correction conversion is calculated so that the G and B values become 255 (maximum). Then, the calculation of the color correction conversion is performed for all the pixels in the ID marker area (S5), and the pixel whose saturation is equal to or smaller than the second threshold (Th2) and whose brightness is equal to or smaller than the third threshold (Th3) is referred to as " G1 ”, and those whose saturation is equal to or more than the second threshold (Th2) and whose brightness is equal to or more than the third threshold (Th3) are set as“ G2 ”, and are extracted (separated) as ID submarkers from the ID marker area (S6). ).
[0030]
The feature point position extraction unit 4 performs the following processing on “G1” and “G2” separated as described above.
(Process of G1)
The position of the center of gravity is calculated for each of the five feature point regions in G1 extracted as the ID submarkers, and is extracted as the position of the feature point (S7). Then, based on the extracted hue sizes of the five feature point regions, the respective feature points are sorted and point numbers of the feature points (for example, P1, P2,... P5) (S8).
[0031]
(Process of G2)
As in the case of G1, the position of the center of gravity is calculated for each of the 10 feature point regions in G2 extracted as the ID sub-marker, and extracted as the position of the feature point (S9). Among the point positions, five feature points near the feature point position extracted in G1 are extracted, and each is moved to G1 in association with the nearby feature point (S10). Then, as described above, based on the hues of the five extracted feature point regions, the respective feature points are sorted and the point numbers of the feature points (for example, P1, P2,. .., P5) (S11).
[0032]
The geometric invariant calculation unit 5 calculates the geometric invariant according to the following equation using the five feature points associated with the feature points for each of G1 and G2 as described above ( S12 and S13).
[0033]
(Equation 1)
Figure 2004192342
The invariants (α1, β1, α2, β2) calculated by the geometric invariant calculation unit 5 are then combined (S14) to become values used for object ID code recognition.
[0034]
The ID code recognition unit 6 compares the geometric invariant (1) obtained by combining as described above with the geometric invariant (2) calculated at the time of generating the object ID code. The distance value is obtained as a vector representation in the feature amount space, and each distance value is obtained based on this vector. Representative methods for obtaining this distance value include Mahalanobis distance, Euclidean distance, Bayes identification, and composite similarity. In this example, Mahalanobis distance is applied to the above-described distance value calculation method.
[0035]
The ID code recognition unit 6 obtains a distance value between the geometric invariant (1) and the geometric invariant (2) by the Mahalanobis distance method, An invariant is obtained as a search key (if the value of the Mahalanobis distance is small, the above (1) and (2) are similar (maximum probability density)). Then, from the object ID code database 7 in which the correspondence between the geometrically invariant theoretically calculated in advance and the object ID code is stored, the geometrical invariant serving as the search key and a certain nearby value d are stored. Among the objects, the closest one is searched, and the object ID code associated with the geometric invariant obtained by the search is extracted (selected) (S15), and it is recognized as the object ID code. A series of processing ends.
[0036]
As described above, in the present embodiment, an object ID code (tag) is generated at a feature point at which a geometric invariant can be calculated independent of the viewpoint. The geometric invariant can be calculated based on the screen from. As a result, it becomes possible to identify the object ID code associated therewith.
[0037]
Further, since the object ID code is expressed by combining the geometric invariants obtained from the five points on the same plane with the color information of the five colors, only the relative relationship between the color information of the five colors can be determined. Therefore, it is not necessary to identify a complicated shape, and the present invention can be applied even to a high-quality image. Also, by increasing the number of feature points, the expressive ability of the ID code can be easily expanded.
[0038]
Further, when separating a plurality of ID sub-codes, classification is performed after applying color correction based on the condition of the background color, so that it is possible to use the sub-codes robustly with respect to the lighting conditions.
[0039]
Further, in the present embodiment, it is sufficient that there is an image from any viewpoint, and if there is an image from at least one viewpoint, it is possible to calculate the ID code of the object and acquire the information of the object ID code. is there. Therefore, a portable terminal equipped with an image input device such as a camera can recognize an object ID code without requiring a special device such as a code reading machine even if video data cannot be acquired. become.
[0040]
Furthermore, since the geometrical arrangement of the feature points expressing the object ID code is composed of arbitrary five points on a plane, there is an effect that various expressions can be generated depending on the application.
[0041]
In the above example, the invariant calculation function of the geometric invariant calculation unit 5 is the ID marker generation means, and the ID marker area extraction function of the ID marker area extraction unit 3 is the ID marker area extraction means, the geometric invariant calculation means. In addition, the feature point position extracting function of the feature point position extracting unit 4 corresponds to a feature point position extracting unit. The ID code recognition function of the ID code recognition unit 6 corresponds to ID code recognition means and similarity calculation means, and the data storage and management function of the object ID code database 7 corresponds to geometric invariant pair ID code storage means. I do.
[0042]
【The invention's effect】
As described above, according to the present invention, information (geometric invariant) that does not depend on the viewpoint is extracted and used as tag identification information. Reading and recognition become possible, and the restriction on the reading distance and direction, which was a problem in the past, is released.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of an object ID code recognition device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of generating an ID marker.
FIG. 3 is a flowchart showing an ID code recognition processing procedure in the object ID code recognition device.
[Explanation of symbols]
Reference Signs List 1 Camera 2 Image acquisition unit 3 ID marker area extraction unit 4 Feature point position extraction unit 5 Geometric invariant calculation unit 6 ID code recognition unit 7 Object ID code database (DB)
100 Mobile terminal with camera 200 Object 210 Object ID code (tag)

Claims (12)

画像入力装置により入力された入力画像に写っている物体のIDコードを認識する物体IDコード認識装置において、
前記物体のIDコードを認識するための個体標識となるIDマーカを幾何学的不変量に基づいて生成するIDマーカ生成手段と、
任意の視点から撮影して得られる前記IDマーカが貼付された物体の画像を前記画像入力装置により取り込み、その取り込んだ画像に対して画像処理を行なって該IDマーカの領域を抽出するIDマーカ領域抽出手段と、
前記抽出されたIDマーカ領域の画像から複数の特徴点の位置を抽出する特徴点位置抽出手段と、
前記抽出された複数の特徴点の位置から少なくとも1つの幾何学的不変量を算出する幾何学的不変量算出手段と、
前記幾何学的不変量算出手段により算出された少なくとも1つの幾何学的不変量と対応付けられる物体のIDコードを、予め幾何学的不変量と物体IDコードとを対応付けて格納しているデータベースから選出するIDコード認識手段と、を有することを特徴とする物体IDコード認識装置。
In an object ID code recognition device that recognizes an ID code of an object appearing in an input image input by an image input device,
ID marker generating means for generating an ID marker serving as an individual marker for recognizing the ID code of the object based on a geometric invariant,
An ID marker area for capturing an image of an object to which the ID marker is attached, obtained by photographing from an arbitrary viewpoint, by the image input device, performing image processing on the captured image, and extracting the area of the ID marker. Extraction means;
Feature point position extracting means for extracting positions of a plurality of feature points from the image of the extracted ID marker area;
Geometric invariant calculation means for calculating at least one geometric invariant from the positions of the plurality of extracted feature points;
A database in which an ID code of an object associated with at least one geometric invariant calculated by the geometric invariant calculating means is stored in advance by associating the geometric invariant with the object ID code. And an ID code recognizing means selected from the following.
請求項1記載の物体IDコード認識装置において、
前記幾何学的不変量算出手段は、前記抽出された複数の特徴点の位置から幾何学的不変量を複数組算出する幾何学的不変量組算出手段をさらに有し、
前記データベースは、予め幾何学的不変量の組と対応付けた物体のIDコードを格納する幾何学的不変量対IDコード格納手段を有し、
前記IDコード認識手段は、前記幾何学的不変量組算出手段により算出された幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースから選出することを特徴とする物体IDコード認識装置。
The object ID code recognition device according to claim 1,
The geometric invariant calculating means further includes a geometric invariant set calculating means for calculating a plurality of sets of geometric invariants from the positions of the plurality of extracted feature points,
The database includes a geometric invariant pair ID code storage unit that stores an ID code of an object associated with a set of geometric invariants in advance,
The ID code recognizing means selects from the database an ID code of an object associated with a set similar to the set of geometric invariants calculated by the geometric invariant set calculating means. Object ID code recognition device.
請求項1記載の物体IDコード認識装置において、
前記IDマーカ生成手段により生成されるIDマーカは、同一平面上の任意の位置に配置された複数の特徴点から得られる複数の幾何学的不変量に基づいて生成されることを特徴とする物体IDコード認識装置。
The object ID code recognition device according to claim 1,
An object wherein the ID marker generated by the ID marker generating means is generated based on a plurality of geometric invariants obtained from a plurality of feature points arranged at arbitrary positions on the same plane. ID code recognition device.
請求項1記載の物体IDコード認識装置において、
前記特徴点位置抽出手段は、前記抽出されたIDマーカ領域の画像から物体IDマーカを表す複数のIDサブマーカに分離するIDマーカ分離手段と、
前記分離された複数のIDサーブマーカから特徴点の位置を抽出することを特徴とする物体IDコード認識装置。
The object ID code recognition device according to claim 1,
An ID marker separating unit that separates the feature point position extracting unit into a plurality of ID sub-markers representing an object ID marker from the extracted image of the ID marker region;
An object ID code recognition device, wherein a position of a feature point is extracted from the plurality of separated ID serve markers.
請求項2記載の物体IDコード認識装置において、
前記IDコード認識手段は、前記幾何学的不変量算出手段により算出された複数の幾何学的不変量と、前記IDマーカ生成手段により得られた複数の幾何学的不変量との類似度を求める類似度計算手段を有し、
最も類似性の高い幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースより選出することを特徴とする物体IDコード認識装置。
The object ID code recognition device according to claim 2,
The ID code recognizing means obtains a similarity between the plurality of geometric invariants calculated by the geometric invariant calculating means and the plurality of geometric invariants obtained by the ID marker generating means. Having similarity calculating means,
An object ID code recognition apparatus, wherein an ID code of an object associated with a set similar to a set of geometric invariants having the highest similarity is selected from the database.
請求項5記載の物体IDコード認識装置において、
前記類似度は、マハラノビス距離、ユークリッド距離のいずれにて計算されることを特徴とする物体IDコード認識装置。
The object ID code recognition device according to claim 5,
The object ID code recognizing device is characterized in that the similarity is calculated by any one of Mahalanobis distance and Euclidean distance.
画像入力装置により入力された入力画像に写っている物体のIDコードを認識する物体IDコード認識方法において、
前記物体のIDコードを認識するための個体標識となるIDマーカを幾何学的不変量に基づいて生成し、
任意の視点から撮影して得られる前記IDマーカが貼付された物体の画像を前記画像入力装置により取り込み、その取り込んだ画像に対して画像処理を行なって該IDマーカの領域を抽出し、
前記抽出されたIDマーカ領域の画像から複数の特徴点の位置を抽出し、
前記抽出された複数の特徴点の位置から少なくとも1つの幾何学的不変量を算出し、
前記算出された少なくとも1つの幾何学的不変量と対応付けられる物体のIDコードを、予め幾何学的不変量と物体IDコードとを対応付けて格納しているデータベースから選出することを特徴とする物体IDコード認識方法。
In an object ID code recognition method for recognizing an ID code of an object appearing in an input image input by an image input device,
An ID marker serving as an individual marker for recognizing the ID code of the object is generated based on a geometric invariant,
An image of the object to which the ID marker is attached obtained by photographing from an arbitrary viewpoint is captured by the image input device, and the captured image is subjected to image processing to extract an area of the ID marker,
Extracting the positions of a plurality of feature points from the image of the extracted ID marker area,
Calculating at least one geometric invariant from the positions of the plurality of extracted feature points;
An ID code of an object associated with the calculated at least one geometric invariant is selected from a database in which the geometric invariant and the object ID code are stored in advance. Object ID code recognition method.
請求項7記載の物体IDコード認識方法において、
前記抽出された複数の特徴点の位置から幾何学的不変量を複数組算出し、
前記データベースに、予め幾何学的不変量の組と対応付けた物体のIDコードが格納され、
前記算出された幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースから選出することを特徴とする物体IDコード認識方法。
The object ID code recognition method according to claim 7,
Calculating a plurality of sets of geometric invariants from the positions of the plurality of extracted feature points,
In the database, an ID code of an object previously associated with a set of geometric invariants is stored,
An object ID code recognition method, wherein an ID code of an object associated with a set similar to the calculated set of geometric invariants is selected from the database.
請求項7記載の物体IDコード認識方法において、
前記IDマーカは、同一平面上の任意の位置に配置された複数の特徴点から得られる複数の幾何学的不変量に基づいて生成されることを特徴とする物体IDコード認識方法。
The object ID code recognition method according to claim 7,
The object ID code recognition method, wherein the ID marker is generated based on a plurality of geometric invariants obtained from a plurality of feature points arranged at arbitrary positions on the same plane.
請求項7記載の物体IDコード認識方法において、
前記抽出されたIDマーカ領域の画像から物体IDマーカを表す複数のIDサブマーカに分離し、
前記分離された複数のIDサーブマーカから特徴点の位置を抽出することを特徴とする物体IDコード認識方法。
The object ID code recognition method according to claim 7,
Separating into a plurality of ID sub-markers representing an object ID marker from the image of the extracted ID marker area,
A method for recognizing an object ID code, comprising extracting a position of a feature point from the plurality of separated ID serve markers.
請求項8記載の物体IDコード認識方法において、
前記抽出されたIDマーカ領域の画像から得られた複数の特徴点の位置から算出された複数の幾何学的不変量と、前記生成されたIDマーカから得られた複数の幾何学的不変量との類似度を求め、
最も類似性の高い幾何学的不変量の組と類似する組に対応付けられている物体のIDコードを前記データベースより選出することを特徴とする物体IDコード認識方法。
The object ID code recognition method according to claim 8,
A plurality of geometric invariants calculated from positions of a plurality of feature points obtained from the image of the extracted ID marker area; and a plurality of geometric invariants obtained from the generated ID marker. Find the similarity of
An object ID code recognition method, wherein an ID code of an object associated with a set similar to a set of geometric invariants having the highest similarity is selected from the database.
請求項11記載の物体IDコード認識方法において、
前記類似度は、マハラノビス距離、ユークリッド距離のいずれにて計算されることを特徴とする物体IDコード認識方法。
The object ID code recognition method according to claim 11,
The object ID code recognition method, wherein the similarity is calculated by any one of Mahalanobis distance and Euclidean distance.
JP2002359698A 2002-12-11 2002-12-11 Object identification code recognition device and method Pending JP2004192342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002359698A JP2004192342A (en) 2002-12-11 2002-12-11 Object identification code recognition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002359698A JP2004192342A (en) 2002-12-11 2002-12-11 Object identification code recognition device and method

Publications (1)

Publication Number Publication Date
JP2004192342A true JP2004192342A (en) 2004-07-08

Family

ID=32759023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002359698A Pending JP2004192342A (en) 2002-12-11 2002-12-11 Object identification code recognition device and method

Country Status (1)

Country Link
JP (1) JP2004192342A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170329B2 (en) 2008-07-18 2012-05-01 Fuji Xerox Co., Ltd. Position measuring system, position measuring method and computer readable medium
CN111046683A (en) * 2018-10-15 2020-04-21 东芝泰格有限公司 Reading apparatus, control method, computer-readable storage medium, and electronic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170329B2 (en) 2008-07-18 2012-05-01 Fuji Xerox Co., Ltd. Position measuring system, position measuring method and computer readable medium
CN111046683A (en) * 2018-10-15 2020-04-21 东芝泰格有限公司 Reading apparatus, control method, computer-readable storage medium, and electronic device
CN111046683B (en) * 2018-10-15 2024-03-05 东芝泰格有限公司 Reading device, control method, computer-readable storage medium, and electronic apparatus

Similar Documents

Publication Publication Date Title
US9245203B2 (en) Collecting information relating to identity parameters of a vehicle
Yi et al. Assistive text reading from complex background for blind persons
Patel et al. Optical character recognition by open source OCR tool tesseract: A case study
Bak et al. Person re-identification using haar-based and dcd-based signature
US11257198B1 (en) Detection of encoded signals and icons
US20140270536A1 (en) Systems and methods for classifying objects in digital images captured using mobile devices
US10803272B1 (en) Detection of encoded signals and icons
JP2010518507A (en) Feature matching method
JP5997545B2 (en) Signal processing method and signal processing apparatus
Cheng et al. Person re-identification by articulated appearance matching
JP2013109773A (en) Feature matching method and article recognition system
JP6410450B2 (en) Object identification device, object identification method, and program
CN110114781B (en) Method for detecting and identifying remote high density visual indicia
Sasikala et al. Feature extraction of real-time image using Sift algorithm
Talukder et al. Connected component based approach for text extraction from color image
Wang et al. License plate localization in complex scenes based on oriented FAST and rotated BRIEF feature
Roy et al. Face sketch-photo recognition using local gradient checksum: LGCS
Xiong et al. Text detection in stores using a repetition prior
Agarwal et al. The advent of deep learning-based image forgery detection techniques
Upadhyay et al. Analysis and architecture for the deployment of dynamic license plate recognition using yolo darknet
JP5500404B1 (en) Image processing apparatus and program thereof
KR101741761B1 (en) A classification method of feature points required for multi-frame based building recognition
JP5278093B2 (en) Article related information providing method, apparatus, program, and recording medium
Deniz et al. A vision-based localization algorithm for an indoor navigation app
JP2004192342A (en) Object identification code recognition device and method