JP2004102603A - Data characteristics extracting device and data collating device - Google Patents

Data characteristics extracting device and data collating device Download PDF

Info

Publication number
JP2004102603A
JP2004102603A JP2002262988A JP2002262988A JP2004102603A JP 2004102603 A JP2004102603 A JP 2004102603A JP 2002262988 A JP2002262988 A JP 2002262988A JP 2002262988 A JP2002262988 A JP 2002262988A JP 2004102603 A JP2004102603 A JP 2004102603A
Authority
JP
Japan
Prior art keywords
dimensional
data
vector
plane
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002262988A
Other languages
Japanese (ja)
Other versions
JP3706603B2 (en
Inventor
Masao Hiramoto
平本 政夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002262988A priority Critical patent/JP3706603B2/en
Publication of JP2004102603A publication Critical patent/JP2004102603A/en
Application granted granted Critical
Publication of JP3706603B2 publication Critical patent/JP3706603B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image collating device which determines that two data, which are obtained by imaging or expressing one object, are related to the same object. <P>SOLUTION: In the image collating device 100, a binary image (A) of a line drawing is obtained; a multilevel image, which highly expresses the luminance of a point that density of the line is low, is created by a luminance level determination part 102; a characteristic data creating part 103 finds a value, which indicates gradient to a position of the luminance of a local area, only for the local area where distribution of the luminance related to each pixel of the multilevel image is enough plane; and data for collation is created based on the gradient; then another multilevel image (B) is obtained; a multiple tone image, which is converted to the binary image in a line drawing converting part 107 and highly expresses the luminance of a point that density of the line is low, is recreated; and a value, which indicates a gradient in the luminance of the local area where distribution of the luminance of the multilevel image is plane, is found in a characteristic data creating part 109; and a similarity tendency between the binary image (A) and the multilevel image (B) is determined by the value and the data for collation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像データ等のデータ同士を照合するデータ照合技術に関する。
【0002】
【従来の技術】
近年、ハードウェア技術やソフトウェア技術の著しい発展を背景として、撮像により得られた画像データが情報処理対象として幅広く利用されるようになってきた。
例えば、画像データが相当量集められ一括管理された画像データベースが医療用、オフィス業務用、学術研究用、監視用その他の様々な用途に利用されており、また、物や人物を撮像して予め登録されている物や人物か否かを判定する画像認識技術の研究・開発も盛んに進められている。
【0003】
ところで、撮像により得られた画像データを集積した画像データベースから特定の物等が写っている画像データを検索する場合等、ある画像データに特定の物等が写っているか否かを判定する必要がある場合には、そのある画像データと、その特定の物等を線画や多階調画像等で示したデータとを比較する方法を用いることができる。
【0004】
この2つのデータを比較する従来の画像データ照合技術として、例えば、一般化ハフ変換やその変換を高速化した高速一般化ハフ変換を利用した方法がある。
以下、この方法の概要を説明する。
検索を行う者は、検索を望む特定の物等を線画として紙に描き、その線画をイメージスキャナ等を通じて2値画像データとしてコンピュータに入力する。コンピュータはその線画の画像データを高速一般化ハフ変換してテンプレートデータを生成しておき、画像データベース中の検索対象となる多階調の画像データに基づき画像の空間微分処理によって輪郭を抽出して検索対象2値画像データを生成し、高速一般化ハフ変換を利用してテンプレートデータを検索対象2値画像データに対して投票する処理を行い、画像内のある地点への投票数が閾値以上となる地点があればその地点に特定の物等に相当する画像が写っていると判定する。この一般化ハフ変換及び高速一般化ハフ変換に関しては、例えば、非特許文献1に示されている。
【0005】
なお、他の画像データ照合技術として、各画像データをウェーブレット分解して特定の照合用データを作成しておいて両画像データの照合を行う、本願発明者による先行発明に係る画像データ照合技術がある(特許文献1参照)。
これらの各種画像データ照合技術には、それぞれに固有の長所や短所がある。
【0006】
【非特許文献1】
木村彰男他著、高速一般化ハフ変換−相似変換不変な任意図形検出法、「電子情報通信学会論文誌(D−2)」、1998年4月、J81−D−2巻、4号、p.726−734
【0007】
【特許文献1】
特開2001−283221号公報
【0008】
【発明が解決しようとする課題】
本発明は、同一の物、人、景色等の対象を撮像又は表現して得られた2つのデータに、その対象が相対的に回転して含まれている場合においても、両データが同一対象に係るものであると判定し得るデータ照合技術であって、従来と異なる方式を用いた新たなデータ照合技術を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明に係るデータ特徴抽出装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、3次元データを取得する3次元データ取得手段と、xy2次元平面上における各位置に順次着目する走査手段と、前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備えることを特徴とする。
【0010】
また、本発明に係るデータ特徴抽出方法は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出方法であって、3次元データを取得する3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する走査ステップと、前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含むことを特徴とする。
【0011】
ここで、ほぼ同一平面上に存在とは、ある平面から所定値以下の距離で存在しているということを意味する。
これにより、3次元データ同士の照合に用いることのできる、3次元データについての特徴情報を得ることができる。この得られる特徴情報によって3次元データ同士を照合した場合には、xy2次元平面に垂直な直線を軸として回転した関係にあり、同じ対象物を表した3次元データ同士をある程度適切に類似傾向が高いものと判定することができるようになる。
【0012】
また、本発明に係るデータ照合装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、第1の3次元データを取得する第1の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第1走査手段と、前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、第2の3次元データを取得する第2の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第2走査手段と、前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備えることを特徴とする。
【0013】
また、本発明に係るデータ照合方法は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合方法であって、第1の3次元データを取得する第1の3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する第1走査ステップと、前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、第2の3次元データを取得する第2の3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する第2走査ステップと、前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含むことを特徴とする。
【0014】
これにより、回転関係にある3次元データ同士を適切に照合できるようになる。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態に係る画像照合装置について図1〜図7を用いて説明する。
<1.構成>
図1は、本発明の実施の形態に係る画像照合装置の機能ブロック図である。
【0016】
画像照合装置100は、画像データベースから特定の画像データを検索する画像検索システム等において用いられ、2つの画像データを照合する機能を有する装置である。ここで、画像検索システムは、撮像により形成された多階調の2次元画像データ(以下、「被検索データ」という。)の集合である画像データベースから、物、人、景色等の対象が手書きで描かれた線画をスキャナ等を用いてデジタル化して得られた線画の2次元画像データ(以下、「検索基準データ」という。)と同一対象を撮像したものである被検索データを検索する機能を有するシステムである。
【0017】
この画像照合装置100は、コンピュータの一機能として実現され、図1に示すように、検索基準データ取得部101、輝度レベル決定部102、特徴データ生成部103、範囲限定部104、照合用データ生成保持部105、被検索データ取得部106、線画化部107、輝度レベル決定部108、特徴データ生成部109、照合部110及び評価値記録部111を備える。この画像照合装置100を構成する各部の機能は、コンピュータのメモリに格納された制御用プログラムをCPUが実行することにより実現される。
【0018】
以下、この画像照合装置100を構成する各部について説明する。
<1−1.検索基準データ取得部101>
検索基準データ取得部101は、1つの線画データである検索基準データを処理対象として特定し輝度レベル決定部102に伝える機能を有する。この検索基準データは、検索を行う者が線画を手書きで紙に描いた後に、スキャナ等で各画素位置について描かれた線(点)が存在すれば1、線(点)が存在しなければ0というデータ値を与えて2値の2次元画像データ化して得られたものであり、例えば水平方向512画素、垂直方向512画素のデータである。
【0019】
<1−2.輝度レベル決定部102>
輝度レベル決定部102は、伝えられた検索基準データに基づき所定の輝度決定処理を行って、その検索基準データの各画素について多階調の輝度値を定めて、例えば256階調の多階調画像データを生成する機能を有する。
輝度決定処理は、検索基準データに係るxy2次元平面上の各画素位置を順次第1走査点とし、第1走査点を中心として、予め定められた一定半径r1の円形領域内の全画素位置のうち2値データ値が1である全ての画素位置の数に、つまりその円形領域内に描かれている線上又は点に相当する全ての画素位置の数に、およそ反比例した輝度値をその第1走査点についての輝度値と定めていく処理である。
【0020】
即ち、輝度決定処理は、検索基準データ上において第1走査点を動かしながら、第1走査点を中心とした一定半径r1の円形領域内におけるデータ値が1である全ての画素位置の数がkであったとしたときに、その第1走査点における輝度値Zを求める演算式を例えば次の数1であるとして輝度値を決定することにより、輝度値が0から255までの256階調の多階調画像データを生成する処理である。
【0021】
[数1] Z=255/(k+1)
なお、ここでは、例えば、円形領域の半径r1は10画素分等と、kが0から255以上の値まで変化し得るように円形領域の大きさを定めるものとし、また、数1において、Zは255/(k+1)の結果を四捨五入して得られる整数値であるものとする。
【0022】
実際上は、第1走査点が検索基準データの端にある場合にはその第1走査点を中心とした円形領域内の各位置のうち検索基準データの領域をはみだすものが現れるため、例えば、円形領域の半径r1が10画素分とした場合には、水平座標0〜511、垂直座標0〜511の各座標に画素の存在する検索基準データにおける水平座標10〜501、垂直座標10〜501の各座標位置を順次第1走査点として各第1走査点における輝度値を求め、各端から10画素分の範囲の画素位置については輝度値を求めない。
【0023】
走査により、第1走査点の座標は、(10,10)、(11,10)、(12,10)、・・・、(500,10)、(501,10)と水平方向に順に変化し、続いて(10,11)、(11,11)、(12,11)、・・・、(500,11)、(501,11)というように次の行についても同様に変化する。検索基準データ等の画像データに係るxy2次元平面は、x軸とy軸とで表される2次元平面であり、画像データを構成する全ての画素位置は、x座標及びy座標において整数値で表されるものとする。なお、各画素は点としての位置を有すると考え、水平方向或いは垂直方向に隣り合う2画素の、xy2次元平面上における距離は1であるものとしている。
【0024】
図2は、検索基準データにおける線画部分と第1走査点との関係を示す図である。
同図は、三角形が2つ連結したような線画201が表された検索基準データ200を例として、走査中のある瞬間における第1走査点202を中心とした円形領域203を示している。
【0025】
この例においては、円形領域内の線画上の画素位置の数kは16個であるため、数1より第1走査点202の輝度値Zは、Z=255/(16+1)=15である。
例えば、検索基準データに単なる直線が表されていた場合には、上記の走査により、第1走査点が直線上にある場合には、円形領域203内に最も多くの画素位置が含まれるため、その第1走査点の輝度が最も低くなり、第1走査点が、その直線から離れるにつれてその第1走査点の輝度がある程度まで低くなる。
【0026】
<1−3.特徴データ生成部103>
特徴データ生成部103は、輝度レベル決定部102により生成された多階調画像データに基づき所定の特徴抽出処理を行って、画像の特徴を示す情報である特徴データを保存する機能を有する。
特徴抽出処理は、輝度レベル決定部102により生成された多階調画像データに係る2次元画像空間上の各位置を順次第2走査点とし、第2走査点を中心として予め定められた一定半径r2の円形領域を水平垂直の十字に分割して得られる第1象現〜第4象現の各領域についての各平均輝度値が平面的関係にある場合に限り、第2走査点の周辺における各平均輝度値の空間的勾配であるベクトルVと、その第2走査点についての2次元画素位置にその第2走査点についての輝度値を別次元のデータとして加えてなる3次元座標Pとを対にしたものを保存する処理である。以下、個々のベクトルVを区別する場合にはV(1)、V(2)、・・・等と、個々の3次元座標P区別する場合にはP(1)、P(2)、・・・等と表現し、代表的にはV(i)、P(i)と表現する。
【0027】
図3は、特徴出処理で用いる第2走査点と第1象現〜第4象現の各領域との関係の例を示した図である。なお、同図では、半径r2を10画素分としている。
ここで、この図3を用いて、特徴抽出処理を更に詳しく説明する。
輝度レベル決定部102により生成された多階調画像データはxy2次元画像空間上の各画素位置について輝度値が定められたデータであるところ、特徴抽出処理では、その多階調画像データに係るxy2次元画像空間上において第2走査点を動かしながら、第2走査点を中心とした半径r2の円形領域内の、第2走査点を基準としてxの負方向とyの負方向との間の部分(図3中の領域R1)に対応する各輝度値の平均値z1と、xの正方向とyの負方向との間との間の部分(領域R2)に対応する各輝度値の平均値z2と、xの負方向とyの正方向との間の部分(領域R3)に対応する各輝度値の平均値z3と、xの正方向とyの正方向との間の部分(領域R4)に対応する各輝度値の平均値z4とを求め、このz1〜z4を用いて、第2走査点周辺の各平均輝度値が平面的関係にあるか否かの判定及び第2走査点の周辺における輝度値の空間的勾配であるベクトルV(i)の算出を行う。
【0028】
なお、第2走査点は、多階調画像データがxy2次元平面上において水平方向502画素(x座標が10〜501)、垂直方向502画素(y座標が10〜501)から構成される場合に、x座標及びy座標がそれぞれ20〜491の範囲を動く。即ち、第2走査点の座標は、(20,20)、(21,20)、(22,20)、・・・、(490,20)、(491,20)と水平方向に順に変化し、続いて(20,21)、(21,21)、(22,21)、・・・、(490,21)、(491,21)というように次の行についても同様に変化する。
【0029】
第2走査点周辺の各部分(領域R1〜R4)の各平均輝度値が平面的関係にあるか否かの判定は、次の数2の不等式で示す関係が満たされるか否かを基準として行われる。
[数2] |z1−z2−z3+z4|≦C1
数2においてC1は定数であり、z1−z2−z3+z4が0に近い場合に数2の不等式の関係が満たされるように、比較的小さい値が予め定められるものとする。輝度値の最大値が255である場合においては、C1は例えば0〜5程度の1値にするとよい。
【0030】
なお、数2の不等式で示す関係が満たされた場合には、更に上述の領域R1〜R4を第2走査点を中心として周回方向に30度だけ回転させて、その新たな範囲の領域R1’〜R4’について同様に、各領域における輝度値の平均値z1〜z4を求めて数2の不等式で示す関係が満たされるか否かを判定してそれでもその関係が満たされた場合に、もう一度同じ方向に領域R1’〜R4’を回転させてその新たな範囲の領域R1”〜R4”について同様にz1〜z4を求めて数2の不等式で示す関係が満たされるか否かを判定しその関係が満たされていれば、第2走査点周辺の各領域の各平均輝度値が平面的関係にあると判断する。
【0031】
以下、第2走査点周辺の各領域の各平均輝度値が平面的関係にある場合に限り行われるところの、第2走査点の周辺における輝度値の空間的勾配であるベクトルV(i)の算出手順を説明する。なお、z1−z2−z3+z4が0でない場合には、z1−z2−z3+z4が0となるようにz4を補正することとして、補正後に以下の手順でベクトルV(i)を算出することとする。
【0032】
まず、領域R1〜R4それぞれについて、その領域のxy2次元平面上における平均的位置(重心のx座標及びy座標)に別次元の座標(z座標)としてその領域内の平均輝度値を定め、この結果として4つの3次元座標を得る。
領域R1の平均的位置のx座標をx1、y座標をy1とし、領域R2の平均的位置のx座標をx2、y座標をx2とし、領域R3の平均的位置のx座標をx3、y座標をy3とし、領域R4の平均的位置のx座標をx4、y座標をy4とすると、上述の4つの3次元座標は、A1(x1,y1,z1)、A2(x2,y2,z2)、A3(x3,y3,z3)及びA4(x4,y4,z4)となる。
【0033】
このA1〜A4の各3次元座標値を、平面の一般式である数3に代入することにより、平面の一般式の各係数の値を算出し、数4及び数5によりベクトルV(i)の成分Vx及びVyを求める。
[数3] a・x+b・y+c・z=d
数3において、x,y,zは変数であり、a,b,c,dは係数であり、「・」は乗算の演算子である。
【0034】
[数4] Vx=−a/c
[数5] Vy=−b/c
数4は、係数値の定まった数3による3次元座標空間上の平面が、xz平面と交わる直線の傾き、即ちx方向の変位に対するz方向の変位Δz/Δxを表しており、数5は、係数値の定まった数3による3次元座標空間上の平面が、yz平面と交わる直線の傾き、即ちy方向の変位に対するz方向の変位Δz/Δyを表している。
【0035】
換言すれば、Vxはx方向についての輝度値の勾配を表し、Vyはy方向についての輝度値の勾配を表している。従って、ベクトルV(i)は、輝度値の空間的勾配を表していると言える。
こうして求められたV(i)=(Vx,Vy)と対にして保存する3次元座標P(i)の値が(Px,Py,Pz)であるとすると、Pxは多階調画像データに係るxy2次元平面における第2走査点のx座標であり、Pyは多階調画像データに係るxy2次元平面における第2走査点のy座標であり、Pzは次の数6により求まる値である。
【0036】
[数6] Pz=(z1+z2+z3+z4)/4
特徴データ生成部103は、このような手順により得られたV(i)とP(i)との組を複数個、メモリに記録して保存する。但し、例外的に、V(i)の成分であるVxとVyとの両方ともが、およそ0であるV(i)即ち所定の閾値未満であるV(i)については、そのV(i)及びP(i)の組の保存は行わない。例えば、第2走査点周辺の領域R1〜R4それぞれにおける平均輝度値がいずれも同値であればその第2走査点についてのV(i)及びP(i)は保存されない。
【0037】
<1−4.範囲限定部104>
範囲限定部104は、検索基準データ中において照合対象となる画像が存在する範囲を特定する機能を有し、例えば、検索を行う者の入力を受けて、水平及び垂直方向に512画素ある検索基準データ中の矩形領域を特定する。その矩形領域は、例えば、x座標が30〜480、y座標が30〜480の範囲等と定められる。
【0038】
<1−5.照合用データ生成保持部105>
照合用データ生成保持部105は、xyz3次元空間上に、一点Qと、一定方向を示すベクトルSとを定め、特徴データ生成部103により保存されているベクトルV(i)と3次元座標P(i)との組のうち、範囲限定部104により特定された範囲内にP(i)のx座標及びy座標が含まれるものを抽出し、抽出したV(i)とP(i)との各組について、Qの位置をP(i)からの相対座標で示したPQ(i)を求め、V(i)とPQ(i)と1つのSとを照合用データとしてメモリ等に保存する機能を有する。
【0039】
特徴データ生成部103により保存されているV(i)とP(i)との組のうち範囲限定部104により特定された範囲内にP(i)のx座標及びy座標が含まれるものの数をn個とすると、照合用データ生成保持部105によりn個のベクトルV(i)とn個の3次元の相対座標PQ(i)と1個のベクトルSとが照合用データとして保存されることになる。
【0040】
例えば、P(1)及びP(2)が範囲限定部104により特定された範囲内に存在するならば、相対座標PQ(1)はベクトルV(1)と対応付けられ、同様に相対座標PQ(2)はベクトルV(2)と対応付けられて保存される。なお、ベクトルV(i)、PQ(i)及びSは、いずれもxyz3次元座標空間におけるx方向の成分、y方向の成分及びz方向の成分からなるデータである。点Pに起点を有するベクトルV(i)と点Qに起点を有するベクトルSとは、V(i)、PQ(i)及びSにより、相対的な起点の位置関係及び相対的なベクトルの向きの関係、つまり相対的な方位関係が表されている。
【0041】
<1−6.被検索データ取得部106>
被検索データ取得部106は、多数の被検索データである多階調画像データが格納されている画像データベースから順次、1つの多階調画像データを取り出して、検索基準データと照合する対象として特定して線画化部107に伝える機能を有する。
【0042】
この被検索データは、デジタルカメラ等により生成された多階調画像データであり、例えば256階調で水平方向512画素、垂直方向512画素のデータである。
<1−7.線画化部107>
線画化部107は、被検索データ取得部106から伝えられた1つの被検索用データである多階調画像データに対して、輝度値の2次元画像平面における勾配を求める空間微分処理とその結果を2値化する処理とを行い、その結果として線画に相当する2値画像データを生成して輝度レベル決定部108に伝える機能を有する。この空間微分処理から2値化処理までの連続処理は、言い換えれば、画像の輝度変化の空間的勾配の急峻である部分、即ちいわゆるエッジ部分を1とし他の部分を0とする処理である。
【0043】
<1−8.輝度レベル決定部108>
輝度レベル決定部108は、被検索データに基づき生成された2値画像データを線画化部107から受け取り、所定の輝度決定処理を行って、その2値画像データにおける各画素について多階調の輝度値を定めて、例えば256階調の多階調画像データを生成する機能を有する。この2値の画像データに基づいて多階調画像データを生成する輝度決定処理は、上述した輝度レベル決定部102により行われる輝度決定処理と基本的に同様、つまり処理対象の画像データが異なる他は同様である。
【0044】
<1−9.特徴データ生成部109>
特徴データ生成部109は、輝度レベル決定部108により生成された多階調画像データに基づき所定の特徴抽出処理を行って、画像の特徴を示す特徴データを保存する機能を有する。この特徴抽出処理は、上述した特徴データ生成部103により行われる特徴抽出処理と基本的に同様、つまり処理対象の画像データが異なる他は同様である。仮に完全同一の画像データを特徴データ生成部103及び109に入力した場合には、特徴データ生成部103及び109はいずれも、同一内容の特徴データを保存することになる。
【0045】
この特徴データ生成部109により保存される特徴データは、輝度レベル決定部108により生成された多階調画像データに基づき求められた複数組のベクトルV及び3次元座標Pである。以下、この特徴データ生成部109により保存されるベクトルV及び3次元座標PをベクトルV’(j)及び3次元座標P’(j)の形式で表現する。
【0046】
<1−10.照合部110>
照合部110は、照合用データ生成保持部105により生成された照合用データであるn組のベクトルV(i)、相対座標PQ(i)及び1つのSと、特徴データ生成部109により生成されたm組のベクトルV’(j)及び3次元座標P’(j)とを用いて、一定範囲の検索基準データに示されている画像が、被検索データに表されている画像と近似したものであるかを判定する照合処理を行う機能を有する。
【0047】
この照合処理として照合部110は、まず、各ベクトルV’(j)について、照合用データにおける全てのV(i)を順に当てはめ、V(i)、PQ(i)及びSにより示されるところのV(i)とSとの3次元座標空間における方位関係と、V’(j)とS’(j,i)との3次元座標空間における方位関係とが同一となるように、大きさ1の単位ベクトルS’(j,i)を定める。ここで、S’(i,j)は、ベクトルV(i)に対するベクトルSと同様の方位関係を保つように、ベクトルV’(j)にベクトルV(i)を当てはめることにより定められた単位ベクトルS’を意味し、照合用データとしてV(i)がn個存在して特徴データ生成部109により保存されたベクトルV’(j)がm個存在したならば、照合処理において単位ベクトルS’(i,j)はn・m個定められることになる。
【0048】
なお、ベクトルV(i)の向きを基準として、その基準と点Pから点Qに向かうベクトルPQ(i)の向きとのなす角度をαとすれば、αはV(i)とPQ(i)とから求めることができ、ベクトルV(i)の向きを基準として、その基準とベクトルSの向きとのなす角度をβとすれば、βはV(i)とSとから求めることができ、また、点Pと点Qとの間の距離γは、ベクトルPQ(i)から求めることができる。
【0049】
従って、ベクトルV’(j)にベクトルV(i)を当てはめて単位ベクトルS’(i,j)を定めることは、単位ベクトルS’の起点(以下、「点Q’」という。)を、ベクトルV’(j)の起点である点P’(j)の位置から距離γの位置であって、かつ、点P’から点Q’に向かうベクトルP’Q’がベクトルV’(j)を基準としてαの角度に向かうベクトルとなるように定め、更に、単位ベクトルS’を、ベクトルV’(j)を基準としてβの角度に向かうベクトルとなるように定めることである。
【0050】
次に、xyz3次元座標空間上を、例えば一辺が5の長さである等の所定サイズの単位立方体の3次元配列であるように区分して、各単位立方体においてその単位立方体内に位置付けられた全てのベクトルS’(i,j)のベクトル加算結果を求める処理つまりベクトルを合成する処理を行い、最後に、ベクトル加算結果として得られた合成ベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)が最も多く含まれた単位立方体におけるそのベクトルS’(i,j)の数Snumとを、被検索データ取得部106で取得された被検索データを識別するための情報とともに評価値記録部111に格納し、ベクトル加算結果として得られたベクトルの大きさの最大値Smaxが所定の閾値以上であれば被検索データ中の画像と検索基準データ中の画像とは類似した傾向を持つと判定する処理を行う。
【0051】
照合部110は、この判定結果を、例えば、ディスプレイ装置等を介して表示する。判定結果の表示内容は、例えば、被検索データ自身と、類似或いは非類似の別と、Smax/nの値等である。
もし、被検索データを線画化した結果の画像データと検索基準データとが完全一致する場合には、上述のベクトル加算結果として得られたベクトルの大きさの最大値Smaxは、単位立方体のサイズが1画素×1画素×1画素の大きさ以上であれば理論的には少なくともnとなる。従って、デジタル画像において画素位置が離散的であること等の影響を考慮し、実際上は、例えばnの0.6倍や0.7倍等を上述の所定の閾値として定めることが考えられる。
【0052】
<1−11.評価値記録部111>
評価値記録部111は、照合部110により、被検索データを識別するための情報と対として、上述のベクトル加算結果として得られたベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)の最大密度つまり単位立方体内の個数の最大値Snumとが格納されるメモリ等の一記憶領域である。
【0053】
この評価値記録部111には、被検索データ取得部106により画像データベースから1つの画像データが被検索データとして取得される毎に、線画化部107、輝度レベル決定部108、特徴データ生成部109及び照合部110の動作により、1組の被検索データを識別するための情報と最大値Smaxとが追加記録される。従って、この評価値記録部111の内容を利用すれば、記録された最大値Smaxのうち最も大きいものに対応して識別される被検索データが、画像データベース中において最も、検索基準データに示される画像と類似する傾向が高い被検索データであると評価することが可能になる。また、例えばSnumの数が大きいほど類似傾向が高いと評価することも可能となる。
<2.動作>
以下、上述の構成を備える画像照合装置100の動作を説明する。
【0054】
画像照合装置100は、大別すると、入力された線画の2値画像データである検索基準データを取得して照合用データを生成する第1の処理と、画像データベースから被検索データを逐次特定して、特定した被検索データと照合用データとを用いることにより、検索基準データと被検索データとの照合を行う第2の処理とを行う。
【0055】
図4は、検索基準データを取得してその照合用データを生成する第1の処理を示すフローチャートである。
同図に示すように、まず、検索基準データ取得部101は、検索基準データを取得して輝度レベル決定部102に伝える(ステップS11)。輝度レベル決定部102は、検索基準データ上を、第1走査点を移動させて各画素位置についての輝度値を定めることにより、多階調画像データを生成する(ステップS12)。これにより、検索基準データの示す線や点の密度が低い辺りの画素位置については輝度値が高い多階調画像データが生成される。
【0056】
続いて、特徴データ生成部103は、輝度レベル決定部102により生成された多階調画像データに係るxy2次元平面上を、第2走査点を移動させて、第2走査点を中心とした周辺4分割領域の各平均輝度値を求め、各領域の各平均輝度値が平面的関係にある場合に限り、平均輝度値の空間的勾配を示すベクトルV(i)を、第2走査点のxy座標と周辺4領域全体の平均輝度値をz座標にしたxyz3次元座標P(i)とともにメモリ等に保存する(ステップS13)。
【0057】
続いて、照合用データ生成保持部105は、範囲限定部104による範囲の特定を受けて、任意の3次元位置に点Qを定め、任意の方向のベクトルSを定め、特定された範囲内に3次元座標P(i)が含まれるところの全ベクトルV(i)と、特定された範囲内に位置する全てのP(i)についてP(i)から点Qに向かうベクトルを示す相対座標PQ(i)と、1つのベクトルSとを照合用データとしてメモリ等に保存する(ステップS14)。
【0058】
図5は、特徴データ生成部103により生成されたV(i)及びP(i)と、照合用データ生成保持部105により定められた点Q及びベクトルSとを例示する図である。
なお、同図では、説明の便宜上、V(i)及びP(i)の数を3つだけにしており、また、同図は、各要素についてxy2次元平面上の写像を示している。
【0059】
図6は、被検索データを特定し、照合用データを用いて、検索基準データと被検索データとの照合を行う第2の処理を示すフローチャートである。
同図に示すように、まず、被検索データ取得部106は画像データベースから1つの多階調画像データである被検索データを取得して線画化部107に伝え(ステップS21)、線画化部107では、被検索データに表された画像のいわゆるエッジ部分を抽出する2値化により2値画像データを生成して輝度レベル決定部108に伝える(ステップS22)。
【0060】
2値画像データを伝えられた輝度レベル決定部108は、上述のステップS12と同様に、2値画像データの各画素位置についての輝度を決定して新たに多階調画像データを生成する(ステップS23)。
続いて、特徴データ生成部109は、輝度レベル決定部108により生成された多階調画像データに係るxy2次元平面上を、第2走査点を移動させて、第2走査点を中心とした周辺4分割領域の各平均輝度値を求め、各領域の各平均輝度値が平面的関係にある場合に限り、平均輝度値の空間的勾配を示すベクトルV’(j)を、第2走査点のxy座標と周辺4領域全体の平均輝度値をz座標にしたxyz3次元座標P’(j)とともにメモリ等に保存する(ステップS24)。
【0061】
続いて、照合部110は、特徴データ生成部109により保存された被検索画像に係る特徴を示すP’(j)とV’(i)と、第1の処理において保存された照合用データを参照し、各P’(j)について、xyz3次元空間におけるP’(j)の位置上にV’(j)と一致するように照合用データであるV(i)を置いた場合に、そのV(i)の位置からSへと同じ方位関係を保って単位ベクトルS’を配置する(ステップS25)。
【0062】
図7は、特徴データ生成部109により生成されたV’(j)及びP’(j)の各組について、照合用データ生成保持部105により保持されたV(i)、PQ(i)及びSの関係を当てはめて単位ベクトルS’(i,j)を定めた様子を例示する図である。
なお、同図においては、説明の便宜上、V’(j)、P’(j)、V(i)の数を3つだけにしており、また、各要素についてxy2次元平面上の写像を示している。同図中「S(V’(1)←V(2))」の表記は、V(2)をV’(1)に当てはめた結果として配置された単位ベクトルS’であることを示している。
【0063】
例えば、被検索データに基づき抽出されたP’(1)で示す位置に置かれたV’(1)に、V(2)を当てはめた場合には、P’(1)からベクトルPQ(2)の大きさだけ離れた位置の点Q’であって、かつ、P’(1)からQ’までの方向がベクトルV’(1)を基準としてなす角度が、V(2)を基準としてPQ(2)のベクトルの向きがなす角度と同一となるように点Q’を定め、その点Q’の位置に、V’(1)と単位ベクトルS’のなす角度が、V(2)を基準としてベクトルSの向きがなす角度と同一となるような単位ベクトルS’が配置される。
【0064】
単位ベクトルS’の配置後に、照合部110は、上述したSmaxとSnumとを算出し、Smaxに基づいて上述したような類似か否かの判定を行い、判定結果をディスプレイ装置に表示し、更にSmax及びSnumを評価値記録部111に記録する(ステップS26)。
画像照合装置100は、画像データベースから逐次、被検索データを定めて、ステップS21〜S26の手順を、類似と判定するまで繰り返す(ステップS26)。
【0065】
以上説明した第1の処理と第2の処理とにより、画像データベース中の画像データのうち、検索を行う者が線画として描いた対象物と一致又は類似するものを含む画像データが、検出されることになる。
なお、特徴データ生成部103、109においては、画像データに係るxy2次元平面上の第2走査点の周辺4分領域R1〜R4について、つまり各領域の重心それぞれが正方形の4頂点に位置づけられる関係にある各領域R1〜R4(図3参照)について、領域内の平均輝度値をその領域の重心のz座標として得られるxyz3次元空間上のその重心の座標が、4つともおよそ同一平面上に存在する場合にのみ、その第2走査点における周辺の輝度値のxy座標空間に対する変化をベクトルV(i)或いはベクトルV’(j)として保存して、その画像データの特徴を示すものと扱っている。しかも、R1〜R4の領域を第2走査点を中心として30度、60度回転させて、同様に求めた各領域の重心のxyz3次元空間上の座標がおよそ同一平面上にある場合にのみ、そのベクトルV(i)或いはベクトルV’(j)の保存を行っている。
【0066】
つまり、画像が回転していても、第2走査点による走査の結果として集められた特徴データ群における各特徴データ相互の関係を不変なものにすることを狙って、特徴データ生成部は、第2走査点の周辺領域における輝度の空間的勾配が一様である場合にのみ、その第2走査点の周辺領域内の各位置の輝度を用いて求められる第2走査点における輝度の空間的勾配を、照合用の基礎として用いることのできる特徴データとして保存している。
【0067】
従って、この画像照合装置100によれば、照合対象となる2つの画像データに表された対象物が、相互に、画像平面に垂直な直線を軸として回転した関係であっても、回転していない場合と同様に正しく、類似するか否かの判定を行うことができる。
<3.補足>
以上、本発明に係るデータ照合装置及びデータ特徴抽出装置に係る一つの実施の形態である画像照合装置について説明したが、画像照合装置を部分的に変形することもでき、また、本発明は上述の画像照合装置という実施の形態に限られないことは勿論である。即ち、
(1)画像照合装置が、線画の画像データと多階調画像データとの照合のみならず、2つの多階調画像データ同士の照合や2つの線画の画像データ同士の照合を行うことができるようにしてもよい。例えば、照合対象の画像データがいずれも線画の画像データである場合には、線画化部107による線画化を省略することとし、照合対象の画像データがいずれも多階調画像データである場合には、検索基準データ取得部101から輝度レベル決定部102の間において線画化部107と同様の線画化を行うようにしてもよい。
【0068】
また、2つの多階調画像データ同士を照合する場合には、線画化部や輝度レベル決定部による処理を省略し、その2つの多階調画像データをそれぞれ直接、各特徴データ生成部の処理対象とするように画像照合装置を構成してもよい。
(2)画像照合装置の輝度レベル決定部及び特徴データ生成部が走査において、第1走査点又は第2走査点を位置付けるxy2次元平面上の位置は、必ずしも画素を点で表現した場合におけるその点上にある必要はない。例えば、第1走査点又は第2走査点は、画素点と画素点との中間点を遷移することとしてもよい。また、第1走査点の輝度を決定するために第1走査点を中心とした円形領域の範囲の画素についての2値データを用いることとし、第2走査点についての輝度の空間的勾配を求める等のために第2走査点を中心とした円形領域の範囲内の画素についての輝度値を用いることとしたが、各円形領域を他の形の領域に変更してもよし、各円形領域のサイズを異ならせてもよい。
(3)2つの輝度レベル決定部による輝度決定処理において、第1走査点を中心とした円形領域内の画素の位置の数kから第1走査点の輝度値Zを決定するために数1を用いたが、第1走査点周辺の線又は点、つまり2値データの値が1である画素位置の数が多ければ多いほど輝度値Zが低くなるような演算或いはその画素位置の数が多ければ多いほど輝度値Zが高くなるような演算であれば、数1以外の他の演算によって輝度値Zを決定することとしてもよい。即ち、輝度決定処理は、xy2次元平面上の各局所的領域において線画等の2値データの値が1である画素点の密度が高いか低いかに応じてその局所的領域内の位置についての別次元の属性値(輝度値)を決定する処理である。
(4)特徴データ生成部において、領域R1〜R4はそれぞれ複数の画素の点を含むような範囲のものとしたが、それぞれ1つの画素の点しか含まないような範囲としてもよい。なお、特徴データ生成部は、領域R1〜R4それぞれの範囲内の全点の平均的位置やその全点の輝度の平均値を求めたが、領域R1〜R4それぞれに、画素の点が1つしか含まれないこととした場合には、領域R1〜R4それぞれの平均的位置は、それぞれの領域に含まれる1画素の位置であり、領域R1〜R4それぞれについての輝度の平均値は、それぞれの領域に含まれるその1画素の輝度そのものによって求められる。
(5)特徴データ生成部において、第2走査点の周辺における輝度の分布が平面的であるか否かを判定し、またその周辺における輝度の空間的勾配を算出するために、第2走査点の周辺に円形領域を4分割した領域R1〜R4を設定し、特に平面的であるかの判定のために領域R1〜R4を30度ずつ2度回転させて数2に基づく判定を行うこととしたが、第2走査点の周辺の4つ以上の局所的領域それぞれにおける平均的位置と平均輝度値とから、第2走査点の周辺における輝度の空間的な分布が平面的であるか否かを判定し、平面的であればその平面とxy2次元平面とのなす角度とを第2走査点における輝度の空間的勾配として算出する方法であれば、必ずしもその局所的領域の数は4つに限られず、その局所的領域の位置も領域R1〜R4に限定されることはない。また、30度ずつ2度回転させているのは第2走査点の周辺における輝度の分布が十分に平面的であることを確保するための一手法にすぎず、例えばxy2次元平面上において第2走査点を中心とした微小な正多角形の各頂点に位置する各画素についてその輝度をz座標とした場合のその各画素のxyz3次元座標空間における位置が、いずれもほぼ同一平面上にあるか否かによってその第2走査点の周辺における輝度の分布が十分に平面的であるか否かを判定することとしてもよい。なお、周辺の輝度の分布が十分に平面的である点についてのみ、その点付記の輝度の空間的勾配等を、画像の特徴を示す情報として扱うことにより、その情報が、照合対象となる複数の画像のデジタル化におけるサンプリングの方向のずれや画像を回転する加工等の影響を受けにくいものとなる。
(6)範囲限定部は、必ずしも検索を行う者の入力を受けなくてもよく、予め矩形領域を固定的に記憶していてもよい。また、範囲限定部は、検索基準データ取得部で取り込まれた画像をディスプレイ装置等を介して表示して、その上で検索を行う者によるマウスのドラッグ操作等により矩形を指定させ、その指定に基づいて照合対象となる画像範囲の特定を行うこととしてもよい。
(7)特徴データ生成部では、輝度の空間的勾配を示すベクトルV(i)の各成分を、数4及び数5により算出することとしたが、輝度の変化とxy2次元平面上の位置の変化との関係を表すことのできる他の演算により算出されたデータを、ベクトルV(i)と同様に扱うこととしてもよい。例えば、領域R1、R2、R3及びR4の各平均輝度値がこの順にz1、z2、z3、z4である場合に、ベクトルV(i)のx成分を次の数7により求められるVx、ベクトルV(i)のy成分を次の数8により求められるVyであることと定めてもよい。
【0069】
[数7] Vx=z1−z2+z3−z4
[数8] Vy=z1+z2−z3−z4
また、ベクトルV(i)の大きさが1となるように、その成分であるVxとVyとの両方を定数倍して得られるものを新たなベクトルV(i)と定めること、即ちベクトルV(i)を正規化することとしてもよい。
(8)照合用データ生成保持部が、ベクトルV(i)及びベクトルPQ(i)の複数組とベクトルSとである照合用データを生成し保存することとしたが、照合用データは、起点を含めてベクトルV(i)とベクトルSとの間における方向と位置とからなる方位的関係を示す情報であれば足り、例えば、照合用データは、ベクトルV(i)の方向からベクトルPQ(i)の方向への角度と、ベクトルPQ(i)の大きさと、ベクトルV(i)の方向からベクトルSの方向への角度とから成ることとしてもよい。
【0070】
なお、ベクトルV’(j)へのベクトルV(i)の当てはめは、両ベクトルの大きさがほぼ一致する場合にのみ行うようにしてもよい。このようにする場合には、照合用データにおいてはベクトルV(i)の大きさを示す情報を含む必要があり、更に、照合対象となる2つの画像データ相互における輝度の最大から最小までの輝度範囲の相違の影響を受けないように、ベクトルV(i)に輝度範囲の影響が現れないように数4及び数5のような演算でベクトルV(i)を求める等の方法、照合前に輝度範囲の調整を行っておき特徴データ生成部では数7及び数8によりベクトルV(i)を求める方法等を用いる必要がある。
(9)照合用データ生成保持部が保存するPQ(i)については、全てのPQ(i)のうち、大きさが最大であるPQ(i)のその大きさが1となるように、全てのPQ(i)の全ての成分(x成分、y成分及びz成分)の大きさを一律に定数倍したものを新たにPQ(i)と定めて保存すること、即ちPQ(i)を正規化して保存することとしてもよい。なお、全てのPQ(i)のうち、大きさが最大であるPQ(i)の大きさを1とする他、全てのPQ(i)の大きさの平均値を1とする等としてもよく、これらの正規化により照合対象の2画像データが同一対象を示し相互に拡大縮小の関係にある場合に、同一或いは類似と判定できるようになる。
(10)画像照合装置の照合部は、照合に用いるデータを全てxy2次元データ、つまりxyz3次元データにおけるz成分を無視しx成分及びy成分からなるデータとして、当てはめ等の照合処理を行うこととしてもよい。この場合には、xy2次元平面上に単位ベクトルS’が複数配置され、そのxy2次元平面上で、およそ同一方向を向かう複数の単位ベクトルS’の起点の分布状態に応じて、照合対象の両画像の類似傾向を評価することができるようになる。なお、xy2次元平面上におよそ同一方向を向かう単位ベクトルS’の起点が最も多く集中している局所的範囲におけるそ起点の数が多ければ多いほど、両画像は類似すると判定することができる。
(11)照合部は、単位ベクトルS’の加算結果が最大であった部分的領域における単位ベクトルS’の方向がベクトルSの方向から見てなす角の大きさを算出し、その算出結果により、照合対象の両画像が角度的にどの程度回転した関係にあるかをディスプレイ装置等に出力することとしてもよい。また、照合部は、ベクトルS’の加算結果である合成ベクトルの大きさの最大値Smaxと単位立方体内のベクトルS’の最大個数Snumとを評価値記録部に記録する他に、ディスプレイ装置等に出力してもよい。
(12)照合部は、xyz3次元座標空間上を、例えば一辺が5の長さである等の所定サイズの単位立方体の3次元配列であるように区分して、各単位立方体においてその単位立方体内に位置付けられた全てのベクトルS’(i,j)のベクトル加算結果を求める処理つまりベクトルを合成する処理を行い、最後に、ベクトル加算結果として得られた合成ベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)が最も多く含まれた単位立方体におけるそのベクトルS’(i,j)の数Snumとを、被検索データ取得部106で取得された被検索データを識別するための情報とともに評価値記録部111に格納する等の処理を行うこととしたが、ここでの単位立方体は、必ずしも立方体に限られることはなく、立方体の代わりに所定サイズの半径を有する球体を用いることとしてもよく、立方体と同様にその各球体を3次元配列として並べる場合に各球体は部分的に重なりあうように並べることとしても差し支えない。
(13)上述の画像照合装置という形態の他、本発明に係るデータ照合技術は、3次元データの集合体同士の照合に適用することができ、立体地図データや3次元計測された物体形状に係るデータと、同様の他のデータとを照合して類似性を判定するような用途においても適用できる。
【0071】
照合対象となる2つの3次元データが相互に、ある直線を軸とした回転関係にある場合に、その直線は予測不可能であってもその直線と垂直な平面が予め想定できるものであればその直線と垂直な平面を、実施の形態として示した画像照合の場合のxy2次元画像平面として取り扱うことにより、適切に類似性の判定を行うことができるようになる。例えば、ある建築物単体の形状を示す3次元データAと、その建築物を含む複数の建築物が建築されている区画における複数の建築物の形状や位置関係を示した3次元データBとを照合し、3次元データB中に3次元データAと同一又は類似する建築物が表されているか否かを判定する必要がある場合には、土地の面をxy2次元平面として扱い、土地上の位置の属性値である高さをz座標として、画像照合装置の特徴データ生成部の行う処理と同様の処理を行うことにより、画像照合装置と同様の方法で、その判定を行うことができるようになる。
(14)画像照合装置における各処理(図4、図6参照)をコンピュータに実行させるためのプログラムを、記録媒体に記録し又は各種通信路等を介して、流通させ頒布することもできる。このような記録媒体には、ICカード、光ディスク、フレキシブルディスク、ROM等がある。流通、頒布されたプログラムはコンピュータに読み出され得るメモリ等に格納されることにより利用に供され、コンピュータはそのプログラムを実行して本実施の形態で示した画像処理装置の機能を実現する。
【0072】
【発明の効果】
以上の説明から明らかなように、本発明に係るデータ特徴抽出装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、3次元データを取得する3次元データ取得手段と、xy2次元平面上における各位置に順次着目する走査手段と、前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備えることを特徴とする。
【0073】
これにより、3次元データ同士の照合に用いることのできる、3次元データについての特徴情報を得ることができる。この得られる特徴情報によって3次元データ同士を照合した場合には、xy2次元平面に垂直な直線を軸として回転した関係にあり、同じ対象物を表した3次元データ同士をある程度適切に類似傾向が高いものと判定することができるようになる。
【0074】
ここで、前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と輝度値とを示す画像データであり、前記3次元位置は、前記画素についての輝度値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、前記特徴情報生成手段は、前記走査手段により着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、当該局所領域内にx座標及びy座標を有するxy2次元平面上の位置に配された画素全てについてのxy2次元平面上の平均的位置と輝度値の平均値とを前記xyz3次元座標空間における平均的位置として求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0075】
これにより、輝度分布が平面的な局所領域のみの特徴を抽出して特徴情報を生成することとなるため、デジタル画像データの生成段階におけるサンプリングの位置的基準や画像データの回転加工等の影響がその特徴情報中に現れないことになり、この特徴情報を用いれば、回転関係にある2つの画像データの照合をある程度適切に行うことができるようになる。
【0076】
また、前記データ特徴抽出装置は更に、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記3次元データ取得手段に伝える伝達手段とを備え、前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものであることとしてもよい。
【0077】
これにより、線密度をxy2次元平面上の各位置についての属性値としているため、得られる特徴情報を用いれば、線画を表す2値画像データと他の画像データとを照合する場合において、線画の線が部分的に途切れて破線となっているような場合でも、適切に画像データの類似性を判定できるようになる。
また、前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と属性値とを示す画像データであり、前記3次元位置は、前記画素についての属性値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、前記特徴情報生成手段は、前記走査手段により着目された位置を中心としたxy2次元平面上の一定範囲の領域内において当該位置を基準として、当該基準から、xの負方向とyの負方向との間の第1の局所領域に対応する各属性値の平均値z1と、xの正方向とyの負方向との間の第2の局所領域に対応する各属性値の平均値z2と、xの負方向とyの正方向との間の第3の局所領域に対応する各属性値の平均値z3と、xの正方向とyの正方向との間の第4の局所領域に対応する各属性値の平均値z4とを求めることによって前記各平均的位置を求め、数式|z1−z2−z3+z4|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0078】
これにより、xy2次元平面上を2次元配列状に画素が配置されてなる画像データ等において、画素の輝度値をz座標とおいた場合のxy2次元データ平面に対する輝度値の傾きをx方向とy方向との両面で表して、画像データの特徴情報とする場合の輝度値の傾きの算出の基礎となる輝度値の分布が、平面的であるか否かを簡易に判定することができるようになる。実施の形態において示した領域R1〜R4の平均的輝度z1〜z4が平面的関係にある場合にこれらz1〜z4を算出の基礎として走査点の輝度の空間的勾配を求めて画像の特徴を示す情報として扱うこととする方式を用いると、例えば同一対象を互いに90度回転した関係となるようにカメラを回転させる等によって撮像して得られた2つの画像データそれぞれについて、その方式で画像データの特徴を示す情報を求めたときに、各画像の特徴を示す情報が同じものとなる。
【0079】
また、前記特徴情報生成手段に係る前記一定範囲の領域は、前記走査手段により着目された位置を中心とした一定半径の円形領域であり、前記特徴情報生成手段は更に、前記走査手段により着目された位置を基準として定めた第1から第4までの各領域を、当該基準の位置を中心として所定の角度だけ回転させて、その回転後の第1から第4までの各領域内に対応する各属性値の平均値z1’、z2’、z3’及びz4’を求め、前記特徴情報生成手段は、前記数式|z1−z2−z3+z4|の値が所定値d1以下となる場合であって、かつ、前記数式|z1’−z2’−z3’+z4’|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0080】
これにより、同一対象を互いに90度以外の角度に回転した関係となるように表している2つの画像データそれぞれの特徴を示す特徴情報が同じものとなり得る。
また、前記特徴情報生成手段は更に、前記平面の前記xy2次元平面に対する勾配が所定量以上である場合に限り、当該勾配を示す情報と前記着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0081】
これにより、輝度変化がある程度の量である点についてのみを画像データの特徴として抽出するため、照合に用いるデータの数を効果的に減らし照合に要する計算時間の短縮化が図れるようになる。
また、前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面を表す数式をa・x+b・y+c・z=d(a、b、c及びdは定数値)とすれば−a/c及び−b/cをそれぞれx成分及びy成分とするxy2次元平面上のベクトルVを求め、当該ベクトルVの大きさを1として得られる単位ベクトルを、当該平面に係る前記勾配を示す情報として特定することとしてもよい。
【0082】
このような正規化により、多階調画像データ等の3次元データの特徴を示す情報が、輝度等のz座標に相当する属性値の範囲が狭いか広いかという影響を受けなくなり、照合用に汎用的に利用できるものとなる。
また、前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面に係る前記勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVを、当該平面に係る前記勾配を示す情報として特定し、当該ベクトルVと前記着目された位置を示す情報とを対応付けたものを前記特徴情報の1要素として生成し、前記データ特徴抽出装置は更に、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記特徴情報生成手段により生成された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す情報を、前記3次元データ取得手段により取得された3次元データと他の3次元データとの照合に用いるための照合用データとして生成する照合用データ生成手段を備えることとしてもよい。
【0083】
これにより、照合に直接的に利用できるデータが生成されるようになる。
また、前記照合用データ生成手段は、前記複数組のベクトルPQのうちで大きさが最大のベクトルPQの当該大きさが1となるように、各ベクトルPQの大きさを一律に定数倍し、定数倍した結果得られた各ベクトルPQと各ベクトルVと前記前記単位ベクトルSとを示す情報を前記照合用データとして生成することとしてもよい。
【0084】
これにより生成されるデータによれば、照合対象の2つのデータが同一対象を示し相互に拡大縮小の関係にある場合に、適切に判定できるようになる。
また、本発明に係るデータ照合装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、第1の3次元データを取得する第1の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第1走査手段と、前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、第2の3次元データを取得する第2の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第2走査手段と、前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備えることを特徴とする。
【0085】
これにより、回転関係にある3次元データ同士を適切に照合できるようになる。
ここで、前記照合手段は、各ベクトルV’に対する各ベクトルVの前記当てはめを、当該ベクトルV’の大きさと当該ベクトルVの大きさとの差が所定値未満であるものに限って行うこととしてもよい。
【0086】
これにより、より正確に照合を行い得る。
また、前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域のうち前記照合手段により定められた単位ベクトルS’の起点が最も多く含まれる立方体領域に、起点が含まれている単位ベクトルS’の個数を記録媒体に記録する記録手段を備えることとしてもよい。
【0087】
これにより、照合対象のデータ間の類似度を数値で表せる。従って、最も類似度の高いデータの特定等が可能になる。
また、前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域について当該立方体領域に起点が含まれている全ての単位ベクトルS’を合成した結果として得られる合成ベクトルの大きさを求め、求められた全ての合成ベクトルの大きさのうち最大値を記録媒体に記録する記録手段を備えることとしてもよい。
【0088】
これにより、ある程度高い精度でデータ相互間の類似度を評価できる指標が得られるようになる。
また、前記照合用データ生成手段に代えて、xy2次元平面上における一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置のx座標及びy座標を基準として位置Qのxy2次元平面における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する2次元照合用データ生成手段を備え、前記照合手段に代えて、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxy2次元平面における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する2次元照合手段とを備えることとしてもよい。
【0089】
これにより、概略的な照合を簡易に行うことができるようになる。
また、前記データ照合装置は更に、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記第1の3次元データ取得手段に伝える伝達手段とを備え、前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものであることとしてもよい。
【0090】
これにより、例えば、ある物の輪郭を紙に手書き等で表した線画をスキャナで取込んで生成される画像データと、同じ物をデジタルカメラで撮像して得られた画像データとを照合する場合において、実線として描かれた線がスキャナによる取り込みの過程で破線になってしまったようなときにも、従来の画像照合技術を適用した場合に比べて、両画像データの類似度が高いと適切に判定できる可能性が高くなる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像照合装置の機能ブロック図である。
【図2】検索基準データにおける線画部分と第1走査点との関係を示す図である。
【図3】特徴出処理で用いる第2走査点と第1象現〜第4象現の各領域との関係の例を示した図である。
【図4】検索基準データを取得してその照合用データを生成する第1の処理を示すフローチャートである。
【図5】特徴データ生成部103により生成されたV(i)及びP(i)と、照合用データ生成保持部105により定められた点Q及びベクトルSとを例示する図である。
【図6】被検索データを特定し、照合用データを用いて、検索基準データと被検索データとの照合を行う第2の処理を示すフローチャートである。
【図7】特徴データ生成部109により生成されたV’(j)及びP’(j)の各組について、照合用データ生成保持部105により保持されたV(i)、PQ(i)及びSの関係を当てはめて単位ベクトルS’(i,j)を定めた様子を例示する図である。
【符号の説明】
100  画像照合装置
101  検索基準データ取得部
102  輝度レベル決定部
103  特徴データ生成部
104  範囲限定部
105  照合用データ生成保持部
106  被検索データ取得部
107  線画化部
108  輝度レベル決定部
109  特徴データ生成部
110  照合部
111  評価値記録部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a data collation technique for collating data such as image data.
[0002]
[Prior art]
In recent years, with the remarkable development of hardware technology and software technology, image data obtained by imaging has been widely used as an information processing target.
For example, an image database in which a considerable amount of image data is collected and managed collectively is used for various purposes such as medical, office business, academic research, surveillance, etc. Research and development of image recognition technology for determining whether or not a registered object or person is also actively pursued.
[0003]
By the way, when searching for image data in which a specific object or the like is captured from an image database in which image data obtained by imaging is integrated, it is necessary to determine whether or not a specific object or the like is included in certain image data. In some cases, it is possible to use a method of comparing the certain image data with data representing the specific object or the like as a line drawing or a multi-tone image.
[0004]
As a conventional image data comparison technique for comparing these two data, for example, there is a method using a generalized Hough transform or a high-speed generalized Hough transform in which the conversion is accelerated.
Hereinafter, an outline of this method will be described.
The person performing the search draws a specific object or the like desired to be searched on a paper as a line drawing, and inputs the line drawing to the computer as binary image data through an image scanner or the like. The computer generates high-speed generalized Hough transform of the image data of the line drawing to generate template data, and extracts contours by spatial differentiation of the image based on multi-tone image data to be searched in the image database. Generates binary image data to be searched, performs a process of voting template data for binary image data to be searched using high-speed generalized Hough transform, and determines that the number of votes to a certain point in the image is equal to or greater than a threshold. If there is a certain point, it is determined that an image corresponding to a specific object or the like is captured at that point. The generalized Hough transform and the high-speed generalized Hough transform are described in Non-Patent Document 1, for example.
[0005]
As another image data matching technique, there is an image data matching technique according to the prior invention by the present inventor, in which each image data is wavelet-decomposed to create specific matching data and then both image data are matched. (See Patent Document 1).
Each of these various image data matching technologies has its own advantages and disadvantages.
[0006]
[Non-patent document 1]
Akio Kimura et al., Fast Generalized Hough Transform-Similar Transformation Invariant Arbitrary Figure Detection Method, "Transactions of the Institute of Electronics, Information and Communication Engineers (D-2)", April 1998, J81-D-2, No. 4, p. . 726-734
[0007]
[Patent Document 1]
JP 2001-283221 A
[0008]
[Problems to be solved by the invention]
According to the present invention, even when two data obtained by imaging or expressing an object such as the same object, person, and scenery include the object relatively rotated, the two data are the same object. It is an object of the present invention to provide a new data collating technology which can be determined to be related to the above, and which uses a method different from the conventional one.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a data feature extraction device according to the present invention is a data feature extraction device that generates feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, Three-dimensional data acquisition means for acquiring three-dimensional data, scanning means for sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the scanning means, the vicinity of the focused position An xyz three-dimensional coordinate space of a predetermined number of four or more local areas on the xy two-dimensional plane, of a three-dimensional position having an x coordinate and a y coordinate in the local area among the three-dimensional positions indicated by the three-dimensional data. Are obtained, and each of the average positions obtained for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space. It is determined whether or not there is, and only when it is present on substantially the same plane, the information indicating the gradient of the plane with respect to the xy two-dimensional plane is associated with the information indicating the focused position, And a feature information generating means for generating as one element of the feature information.
[0010]
A data feature extraction method according to the present invention is a data feature extraction method for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and acquiring three-dimensional data. A three-dimensional data acquisition step, a scanning step of sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the scanning step, four or more predetermined numbers located around the focused position For each of the local regions on the xy two-dimensional plane, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region among the three-dimensional positions indicated by the three-dimensional data is obtained, Whether each of the average positions obtained for all the local regions are substantially on the same plane in the xyz three-dimensional coordinate space Is determined, and only when the plane is substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and information indicating the focused position are associated with one of the characteristic information. And generating a feature information generated as an element.
[0011]
Here, being substantially on the same plane means being present at a distance of a predetermined value or less from a certain plane.
This makes it possible to obtain feature information on three-dimensional data that can be used for matching between three-dimensional data. When the three-dimensional data are collated with each other based on the obtained feature information, the three-dimensional data representing the same object has a similarity to some extent in a rotating relationship about a straight line perpendicular to the xy two-dimensional plane. It can be determined to be high.
[0012]
Further, a data collation device according to the present invention is a data collation device for collating three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and is a first device for acquiring first three-dimensional data. Three-dimensional data acquisition means, first scanning means for sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the first scanning means, it is located around the focused position. Xyz three-dimensional coordinates of a predetermined number of four or more local regions on the xy two-dimensional plane, among three-dimensional positions indicated by the first three-dimensional data, three-dimensional positions having x and y coordinates in the local region An average position in the space is determined, and whether or not each of the average positions determined for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space; The determination is made, and the vector V on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified only when the plane V exists on the substantially same plane, and the vector V and the information indicating the focused position are determined. A first feature information generating unit to be associated, and a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and heading in one direction are determined and associated with each vector V specified by the first feature information generating unit. For each piece of information obtained, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is determined based on a focused position related to the information, and a plurality of sets of the vector V and the vector PQ and a unit vector S are shown. Matching data generating means for generating matching data; second three-dimensional data obtaining means for obtaining second three-dimensional data; A second scanning means for sequentially focusing on each of the above positions, and a predetermined number of four or more xy two-dimensional planes located around the focused position each time one position is focused on by the second scanning means For each of the local regions in, among the three-dimensional positions indicated by the second three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region is determined. It is determined whether or not each of the average positions obtained for the local area is substantially on the same plane in the xyz three-dimensional coordinate space. Only when the average positions are on substantially the same plane, the xy2 dimension of the plane is determined. A second feature information generating unit that specifies a vector V ′ on an xy two-dimensional plane indicating a gradient with respect to the plane and associates the vector V ′ with information indicating the focused position; By sequentially applying each vector V in the matching data to each vector V ′ specified by the second feature information generating means, the azimuth relationship between the vector V ′ and the new unit vector S ′ becomes a vector. Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V applied to V ′ and the unit vector S, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, It is characterized by comprising a matching means for determining a similar tendency between the first three-dimensional data and the second three-dimensional data.
[0013]
The data collation method according to the present invention is a data collation method for collating three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, wherein a first three-dimensional data is acquired. A three-dimensional data acquisition step, a first scanning step that sequentially focuses on each position on the xy two-dimensional plane, and each time one position is focused on by the first scanning step, it is located around the focused position. Xyz three-dimensional coordinates of a predetermined number of four or more local regions on the xy two-dimensional plane, among three-dimensional positions indicated by the first three-dimensional data, three-dimensional positions having x and y coordinates in the local region The average position in the space is determined, and all the average positions determined for all the local regions are substantially on the same plane in the xyz three-dimensional coordinate space. Is determined, and only when the plane is substantially on the same plane, the vector V on the xy2D plane indicating the gradient of the plane with respect to the xy2D plane is specified, and the vector V and the focused position are determined. A first feature information generating step of associating the information with the information indicating the unit vector S, and a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and heading in one direction is determined. For each piece of information associated with the vector V, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is determined based on a focused position related to the information, and a plurality of sets of the vector V and the vector PQ and a unit are defined. A collation data generating step of generating collation data indicating the vector S, and second three-dimensional data for acquiring second three-dimensional data An obtaining step, a second scanning step of sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the second scanning step, four or more positions located around the focused position For each of a predetermined number of local regions on the xy two-dimensional plane, of three-dimensional positions indicated by the second three-dimensional data, an average of three-dimensional positions having x and y coordinates in the local region in the xyz three-dimensional coordinate space It is determined whether or not each of the average positions obtained for all of the local regions is substantially on the same plane in the xyz three-dimensional coordinate space. As long as the vector V ′ on the xy2D plane indicating the gradient of the plane with respect to the xy2D plane is specified, and the vector V ′ and the focused position are indicated. A second feature information generating step of associating each vector V ′ in the matching data with the vector V ′ specified in the second feature information generating step, so that the vector V ′ is newly added. Each unit vector S ′ is determined so that the azimuth relationship with the unit vector S ′ is the same as the azimuth relationship between the vector V applied to the vector V ′ and the unit vector S, and xyz3 of all the determined unit vectors S ′ A matching step of determining a similar tendency between the first three-dimensional data and the second three-dimensional data according to a distribution state in a three-dimensional coordinate space.
[0014]
This makes it possible to appropriately collate the three-dimensional data having a rotational relationship.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an image matching device according to an embodiment of the present invention will be described with reference to FIGS.
<1. Configuration>
FIG. 1 is a functional block diagram of the image matching device according to the embodiment of the present invention.
[0016]
The image matching device 100 is used in an image search system or the like that searches for specific image data from an image database, and has a function of matching two pieces of image data. Here, the image retrieval system uses an image database, which is a set of multi-gradation two-dimensional image data (hereinafter, referred to as “retrieved data”) formed by imaging, to write objects such as objects, people, and landscapes by hand. For searching for data to be searched, which is an image of the same object as the two-dimensional image data (hereinafter referred to as “search reference data”) of the line drawing obtained by digitizing the line drawing drawn by using a scanner or the like. It is a system having.
[0017]
The image matching device 100 is realized as one function of a computer, and as shown in FIG. 1, a search reference data acquiring unit 101, a brightness level determining unit 102, a feature data generating unit 103, a range limiting unit 104, a matching data generating unit The storage unit 105 includes a search data acquisition unit 106, a line drawing unit 107, a luminance level determination unit 108, a feature data generation unit 109, a collation unit 110, and an evaluation value recording unit 111. The function of each unit constituting the image matching apparatus 100 is realized by the CPU executing a control program stored in the memory of the computer.
[0018]
Hereinafter, each unit constituting the image matching apparatus 100 will be described.
<1-1. Search criteria data acquisition unit 101>
The search criterion data acquisition unit 101 has a function of specifying search criterion data, which is one line drawing data, as a processing target and transmitting the same to the luminance level determination unit 102. This search criterion data is 1 if a line is drawn by a scanner or the like for each pixel position after a person performing a search draws a line drawing on paper by hand, and if there is no line (dot). It is obtained by giving a data value of 0 and converting it into binary two-dimensional image data, for example, data of 512 pixels in the horizontal direction and 512 pixels in the vertical direction.
[0019]
<1-2. Brightness level determination unit 102>
The brightness level determination unit 102 performs a predetermined brightness determination process based on the transmitted search reference data, determines a multi-level brightness value for each pixel of the search reference data, and sets, for example, a 256-level multi-level brightness value. It has a function of generating image data.
The brightness determination processing is performed by sequentially setting each pixel position on the xy two-dimensional plane related to the search reference data as a first scanning point, and centering on the first scanning point, all pixel positions within a predetermined circular area with a constant radius r1. A luminance value that is approximately inversely proportional to the number of all pixel positions whose binary data value is 1 (that is, the number of all pixel positions corresponding to a line or a point drawn in the circular area) is assigned to the first value. This is a process for determining a luminance value for a scanning point.
[0020]
That is, in the brightness determination process, while moving the first scanning point on the search reference data, the number of all pixel positions having a data value of 1 in a circular area of a constant radius r1 centered on the first scanning point is k. When the luminance value is determined assuming that the arithmetic expression for calculating the luminance value Z at the first scanning point is, for example, the following equation 1, the multiplicity of 256 gradations from 0 to 255 is obtained. This is a process for generating gradation image data.
[0021]
[Equation 1] Z = 255 / (k + 1)
In this case, for example, the radius r1 of the circular region is set to 10 pixels or the like, and the size of the circular region is determined so that k can be changed from 0 to a value of 255 or more. Is an integer value obtained by rounding the result of 255 / (k + 1).
[0022]
In practice, when the first scanning point is located at the end of the search reference data, among the positions in the circular area centered on the first scanning point, those that protrude from the area of the search reference data appear. When the radius r1 of the circular area is set to 10 pixels, horizontal coordinates 10 to 501 and vertical coordinates 10 to 501 in the search reference data in which a pixel exists at each of the horizontal coordinates 0 to 511 and the vertical coordinates 0 to 511. With each coordinate position as a first scanning point, a luminance value at each first scanning point is determined, and no luminance value is determined for pixel positions within a range of 10 pixels from each end.
[0023]
By scanning, the coordinates of the first scanning point sequentially change in the horizontal direction as (10, 10), (11, 10), (12, 10), ..., (500, 10), (501, 10). Then, the next row changes in the same manner as (10, 11), (11, 11), (12, 11),..., (500, 11), (501, 11). An xy two-dimensional plane relating to image data such as search reference data is a two-dimensional plane represented by an x-axis and a y-axis, and all pixel positions constituting the image data are integer values in the x-coordinate and y-coordinate. Shall be represented. It is assumed that each pixel has a position as a point, and the distance between two pixels that are adjacent in the horizontal or vertical direction on the xy two-dimensional plane is one.
[0024]
FIG. 2 is a diagram illustrating a relationship between a line drawing portion and first scanning points in the search reference data.
The figure shows a circular area 203 centered on a first scanning point 202 at a certain moment during scanning, as an example of search reference data 200 representing a line drawing 201 in which two triangles are connected.
[0025]
In this example, since the number k of the pixel positions on the line drawing in the circular area is 16, the brightness value Z of the first scanning point 202 is Z = 255 / (16 + 1) = 15 from Equation 1.
For example, when a simple straight line is represented in the search reference data, if the first scanning point is on the straight line by the above scanning, the most pixel positions are included in the circular area 203. The luminance of the first scanning point becomes the lowest, and the luminance of the first scanning point decreases to some extent as the first scanning point moves away from the straight line.
[0026]
<1-3. Feature data generation unit 103>
The feature data generation unit 103 has a function of performing a predetermined feature extraction process based on the multi-tone image data generated by the luminance level determination unit 102 and storing feature data that is information indicating the features of the image.
In the feature extraction processing, each position in the two-dimensional image space related to the multi-tone image data generated by the luminance level determination unit 102 is sequentially set as a second scanning point, and a predetermined constant radius is set around the second scanning point. Only when the average brightness values of the first to fourth quadrants obtained by dividing the circular area of r2 into horizontal and vertical crosses have a planar relationship, the area around the second scanning point A vector V, which is a spatial gradient of each average luminance value, and a three-dimensional coordinate P obtained by adding a luminance value of the second scanning point to another two-dimensional pixel position of the second scanning point as data of another dimension. This is the process of saving the pair. Hereinafter, V (1), V (2),... When discriminating individual vectors V, and P (1), P (2),. ··· etc., and typically V (i), P (i).
[0027]
FIG. 3 is a diagram showing an example of the relationship between the second scanning point used in the feature extraction process and each of the first to fourth quadrants. In the figure, the radius r2 is set to 10 pixels.
Here, the feature extraction processing will be described in more detail with reference to FIG.
The multi-gradation image data generated by the luminance level determining unit 102 is data in which a luminance value is determined for each pixel position in the xy two-dimensional image space. A portion between a negative direction of x and a negative direction of y with respect to the second scanning point within a circular area having a radius r2 around the second scanning point while moving the second scanning point on the two-dimensional image space. The average value z1 of each luminance value corresponding to (region R1 in FIG. 3) and the average value of each luminance value corresponding to a portion (region R2) between the positive direction of x and the negative direction of y. z2, an average value z3 of each luminance value corresponding to a portion (region R3) between the negative direction of x and the positive direction of y, and a portion (region R4) between the positive direction of x and the positive direction of y. ), And an average value z4 of the respective luminance values is obtained. Each average luminance value of the peripheral scanning point to calculate the vector V (i) is the spatial gradient of luminance values at the periphery of determining whether or not and the second scanning point in the plane relationship.
[0028]
Note that the second scanning point is set when the multi-tone image data is composed of 502 pixels in the horizontal direction (x coordinate is 10 to 501) and 502 pixels in the vertical direction (y coordinate is 10 to 501) on the xy two-dimensional plane. , X coordinate and y coordinate move in the range of 20 to 491 respectively. That is, the coordinates of the second scanning point sequentially change in the horizontal direction as (20, 20), (21, 20), (22, 20), ..., (490, 20), (491, 20). Then, (20, 21), (21, 21), (22, 21),..., (490, 21), (491, 21) also change in the same manner for the next row.
[0029]
The determination as to whether or not the respective average luminance values of the portions (regions R1 to R4) around the second scanning point have a planar relationship is based on whether or not the relationship represented by the following inequality expression 2 is satisfied. Done.
[Equation 2] | z1-z2-z3 + z4 | ≦ C1
In Equation 2, C1 is a constant, and a relatively small value is determined in advance so that when z1−z2−z3 + z4 is close to 0, the relationship of Equation 2 is satisfied. When the maximum value of the luminance value is 255, C1 may be set to, for example, one value of about 0 to 5.
[0030]
If the relationship represented by the inequality expression 2 is satisfied, the above-described regions R1 to R4 are further rotated by 30 degrees in the circumferential direction around the second scanning point, and the region R1 ′ in the new range is obtained. Similarly, the average values z1 to z4 of the luminance values in the respective regions are determined for R4 ′ to determine whether or not the relationship represented by the inequality expression 2 is satisfied. If the relationship is still satisfied, the same is performed again. By rotating the regions R1 ′ to R4 ′ in the directions, z1 to z4 are similarly obtained for the regions R1 ″ to R4 ″ in the new range, and it is determined whether or not the relationship represented by the inequality of Expression 2 is satisfied, and the relationship is determined. Is satisfied, it is determined that the average luminance values of the respective areas around the second scanning point have a planar relationship.
[0031]
Hereinafter, the vector V (i), which is a spatial gradient of the luminance value around the second scanning point, which is performed only when the average luminance values of the respective regions around the second scanning point have a planar relationship. The calculation procedure will be described. When z1-z2-z3 + z4 is not 0, z4 is corrected so that z1-z2-z3 + z4 becomes 0, and the vector V (i) is calculated by the following procedure after the correction.
[0032]
First, for each of the regions R1 to R4, an average position (x-coordinate and y-coordinate of the center of gravity) of the region on the xy two-dimensional plane is determined as another-dimensional coordinate (z-coordinate), and an average luminance value in the region is determined. As a result, four three-dimensional coordinates are obtained.
The x coordinate of the average position of the region R1 is x1, the y coordinate is y1, the x coordinate of the average position of the region R2 is x2, the y coordinate is x2, and the x coordinate of the average position of the region R3 is x3, y coordinate. Let y3 be the x coordinate of the average position of the region R4, and y4 be the y coordinate. The four three-dimensional coordinates described above are A1 (x1, y1, z1), A2 (x2, y2, z2), A3 (x3, y3, z3) and A4 (x4, y4, z4).
[0033]
By substituting each of the three-dimensional coordinate values of A1 to A4 into Equation 3 which is a general formula of a plane, the value of each coefficient of the general equation of the plane is calculated, and the vector V (i) is calculated by Equations 4 and 5. Of the components Vx and Vy are obtained.
[Equation 3] a · x + by · y + c · z = d
In Equation 3, x, y, and z are variables, a, b, c, and d are coefficients, and “·” is a multiplication operator.
[0034]
[Equation 4] Vx = −a / c
[Equation 5] Vy = −b / c
Equation 4 represents the inclination of a straight line intersecting the xz plane with the plane in the three-dimensional coordinate space according to Equation 3 in which the coefficient value is determined, that is, the displacement Δz / Δx in the z direction with respect to the displacement in the x direction. The plane in the three-dimensional coordinate space according to the equation (3) having the determined coefficient value represents the inclination of a straight line intersecting with the yz plane, that is, the displacement Δz / Δy in the z direction with respect to the displacement in the y direction.
[0035]
In other words, Vx represents the gradient of the luminance value in the x direction, and Vy represents the gradient of the luminance value in the y direction. Therefore, it can be said that the vector V (i) represents the spatial gradient of the luminance value.
Assuming that the value of the three-dimensional coordinates P (i) to be stored in pairs with V (i) = (Vx, Vy) thus obtained is (Px, Py, Pz), Px is converted to multi-tone image data. Py is the x coordinate of the second scanning point on the xy two-dimensional plane relating to the multi-tone image data, and Pz is a value obtained by the following equation (6).
[0036]
[Equation 6] Pz = (z1 + z2 + z3 + z4) / 4
The feature data generating unit 103 records and stores a plurality of pairs of V (i) and P (i) obtained by such a procedure in a memory. However, exceptionally, for V (i) in which both Vx and Vy, which are the components of V (i), are approximately 0, that is, V (i) that is less than a predetermined threshold, V (i) And P (i) are not stored. For example, if the average luminance values in the regions R1 to R4 around the second scanning point are all the same, V (i) and P (i) for the second scanning point are not stored.
[0037]
<1-4. Range limiting unit 104>
The range limiting unit 104 has a function of specifying a range where an image to be collated exists in the search reference data. For example, a search criterion having 512 pixels in the horizontal and vertical directions in response to an input from a searcher Identify a rectangular area in the data. The rectangular area is defined as, for example, a range where the x coordinate is 30 to 480 and the y coordinate is 30 to 480.
[0038]
<1-5. Matching Data Generation and Holding Unit 105>
The collation data generation / storage unit 105 determines a point Q and a vector S indicating a certain direction on the xyz three-dimensional space, and stores the vector V (i) and the three-dimensional coordinates P ( i), the one in which the x coordinate and the y coordinate of P (i) are included in the range specified by the range limiting unit 104 is extracted, and the extracted V (i) and P (i) are extracted. For each group, PQ (i) indicating the position of Q in relative coordinates from P (i) is obtained, and V (i), PQ (i) and one S are stored in a memory or the like as collation data. Has functions.
[0039]
Number of pairs of V (i) and P (i) stored by the feature data generation unit 103 that include the x coordinate and y coordinate of P (i) within the range specified by the range limiting unit 104 Let n be the number of vectors V (i), n number of three-dimensional relative coordinates PQ (i), and one vector S stored by the matching data generation and holding unit 105 as matching data. Will be.
[0040]
For example, if P (1) and P (2) are within the range specified by the range limiting unit 104, the relative coordinate PQ (1) is associated with the vector V (1), and similarly, the relative coordinate PQ (2) is stored in association with the vector V (2). Each of the vectors V (i), PQ (i) and S is data composed of a component in the x direction, a component in the y direction, and a component in the z direction in the xyz three-dimensional coordinate space. The vector V (i) having the starting point at the point P and the vector S having the starting point at the point Q are represented by V (i), PQ (i) and S, and the relative positional relationship of the starting point and the relative vector direction , That is, a relative azimuth relationship.
[0041]
<1-6. Searched Data Acquisition Unit 106>
The search target data acquisition unit 106 sequentially retrieves one multi-tone image data from an image database storing a large number of search target data, that is, multi-tone image data, and specifies it as a target to be compared with search reference data. And has a function of transmitting it to the line drawing unit 107.
[0042]
The search target data is multi-tone image data generated by a digital camera or the like, and is, for example, data of 512 pixels in the horizontal direction and 512 pixels in the vertical direction at 256 tones.
<1-7. Line drawing unit 107>
The line drawing unit 107 performs spatial differentiation processing for obtaining a gradient of a luminance value on a two-dimensional image plane with respect to one piece of to-be-searched data, that is, multi-tone image data transmitted from the to-be-searched data acquisition unit 106, and a result thereof. And a function of generating binary image data corresponding to a line image and transmitting the generated binary image data to the luminance level determination unit 108 as a result. The continuous processing from the spatial differentiation processing to the binarization processing is, in other words, processing in which a portion where the spatial gradient of the luminance change of the image is steep, that is, a so-called edge portion is set to 1 and other portions are set to 0.
[0043]
<1-8. Brightness level determination unit 108>
The luminance level determining unit 108 receives the binary image data generated based on the data to be searched from the line drawing unit 107, performs a predetermined luminance determining process, and performs multi-level luminance for each pixel in the binary image data. It has a function of determining values and generating multi-gradation image data of, for example, 256 gradations. The brightness determination processing for generating multi-tone image data based on the binary image data is basically the same as the brightness determination processing performed by the brightness level determination unit 102, that is, the image data to be processed is different. Is similar.
[0044]
<1-9. Feature data generation unit 109>
The feature data generation unit 109 has a function of performing a predetermined feature extraction process based on the multi-tone image data generated by the luminance level determination unit 108 and storing feature data indicating the features of the image. This feature extraction process is basically the same as the feature extraction process performed by the feature data generation unit 103 described above, that is, the same except that the image data to be processed is different. If completely identical image data is input to the feature data generation units 103 and 109, both of the feature data generation units 103 and 109 store feature data having the same contents.
[0045]
The feature data stored by the feature data generation unit 109 is a plurality of sets of vectors V and three-dimensional coordinates P obtained based on the multi-tone image data generated by the luminance level determination unit 108. Hereinafter, the vector V and the three-dimensional coordinates P stored by the feature data generation unit 109 are expressed in the form of a vector V ′ (j) and three-dimensional coordinates P ′ (j).
[0046]
<1-10. Collation unit 110>
The collation unit 110 is generated by the feature data generation unit 109, and includes n sets of vectors V (i), relative coordinates PQ (i), and one S, which are the comparison data generated by the comparison data generation and storage unit 105. Using the m sets of vectors V '(j) and the three-dimensional coordinates P' (j), the image shown in the search reference data in a certain range approximated the image shown in the search target data. It has a function of performing a collation process for determining whether or not it is a device.
[0047]
As the matching process, the matching unit 110 first applies all V (i) in the matching data to each vector V ′ (j) in order, and expresses V (i), PQ (i), and S The size 1 is set so that the azimuth relationship between V (i) and S in the three-dimensional coordinate space and the azimuth relationship between V ′ (j) and S ′ (j, i) in the three-dimensional coordinate space are the same. Is defined as a unit vector S ′ (j, i). Here, S ′ (i, j) is a unit determined by applying vector V (i) to vector V ′ (j) so as to maintain the same azimuthal relationship as vector S with respect to vector V (i). This means a vector S ′, and if there are n V (i) as collation data and m m vectors V ′ (j) stored by the feature data generation unit 109, the unit vector S '(I, j) is determined to be nm.
[0048]
If the angle between the reference and the direction of the vector PQ (i) from the point P to the point Q is α with respect to the direction of the vector V (i), α is V (i) and PQ (i). )), And if the angle between the reference and the direction of the vector S is β based on the direction of the vector V (i), β can be obtained from V (i) and S. The distance γ between the point P and the point Q can be obtained from the vector PQ (i).
[0049]
Therefore, to determine the unit vector S ′ (i, j) by applying the vector V (i) to the vector V ′ (j), the starting point of the unit vector S ′ (hereinafter referred to as “point Q ′”) A vector P′Q ′ that is located at a distance γ from the position of the point P ′ (j) that is the starting point of the vector V ′ (j) and that goes from the point P ′ to the point Q ′ is a vector V ′ (j) Is determined to be a vector directed to the angle of α with reference to, and the unit vector S ′ is determined to be a vector directed to the angle of β with reference to the vector V ′ (j).
[0050]
Next, the xyz three-dimensional coordinate space is divided into a three-dimensional array of unit cubes having a predetermined size, for example, each side having a length of 5, and each unit cube is positioned in the unit cube. A process of obtaining a vector addition result of all the vectors S ′ (i, j), that is, a process of combining vectors, is performed. Finally, the maximum value Smax of the size of the combined vector obtained as a vector addition result and the vector S ′ The number Snum of the vectors S ′ (i, j) in the unit cube containing the most (i, j) is evaluated together with the information for identifying the searched data acquired by the searched data acquiring unit 106. If the maximum value Smax of the magnitude of the vector obtained as a result of the vector addition stored in the value recording unit 111 is equal to or greater than a predetermined threshold, the image in the data to be searched and the search reference data The image performing a process of determining and tend similar.
[0051]
The collation unit 110 displays this determination result via, for example, a display device or the like. The display contents of the determination result are, for example, the search target data itself, similarity or dissimilarity, the value of Smax / n, and the like.
If the image data as a result of line drawing of the search target data and the search reference data completely match, the maximum value Smax of the vector obtained as a result of the vector addition described above is the size of the unit cube. If the size is equal to or larger than 1 pixel × 1 pixel × 1 pixel, it is theoretically at least n. Therefore, in consideration of the influence of discrete pixel positions in the digital image, in practice, it is conceivable to set, for example, 0.6 times or 0.7 times n as the above-mentioned predetermined threshold value.
[0052]
<1-11. Evaluation value recording section 111>
The evaluation value recording unit 111 uses the maximum value Smax of the vector size obtained as a result of the vector addition described above and the vector S ′ (i, This is a storage area such as a memory in which the maximum density of j), that is, the maximum value Snum of the number in the unit cube is stored.
[0053]
Each time one piece of image data is acquired as search data from the image database by the search data acquisition unit 106, the evaluation value recording unit 111 stores a line drawing unit 107, a luminance level determination unit 108, and a feature data generation unit 109. By the operation of the matching unit 110, information for identifying a set of data to be searched and the maximum value Smax are additionally recorded. Therefore, if the contents of the evaluation value recording unit 111 are used, the searched data identified corresponding to the largest one of the recorded maximum values Smax is indicated as the search reference data most in the image database. It is possible to evaluate that the searched data has a high tendency to be similar to the image. Further, for example, it is possible to evaluate that the similarity tendency is higher as the number of Snums is larger.
<2. Operation>
Hereinafter, the operation of the image matching apparatus 100 having the above configuration will be described.
[0054]
When roughly classified, the image collating apparatus 100 acquires search reference data, which is binary image data of an input line drawing, and generates collation data, and sequentially identifies data to be searched from an image database. Then, by using the specified data to be searched and the data for matching, a second process of matching the search reference data with the data to be searched is performed.
[0055]
FIG. 4 is a flowchart illustrating a first process of acquiring search reference data and generating the matching data.
As shown in the figure, first, the search criterion data acquisition unit 101 acquires the search criterion data and transmits it to the brightness level determination unit 102 (step S11). The luminance level determination unit 102 generates multi-tone image data by moving the first scanning point on the search reference data and determining the luminance value for each pixel position (step S12). As a result, multi-tone image data having a high luminance value is generated at a pixel position around a low density of lines or points indicated by the search reference data.
[0056]
Subsequently, the feature data generation unit 103 moves the second scanning point on the xy two-dimensional plane related to the multi-tone image data generated by the luminance level determining unit 102, and moves the second scanning point to the periphery. An average luminance value of each of the four divided areas is obtained, and a vector V (i) indicating a spatial gradient of the average luminance value is calculated as xy of the second scanning point only when each average luminance value of each area has a planar relationship. The coordinates and the average luminance value of the entire four surrounding areas are stored in a memory or the like together with the xyz three-dimensional coordinates P (i) obtained as z-coordinates (step S13).
[0057]
Subsequently, in response to the specification of the range by the range limiting unit 104, the matching data generation and holding unit 105 determines a point Q at an arbitrary three-dimensional position, determines a vector S in an arbitrary direction, and sets the vector S within the specified range. A relative vector P (i) including the three-dimensional coordinates P (i) and a relative coordinate PQ indicating a vector from the point P (i) to the point Q for all points P (i) located within the specified range. (I) and one vector S are stored in a memory or the like as collation data (step S14).
[0058]
FIG. 5 is a diagram exemplifying V (i) and P (i) generated by the feature data generating unit 103, and a point Q and a vector S determined by the matching data generation and holding unit 105.
In the figure, for convenience of explanation, the number of V (i) and P (i) is only three, and the figure shows a mapping on an xy two-dimensional plane for each element.
[0059]
FIG. 6 is a flowchart showing a second process of identifying the data to be searched and comparing the search reference data with the data to be searched using the data for matching.
As shown in the figure, first, the search target data acquisition unit 106 obtains search target data, which is one piece of multi-tone image data, from the image database and transmits it to the line drawing unit 107 (step S21). In step S22, binary image data is generated by binarization for extracting a so-called edge portion of the image represented by the data to be searched and transmitted to the luminance level determination unit 108 (step S22).
[0060]
The luminance level determination unit 108 to which the binary image data has been transmitted determines the luminance of each pixel position of the binary image data and newly generates multi-tone image data in the same manner as step S12 described above (step S12). S23).
Subsequently, the feature data generation unit 109 moves the second scanning point on the xy two-dimensional plane related to the multi-tone image data generated by the luminance level determining unit 108, and moves the periphery around the second scanning point. An average luminance value of each of the four divided areas is obtained, and a vector V ′ (j) indicating a spatial gradient of the average luminance value is calculated for the second scanning point only when each average luminance value of each area has a planar relationship. The xy coordinates and the average luminance value of the entire four surrounding areas are stored in a memory or the like together with the xyz three-dimensional coordinates P ′ (j) obtained as z coordinates (step S24).
[0061]
Subsequently, the matching unit 110 compares the P ′ (j) and V ′ (i) indicating the features of the searched image stored by the feature data generating unit 109 with the matching data stored in the first processing. For reference, for each P ′ (j), when V (i), which is data for verification, is placed at the position of P ′ (j) in the xyz three-dimensional space so as to match V ′ (j), The unit vector S ′ is arranged while maintaining the same azimuthal relationship from the position of V (i) to S (step S25).
[0062]
FIG. 7 shows V (i), PQ (i), and V (i) and PQ (i) held by the matching data generation and holding unit 105 for each set of V ′ (j) and P ′ (j) generated by the feature data generating unit 109. It is a figure which illustrates the mode which determined the unit vector S '(i, j) by applying the relationship of S.
In the figure, for convenience of explanation, the number of V '(j), P' (j) and V (i) is only three, and the mapping of each element on an xy two-dimensional plane is shown. ing. The notation “S (V ′ (1) ← V (2))” in the figure indicates that it is a unit vector S ′ arranged as a result of applying V (2) to V ′ (1). I have.
[0063]
For example, when V (2) is applied to V ′ (1) located at the position indicated by P ′ (1) extracted based on the searched data, the vector PQ (2) is obtained from P ′ (1). ), And the angle formed by the direction from P ′ (1) to Q ′ with respect to the vector V ′ (1) with respect to the vector V ′ (1) with respect to V (2) A point Q ′ is determined so that the angle of the vector of PQ (2) is the same as the angle formed by the vector V ′ (1) and the unit vector S ′ at the position of the point Q ′. The unit vector S ′ is arranged so that the angle formed by the direction of the vector S is the same as the reference.
[0064]
After arranging the unit vector S ′, the matching unit 110 calculates the above-described Smax and Snum, determines whether or not the similarity is based on Smax as described above, and displays the determination result on a display device. Smax and Snum are recorded in the evaluation value recording unit 111 (step S26).
The image matching apparatus 100 sequentially determines the data to be searched from the image database, and repeats the steps S21 to S26 until it determines that the data is similar (step S26).
[0065]
By the first processing and the second processing described above, among the image data in the image database, the image data including the one that matches or is similar to the object drawn as a line drawing by the searcher is detected. Will be.
In the feature data generation units 103 and 109, the relation is such that the quadrants R1 to R4 around the second scanning point on the xy two-dimensional plane relating to the image data, that is, the center of gravity of each area is positioned at the four vertices of the square. , The coordinates of the centroids in an xyz three-dimensional space in which the average luminance value in the area is obtained as the z-coordinate of the centroid of the area are substantially on the same plane. Only when it exists, the change of the peripheral luminance value in the xy coordinate space at the second scanning point is stored as a vector V (i) or a vector V ′ (j), and is treated as indicating the characteristic of the image data. ing. Moreover, the regions R1 to R4 are rotated by 30 degrees and 60 degrees around the second scanning point, and only when the coordinates of the barycenter of each region similarly obtained on the xyz three-dimensional space are approximately on the same plane, The vector V (i) or the vector V '(j) is stored.
[0066]
In other words, even if the image is rotated, the feature data generation unit sets the feature data generation unit so as to make the relationship among the feature data in the feature data group collected as a result of scanning by the second scanning point invariable. Only when the spatial gradient of the luminance in the peripheral area of the two scanning points is uniform, is the spatial gradient of the luminance at the second scanning point obtained using the luminance of each position in the peripheral area of the second scanning point Are stored as feature data that can be used as a basis for collation.
[0067]
Therefore, according to the image collation device 100, the objects represented by the two image data to be collated are rotated even if they have a relationship in which they are rotated about a straight line perpendicular to the image plane. Just as in the case where there is no data, it is possible to determine whether or not they are similar.
<3. Supplement>
As described above, the image collation device as one embodiment of the data collation device and the data feature extraction device according to the present invention has been described. However, the image collation device can be partially modified. It is a matter of course that the present invention is not limited to the embodiment of the image collating device. That is,
(1) The image collating device can perform not only collation between line image data and multi-tone image data but also collation between two multi-tone image data and collation between two line image data. You may do so. For example, if the image data to be collated is all line drawing image data, the line drawing by the line drawing unit 107 is omitted, and if all the image data to be collated is multi-tone image data. May perform line drawing similar to that of the line drawing unit 107 between the search reference data acquisition unit 101 and the luminance level determination unit 102.
[0068]
When two multi-tone image data are collated with each other, the processing by the line drawing unit and the luminance level determination unit is omitted, and the two multi-tone image data are directly processed by the feature data generation units. The image matching device may be configured to be targeted.
(2) The position on the xy two-dimensional plane where the first scanning point or the second scanning point is located in the scanning by the luminance level determination unit and the feature data generation unit of the image matching device is not necessarily the point when the pixel is represented by a point. It doesn't have to be on top. For example, the first scanning point or the second scanning point may transition at an intermediate point between pixel points. In addition, in order to determine the luminance of the first scanning point, binary data for pixels in a range of a circular area centered on the first scanning point is used, and a spatial gradient of luminance for the second scanning point is obtained. For example, the brightness values of pixels within the range of the circular area centered on the second scanning point are used. However, each circular area may be changed to an area of another shape. The size may be different.
(3) In the brightness determination processing by the two brightness level determination units, Equation 1 is used to determine the brightness value Z of the first scanning point from the number k of the pixel positions in the circular area centered on the first scanning point. However, the calculation is such that the larger the number of lines or points around the first scanning point, that is, the number of pixel positions where the value of the binary data is 1, the lower the luminance value Z or the number of such pixel positions is large. If the calculation is such that the luminance value Z increases as the number increases, the luminance value Z may be determined by a calculation other than Equation 1. That is, the brightness determination processing is performed based on whether or not the density of pixel points having binary data such as a line drawing value of 1 in each local area on the xy two-dimensional plane is high or low. This is a process of determining a dimension attribute value (luminance value).
(4) In the feature data generation unit, the regions R1 to R4 each have a range including a plurality of pixel points, but may have a range including only one pixel point. Note that the feature data generation unit has calculated the average position of all points in each of the regions R1 to R4 and the average value of the luminance of all the points. However, each of the regions R1 to R4 has one pixel point. If only the region R1 is included, the average position of each of the regions R1 to R4 is the position of one pixel included in each region, and the average value of the luminance of each of the regions R1 to R4 is It is obtained by the luminance itself of the one pixel included in the area.
(5) The feature data generation unit determines whether or not the luminance distribution around the second scanning point is planar and calculates the spatial gradient of the luminance around the second scanning point. Are divided into four around the circular region, and the regions R1 to R4 are rotated twice by 30 degrees in order to determine whether or not the region is two-dimensional. However, based on the average position and the average luminance value in each of the four or more local regions around the second scanning point, it is determined whether or not the spatial distribution of luminance around the second scanning point is planar. If the method is such that the angle between the plane and the xy two-dimensional plane is calculated as the spatial gradient of the luminance at the second scanning point, the number of local areas is necessarily four. The position of the local region is not limited to the region R1. It is not limited to R4. Further, the rotation by 30 degrees twice is only one method for ensuring that the luminance distribution around the second scanning point is sufficiently planar, and for example, the second rotation on the xy two-dimensional plane If the brightness of each pixel located at each vertex of a minute regular polygon centered on the scanning point is the z coordinate, the position of each pixel in the xyz three-dimensional coordinate space is substantially on the same plane. Whether or not the distribution of luminance around the second scanning point is sufficiently planar may be determined based on whether or not the determination is negative. Only at points where the distribution of the peripheral luminance is sufficiently planar, the spatial gradient of the luminance added to the point is treated as information indicating the characteristics of the image. Is less susceptible to a shift in the sampling direction and a process of rotating the image in digitizing the image.
(6) The range limiting unit does not necessarily need to receive the input of the person performing the search, and may fixedly store the rectangular area in advance. Further, the range limiting unit displays the image captured by the search criterion data obtaining unit via a display device or the like, and specifies a rectangle by a mouse drag operation or the like by a person performing a search on the image. An image range to be collated may be specified based on the collation.
(7) In the feature data generation unit, each component of the vector V (i) indicating the spatial gradient of the luminance is calculated by Expressions 4 and 5, but the change in the luminance and the position of the position on the xy two-dimensional plane are calculated. Data calculated by another operation capable of expressing the relationship with the change may be handled in the same manner as the vector V (i). For example, when the average luminance values of the regions R1, R2, R3, and R4 are z1, z2, z3, and z4 in this order, the x component of the vector V (i) is calculated as Vx and V The y component of (i) may be determined to be Vy obtained by the following Expression 8.
[0069]
[Equation 7] Vx = z1-z2 + z3-z4
[Equation 8] Vy = z1 + z2-z3-z4
Further, a vector obtained by multiplying both of the components Vx and Vy by a constant so that the magnitude of the vector V (i) becomes 1 is determined as a new vector V (i), that is, the vector V (I) may be normalized.
(8) The collation data generation and holding unit generates and stores collation data that is a plurality of sets of the vector V (i) and the vector PQ (i) and the vector S. Is sufficient if the information indicates an azimuthal relationship between the direction and the position between the vector V (i) and the vector S, including, for example, the collation data. It may be composed of an angle in the direction of i), the magnitude of the vector PQ (i), and an angle from the direction of the vector V (i) to the direction of the vector S.
[0070]
It should be noted that the application of the vector V (i) to the vector V ′ (j) may be performed only when the magnitudes of the two vectors substantially match. In this case, the collation data needs to include information indicating the magnitude of the vector V (i), and further, the luminance from the maximum to the minimum luminance of the two image data to be collated. A method such as finding the vector V (i) by an operation as shown in Equations 4 and 5 so that the influence of the luminance range does not appear on the vector V (i) so as not to be affected by the difference in the range. It is necessary to adjust the luminance range and use a method of obtaining the vector V (i) by using the equations 7 and 8 in the feature data generation unit.
(9) Regarding the PQ (i) stored by the collation data generation / holding unit, all PQ (i) are set so that the maximum size of PQ (i) is 1 among all PQ (i). Of the components (x component, y component, and z component) of PQ (i) are uniformly multiplied by a constant and newly defined as PQ (i), and stored. It is good also as making it save. Note that among all PQ (i), the size of PQ (i) having the largest size is set to 1, and the average value of the sizes of all PQ (i) may be set to 1. By these normalizations, when the two image data to be compared indicate the same object and are in a scaled relationship with each other, it can be determined that they are the same or similar.
(10) The collation unit of the image collation device performs collation processing such as fitting by using all the data used for collation as xy two-dimensional data, that is, data consisting of the x component and the y component ignoring the z component in the xyz three dimensional data. Is also good. In this case, a plurality of unit vectors S ′ are arranged on the xy two-dimensional plane, and the two matching target vectors are determined in accordance with the distribution state of the starting points of the plurality of unit vectors S ′ that are substantially in the same direction on the xy two-dimensional plane. It becomes possible to evaluate the similarity tendency of the images. It should be noted that the larger the number of starting points in the local range where the starting points of the unit vectors S ′ that go in approximately the same direction on the xy two-dimensional plane are most concentrated, the more similar the two images can be determined.
(11) The collation unit calculates the size of the angle formed by the direction of the unit vector S ′ in the partial area where the addition result of the unit vector S ′ is the largest when viewed from the direction of the vector S, and Alternatively, the degree to which the two images to be compared are angularly rotated may be output to a display device or the like. In addition, the collation unit records the maximum value Smax of the magnitude of the combined vector and the maximum number Snum of the vectors S ′ in the unit cube, which are the result of the addition of the vector S ′, in the evaluation value recording unit. May be output.
(12) The collating unit divides the xyz three-dimensional coordinate space into a three-dimensional array of unit cubes of a predetermined size, for example, each side has a length of 5, and in each unit cube, the unit cube Is performed to obtain a vector addition result of all the vectors S ′ (i, j) positioned at the position, i.e., a process of combining vectors is performed. Finally, the maximum value Smax of the magnitude of the combined vector obtained as the vector addition result is obtained. , The number Snum of the vectors S ′ (i, j) in the unit cube containing the largest number of the vectors S ′ (i, j), in order to identify the search target data acquired by the search target data acquisition unit 106. However, the unit cube here is not necessarily limited to a cube, and may be a predetermined size instead of a cube. May be the use of a sphere having a radius of no problem even be arranged such that each sphere overlap partially when arranged as a three-dimensional array in the same manner that each sphere and cube.
(13) In addition to the above-described image matching device, the data matching technology according to the present invention can be applied to matching between sets of three-dimensional data, and can be applied to three-dimensional map data and three-dimensionally measured object shapes. The present invention can also be applied to an application in which such data is compared with other similar data to determine similarity.
[0071]
If two three-dimensional data to be collated are in a rotational relationship with each other about a certain straight line, if the straight line is unpredictable and a plane perpendicular to the straight line can be assumed in advance. By treating a plane perpendicular to the straight line as an xy two-dimensional image plane in the case of image matching described in the embodiment, it is possible to appropriately determine similarity. For example, three-dimensional data A indicating the shape of a certain building alone and three-dimensional data B indicating the shape and positional relationship of a plurality of buildings in a section where a plurality of buildings including the building are built are described. If it is necessary to collate and determine whether or not the same or similar building as the three-dimensional data A is represented in the three-dimensional data B, the land surface is treated as an xy two-dimensional plane, By performing the same processing as the processing performed by the feature data generation unit of the image matching device by setting the height, which is the attribute value of the position, as the z coordinate, the determination can be performed in the same manner as the image matching device. become.
(14) A program for causing a computer to execute each process (see FIGS. 4 and 6) in the image matching device can be recorded on a recording medium or distributed and distributed via various communication paths. Such recording media include an IC card, an optical disk, a flexible disk, a ROM, and the like. The distributed and distributed programs are provided for use by being stored in a memory or the like that can be read by a computer, and the computer executes the programs to realize the functions of the image processing apparatus described in the present embodiment.
[0072]
【The invention's effect】
As is apparent from the above description, the data feature extraction device according to the present invention is a data feature extraction device that generates feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space. Three-dimensional data acquisition means for acquiring three-dimensional data, scanning means for sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the scanning means, the vicinity of the focused position Xyz three-dimensional coordinates of a three-dimensional position having x-coordinates and y-coordinates in the local region among the three-dimensional positions indicated by the three-dimensional data, for each of four or more predetermined numbers of local regions on the xy two-dimensional plane located in An average position in the space is obtained, and each of the average positions obtained for all the local regions is substantially the same in the xyz three-dimensional coordinate space. It is determined whether or not the information is present on the same plane, and only when the information is present on the substantially same plane, the information indicating the gradient of the plane with respect to the xy two-dimensional plane is associated with the information indicating the focused position. And feature information generating means for generating the feature information as one element of the feature information.
[0073]
This makes it possible to obtain feature information on three-dimensional data that can be used for matching between three-dimensional data. When the three-dimensional data are collated with each other based on the obtained feature information, the three-dimensional data representing the same object has a similarity to some extent in a rotating relationship about a straight line perpendicular to the xy two-dimensional plane. It can be determined to be high.
[0074]
Here, the three-dimensional data is image data indicating a position on the xy two-dimensional plane and a luminance value of each pixel arranged on the xy two-dimensional plane, and the three-dimensional position is a luminance value of the pixel. And the x-coordinate and y-coordinate of the position of the pixel on the xy two-dimensional plane, and the scanning unit is provided with a pixel corresponding to the image data on the xy two-dimensional plane. Focusing on each position in the region in which the scanning unit is located, the feature information generating unit determines, for each of a plurality of local regions on the xy two-dimensional plane of at least four located around the position noted by the scanning unit, The average position on the xy two-dimensional plane and the average value of the luminance values of all the pixels arranged at positions on the xy two-dimensional plane having the x-coordinate and the y-coordinate within the above-mentioned xyz3 It is determined as an average position in the original coordinate space, and it is determined whether or not all the average positions obtained for all the local regions are present on substantially the same plane in the xyz three-dimensional coordinate space. Only when the information exists, information associating information indicating the gradient of the plane with respect to the xy two-dimensional plane and information indicating the focused position may be generated as one element of the feature information.
[0075]
As a result, since the feature information is generated by extracting the features of only the local region having a flat luminance distribution, the influence of the positional reference of the sampling, the rotation processing of the image data, and the like in the digital image data generation stage. Since it does not appear in the feature information, the use of this feature information makes it possible to appropriately perform the matching of the two image data in a rotational relationship to some extent.
[0076]
In addition, the data feature extraction device further includes a line drawing data acquisition unit that acquires binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane; Binary image scanning means for sequentially focusing on each position on an xy two-dimensional plane in which pixels relating to the value image data are arranged; and a binary image scanning means which is included in an area of a predetermined size centered on the position focused by the binary image scanning means. Among the pixels related to the binary image data, the attribute value is determined such that the attribute value decreases as the number of pixels for which the binary data indicates the first value increases as the number increases. Attribute value determining means for associating a position with the attribute value, and each set of the position on the xy two-dimensional plane and the attribute value associated by the attribute value determining means as the three-dimensional data. A transmission unit for transmitting the data to the original data acquisition unit, wherein the three-dimensional position is indicated by an x-coordinate and a y-coordinate of each position constituting the three-dimensional data, and a z-coordinate which is an attribute value corresponding to the position. It is good also as being something.
[0077]
Thus, since the line density is an attribute value for each position on the xy two-dimensional plane, the obtained feature information is used to compare the binary image data representing the line image with other image data. Even when the line is partially interrupted to form a broken line, the similarity of the image data can be determined appropriately.
Further, the three-dimensional data is image data indicating a position and an attribute value of each pixel arranged on the xy two-dimensional plane on the xy two-dimensional plane, and the three-dimensional position is an attribute value of the pixel. It is indicated by a certain z-coordinate and an x-coordinate and a y-coordinate of a position of the pixel on an xy two-dimensional plane, and the scanning unit is provided with a pixel related to the image data on an xy two-dimensional plane. Focusing sequentially on each position in the area, the feature information generating means uses the position as a reference within a certain range of the area on the xy two-dimensional plane centered on the position noted by the scanning means, Average value z1 of each attribute value corresponding to the first local area between the negative direction of x and the negative direction of y, and corresponding to the second local area between the positive direction of x and the negative direction of y Average of each attribute value z2, the average value z3 of each attribute value corresponding to the third local region between the negative direction of x and the positive direction of y, and the fourth locality between the positive direction of x and the positive direction of y. Each of the average positions is obtained by obtaining an average value z4 of each attribute value corresponding to the region. When the value of the expression | z1-z2-z3 + z4 | is equal to or less than a predetermined value d1, all the local regions are obtained. It is determined that each of the obtained average positions is substantially on the same plane in the xyz three-dimensional coordinate space, and information indicating a gradient of the plane with respect to the xy two-dimensional plane is associated with information indicating the focused position. The attached information may be generated as one element of the feature information.
[0078]
Accordingly, in image data or the like in which pixels are arranged in a two-dimensional array on an xy two-dimensional plane, the inclination of the luminance value with respect to the xy two-dimensional data plane when the luminance value of the pixel is set to the z-coordinate is defined by the x and y directions It is possible to easily determine whether or not the distribution of the luminance values serving as the basis for calculating the gradient of the luminance value when the characteristic information of the image data is used as the characteristic information of the image data is planar. . In the case where the average luminances z1 to z4 of the regions R1 to R4 shown in the embodiment are in a planar relationship, the spatial gradient of the luminance of the scanning point is obtained based on these z1 to z4 as a basis for calculation to indicate the feature of the image. If a method of treating as image information is used, for example, for each of two image data obtained by imaging the same object by rotating a camera so as to have a relationship rotated by 90 degrees with respect to each other, the image data of the two When the information indicating the feature is obtained, the information indicating the feature of each image becomes the same.
[0079]
Further, the area of the certain range according to the feature information generating means is a circular area having a constant radius centered on a position focused by the scanning means, and the feature information generating means is further focused by the scanning means. Are rotated by a predetermined angle around the reference position and correspond to the first to fourth regions after the rotation. An average value z1 ′, z2 ′, z3 ′ and z4 ′ of each attribute value is obtained, and the feature information generating means determines that the value of the mathematical expression | z1-z2-z3 + z4 | is equal to or less than a predetermined value d1, In addition, when the value of the expression | z1'-z2'-z3 '+ z4' | is equal to or smaller than a predetermined value d1, each of the average positions obtained for all the local regions is in the xyz three-dimensional coordinate space. Almost on the same plane It determines that that, those associated with information indicating the information and the focus position indicating a gradient with respect to the xy2 dimensional plane of the plane may be generated as a component of the characteristic information.
[0080]
As a result, the same feature information indicating the features of the two pieces of image data representing the same object in a relationship rotated by an angle other than 90 degrees may be the same.
Further, the feature information generating means further associates information indicating the gradient with information indicating the focused position only when the gradient of the plane with respect to the xy two-dimensional plane is equal to or more than a predetermined amount. , May be generated as one element of the feature information.
[0081]
As a result, since only points having a certain amount of change in luminance are extracted as features of image data, the number of data used for collation can be effectively reduced, and the calculation time required for collation can be reduced.
Further, when all of the average positions obtained for all the local regions are substantially on the same plane, the feature information generation unit converts the mathematical expression representing the plane into a × x + by × y + cz × d ( a, b, c, and d are constant values), a vector V on an xy two-dimensional plane having -a / c and -b / c as x and y components, respectively, is obtained, and the magnitude of the vector V is set to 1 May be specified as information indicating the gradient relating to the plane.
[0082]
By such normalization, information indicating the characteristics of three-dimensional data such as multi-tone image data is not affected by whether the range of attribute values corresponding to the z-coordinate such as luminance is narrow or wide. It can be used for general purposes.
Further, when all of the average positions obtained for all of the local regions are substantially on the same plane, the feature information generating unit generates a vector V on an xy two-dimensional plane indicating the gradient of the plane. Identifying, specifying the vector V as information indicating the gradient related to the plane, and generating, as one element of the feature information, a correspondence between the vector V and the information indicating the focused position; The data feature extraction device further determines a unit vector S starting from one position Q on the xyz three-dimensional coordinate space and heading in one direction, and sets each unit vector S associated with each vector V generated by the feature information generation unit. With respect to the information, a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space is determined based on the focused position related to the information, and the vector V and the vector PQ are determined. Matching data for generating information indicating a plurality of sets of torque PQs and a unit vector S as matching data for use in matching the three-dimensional data acquired by the three-dimensional data acquiring means with other three-dimensional data. It may include a generation unit.
[0083]
As a result, data that can be directly used for collation is generated.
Further, the collation data generating means uniformly multiplies the magnitude of each vector PQ by a constant so that the magnitude of the largest vector PQ among the plurality of sets of vectors PQ becomes 1. Information indicating each vector PQ, each vector V, and the unit vector S obtained as a result of multiplication by a constant may be generated as the comparison data.
[0084]
According to the data generated in this way, it is possible to appropriately determine when two data to be collated indicate the same target and are in a relation of enlargement / reduction.
Further, a data collation device according to the present invention is a data collation device for collating three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and is a first device for acquiring first three-dimensional data. Three-dimensional data acquisition means, first scanning means for sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the first scanning means, it is located around the focused position. Xyz three-dimensional coordinates of a predetermined number of four or more local regions on the xy two-dimensional plane, among three-dimensional positions indicated by the first three-dimensional data, three-dimensional positions having x and y coordinates in the local region An average position in the space is determined, and whether or not each of the average positions determined for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space; The determination is made, and the vector V on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified only when the plane V exists on the substantially same plane, and the vector V and the information indicating the focused position are determined. A first feature information generating unit to be associated, and a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and heading in one direction are determined and associated with each vector V specified by the first feature information generating unit. For each piece of information obtained, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is determined based on a focused position related to the information, and a plurality of sets of the vector V and the vector PQ and a unit vector S are shown. Matching data generating means for generating matching data; second three-dimensional data obtaining means for obtaining second three-dimensional data; A second scanning means for sequentially focusing on each of the above positions, and a predetermined number of four or more xy two-dimensional planes located around the focused position each time one position is focused on by the second scanning means For each of the local regions in, among the three-dimensional positions indicated by the second three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region is determined. It is determined whether or not each of the average positions obtained for the local area is substantially on the same plane in the xyz three-dimensional coordinate space. Only when the average positions are on substantially the same plane, the xy2 dimension of the plane is determined. A second feature information generating unit that specifies a vector V ′ on an xy two-dimensional plane indicating a gradient with respect to the plane and associates the vector V ′ with information indicating the focused position; By sequentially applying each vector V in the matching data to each vector V ′ specified by the second feature information generating means, the azimuth relationship between the vector V ′ and the new unit vector S ′ becomes a vector. Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V applied to V ′ and the unit vector S, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, It is characterized by comprising a matching means for determining a similar tendency between the first three-dimensional data and the second three-dimensional data.
[0085]
This makes it possible to appropriately collate the three-dimensional data having a rotational relationship.
Here, the matching unit may perform the fitting of each vector V to each vector V ′ only when the difference between the magnitude of the vector V ′ and the magnitude of the vector V is less than a predetermined value. Good.
[0086]
Thereby, the matching can be performed more accurately.
Further, the data collation device further includes a cube region where the starting point of the unit vector S ′ determined by the collation unit is the largest among the cube regions when the xyz three-dimensional coordinate space is divided into cube regions of a predetermined size. In addition, a recording unit that records the number of unit vectors S ′ including the starting point on a recording medium may be provided.
[0087]
As a result, the similarity between the data to be collated can be represented by numerical values. Therefore, it is possible to specify the data having the highest similarity.
Further, when the xyz three-dimensional coordinate space is divided into cubic regions having a predetermined size, the data collating device further synthesizes all unit vectors S ′ including the starting point in the cubic region for each cubic region. It is also possible to provide a recording means for obtaining the magnitude of the obtained combined vector and recording the maximum value of the obtained combined vector magnitudes on a recording medium.
[0088]
As a result, an index that can evaluate the similarity between data with a relatively high degree of accuracy can be obtained.
Further, instead of the collation data generating means, a unit vector S starting from one position Q on the xy two-dimensional plane and heading in one direction is determined, and each vector V specified by the first characteristic information generating means is determined. For each piece of associated information, a vector PQ indicating a relative positional relationship of the position Q on the xy two-dimensional plane is determined based on the x coordinate and the y coordinate of the focused position related to the information, and a plurality of sets of the vector V and the vector PQ are determined. And a two-dimensional collation data generating unit for generating collation data indicating the unit vector S and the unit vector S. In place of the collation unit, the collation is performed on each vector V ′ specified by the second feature information generation unit. Vector V in the application data is sequentially applied, so that the azimuth relationship between the vector V ′ and the new unit vector S ′ is a vector obtained by applying the vector V ′. Each unit vector S ′ is determined so as to have the same azimuthal relationship between V and the unit vector S, and the first three-dimensional data and the first three-dimensional data are determined according to the distribution state of all the determined unit vectors S ′ in the xy two-dimensional plane. The image processing apparatus may further include a two-dimensional matching unit that determines a similar tendency with the second three-dimensional data.
[0089]
This makes it possible to easily perform a rough collation.
Further, the data collation device further includes a line drawing data acquisition unit that acquires binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane; Binary image scanning means for sequentially focusing on each position on an xy two-dimensional plane in which pixels related to image data are arranged, and a binary image scanning means which is included in a region of a predetermined size centered on the position focused by the binary image scanning means. Among the pixels related to the binary image data, the attribute value is determined such that the attribute value decreases as the number of pixels for which the binary data indicates the first value increases, and Attribute value determining means for associating the attribute value with the attribute value, and each set of the position on the xy two-dimensional plane and the attribute value associated by the attribute value determining means as the three-dimensional data, Transmission means for transmitting the three-dimensional data to the three-dimensional data acquisition means, wherein the three-dimensional position is indicated by an x coordinate and a y coordinate of each position constituting the three-dimensional data and a z coordinate which is an attribute value corresponding to the position. It is good also as being something.
[0090]
Thus, for example, when collating image data generated by scanning a line drawing representing the outline of an object by hand on paper with a scanner, and image data obtained by imaging the same object with a digital camera Even when a line drawn as a solid line becomes a broken line in the process of being scanned by the scanner, it is appropriate that the similarity between the two image data is higher than when the conventional image matching technology is applied. Is more likely to be determined.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an image matching device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a relationship between a line drawing portion and a first scanning point in search reference data.
FIG. 3 is a diagram illustrating an example of a relationship between a second scanning point used in a feature extraction process and each of first to fourth quadrants;
FIG. 4 is a flowchart illustrating a first process of acquiring search reference data and generating the matching data;
FIG. 5 is a diagram exemplifying V (i) and P (i) generated by a feature data generating unit 103, and a point Q and a vector S defined by a matching data generation and holding unit 105;
FIG. 6 is a flowchart showing a second process of identifying the data to be searched and comparing the search reference data with the data to be searched using the data for matching.
FIG. 7 shows V (i), PQ (i) and V (i) held by the matching data generation and holding unit 105 for each set of V ′ (j) and P ′ (j) generated by the feature data generating unit 109; FIG. 11 is a diagram illustrating a state where a unit vector S ′ (i, j) is determined by applying the relationship of S;
[Explanation of symbols]
100 Image collation device
101 Search criteria data acquisition unit
102 luminance level determination unit
103 Feature Data Generation Unit
104 Range Limiter
105 collation data generation / holding unit
106 Searched Data Acquisition Unit
107 Line drawing unit
108 brightness level determination unit
109 Feature Data Generator
110 collation unit
111 Evaluation value recording section

Claims (21)

xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、
3次元データを取得する3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する走査手段と、
前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備える
ことを特徴とするデータ特徴抽出装置。
What is claimed is: 1. A data feature extraction device for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
Three-dimensional data acquisition means for acquiring three-dimensional data;
scanning means for sequentially focusing on each position on an xy two-dimensional plane;
Each time one position is noted by the scanning means, for each of four or more predetermined number of local regions on an xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region is determined, and each average determined for all the local regions is obtained. It is determined whether or not all the positions are substantially on the same plane in the xyz three-dimensional coordinate space. Only when the positions are substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and the attention A feature information generating unit configured to generate, as one element of the feature information, a piece associated with the information indicating the designated position.
前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と輝度値とを示す画像データであり、
前記3次元位置は、前記画素についての輝度値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、
前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、
前記特徴情報生成手段は、前記走査手段により着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、当該局所領域内にx座標及びy座標を有するxy2次元平面上の位置に配された画素全てについてのxy2次元平面上の平均的位置と輝度値の平均値とを前記xyz3次元座標空間における平均的位置として求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The three-dimensional data is image data indicating a position on the xy two-dimensional plane and a luminance value for each pixel arranged on the xy two-dimensional plane,
The three-dimensional position is indicated by a z-coordinate which is a luminance value of the pixel, and an x-coordinate and a y-coordinate of a position of the pixel on an xy two-dimensional plane,
The scanning unit sequentially focuses on each position in a region on the xy two-dimensional plane where the pixel related to the image data is arranged,
The feature information generating means includes, for each of four or more predetermined local areas on the xy two-dimensional plane located around the position noted by the scanning means, an xy two-dimensional image having x and y coordinates in the local area. The average position on the xy two-dimensional plane and the average value of the luminance values of all the pixels arranged at the positions on the plane are determined as the average positions in the xyz three-dimensional coordinate space, and the respective averages determined for all the local regions are obtained. It is determined whether or not the target positions are substantially on the same plane in the xyz three-dimensional coordinate space. Only when the target positions are substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane is provided. 2. The data according to claim 1, wherein the information associated with the information indicating the focused position is generated as one element of the characteristic information. Feature extraction apparatus.
前記データ特徴抽出装置は更に、
xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、
前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、
前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、
前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記3次元データ取得手段に伝える伝達手段とを備え、
前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものである
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The data feature extraction device further comprises:
a line drawing data acquisition unit for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane;
A binary image scanning means for sequentially focusing on each position on an xy two-dimensional plane where pixels related to the binary image data are arranged;
Among the pixels related to the binary image data included in a region of a predetermined size centered on the position noted by the binary image scanning unit, the pixel whose binary data indicates the first value for the pixel Attribute value determining means for determining an attribute value so that the attribute value becomes lower as the number increases, and associating the noted position with the attribute value;
Transmitting means for transmitting each set of the position on the xy two-dimensional plane and the attribute value associated with the attribute value determining means to the three-dimensional data acquisition means as the three-dimensional data;
The said three-dimensional position is shown by the x coordinate and y coordinate of each position which comprises the said three-dimensional data, and the z coordinate which is an attribute value corresponding to the said position, The characterized by the above-mentioned. Data feature extraction device.
前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と属性値とを示す画像データであり、
前記3次元位置は、前記画素についての属性値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、
前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、
前記特徴情報生成手段は、
前記走査手段により着目された位置を中心としたxy2次元平面上の一定範囲の領域内において当該位置を基準として、当該基準から、xの負方向とyの負方向との間の第1の局所領域に対応する各属性値の平均値z1と、xの正方向とyの負方向との間の第2の局所領域に対応する各属性値の平均値z2と、xの負方向とyの正方向との間の第3の局所領域に対応する各属性値の平均値z3と、xの正方向とyの正方向との間の第4の局所領域に対応する各属性値の平均値z4とを求めることによって前記各平均的位置を求め、数式|z1−z2−z3+z4|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The three-dimensional data is image data indicating a position on the xy two-dimensional plane and an attribute value for each pixel arranged on the xy two-dimensional plane,
The three-dimensional position is indicated by a z-coordinate which is an attribute value of the pixel, and an x-coordinate and a y-coordinate of a position of the pixel on an xy two-dimensional plane,
The scanning unit sequentially focuses on each position in a region on the xy two-dimensional plane where the pixel related to the image data is arranged,
The feature information generating means includes:
A first locality between a negative direction of x and a negative direction of y from the reference with respect to the position within a certain range on an xy two-dimensional plane centered on the position focused by the scanning unit. Average value z1 of each attribute value corresponding to the area, average value z2 of each attribute value corresponding to the second local area between the positive direction of x and the negative direction of y, and the negative value of x and y Average value z3 of each attribute value corresponding to the third local region between the positive direction and average value of each attribute value corresponding to the fourth local region between the positive direction of x and the positive direction of y z4 and the respective average positions are determined. When the value of the expression | z1-z2-z3 + z4 | is equal to or less than a predetermined value d1, each of the average positions determined for all of the local regions is determined. It is determined that they are substantially on the same plane in the xyz three-dimensional coordinate space, 2. The data feature extraction according to claim 1, wherein information indicating a gradient of the plane with respect to the xy two-dimensional plane and information indicating a focused position are generated as one element of the feature information. apparatus.
前記特徴情報生成手段に係る前記一定範囲の領域は、前記走査手段により着目された位置を中心とした一定半径の円形領域であり、
前記特徴情報生成手段は更に、前記走査手段により着目された位置を基準として定めた第1から第4までの各領域を、当該基準の位置を中心として所定の角度だけ回転させて、その回転後の第1から第4までの各領域内に対応する各属性値の平均値z1’、z2’、z3’及びz4’を求め、
前記特徴情報生成手段は、前記数式|z1−z2−z3+z4|の値が所定値d1以下となる場合であって、かつ、前記数式|z1’−z2’−z3’+z4’|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項4記載のデータ特徴抽出装置。
The area of the certain range according to the feature information generating means is a circular area of a certain radius centered on the position noted by the scanning means,
The feature information generating unit further rotates each of the first to fourth regions defined based on the position focused by the scanning unit by a predetermined angle around the reference position, and after the rotation, Average values z1 ′, z2 ′, z3 ′ and z4 ′ of the respective attribute values corresponding to the first to fourth regions of
The characteristic information generating means is configured to determine that the value of the expression | z1-z2-z3 + z4 | is equal to or less than a predetermined value d1, and that the value of the expression | z1'-z2'-z3 '+ z4' | When the value is equal to or less than the value d1, it is determined that each of the average positions obtained for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space, and the gradient of the plane with respect to the xy two-dimensional plane is determined. 5. The data feature extraction device according to claim 4, wherein information that indicates the indicated information and the information indicating the focused position is generated as one element of the feature information.
前記特徴情報生成手段は更に、前記平面の前記xy2次元平面に対する勾配が所定量以上である場合に限り、当該勾配を示す情報と前記着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項5記載のデータ特徴抽出装置。
The feature information generating means further associates information indicating the gradient with information indicating the focused position only when the gradient of the plane with respect to the xy two-dimensional plane is equal to or greater than a predetermined amount, The data feature extraction device according to claim 5, wherein the data feature is generated as one element of the feature information.
前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面を表す数式をa・x+b・y+c・z=d(a、b、c及びdは定数値)とすれば−a/c及び−b/cをそれぞれx成分及びy成分とするxy2次元平面上のベクトルVを求め、当該ベクトルVの大きさを1として得られる単位ベクトルを、当該平面に係る前記勾配を示す情報として特定する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The characteristic information generating means, when all the average positions obtained for all the local regions are substantially on the same plane, calculates a mathematical expression representing the plane as a · x + by · y + cz · d = (a, (b, c, and d are constant values), a vector V on an xy two-dimensional plane having -a / c and -b / c as x and y components, respectively, is obtained. 2. The data feature extraction device according to claim 1, wherein the unit vector specified is specified as information indicating the gradient related to the plane.
前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面に係る前記勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVを、当該平面に係る前記勾配を示す情報として特定し、当該ベクトルVと前記着目された位置を示す情報とを対応付けたものを前記特徴情報の1要素として生成し、
前記データ特徴抽出装置は更に、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記特徴情報生成手段により生成された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す情報を、前記3次元データ取得手段により取得された3次元データと他の3次元データとの照合に用いるための照合用データとして生成する照合用データ生成手段を備える
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The characteristic information generation means specifies a vector V on an xy two-dimensional plane indicating the gradient related to the plane when all the average positions obtained for all the local regions are substantially on the same plane. , Specifying the vector V as information indicating the gradient related to the plane, and generating a correspondence between the vector V and the information indicating the focused position as one element of the feature information,
The data feature extraction device further comprises:
A unit vector S heading in one direction starting from one position Q in the xyz three-dimensional coordinate space is determined, and attention is paid to each piece of information associated with each vector V generated by the feature information generating means. A vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space is determined with reference to the position, and information indicating a plurality of sets of the vector V and the vector PQ and the unit vector S is obtained by the three-dimensional data obtaining means. 2. The data feature extraction device according to claim 1, further comprising a comparison data generation unit that generates as comparison data for use in comparing the obtained three-dimensional data with other three-dimensional data.
前記照合用データ生成手段は、
前記複数組のベクトルPQのうちで大きさが最大のベクトルPQの当該大きさが1となるように、各ベクトルPQの大きさを一律に定数倍し、定数倍した結果得られた各ベクトルPQと各ベクトルVと前記前記単位ベクトルSとを示す情報を前記照合用データとして生成する
ことを特徴とする請求項8記載のデータ特徴抽出装置。
The collation data generation means,
Of the plurality of sets of vectors PQ, the magnitude of each vector PQ is uniformly multiplied by a constant so that the magnitude of the vector PQ having the largest magnitude becomes 1, and each vector PQ obtained by multiplying the magnitude by a constant is obtained. 9. The data feature extracting apparatus according to claim 8, wherein information indicating each of the vector V and the unit vector S is generated as the comparison data.
xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、
第1の3次元データを取得する第1の3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する第1走査手段と、
前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、
第2の3次元データを取得する第2の3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する第2走査手段と、
前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、
前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備える
ことを特徴とするデータ照合装置。
A data collation device for collating three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
First three-dimensional data acquisition means for acquiring first three-dimensional data;
first scanning means for sequentially focusing on each position on an xy two-dimensional plane,
Each time one position is noted by the first scanning means, for each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the first three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. Only when they are on substantially the same plane, xy2 indicating the gradient of the plane with respect to the xy2D plane is determined. First feature information generating means for specifying a vector V on a two-dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S heading in one direction starting from one position Q in the xyz three-dimensional coordinate space is determined, and each piece of information associated with each vector V specified by the first feature information generating means is related to the information. Matching data for determining a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space based on the focused position and generating matching data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generating means;
Second three-dimensional data acquisition means for acquiring second three-dimensional data;
second scanning means for sequentially focusing on each position on the xy two-dimensional plane,
Every time one position is noted by the second scanning means, for each of a predetermined number of four or more local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the second three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. Only when they are on substantially the same plane, xy2 indicating the gradient of the plane with respect to the xy2D plane is determined. A second feature information generating unit that specifies a vector V ′ on a two-dimensional plane and associates the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the matching data to each vector V ′ specified by the second feature information generating means, the azimuth relationship between the vector V ′ and the new unit vector S ′ becomes vector V ′, Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V applied to ′ and the unit vector S, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, A data collation device comprising: a collation unit configured to determine a similarity tendency between the first three-dimensional data and the second three-dimensional data.
前記照合手段は、各ベクトルV’に対する各ベクトルVの前記当てはめを、当該ベクトルV’の大きさと当該ベクトルVの大きさとの差が所定値未満であるものに限って行う
ことを特徴とする請求項10記載のデータ照合装置。
The said matching means performs the said fitting of each vector V with respect to each vector V 'only when the difference of the magnitude | size of the said vector V' and the magnitude | size of the said vector V is less than a predetermined value. Item 11. The data collation device according to Item 10.
前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域のうち前記照合手段により定められた単位ベクトルS’の起点が最も多く含まれる立方体領域に、起点が含まれている単位ベクトルS’の個数を記録媒体に記録する記録手段を備える
ことを特徴とする請求項10記載のデータ照合装置。
In the case where the xyz three-dimensional coordinate space is divided into cubic regions of a predetermined size, the data collating device further includes, in each cubic region, a cubic region that includes the largest number of starting points of the unit vector S ′ determined by the collating unit, 11. The data collating apparatus according to claim 10, further comprising recording means for recording the number of unit vectors S 'including the starting point on a recording medium.
前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域について当該立方体領域に起点が含まれている全ての単位ベクトルS’を合成した結果として得られる合成ベクトルの大きさを求め、求められた全ての合成ベクトルの大きさのうち最大値を記録媒体に記録する記録手段を備える
ことを特徴とする請求項10記載のデータ照合装置。
In the case where the xyz three-dimensional coordinate space is divided into cubic regions of a predetermined size, the data matching device is obtained as a result of synthesizing all the unit vectors S ′ including the starting point in the cubic region for each cubic region. 11. The data collating apparatus according to claim 10, further comprising a recording unit that obtains the magnitude of the combined vector and records the maximum value of the obtained combined vector magnitudes on a recording medium.
請求項10記載のデータ照合装置であって、
前記照合用データ生成手段に代えて、
xy2次元平面上における一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置のx座標及びy座標を基準として位置Qのxy2次元平面における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する2次元照合用データ生成手段を備え、
前記照合手段に代えて、
前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxy2次元平面における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する2次元照合手段とを備える
ことを特徴とするデータ照合装置。
The data collation device according to claim 10,
Instead of the collation data generating means,
A unit vector S heading in one direction starting from one position Q on the xy two-dimensional plane is determined, and attention is paid to each piece of information associated with each vector V specified by the first feature information generating means. A vector PQ indicating the relative positional relationship of the position Q on the xy two-dimensional plane is determined based on the x-coordinate and the y-coordinate of the determined position, and comparison data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S is generated. Two-dimensional collation data generation means,
Instead of the matching means,
By sequentially applying each vector V in the matching data to each vector V ′ specified by the second feature information generating means, the azimuth relationship between the vector V ′ and the new unit vector S ′ becomes vector V Are determined so as to be the same as the azimuth relationship between the vector V and the unit vector S applied to ′, and the first unit vector S ′ is determined according to the distribution state of all the determined unit vectors S ′ in the xy two-dimensional plane. A two-dimensional matching unit for determining a similarity tendency between the three-dimensional data and the second three-dimensional data.
前記データ照合装置は更に、
xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、
前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、
前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、
前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記第1の3次元データ取得手段に伝える伝達手段とを備え、
前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものである
ことを特徴とする請求項10記載のデータ照合装置。
The data collation device further comprises:
a line drawing data acquisition unit for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane;
A binary image scanning means for sequentially focusing on each position on an xy two-dimensional plane where pixels related to the binary image data are arranged;
Among the pixels related to the binary image data included in a region of a predetermined size centered on the position noted by the binary image scanning unit, the pixel whose binary data indicates the first value for the pixel Attribute value determining means for determining an attribute value so that the attribute value becomes lower as the number increases, and associating the noted position with the attribute value;
Transmitting means for transmitting each set of the position on the xy two-dimensional plane and the attribute value associated with the attribute value determining means to the first three-dimensional data acquiring means as the three-dimensional data;
The said three-dimensional position is shown by the x coordinate and y coordinate of each position which comprises the said three-dimensional data, and the z coordinate which is an attribute value corresponding to the said position, The characterized by the above-mentioned. Data collation device.
xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出方法であって、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とするデータ特徴抽出方法。
A data feature extraction method for generating feature information indicating features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
A three-dimensional data acquisition step of acquiring three-dimensional data;
a scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted by the scanning step, for each of four or more predetermined number of local areas on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region is determined, and each average determined for all the local regions is obtained. It is determined whether or not all the positions are substantially on the same plane in the xyz three-dimensional coordinate space. Only when the positions are substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and the attention A feature information generating step of generating, as an element of the feature information, a piece of information associated with the information indicating the designated position.
xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合方法であって、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とするデータ照合方法。
A data matching method for matching three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
A first three-dimensional data obtaining step of obtaining first three-dimensional data;
a first scanning step of sequentially focusing on each position on an xy two-dimensional plane;
Each time one position is noted in the first scanning step, for each of a predetermined number of four or more local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the first three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. Only when they are on substantially the same plane, xy2 indicating the gradient of the plane with respect to the xy2D plane is determined. A first feature information generating step of identifying a vector V on a two-dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S heading in one direction starting from one position Q in the xyz three-dimensional coordinate space is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Matching data for determining a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space based on the focused position and generating matching data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generating step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted in the second scanning step, the second three-dimensional data is obtained for each of four or more predetermined local areas on the xy two-dimensional plane located around the noted position. Among the three-dimensional positions shown, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region is obtained, and each of the average positions obtained for all the local regions is: It is determined whether or not the plane is substantially on the same plane in the xyz three-dimensional coordinate space. Only when the plane is substantially on the same plane, the vector V ′ on the xy2 plane showing the gradient of the plane with respect to the xy2 plane is determined. A second feature information generation step of identifying the vector V ′ and the information indicating the focused position,
By sequentially applying each vector V in the comparison data to each vector V ′ specified in the second feature information generation step, the azimuth relationship between the vector V ′ and the new unit vector S ′ is determined by the vector V ′, Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V applied to ′ and the unit vector S, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, A collating step of determining a similar tendency between the first three-dimensional data and the second three-dimensional data.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出処理を行わせるためのコンピュータプログラムであって、
前記データ特徴抽出処理は、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とするコンピュータプログラム。
A computer program for causing a computer to perform data feature extraction processing for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data feature extraction process includes:
A three-dimensional data acquisition step of acquiring three-dimensional data;
a scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted by the scanning step, for each of four or more predetermined number of local areas on the xy two-dimensional plane located around the noted position,
The average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region among the three-dimensional positions indicated by the three-dimensional data is obtained, and each average obtained for all the local regions is obtained. It is determined whether or not all the positions are substantially on the same plane in the xyz three-dimensional coordinate space. Only when the positions are substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and the attention A feature information generating step of generating, as one element of the feature information, a piece of information associated with the information indicating the designated position.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合に係るデータ照合処理を行わせるためのコンピュータプログラムであって、
前記データ照合処理は、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とするコンピュータプログラム。
A computer program for causing a computer to perform data collation processing relating to collation of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data collation processing includes:
A first three-dimensional data obtaining step of obtaining first three-dimensional data;
a first scanning step of sequentially focusing on each position on an xy two-dimensional plane;
Each time one position is noted in the first scanning step, for each of a predetermined number of four or more local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the first three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. Only when they are on substantially the same plane, xy2 indicating the gradient of the plane with respect to the xy2D plane is determined. A first feature information generating step of identifying a vector V on a two-dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S heading in one direction starting from one position Q in the xyz three-dimensional coordinate space is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Matching data for determining a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space based on the focused position and generating matching data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generating step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted in the second scanning step, for each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the second three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. A second feature information generating step of specifying a vector V ′ on a two-dimensional plane and associating the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the matching data to each vector V ′ specified in the second feature information generation step, the azimuth relationship between the vector V ′ and the new unit vector S ′ is determined by the vector V ′, Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V and the unit vector S applied to ′ ′, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, A computer program, comprising: a collation step of judging a similar tendency between the first three-dimensional data and the second three-dimensional data.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出処理を行わせるためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記データ特徴抽出処理は、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とする記録媒体。
A computer-readable storage medium storing a computer program for causing a computer to perform data feature extraction processing for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space. ,
The data feature extraction process includes:
A three-dimensional data acquisition step of acquiring three-dimensional data;
a scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted by the scanning step, for each of four or more predetermined number of local areas on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region is determined, and each average determined for all the local regions is obtained. It is determined whether or not all the positions are substantially on the same plane in the xyz three-dimensional coordinate space. Only when the positions are substantially on the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and the attention A feature information generating step of generating, as one element of the feature information, a piece associated with the information indicating the designated position.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合に係るデータ照合処理を行わせるためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記データ照合処理は、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とする記録媒体。
A computer-readable recording medium recording a computer program for causing a computer to perform a data matching process for matching three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data collation processing includes:
A first three-dimensional data obtaining step of obtaining first three-dimensional data;
a first scanning step of sequentially focusing on each position on an xy two-dimensional plane;
Each time one position is noted in the first scanning step, for each of a predetermined number of four or more local regions on the xy two-dimensional plane located around the noted position,
Among the three-dimensional positions indicated by the first three-dimensional data, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local region was determined, and the average position was determined for all the local regions. It is determined whether or not each of the average positions is substantially on the same plane in the xyz three-dimensional coordinate space. Only when they are on substantially the same plane, xy2 indicating the gradient of the plane with respect to the xy2D plane is determined. A first feature information generating step of identifying a vector V on a two-dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S heading in one direction starting from one position Q in the xyz three-dimensional coordinate space is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Matching data for determining a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space based on the focused position and generating matching data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generating step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step of sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noted in the second scanning step, the second three-dimensional data is obtained for each of four or more predetermined local areas on the xy two-dimensional plane located around the noted position. Among the three-dimensional positions shown, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region is obtained, and each of the average positions obtained for all the local regions is: It is determined whether or not the plane is substantially on the same plane in the xyz three-dimensional coordinate space. Only when the plane is substantially on the same plane, the vector V ′ on the xy2 plane showing the gradient of the plane with respect to the xy2 plane is determined. A second feature information generation step of identifying the vector V ′ and the information indicating the focused position,
By sequentially applying each vector V in the matching data to each vector V ′ specified in the second feature information generation step, the azimuth relationship between the vector V ′ and the new unit vector S ′ is determined by the vector V ′, Each unit vector S ′ is determined so as to have the same azimuthal relationship between the vector V and the unit vector S applied to ′ ′, and according to the distribution state of all the determined unit vectors S ′ in the xyz three-dimensional coordinate space, A collating step of judging a similar tendency between the first three-dimensional data and the second three-dimensional data.
JP2002262988A 2002-09-09 2002-09-09 Data feature extraction device and data collation device Expired - Fee Related JP3706603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002262988A JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002262988A JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Publications (2)

Publication Number Publication Date
JP2004102603A true JP2004102603A (en) 2004-04-02
JP3706603B2 JP3706603B2 (en) 2005-10-12

Family

ID=32262869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002262988A Expired - Fee Related JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Country Status (1)

Country Link
JP (1) JP3706603B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972660A (en) * 2022-08-01 2022-08-30 山东星绘时空智能科技有限公司 Real-scene three-dimensional graph verification and reality analysis system based on oblique photography
CN116531089A (en) * 2023-07-06 2023-08-04 中国人民解放军中部战区总医院 Image-enhancement-based blocking anesthesia ultrasonic guidance data processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851095B (en) * 2015-05-14 2017-12-26 江南大学 The sparse solid matching method of workpiece image based on modified Shape context

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972660A (en) * 2022-08-01 2022-08-30 山东星绘时空智能科技有限公司 Real-scene three-dimensional graph verification and reality analysis system based on oblique photography
CN114972660B (en) * 2022-08-01 2022-10-25 山东星绘时空智能科技有限公司 Real-scene three-dimensional graph verification and real analysis system based on oblique photography
CN116531089A (en) * 2023-07-06 2023-08-04 中国人民解放军中部战区总医院 Image-enhancement-based blocking anesthesia ultrasonic guidance data processing method
CN116531089B (en) * 2023-07-06 2023-10-20 中国人民解放军中部战区总医院 Image-enhancement-based blocking anesthesia ultrasonic guidance data processing method

Also Published As

Publication number Publication date
JP3706603B2 (en) 2005-10-12

Similar Documents

Publication Publication Date Title
JP5261501B2 (en) Permanent visual scene and object recognition
CN106529573A (en) Real-time object detection method based on combination of three-dimensional point cloud segmentation and local feature matching
US11704357B2 (en) Shape-based graphics search
JP2012043308A (en) Position and attitude determination method, position and attitude determination device, object model generation method, object model generation device and program
Fehr et al. Covariance based point cloud descriptors for object detection and recognition
JP4772819B2 (en) Image search apparatus and image search method
US11386145B2 (en) Incremental agglomerative clustering of digital images
JP6880618B2 (en) Image processing program, image processing device, and image processing method
EP2954457A1 (en) System and method for identifying similarities in different images
JP2002288687A (en) Device and method for calculating feature amount
WO2019228471A1 (en) Fingerprint recognition method and device, and computer-readable storage medium
US20150269778A1 (en) Identification device, identification method, and computer program product
JP5647072B2 (en) Subject recognition apparatus, subject recognition method, and subject recognition program
CN102629325A (en) Image characteristic extraction method, device thereof, image copy detection method and system thereof
JP2013101423A (en) Image matching device and image matching program
JP4570995B2 (en) MATCHING METHOD, MATCHING DEVICE, AND PROGRAM
JP3706603B2 (en) Data feature extraction device and data collation device
CN112348069B (en) Data enhancement method, device, computer readable storage medium and terminal equipment
JP6278757B2 (en) Feature value generation device, feature value generation method, and program
KR101878668B1 (en) A Method for Artwork Identification in 360-degree Panoramic Images
Li et al. Analysis of range images used in 3D facial expression recognition systems
JP2004178210A (en) Image processing method, image recognition method, and program for performing the method by computer
CN114842543B (en) Three-dimensional face recognition method and device, electronic equipment and storage medium
JP2019070898A (en) Estimation program, estimation device and estimation method
Pang An Improved Surf Algorithm Image Feature Point Extraction Based on Hadoop Cluster

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees