JP3706603B2 - Data feature extraction device and data collation device - Google Patents

Data feature extraction device and data collation device Download PDF

Info

Publication number
JP3706603B2
JP3706603B2 JP2002262988A JP2002262988A JP3706603B2 JP 3706603 B2 JP3706603 B2 JP 3706603B2 JP 2002262988 A JP2002262988 A JP 2002262988A JP 2002262988 A JP2002262988 A JP 2002262988A JP 3706603 B2 JP3706603 B2 JP 3706603B2
Authority
JP
Japan
Prior art keywords
dimensional
data
vector
plane
xyz
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002262988A
Other languages
Japanese (ja)
Other versions
JP2004102603A (en
Inventor
政夫 平本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2002262988A priority Critical patent/JP3706603B2/en
Publication of JP2004102603A publication Critical patent/JP2004102603A/en
Application granted granted Critical
Publication of JP3706603B2 publication Critical patent/JP3706603B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像データ等のデータ同士を照合するデータ照合技術に関する。
【0002】
【従来の技術】
近年、ハードウェア技術やソフトウェア技術の著しい発展を背景として、撮像により得られた画像データが情報処理対象として幅広く利用されるようになってきた。
例えば、画像データが相当量集められ一括管理された画像データベースが医療用、オフィス業務用、学術研究用、監視用その他の様々な用途に利用されており、また、物や人物を撮像して予め登録されている物や人物か否かを判定する画像認識技術の研究・開発も盛んに進められている。
【0003】
ところで、撮像により得られた画像データを集積した画像データベースから特定の物等が写っている画像データを検索する場合等、ある画像データに特定の物等が写っているか否かを判定する必要がある場合には、そのある画像データと、その特定の物等を線画や多階調画像等で示したデータとを比較する方法を用いることができる。
【0004】
この2つのデータを比較する従来の画像データ照合技術として、例えば、一般化ハフ変換やその変換を高速化した高速一般化ハフ変換を利用した方法がある。
以下、この方法の概要を説明する。
検索を行う者は、検索を望む特定の物等を線画として紙に描き、その線画をイメージスキャナ等を通じて2値画像データとしてコンピュータに入力する。コンピュータはその線画の画像データを高速一般化ハフ変換してテンプレートデータを生成しておき、画像データベース中の検索対象となる多階調の画像データに基づき画像の空間微分処理によって輪郭を抽出して検索対象2値画像データを生成し、高速一般化ハフ変換を利用してテンプレートデータを検索対象2値画像データに対して投票する処理を行い、画像内のある地点への投票数が閾値以上となる地点があればその地点に特定の物等に相当する画像が写っていると判定する。この一般化ハフ変換及び高速一般化ハフ変換に関しては、例えば、非特許文献1に示されている。
【0005】
なお、他の画像データ照合技術として、各画像データをウェーブレット分解して特定の照合用データを作成しておいて両画像データの照合を行う、本願発明者による先行発明に係る画像データ照合技術がある(特許文献1参照)。
これらの各種画像データ照合技術には、それぞれに固有の長所や短所がある。
【0006】
【非特許文献1】
木村彰男他著、高速一般化ハフ変換−相似変換不変な任意図形検出法、「電子情報通信学会論文誌(D−2)」、1998年4月、J81−D−2巻、4号、p.726−734
【0007】
【特許文献1】
特開2001−283221号公報
【0008】
【発明が解決しようとする課題】
本発明は、同一の物、人、景色等の対象を撮像又は表現して得られた2つのデータに、その対象が相対的に回転して含まれている場合においても、両データが同一対象に係るものであると判定し得るデータ照合技術であって、従来と異なる方式を用いた新たなデータ照合技術を提供することを目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明に係るデータ特徴抽出装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、3次元データを取得する3次元データ取得手段と、xy2次元平面上における各位置に順次着目する走査手段と、前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備えることを特徴とする。
【0010】
また、本発明に係るデータ特徴抽出方法は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出方法であって、3次元データを取得する3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する走査ステップと、前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含むことを特徴とする。
【0011】
ここで、ほぼ同一平面上に存在とは、ある平面から所定値以下の距離で存在しているということを意味する。
これにより、3次元データ同士の照合に用いることのできる、3次元データについての特徴情報を得ることができる。この得られる特徴情報によって3次元データ同士を照合した場合には、xy2次元平面に垂直な直線を軸として回転した関係にあり、同じ対象物を表した3次元データ同士をある程度適切に類似傾向が高いものと判定することができるようになる。
【0012】
また、本発明に係るデータ照合装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、第1の3次元データを取得する第1の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第1走査手段と、前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、第2の3次元データを取得する第2の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第2走査手段と、前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備えることを特徴とする。
【0013】
また、本発明に係るデータ照合方法は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合方法であって、第1の3次元データを取得する第1の3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する第1走査ステップと、前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、第2の3次元データを取得する第2の3次元データ取得ステップと、xy2次元平面上における各位置に順次着目する第2走査ステップと、前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含むことを特徴とする。
【0014】
これにより、回転関係にある3次元データ同士を適切に照合できるようになる。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態に係る画像照合装置について図1〜図7を用いて説明する。
<1.構成>
図1は、本発明の実施の形態に係る画像照合装置の機能ブロック図である。
【0016】
画像照合装置100は、画像データベースから特定の画像データを検索する画像検索システム等において用いられ、2つの画像データを照合する機能を有する装置である。ここで、画像検索システムは、撮像により形成された多階調の2次元画像データ(以下、「被検索データ」という。)の集合である画像データベースから、物、人、景色等の対象が手書きで描かれた線画をスキャナ等を用いてデジタル化して得られた線画の2次元画像データ(以下、「検索基準データ」という。)と同一対象を撮像したものである被検索データを検索する機能を有するシステムである。
【0017】
この画像照合装置100は、コンピュータの一機能として実現され、図1に示すように、検索基準データ取得部101、輝度レベル決定部102、特徴データ生成部103、範囲限定部104、照合用データ生成保持部105、被検索データ取得部106、線画化部107、輝度レベル決定部108、特徴データ生成部109、照合部110及び評価値記録部111を備える。この画像照合装置100を構成する各部の機能は、コンピュータのメモリに格納された制御用プログラムをCPUが実行することにより実現される。
【0018】
以下、この画像照合装置100を構成する各部について説明する。
<1-1.検索基準データ取得部101>
検索基準データ取得部101は、1つの線画データである検索基準データを処理対象として特定し輝度レベル決定部102に伝える機能を有する。この検索基準データは、検索を行う者が線画を手書きで紙に描いた後に、スキャナ等で各画素位置について描かれた線(点)が存在すれば1、線(点)が存在しなければ0というデータ値を与えて2値の2次元画像データ化して得られたものであり、例えば水平方向512画素、垂直方向512画素のデータである。
【0019】
<1-2.輝度レベル決定部102>
輝度レベル決定部102は、伝えられた検索基準データに基づき所定の輝度決定処理を行って、その検索基準データの各画素について多階調の輝度値を定めて、例えば256階調の多階調画像データを生成する機能を有する。
輝度決定処理は、検索基準データに係るxy2次元平面上の各画素位置を順次第1走査点とし、第1走査点を中心として、予め定められた一定半径r1の円形領域内の全画素位置のうち2値データ値が1である全ての画素位置の数に、つまりその円形領域内に描かれている線上又は点に相当する全ての画素位置の数に、およそ反比例した輝度値をその第1走査点についての輝度値と定めていく処理である。
【0020】
即ち、輝度決定処理は、検索基準データ上において第1走査点を動かしながら、第1走査点を中心とした一定半径r1の円形領域内におけるデータ値が1である全ての画素位置の数がkであったとしたときに、その第1走査点における輝度値Zを求める演算式を例えば次の数1であるとして輝度値を決定することにより、輝度値が0から255までの256階調の多階調画像データを生成する処理である。
【0021】
[数1] Z=255/(k+1)
なお、ここでは、例えば、円形領域の半径r1は10画素分等と、kが0から255以上の値まで変化し得るように円形領域の大きさを定めるものとし、また、数1において、Zは255/(k+1)の結果を四捨五入して得られる整数値であるものとする。
【0022】
実際上は、第1走査点が検索基準データの端にある場合にはその第1走査点を中心とした円形領域内の各位置のうち検索基準データの領域をはみだすものが現れるため、例えば、円形領域の半径r1が10画素分とした場合には、水平座標0〜511、垂直座標0〜511の各座標に画素の存在する検索基準データにおける水平座標10〜501、垂直座標10〜501の各座標位置を順次第1走査点として各第1走査点における輝度値を求め、各端から10画素分の範囲の画素位置については輝度値を求めない。
【0023】
走査により、第1走査点の座標は、(10,10)、(11,10)、(12,10)、・・・、(500,10)、(501,10)と水平方向に順に変化し、続いて(10,11)、(11,11)、(12,11)、・・・、(500,11)、(501,11)というように次の行についても同様に変化する。検索基準データ等の画像データに係るxy2次元平面は、x軸とy軸とで表される2次元平面であり、画像データを構成する全ての画素位置は、x座標及びy座標において整数値で表されるものとする。なお、各画素は点としての位置を有すると考え、水平方向或いは垂直方向に隣り合う2画素の、xy2次元平面上における距離は1であるものとしている。
【0024】
図2は、検索基準データにおける線画部分と第1走査点との関係を示す図である。
同図は、三角形が2つ連結したような線画201が表された検索基準データ200を例として、走査中のある瞬間における第1走査点202を中心とした円形領域203を示している。
【0025】
この例においては、円形領域内の線画上の画素位置の数kは16個であるため、数1より第1走査点202の輝度値Zは、Z=255/(16+1)=15である。
例えば、検索基準データに単なる直線が表されていた場合には、上記の走査により、第1走査点が直線上にある場合には、円形領域203内に最も多くの画素位置が含まれるため、その第1走査点の輝度が最も低くなり、第1走査点が、その直線から離れるにつれてその第1走査点の輝度がある程度まで低くなる。
【0026】
<1-3.特徴データ生成部103>
特徴データ生成部103は、輝度レベル決定部102により生成された多階調画像データに基づき所定の特徴抽出処理を行って、画像の特徴を示す情報である特徴データを保存する機能を有する。
特徴抽出処理は、輝度レベル決定部102により生成された多階調画像データに係る2次元画像空間上の各位置を順次第2走査点とし、第2走査点を中心として予め定められた一定半径r2の円形領域を水平垂直の十字に分割して得られる第1象現〜第4象現の各領域についての各平均輝度値が平面的関係にある場合に限り、第2走査点の周辺における各平均輝度値の空間的勾配であるベクトルVと、その第2走査点についての2次元画素位置にその第2走査点についての輝度値を別次元のデータとして加えてなる3次元座標Pとを対にしたものを保存する処理である。以下、個々のベクトルVを区別する場合にはV(1)、V(2)、・・・等と、個々の3次元座標P区別する場合にはP(1)、P(2)、・・・等と表現し、代表的にはV(i)、P(i)と表現する。
【0027】
図3は、特徴出処理で用いる第2走査点と第1象現〜第4象現の各領域との関係の例を示した図である。なお、同図では、半径r2を10画素分としている。
ここで、この図3を用いて、特徴抽出処理を更に詳しく説明する。
輝度レベル決定部102により生成された多階調画像データはxy2次元画像空間上の各画素位置について輝度値が定められたデータであるところ、特徴抽出処理では、その多階調画像データに係るxy2次元画像空間上において第2走査点を動かしながら、第2走査点を中心とした半径r2の円形領域内の、第2走査点を基準としてxの負方向とyの負方向との間の部分(図3中の領域R1)に対応する各輝度値の平均値z1と、xの正方向とyの負方向との間との間の部分(領域R2)に対応する各輝度値の平均値z2と、xの負方向とyの正方向との間の部分(領域R3)に対応する各輝度値の平均値z3と、xの正方向とyの正方向との間の部分(領域R4)に対応する各輝度値の平均値z4とを求め、このz1〜z4を用いて、第2走査点周辺の各平均輝度値が平面的関係にあるか否かの判定及び第2走査点の周辺における輝度値の空間的勾配であるベクトルV(i)の算出を行う。
【0028】
なお、第2走査点は、多階調画像データがxy2次元平面上において水平方向502画素(x座標が10〜501)、垂直方向502画素(y座標が10〜501)から構成される場合に、x座標及びy座標がそれぞれ20〜491の範囲を動く。即ち、第2走査点の座標は、(20,20)、(21,20)、(22,20)、・・・、(490,20)、(491,20)と水平方向に順に変化し、続いて(20,21)、(21,21)、(22,21)、・・・、(490,21)、(491,21)というように次の行についても同様に変化する。
【0029】
第2走査点周辺の各部分(領域R1〜R4)の各平均輝度値が平面的関係にあるか否かの判定は、次の数2の不等式で示す関係が満たされるか否かを基準として行われる。
[数2] |z1−z2−z3+z4|≦C1
数2においてC1は定数であり、z1−z2−z3+z4が0に近い場合に数2の不等式の関係が満たされるように、比較的小さい値が予め定められるものとする。輝度値の最大値が255である場合においては、C1は例えば0〜5程度の1値にするとよい。
【0030】
なお、数2の不等式で示す関係が満たされた場合には、更に上述の領域R1〜R4を第2走査点を中心として周回方向に30度だけ回転させて、その新たな範囲の領域R1’〜R4’について同様に、各領域における輝度値の平均値z1〜z4を求めて数2の不等式で示す関係が満たされるか否かを判定してそれでもその関係が満たされた場合に、もう一度同じ方向に領域R1’〜R4’を回転させてその新たな範囲の領域R1”〜R4”について同様にz1〜z4を求めて数2の不等式で示す関係が満たされるか否かを判定しその関係が満たされていれば、第2走査点周辺の各領域の各平均輝度値が平面的関係にあると判断する。
【0031】
以下、第2走査点周辺の各領域の各平均輝度値が平面的関係にある場合に限り行われるところの、第2走査点の周辺における輝度値の空間的勾配であるベクトルV(i)の算出手順を説明する。なお、z1−z2−z3+z4が0でない場合には、z1−z2−z3+z4が0となるようにz4を補正することとして、補正後に以下の手順でベクトルV(i)を算出することとする。
【0032】
まず、領域R1〜R4それぞれについて、その領域のxy2次元平面上における平均的位置(重心のx座標及びy座標)に別次元の座標(z座標)としてその領域内の平均輝度値を定め、この結果として4つの3次元座標を得る。
領域R1の平均的位置のx座標をx1、y座標をy1とし、領域R2の平均的位置のx座標をx2、y座標をx2とし、領域R3の平均的位置のx座標をx3、y座標をy3とし、領域R4の平均的位置のx座標をx4、y座標をy4とすると、上述の4つの3次元座標は、A1(x1,y1,z1)、A2(x2,y2,z2)、A3(x3,y3,z3)及びA4(x4,y4,z4)となる。
【0033】
このA1〜A4の各3次元座標値を、平面の一般式である数3に代入することにより、平面の一般式の各係数の値を算出し、数4及び数5によりベクトルV(i)の成分Vx及びVyを求める。
[数3] a・x+b・y+c・z=d
数3において、x,y,zは変数であり、a,b,c,dは係数であり、「・」は乗算の演算子である。
【0034】
[数4] Vx=−a/c
[数5] Vy=−b/c
数4は、係数値の定まった数3による3次元座標空間上の平面が、xz平面と交わる直線の傾き、即ちx方向の変位に対するz方向の変位Δz/Δxを表しており、数5は、係数値の定まった数3による3次元座標空間上の平面が、yz平面と交わる直線の傾き、即ちy方向の変位に対するz方向の変位Δz/Δyを表している。
【0035】
換言すれば、Vxはx方向についての輝度値の勾配を表し、Vyはy方向についての輝度値の勾配を表している。従って、ベクトルV(i)は、輝度値の空間的勾配を表していると言える。
こうして求められたV(i)=(Vx,Vy)と対にして保存する3次元座標P(i)の値が(Px,Py,Pz)であるとすると、Pxは多階調画像データに係るxy2次元平面における第2走査点のx座標であり、Pyは多階調画像データに係るxy2次元平面における第2走査点のy座標であり、Pzは次の数6により求まる値である。
【0036】
[数6] Pz=(z1+z2+z3+z4)/4
特徴データ生成部103は、このような手順により得られたV(i)とP(i)との組を複数個、メモリに記録して保存する。但し、例外的に、V(i)の成分であるVxとVyとの両方ともが、およそ0であるV(i)即ち所定の閾値未満であるV(i)については、そのV(i)及びP(i)の組の保存は行わない。例えば、第2走査点周辺の領域R1〜R4それぞれにおける平均輝度値がいずれも同値であればその第2走査点についてのV(i)及びP(i)は保存されない。
【0037】
<1-4.範囲限定部104>
範囲限定部104は、検索基準データ中において照合対象となる画像が存在する範囲を特定する機能を有し、例えば、検索を行う者の入力を受けて、水平及び垂直方向に512画素ある検索基準データ中の矩形領域を特定する。その矩形領域は、例えば、x座標が30〜480、y座標が30〜480の範囲等と定められる。
【0038】
<1-5.照合用データ生成保持部105>
照合用データ生成保持部105は、xyz3次元空間上に、一点Qと、一定方向を示すベクトルSとを定め、特徴データ生成部103により保存されているベクトルV(i)と3次元座標P(i)との組のうち、範囲限定部104により特定された範囲内にP(i)のx座標及びy座標が含まれるものを抽出し、抽出したV(i)とP(i)との各組について、Qの位置をP(i)からの相対座標で示したPQ(i)を求め、V(i)とPQ(i)と1つのSとを照合用データとしてメモリ等に保存する機能を有する。
【0039】
特徴データ生成部103により保存されているV(i)とP(i)との組のうち範囲限定部104により特定された範囲内にP(i)のx座標及びy座標が含まれるものの数をn個とすると、照合用データ生成保持部105によりn個のベクトルV(i)とn個の3次元の相対座標PQ(i)と1個のベクトルSとが照合用データとして保存されることになる。
【0040】
例えば、P(1)及びP(2)が範囲限定部104により特定された範囲内に存在するならば、相対座標PQ(1)はベクトルV(1)と対応付けられ、同様に相対座標PQ(2)はベクトルV(2)と対応付けられて保存される。なお、ベクトルV(i)、PQ(i)及びSは、いずれもxyz3次元座標空間におけるx方向の成分、y方向の成分及びz方向の成分からなるデータである。点Pに起点を有するベクトルV(i)と点Qに起点を有するベクトルSとは、V(i)、PQ(i)及びSにより、相対的な起点の位置関係及び相対的なベクトルの向きの関係、つまり相対的な方位関係が表されている。
【0041】
<1-6.被検索データ取得部106>
被検索データ取得部106は、多数の被検索データである多階調画像データが格納されている画像データベースから順次、1つの多階調画像データを取り出して、検索基準データと照合する対象として特定して線画化部107に伝える機能を有する。
【0042】
この被検索データは、デジタルカメラ等により生成された多階調画像データであり、例えば256階調で水平方向512画素、垂直方向512画素のデータである。
<1-7.線画化部107>
線画化部107は、被検索データ取得部106から伝えられた1つの被検索用データである多階調画像データに対して、輝度値の2次元画像平面における勾配を求める空間微分処理とその結果を2値化する処理とを行い、その結果として線画に相当する2値画像データを生成して輝度レベル決定部108に伝える機能を有する。この空間微分処理から2値化処理までの連続処理は、言い換えれば、画像の輝度変化の空間的勾配の急峻である部分、即ちいわゆるエッジ部分を1とし他の部分を0とする処理である。
【0043】
<1-8.輝度レベル決定部108>
輝度レベル決定部108は、被検索データに基づき生成された2値画像データを線画化部107から受け取り、所定の輝度決定処理を行って、その2値画像データにおける各画素について多階調の輝度値を定めて、例えば256階調の多階調画像データを生成する機能を有する。この2値の画像データに基づいて多階調画像データを生成する輝度決定処理は、上述した輝度レベル決定部102により行われる輝度決定処理と基本的に同様、つまり処理対象の画像データが異なる他は同様である。
【0044】
<1-9.特徴データ生成部109>
特徴データ生成部109は、輝度レベル決定部108により生成された多階調画像データに基づき所定の特徴抽出処理を行って、画像の特徴を示す特徴データを保存する機能を有する。この特徴抽出処理は、上述した特徴データ生成部103により行われる特徴抽出処理と基本的に同様、つまり処理対象の画像データが異なる他は同様である。仮に完全同一の画像データを特徴データ生成部103及び109に入力した場合には、特徴データ生成部103及び109はいずれも、同一内容の特徴データを保存することになる。
【0045】
この特徴データ生成部109により保存される特徴データは、輝度レベル決定部108により生成された多階調画像データに基づき求められた複数組のベクトルV及び3次元座標Pである。以下、この特徴データ生成部109により保存されるベクトルV及び3次元座標PをベクトルV’(j)及び3次元座標P’(j)の形式で表現する。
【0046】
<1-10.照合部110>
照合部110は、照合用データ生成保持部105により生成された照合用データであるn組のベクトルV(i)、相対座標PQ(i)及び1つのSと、特徴データ生成部109により生成されたm組のベクトルV’(j)及び3次元座標P’(j)とを用いて、一定範囲の検索基準データに示されている画像が、被検索データに表されている画像と近似したものであるかを判定する照合処理を行う機能を有する。
【0047】
この照合処理として照合部110は、まず、各ベクトルV’(j)について、照合用データにおける全てのV(i)を順に当てはめ、V(i)、PQ(i)及びSにより示されるところのV(i)とSとの3次元座標空間における方位関係と、V’(j)とS’(j,i)との3次元座標空間における方位関係とが同一となるように、大きさ1の単位ベクトルS’(j,i)を定める。ここで、S’(i,j)は、ベクトルV(i)に対するベクトルSと同様の方位関係を保つように、ベクトルV’(j)にベクトルV(i)を当てはめることにより定められた単位ベクトルS’を意味し、照合用データとしてV(i)がn個存在して特徴データ生成部109により保存されたベクトルV’(j)がm個存在したならば、照合処理において単位ベクトルS’(i,j)はn・m個定められることになる。
【0048】
なお、ベクトルV(i)の向きを基準として、その基準と点Pから点Qに向かうベクトルPQ(i)の向きとのなす角度をαとすれば、αはV(i)とPQ(i)とから求めることができ、ベクトルV(i)の向きを基準として、その基準とベクトルSの向きとのなす角度をβとすれば、βはV(i)とSとから求めることができ、また、点Pと点Qとの間の距離γは、ベクトルPQ(i)から求めることができる。
【0049】
従って、ベクトルV’(j)にベクトルV(i)を当てはめて単位ベクトルS’(i,j)を定めることは、単位ベクトルS’の起点(以下、「点Q’」という。)を、ベクトルV’(j)の起点である点P’(j)の位置から距離γの位置であって、かつ、点P’から点Q’に向かうベクトルP’Q’がベクトルV’(j)を基準としてαの角度に向かうベクトルとなるように定め、更に、単位ベクトルS’を、ベクトルV’(j)を基準としてβの角度に向かうベクトルとなるように定めることである。
【0050】
次に、xyz3次元座標空間上を、例えば一辺が5の長さである等の所定サイズの単位立方体の3次元配列であるように区分して、各単位立方体においてその単位立方体内に位置付けられた全てのベクトルS’(i,j)のベクトル加算結果を求める処理つまりベクトルを合成する処理を行い、最後に、ベクトル加算結果として得られた合成ベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)が最も多く含まれた単位立方体におけるそのベクトルS’(i,j)の数Snumとを、被検索データ取得部106で取得された被検索データを識別するための情報とともに評価値記録部111に格納し、ベクトル加算結果として得られたベクトルの大きさの最大値Smaxが所定の閾値以上であれば被検索データ中の画像と検索基準データ中の画像とは類似した傾向を持つと判定する処理を行う。
【0051】
照合部110は、この判定結果を、例えば、ディスプレイ装置等を介して表示する。判定結果の表示内容は、例えば、被検索データ自身と、類似或いは非類似の別と、Smax/nの値等である。
もし、被検索データを線画化した結果の画像データと検索基準データとが完全一致する場合には、上述のベクトル加算結果として得られたベクトルの大きさの最大値Smaxは、単位立方体のサイズが1画素×1画素×1画素の大きさ以上であれば理論的には少なくともnとなる。従って、デジタル画像において画素位置が離散的であること等の影響を考慮し、実際上は、例えばnの0.6倍や0.7倍等を上述の所定の閾値として定めることが考えられる。
【0052】
<1-11.評価値記録部111>
評価値記録部111は、照合部110により、被検索データを識別するための情報と対として、上述のベクトル加算結果として得られたベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)の最大密度つまり単位立方体内の個数の最大値Snumとが格納されるメモリ等の一記憶領域である。
【0053】
この評価値記録部111には、被検索データ取得部106により画像データベースから1つの画像データが被検索データとして取得される毎に、線画化部107、輝度レベル決定部108、特徴データ生成部109及び照合部110の動作により、1組の被検索データを識別するための情報と最大値Smaxとが追加記録される。従って、この評価値記録部111の内容を利用すれば、記録された最大値Smaxのうち最も大きいものに対応して識別される被検索データが、画像データベース中において最も、検索基準データに示される画像と類似する傾向が高い被検索データであると評価することが可能になる。また、例えばSnumの数が大きいほど類似傾向が高いと評価することも可能となる。
<2.動作>
以下、上述の構成を備える画像照合装置100の動作を説明する。
【0054】
画像照合装置100は、大別すると、入力された線画の2値画像データである検索基準データを取得して照合用データを生成する第1の処理と、画像データベースから被検索データを逐次特定して、特定した被検索データと照合用データとを用いることにより、検索基準データと被検索データとの照合を行う第2の処理とを行う。
【0055】
図4は、検索基準データを取得してその照合用データを生成する第1の処理を示すフローチャートである。
同図に示すように、まず、検索基準データ取得部101は、検索基準データを取得して輝度レベル決定部102に伝える(ステップS11)。輝度レベル決定部102は、検索基準データ上を、第1走査点を移動させて各画素位置についての輝度値を定めることにより、多階調画像データを生成する(ステップS12)。これにより、検索基準データの示す線や点の密度が低い辺りの画素位置については輝度値が高い多階調画像データが生成される。
【0056】
続いて、特徴データ生成部103は、輝度レベル決定部102により生成された多階調画像データに係るxy2次元平面上を、第2走査点を移動させて、第2走査点を中心とした周辺4分割領域の各平均輝度値を求め、各領域の各平均輝度値が平面的関係にある場合に限り、平均輝度値の空間的勾配を示すベクトルV(i)を、第2走査点のxy座標と周辺4領域全体の平均輝度値をz座標にしたxyz3次元座標P(i)とともにメモリ等に保存する(ステップS13)。
【0057】
続いて、照合用データ生成保持部105は、範囲限定部104による範囲の特定を受けて、任意の3次元位置に点Qを定め、任意の方向のベクトルSを定め、特定された範囲内に3次元座標P(i)が含まれるところの全ベクトルV(i)と、特定された範囲内に位置する全てのP(i)についてP(i)から点Qに向かうベクトルを示す相対座標PQ(i)と、1つのベクトルSとを照合用データとしてメモリ等に保存する(ステップS14)。
【0058】
図5は、特徴データ生成部103により生成されたV(i)及びP(i)と、照合用データ生成保持部105により定められた点Q及びベクトルSとを例示する図である。
なお、同図では、説明の便宜上、V(i)及びP(i)の数を3つだけにしており、また、同図は、各要素についてxy2次元平面上の写像を示している。
【0059】
図6は、被検索データを特定し、照合用データを用いて、検索基準データと被検索データとの照合を行う第2の処理を示すフローチャートである。
同図に示すように、まず、被検索データ取得部106は画像データベースから1つの多階調画像データである被検索データを取得して線画化部107に伝え(ステップS21)、線画化部107では、被検索データに表された画像のいわゆるエッジ部分を抽出する2値化により2値画像データを生成して輝度レベル決定部108に伝える(ステップS22)。
【0060】
2値画像データを伝えられた輝度レベル決定部108は、上述のステップS12と同様に、2値画像データの各画素位置についての輝度を決定して新たに多階調画像データを生成する(ステップS23)。
続いて、特徴データ生成部109は、輝度レベル決定部108により生成された多階調画像データに係るxy2次元平面上を、第2走査点を移動させて、第2走査点を中心とした周辺4分割領域の各平均輝度値を求め、各領域の各平均輝度値が平面的関係にある場合に限り、平均輝度値の空間的勾配を示すベクトルV’(j)を、第2走査点のxy座標と周辺4領域全体の平均輝度値をz座標にしたxyz3次元座標P’(j)とともにメモリ等に保存する(ステップS24)。
【0061】
続いて、照合部110は、特徴データ生成部109により保存された被検索画像に係る特徴を示すP’(j)とV’(i)と、第1の処理において保存された照合用データを参照し、各P’(j)について、xyz3次元空間におけるP’(j)の位置上にV’(j)と一致するように照合用データであるV(i)を置いた場合に、そのV(i)の位置からSへと同じ方位関係を保って単位ベクトルS’を配置する(ステップS25)。
【0062】
図7は、特徴データ生成部109により生成されたV’(j)及びP’(j)の各組について、照合用データ生成保持部105により保持されたV(i)、PQ(i)及びSの関係を当てはめて単位ベクトルS’(i,j)を定めた様子を例示する図である。
なお、同図においては、説明の便宜上、V’(j)、P’(j)、V(i)の数を3つだけにしており、また、各要素についてxy2次元平面上の写像を示している。同図中「S(V’(1)←V(2))」の表記は、V(2)をV’(1)に当てはめた結果として配置された単位ベクトルS’であることを示している。
【0063】
例えば、被検索データに基づき抽出されたP’(1)で示す位置に置かれたV’(1)に、V(2)を当てはめた場合には、P’(1)からベクトルPQ(2)の大きさだけ離れた位置の点Q’であって、かつ、P’(1)からQ’までの方向がベクトルV’(1)を基準としてなす角度が、V(2)を基準としてPQ(2)のベクトルの向きがなす角度と同一となるように点Q’を定め、その点Q’の位置に、V’(1)と単位ベクトルS’のなす角度が、V(2)を基準としてベクトルSの向きがなす角度と同一となるような単位ベクトルS’が配置される。
【0064】
単位ベクトルS’の配置後に、照合部110は、上述したSmaxとSnumとを算出し、Smaxに基づいて上述したような類似か否かの判定を行い、判定結果をディスプレイ装置に表示し、更にSmax及びSnumを評価値記録部111に記録する(ステップS26)。
画像照合装置100は、画像データベースから逐次、被検索データを定めて、ステップS21〜S26の手順を、類似と判定するまで繰り返す(ステップS26)。
【0065】
以上説明した第1の処理と第2の処理とにより、画像データベース中の画像データのうち、検索を行う者が線画として描いた対象物と一致又は類似するものを含む画像データが、検出されることになる。
なお、特徴データ生成部103、109においては、画像データに係るxy2次元平面上の第2走査点の周辺4分領域R1〜R4について、つまり各領域の重心それぞれが正方形の4頂点に位置づけられる関係にある各領域R1〜R4(図3参照)について、領域内の平均輝度値をその領域の重心のz座標として得られるxyz3次元空間上のその重心の座標が、4つともおよそ同一平面上に存在する場合にのみ、その第2走査点における周辺の輝度値のxy座標空間に対する変化をベクトルV(i)或いはベクトルV’(j)として保存して、その画像データの特徴を示すものと扱っている。しかも、R1〜R4の領域を第2走査点を中心として30度、60度回転させて、同様に求めた各領域の重心のxyz3次元空間上の座標がおよそ同一平面上にある場合にのみ、そのベクトルV(i)或いはベクトルV’(j)の保存を行っている。
【0066】
つまり、画像が回転していても、第2走査点による走査の結果として集められた特徴データ群における各特徴データ相互の関係を不変なものにすることを狙って、特徴データ生成部は、第2走査点の周辺領域における輝度の空間的勾配が一様である場合にのみ、その第2走査点の周辺領域内の各位置の輝度を用いて求められる第2走査点における輝度の空間的勾配を、照合用の基礎として用いることのできる特徴データとして保存している。
【0067】
従って、この画像照合装置100によれば、照合対象となる2つの画像データに表された対象物が、相互に、画像平面に垂直な直線を軸として回転した関係であっても、回転していない場合と同様に正しく、類似するか否かの判定を行うことができる。
<3.補足>
以上、本発明に係るデータ照合装置及びデータ特徴抽出装置に係る一つの実施の形態である画像照合装置について説明したが、画像照合装置を部分的に変形することもでき、また、本発明は上述の画像照合装置という実施の形態に限られないことは勿論である。即ち、
(1)画像照合装置が、線画の画像データと多階調画像データとの照合のみならず、2つの多階調画像データ同士の照合や2つの線画の画像データ同士の照合を行うことができるようにしてもよい。例えば、照合対象の画像データがいずれも線画の画像データである場合には、線画化部107による線画化を省略することとし、照合対象の画像データがいずれも多階調画像データである場合には、検索基準データ取得部101から輝度レベル決定部102の間において線画化部107と同様の線画化を行うようにしてもよい。
【0068】
また、2つの多階調画像データ同士を照合する場合には、線画化部や輝度レベル決定部による処理を省略し、その2つの多階調画像データをそれぞれ直接、各特徴データ生成部の処理対象とするように画像照合装置を構成してもよい。
(2)画像照合装置の輝度レベル決定部及び特徴データ生成部が走査において、第1走査点又は第2走査点を位置付けるxy2次元平面上の位置は、必ずしも画素を点で表現した場合におけるその点上にある必要はない。例えば、第1走査点又は第2走査点は、画素点と画素点との中間点を遷移することとしてもよい。また、第1走査点の輝度を決定するために第1走査点を中心とした円形領域の範囲の画素についての2値データを用いることとし、第2走査点についての輝度の空間的勾配を求める等のために第2走査点を中心とした円形領域の範囲内の画素についての輝度値を用いることとしたが、各円形領域を他の形の領域に変更してもよし、各円形領域のサイズを異ならせてもよい。
(3)2つの輝度レベル決定部による輝度決定処理において、第1走査点を中心とした円形領域内の画素の位置の数kから第1走査点の輝度値Zを決定するために数1を用いたが、第1走査点周辺の線又は点、つまり2値データの値が1である画素位置の数が多ければ多いほど輝度値Zが低くなるような演算或いはその画素位置の数が多ければ多いほど輝度値Zが高くなるような演算であれば、数1以外の他の演算によって輝度値Zを決定することとしてもよい。即ち、輝度決定処理は、xy2次元平面上の各局所的領域において線画等の2値データの値が1である画素点の密度が高いか低いかに応じてその局所的領域内の位置についての別次元の属性値(輝度値)を決定する処理である。
(4)特徴データ生成部において、領域R1〜R4はそれぞれ複数の画素の点を含むような範囲のものとしたが、それぞれ1つの画素の点しか含まないような範囲としてもよい。なお、特徴データ生成部は、領域R1〜R4それぞれの範囲内の全点の平均的位置やその全点の輝度の平均値を求めたが、領域R1〜R4それぞれに、画素の点が1つしか含まれないこととした場合には、領域R1〜R4それぞれの平均的位置は、それぞれの領域に含まれる1画素の位置であり、領域R1〜R4それぞれについての輝度の平均値は、それぞれの領域に含まれるその1画素の輝度そのものによって求められる。
(5)特徴データ生成部において、第2走査点の周辺における輝度の分布が平面的であるか否かを判定し、またその周辺における輝度の空間的勾配を算出するために、第2走査点の周辺に円形領域を4分割した領域R1〜R4を設定し、特に平面的であるかの判定のために領域R1〜R4を30度ずつ2度回転させて数2に基づく判定を行うこととしたが、第2走査点の周辺の4つ以上の局所的領域それぞれにおける平均的位置と平均輝度値とから、第2走査点の周辺における輝度の空間的な分布が平面的であるか否かを判定し、平面的であればその平面とxy2次元平面とのなす角度とを第2走査点における輝度の空間的勾配として算出する方法であれば、必ずしもその局所的領域の数は4つに限られず、その局所的領域の位置も領域R1〜R4に限定されることはない。また、30度ずつ2度回転させているのは第2走査点の周辺における輝度の分布が十分に平面的であることを確保するための一手法にすぎず、例えばxy2次元平面上において第2走査点を中心とした微小な正多角形の各頂点に位置する各画素についてその輝度をz座標とした場合のその各画素のxyz3次元座標空間における位置が、いずれもほぼ同一平面上にあるか否かによってその第2走査点の周辺における輝度の分布が十分に平面的であるか否かを判定することとしてもよい。なお、周辺の輝度の分布が十分に平面的である点についてのみ、その点付記の輝度の空間的勾配等を、画像の特徴を示す情報として扱うことにより、その情報が、照合対象となる複数の画像のデジタル化におけるサンプリングの方向のずれや画像を回転する加工等の影響を受けにくいものとなる。
(6)範囲限定部は、必ずしも検索を行う者の入力を受けなくてもよく、予め矩形領域を固定的に記憶していてもよい。また、範囲限定部は、検索基準データ取得部で取り込まれた画像をディスプレイ装置等を介して表示して、その上で検索を行う者によるマウスのドラッグ操作等により矩形を指定させ、その指定に基づいて照合対象となる画像範囲の特定を行うこととしてもよい。
(7)特徴データ生成部では、輝度の空間的勾配を示すベクトルV(i)の各成分を、数4及び数5により算出することとしたが、輝度の変化とxy2次元平面上の位置の変化との関係を表すことのできる他の演算により算出されたデータを、ベクトルV(i)と同様に扱うこととしてもよい。例えば、領域R1、R2、R3及びR4の各平均輝度値がこの順にz1、z2、z3、z4である場合に、ベクトルV(i)のx成分を次の数7により求められるVx、ベクトルV(i)のy成分を次の数8により求められるVyであることと定めてもよい。
【0069】
[数7] Vx=z1−z2+z3−z4
[数8] Vy=z1+z2−z3−z4
また、ベクトルV(i)の大きさが1となるように、その成分であるVxとVyとの両方を定数倍して得られるものを新たなベクトルV(i)と定めること、即ちベクトルV(i)を正規化することとしてもよい。
(8)照合用データ生成保持部が、ベクトルV(i)及びベクトルPQ(i)の複数組とベクトルSとである照合用データを生成し保存することとしたが、照合用データは、起点を含めてベクトルV(i)とベクトルSとの間における方向と位置とからなる方位的関係を示す情報であれば足り、例えば、照合用データは、ベクトルV(i)の方向からベクトルPQ(i)の方向への角度と、ベクトルPQ(i)の大きさと、ベクトルV(i)の方向からベクトルSの方向への角度とから成ることとしてもよい。
【0070】
なお、ベクトルV’(j)へのベクトルV(i)の当てはめは、両ベクトルの大きさがほぼ一致する場合にのみ行うようにしてもよい。このようにする場合には、照合用データにおいてはベクトルV(i)の大きさを示す情報を含む必要があり、更に、照合対象となる2つの画像データ相互における輝度の最大から最小までの輝度範囲の相違の影響を受けないように、ベクトルV(i)に輝度範囲の影響が現れないように数4及び数5のような演算でベクトルV(i)を求める等の方法、照合前に輝度範囲の調整を行っておき特徴データ生成部では数7及び数8によりベクトルV(i)を求める方法等を用いる必要がある。
(9)照合用データ生成保持部が保存するPQ(i)については、全てのPQ(i)のうち、大きさが最大であるPQ(i)のその大きさが1となるように、全てのPQ(i)の全ての成分(x成分、y成分及びz成分)の大きさを一律に定数倍したものを新たにPQ(i)と定めて保存すること、即ちPQ(i)を正規化して保存することとしてもよい。なお、全てのPQ(i)のうち、大きさが最大であるPQ(i)の大きさを1とする他、全てのPQ(i)の大きさの平均値を1とする等としてもよく、これらの正規化により照合対象の2画像データが同一対象を示し相互に拡大縮小の関係にある場合に、同一或いは類似と判定できるようになる。
(10)画像照合装置の照合部は、照合に用いるデータを全てxy2次元データ、つまりxyz3次元データにおけるz成分を無視しx成分及びy成分からなるデータとして、当てはめ等の照合処理を行うこととしてもよい。この場合には、xy2次元平面上に単位ベクトルS’が複数配置され、そのxy2次元平面上で、およそ同一方向を向かう複数の単位ベクトルS’の起点の分布状態に応じて、照合対象の両画像の類似傾向を評価することができるようになる。なお、xy2次元平面上におよそ同一方向を向かう単位ベクトルS’の起点が最も多く集中している局所的範囲におけるそ起点の数が多ければ多いほど、両画像は類似すると判定することができる。
(11)照合部は、単位ベクトルS’の加算結果が最大であった部分的領域における単位ベクトルS’の方向がベクトルSの方向から見てなす角の大きさを算出し、その算出結果により、照合対象の両画像が角度的にどの程度回転した関係にあるかをディスプレイ装置等に出力することとしてもよい。また、照合部は、ベクトルS’の加算結果である合成ベクトルの大きさの最大値Smaxと単位立方体内のベクトルS’の最大個数Snumとを評価値記録部に記録する他に、ディスプレイ装置等に出力してもよい。
(12)照合部は、xyz3次元座標空間上を、例えば一辺が5の長さである等の所定サイズの単位立方体の3次元配列であるように区分して、各単位立方体においてその単位立方体内に位置付けられた全てのベクトルS’(i,j)のベクトル加算結果を求める処理つまりベクトルを合成する処理を行い、最後に、ベクトル加算結果として得られた合成ベクトルの大きさの最大値Smaxと、ベクトルS’(i,j)が最も多く含まれた単位立方体におけるそのベクトルS’(i,j)の数Snumとを、被検索データ取得部106で取得された被検索データを識別するための情報とともに評価値記録部111に格納する等の処理を行うこととしたが、ここでの単位立方体は、必ずしも立方体に限られることはなく、立方体の代わりに所定サイズの半径を有する球体を用いることとしてもよく、立方体と同様にその各球体を3次元配列として並べる場合に各球体は部分的に重なりあうように並べることとしても差し支えない。
(13)上述の画像照合装置という形態の他、本発明に係るデータ照合技術は、3次元データの集合体同士の照合に適用することができ、立体地図データや3次元計測された物体形状に係るデータと、同様の他のデータとを照合して類似性を判定するような用途においても適用できる。
【0071】
照合対象となる2つの3次元データが相互に、ある直線を軸とした回転関係にある場合に、その直線は予測不可能であってもその直線と垂直な平面が予め想定できるものであればその直線と垂直な平面を、実施の形態として示した画像照合の場合のxy2次元画像平面として取り扱うことにより、適切に類似性の判定を行うことができるようになる。例えば、ある建築物単体の形状を示す3次元データAと、その建築物を含む複数の建築物が建築されている区画における複数の建築物の形状や位置関係を示した3次元データBとを照合し、3次元データB中に3次元データAと同一又は類似する建築物が表されているか否かを判定する必要がある場合には、土地の面をxy2次元平面として扱い、土地上の位置の属性値である高さをz座標として、画像照合装置の特徴データ生成部の行う処理と同様の処理を行うことにより、画像照合装置と同様の方法で、その判定を行うことができるようになる。
(14)画像照合装置における各処理(図4、図6参照)をコンピュータに実行させるためのプログラムを、記録媒体に記録し又は各種通信路等を介して、流通させ頒布することもできる。このような記録媒体には、ICカード、光ディスク、フレキシブルディスク、ROM等がある。流通、頒布されたプログラムはコンピュータに読み出され得るメモリ等に格納されることにより利用に供され、コンピュータはそのプログラムを実行して本実施の形態で示した画像処理装置の機能を実現する。
【0072】
【発明の効果】
以上の説明から明らかなように、本発明に係るデータ特徴抽出装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、3次元データを取得する3次元データ取得手段と、xy2次元平面上における各位置に順次着目する走査手段と、前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備えることを特徴とする。
【0073】
これにより、3次元データ同士の照合に用いることのできる、3次元データについての特徴情報を得ることができる。この得られる特徴情報によって3次元データ同士を照合した場合には、xy2次元平面に垂直な直線を軸として回転した関係にあり、同じ対象物を表した3次元データ同士をある程度適切に類似傾向が高いものと判定することができるようになる。
【0074】
ここで、前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と輝度値とを示す画像データであり、前記3次元位置は、前記画素についての輝度値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、前記特徴情報生成手段は、前記走査手段により着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、当該局所領域内にx座標及びy座標を有するxy2次元平面上の位置に配された画素全てについてのxy2次元平面上の平均的位置と輝度値の平均値とを前記xyz3次元座標空間における平均的位置として求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0075】
これにより、輝度分布が平面的な局所領域のみの特徴を抽出して特徴情報を生成することとなるため、デジタル画像データの生成段階におけるサンプリングの位置的基準や画像データの回転加工等の影響がその特徴情報中に現れないことになり、この特徴情報を用いれば、回転関係にある2つの画像データの照合をある程度適切に行うことができるようになる。
【0076】
また、前記データ特徴抽出装置は更に、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記3次元データ取得手段に伝える伝達手段とを備え、前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものであることとしてもよい。
【0077】
これにより、線密度をxy2次元平面上の各位置についての属性値としているため、得られる特徴情報を用いれば、線画を表す2値画像データと他の画像データとを照合する場合において、線画の線が部分的に途切れて破線となっているような場合でも、適切に画像データの類似性を判定できるようになる。
また、前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と属性値とを示す画像データであり、前記3次元位置は、前記画素についての属性値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、前記特徴情報生成手段は、前記走査手段により着目された位置を中心としたxy2次元平面上の一定範囲の領域内において当該位置を基準として、当該基準から、xの負方向とyの負方向との間の第1の局所領域に対応する各属性値の平均値z1と、xの正方向とyの負方向との間の第2の局所領域に対応する各属性値の平均値z2と、xの負方向とyの正方向との間の第3の局所領域に対応する各属性値の平均値z3と、xの正方向とyの正方向との間の第4の局所領域に対応する各属性値の平均値z4とを求めることによって前記各平均的位置を求め、数式|z1−z2−z3+z4|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0078】
これにより、xy2次元平面上を2次元配列状に画素が配置されてなる画像データ等において、画素の輝度値をz座標とおいた場合のxy2次元データ平面に対する輝度値の傾きをx方向とy方向との両面で表して、画像データの特徴情報とする場合の輝度値の傾きの算出の基礎となる輝度値の分布が、平面的であるか否かを簡易に判定することができるようになる。実施の形態において示した領域R1〜R4の平均的輝度z1〜z4が平面的関係にある場合にこれらz1〜z4を算出の基礎として走査点の輝度の空間的勾配を求めて画像の特徴を示す情報として扱うこととする方式を用いると、例えば同一対象を互いに90度回転した関係となるようにカメラを回転させる等によって撮像して得られた2つの画像データそれぞれについて、その方式で画像データの特徴を示す情報を求めたときに、各画像の特徴を示す情報が同じものとなる。
【0079】
また、前記特徴情報生成手段に係る前記一定範囲の領域は、前記走査手段により着目された位置を中心とした一定半径の円形領域であり、前記特徴情報生成手段は更に、前記走査手段により着目された位置を基準として定めた第1から第4までの各領域を、当該基準の位置を中心として所定の角度だけ回転させて、その回転後の第1から第4までの各領域内に対応する各属性値の平均値z1’、z2’、z3’及びz4’を求め、前記特徴情報生成手段は、前記数式|z1−z2−z3+z4|の値が所定値d1以下となる場合であって、かつ、前記数式|z1’−z2’−z3’+z4’|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0080】
これにより、同一対象を互いに90度以外の角度に回転した関係となるように表している2つの画像データそれぞれの特徴を示す特徴情報が同じものとなり得る。
また、前記特徴情報生成手段は更に、前記平面の前記xy2次元平面に対する勾配が所定量以上である場合に限り、当該勾配を示す情報と前記着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成することとしてもよい。
【0081】
これにより、輝度変化がある程度の量である点についてのみを画像データの特徴として抽出するため、照合に用いるデータの数を効果的に減らし照合に要する計算時間の短縮化が図れるようになる。
また、前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面を表す数式をa・x+b・y+c・z=d(a、b、c及びdは定数値)とすれば−a/c及び−b/cをそれぞれx成分及びy成分とするxy2次元平面上のベクトルVを求め、当該ベクトルVの大きさを1として得られる単位ベクトルを、当該平面に係る前記勾配を示す情報として特定することとしてもよい。
【0082】
このような正規化により、多階調画像データ等の3次元データの特徴を示す情報が、輝度等のz座標に相当する属性値の範囲が狭いか広いかという影響を受けなくなり、照合用に汎用的に利用できるものとなる。
また、前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面に係る前記勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVを、当該平面に係る前記勾配を示す情報として特定し、当該ベクトルVと前記着目された位置を示す情報とを対応付けたものを前記特徴情報の1要素として生成し、前記データ特徴抽出装置は更に、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記特徴情報生成手段により生成された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す情報を、前記3次元データ取得手段により取得された3次元データと他の3次元データとの照合に用いるための照合用データとして生成する照合用データ生成手段を備えることとしてもよい。
【0083】
これにより、照合に直接的に利用できるデータが生成されるようになる。
また、前記照合用データ生成手段は、前記複数組のベクトルPQのうちで大きさが最大のベクトルPQの当該大きさが1となるように、各ベクトルPQの大きさを一律に定数倍し、定数倍した結果得られた各ベクトルPQと各ベクトルVと前記前記単位ベクトルSとを示す情報を前記照合用データとして生成することとしてもよい。
【0084】
これにより生成されるデータによれば、照合対象の2つのデータが同一対象を示し相互に拡大縮小の関係にある場合に、適切に判定できるようになる。
また、本発明に係るデータ照合装置は、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、第1の3次元データを取得する第1の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第1走査手段と、前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、第2の3次元データを取得する第2の3次元データ取得手段と、xy2次元平面上における各位置に順次着目する第2走査手段と、前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備えることを特徴とする。
【0085】
これにより、回転関係にある3次元データ同士を適切に照合できるようになる。
ここで、前記照合手段は、各ベクトルV’に対する各ベクトルVの前記当てはめを、当該ベクトルV’の大きさと当該ベクトルVの大きさとの差が所定値未満であるものに限って行うこととしてもよい。
【0086】
これにより、より正確に照合を行い得る。
また、前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域のうち前記照合手段により定められた単位ベクトルS’の起点が最も多く含まれる立方体領域に、起点が含まれている単位ベクトルS’の個数を記録媒体に記録する記録手段を備えることとしてもよい。
【0087】
これにより、照合対象のデータ間の類似度を数値で表せる。従って、最も類似度の高いデータの特定等が可能になる。
また、前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域について当該立方体領域に起点が含まれている全ての単位ベクトルS’を合成した結果として得られる合成ベクトルの大きさを求め、求められた全ての合成ベクトルの大きさのうち最大値を記録媒体に記録する記録手段を備えることとしてもよい。
【0088】
これにより、ある程度高い精度でデータ相互間の類似度を評価できる指標が得られるようになる。
また、前記照合用データ生成手段に代えて、xy2次元平面上における一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置のx座標及びy座標を基準として位置Qのxy2次元平面における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する2次元照合用データ生成手段を備え、前記照合手段に代えて、前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxy2次元平面における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する2次元照合手段とを備えることとしてもよい。
【0089】
これにより、概略的な照合を簡易に行うことができるようになる。
また、前記データ照合装置は更に、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記第1の3次元データ取得手段に伝える伝達手段とを備え、前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものであることとしてもよい。
【0090】
これにより、例えば、ある物の輪郭を紙に手書き等で表した線画をスキャナで取込んで生成される画像データと、同じ物をデジタルカメラで撮像して得られた画像データとを照合する場合において、実線として描かれた線がスキャナによる取り込みの過程で破線になってしまったようなときにも、従来の画像照合技術を適用した場合に比べて、両画像データの類似度が高いと適切に判定できる可能性が高くなる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像照合装置の機能ブロック図である。
【図2】検索基準データにおける線画部分と第1走査点との関係を示す図である。
【図3】特徴出処理で用いる第2走査点と第1象現〜第4象現の各領域との関係の例を示した図である。
【図4】検索基準データを取得してその照合用データを生成する第1の処理を示すフローチャートである。
【図5】特徴データ生成部103により生成されたV(i)及びP(i)と、照合用データ生成保持部105により定められた点Q及びベクトルSとを例示する図である。
【図6】被検索データを特定し、照合用データを用いて、検索基準データと被検索データとの照合を行う第2の処理を示すフローチャートである。
【図7】特徴データ生成部109により生成されたV’(j)及びP’(j)の各組について、照合用データ生成保持部105により保持されたV(i)、PQ(i)及びSの関係を当てはめて単位ベクトルS’(i,j)を定めた様子を例示する図である。
【符号の説明】
100 画像照合装置
101 検索基準データ取得部
102 輝度レベル決定部
103 特徴データ生成部
104 範囲限定部
105 照合用データ生成保持部
106 被検索データ取得部
107 線画化部
108 輝度レベル決定部
109 特徴データ生成部
110 照合部
111 評価値記録部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a data collation technique for collating data such as image data.
[0002]
[Prior art]
In recent years, image data obtained by imaging has been widely used as an information processing target due to the remarkable development of hardware technology and software technology.
For example, an image database in which a considerable amount of image data is collected and managed collectively is used for various purposes such as medical, office work, academic research, monitoring, etc. Research and development of image recognition technology to determine whether a registered object or person is active is also underway.
[0003]
By the way, it is necessary to determine whether or not a specific object is reflected in certain image data, such as when searching for image data that includes a specific object or the like from an image database in which image data obtained by imaging is accumulated. In some cases, it is possible to use a method of comparing the certain image data with data representing the specific object or the like as a line drawing or a multi-tone image.
[0004]
As a conventional image data collation technique for comparing the two data, for example, there is a method using generalized Hough transform or high-speed generalized Hough transform that speeds up the conversion.
The outline of this method will be described below.
A person who performs a search draws a specific object or the like desired to be searched on paper as a line drawing, and inputs the line drawing to a computer as binary image data through an image scanner or the like. The computer generates the template data by performing high-speed generalized Hough transform on the image data of the line drawing, and extracts the contour by the spatial differential processing of the image based on the multi-tone image data to be searched in the image database. The search target binary image data is generated, the template data is voted for the search target binary image data using the high-speed generalized Hough transform, and the number of votes for a certain point in the image is equal to or greater than a threshold value. If there is a point, it is determined that an image corresponding to a specific object or the like is captured at that point. The generalized Hough transform and the high-speed generalized Hough transform are disclosed in Non-Patent Document 1, for example.
[0005]
As another image data collation technique, there is an image data collation technique according to the prior invention by the present inventor that collates both image data by generating specific collation data by wavelet decomposition of each image data. Yes (see Patent Document 1).
Each of these various image data matching techniques has its own advantages and disadvantages.
[0006]
[Non-Patent Document 1]
Kimura Akio et al., High-speed Generalized Hough Transform-Similar Transform Invariant Arbitrary Figure Detection Method, “The Institute of Electronics, Information and Communication Engineers Journal (D-2)”, April 1998, J81-D-2, No. 4, p. . 726-734
[0007]
[Patent Document 1]
JP 2001-283221 A
[0008]
[Problems to be solved by the invention]
In the present invention, even when two objects obtained by imaging or representing the same object, person, scenery, etc. are included in the relative rotation, both data are the same object. An object of the present invention is to provide a new data matching technique that can be determined to be related to the above, and that uses a method different from the conventional technique.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a data feature extraction device according to the present invention is a data feature extraction device that generates feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, A three-dimensional data acquisition unit that acquires three-dimensional data, a scanning unit that sequentially focuses on each position on the xy two-dimensional plane, and every time one position is focused on by the scanning unit, around the focused position An xyz three-dimensional coordinate space of a three-dimensional position having an x coordinate and a y coordinate in the local area among the three-dimensional positions indicated by the three-dimensional data for each of the four or more predetermined local areas on the xy two-dimensional plane. In the xyz three-dimensional coordinate space, the average positions obtained for all the local regions are almost on the same plane. It is determined whether or not it exists, and the information indicating the gradient of the plane with respect to the xy two-dimensional plane and the information indicating the focused position are associated with each other only when they exist on substantially the same plane. And feature information generating means for generating the information as one element of the feature information.
[0010]
A data feature extraction method according to the present invention is a data feature extraction method for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and acquires three-dimensional data. A three-dimensional data acquisition step, a scanning step in which attention is paid sequentially to each position on the xy two-dimensional plane, and a predetermined number of four or more located around the focused position every time one position is noted in the scanning step For each of the local regions on the xy two-dimensional plane, an average position in the xyz three-dimensional coordinate space of a three-dimensional position having x and y coordinates in the local region among the three-dimensional positions indicated by the three-dimensional data is obtained. Whether each average position obtained for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space Only when they exist on substantially the same plane, information indicating the gradient of the plane with respect to the xy two-dimensional plane and information indicating the focused position are associated with 1 of the feature information. And a feature information generation step generated as an element.
[0011]
Here, being on substantially the same plane means being present at a distance of a predetermined value or less from a certain plane.
Thereby, the characteristic information about the three-dimensional data that can be used for the comparison between the three-dimensional data can be obtained. When the three-dimensional data is collated with the obtained feature information, the three-dimensional data having the relationship rotated around the straight line perpendicular to the xy two-dimensional plane has a similar tendency to some extent appropriately between the three-dimensional data representing the same object. It can be determined that the price is high.
[0012]
A data collating apparatus according to the present invention is a data collating apparatus that collates three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and obtains first three-dimensional data. A three-dimensional data acquisition unit, a first scanning unit that sequentially focuses on each position on the xy two-dimensional plane, and each time one position is focused by the first scanning unit, is located around the focused position. For each of the four or more predetermined number of local regions on the xy two-dimensional plane, among the three-dimensional positions indicated by the first three-dimensional data, the xyz three-dimensional coordinates of the three-dimensional position having the x coordinate and the y coordinate in the local region An average position in the space is obtained, and whether or not each of the average positions obtained for all the local regions exists on substantially the same plane in the xyz three-dimensional coordinate space. The vector V on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified only when the planes are substantially on the same plane, and the vector V and information indicating the focused position are obtained. First feature information generating means to be associated with, a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and going in one direction, and associated with each vector V specified by the first feature information generating means For each piece of information, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is defined with reference to the focused position relating to the information, and a plurality of sets of the vector V and the vector PQ and a unit vector S are shown. Verification data generation means for generating verification data, second 3D data acquisition means for acquiring second 3D data, xy 2D flat A second scanning unit that sequentially focuses on each position on the top, and every time one position is focused by the second scanning unit, on a predetermined number of four or more xy two-dimensional planes located around the focused position For each of the local regions, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region among the three-dimensional positions indicated by the second three-dimensional data is determined. It is determined whether or not each average position obtained for the local region is on substantially the same plane in the xyz three-dimensional coordinate space, and the xy two-dimensional of the plane is only when the average position is on the same plane. Second feature information generating means for specifying a vector V ′ on an xy two-dimensional plane indicating a gradient with respect to the plane and associating the vector V ′ with information indicating the focused position By sequentially applying each vector V in the verification data to each vector V ′ specified by the second feature information generating means, the orientation relationship between the vector V ′ and the new unit vector S ′ is a vector. Each unit vector S ′ is defined so as to be the same as the orientation relationship between the vector V applied to V ′ and the unit vector S, and according to the distribution state in the xyz three-dimensional coordinate space of all the determined unit vectors S ′. The apparatus further comprises collating means for determining a similarity tendency between the first three-dimensional data and the second three-dimensional data.
[0013]
The data collating method according to the present invention is a data collating method for collating three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, wherein the first three-dimensional data is acquired. A three-dimensional data acquisition step, a first scanning step in which attention is paid sequentially to each position on the xy two-dimensional plane, and every time one position is noticed in the first scanning step, it is located around the focused position. For each of the four or more predetermined number of local regions on the xy two-dimensional plane, among the three-dimensional positions indicated by the first three-dimensional data, the xyz three-dimensional coordinates of the three-dimensional position having the x coordinate and the y coordinate in the local region An average position in the space is obtained, and all the average positions obtained for all the local regions are on substantially the same plane in the xyz three-dimensional coordinate space. The vector V on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified only when the planes are substantially on the same plane, and the vector V and the focused position A first feature information generating step for associating information indicating the unit vector S, a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and going in one direction, and each of the unit feature S specified by the first feature information generating step For each piece of information associated with the vector V, a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space is defined with reference to the focused position relating to the information, and a plurality of sets of vector V and vector PQ and units A collation data generation step for generating collation data indicating the vector S, and second 3D data for acquiring second 3D data An acquisition step, a second scanning step for sequentially focusing on each position on the xy two-dimensional plane, and each time one position is focused on by the second scanning step, four or more located around the focused position For each of a predetermined number of local regions on the xy two-dimensional plane, an average of three-dimensional positions having x and y coordinates in the local region among the three-dimensional positions indicated by the second three-dimensional data in the xyz three-dimensional coordinate space And determining whether or not each average position obtained for all the local regions is on substantially the same plane in the xyz three-dimensional coordinate space. As long as the vector V ′ on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified, the vector V ′ and the focused position are indicated. A second feature information generation step for associating the information with each other, and by sequentially applying each vector V in the matching data to each vector V ′ specified in the second feature information generation step, Each unit vector S ′ is determined such that the azimuth relationship with the unit vector S ′ is the same as the azimuth relationship between the vector V and the unit vector S applied to the vector V ′, and xyz3 of all the determined unit vectors S ′. And a collating step for determining a similarity tendency between the first three-dimensional data and the second three-dimensional data according to a distribution state in a dimensional coordinate space.
[0014]
As a result, the three-dimensional data in a rotational relationship can be appropriately collated.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an image collating apparatus according to an embodiment of the present invention will be described with reference to FIGS.
<1. Configuration>
FIG. 1 is a functional block diagram of an image collating apparatus according to an embodiment of the present invention.
[0016]
The image collation apparatus 100 is an apparatus that is used in an image retrieval system that retrieves specific image data from an image database and has a function of collating two pieces of image data. Here, in the image search system, objects such as objects, people, and landscapes are handwritten from an image database that is a set of multi-gradation two-dimensional image data (hereinafter referred to as “searched data”) formed by imaging. A function of searching for data to be searched that is obtained by imaging the same object as the two-dimensional image data (hereinafter referred to as “search reference data”) of the line drawing obtained by digitizing the line drawing drawn in (1) using a scanner or the like. It is the system which has.
[0017]
The image matching device 100 is realized as one function of a computer. As shown in FIG. 1, a search reference data acquisition unit 101, a luminance level determination unit 102, a feature data generation unit 103, a range limitation unit 104, and verification data generation. A holding unit 105, a searched data acquisition unit 106, a line drawing unit 107, a luminance level determination unit 108, a feature data generation unit 109, a collation unit 110, and an evaluation value recording unit 111 are provided. The function of each unit constituting the image collating apparatus 100 is realized by the CPU executing a control program stored in the memory of the computer.
[0018]
Hereinafter, each part which comprises this image collation apparatus 100 is demonstrated.
<1-1. Search Criteria Data Acquisition Unit 101>
The search reference data acquisition unit 101 has a function of specifying search reference data, which is one line drawing data, as a processing target and transmitting it to the luminance level determination unit 102. This search reference data is 1 if the person who performs the search draws a line drawing on paper by hand and then there is a line (point) drawn for each pixel position by a scanner or the like, and if there is no line (point). The data obtained by giving a data value of 0 to binary two-dimensional image data is, for example, data of 512 pixels in the horizontal direction and 512 pixels in the vertical direction.
[0019]
<1-2. Luminance Level Determination Unit 102>
The brightness level determination unit 102 performs a predetermined brightness determination process based on the transmitted search reference data, determines a multi-tone brightness value for each pixel of the search reference data, for example, 256 multi-tone multi-tone It has a function of generating image data.
In the luminance determination process, each pixel position on the xy two-dimensional plane related to the search reference data is sequentially set as a first scanning point, and all pixel positions in a circular area having a predetermined constant radius r1 are centered on the first scanning point. The first luminance value is approximately inversely proportional to the number of all pixel positions where the binary data value is 1, that is, the number of all pixel positions corresponding to a line or point drawn in the circular area. This is a process of determining the luminance value for the scanning point.
[0020]
That is, in the luminance determination process, the number of all pixel positions where the data value is 1 in a circular area having a constant radius r1 centered on the first scanning point is k while moving the first scanning point on the search reference data. If the luminance value is determined by assuming that the arithmetic expression for obtaining the luminance value Z at the first scanning point is, for example, the following equation 1, the number of 256 gradations from 0 to 255 is obtained. This is processing for generating gradation image data.
[0021]
[Formula 1] Z = 255 / (k + 1)
Here, for example, the radius r1 of the circular region is 10 pixels or the like, and the size of the circular region is determined so that k can vary from 0 to a value of 255 or more. Is an integer value obtained by rounding the result of 255 / (k + 1).
[0022]
In practice, when the first scanning point is at the end of the search reference data, since the position in the circular region centering on the first scanning point protrudes from the search reference data region, for example, When the radius r1 of the circular area is 10 pixels, the horizontal coordinates 10 to 501 and the vertical coordinates 10 to 501 in the search reference data in which pixels exist at each coordinate of the horizontal coordinates 0 to 511 and the vertical coordinates 0 to 511 The luminance value at each first scanning point is obtained sequentially with each coordinate position as the first scanning point, and the luminance value is not obtained for pixel positions in the range of 10 pixels from each end.
[0023]
By scanning, the coordinates of the first scanning point change in the horizontal direction in the order of (10, 10), (11, 10), (12, 10), ..., (500, 10), (501, 10). Subsequently, the next row changes in the same manner as (10, 11), (11, 11), (12, 11),..., (500, 11), (501, 11). An xy two-dimensional plane related to image data such as search reference data is a two-dimensional plane represented by an x-axis and a y-axis, and all pixel positions constituting the image data are integer values in the x-coordinate and the y-coordinate. Shall be represented. It is assumed that each pixel has a position as a point, and the distance between two pixels adjacent in the horizontal direction or the vertical direction on the xy two-dimensional plane is 1.
[0024]
FIG. 2 is a diagram illustrating the relationship between the line drawing portion and the first scanning point in the search reference data.
This figure shows a circular area 203 centered on a first scanning point 202 at a certain moment during scanning, taking as an example search reference data 200 representing a line drawing 201 in which two triangles are connected.
[0025]
In this example, since the number k of pixel positions on the line drawing in the circular area is 16, the luminance value Z of the first scanning point 202 is Z = 255 / (16 + 1) = 15 from Equation 1.
For example, when a simple straight line is represented in the search reference data, when the first scanning point is on the straight line by the above scanning, the largest number of pixel positions are included in the circular area 203. The luminance of the first scanning point is the lowest, and the luminance of the first scanning point decreases to a certain extent as the first scanning point moves away from the straight line.
[0026]
<1-3. Feature Data Generation Unit 103>
The feature data generation unit 103 has a function of performing predetermined feature extraction processing based on the multi-tone image data generated by the brightness level determination unit 102 and storing feature data that is information indicating the feature of the image.
In the feature extraction process, each position on the two-dimensional image space related to the multi-tone image data generated by the luminance level determination unit 102 is sequentially set as the second scanning point, and a predetermined constant radius centered on the second scanning point. Only when the average luminance values for the first quadrant to the fourth quadrant obtained by dividing the circular area r2 into horizontal and vertical crosses are in a planar relationship, around the second scanning point. A vector V, which is a spatial gradient of each average luminance value, and a three-dimensional coordinate P obtained by adding the luminance value for the second scanning point as another dimension data to the two-dimensional pixel position for the second scanning point. This is a process of saving a pair. Hereinafter, when distinguishing individual vectors V, V (1), V (2),..., Etc., and when distinguishing individual three-dimensional coordinates P, P (1), P (2),. .. etc., typically V (i), P (i).
[0027]
FIG. 3 is a diagram illustrating an example of the relationship between the second scanning point used in the feature extraction process and each region of the first quadrant to the fourth quadrant. In the figure, the radius r2 is 10 pixels.
Here, the feature extraction processing will be described in more detail with reference to FIG.
The multi-gradation image data generated by the brightness level determination unit 102 is data in which a luminance value is determined for each pixel position in the xy two-dimensional image space. In the feature extraction process, xy2 related to the multi-gradation image data is obtained. A portion between a negative direction of x and a negative direction of y with reference to the second scanning point in a circular region having a radius r2 centered on the second scanning point while moving the second scanning point on the dimensional image space The average value z1 of each luminance value corresponding to (region R1 in FIG. 3) and the average value of each luminance value corresponding to a portion (region R2) between the positive direction of x and the negative direction of y z2, an average value z3 of each luminance value corresponding to a portion between the negative direction of x and the positive direction of y (region R3), and a portion between the positive direction of x and the positive direction of y (region R4) ) To obtain an average value z4 of each luminance value, and using these z1 to z4, Each average luminance value of the peripheral scanning point to calculate the vector V (i) is the spatial gradient of luminance values at the periphery of determining whether or not and the second scanning point in the plane relationship.
[0028]
The second scanning point is when the multi-tone image data is composed of 502 pixels in the horizontal direction (x coordinate is 10 to 501) and 502 pixels in the vertical direction (y coordinate is 10 to 501) on the xy two-dimensional plane. , X coordinate and y coordinate move in the range of 20-491 respectively. That is, the coordinates of the second scanning point sequentially change in the horizontal direction as (20, 20), (21, 20), (22, 20), ..., (490, 20), (491, 20). Subsequently, (20, 21), (21, 21), (22, 21),..., (490, 21), (491, 21) are similarly changed for the next line.
[0029]
Whether each average luminance value of each part (region R1 to R4) around the second scanning point has a planar relationship is determined based on whether the relationship represented by the following inequality is satisfied. Done.
[Expression 2] | z1-z2-z3 + z4 | ≦ C1
In Equation 2, C1 is a constant, and a relatively small value is determined in advance so that the relationship of the inequality of Equation 2 is satisfied when z1−z2−z3 + z4 is close to 0. In the case where the maximum value of the luminance value is 255, C1 may be a single value of about 0 to 5, for example.
[0030]
When the relationship represented by the inequality of Equation 2 is satisfied, the above-described regions R1 to R4 are further rotated about the second scanning point by 30 degrees in the circumferential direction, and the region R1 ′ of the new range is obtained. Similarly, for R4 ′, the average values z1 to z4 of the luminance values in the respective regions are obtained to determine whether or not the relationship represented by the inequality of Equation 2 is satisfied, and when the relationship is still satisfied, the same is performed again. The regions R1 ′ to R4 ′ are rotated in the direction, z1 to z4 are similarly obtained for the new ranges R1 ″ to R4 ″, and it is determined whether or not the relationship represented by the inequality of Equation 2 is satisfied. Is satisfied, it is determined that the average luminance values of the regions around the second scanning point are in a planar relationship.
[0031]
Hereinafter, the vector V (i), which is the spatial gradient of the luminance value around the second scanning point, is performed only when the average luminance values of the respective regions around the second scanning point are in a planar relationship. A calculation procedure will be described. When z1−z2−z3 + z4 is not 0, z4 is corrected so that z1−z2−z3 + z4 becomes 0, and the vector V (i) is calculated by the following procedure after correction.
[0032]
First, for each of the regions R1 to R4, an average luminance value in the region is determined as a coordinate (z coordinate) of another dimension at an average position (x coordinate and y coordinate of the center of gravity) of the region on the xy two-dimensional plane. As a result, four three-dimensional coordinates are obtained.
The x coordinate of the average position of the region R1 is x1, the y coordinate is y1, the x coordinate of the average position of the region R2 is x2, the x coordinate is x2, and the x coordinate of the average position of the region R3 is x3, y coordinate. Is y3, the x coordinate of the average position of the region R4 is x4, and the y coordinate is y4, the above four three-dimensional coordinates are A1 (x1, y1, z1), A2 (x2, y2, z2), A3 (x3, y3, z3) and A4 (x4, y4, z4).
[0033]
By substituting the respective three-dimensional coordinate values of A1 to A4 into the general formula of the plane, the value of each coefficient of the general formula of the plane is calculated, and the vector V (i) is calculated by the formulas 4 and 5. Components Vx and Vy are obtained.
[Formula 3] a * x + b * y + c * z = d
In Equation 3, x, y, and z are variables, a, b, c, and d are coefficients, and “·” is a multiplication operator.
[0034]
[Formula 4] Vx = −a / c
[Formula 5] Vy = −b / c
Equation 4 represents the slope of a straight line intersecting the xz plane, that is, the displacement Δz / Δx in the z direction with respect to the displacement in the x direction, in which the plane in the three-dimensional coordinate space according to Equation 3 in which the coefficient value is determined. The plane in the three-dimensional coordinate space according to the equation 3 with a fixed coefficient value represents the inclination of the straight line intersecting the yz plane, that is, the displacement Δz / Δy in the z direction with respect to the displacement in the y direction.
[0035]
In other words, Vx represents the gradient of the luminance value in the x direction, and Vy represents the gradient of the luminance value in the y direction. Therefore, it can be said that the vector V (i) represents the spatial gradient of the luminance value.
Assuming that the value of the three-dimensional coordinate P (i) to be stored in a pair with V (i) = (Vx, Vy) thus obtained is (Px, Py, Pz), Px is converted into multi-tone image data. The x-coordinate of the second scanning point in the xy two-dimensional plane is such that Py is the y-coordinate of the second scanning point in the xy two-dimensional plane relating to the multi-tone image data, and Pz is a value obtained by the following equation (6).
[0036]
[Formula 6] Pz = (z1 + z2 + z3 + z4) / 4
The feature data generation unit 103 records and stores a plurality of sets of V (i) and P (i) obtained by such a procedure in a memory. However, as an exception, for V (i) where both Vx and Vy which are components of V (i) are approximately 0, that is, V (i) which is less than a predetermined threshold, V (i) And P (i) are not saved. For example, if the average luminance values in the regions R1 to R4 around the second scanning point are all the same value, V (i) and P (i) for the second scanning point are not stored.
[0037]
<1-4. Range limiting unit 104>
The range limiting unit 104 has a function of specifying a range in which the image to be collated exists in the search reference data. For example, a search reference having 512 pixels in the horizontal and vertical directions in response to input from a searcher Identify a rectangular area in the data. The rectangular area is defined as, for example, a range where the x coordinate is 30 to 480 and the y coordinate is 30 to 480.
[0038]
<1-5. Verification Data Generation Holding Unit 105>
The collation data generation / holding unit 105 determines a point Q and a vector S indicating a certain direction on the xyz three-dimensional space, and the vector V (i) and the three-dimensional coordinate P ( Among the pairs with i), those in which the x and y coordinates of P (i) are included in the range specified by the range limiting unit 104 are extracted, and the extracted V (i) and P (i) For each group, PQ (i) indicating the position of Q in relative coordinates from P (i) is obtained, and V (i), PQ (i), and one S are stored in a memory or the like as collation data. It has a function.
[0039]
Number of combinations of V (i) and P (i) stored by the feature data generation unit 103 that include the x and y coordinates of P (i) within the range specified by the range limiting unit 104 Is n, the collation data generation and holding unit 105 stores n vectors V (i), n three-dimensional relative coordinates PQ (i), and one vector S as collation data. It will be.
[0040]
For example, if P (1) and P (2) are within the range specified by the range limiting unit 104, the relative coordinate PQ (1) is associated with the vector V (1), and similarly the relative coordinate PQ (2) is stored in association with the vector V (2). The vectors V (i), PQ (i), and S are all data composed of an x-direction component, a y-direction component, and a z-direction component in the xyz three-dimensional coordinate space. A vector V (i) having a starting point at the point P and a vector S having a starting point at the point Q are expressed by relative positions of relative starting points and relative directions of the vectors by V (i), PQ (i) and S. , That is, a relative orientation relationship.
[0041]
<1-6. Searched data acquisition unit 106>
The to-be-searched data acquisition unit 106 sequentially extracts one multi-tone image data from an image database in which a large number of to-be-searched multi-tone image data is stored, and specifies it as a target to be collated with the search reference data. And has a function of transmitting to the line drawing unit 107.
[0042]
This searched data is multi-gradation image data generated by a digital camera or the like, and is data of, for example, 256 gradations, 512 pixels in the horizontal direction and 512 pixels in the vertical direction.
<1-7. Line Drawing Unit 107>
The line drawing unit 107 performs a spatial differentiation process for obtaining the gradient of the luminance value in the two-dimensional image plane with respect to the multi-tone image data that is one search target data transmitted from the search target data acquisition unit 106 and the result thereof. 2 is binarized, and as a result, binary image data corresponding to the line drawing is generated and transmitted to the luminance level determination unit 108. In other words, the continuous process from the spatial differentiation process to the binarization process is a process in which a portion where the spatial gradient of the luminance change of the image is steep, that is, a so-called edge portion is set to 1 and the other portions are set to 0.
[0043]
<1-8. Luminance Level Determination Unit 108>
The luminance level determination unit 108 receives the binary image data generated based on the searched data from the line drawing unit 107, performs a predetermined luminance determination process, and performs multi-gradation luminance for each pixel in the binary image data. For example, it has a function of generating multi-gradation image data of, for example, 256 gradations by determining a value. The luminance determination process for generating multi-tone image data based on the binary image data is basically the same as the luminance determination process performed by the luminance level determination unit 102 described above, that is, the image data to be processed is different. Is the same.
[0044]
<1-9. Feature Data Generation Unit 109>
The feature data generation unit 109 has a function of performing predetermined feature extraction processing based on the multi-gradation image data generated by the luminance level determination unit 108 and storing feature data indicating image features. This feature extraction process is basically the same as the feature extraction process performed by the above-described feature data generation unit 103, that is, the same except that the image data to be processed is different. If completely the same image data is input to the feature data generation units 103 and 109, the feature data generation units 103 and 109 both store feature data having the same contents.
[0045]
The feature data stored by the feature data generation unit 109 is a plurality of sets of vectors V and three-dimensional coordinates P obtained based on the multi-tone image data generated by the luminance level determination unit 108. Hereinafter, the vector V and the three-dimensional coordinate P stored by the feature data generation unit 109 are expressed in the form of a vector V ′ (j) and a three-dimensional coordinate P ′ (j).
[0046]
<1-10. Verification unit 110>
The collation unit 110 is generated by the feature data generation unit 109 with n sets of vectors V (i), relative coordinates PQ (i) and one S that are the collation data generated by the collation data generation and holding unit 105. Using the m sets of vectors V ′ (j) and the three-dimensional coordinates P ′ (j), the image shown in the search reference data in a certain range approximates the image shown in the searched data. It has a function of performing a collation process for determining whether it is a thing.
[0047]
As this collation process, the collation unit 110 first applies all V (i) in the collation data in order for each vector V ′ (j), and is indicated by V (i), PQ (i), and S. Size 1 so that the azimuth relationship between V (i) and S in the three-dimensional coordinate space and the azimuth relationship between V ′ (j) and S ′ (j, i) in the three-dimensional coordinate space are the same. Unit vector S ′ (j, i). Here, S ′ (i, j) is a unit determined by applying the vector V (i) to the vector V ′ (j) so as to maintain the same orientation relationship as the vector S with respect to the vector V (i). Meaning vector S ′, if there are n V (i) as matching data and m vectors V ′ (j) stored by the feature data generation unit 109, the unit vector S in the matching process '(I, j) is determined to be n · m.
[0048]
If the angle between the direction of vector V (i) and the direction of vector PQ (i) from point P to point Q is α, α is V (i) and PQ (i If the angle between the direction of the vector V (i) and the direction of the vector S is β, β can be obtained from V (i) and S. Further, the distance γ between the point P and the point Q can be obtained from the vector PQ (i).
[0049]
Therefore, to determine the unit vector S ′ (i, j) by applying the vector V ′ (j) to the vector V ′ (j), the starting point of the unit vector S ′ (hereinafter referred to as “point Q ′”) is obtained. A vector P′Q ′ that is at a distance γ from the position of the point P ′ (j) that is the starting point of the vector V ′ (j) and that travels from the point P ′ to the point Q ′ is the vector V ′ (j). And the unit vector S ′ is determined to be a vector directed to the angle β with respect to the vector V ′ (j).
[0050]
Next, the xyz three-dimensional coordinate space is segmented so as to be a three-dimensional array of unit cubes of a predetermined size such as one side having a length of 5, and each unit cube is positioned in the unit cube. Processing for obtaining the vector addition result of all the vectors S ′ (i, j), that is, processing for synthesizing the vectors is performed, and finally, the maximum value Smax of the combined vector obtained as the vector addition result and the vector S ′ The number Snum of the vectors S ′ (i, j) in the unit cube containing the most (i, j) is evaluated together with information for identifying the searched data acquired by the searched data acquiring unit 106. If the maximum value Smax of the vector size stored in the value recording unit 111 and obtained as a vector addition result is equal to or greater than a predetermined threshold, the image in the searched data and the search reference data The image performing a process of determining and tend similar.
[0051]
The collation unit 110 displays the determination result via, for example, a display device. The display contents of the determination result are, for example, the search target data itself, whether it is similar or dissimilar, and the value of Smax / n.
If the image data obtained as a result of drawing the search target data completely matches the search reference data, the maximum vector size Smax obtained as a result of the vector addition described above is the size of the unit cube. Theoretically, at least n is the size of 1 pixel × 1 pixel × 1 pixel. Therefore, in consideration of the influence of the pixel positions being discrete in the digital image, in practice, for example, 0.6 or 0.7 times n may be set as the predetermined threshold.
[0052]
<1-11. Evaluation Value Recording Unit 111>
The evaluation value recording unit 111, as a pair with the information for identifying the data to be searched by the collating unit 110, the maximum value Smax of the vector size obtained as the vector addition result and the vector S ′ (i, This is a storage area such as a memory in which the maximum density of j), that is, the maximum number Snum of the number in the unit cube is stored.
[0053]
The evaluation value recording unit 111 includes a line drawing unit 107, a luminance level determination unit 108, and a feature data generation unit 109 each time one piece of image data is acquired from the image database by the search data acquisition unit 106. And by the operation of the collation unit 110, information for identifying a set of data to be searched and the maximum value Smax are additionally recorded. Therefore, if the contents of the evaluation value recording unit 111 are used, the search target data identified corresponding to the largest recorded maximum value Smax is indicated in the search reference data most in the image database. It is possible to evaluate that the data to be searched has a high tendency to be similar to the image. For example, it can be evaluated that the similarity tendency is higher as the number of Snums is larger.
<2. Operation>
Hereinafter, the operation of the image collation apparatus 100 having the above-described configuration will be described.
[0054]
The image collation apparatus 100 can be broadly divided into a first process for acquiring search reference data that is binary image data of input line drawings and generating collation data, and sequentially specifying data to be searched from the image database. Then, by using the specified data to be searched and the data for collation, the second processing for collating the search reference data with the data to be searched is performed.
[0055]
FIG. 4 is a flowchart showing a first process for acquiring the search reference data and generating the matching data.
As shown in the figure, first, the search reference data acquisition unit 101 acquires search reference data and transmits it to the luminance level determination unit 102 (step S11). The brightness level determination unit 102 generates multi-gradation image data by determining the brightness value for each pixel position by moving the first scanning point on the search reference data (step S12). As a result, multi-tone image data having a high luminance value is generated for pixel positions around the low density of lines and dots indicated by the search reference data.
[0056]
Subsequently, the feature data generation unit 103 moves the second scanning point on the xy two-dimensional plane related to the multi-tone image data generated by the luminance level determination unit 102, and the periphery around the second scanning point. Only when each average luminance value of each of the four divided regions is in a planar relationship, a vector V (i) indicating a spatial gradient of the average luminance value is obtained as xy of the second scanning point. The xyz three-dimensional coordinate P (i) in which the coordinate and the average luminance value of the entire surrounding four regions are set to the z coordinate are stored in a memory or the like (step S13).
[0057]
Subsequently, the verification data generation holding unit 105 receives the specification of the range by the range limiting unit 104, determines a point Q at an arbitrary three-dimensional position, determines a vector S in an arbitrary direction, and falls within the specified range. Relative coordinates PQ indicating vectors from P (i) to point Q for all vectors V (i) including three-dimensional coordinates P (i) and all P (i) located within the specified range (I) and one vector S are stored in a memory or the like as collation data (step S14).
[0058]
FIG. 5 is a diagram illustrating V (i) and P (i) generated by the feature data generation unit 103 and the points Q and vectors S determined by the collation data generation / holding unit 105.
In the figure, for convenience of explanation, the number of V (i) and P (i) is only three, and the figure shows a mapping on the xy two-dimensional plane for each element.
[0059]
FIG. 6 is a flowchart showing a second process for identifying data to be searched and using the matching data to match the search reference data with the data to be searched.
As shown in the figure, first, the searched data acquisition unit 106 acquires searched data that is one multi-tone image data from the image database and transmits it to the line drawing unit 107 (step S21). Then, binary image data is generated by binarization that extracts a so-called edge portion of the image represented in the search target data, and is transmitted to the luminance level determination unit 108 (step S22).
[0060]
The luminance level determination unit 108 that has received the binary image data determines the luminance for each pixel position of the binary image data and generates new multi-gradation image data in the same manner as in step S12 described above (step S12). S23).
Subsequently, the feature data generation unit 109 moves the second scanning point on the xy two-dimensional plane related to the multi-gradation image data generated by the luminance level determination unit 108, and surrounds the second scanning point as a center. Each average luminance value of the four divided regions is obtained, and only when each average luminance value of each region is in a planar relationship, a vector V ′ (j) indicating a spatial gradient of the average luminance value is calculated at the second scanning point. The xyz coordinates and the average luminance value of the entire four surrounding areas are stored in a memory or the like together with the xyz three-dimensional coordinates P ′ (j) in which the z coordinates are used (step S24).
[0061]
Subsequently, the collation unit 110 uses P ′ (j) and V ′ (i) indicating the features related to the search target image stored by the feature data generation unit 109 and the collation data stored in the first process. Referring to each P ′ (j), when V (i) which is the matching data is placed on the position of P ′ (j) in the xyz three-dimensional space so as to match V ′ (j), A unit vector S ′ is arranged while maintaining the same orientation relationship from the position of V (i) to S (step S25).
[0062]
FIG. 7 shows V (i), PQ (i) and PQ (i) held by the collation data generation holding unit 105 for each set of V ′ (j) and P ′ (j) generated by the feature data generation unit 109. It is a figure which illustrates a mode that unit relationship S '(i, j) was defined by applying the relationship of S.
In the figure, for convenience of explanation, the number of V ′ (j), P ′ (j), and V (i) is only three, and the mapping on the xy two-dimensional plane is shown for each element. ing. In the figure, the notation “S (V ′ (1) ← V (2))” indicates that the unit vector S ′ is arranged as a result of fitting V (2) to V ′ (1). Yes.
[0063]
For example, when V (2) is applied to V ′ (1) placed at the position indicated by P ′ (1) extracted based on the searched data, the vector PQ (2) from P ′ (1) ), And the angle between the direction from P ′ (1) to Q ′ with respect to the vector V ′ (1) as a reference is V (2) as a reference. A point Q ′ is determined so as to be the same as the angle formed by the vector of PQ (2), and the angle formed by V ′ (1) and the unit vector S ′ is V (2) at the position of the point Q ′. A unit vector S ′ that is the same as the angle formed by the direction of the vector S with reference to is arranged.
[0064]
After arrangement of the unit vectors S ′, the collation unit 110 calculates Smax and Snum described above, determines whether or not they are similar based on Smax, displays the determination result on the display device, and further Smax and Snum are recorded in the evaluation value recording unit 111 (step S26).
The image matching apparatus 100 sequentially determines data to be searched from the image database, and repeats the procedures of steps S21 to S26 until it is determined that they are similar (step S26).
[0065]
By the first process and the second process described above, image data including those that match or are similar to the object drawn as a line drawing by the person performing the search among the image data in the image database is detected. It will be.
Note that in the feature data generation units 103 and 109, the relationship between the quadrant regions R1 to R4 around the second scanning point on the xy two-dimensional plane related to the image data, that is, the centroid of each region is positioned at the four vertices of the square. For each of the regions R1 to R4 (see FIG. 3), the coordinates of the center of gravity in the xyz three-dimensional space obtained by using the average luminance value in the region as the z coordinate of the center of gravity of the region are approximately on the same plane. Only when it exists, the change of the peripheral luminance value at the second scanning point with respect to the xy coordinate space is stored as the vector V (i) or the vector V ′ (j) and treated as indicating the characteristics of the image data. ing. In addition, only when the regions R1 to R4 are rotated by 30 degrees and 60 degrees around the second scanning point, and the coordinates in the xyz three-dimensional space of the center of gravity of each region obtained in the same manner are approximately on the same plane. The vector V (i) or vector V ′ (j) is stored.
[0066]
That is, even if the image is rotated, the feature data generation unit aims to make the mutual relationship between the feature data in the feature data group collected as a result of the scanning by the second scanning point unchanged. Only when the spatial gradient of the brightness in the peripheral region of the two scanning points is uniform, the spatial gradient of the luminance at the second scanning point obtained using the luminance at each position in the peripheral region of the second scanning point. Are stored as feature data that can be used as a basis for verification.
[0067]
Therefore, according to the image collating apparatus 100, the objects represented in the two image data to be collated are rotated even if they are in a relationship of being rotated around a straight line perpendicular to the image plane. It is possible to determine whether or not they are correct and similar, as in the case where there is no such information.
<3. Supplement>
As described above, the image collating apparatus according to one embodiment of the data collating apparatus and the data feature extracting apparatus according to the present invention has been described. However, the image collating apparatus can be partially modified, and the present invention is described above. It goes without saying that the present invention is not limited to the embodiment of the image collating apparatus. That is,
(1) The image collation apparatus can collate not only the line drawing image data and the multi-tone image data but also the two multi-tone image data and the two line drawing image data. You may do it. For example, when all the image data to be collated is line drawing image data, the line drawing by the line drawing unit 107 is omitted, and when all the image data to be collated are multi-tone image data. The line drawing similar to the line drawing unit 107 may be performed between the search reference data acquisition unit 101 and the luminance level determination unit 102.
[0068]
Also, in the case of collating two multi-tone image data, the processing by the line drawing unit and the brightness level determining unit is omitted, and the two multi-tone image data are directly processed by each feature data generating unit. You may comprise an image collation apparatus so that it may become object.
(2) The position on the xy two-dimensional plane where the first scanning point or the second scanning point is positioned in the scanning by the luminance level determination unit and the feature data generation unit of the image matching device is not necessarily the point when the pixel is represented by a point. There is no need to be on top. For example, the first scanning point or the second scanning point may change an intermediate point between the pixel point and the pixel point. Further, in order to determine the luminance at the first scanning point, binary data for pixels in the range of the circular area centered on the first scanning point is used, and the spatial gradient of the luminance at the second scanning point is obtained. For this reason, the luminance values for the pixels within the range of the circular area centered on the second scanning point are used. However, each circular area may be changed to an area of another shape, You may vary the size.
(3) In the luminance determination process by the two luminance level determination units, Equation 1 is used to determine the luminance value Z of the first scanning point from the number k of the pixel positions in the circular area centered on the first scanning point. Although used, there are more lines or points around the first scanning point, that is, the number of pixel positions where the luminance value Z becomes lower as the number of pixel positions where the value of binary data is 1 is larger or the number of pixel positions is larger. If the calculation is such that the luminance value Z increases as the number increases, the luminance value Z may be determined by a calculation other than Equation 1. That is, the luminance determination processing is performed for each position in the local area on the xy two-dimensional plane according to whether the density of pixel points having a binary data value of 1 such as a line drawing is high or low. This is a process for determining a dimension attribute value (luminance value).
(4) In the feature data generation unit, the regions R1 to R4 each have a range that includes a plurality of pixel points, but each region R1 to R4 may have a range that includes only one pixel point. Note that the feature data generation unit calculates the average position of all the points in the range of each of the regions R1 to R4 and the average value of the luminance of all the points, but each region R1 to R4 has one pixel point. In the case where only the area R1 to R4 is included, the average position of each of the areas R1 to R4 is the position of one pixel included in each area, and the average value of the luminance for each of the areas R1 to R4 is It is obtained by the luminance itself of the one pixel included in the region.
(5) In the feature data generation unit, in order to determine whether or not the luminance distribution around the second scanning point is planar, and to calculate the spatial gradient of the luminance around the second scanning point, the second scanning point A region R1 to R4 obtained by dividing a circular region into four in the periphery of the region, and in order to determine whether it is particularly planar, the regions R1 to R4 are rotated twice by 30 degrees and a determination based on Equation 2 is performed; However, whether or not the spatial distribution of luminance around the second scanning point is planar from the average position and average luminance value in each of four or more local regions around the second scanning point. If it is a method of calculating the spatial gradient of the luminance at the second scanning point as the angle between the plane and the xy two-dimensional plane if it is planar, the number of local regions is not necessarily four. The position of the local region is not limited, and the region R1 It is not limited to R4. Further, the rotation by 30 degrees by 2 degrees is only one method for ensuring that the luminance distribution around the second scanning point is sufficiently flat. For example, the second distribution on the xy two-dimensional plane is performed. Whether each pixel located at each vertex of a small regular polygon centered on the scanning point is substantially in the same plane in the xyz three-dimensional coordinate space, where the luminance is the z coordinate It may be determined whether or not the luminance distribution around the second scanning point is sufficiently planar depending on whether or not the second scanning point is present. It should be noted that only the points where the peripheral luminance distribution is sufficiently planar are treated as the information indicating the characteristics of the image, such as the spatial gradient of the luminances added to the points, so that the information is a plurality of objects to be collated. Thus, it is difficult to be affected by the deviation of the sampling direction or the processing of rotating the image in digitizing the image.
(6) The range limiting unit does not necessarily have to receive input from a person who performs a search, and may store a rectangular region in a fixed manner in advance. In addition, the range limiting unit displays an image captured by the search reference data acquisition unit via a display device or the like, and allows a user to perform a search to specify a rectangle by dragging the mouse or the like. The image range to be collated may be specified based on this.
(7) In the feature data generation unit, each component of the vector V (i) indicating the spatial gradient of luminance is calculated by Equation 4 and Equation 5, but the change in luminance and the position on the xy two-dimensional plane are calculated. Data calculated by other operations that can represent the relationship with changes may be handled in the same manner as the vector V (i). For example, when the average luminance values of the regions R1, R2, R3, and R4 are z1, z2, z3, and z4 in this order, the x component of the vector V (i) is obtained by the following equation (7): Vx The y component of (i) may be determined to be Vy obtained by the following equation (8).
[0069]
[Formula 7] Vx = z1-z2 + z3-z4
[Equation 8] Vy = z1 + z2-z3-z4
Further, a vector V (i) obtained by multiplying both its components Vx and Vy by a constant so that the magnitude of the vector V (i) is 1, is defined as a new vector V (i). (I) may be normalized.
(8) The collation data generation / holding unit generates and stores collation data that includes a plurality of sets of the vector V (i) and the vector PQ (i) and the vector S. Information indicating the azimuthal relationship between the direction and the position between the vector V (i) and the vector S is sufficient. For example, the matching data can be obtained from the direction of the vector V (i) from the vector PQ ( The angle in the direction of i), the magnitude of the vector PQ (i), and the angle from the direction of the vector V (i) to the direction of the vector S may be used.
[0070]
Note that the fitting of the vector V (i) to the vector V ′ (j) may be performed only when the magnitudes of both vectors are substantially the same. In this case, the verification data needs to include information indicating the magnitude of the vector V (i), and the luminance from the maximum to the minimum luminance between the two image data to be verified Before the collation, a method such as obtaining the vector V (i) by operations such as Equation 4 and Equation 5 so that the influence of the luminance range does not appear on the vector V (i) so as not to be affected by the difference in range. It is necessary to adjust the luminance range and use a method for obtaining the vector V (i) by the formulas 7 and 8 in the feature data generation unit.
(9) PQ (i) stored in the collation data generation / holding unit is all set so that the size of PQ (i) having the maximum size among all PQ (i) is 1. PQ (i) is defined as PQ (i), which is obtained by uniformly multiplying the size of all the components (x component, y component and z component) of PQ (i) of PQ (i). It is good also as making and storing. Of all the PQ (i), the maximum size of PQ (i) may be set to 1, and the average value of all the PQ (i) sizes may be set to 1. As a result of these normalizations, when the two image data to be collated indicate the same object and are in a relationship of enlargement / reduction, it can be determined that they are the same or similar.
(10) The collation unit of the image collation apparatus performs collation processing such as fitting, using all the data used for collation as xy two-dimensional data, that is, ignoring the z component in the xyz three-dimensional data and including the x component and the y component. Also good. In this case, a plurality of unit vectors S ′ are arranged on the xy two-dimensional plane, and both of the object to be collated are determined on the xy two-dimensional plane according to the distribution state of the starting points of the plurality of unit vectors S ′ that are directed in the same direction. The similarity tendency of images can be evaluated. Note that it can be determined that the images are more similar as the number of origins in the local range where the origins of the unit vectors S ′ directed in approximately the same direction on the xy two-dimensional plane are concentrated the most.
(11) The collation unit calculates the size of an angle formed by the direction of the unit vector S ′ in the partial region where the addition result of the unit vector S ′ is the maximum viewed from the direction of the vector S, and the calculation result It is also possible to output to the display device or the like how much the images to be collated are in an angular relationship. Further, the collation unit records the maximum value Smax of the magnitude of the combined vector, which is the addition result of the vector S ′, and the maximum number Snum of the vectors S ′ in the unit cube in the evaluation value recording unit, as well as a display device or the like. May be output.
(12) The collation unit divides the xyz three-dimensional coordinate space so as to be a three-dimensional array of unit cubes of a predetermined size, for example, each side is 5 in length, and each unit cube has its unit cube A process of obtaining the vector addition result of all the vectors S ′ (i, j) positioned at the position, that is, a process of synthesizing the vectors is performed. Finally, the maximum value Smax of the combined vector obtained as the vector addition result is And the number Snum of the vectors S ′ (i, j) in the unit cube containing the most vectors S ′ (i, j) to identify the searched data acquired by the searched data acquisition unit 106. However, the unit cube here is not necessarily limited to a cube, and a predetermined size is used instead of a cube. May be the use of a sphere having a radius of no problem even be arranged such that each sphere overlap partially when arranged as a three-dimensional array in the same manner that each sphere and cube.
(13) In addition to the form of the above-described image collation device, the data collation technique according to the present invention can be applied to collation of 3D data aggregates, and can be applied to 3D map data or 3D measured object shapes. The present invention can also be applied to a use in which similarity is determined by comparing such data with other similar data.
[0071]
If the two 3D data to be collated are in a rotational relationship with respect to a certain straight line, if the straight line cannot be predicted, a plane perpendicular to the straight line can be assumed in advance. By treating the plane perpendicular to the straight line as the xy two-dimensional image plane in the case of the image matching shown as the embodiment, the similarity can be appropriately determined. For example, 3D data A indicating the shape of a single building and 3D data B indicating the shape and positional relationship of a plurality of buildings in a section where a plurality of buildings including the building are built. If it is necessary to collate and determine whether or not the same or similar building as the 3D data A is represented in the 3D data B, the surface of the land is treated as an xy 2D plane, By performing the same processing as the processing performed by the feature data generation unit of the image matching device using the height that is the attribute value of the position as the z coordinate, the determination can be performed in the same manner as the image matching device. become.
(14) A program for causing a computer to execute each process (see FIGS. 4 and 6) in the image collating apparatus can be recorded on a recording medium or distributed and distributed via various communication paths. Examples of such a recording medium include an IC card, an optical disk, a flexible disk, and a ROM. The distributed and distributed program is used by being stored in a memory or the like that can be read by a computer, and the computer executes the program to realize the functions of the image processing apparatus described in this embodiment.
[0072]
【The invention's effect】
As is clear from the above description, the data feature extraction device according to the present invention is a data feature extraction device that generates feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space. A three-dimensional data acquisition unit that acquires three-dimensional data, a scanning unit that sequentially focuses on each position on the xy two-dimensional plane, and each time a position is focused by the scanning unit, the periphery of the focused position Xyz three-dimensional coordinates of a three-dimensional position having an x coordinate and a y coordinate in the local area among the three-dimensional positions indicated by the three-dimensional data for each of the four or more predetermined number of local areas on the xy two-dimensional plane An average position in space is obtained, and each of the average positions obtained for all the local regions is almost the same in the xyz three-dimensional coordinate space. It is determined whether or not it exists on the same plane, and the information indicating the gradient of the plane with respect to the xy two-dimensional plane is associated with the information indicating the focused position only when they exist on the same plane. And feature information generating means for generating as one element of the feature information.
[0073]
Thereby, the characteristic information about the three-dimensional data that can be used for the comparison between the three-dimensional data can be obtained. When the three-dimensional data is collated with the obtained feature information, the three-dimensional data having the relationship rotated around the straight line perpendicular to the xy two-dimensional plane has a similar tendency to some extent appropriately between the three-dimensional data representing the same object. It can be determined that the price is high.
[0074]
Here, the three-dimensional data is image data indicating a position and a luminance value on the xy two-dimensional plane for each pixel arranged on the xy two-dimensional plane, and the three-dimensional position is a luminance value for the pixel. And the x coordinate and y coordinate of the position on the xy two-dimensional plane with respect to the pixel, and the scanning means includes a pixel related to the image data on the xy two-dimensional plane. The feature information generating unit sequentially focuses on each position in the region, and the feature information generation unit performs processing for each local region on a predetermined number of four or more xy two-dimensional planes located around the position focused by the scanning unit. The average position on the xy two-dimensional plane and the average value of the luminance values for all the pixels arranged at positions on the xy two-dimensional plane having the x coordinate and the y coordinate in the xyz 3 It is determined as an average position in the original coordinate space, and it is determined whether or not each average position calculated for all the local regions is substantially on the same plane in the xyz three-dimensional coordinate space. The information indicating the gradient of the plane with respect to the xy two-dimensional plane and the information indicating the focused position may be generated as one element of the feature information.
[0075]
As a result, the feature information is generated by extracting features only in the local area where the luminance distribution is flat, so that the influence of the positional reference of sampling and the rotation processing of the image data in the digital image data generation stage is affected. It will not appear in the feature information, and if this feature information is used, it becomes possible to appropriately match two image data in a rotational relationship.
[0076]
The data feature extraction apparatus further includes line drawing data acquisition means for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane; Binary image scanning means for sequentially paying attention to each position on an xy two-dimensional plane where pixels related to the value image data are arranged, and included in an area of a predetermined size centered on the position noted by the binary image scanning means Among the pixels related to the binary image data, the attribute value is determined so that the attribute value decreases as the number of pixels in which the binary data for the pixel indicates the first value increases, Attribute value determining means for associating the position with the attribute value, and each set of the position and attribute value on the xy two-dimensional plane associated with the attribute value determining means as the three-dimensional data. Transmission means for transmitting to the original data acquisition means, and the three-dimensional position is indicated by an x-coordinate and a y-coordinate of each position constituting the three-dimensional data and a z-coordinate which is an attribute value corresponding to the position. It may be a thing.
[0077]
Thus, since the line density is an attribute value for each position on the xy two-dimensional plane, when the obtained feature information is used, the binary image data representing the line drawing is compared with other image data. Even when the line is partially broken and becomes a broken line, the similarity of the image data can be determined appropriately.
The three-dimensional data is image data indicating a position on the xy two-dimensional plane and an attribute value for each pixel arranged on the xy two-dimensional plane, and the three-dimensional position is an attribute value for the pixel. It is indicated by a certain z coordinate and an x coordinate and a y coordinate of a position on the xy two-dimensional plane for the pixel, and the scanning unit is provided with a pixel related to the image data on the xy two-dimensional plane. The feature information generation unit pays attention to each position in the region sequentially, and the feature information generation unit uses the position as a reference in a region within a certain range on the xy two-dimensional plane centered on the position focused by the scanning unit. The average value z1 of each attribute value corresponding to the first local region between the negative x direction and the negative y direction, and the second local region between the positive x direction and the negative y direction Average of each attribute value z2, the average value z3 of the attribute values corresponding to the third local region between the negative x direction and the positive y direction, and the fourth local region between the positive x direction and the positive y direction The average position is obtained by obtaining the average value z4 of each attribute value corresponding to the region, and when the value of the mathematical formula | z1-z2-z3 + z4 | is equal to or less than the predetermined value d1, all the local regions are It is determined that each of the obtained average positions is on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane corresponds to information indicating the focused position. The attached one may be generated as one element of the feature information.
[0078]
As a result, in image data or the like in which pixels are arranged in a two-dimensional array on the xy two-dimensional plane, the gradient of the luminance value with respect to the xy two-dimensional data plane when the luminance value of the pixel is taken as the z coordinate is in the x and y directions. It is possible to easily determine whether or not the distribution of the luminance value, which is the basis for calculating the gradient of the luminance value when it is used as the feature information of the image data, is planar. . When the average luminances z1 to z4 of the regions R1 to R4 shown in the embodiment are in a planar relationship, the spatial gradient of the luminance of the scanning point is obtained on the basis of the calculation of these z1 to z4 to show the image characteristics. Using a method that is to be treated as information, for example, each of two image data obtained by imaging the same object by rotating the camera so that the relationship is rotated by 90 degrees with each other. When information indicating the characteristics is obtained, the information indicating the characteristics of each image is the same.
[0079]
The region of the certain range related to the feature information generating unit is a circular region having a constant radius centered on the position focused by the scanning unit, and the feature information generating unit is further focused by the scanning unit. The first to fourth areas determined with reference to the position are rotated by a predetermined angle with the reference position as a center, and the first to fourth areas after the rotation correspond to each other. An average value z1 ′, z2 ′, z3 ′ and z4 ′ of each attribute value is obtained, and the feature information generating means is a case where the value of the mathematical formula | z1−z2−z3 + z4 | is equal to or less than a predetermined value d1. In addition, when the value of the mathematical formula | z1′−z2′−z3 ′ + z4 ′ | is equal to or smaller than the predetermined value d1, each of the average positions obtained for all the local regions is all in the xyz three-dimensional coordinate space. Exists on almost the same plane It determines that that, those associated with information indicating the information and the focus position indicating a gradient with respect to the xy2 dimensional plane of the plane may be generated as a component of the characteristic information.
[0080]
Thereby, the characteristic information which shows the characteristic of each of the two image data which expresses the same object so that it may be in a relation rotated to an angle other than 90 degrees can be the same.
Further, the feature information generation means further associates information indicating the gradient and information indicating the focused position only when the gradient of the plane with respect to the xy two-dimensional plane is equal to or greater than a predetermined amount. It may be generated as one element of the feature information.
[0081]
As a result, since only the point where the luminance change is a certain amount is extracted as the feature of the image data, the number of data used for collation can be effectively reduced, and the calculation time required for collation can be shortened.
Further, the feature information generating means may calculate a mathematical expression representing the plane when the average positions obtained for all the local regions are substantially on the same plane, a · x + b · y + c · z = d ( a, b, c, and d are constant values), a vector V on an xy two-dimensional plane having x component and y component as -a / c and -b / c is obtained, and the magnitude of the vector V is 1 The unit vector obtained as follows may be specified as information indicating the gradient related to the plane.
[0082]
By such normalization, information indicating the characteristics of three-dimensional data such as multi-gradation image data is not affected by whether the range of attribute values corresponding to the z coordinate such as luminance is narrow or wide, and is used for collation. It can be used for general purposes.
In addition, the feature information generation unit calculates a vector V on an xy two-dimensional plane indicating the gradient related to the plane when all the average positions obtained for all the local regions are present on substantially the same plane. Specifying the vector V as information indicating the gradient related to the plane, and generating a correspondence between the vector V and the information indicating the focused position as one element of the feature information, The data feature extraction apparatus further determines a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and going in one direction, and each of the unit V associated with each vector V generated by the feature information generating means. For the information, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is defined with reference to the focused position related to the information. Collation data generated as collation data for use in collation between the three-dimensional data acquired by the three-dimensional data acquisition means and other three-dimensional data, information indicating a plurality of sets of tor PQs and unit vectors S It is good also as providing a production | generation means.
[0083]
As a result, data that can be directly used for collation is generated.
Further, the verification data generation means uniformly multiplies the size of each vector PQ so that the size of the vector PQ having the maximum size among the plurality of sets of vectors PQ is 1, Information indicating each vector PQ, each vector V, and the unit vector S obtained as a result of multiplication by a constant may be generated as the verification data.
[0084]
According to the data generated in this way, when two pieces of data to be collated indicate the same target and are in a relationship of enlargement / reduction, it can be appropriately determined.
A data collating apparatus according to the present invention is a data collating apparatus that collates three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space, and obtains first three-dimensional data. A three-dimensional data acquisition unit, a first scanning unit that sequentially focuses on each position on the xy two-dimensional plane, and each time one position is focused by the first scanning unit, is located around the focused position. For each of the four or more predetermined number of local regions on the xy two-dimensional plane, among the three-dimensional positions indicated by the first three-dimensional data, the xyz three-dimensional coordinates of the three-dimensional position having the x coordinate and the y coordinate in the local region An average position in the space is obtained, and whether or not each of the average positions obtained for all the local regions exists on substantially the same plane in the xyz three-dimensional coordinate space. The vector V on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane is specified only when the planes are substantially on the same plane, and the vector V and information indicating the focused position are obtained. First feature information generating means to be associated with, a unit vector S starting from one position Q in the xyz three-dimensional coordinate space and going in one direction, and associated with each vector V specified by the first feature information generating means For each piece of information, a vector PQ indicating a relative positional relationship of the position Q in the xyz three-dimensional coordinate space is defined with reference to the focused position relating to the information, and a plurality of sets of the vector V and the vector PQ and a unit vector S are shown. Verification data generation means for generating verification data, second 3D data acquisition means for acquiring second 3D data, xy 2D flat A second scanning unit that sequentially focuses on each position on the top, and every time one position is focused by the second scanning unit, on a predetermined number of four or more xy two-dimensional planes located around the focused position For each of the local regions, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x-coordinate and the y-coordinate in the local region among the three-dimensional positions indicated by the second three-dimensional data is determined. It is determined whether or not each average position obtained for the local region is on substantially the same plane in the xyz three-dimensional coordinate space, and the xy two-dimensional of the plane is only when the average position is on the same plane. Second feature information generating means for specifying a vector V ′ on an xy two-dimensional plane indicating a gradient with respect to the plane and associating the vector V ′ with information indicating the focused position By sequentially applying each vector V in the verification data to each vector V ′ specified by the second feature information generating means, the orientation relationship between the vector V ′ and the new unit vector S ′ is a vector. Each unit vector S ′ is defined so as to be the same as the orientation relationship between the vector V applied to V ′ and the unit vector S, and according to the distribution state in the xyz three-dimensional coordinate space of all the determined unit vectors S ′. The apparatus further comprises collating means for determining a similarity tendency between the first three-dimensional data and the second three-dimensional data.
[0085]
As a result, the three-dimensional data in a rotational relationship can be appropriately collated.
Here, the collating means may perform the fitting of each vector V to each vector V ′ only when the difference between the magnitude of the vector V ′ and the magnitude of the vector V is less than a predetermined value. Good.
[0086]
Thereby, collation can be performed more accurately.
Further, the data collating device further includes a cubic region in which the starting point of the unit vector S ′ determined by the collating means is most included in each cubic region when the xyz three-dimensional coordinate space is divided into cubic regions of a predetermined size. In addition, it may be provided with a recording means for recording the number of unit vectors S ′ including the starting point on a recording medium.
[0087]
Thereby, the similarity between the data to be collated can be expressed numerically. Therefore, it is possible to specify data having the highest similarity.
Further, when the xyz three-dimensional coordinate space is divided into cube regions of a predetermined size, the data collating device further combines all unit vectors S ′ including the starting points in the cube regions for each cube region. It is also possible to provide recording means for obtaining the magnitude of the resultant composite vector and recording the maximum value among the magnitudes of all the obtained composite vectors on the recording medium.
[0088]
This makes it possible to obtain an index that can evaluate the degree of similarity between data with a certain degree of accuracy.
Instead of the collation data generating means, a unit vector S starting from one position Q on the xy two-dimensional plane and going in one direction is determined, and each vector V specified by the first feature information generating means For each piece of associated information, a vector PQ indicating the relative positional relationship of the position Q in the xy two-dimensional plane is defined with reference to the x coordinate and the y coordinate of the focused position related to the information, and a plurality of sets of the vector V and the vector PQ And two-dimensional collation data generating means for generating collation data indicating the unit vector S, and instead of the collating means, the collation is performed for each vector V ′ specified by the second feature information generating means. The vector V ′ and the new unit vector S ′ are applied to the vector V ′ by sequentially applying the vectors V in the business data. Each unit vector S ′ is defined so as to be the same as the azimuth relationship between V and the unit vector S, and the first three-dimensional data and the first three-dimensional data Two-dimensional matching means for determining a similarity tendency with the second three-dimensional data may be provided.
[0089]
As a result, it is possible to easily perform rough matching.
The data collating device further includes line drawing data acquisition means for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane; A binary image scanning unit that sequentially focuses on each position on an xy two-dimensional plane in which pixels related to image data are arranged, and a region of a predetermined size centered on the position focused by the binary image scanning unit Among the pixels related to the binary image data, the attribute value is determined so that the attribute value becomes lower as the number of pixels in which the binary data for the pixel indicates the first value increases, and the focused position Attribute value determining means for associating the attribute value with the attribute value, and each set of the position on the xy two-dimensional plane and the attribute value associated with each other by the attribute value determining means as the three-dimensional data. Transmission means for transmitting to the dimensional data acquisition means, and the three-dimensional position is indicated by an x-coordinate and a y-coordinate of each position constituting the three-dimensional data, and a z-coordinate which is an attribute value corresponding to the position. It may be a thing.
[0090]
Thus, for example, when collating image data generated by capturing a line drawing in which the outline of a certain object is handwritten on paper with a scanner and image data obtained by capturing the same object with a digital camera When the line drawn as a solid line becomes a broken line in the process of capturing by the scanner, it is appropriate that the similarity between the two image data is higher than when the conventional image matching technology is applied. The possibility that it can be determined is increased.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an image collating apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a relationship between a line drawing portion and first scanning points in search reference data.
FIG. 3 is a diagram illustrating an example of a relationship between a second scanning point used in feature extraction processing and each region of the first quadrant to the fourth quadrant.
FIG. 4 is a flowchart showing a first process for acquiring search reference data and generating data for collation.
5 is a diagram illustrating V (i) and P (i) generated by a feature data generation unit 103, and a point Q and a vector S determined by a collation data generation / holding unit 105. FIG.
FIG. 6 is a flowchart showing a second process for identifying data to be searched and performing matching between search reference data and data to be searched using data for matching;
FIG. 7 shows V (i), PQ (i), and V (i) and PQ (i) held by the collation data generation and holding unit 105 for each set of V ′ (j) and P ′ (j) generated by the feature data generation unit 109; It is a figure which illustrates a mode that unit relationship S '(i, j) was defined by applying the relationship of S.
[Explanation of symbols]
100 image verification device
101 Search criteria data acquisition unit
102 Luminance level determination unit
103 feature data generator
104 Range limiting part
105 Collation data generation and holding unit
106 Searched data acquisition unit
107 Line drawing part
108 Luminance level determination unit
109 Feature data generator
110 Verification unit
111 Evaluation value recording part

Claims (21)

xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出装置であって、
3次元データを取得する3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する走査手段と、
前記走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成手段とを備える
ことを特徴とするデータ特徴抽出装置。
A data feature extraction device that generates feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
Three-dimensional data acquisition means for acquiring three-dimensional data;
scanning means for sequentially paying attention to each position on the xy two-dimensional plane;
Each time one position is noticed by the scanning means, each of the local regions on a predetermined number of four or more xy two-dimensional planes located around the noticed position,
Among the three-dimensional positions indicated by the three-dimensional data, an average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average obtained for all the local areas is obtained. It is determined whether or not all the positions are on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane and the focus only when they are on the same plane A data feature extraction apparatus comprising: feature information generation means for generating information corresponding to the indicated position as one element of the feature information.
前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と輝度値とを示す画像データであり、
前記3次元位置は、前記画素についての輝度値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、
前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、
前記特徴情報生成手段は、前記走査手段により着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、当該局所領域内にx座標及びy座標を有するxy2次元平面上の位置に配された画素全てについてのxy2次元平面上の平均的位置と輝度値の平均値とを前記xyz3次元座標空間における平均的位置として求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The three-dimensional data is image data indicating a position and a luminance value on the xy two-dimensional plane for each pixel arranged on the xy two-dimensional plane,
The three-dimensional position is indicated by a z-coordinate that is a luminance value for the pixel, and an x-coordinate and a y-coordinate of a position on the xy two-dimensional plane for the pixel,
The scanning unit sequentially pays attention to each position in a region where pixels related to the image data on an xy two-dimensional plane are arranged,
The feature information generating means is an xy two-dimensional image having x coordinates and y coordinates in each of the local areas on a predetermined number of four or more xy two-dimensional planes located around the position focused by the scanning means. The average position on the xy two-dimensional plane and the average value of the luminance values for all the pixels arranged at the positions on the plane are obtained as the average position in the xyz three-dimensional coordinate space, and each average obtained for all the local regions is obtained. It is determined whether or not the target positions are on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane only when it exists on the same plane. The data according to claim 1, wherein the information indicating the focused position is generated as one element of the feature information. Feature extraction apparatus.
前記データ特徴抽出装置は更に、
xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、
前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、
前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、
前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記3次元データ取得手段に伝える伝達手段とを備え、
前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものである
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The data feature extraction device further includes:
line drawing data acquisition means for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane;
Binary image scanning means for sequentially paying attention to each position on an xy two-dimensional plane in which pixels related to the binary image data are arranged;
Of the pixels related to the binary image data included in the region of a predetermined size centered on the position focused by the binary image scanning means, the binary data for the pixel is a pixel indicating the first value. An attribute value is determined so that the attribute value decreases as the number increases, and an attribute value determination unit that associates the focused position with the attribute value;
Transmitting means for transmitting each set of the position on the xy two-dimensional plane and the attribute value associated by the attribute value determining means to the three-dimensional data acquiring means as the three-dimensional data;
2. The three-dimensional position is indicated by an x-coordinate and a y-coordinate of each position constituting the three-dimensional data, and a z-coordinate which is an attribute value corresponding to the position. Data feature extraction device.
前記3次元データは、xy2次元平面上に配された各画素についてのxy2次元平面上の位置と属性値とを示す画像データであり、
前記3次元位置は、前記画素についての属性値であるz座標と、当該画素についてのxy2次元平面上の位置のx座標及びy座標とにより示されるものであり、
前記走査手段は、xy2次元平面上の前記画像データに係る画素が配されている領域内における各位置に順次着目し、
前記特徴情報生成手段は、
前記走査手段により着目された位置を中心としたxy2次元平面上の一定範囲の領域内において当該位置を基準として、当該基準から、xの負方向とyの負方向との間の第1の局所領域に対応する各属性値の平均値z1と、xの正方向とyの負方向との間の第2の局所領域に対応する各属性値の平均値z2と、xの負方向とyの正方向との間の第3の局所領域に対応する各属性値の平均値z3と、xの正方向とyの正方向との間の第4の局所領域に対応する各属性値の平均値z4とを求めることによって前記各平均的位置を求め、数式|z1−z2−z3+z4|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The three-dimensional data is image data indicating a position on the xy two-dimensional plane and an attribute value for each pixel arranged on the xy two-dimensional plane,
The three-dimensional position is indicated by a z-coordinate which is an attribute value for the pixel, and an x-coordinate and a y-coordinate of a position on the xy two-dimensional plane for the pixel,
The scanning unit sequentially pays attention to each position in a region where pixels related to the image data on an xy two-dimensional plane are arranged,
The feature information generating means includes
A first local area between the negative direction of x and the negative direction of y from the reference in the region within a certain range on the xy two-dimensional plane centered on the position focused by the scanning means. Average value z1 of each attribute value corresponding to the region, average value z2 of each attribute value corresponding to the second local region between the positive direction of x and the negative direction of y, negative direction of x and y Average value z3 of each attribute value corresponding to the third local region between the positive direction and the average value of each attribute value corresponding to the fourth local region between the positive direction of x and the positive direction of y The respective average positions are obtained by obtaining z4, and when the value of the expression | z1-z2-z3 + z4 | is equal to or less than the predetermined value d1, each of the average positions obtained for all the local regions is all It is determined that they exist on substantially the same plane in the xyz three-dimensional coordinate space. The data feature extraction according to claim 1, wherein information indicating a gradient of a plane with respect to the xy two-dimensional plane and information indicating the focused position are generated as one element of the feature information. apparatus.
前記特徴情報生成手段に係る前記一定範囲の領域は、前記走査手段により着目された位置を中心とした一定半径の円形領域であり、
前記特徴情報生成手段は更に、前記走査手段により着目された位置を基準として定めた第1から第4までの各領域を、当該基準の位置を中心として所定の角度だけ回転させて、その回転後の第1から第4までの各領域内に対応する各属性値の平均値z1’、z2’、z3’及びz4’を求め、
前記特徴情報生成手段は、前記数式|z1−z2−z3+z4|の値が所定値d1以下となる場合であって、かつ、前記数式|z1’−z2’−z3’+z4’|の値が所定値d1以下となる場合に、全ての前記局所領域について求めた前記各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在すると判定し、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項4記載のデータ特徴抽出装置。
The region of the certain range according to the feature information generating unit is a circular region having a certain radius centered on the position focused by the scanning unit;
The feature information generating means further rotates the first to fourth areas determined with the position focused by the scanning means as a reference by a predetermined angle around the reference position, and after the rotation Average values z1 ′, z2 ′, z3 ′ and z4 ′ of the attribute values corresponding to the first to fourth areas are determined,
The feature information generation means is a case where the value of the mathematical expression | z1-z2-z3 + z4 | When the value is less than or equal to the value d1, it is determined that all the average positions obtained for all the local regions are on substantially the same plane in the xyz three-dimensional coordinate space, and the gradient of the plane with respect to the xy two-dimensional plane is determined. 5. The data feature extraction apparatus according to claim 4, wherein information indicating information indicating the position of interest is generated as one element of the feature information.
前記特徴情報生成手段は更に、前記平面の前記xy2次元平面に対する勾配が所定量以上である場合に限り、当該勾配を示す情報と前記着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する
ことを特徴とする請求項5記載のデータ特徴抽出装置。
The feature information generating unit further associates information indicating the gradient with information indicating the focused position only when a gradient of the plane with respect to the xy two-dimensional plane is equal to or greater than a predetermined amount. 6. The data feature extraction apparatus according to claim 5, wherein the data feature extraction device is generated as one element of feature information.
前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面を表す数式をa・x+b・y+c・z=d(a、b、c及びdは定数値)とすれば−a/c及び−b/cをそれぞれx成分及びy成分とするxy2次元平面上のベクトルVを求め、当該ベクトルVの大きさを1として得られる単位ベクトルを、当該平面に係る前記勾配を示す情報として特定する
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The feature information generation means calculates a formula representing the plane as a · x + b · y + c · z = d (a, when all the average positions obtained for all the local regions are substantially on the same plane. b, c, and d are constant values), a vector V on an xy two-dimensional plane having x and y components as -a / c and -b / c is obtained, and the magnitude of the vector V is obtained as 1. The data feature extraction apparatus according to claim 1, wherein a unit vector to be obtained is specified as information indicating the gradient related to the plane.
前記特徴情報生成手段は、全ての前記局所領域について求めた各平均的位置がいずれもほぼ同一平面上に存在する場合に、当該平面に係る前記勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVを、当該平面に係る前記勾配を示す情報として特定し、当該ベクトルVと前記着目された位置を示す情報とを対応付けたものを前記特徴情報の1要素として生成し、
前記データ特徴抽出装置は更に、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記特徴情報生成手段により生成された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す情報を、前記3次元データ取得手段により取得された3次元データと他の3次元データとの照合に用いるための照合用データとして生成する照合用データ生成手段を備える
ことを特徴とする請求項1記載のデータ特徴抽出装置。
The feature information generation unit specifies a vector V on an xy two-dimensional plane indicating the gradient related to the plane when all the average positions obtained for all the local regions are present on substantially the same plane. The vector V is identified as information indicating the gradient related to the plane, and the vector V is associated with the information indicating the focused position as one element of the feature information.
The data feature extraction device further includes:
A unit vector S starting from one position Q in the xyz three-dimensional coordinate space and starting in one direction is determined, and each piece of information associated with each vector V generated by the feature information generating unit is focused on the information. The vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space is defined with reference to the determined position, and information indicating the vector V, a plurality of sets of the vector PQ, and the unit vector S is acquired by the three-dimensional data acquisition unit. 2. The data feature extraction apparatus according to claim 1, further comprising collation data generation means for generating collation data for use in collation between the obtained three-dimensional data and other three-dimensional data.
前記照合用データ生成手段は、
前記複数組のベクトルPQのうちで大きさが最大のベクトルPQの当該大きさが1となるように、各ベクトルPQの大きさを一律に定数倍し、定数倍した結果得られた各ベクトルPQと各ベクトルVと前記前記単位ベクトルSとを示す情報を前記照合用データとして生成する
ことを特徴とする請求項8記載のデータ特徴抽出装置。
The verification data generation means includes:
Each vector PQ is obtained by multiplying the size of each vector PQ uniformly by a constant so that the size of the vector PQ having the maximum size among the plurality of sets of vectors PQ is 1. 9. The data feature extraction apparatus according to claim 8, wherein information indicating each vector V and the unit vector S is generated as the verification data.
xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合装置であって、
第1の3次元データを取得する第1の3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する第1走査手段と、
前記第1走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成手段と、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成手段と、
第2の3次元データを取得する第2の3次元データ取得手段と、
xy2次元平面上における各位置に順次着目する第2走査手段と、
前記第2走査手段により一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成手段と、
前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合手段とを備える
ことを特徴とするデータ照合装置。
A data collating apparatus that collates three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
First three-dimensional data acquisition means for acquiring first three-dimensional data;
first scanning means for sequentially paying attention to each position on an xy two-dimensional plane;
Each time one position is noticed by the first scanning means, each of the four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the first three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when the average positions are on the same plane. First feature information generating means for identifying a vector V on a dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S starting from one position Q in the xyz three-dimensional coordinate space and starting in one direction is determined, and each piece of information associated with each vector V specified by the first feature information generating unit is related to the information. Collation data for defining a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space with reference to the focused position, and generating collation data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generating means;
Second 3D data acquisition means for acquiring second 3D data;
second scanning means for sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noticed by the second scanning means, each of the four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the second three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when the average positions are on the same plane. A second feature information generating unit that identifies a vector V ′ on a dimension plane and associates the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the verification data to each vector V ′ specified by the second feature information generating means, the orientation relationship between the vector V ′ and the new unit vector S ′ is the vector V ′. Each unit vector S ′ is defined so as to have the same azimuth relationship between the vector V applied to the unit vector S and the unit vector S, and according to the distribution state in the xyz three-dimensional coordinate space of all the determined unit vectors S ′. A data collating apparatus comprising collating means for determining a similarity tendency between one three-dimensional data and the second three-dimensional data.
前記照合手段は、各ベクトルV’に対する各ベクトルVの前記当てはめを、当該ベクトルV’の大きさと当該ベクトルVの大きさとの差が所定値未満であるものに限って行う
ことを特徴とする請求項10記載のデータ照合装置。
The collation means performs the fitting of each vector V with respect to each vector V ′ only when the difference between the magnitude of the vector V ′ and the magnitude of the vector V is less than a predetermined value. Item 15. The data verification device according to Item 10.
前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域のうち前記照合手段により定められた単位ベクトルS’の起点が最も多く含まれる立方体領域に、起点が含まれている単位ベクトルS’の個数を記録媒体に記録する記録手段を備える
ことを特徴とする請求項10記載のデータ照合装置。
In the case where the xyz three-dimensional coordinate space is divided into cube regions of a predetermined size, the data collating device further includes a cubic region that includes the most starting points of the unit vector S ′ determined by the collating unit among the cubic regions. 11. The data collating apparatus according to claim 10, further comprising recording means for recording the number of unit vectors S ′ including the starting point on a recording medium.
前記データ照合装置は更に、xyz3次元座標空間を所定サイズの立方体領域に区分した場合において、各立方体領域について当該立方体領域に起点が含まれている全ての単位ベクトルS’を合成した結果として得られる合成ベクトルの大きさを求め、求められた全ての合成ベクトルの大きさのうち最大値を記録媒体に記録する記録手段を備える
ことを特徴とする請求項10記載のデータ照合装置。
The data collating device is further obtained as a result of synthesizing all the unit vectors S ′ whose starting points are included in each cubic area when the xyz three-dimensional coordinate space is divided into cubic areas of a predetermined size. 11. The data collating apparatus according to claim 10, further comprising recording means for obtaining a magnitude of the combined vector and recording the maximum value of all the obtained magnitudes of the synthesized vectors on a recording medium.
請求項10記載のデータ照合装置であって、
前記照合用データ生成手段に代えて、
xy2次元平面上における一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成手段により特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置のx座標及びy座標を基準として位置Qのxy2次元平面における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する2次元照合用データ生成手段を備え、
前記照合手段に代えて、
前記第2特徴情報生成手段により特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxy2次元平面における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する2次元照合手段とを備える
ことを特徴とするデータ照合装置。
The data collating apparatus according to claim 10, wherein
Instead of the verification data generation means,
A unit vector S starting from one position Q on the xy two-dimensional plane and going in one direction is determined, and attention is paid to each information associated with each vector V specified by the first feature information generating means. A vector PQ indicating the relative positional relationship of the position Q in the xy two-dimensional plane is defined with reference to the x coordinate and the y coordinate of the determined position, and verification data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S is generated. 2D collation data generation means
Instead of the verification means,
By sequentially applying each vector V in the verification data to each vector V ′ specified by the second feature information generating means, the orientation relationship between the vector V ′ and the new unit vector S ′ is the vector V ′. Each unit vector S ′ is defined so as to have the same azimuth relationship between the vector V applied to “and the unit vector S, and the first unit vector S ′ is determined according to the distribution state in the xy two-dimensional plane. A data collating apparatus comprising: a two-dimensional collation unit for determining a tendency of similarity between the three-dimensional data and the second three-dimensional data.
前記データ照合装置は更に、
xy2次元平面上に配された各画素についてのxy2次元平面上の位置と2値データとを示す2値画像データを取得する線画データ取得手段と、
前記2値画像データに係る画素が配されたxy2次元平面上における各位置に順次着目する2値画像走査手段と、
前記2値画像走査手段により着目された位置を中心とする所定サイズの領域内に含まれる前記2値画像データに係る画素のうち、当該画素についての前記2値データが第1値を示す画素の個数が、多くなるにつれて属性値が低くなるように属性値を定め、当該着目された位置と当該属性値とを対応付ける属性値決定手段と、
前記属性値決定手段により対応付けられた、xy2次元平面上の位置と属性値との各組を前記3次元データとして前記第1の3次元データ取得手段に伝える伝達手段とを備え、
前記3次元位置は、前記3次元データを構成する各位置のx座標及びy座標と、当該位置に対応する属性値であるz座標とにより示されるものである
ことを特徴とする請求項10記載のデータ照合装置。
The data verification device further includes:
line drawing data acquisition means for acquiring binary image data indicating a position on the xy two-dimensional plane and binary data for each pixel arranged on the xy two-dimensional plane;
Binary image scanning means for sequentially paying attention to each position on an xy two-dimensional plane in which pixels related to the binary image data are arranged;
Of the pixels related to the binary image data included in the region of a predetermined size centered on the position focused by the binary image scanning means, the binary data for the pixel is a pixel indicating the first value. An attribute value is determined so that the attribute value decreases as the number increases, and an attribute value determination unit that associates the focused position with the attribute value;
A transmission means for transmitting each set of the position on the xy two-dimensional plane and the attribute value associated by the attribute value determination means to the first three-dimensional data acquisition means as the three-dimensional data;
11. The three-dimensional position is indicated by an x-coordinate and a y-coordinate of each position constituting the three-dimensional data, and a z-coordinate that is an attribute value corresponding to the position. Data verification device.
xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出方法であって、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とするデータ特徴抽出方法。
A data feature extraction method for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
A three-dimensional data acquisition step for acquiring three-dimensional data;
a scanning step that sequentially focuses on each position on the xy two-dimensional plane;
Each time one position is noticed by the scanning step, for each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Among the three-dimensional positions indicated by the three-dimensional data, an average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average obtained for all the local areas is obtained. It is determined whether or not all the positions are on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane and the focus only when they are on the same plane And a feature information generation step of generating, as one element of the feature information, an association with information indicating the position that has been performed.
xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合を行うデータ照合方法であって、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とするデータ照合方法。
A data matching method for matching three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
A first three-dimensional data acquisition step of acquiring first three-dimensional data;
a first scanning step for sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noticed by the first scanning step, each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the first three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when the average positions are on the same plane. A first feature information generation step of identifying a vector V on a dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S starting from one position Q in the xyz three-dimensional coordinate space and starting in one direction is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Collation data for defining a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space with reference to the focused position, and generating collation data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generation step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step for sequentially paying attention to each position on the xy two-dimensional plane;
Each time one position is noticed in the second scanning step, the second three-dimensional data is obtained for each of the four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position. Among the three-dimensional positions shown, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average position obtained for all the local areas is It is determined whether or not they exist on substantially the same plane in the xyz three-dimensional coordinate space, and the vector V ′ on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane only when it exists on the same plane. And a second feature information generation step for associating the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the verification data to each vector V ′ specified in the second feature information generation step, the orientation relationship between the vector V ′ and the new unit vector S ′ is the vector V ′. Each unit vector S ′ is defined so as to have the same azimuth relationship between the vector V applied to the unit vector S and the unit vector S, and according to the distribution state in the xyz three-dimensional coordinate space of all the determined unit vectors S ′. A data collating method comprising: a collating step for determining a similarity tendency between one three-dimensional data and the second three-dimensional data.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出処理を行わせるためのコンピュータプログラムであって、
前記データ特徴抽出処理は、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とするコンピュータプログラム。
A computer program for causing a computer to perform data feature extraction processing for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data feature extraction process includes:
A three-dimensional data acquisition step for acquiring three-dimensional data;
a scanning step that sequentially focuses on each position on the xy two-dimensional plane;
Each time one position is noticed by the scanning step, for each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Among the three-dimensional positions indicated by the three-dimensional data, an average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average obtained for all the local areas is obtained. It is determined whether or not all the positions are on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane and the focus only when they are on the same plane And a feature information generation step of generating, as one element of the feature information, information associated with the information indicating the position.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合に係るデータ照合処理を行わせるためのコンピュータプログラムであって、
前記データ照合処理は、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とするコンピュータプログラム。
A computer program for causing a computer to perform data matching processing related to matching of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data matching process includes
A first three-dimensional data acquisition step of acquiring first three-dimensional data;
a first scanning step for sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noticed by the first scanning step, each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the first three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when the average positions are on the same plane. A first feature information generation step of identifying a vector V on a dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S starting from one position Q in the xyz three-dimensional coordinate space and starting in one direction is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Collation data for defining a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space with reference to the focused position, and generating collation data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generation step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step for sequentially paying attention to each position on the xy two-dimensional plane;
Each time one position is noticed by the second scanning step, each of the four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the second three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when it is on the same plane. A second feature information generating step of identifying a vector V ′ on the dimension plane and associating the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the collation data to each vector V ′ specified in the second feature information generation step, the orientation relationship between the vector V ′ and the new unit vector S ′ is the vector V ′. Each unit vector S ′ is defined so as to have the same azimuth relationship between the vector V and the unit vector S applied to “,” and the unit vector S ′ is determined according to the distribution state in the xyz three-dimensional coordinate space. The computer program characterized by including the collation step which determines the similarity tendency of 1 three-dimensional data and said 2nd three-dimensional data.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データの特徴を表す特徴情報を生成するデータ特徴抽出処理を行わせるためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記データ特徴抽出処理は、
3次元データを取得する3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する走査ステップと、
前記走査ステップにより一の位置が着目される毎に、着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示す情報と当該着目された位置を示す情報とを対応付けたものを、前記特徴情報の1要素として生成する特徴情報生成ステップとを含む
ことを特徴とする記録媒体。
A computer-readable recording medium storing a computer program for causing a computer to perform data feature extraction processing for generating feature information representing features of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space. ,
The data feature extraction process includes:
A three-dimensional data acquisition step for acquiring three-dimensional data;
a scanning step that sequentially focuses on each position on the xy two-dimensional plane;
Each time one position is noticed by the scanning step, for each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Among the three-dimensional positions indicated by the three-dimensional data, an average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average obtained for all the local areas is obtained. It is determined whether or not all the positions are on substantially the same plane in the xyz three-dimensional coordinate space, and information indicating the gradient of the plane with respect to the xy two-dimensional plane and the focus only when they are on the same plane And a feature information generation step of generating, as one element of the feature information, information associated with the information indicating the position.
コンピュータに、xyz3次元座標空間における複数の3次元位置を示す3次元データ同士の照合に係るデータ照合処理を行わせるためのコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記データ照合処理は、
第1の3次元データを取得する第1の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第1走査ステップと、
前記第1走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、
前記第1の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルVを特定し、当該ベクトルVと当該着目された位置を示す情報とを対応付ける第1特徴情報生成ステップと、
xyz3次元座標空間上の一の位置Qを起点とし一の方向に向かう単位ベクトルSを定め、前記第1特徴情報生成ステップにより特定された各ベクトルVと対応付けられた各情報について当該情報に係る着目された位置を基準として位置Qのxyz3次元座標空間における相対的位置関係を示すベクトルPQを定め、ベクトルV及びベクトルPQの複数組と単位ベクトルSとを示す照合用データを生成する照合用データ生成ステップと、
第2の3次元データを取得する第2の3次元データ取得ステップと、
xy2次元平面上における各位置に順次着目する第2走査ステップと、
前記第2走査ステップにより一の位置が着目される毎に、当該着目された位置の周辺に所在する4以上の所定個数のxy2次元平面上における局所領域それぞれについて、前記第2の3次元データが示す3次元位置のうち当該局所領域内にx座標及びy座標を有する3次元位置の、xyz3次元座標空間における平均的位置を求め、全ての前記局所領域について求めた各平均的位置がいずれも、前記xyz3次元座標空間におけるほぼ同一平面上に存在するか否かを判定し、ほぼ同一平面上に存在する場合に限り、当該平面の前記xy2次元平面に対する勾配を示すxy2次元平面上のベクトルV’を特定し、当該ベクトルV’と当該着目された位置を示す情報とを対応付ける第2特徴情報生成ステップと、
前記第2特徴情報生成ステップにより特定された各ベクトルV’に対して前記照合用データ中の各ベクトルVを順次当てはめることにより、ベクトルV’と新たな単位ベクトルS’との方位関係がベクトルV’に当てはめたベクトルVと単位ベクトルSとの方位関係と同一となるように各単位ベクトルS’を定め、定めた全ての単位ベクトルS’のxyz3次元座標空間における分布状態に応じて、前記第1の3次元データと前記第2の3次元データとの類似傾向を判定する照合ステップとを含む
ことを特徴とする記録媒体。
A computer-readable recording medium recording a computer program for causing a computer to perform data collation processing related to collation of three-dimensional data indicating a plurality of three-dimensional positions in an xyz three-dimensional coordinate space,
The data matching process includes
A first three-dimensional data acquisition step of acquiring first three-dimensional data;
a first scanning step for sequentially focusing on each position on the xy two-dimensional plane;
Each time one position is noticed by the first scanning step, each of four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position,
Of the three-dimensional positions indicated by the first three-dimensional data, the average positions in the xyz three-dimensional coordinate space of the three-dimensional positions having the x coordinate and the y coordinate in the local area are obtained, and all the local areas are obtained. It is determined whether or not each average position is substantially on the same plane in the xyz three-dimensional coordinate space, and xy2 indicating the gradient of the plane with respect to the xy two-dimensional plane only when the average positions are on the same plane. A first feature information generation step of identifying a vector V on a dimensional plane and associating the vector V with information indicating the focused position;
A unit vector S starting from one position Q in the xyz three-dimensional coordinate space and starting in one direction is determined, and each piece of information associated with each vector V specified in the first feature information generation step is related to the information. Collation data for defining a vector PQ indicating the relative positional relationship of the position Q in the xyz three-dimensional coordinate space with reference to the focused position, and generating collation data indicating a plurality of sets of the vector V and the vector PQ and the unit vector S Generation step;
A second three-dimensional data acquisition step of acquiring second three-dimensional data;
a second scanning step for sequentially paying attention to each position on the xy two-dimensional plane;
Each time one position is noticed in the second scanning step, the second three-dimensional data is obtained for each of the four or more predetermined number of local regions on the xy two-dimensional plane located around the noticed position. Among the three-dimensional positions shown, the average position in the xyz three-dimensional coordinate space of the three-dimensional position having the x coordinate and the y coordinate in the local area is obtained, and each average position obtained for all the local areas is It is determined whether or not they exist on substantially the same plane in the xyz three-dimensional coordinate space, and the vector V ′ on the xy two-dimensional plane indicating the gradient of the plane with respect to the xy two-dimensional plane only when it exists on the same plane. And a second feature information generation step for associating the vector V ′ with information indicating the focused position;
By sequentially applying each vector V in the verification data to each vector V ′ specified in the second feature information generation step, the orientation relationship between the vector V ′ and the new unit vector S ′ is the vector V ′. Each unit vector S ′ is defined so as to have the same azimuth relationship between the vector V applied to the unit vector S and the unit vector S, and according to the distribution state in the xyz three-dimensional coordinate space of all the determined unit vectors S ′. And a collating step for determining a similarity tendency between the first three-dimensional data and the second three-dimensional data.
JP2002262988A 2002-09-09 2002-09-09 Data feature extraction device and data collation device Expired - Fee Related JP3706603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002262988A JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002262988A JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Publications (2)

Publication Number Publication Date
JP2004102603A JP2004102603A (en) 2004-04-02
JP3706603B2 true JP3706603B2 (en) 2005-10-12

Family

ID=32262869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002262988A Expired - Fee Related JP3706603B2 (en) 2002-09-09 2002-09-09 Data feature extraction device and data collation device

Country Status (1)

Country Link
JP (1) JP3706603B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851095A (en) * 2015-05-14 2015-08-19 江南大学 Workpiece image sparse stereo matching method based on improved-type shape context

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972660B (en) * 2022-08-01 2022-10-25 山东星绘时空智能科技有限公司 Real-scene three-dimensional graph verification and real analysis system based on oblique photography
CN116531089B (en) * 2023-07-06 2023-10-20 中国人民解放军中部战区总医院 Image-enhancement-based blocking anesthesia ultrasonic guidance data processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851095A (en) * 2015-05-14 2015-08-19 江南大学 Workpiece image sparse stereo matching method based on improved-type shape context
CN104851095B (en) * 2015-05-14 2017-12-26 江南大学 The sparse solid matching method of workpiece image based on modified Shape context

Also Published As

Publication number Publication date
JP2004102603A (en) 2004-04-02

Similar Documents

Publication Publication Date Title
JP6216508B2 (en) Method for recognition and pose determination of 3D objects in 3D scenes
CN108198141B (en) Image processing method and device for realizing face thinning special effect and computing equipment
US9632678B2 (en) Image processing apparatus, image processing method, and program
JP5261501B2 (en) Permanent visual scene and object recognition
Fehr et al. Covariance based point cloud descriptors for object detection and recognition
JP2012043308A (en) Position and attitude determination method, position and attitude determination device, object model generation method, object model generation device and program
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
JP6880618B2 (en) Image processing program, image processing device, and image processing method
JP2002288687A (en) Device and method for calculating feature amount
US20150104068A1 (en) System and method for locating fiducials with known shape
WO2019228471A1 (en) Fingerprint recognition method and device, and computer-readable storage medium
JP5647072B2 (en) Subject recognition apparatus, subject recognition method, and subject recognition program
JP7033439B2 (en) Ishigaki management system, stone wall management method and computer program
JP2015184054A (en) Identification device, method, and program
US11816857B2 (en) Methods and apparatus for generating point cloud histograms
EP2458556A1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
JP2013101423A (en) Image matching device and image matching program
Benedens Robust watermarking and affine registration of 3d meshes
JP3706603B2 (en) Data feature extraction device and data collation device
CN106056599B (en) A kind of object recognition algorithm and device based on Object Depth data
JP7374433B2 (en) How to generate three-dimensional shape data of a structure
JP6278757B2 (en) Feature value generation device, feature value generation method, and program
JP6996200B2 (en) Image processing method, image processing device, and image processing program
Matusiak et al. Depth-based descriptor for matching keypoints in 3D scenes
JP2019070898A (en) Estimation program, estimation device and estimation method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090805

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees