JPH04130587A - Three-dimensional picture evaluation device - Google Patents

Three-dimensional picture evaluation device

Info

Publication number
JPH04130587A
JPH04130587A JP2253160A JP25316090A JPH04130587A JP H04130587 A JPH04130587 A JP H04130587A JP 2253160 A JP2253160 A JP 2253160A JP 25316090 A JP25316090 A JP 25316090A JP H04130587 A JPH04130587 A JP H04130587A
Authority
JP
Japan
Prior art keywords
image information
model
dimensional
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2253160A
Other languages
Japanese (ja)
Other versions
JP2532985B2 (en
Inventor
Fumiaki Tomita
文明 富田
Hironobu Takahashi
裕信 高橋
Hajime Terasaki
肇 寺崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Original Assignee
Agency of Industrial Science and Technology
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Sanyo Electric Co Ltd filed Critical Agency of Industrial Science and Technology
Priority to JP2253160A priority Critical patent/JP2532985B2/en
Publication of JPH04130587A publication Critical patent/JPH04130587A/en
Application granted granted Critical
Publication of JP2532985B2 publication Critical patent/JP2532985B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize a three-dimensional object accurately and rapidly by comparing the degree of match between picture information to be obtained when image-picking up a model in an estimated position and posture and the picture information outputted from an image pickup part. CONSTITUTION:A three-dimensional position/posture estimation part 15 estimates the position and the posture of the object based on the picture information and the three-dimensional data of the model. A predicting picture information generating part 18 predicts the picture information to be obtained when image- picking up the model in the position and the posture estimated by the three- dimensional position/posture estimation part 15, and a picture information comparing part 19 compares the picture information datarized from the image pickup part and the picture information outputted from the predicting picture information generating part 18 and finds the degree of the match. Thus, it is possible to recognize the three-dimensional object accurately and rapidly.

Description

【発明の詳細な説明】 産1ユJ1旧1走国 本発明は、テレビカメラやイメージスキャナなどから得
られた画像情報に基づいて、3次元物体の認識を行うた
めに使用される3次元画像評価装置に関する。
Detailed Description of the Invention The present invention relates to a three-dimensional image used to recognize a three-dimensional object based on image information obtained from a television camera, an image scanner, etc. Regarding an evaluation device.

盗】四月支舌 従来より、例えば「画像と言語の認識工学」 (長尾真
著、1989年コロナ社発行、p、 142−p、 1
49)に示されているように、2次元の被写体を撮像し
て得られる画像情報と、あらかじめ記憶されているモデ
ルの画像情報とを比較することにより、被写体の認識を
行う手法が知られ、この種の手法を適用した画像評価装
置が用いられている。
For example, "Image and Language Recognition Engineering" (by Makoto Nagao, published by Corona Publishing Co., Ltd. in 1989, p. 142-p. 1)
As shown in 49), there is a known method of object recognition by comparing image information obtained by imaging a two-dimensional object with image information of a pre-stored model. Image evaluation devices that apply this type of method are used.

また同様に、複数の撮像手段から得られた被写体の画像
情報と、あらかじめ記憶されているモデルの3次元デー
タとに基づいて、3次元物体の認識を行う3次元画像評
価装置も用いられている。
Similarly, 3D image evaluation devices are also used that recognize 3D objects based on image information of a subject obtained from multiple imaging means and 3D data of a model stored in advance. .

この種の3次元画像評価装置では、例えば2つの撮像手
段から得られた画像情報に基づいて、被写体の各部にお
ける3次元空間内の位置、および姿勢を3次元データと
して求め、この3次元データと、モデルの3次元データ
とを比較することによって、3次元物体の認識を行うよ
うになっている。
In this type of 3D image evaluation device, for example, based on image information obtained from two imaging means, the position and posture of each part of the subject in 3D space is determined as 3D data, and this 3D data and The three-dimensional object is recognized by comparing the three-dimensional data of the model.

が  しよ°と る しかしながら、被写体の3次元データは、双方の撮像手
段から画像情報が得られた場合にのみ、求めることがで
き、少なくともいずれかの撮像装置において被写体の背
面に隠れている線分や頂点等の部分は、3次元データを
求めることができない。一方、モデルの3次元データは
、そのモデルを構成するすべての部分に関しての情報を
有している。
However, the 3D data of the subject can only be obtained when image information is obtained from both imaging means, and at least one of the imaging devices can detect lines hidden behind the subject. Three-dimensional data cannot be obtained for parts such as minutes and vertices. On the other hand, the three-dimensional data of a model includes information regarding all the parts that make up the model.

それゆえ、被写体とモデルとの3次元データとを比較し
ても、データの一致程度が低く、したがって、3次元物
体の認識精度を高くすることは困難であるという課題を
有していた。
Therefore, even if the three-dimensional data of the subject and the model are compared, the degree of agreement between the data is low, and therefore, there has been a problem in that it is difficult to improve the recognition accuracy of three-dimensional objects.

特に、複数の被写体を撮像して認識を行う場合には、他
の被写体に隠れて撮像されない部分が生じ得るので、−
層、認識精度が低下しがちである。
In particular, when performing recognition by capturing images of multiple subjects, some parts may be hidden by other subjects and not captured.
layer, recognition accuracy tends to decrease.

さらに、上記のように撮像手段から得られた画像情報に
基づいて3次元データを求める演算は複雑であるため、
認識結果を迅速に得ることが困難であるという課題をも
有していた。
Furthermore, as described above, calculations for obtaining three-dimensional data based on image information obtained from the imaging means are complex;
Another problem was that it was difficult to quickly obtain recognition results.

本発明は、上記の点に鑑み、3次元物体の認識を高い精
度で、かつ迅速に行うことができる3次元画像評価装置
の提供を目的としている。
In view of the above points, the present invention aims to provide a three-dimensional image evaluation device that can recognize a three-dimensional object with high accuracy and quickly.

着   ”るための 上記目的を達成するため、本発明は、被写体を撮像して
画像情報を出力する撮像手段を含む撮像部と、被写体の
モデルにおける3次元データを記憶するモデル情報記憶
部と、前記画像情報と、モデルの3次元データとに基づ
いて、被写体の位1および姿勢を推定する3次元位置・
姿勢推定部と、前記推定された位!および姿勢にあるモ
デルを撮像したときに得られるであろう画像情報を予測
する予測画像情報生成部と、前記撮像部がら出力された
画像情報と、予測画像情報生成部から出力された画像情
報とを比較して、一致程度を求める画像情報比較部とを
備えたことを特徴としている。
In order to achieve the above-mentioned object, the present invention provides an imaging unit including an imaging unit that images a subject and outputs image information, a model information storage unit that stores three-dimensional data on a model of the subject, 3D position/position estimation for estimating the position and orientation of the subject based on the image information and the 3D data of the model;
Posture estimation unit and the estimated position! and a predicted image information generation unit that predicts image information that would be obtained when imaging the model in the posture, image information output from the imaging unit, and image information output from the predicted image information generation unit. and an image information comparison section that compares the images to determine the degree of coincidence.

立−一一朋 予測画像情報生成部は、3次元位置・姿勢推定部によっ
て推定された位置および姿勢にあるモデルを撮像したと
きに得られるであろう画像情報を予測し、画像情報比較
部は、撮像部から出力された画像情報と、予測画像情報
生成部から出力された画像情報とを比較して、一致程度
を求める。
The predicted image information generation unit predicts image information that will be obtained when the model is imaged at the position and orientation estimated by the three-dimensional position/orientation estimation unit, and the image information comparison unit , the image information output from the imaging section and the image information output from the predicted image information generation section are compared to determine the degree of coincidence.

裏−隻一田 第1図は本発明の一実施例における3次元画像評価装置
の構成を示すブロック図である。
Figure 1 is a block diagram showing the configuration of a three-dimensional image evaluation apparatus in an embodiment of the present invention.

第1図において、11〜13は撮像手段としてのテレビ
カメラ、14はテレビカメラ11〜13と共に撮像部を
構成する画像前処理部、15は3次元位置・姿勢推定部
、16はデータ入力装置、17はモデル情報記憶部、1
8は予測画像情報生成部、19は画像情報比較部、20
は評価部、21は評価結果出力部である。
In FIG. 1, 11 to 13 are television cameras as imaging means, 14 is an image preprocessing unit that constitutes an imaging unit together with the television cameras 11 to 13, 15 is a three-dimensional position/orientation estimation unit, 16 is a data input device, 17 is a model information storage unit, 1
8 is a predicted image information generation section, 19 is an image information comparison section, 20
21 is an evaluation section, and 21 is an evaluation result output section.

上記モデル情報記憶部17には、あらかじめ、例えば第
2図に示すようなモデルMにおける各頂点や辺の3次元
空間内の位置等を示すデータがデータ入力装置16を介
して入力され、例えば各頂点、および前記頂゛点に連結
されている辺に関するデータを関連づけたデータ構造で
記憶されるようになっている。
The model information storage unit 17 is previously inputted with data indicating the positions in the three-dimensional space of each vertex and edge in the model M as shown in FIG. 2, for example, through the data input device 16. Data regarding vertices and edges connected to the vertices are stored in a data structure in which they are associated with each other.

テレビカメラ11〜13は、それぞれ、第3図に示すよ
うに、対象物Hを互いに異なる方向がら撮像するように
所定の位置に配置されている。これらのテレビカメラ1
1〜13で撮像される画像H1l 〜H13は、それぞ
れ撮像面11a〜13aに投影されるようになっている
。ここで撮像面11a〜13aは、実際には撮像レンズ
の後方に位置しているが、説明の便宜上、光軸上で反転
させてレンズの前方に位置するように図示して説明する
As shown in FIG. 3, the television cameras 11 to 13 are arranged at predetermined positions so as to take images of the object H from different directions. These TV cameras 1
Images H1l to H13 taken at points 1 to 13 are projected onto imaging surfaces 11a to 13a, respectively. Here, the imaging surfaces 11a to 13a are actually located behind the imaging lens, but for convenience of explanation, they will be illustrated and described as being inverted on the optical axis and located in front of the lens.

上記画像H1l〜H13は、より具体的には、例えば第
4図(a)〜(c)に示すように、濃淡画像として得ら
れる。なお、同図において、濃淡の別はハンチング線の
種別によって示している。
More specifically, the images H11 to H13 are obtained as grayscale images, as shown in FIGS. 4(a) to 4(c), for example. In addition, in the figure, the shading is indicated by the type of hunting line.

画像前処理部14は、上記濃淡画像H1l〜H13に基
づいて、第5図(a)〜(C)に示すような頂点および
辺の画像情報H1l”〜H13′の抽出を行うようにな
っている。ここで、上記画像情報H1,1″〜H13′
の抽出とは、より具体的には、例えば「画像のB−RE
Pのためのアルゴリズム」 (冨田、高橋著、電子通信
学会パターン認識理解研究会PRU86−87 (19
87))に示される手法などによって、各頂点および辺
の位置や方向などを示すデータを求めることで、第5図
(a)〜(C)は、得られたデータに基づいて再現した
画像の例を示している。
The image preprocessing unit 14 extracts image information H1l'' to H13' of vertices and sides as shown in FIGS. 5(a) to (C) based on the grayscale images H1l to H13. Here, the above image information H1,1'' to H13'
More specifically, the extraction of
"Algorithm for P" (Tomita, Takahashi, IEICE Pattern Recognition Understanding Research Group PRU86-87 (19
By obtaining data indicating the position and direction of each vertex and edge using the method shown in 87)), Figures 5(a) to (C) show the reproduction of images based on the obtained data. An example is shown.

なお、上記画像情報H1l“〜H13゛は、例えば3次
元空間内の所定の絶対座標系内のデータとして得ること
ができるが、これに限らず、各テレビカメラ11〜13
や撮像面11a〜13aに固有の座標系内のデータとし
て求めるなどしてもよい。
The image information H1l" to H13" can be obtained, for example, as data within a predetermined absolute coordinate system in a three-dimensional space, but the invention is not limited thereto.
Alternatively, the data may be obtained as data within a coordinate system specific to the imaging surfaces 11a to 13a.

3次元位置・姿勢推定部15は、上記画像情報H11゛
〜H13’、およびモデル情報記憶部17から出力され
るモデルMのデータに基づいて、対象物Hの位置および
姿勢を推定するようになっている。
The three-dimensional position/orientation estimation unit 15 estimates the position and orientation of the object H based on the image information H11′ to H13′ and the data of the model M output from the model information storage unit 17. ing.

より具体的には、゛例えば、まず複数の画像情報H1l
°・・・に基づいて対象物Hにおける何れかの頂点の3
次元空間内の座標、およびその頂点に連結されている2
辺のなす角度を求める。次に、上記角度に等しい角度を
なすモデルMの2辺、およびその2辺が連結される頂点
を探索する。そして、モデルMの頂点および2辺が、上
記対象物Hの頂点および2辺に重なるように、モデルM
を移動、回転させる移動行列、および回転行列を求める
More specifically, ``For example, first, a plurality of image information H1l
3 of any vertex in the object H based on °...
coordinates in dimensional space, and the 2 connected to that vertex
Find the angle between the sides. Next, two sides of the model M that form an angle equal to the above angle and a vertex to which the two sides are connected are searched. Then, the model M is arranged such that the vertex and two sides of the model M overlap with the vertex and two sides of the object H.
Find the translation and rotation matrices for moving and rotating .

なお、対象物Hの位置および姿勢の推定は、上記のよう
に複数の画像情報H1l”・・・に基づいて求めること
により、誤って推定される移動行列等の数を少なくし、
後述する予測画像情報生成部18等における処理の負荷
を軽減することができるが、これに限らず、例えばrR
andom Sample Con5ensus:A 
Paradign+ for Model Fitti
ng evith Ap−plications to
 Image Analysts and Autom
atedCartography J  (Marti
n A、Fischler and RobertC,
Bolles著、Graphtcs and Imag
e Processing。
Note that the position and orientation of the object H are estimated based on a plurality of pieces of image information H1l'' as described above, thereby reducing the number of incorrectly estimated movement matrices, etc.
Although it is possible to reduce the processing load in the predicted image information generation unit 18, etc., which will be described later, the present invention is not limited to this.
andom Sample Cons5ensus:A
Paradigm+ for Model Fitti
ngevith Ap-plications to
Image Analysts and Autom
atedCartography J (Marti
n A, Fischler and Robert C,
Written by Bolles, Graphcs and Imag
eProcessing.

Communications of the ACM
 24−6 P、381−395(1981))に開示
されているように、単一画面内の対象物Hの画像情報に
おける任意の3点または3線分と、モデルにおける任意
の3点または3線分とが対応していると仮定して、対象
物Hの3次元空間内の位置、および姿勢を推定してもよ
い。
Communications of the ACM
24-6 P, 381-395 (1981)), any three points or three line segments in the image information of the object H in a single screen, and any three points or three line segments in the model. The position and orientation of the object H in the three-dimensional space may be estimated on the assumption that the line segments correspond to each other.

予測画像情報生成部18は、上記移動行列、および回転
行列に基づいて、モデルMにおける各頂点および辺の位
置を示す座標の座標変換や遠近法に従った変形、陰線処
理等を行い、第6図(a)〜(C)に示すように、各テ
レビカメラ11−13で撮像したときに得られるであろ
う頂点および辺の画像情報H11”〜H13”を予測す
るようになっている。
The predicted image information generation unit 18 performs coordinate transformation of the coordinates indicating the positions of each vertex and edge in the model M, transformation according to the perspective law, hidden line processing, etc. based on the movement matrix and rotation matrix, and As shown in FIGS. (a) to (C), image information H11'' to H13'' of vertices and edges that will be obtained when images are captured by each television camera 11-13 is predicted.

ここで、上記画像情報H11”・・・の予測は、−旦、
モデルMのデータに基づいて、線画の画像パターンや、
さらには、第7図(a)〜(C)に示すように照明状態
や光の反射、屈折等を考慮してレイトレーシング等の処
理を行った濃淡画像パターンH1l”a−H2S”aを
生成し、これに前記画像前処理部14と同様の処理を施
すことにより、行うようにしてもよい。
Here, the prediction of the image information H11'' is -d,
Based on the data of model M, line drawing image pattern,
Furthermore, as shown in FIGS. 7(a) to (C), a grayscale image pattern H1l"a-H2S"a is generated by performing processing such as ray tracing in consideration of the illumination condition, light reflection, refraction, etc. However, this may be performed by performing the same processing as that of the image preprocessing section 14.

すなわち、このような処理を行えば、例えば画像前処理
部14の特性等に応じて検出されにくい辺がある場合な
どでも、同様の画像情報H1l”が得られるので、後述
する評価部20での評価がより正確に行われる。また、
照明状態や光の反射、屈折等に応じて生じる影などに対
しても、同様の処理が行われるので、上記形などに基づ
く画像情報H1l”・・・をも評価の対象とすることが
できる一方、濃度が同程度の領域の境界となる辺である
ために、画像情報H11’ ・・・が得られにくい辺な
どは、評価の対象から除外することができる。
That is, if such processing is performed, even if there is a side that is difficult to detect depending on the characteristics of the image preprocessing section 14, similar image information H1l'' can be obtained, so that the evaluation section 20 described later can obtain the same image information H1l''. Evaluations are made more accurately.Also,
Similar processing is performed on shadows caused by lighting conditions, light reflection, refraction, etc., so image information H1l'' based on the above shapes etc. can also be subject to evaluation. On the other hand, edges for which it is difficult to obtain image information H11' because they are boundaries of regions with similar density can be excluded from evaluation targets.

画像情報比較部19は、上記モデルMの画像情報H1l
”・・・と、対象物Hの画像情報H1l”・・・との比
較を行い、これらの一致程度を求めるようになっている
The image information comparison unit 19 stores image information H1l of the model M.
"..." and the image information H1l of the object H"... are compared to determine the degree of agreement between them.

例えば画像情報H11゛ ・H1l″を比較すると、第
8図に実線で示す辺が一致していることが検出される。
For example, when the image information H11'' and H11'' are compared, it is detected that the sides indicated by solid lines in FIG. 8 match.

ここで、同図において、破線で示す辺は上記陰線処理に
よって、撮像されないことが予測されている辺を示し、
2点鎖線で示す辺Pは、撮像されると予測されるが、画
像情報H1l“には含まれていない辺であることを示し
ている。
Here, in the same figure, the sides indicated by broken lines indicate the sides that are predicted not to be imaged by the hidden line processing,
The side P indicated by the two-dot chain line is predicted to be imaged, but indicates that it is not included in the image information H1l''.

また、同様に、画像情報H12′ ・HI3”′および
HI3゛ ・HI3”の比較を行うと、第9図および第
10図に示すように、画像情報H12′”・HI 3 
”に含まれてはいるが、画像情報H12゛・HI3゛に
は含まれていない辺Q−R−3が検出される。
Similarly, when comparing the image information H12'・HI3''' and HI3''・HI3'', as shown in FIGS. 9 and 10, the image information H12'''・HI3''
” but not included in the image information H12' and HI3' is detected.

なお、画像情報H1l″・・・等の比較は、上記のよう
に辺に対して行うものに限らず、例えば頂点や面の位置
、および面の濃度など、テレビカメラ11・・・および
モデルMのデータから得られるものであれば種々のもの
に対して行うことができる。
Note that the comparison of the image information H1l'', etc. is not limited to the side as described above, but also compares, for example, the positions of vertices and surfaces, and the density of the surfaces, etc. This can be done for various things as long as it can be obtained from the data.

評価部20は、上記比較結果に基づいて、前記3次元位
置・姿勢推定部15で行われた対象物Hの位置および姿
勢の推定が正しいかどうかを評価し、評価結果出力部2
1を介して評価結果等を出力するようになっている。
The evaluation unit 20 evaluates whether the estimation of the position and orientation of the object H performed by the three-dimensional position/orientation estimating unit 15 is correct based on the comparison result, and outputs the evaluation result output unit 2.
Evaluation results etc. are output via 1.

例えば上記の例では、いずれの辺も、その辺が含まれる
べき画像情報H11゛・・・のうちのいずれかに含まれ
ているので、第8図ないし第10図に記号りで示す長さ
を単位長さとして、実際に撮像された辺の長さの総和と
撮像されるべき辺の長さの総和との比をとると、29.
OL/29.0L=1.0という評価値が得られる。こ
の評価値は、値が大きいほど、画像情報H1l′・・・
とHI1゛”・・・とが一致していることになるので、
撮像された対象物Hは、推定した位置および姿勢にある
モデルMに等しいと認識される。
For example, in the above example, each side is included in one of the image information H11゛... that should include that side, so the length shown by symbols in Figures 8 to 10 is If we take the ratio of the sum of the lengths of the sides actually imaged to the sum of the lengths of the sides to be imaged, where is the unit length, we get 29.
An evaluation value of OL/29.0L=1.0 is obtained. The larger the evaluation value, the more the image information H1l'...
and HI1゛”... are the same, so
The imaged object H is recognized as being equal to the model M at the estimated position and orientation.

ここで、例えば上記のようにいずれかの画像情報H11
′・・・に含まれていれば、その辺は撮像されていると
判定するようにすることにより、照明状態等の影響やテ
レビカメラ11〜13の位置によっては抽出されにくい
辺がある場合などでも、比較的適正な評価値が得られる
。しかも、テレビカメラの台数を増やすことによって、
評価精度の向上を図ることも容易にできる。また、撮像
されるべき辺を基準とし、陰になっている辺等を評価の
対象から除外することにより、やはり評価値の精度が向
上する。
Here, for example, as described above, any of the image information H11
'..., it is determined that the side is being imaged, so that it can be detected that there are sides that are difficult to extract depending on the influence of lighting conditions or the positions of the TV cameras 11 to 13. However, relatively appropriate evaluation values can be obtained. Moreover, by increasing the number of television cameras,
It is also possible to easily improve evaluation accuracy. Further, by using the side to be imaged as a reference and excluding shadowed sides from the evaluation target, the accuracy of the evaluation value is improved.

また、上記評価値の算出は、−組の画像情報の比較結果
、例えば画像情報H1l“ ・Hll”だけに基づいて
も求めることができる。すなわち、この場合には、実際
に撮像された辺の長さの総和は14.5L、撮像される
べき辺の長さの総和は15.5Lであるから、14.5
L/15.SL−〇、935という評価値が得られる。
Further, the above-mentioned evaluation value can be calculated based only on the comparison result of the - set of image information, for example, the image information H1l".Hll". That is, in this case, the total length of the sides actually imaged is 14.5L, and the total length of the sides to be imaged is 15.5L, so 14.5
L/15. An evaluation value of SL-〇, 935 is obtained.

このように、1台のテレビカメラ11だけで対象物を撮
像した場合などでも、位置および姿勢の推定が正しいか
どうかを判定することができる。
In this way, even when an object is imaged with only one television camera 11, it is possible to determine whether the position and orientation estimation is correct.

このように、モデルMを撮像したときに得られるであろ
う画像情報の予測を行うことによって、画像情報H1l
′〜H13°に含まれるすべての情報が評価に用いられ
るので、精度の高い3次元物体の認識が行われる。特に
、テレビカメラ11・・・から遠いところにあるために
縮小されて撮像”されているために3次元空間内での位
置の予測が困難な対象物や、1台のテレビカメラだけに
撮像されている部分がある場合などでも、画像前処理部
14から出力された画像情報H11゛・・・のまま評価
に用いられるので、高精度な認識を行うことができる。
In this way, by predicting the image information that will be obtained when the model M is imaged, the image information H1l
Since all the information included in ' to H13° is used for evaluation, highly accurate three-dimensional object recognition is performed. In particular, objects whose position in three-dimensional space is difficult to predict because they are far away from the television camera 11 and therefore are imaged in a reduced size, or objects that are imaged by only one television camera. Even if there is a portion that is hidden, the image information H11'... outputted from the image preprocessing unit 14 is used for evaluation as is, so highly accurate recognition can be performed.

しかも、複数の対象物が撮像されている場合でも、陰線
処理等により、それぞれの対象物の前後関係に応した画
像情報が生成されるので、やは乞確実にそれぞれの対象
物を認識することができイなお、本実施例においては、
対象物HやモデルMにおける頂点や辺を示すデータを画
像情報H11′・・・とじて比較する例を説明したが、
これに囲らず、濃淡画像や線画像などの画像パターンを
牙すデータを比較するようにしてもよい。この場合には
、公知のパターンマツチング手法などが適用でき、頂点
や辺などの対応関係は認識されない力(全体として、一
致程度の評価を行うことができる主玉皇処果 以上説明したように、本発明によれば、推定した位置お
よび姿勢にあるモデルをI最像したときに得られるであ
ろう画像情報と、撮像部から出力された画像情報との一
致程度を比較することにより撮像部からの画像情報を有
効に利用でき、また、陰になる部分などは、比較対象が
ら除外されるので、3次元物体の認識を高い精度で、か
つ迅速に行うことができるという効果を奏する。
Moreover, even when multiple objects are captured, image information corresponding to the context of each object is generated through hidden line processing, etc., making it possible to reliably recognize each object. However, in this example,
An example has been described in which data indicating the vertices and edges of the object H and model M are compared using image information H11'...
Instead of this, data representing image patterns such as grayscale images or line images may be compared. In this case, a known pattern matching method can be applied, and the correspondence relationship between vertices and edges is not recognized (as explained above, the degree of matching can be evaluated as a whole). According to the present invention, the imaging unit compares the degree of agreement between the image information that would be obtained when the model in the estimated position and orientation is imaged and the image information output from the imaging unit. Since the image information from the image can be effectively used and shadowed parts are excluded from the comparison target, it is possible to recognize three-dimensional objects with high accuracy and quickly.

さらに、モデルの一部もしくは全てが、か(れ4゜ 等によりカメラによって直接撮像できなくとも、モデル
により生成されると予測される影もしくは反射、屈折等
を画像情報と比較し、認識精度を高めることができる。
Furthermore, even if part or all of the model cannot be directly imaged by a camera due to distortion, etc., the recognition accuracy can be improved by comparing shadows, reflections, refractions, etc. predicted to be generated by the model with image information. can be increased.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例における3次元画像評価装置
の構成を示すブロック図、第2図はモデルの形状の例を
示す斜視図、第3図は対象物をテレビカメラで撮像する
状態を示す斜視図、第4図(a)〜(b)は撮像された
濃淡画像の例を示す説明図、第5図(a)〜(c)は頂
点および辺が抽出された画像情報の例を示す説明図、第
6図(a)〜(c)および第7図(a)〜(C)は予測
された画像情報の例を示す説明図、第8図〜第10図は
画像情報の比較結果の例を示す説明図である。 11−13・・・テレビカメラ、14・・・画像前処理
部、15・・・3次元位置・姿勢推定部、16・・・デ
ータ入力装置、17・・・モデル情報記憶部、18・・
・予測画像情報生成部、19・・・画像情報比較部、2
0・・・評価部、 ■・・・評価結果出力部 特 許 出 願 人 工業技術院長 杉浦 賢 外1名 復代理人並びに代理人
Fig. 1 is a block diagram showing the configuration of a three-dimensional image evaluation device according to an embodiment of the present invention, Fig. 2 is a perspective view showing an example of the shape of a model, and Fig. 3 is a state in which an object is imaged with a television camera. FIGS. 4(a) to 4(b) are explanatory diagrams showing examples of captured gray scale images, and FIGS. 5(a) to (c) are examples of image information from which vertices and edges have been extracted. 6(a)-(c) and 7(a)-(C) are explanatory diagrams showing examples of predicted image information. FIGS. 8-10 are explanatory diagrams showing examples of predicted image information. It is an explanatory diagram showing an example of a comparison result. 11-13... Television camera, 14... Image preprocessing unit, 15... Three-dimensional position/orientation estimation unit, 16... Data input device, 17... Model information storage unit, 18...
- Predicted image information generation unit, 19... image information comparison unit, 2
0...Evaluation Department, ■...Evaluation Results Output Department Patent Applicant Ken Sugiura, Director of the Agency of Industrial Science and Technology, and 1 other agent and agent

Claims (2)

【特許請求の範囲】[Claims] (1)被写体を撮像して画像情報を出力する撮像手段を
含む撮像部と、 被写体のモデルにおける3次元データを記憶するモデル
情報記憶部と、 前記画像情報と、モデルの3次元データとに基づいて、
被写体の位置および姿勢を推定する3次元位置・姿勢推
定部と、 前記推定された位置および姿勢にあるモデルを撮像した
ときに得られるであろう画像情報を予測する予測画像情
報生成部と、 前記撮像部から出力された画像情報と、予測画像情報生
成部から出力された画像情報とを比較して、一致程度を
求める画像情報比較部と を備えたことを特徴とする3次元画像評価装置。
(1) An imaging unit including an imaging unit that images a subject and outputs image information; a model information storage unit that stores three-dimensional data on a model of the subject; and a model information storage unit that stores three-dimensional data on a model of the subject, based on the image information and three-dimensional data of the model. hand,
a three-dimensional position/orientation estimation unit that estimates the position and orientation of the subject; a predicted image information generation unit that predicts image information that will be obtained when the model at the estimated position and orientation is imaged; A three-dimensional image evaluation device comprising: an image information comparison unit that compares image information output from an imaging unit and image information output from a predicted image information generation unit to determine a degree of coincidence.
(2)請求項第1項記載の3次元画像評価装置であって
、 前記撮像部は、被写体における頂点及び/又は辺及び/
又は面を示すデータを画像情報として出力し、 予測画像情報生成部は、3次元位置・姿勢推定部によっ
て推定された位置および姿勢にあるモデルを撮像したと
きに得られるモデルの頂点及び/又は辺及び/又は面を
示すデータを画像情報として予測する一方、 画像情報比較部は、撮像部から出力された画像情報と、
予測画像情報生成部から出力された画像情報とにおける
各頂点及び/又は辺及び/又は面の一致程度を求めるよ
うに構成されていることを特徴とする3次元画像評価装
置。
(2) The three-dimensional image evaluation device according to claim 1, wherein the imaging section comprises: a vertex and/or a side of a subject;
or data indicating the surface as image information, and the predicted image information generation unit generates vertices and/or edges of the model obtained when the model is imaged at the position and orientation estimated by the three-dimensional position/orientation estimation unit. and/or predicts the data indicating the surface as image information, while the image information comparison unit predicts the image information output from the imaging unit and
A three-dimensional image evaluation device, characterized in that it is configured to determine the degree of coincidence of each vertex and/or edge and/or surface with image information output from a predicted image information generation section.
JP2253160A 1990-09-20 1990-09-20 Three-dimensional image evaluation device Expired - Lifetime JP2532985B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2253160A JP2532985B2 (en) 1990-09-20 1990-09-20 Three-dimensional image evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2253160A JP2532985B2 (en) 1990-09-20 1990-09-20 Three-dimensional image evaluation device

Publications (2)

Publication Number Publication Date
JPH04130587A true JPH04130587A (en) 1992-05-01
JP2532985B2 JP2532985B2 (en) 1996-09-11

Family

ID=17247370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2253160A Expired - Lifetime JP2532985B2 (en) 1990-09-20 1990-09-20 Three-dimensional image evaluation device

Country Status (1)

Country Link
JP (1) JP2532985B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2003115042A (en) * 2001-10-05 2003-04-18 Minolta Co Ltd Method for evaluating three-dimensional shape model and method and device for generating the model
JP2004086929A (en) * 2003-12-08 2004-03-18 Nec Corp Image collation device
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
JP2006527434A (en) * 2003-06-10 2006-11-30 バイオスペース インスツルメンツ Radiation imaging method for three-dimensional reconstruction and computer program and apparatus for implementing the method
US7227973B2 (en) 2000-04-03 2007-06-05 Nec Corporation Device, method and record medium for image comparison
US7321370B2 (en) 2000-11-20 2008-01-22 Nec Corporation Method and apparatus for collating object
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
JP2011129094A (en) * 2009-11-24 2011-06-30 Mitsubishi Electric Research Laboratories Inc System and method for determining pose of object in scene

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4568967B2 (en) * 2000-07-13 2010-10-27 ソニー株式会社 3D image generation system, 3D image generation method, and program recording medium
JP2002133413A (en) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd Method and device for identifying three-dimensional object using image processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59182077A (en) * 1983-03-29 1984-10-16 株式会社東芝 Instructing device for environment of work
JPH0251008A (en) * 1988-08-12 1990-02-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for estimating posture of object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59182077A (en) * 1983-03-29 1984-10-16 株式会社東芝 Instructing device for environment of work
JPH0251008A (en) * 1988-08-12 1990-02-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for estimating posture of object

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
DE10080012B4 (en) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Three-dimensional method of detecting objects and system for picking up an object from a container using the method
US7227973B2 (en) 2000-04-03 2007-06-05 Nec Corporation Device, method and record medium for image comparison
US7321370B2 (en) 2000-11-20 2008-01-22 Nec Corporation Method and apparatus for collating object
US7593019B2 (en) 2000-11-20 2009-09-22 Nec Corporation Method and apparatus for collating object
US7710431B2 (en) 2000-11-20 2010-05-04 Nec Corporation Method and apparatus for collating object
US7932913B2 (en) 2000-11-20 2011-04-26 Nec Corporation Method and apparatus for collating object
JP2003058896A (en) * 2001-08-10 2003-02-28 Nec Corp Device, method and program for recognizing positioning attitude
JP2003115042A (en) * 2001-10-05 2003-04-18 Minolta Co Ltd Method for evaluating three-dimensional shape model and method and device for generating the model
JP2006527434A (en) * 2003-06-10 2006-11-30 バイオスペース インスツルメンツ Radiation imaging method for three-dimensional reconstruction and computer program and apparatus for implementing the method
JP2004086929A (en) * 2003-12-08 2004-03-18 Nec Corp Image collation device
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
JP2011129094A (en) * 2009-11-24 2011-06-30 Mitsubishi Electric Research Laboratories Inc System and method for determining pose of object in scene

Also Published As

Publication number Publication date
JP2532985B2 (en) 1996-09-11

Similar Documents

Publication Publication Date Title
Koch et al. Evaluation of cnn-based single-image depth estimation methods
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
US9303525B2 (en) Method and arrangement for multi-camera calibration
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
Thompson et al. Detecting moving objects using the rigidity constraint
CN111063021A (en) Method and device for establishing three-dimensional reconstruction model of space moving target
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
KR100834157B1 (en) Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
Won et al. End-to-end learning for omnidirectional stereo matching with uncertainty prior
Mousavi et al. The performance evaluation of multi-image 3D reconstruction software with different sensors
CN113689578B (en) Human body data set generation method and device
CN110998671B (en) Three-dimensional reconstruction method, device, system and storage medium
JPH04130587A (en) Three-dimensional picture evaluation device
Wong et al. Fast acquisition of dense depth data by a new structured light scheme
Chatterjee et al. Noise in structured-light stereo depth cameras: Modeling and its applications
US9135715B1 (en) Local feature cameras for structure from motion (SFM) problems with generalized cameras
KR20060065800A (en) Apparatus and method for 3d reconstruction of objects with depth discontinuities using helmholtz stereopsis
US20180182117A1 (en) Method for Generating Three Dimensional Images
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
Balcı et al. Sun position estimation and tracking for virtual object placement in time-lapse videos
Gennert A computational framework for understanding problems in stereo vision
Kim et al. Disparity estimation using a region-dividing technique and energy-based regularization
Paudel et al. 2D–3D synchronous/asynchronous camera fusion for visual odometry
Feris et al. Multiflash stereopsis: Depth-edge-preserving stereo with small baseline illumination
Gribben et al. Structured light 3D measurement of reflective objects using multiple DMD projectors

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080627

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080627

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090627

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100627

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 15

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 15