JP2000242785A - Method and device for generating three-dimensional shape information, and recording medium - Google Patents

Method and device for generating three-dimensional shape information, and recording medium

Info

Publication number
JP2000242785A
JP2000242785A JP11041321A JP4132199A JP2000242785A JP 2000242785 A JP2000242785 A JP 2000242785A JP 11041321 A JP11041321 A JP 11041321A JP 4132199 A JP4132199 A JP 4132199A JP 2000242785 A JP2000242785 A JP 2000242785A
Authority
JP
Japan
Prior art keywords
partial
matrix
tracking
generating
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11041321A
Other languages
Japanese (ja)
Other versions
JP3835658B2 (en
Inventor
Eiketsu Kou
英傑 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP04132199A priority Critical patent/JP3835658B2/en
Priority to US09/414,349 priority patent/US6628819B1/en
Publication of JP2000242785A publication Critical patent/JP2000242785A/en
Application granted granted Critical
Publication of JP3835658B2 publication Critical patent/JP3835658B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate point group data representing the all-round shape of an object from an image series obtained by performing all-round photographing of the object and also to make reducible the calculation time for generating the point time data. SOLUTION: A tracking queue generating part 104 constructs a tracking queue, and a tracking queue dividing part 105 divides the tracking queue and generates plural partially overlapped partial tracking queues. A partial three- dimensional data generating part 107 generates a partial measurement queue obtained by estimating and complementing the missing value of the partial tracking queue and generates partial point group data representing a partial shape from the partial measurement queue. A partial point group integrating part 108 integrates plural partial point group data and generates all-round point group data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルビデオカ
メラなどによって対象物体を撮影した画像系列から対象
物体の3次元形状を推定、復元する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for estimating and restoring a three-dimensional shape of a target object from a sequence of images of the target object captured by a digital video camera or the like.

【0002】[0002]

【従来の技術】物体の3次元形状を表す点群データを入
力する手法としては、レーザースキャンや人工的なテク
スチャを投影するなどの能動的な手法と、カメラだけを
利用する受動的な手法とがある。
2. Description of the Related Art Methods for inputting point cloud data representing a three-dimensional shape of an object include an active method such as laser scanning and projection of an artificial texture, and a passive method using only a camera. There is.

【0003】後者の手法では、カメラで対象物体を撮影
した時系列画像の各画像間で画像特徴点の対応付け(追
跡)を行い、その結果に基づいて対象物体の形状を表す
点群データを計算する。このような手法の一つとして、
TomasiとKanadeにより提案された因子分解法がある(
C.Tomasi and T.Kanade, Shape and Motion fromImage
Streams under Orthography: A Factorization Metho
d, InternationalJournal of Computer Vision,vol.9,1
992, pp.137−154)。ここに述べられている方法は、正
射影モデルに基づいて線形定式化を行い、数値計算的に
安定な行列の特異値分解を用いるため、他の手法に比べ
て、解が極めて安定であることが特徴である。
In the latter method, image feature points are associated (tracked) between time-series images of a target object photographed by a camera, and point group data representing the shape of the target object is obtained based on the result. calculate. One such technique is
There is a factorization method proposed by Tomasi and Kanade (
C. Tomasi and T. Kanade, Shape and Motion from Image
Streams under Orthography: A Factorization Metho
d, InternationalJournal of Computer Vision, vol.9,1
992, pp. 137-154). The method described here performs a linear formulation based on an orthographic projection model and uses singular value decomposition of a matrix that is numerically stable, so the solution is extremely stable compared to other methods. Is the feature.

【0004】また、定式化の線形性を保ちながら実際の
カメラモデルである中心射影により近い擬似中心射影モ
デルを利用する因子分解法が、PoelmanとKanadeにより
提案されている( C.J.Poelman and T. Kanade, A para
perspective factorizationmethod for shape and moti
on recovery, IEEE Transaction on PatternAnalysis
and Machine Intelligence,vol.19,no.3, pp.206− 21
8)。
A factorization method using a pseudo center projection model closer to the center projection which is an actual camera model while maintaining the linearity of the formulation has been proposed by Poelman and Kanade (CJPoelman and T. Kanade, A para
perspective factorizationmethod for shape and moti
on recovery, IEEE Transaction on PatternAnalysis
and Machine Intelligence, vol.19, no.3, pp.206-21
8).

【0005】因子分解法では、画像系列について画像特
徴点の追跡を行い、全ての特徴点の全ての画像における
位置データを、列を特徴点、行を画像にそれぞれ対応さ
せて並べた追跡行列を構築する。追跡行列の上半分は特
徴点のX座標、下半分は特徴点のY座標である。対象物
体を一周するようにカメラで撮影したような場合、対象
物体により隠蔽される特徴点があるため、追跡行列には
位置データが欠落した要素(欠測値)が含まれるので、
欠測値を周囲の位置データから推定して補完する処理を
行う。そして、欠測値を補完した後の追跡行列(計測行
列)の因子分解によって、対象物体の3次元形状を表す
点群データとカメラの姿勢データを同時に生成する。
[0005] In the factorization method, image feature points are tracked for an image sequence, and the position data of all the feature points in all the images are represented by a tracking matrix in which the columns are arranged in correspondence with the feature points and the rows are arranged in correspondence with the images. To construct. The upper half of the tracking matrix is the X coordinate of the feature point, and the lower half is the Y coordinate of the feature point. When the target object is photographed by the camera so as to make a circuit, the tracking matrix includes elements (missing values) whose position data is missing because there are feature points hidden by the target object.
The missing value is estimated from the surrounding position data and complemented. Then, by performing factorization of the tracking matrix (measurement matrix) after complementing the missing values, point group data representing the three-dimensional shape of the target object and camera posture data are simultaneously generated.

【0006】[0006]

【発明が解決しようとする課題】従来、因子分解法で
は、追跡行列全体を対象として一括処理しているため、
追跡行列中の全ての欠測値を推定により補完する必要が
ある。しかし、対象物体を全周撮影したような場合、追
跡行列に含まれるすべての欠測値を十分な精度で推定す
ることは不可能なことが多く、対象物体の全周にわたる
点群データを高精度に抽出することは殆ど不可能であっ
た。
Conventionally, in the factorization method, since the entire tracking matrix is processed collectively,
All missing values in the tracking matrix need to be supplemented by estimation. However, it is often impossible to estimate all missing values included in the tracking matrix with sufficient accuracy when the target object is photographed all around. It was almost impossible to extract with precision.

【0007】また、すべての欠測値の推定に成功したと
しても、点群データを得るために長い計算時間を必要と
するという問題があった。例えば1000個の画像特徴
点を100枚の画像にわたって追跡した場合、追跡行列
のサイズは200×1000となる。物体の全周にわた
って高密度な点群データを生成するような実際的な応用
を考えた場合、1000個を越える点群のデータが必要
になることが多く、追跡行列のサイズはさらに大きくな
る。しかし、因子分解法は計算時間のかかる数値計算の
手法であるため、上記のような大きな行列の全体に対し
直接的に因子分解法を適用したのでは、莫大な計算時間
を必要とし、また処理に大量のメモリを消費してしま
う。因みに、特徴点の数が約400点を越えると、計算
時間は追跡行列のサイズの3乗にほぼ比例して増加す
る。
Further, even if all missing values are successfully estimated, there is a problem that a long calculation time is required to obtain point cloud data. For example, when tracking 1000 image feature points over 100 images, the size of the tracking matrix is 200 × 1000. When considering a practical application that generates high-density point cloud data over the entire circumference of an object, data of more than 1000 point clouds is often required, and the size of the tracking matrix is further increased. However, since the factorization method is a time-consuming numerical calculation method, applying the factorization method directly to the entire large matrix as described above requires enormous computation time and processing. Consumes a lot of memory. Incidentally, when the number of feature points exceeds about 400, the calculation time increases almost in proportion to the cube of the size of the tracking matrix.

【0008】さらに、因子分解は一意でなく、二通りの
解が存在するため、対象物体の表面の凹凸を正しく復元
できないことがあるという問題もあった。
Further, the factor decomposition is not unique, and there are two types of solutions, so that there is a problem that the irregularities on the surface of the target object may not be correctly restored.

【0009】よって、本発明の目的は、対象物体を全周
撮影した画像系列から対象物体の全周にわたる3次元形
状を復元するための点群データを確実に生成できるよう
にすること、点群データを生成するための計算時間を短
縮すること、対象物体の表面の凹凸を正しく復元できる
ようにすること、点群データから生成したメッシュのテ
クスチャマッピング用画像を最適選択できるようにする
こと等である。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to reliably generate point cloud data for restoring a three-dimensional shape over the entire circumference of a target object from a series of images of the target object taken all around. By shortening the calculation time for generating data, enabling the correct restoration of surface irregularities of the target object, and enabling optimal selection of mesh mapping images generated from point cloud data, etc. is there.

【0010】[0010]

【課題を解決するための手段】前記目的を達成するた
め、本発明においては、対象物体を撮影した画像系列か
ら生成した追跡行列を分割して、部分的にオーバーラッ
プした複数の部分追跡行列を生成し、これら各部分追跡
行列の欠測値を推定補完した部分計測行列を生成する。
そして、各部分計測行列から対象物体の部分点群データ
を生成し、生成した各部分点群データを統合する。ま
た、部分計測行列から生成したカメラ姿勢データ及び対
象物体の撮影方向に基づいて、部分計測行列から生成さ
れた部分点群データに対し凹凸修正を施す。また、カメ
ラ姿勢データに基づいて、対象物体の形状復元のための
テクスチャマッピング用画像を自動選択する。
In order to achieve the above object, according to the present invention, a tracking matrix generated from a sequence of images of a target object is divided into a plurality of partially overlapping partial tracking matrices. Then, a partial measurement matrix is generated by estimating and complementing the missing value of each partial tracking matrix.
Then, partial point cloud data of the target object is generated from each partial measurement matrix, and the generated partial point cloud data is integrated. Also, based on the camera orientation data generated from the partial measurement matrix and the shooting direction of the target object, the unevenness correction is performed on the partial point group data generated from the partial measurement matrix. Further, a texture mapping image for restoring the shape of the target object is automatically selected based on the camera posture data.

【0011】[0011]

【発明の実施の形態】以下の説明の理解を容易にするた
め、本発明において対象物体の全周にわたる点群データ
を生成する過程の概略を説明する。図1は、その過程を
簡略化して示した図である。まず、対象物体を固定した
状態でカメラ(デジタルビデオカメラ等)を特定方向に
移動させながら、あるいは、カメラを固定した状態で対
象物体を特定方向に回転させながら、対象物体の全周撮
影を行う。この全周撮影によって得られた時系列画像の
特徴点追跡によって、追跡行列を作成する。次に、追跡
行列の分割処理を行って、部分的にオーバーラップした
複数の部分追跡行列を生成する。次に、各部分追跡行列
に対し欠測値の推定補完を行って、欠測値が補完された
部分追跡行列(部分計測行列と呼ぶ)を生成し、この部
分計測行列に因子分解法を適用することにより、対象物
体の部分形状を表す点群データ(部分点群データ)を生
成する。最後に、複数の部分計測行列から生成された部
分点群データの統合処理を行うことにより、対象物体の
全周にわたる形状を表す点群データ(全周点群データ)
を生成する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to facilitate understanding of the following description, an outline of a process of generating point cloud data over the entire circumference of a target object in the present invention will be described. FIG. 1 is a diagram showing the process in a simplified manner. First, while moving the camera (digital video camera or the like) in a specific direction with the target object fixed, or rotating the target object in a specific direction with the camera fixed, the entire circumference of the target object is photographed. . A tracking matrix is created by tracking feature points of a time-series image obtained by this full-circumference shooting. Next, a tracking matrix is divided to generate a plurality of partial tracking matrices partially overlapping. Next, the missing values are estimated and supplemented for each partial tracking matrix to generate a partial tracking matrix (called a partial measurement matrix) with the missing values complemented, and a factorization method is applied to this partial measurement matrix. By doing so, point group data (partial point group data) representing the partial shape of the target object is generated. Finally, by performing a process of integrating partial point cloud data generated from a plurality of partial measurement matrices, point cloud data representing the shape over the entire circumference of the target object (full circumference point cloud data)
Generate

【0012】元の追跡行列に多くの欠測値が含まれてい
ても、また、推定が困難な欠測値が含まれていたとして
も、適切な分割処理を行えば、各追跡行列中の欠測値、
すなわち各部分点群データの生成に必要な欠測値の推定
が可能になる。また、適当な分割処理を行い、各部分追
跡行列のサイズを元の追跡行列のサイズに比べ十分に小
さくすれば、個々の部分計測行列から部分点群データを
生成するための計算時間はもちろんのこと、全周部分点
群データを生成するための計算時間を、元の追跡行列全
体を対象とした因子分解法に比べ、大幅に短縮できる。
[0012] Even if the original tracking matrix contains many missing values, and even if missing values that are difficult to estimate are included, if the appropriate division processing is performed, each tracking matrix has a missing value. Missing values,
That is, it is possible to estimate missing values required for generating each partial point cloud data. In addition, if an appropriate division process is performed and the size of each partial tracking matrix is made sufficiently smaller than the size of the original tracking matrix, the calculation time for generating the partial point cloud data from the individual partial measurement matrices is of course. That is, the calculation time for generating the all-around partial point cloud data can be significantly reduced as compared with the factorization method for the entire original tracking matrix.

【0013】以下、本発明の一実施形態として、上に述
べたような全周点群データの自動生成と、この全周点群
データにより3次元形状を復元するためのテクスチャマ
ッピング用画像の自動選択を行う3次元形状情報生成シ
ステムについて説明する。図2は、この3次元形状情報
生成システムの概略構成図である。
Hereinafter, as one embodiment of the present invention, automatic generation of all-around point group data as described above and automatic generation of a texture mapping image for restoring a three-dimensional shape based on the all-around point group data will be described. A three-dimensional shape information generation system for performing selection will be described. FIG. 2 is a schematic configuration diagram of the three-dimensional shape information generation system.

【0014】図2において、100は例えばデジタルビ
デオカメラ等を用いて対象物体を特定の方向に全周撮影
した時系列画像を取り込むための画像取り込み装置であ
る。取り込まれた時系列画像データは記憶装置101に
記憶される。この記憶装置101に記憶されている時系
列画像データは、画像入力部102によって2次元演算
部103に入力される。この2次元演算部103は、入
力された時系列画像データの画像特徴点の追跡を行って
追跡行列を構築する追跡行列生成部104と、生成され
た追跡行列の分割処理を行って部分的にオーバーラップ
した複数の部分追跡行列を生成する追跡行列分割部10
5とからなるが、その処理内容の詳細については後述す
る。2次元演算部103の処理結果は3次元演算部10
6に入力される。この3次元演算部106は、対象物体
の3次元形状を表す点群データの生成とテクスチャマッ
ピング用画像の選択を行うもので、部分3次元データ生
成部107と部分点群統合部108からなるが、その処
理内容の詳細は後述する。3次元演算部106により生
成されたデータは、データ出力部109により出力さ
れ、記憶装置11に記憶される。以下、各部の処理内容
について、処理の流れに沿って説明する。
In FIG. 2, reference numeral 100 denotes an image capturing device for capturing a time-series image of a target object taken in a specific direction all around using a digital video camera or the like. The captured time-series image data is stored in the storage device 101. The time-series image data stored in the storage device 101 is input to the two-dimensional operation unit 103 by the image input unit 102. The two-dimensional operation unit 103 performs tracking of image feature points of the input time-series image data to construct a tracking matrix, and partially performs processing of dividing the generated tracking matrix to partially generate the tracking matrix. Tracking matrix division unit 10 for generating a plurality of overlapping partial tracking matrices
5, the details of which will be described later. The processing result of the two-dimensional operation unit 103 is
6 is input. The three-dimensional operation unit 106 generates point group data representing the three-dimensional shape of the target object and selects a texture mapping image, and includes a partial three-dimensional data generation unit 107 and a partial point group integration unit 108. The details of the processing will be described later. The data generated by the three-dimensional operation unit 106 is output by the data output unit 109 and stored in the storage device 11. Hereinafter, the processing contents of each unit will be described along the processing flow.

【0015】《追跡行列生成部103の処理》図3に、
追跡行列生成部103の処理フローを示す。まず、ステ
ップ200において、時系列画像の各フレームにおい
て、濃度変化の激しい小画像領域を特徴点として抽出す
る。この際、濃度変化の激しい特徴点ほど高いランクと
なるように、濃度変化の激しさによって特徴点にランク
付けをする。そして、抽出した特徴点の中から、ランク
の高いものから順に、所定個数の特徴点を選択する。
<< Process of Tracking Matrix Generation Unit 103 >> FIG.
4 shows a processing flow of the tracking matrix generation unit 103. First, in step 200, in each frame of the time-series image, a small image region where the density change is drastic is extracted as a feature point. At this time, the feature points are ranked according to the intensity of the density change so that the feature points having a large density change have a higher rank. Then, a predetermined number of feature points are selected from the extracted feature points in descending order of rank.

【0016】次に、ステップ202において、時系列画
像の注目した2フレームに対し、前ステップ200で選
択された特徴点の対応付けを行うことにより、特徴点を
追跡する。具体的には、一方のフレーム上の特徴点と他
方のフレーム上の特徴点との間でパターンマッチングを
行い、パターンが一致すると判断された特徴点を対応付
ける。
Next, in step 202, the feature points selected in the previous step 200 are associated with the two focused frames of the time-series image to track the feature points. More specifically, pattern matching is performed between a feature point on one frame and a feature point on the other frame, and feature points determined to have matching patterns are associated with each other.

【0017】選択された所定個数の特徴点の一部の特徴
点の追跡すなわち対応付けに失敗した場合には(ステッ
プ206、NO)、ステップ200に戻り、現在の2フ
レームの未選択の特徴点の中から、追跡を失敗した特徴
点に代わる特徴点を選びなおす。この選択は、ランクの
高い特徴点を優先して行う。そして、ステップ202に
戻り、選択しなおした特徴点に関する追跡を行う。
If the tracking or the association of some of the selected predetermined number of feature points fails (step 206, NO), the process returns to step 200, where the unselected feature points of the current two frames are selected. Of the feature points for which the tracking failed, is selected again. This selection is performed with priority given to feature points having a higher rank. Then, the process returns to step 202, and tracking of the reselected feature point is performed.

【0018】このようにして2フレーム間で所定個数の
特徴点の追跡が成功すると(ステップ206、YE
S)、ステップ202に戻り、追跡を完了した2フレー
ム中の時間的に遅い1フレームと、その次の1フレーム
の2フレームを対象として、再び同様の特徴点追跡を行
う。この際、時間的に早い1フレームに関しては、すで
に追跡に成功した特徴点をまず選択して追跡を試みる。
相前後する2フレームの全ての組に対し、同様の所定個
数の特徴点の追跡を行う。
If the tracking of a predetermined number of feature points has succeeded in two frames in this way (step 206, YE
S), the process returns to step 202, and the same feature point tracking is performed again for one frame of the two frames that have been tracked, which is later in time, and the next one frame. At this time, for one frame earlier in time, a feature point that has already been successfully tracked is first selected to try to track.
A similar predetermined number of feature points are tracked for all pairs of two frames that are adjacent to each other.

【0019】時系列画像の全フレームについて、所定個
数の特徴点の追跡に成功すると(ステップ204、YE
S)、ステップ208に進み、特徴点追跡によって対応
付けられた各特徴点の各フレーム上の位置データを並べ
た追跡行列を構築する。この追跡行列を保存し(ステッ
プ210)、処理を終了する。
If the tracking of a predetermined number of feature points has succeeded for all frames of the time-series image (step 204, YE
S), proceed to step 208 to construct a tracking matrix in which the position data on each frame of each feature point associated by the feature point tracking are arranged. This tracking matrix is stored (step 210), and the process ends.

【0020】《追跡行列分割部104の処理》図4に、
追跡行列分割部105の処理フローを示す。まずステッ
プ222において、追跡行列を取り込み整形処理を施
す。追跡行列を分割して複数の部分追跡行列を生成する
が、これら部分追跡行列中の欠測値の推定を容易にする
ため、換言すれば、そのような部分追跡行列を生成する
ような追跡行列の分割を容易にするために、追跡行列の
整形処理を行う。この整形処理は、例えば次のようにし
て行う。まず、特徴点を連続して追跡できた時間(フレ
ーム)に着目して次の4グループに分ける。
<< Processing of Tracking Matrix Dividing Unit 104 >> FIG.
4 shows a processing flow of a tracking matrix division unit 105. First, in step 222, a tracking matrix is fetched and shaped. The tracking matrix is divided to generate a plurality of partial tracking matrices, but in order to facilitate estimation of missing values in these partial tracking matrices, in other words, a tracking matrix that generates such a partial tracking matrix In order to facilitate the division of the tracking matrix, the tracking matrix is shaped. This shaping process is performed as follows, for example. First, the feature points are divided into the following four groups, focusing on the time (frame) during which the feature points can be continuously tracked.

【0021】Aグループ:最初のフレームから最後のフ
レームまで連続して追跡に成功した特徴点(全フレーム
にわたって欠測値とならなかった特徴点)。 Bグループ:最初のフレームからある途中のフレームま
では連続して追跡できたが、その途中フレームの次フレ
ーム以降は追跡できなくなった特徴点(途中のフレーム
以降で、欠測値となった特徴点)。 Cグループ:途中のフレームから、あるフレームまでは
連続して追跡できるが、その次フレームから最後のフレ
ームまで追跡できなくなった特徴点。 Dグループ:途中のフレームから最後のフレームまで連
続して追跡できた特徴点。
Group A: Feature points that have been successfully tracked continuously from the first frame to the last frame (feature points that have not become missing values over all frames). Group B: Feature points that could be tracked continuously from the first frame to a certain middle frame, but could not be tracked after the next frame after that middle frame (feature points that became missing values after the middle frame) ). Group C: Feature points that can be tracked continuously from a middle frame to a certain frame, but cannot be tracked from the next frame to the last frame. D group: feature points that can be tracked continuously from the middle frame to the last frame.

【0022】そして、追跡行列のA,B,C,Dの各グ
ループの特徴点に対応した列を、図5に模式的に示すよ
うな順番に並べなおす。これが整形処理である。図5に
おいて、網掛け部分は位置データが存在する要素であ
り、空白部分は位置データが存在しない(欠測値となっ
ている)要素である。なお、追跡行列の上半分には各フ
レーム上の各特徴点のX座標が並び、下半分には各フレ
ーム上の各特徴点のY座標が並ぶため、特徴点の個数を
P、フレーム数をFとすると、追跡行列は2F行×P列
の行列となるが、図5ではX,Y座標をまとめた形で表
現している(以下、同様の表現方法を用いる)。
Then, the columns corresponding to the feature points of each of the groups A, B, C, and D of the tracking matrix are rearranged in the order as schematically shown in FIG. This is the shaping process. In FIG. 5, a shaded portion is an element having position data, and a blank portion is an element having no position data (missing value). Since the X coordinate of each feature point on each frame is arranged in the upper half of the tracking matrix, and the Y coordinate of each feature point on each frame is arranged in the lower half, the number of feature points is P and the number of frames is If F, the tracking matrix is a matrix of 2F rows × P columns. In FIG. 5, the X and Y coordinates are expressed in a combined form (hereinafter, the same expression method is used).

【0023】整形処理が終わると、ステップ222に進
み、追跡行列の分割処理を行い、部分的にオーバーラッ
プした複数の部分追跡行列を生成する。図6は分割処理
によって生成される部分追跡行列の説明図である。図6
において、網掛けされた各矩形領域が部分追跡行列を表
し、黒ベタ領域が部分追跡行列間のオーバーラップ領域
である。
When the shaping process is completed, the process proceeds to step 222, where the tracking matrix is divided, and a plurality of partially overlapping partial tracking matrices are generated. FIG. 6 is an explanatory diagram of a partial tracking matrix generated by the division processing. FIG.
In, each shaded rectangular area represents a partial tracking matrix, and a solid black area is an overlap area between the partial tracking matrices.

【0024】このような分割処理は、以下のような条件
に基づいて行われる。 (1)追跡行列の各行及び各列は、少なくとも1つの部
分追跡行列の行及び列に対応する。 (2)各部分追跡行列のサイズは6×4以上である。 (3)各部分追跡行列の間に、1×4以上のサイズの行
列データをオーバーラップさせる。 (4)各部分追跡行列において、完全な追跡データを持
つ特徴点が4点以上、かつ、連続的に3フレーム以上に
わたり存在する。
Such a division process is performed based on the following conditions. (1) Each row and each column of the tracking matrix corresponds to a row and a column of at least one partial tracking matrix. (2) The size of each partial tracking matrix is 6 × 4 or more. (3) Overlapping matrix data having a size of 1 × 4 or more between the partial tracking matrices. (4) In each partial tracking matrix, four or more feature points having complete tracking data exist continuously over three or more frames.

【0025】上記条件(1)は、完全な点群データと完
全なカメラの姿勢データを得るための条件である。上記
条件(2)は因子分解法の必要条件である。上記条件
(3)は各部分追跡行列から生成される部分点群データ
を統合するために必要な、各点群データ間の共通点群デ
ータを提供するための条件である。上記条件(4)は各
部分追跡行列中の欠測値を推定するための制限である。
The above condition (1) is a condition for obtaining complete point cloud data and complete camera attitude data. The condition (2) is a necessary condition for the factorization method. The condition (3) is a condition for providing common point cloud data between the point cloud data, which is necessary for integrating the partial cloud data generated from each partial tracking matrix. The condition (4) is a restriction for estimating missing values in each partial tracking matrix.

【0026】分割処理の具体例を次に示す。図7は整形
処理後の追跡行列の一例であり、図中の黒部分は追跡デ
ータ(特徴点の位置データ)が存在する要素を示し、空
白部分は追跡データが欠測値となっている要素を示す。
この追跡行列は、例えば、図8に黒ベタの横長矩形領域
として示すような7個の部分追跡行列に分割される。た
だし、図8においては、簡略化のために、各部分追跡行
列のオーバーラップ領域は図示されていない。このよう
な分割により生成される部分追跡行列を、左上のものか
ら右下のものへ順に並べて図9に示す。
A specific example of the dividing process will be described below. FIG. 7 is an example of the tracking matrix after the shaping process. In the figure, black portions indicate elements where tracking data (position data of feature points) exist, and blank portions indicate elements where the tracking data is missing values. Is shown.
This tracking matrix is divided into, for example, seven partial tracking matrices as shown in FIG. However, in FIG. 8, for the sake of simplicity, the overlapping area of each partial tracking matrix is not shown. FIG. 9 shows partial tracking matrices generated by such division in order from the upper left to the lower right.

【0027】このような分割処理によって複数の部分追
跡行列が生成されるが、同時に、部分追跡行列間のオー
バーラップ領域の点群データが共通点群データとして保
存される(ステップ226)。
A plurality of partial tracking matrices are generated by such a division process. At the same time, point group data of an overlap area between the partial tracking matrices is stored as common point group data (step 226).

【0028】次に、各部分追跡行列に対する欠測値(す
なわち隠蔽特徴点)を推定する処理が行われる。すなわ
ち、部分追跡行列を1つ取り込み(ステップ228)、
その部分追跡行列に欠測値が含まれているか調べる(ス
テップ230)。欠測値が含まれていなければ、ステッ
プ228に戻って次の部分追跡行列を取り込む。部分追
跡行列に欠測値が含まれているならば、ステップ232
に進んで欠測値の推定補完処理を行う。このような処理
を繰り返し、全ての部分追跡行列に対する欠測値の推定
補完が終了したならば(ステップ234、YES)、欠
測値が推定値で補完された各部分追跡行列、あるいは最
初から欠測値が存在しない部分追跡行列ほ、部分計測行
列として保存する(ステップ236)。
Next, a process of estimating a missing value (that is, a hidden feature point) for each partial tracking matrix is performed. That is, one partial tracking matrix is fetched (step 228),
It is checked whether or not the missing value is included in the partial tracking matrix (step 230). If no missing value is included, the process returns to step 228 to fetch the next partial tracking matrix. If a missing value is included in the partial tracking matrix, step 232 is executed.
To perform missing value estimation complementation processing. Such processing is repeated, and when estimation completion of missing values for all partial tracking matrices is completed (YES in step 234), each partial tracking matrix in which missing values are complemented with estimated values, or missing data from the beginning, A partial tracking matrix having no measured value is stored as a partial measurement matrix (step 236).

【0029】次に、欠測値推定補完処理ステップ232
の処理内容について説明するが、詳細な説明に先立ち、
欠測値推定の基本的な考え方を図10により説明する。
図10は、特徴点1〜7をフレーム1〜8にわたって追
跡して構築される追跡行列の一例を示す。図中、「・」
印は特徴点の追跡を成功し、その位置データが得られて
いる要素を示し、「?」印は特徴点の追跡を失敗しその
位置データが欠測値となっている要素を示す。このよう
な欠測値の推定には、その欠測値の周りの既知の位置デ
ータを利用する。まず、推定対象の欠測値を1つ選択す
る。そして、選択した欠測値を含む、部分行列(推定行
列と呼ぶ)を作成する。この推定行列では、推定対象の
要素以外の要素は全て既知である(位置データが得られ
ている)ことが必要である。例えば、図10において、
特徴点6のフレーム5の欠測値を推定対象として選択し
たとする。この場合、例えば図10に示した枠の内部に
対応した推定行列を作成する。この推定行列から欠測値
を推定し、その推定値で該当欠測値を書き換える。次
に、例えば、図10中の特徴点6のフレーム6の欠測値
を推定対象に選び、その推定のための推定行列を作成す
る。例えば、特徴点1〜6、フレーム1〜6に対応する
推定行列を作成し、その欠測値を推定し、追跡行列の当
該欠測値を推定値で書き換える。次に、例えば、図10
中の特徴点7のフレーム2の欠測値を推定対象に選択
し、特徴点1〜7、フレーム2〜6に対応する推定行列
を作成し、当該欠測値を推定する。このようにして、欠
測値を1つずつ順次推定し、最終的に全ての欠測値を推
定値によって補完する。
Next, a missing value estimation complement processing step 232
I will explain the processing content of, but before the detailed explanation,
The basic concept of missing value estimation will be described with reference to FIG.
FIG. 10 shows an example of a tracking matrix constructed by tracking feature points 1 to 7 over frames 1 to 8. In the figure, "・"
The mark indicates an element for which tracking of the feature point has succeeded and the position data has been obtained, and the "?" Mark indicates an element for which tracking of the feature point has failed and the position data has a missing value. In order to estimate such a missing value, known position data around the missing value is used. First, one missing value to be estimated is selected. Then, a sub-matrix (called an estimation matrix) including the selected missing values is created. In this estimation matrix, it is necessary that all elements other than the element to be estimated are known (position data has been obtained). For example, in FIG.
It is assumed that the missing value of the frame 5 of the feature point 6 is selected as an estimation target. In this case, for example, an estimation matrix corresponding to the inside of the frame shown in FIG. 10 is created. Missing values are estimated from this estimation matrix, and the missing values are rewritten with the estimated values. Next, for example, a missing value of the frame 6 of the feature point 6 in FIG. 10 is selected as an estimation target, and an estimation matrix for the estimation is created. For example, an estimation matrix corresponding to feature points 1 to 6 and frames 1 to 6 is created, the missing value is estimated, and the missing value in the tracking matrix is rewritten with the estimated value. Next, for example, FIG.
The missing value of the feature point 7 in the frame 2 is selected as an estimation target, an estimation matrix corresponding to the feature points 1 to 7 and the frames 2 to 6 is created, and the missing value is estimated. In this way, missing values are sequentially estimated one by one, and finally all missing values are complemented by the estimated values.

【0030】欠測値推定補完処理ステップ232の処理
内容の一例を、図11に示すフローチャートに沿って説
明する。推定に用いる推定行列のサイズが大きいほうが
推定精度が上がるが、その反面、1つの欠測値の推定の
ための計算コストが高くなってしまう。そこで、ここに
示す処理例では、適当なサイズの推定行列を作り、欠測
値の推定を行い、推定を失敗した場合には、推定行列の
サイズをある大きさまで少しずつ増大させながら、推定
を繰り返す。また、推定行列のサイズを少しずつ増大さ
せながら推定演算を繰り返す処理をスムーズに進めるこ
とができるようにするため、ここに示す処理例では、処
理過程で前記の整形処理を行う。また、欠測値が残って
いて、それ以上は推定行列を構築できなくなった場合に
は、追跡行列を上下逆さに反転させる処理を行って、推
定処理を続行する。
An example of the processing contents of the missing value estimation complement processing step 232 will be described with reference to the flowchart shown in FIG. Although the estimation accuracy increases as the size of the estimation matrix used for estimation increases, the calculation cost for estimating one missing value increases. Therefore, in the processing example shown here, an estimation matrix of an appropriate size is created, missing values are estimated, and if the estimation fails, the estimation is performed while gradually increasing the size of the estimation matrix to a certain size. repeat. In addition, in order to make it possible to smoothly proceed with the process of repeating the estimation calculation while gradually increasing the size of the estimation matrix, in the processing example shown here, the above-described shaping process is performed in the process. Further, when the missing values remain and the estimation matrix cannot be constructed any more, the processing of inverting the tracking matrix upside down is performed, and the estimation processing is continued.

【0031】まず、処理対象の部分追跡行列に対し、前
述の整形処理を行う(ステップ250)。整形後の部分
追跡行列において、1つ以上の欠測値のための推定行列
を構築可能であるか調べる(ステップ252)。可能な
らば、注目した欠測値に対する推定行列を作成し(ステ
ップ254)、推定演算を行い(ステップ256)、推
定の成否を調べる(ステップ258)。成功した場合に
は、推定値で欠測値を書き換える。失敗した場合には推
定行列のサイズを増加させ(ステップ260)、増加後
の推定行列のサイズが予め決めた最大サイズ以下である
か調べる(ステップ262)。最大サイズ以下であるな
らば、その増加したサイズの推定行列を作成して推定演
算を再度行う(ステップ256)。推定が成功するか、
推定行列のサイズが最大サイズを越えると、全ての欠測
値の推定が完了したか調べる(ステップ270)。欠測
値が残っていなければ、処理は終了する。欠測値が残っ
ている場合には、ステップ2502へ戻り次の欠測値に
対する処理を続ける。
First, the aforementioned shaping process is performed on the partial tracking matrix to be processed (step 250). It is checked whether it is possible to construct an estimation matrix for one or more missing values in the shaped partial tracking matrix (step 252). If possible, an estimation matrix for the missing value of interest is created (step 254), an estimation operation is performed (step 256), and the success or failure of the estimation is checked (step 258). If successful, replace the missing value with the estimated value. If it fails, the size of the estimation matrix is increased (step 260), and it is checked whether the size of the estimated matrix after the increase is equal to or smaller than a predetermined maximum size (step 262). If the size is equal to or smaller than the maximum size, an estimation matrix of the increased size is created and the estimation operation is performed again (step 256). If the estimation is successful,
If the size of the estimation matrix exceeds the maximum size, it is checked whether the estimation of all missing values has been completed (step 270). If there are no missing values, the process ends. If any missing values remain, the process returns to step 2502 to continue the process for the next missing value.

【0032】欠測値が残っているが、推定行列の構築が
もはや不可能になった場合、ステップ252よりステッ
プ264へ進み、部分追跡行列の上下反転を既に行った
か判定する。反転前ならば、部分追跡行列の上下反転を
行い(ステップ266)、ステップ250へ戻って処理
を続ける。部分追跡行列の上下反転後の処理でも欠測値
が残っていて、推定行列の構築が不可能となった場合、
ステップ252からステップ264へ、さらにステップ
268へ進み、部分追跡行列を再び上下反転させて元の
行順に戻し、処理を終了する。
If the missing values remain, but it is no longer possible to construct the estimation matrix, the process proceeds from step 252 to step 264 to determine whether the partial tracking matrix has been inverted upside down. If not, the partial tracking matrix is vertically inverted (step 266), and the process returns to step 250 to continue. If missing values remain even after the partial tracking matrix has been turned upside down and the estimation matrix cannot be constructed,
The process proceeds from step 252 to step 264, and further proceeds to step 268, in which the partial tracking matrix is again inverted and returned to the original row order, and the process is terminated.

【0033】なお、このような欠測値の推定は、各部分
追跡行列の内部に限って行われる。本発明においては、
追跡行列中の欠測値を全て推定する必要はなく、どの部
分追跡行列にも含まれない欠測値は推定しない。そのよ
うな欠測値が残っていても、最終的に全周点群データを
生成できる。
The estimation of such a missing value is performed only inside each partial tracking matrix. In the present invention,
It is not necessary to estimate all missing values in the tracking matrix, and missing values not included in any partial tracking matrix are estimated. Even if such missing values remain, all-around point group data can be finally generated.

【0034】《部分3次元データ生成部107の処理》
図12に、部分3次元データ生成部107の処理フロー
を示す。まず、欠測値推定補完後の部分計測行列を1つ
取り込む(ステップ300)。この部分計測行列に対し
因子分解法による3次元データ計算処理を行い(ステッ
プ302)、特徴点の3次元座標(部分的な形状を表す
部分点群データ)304と、特徴点群とカメラとの相対
的な3次元運動(カメラ姿勢データ)306を求める。
前述のように、因子分解は一意ではなく、二通りの解が
あるため形状の凹凸の区別がつかないという問題があ
る。そこで、ステップ310において、カメラ姿勢デー
タ306を対象物体の撮影方向308と比較し、一致し
ない特徴点に関しては部分点群データのz軸座標値(奥
行き情報)を反転させる操作、すなわち凹凸反転操作を
行う。このようにして、凹凸を修正した部分点群データ
312を求め、これを保存する(ステップ312)。ま
た、ステップ314において、カメラ姿勢データ306
に基づいて、部分点群データ312のベクトルの平均方
向に最も近い撮影方向(カメラの光軸方向)を持つ画像
を、その部分点群データで生成したメッシュのテクスチ
ャマッピング用画像として選択し、そのテクスチャ画像
のインデックス316を保存する。
<< Processing of Partial Three-Dimensional Data Generation Unit 107 >>
FIG. 12 shows a processing flow of the partial three-dimensional data generation unit 107. First, one partial measurement matrix after missing value estimation complementation is fetched (step 300). The partial measurement matrix is subjected to a three-dimensional data calculation process by a factor decomposition method (step 302), and the three-dimensional coordinates of the feature points (partial point group data representing a partial shape) 304 and the feature point group and the camera A relative three-dimensional motion (camera posture data) 306 is obtained.
As described above, the factorization is not unique, and there is a problem that it is impossible to distinguish the shape irregularities because there are two types of solutions. Therefore, in step 310, the camera posture data 306 is compared with the imaging direction 308 of the target object, and for feature points that do not match, the operation of inverting the z-axis coordinate value (depth information) of the partial point group data, that is, the unevenness inversion operation is performed. Do. In this way, the partial point group data 312 with the unevenness corrected is obtained and stored (step 312). In step 314, the camera posture data 306
, The image having the shooting direction (the optical axis direction of the camera) closest to the average direction of the vectors of the partial point cloud data 312 is selected as the texture mapping image of the mesh generated by the partial point cloud data. The index 316 of the texture image is stored.

【0035】未処理の部分計測行列が残っているならば
(ステップ318、NO)、ステップ300に戻り、別
の部分計測行列に対する処理が行われる。全ての部分計
測行列が処理済となるまで(ステップ318、YE
S)、処理が繰り返される。
If an unprocessed partial measurement matrix remains (step 318, NO), the process returns to step 300, and processing for another partial measurement matrix is performed. Until all the partial measurement matrices have been processed (step 318, YE
S), the process is repeated.

【0036】《部分点群統合部108の処理》図13
に、部分点群統合部108の処理フローを示す。まず、
ステップ350において、隣り合う2つの部分計測行列
から生成された部分点群データと、その共通点群データ
を取り込む。次のステップ352において、共通点群デ
ータを2つの部分点群データ間の対応付け情報として利
用して、2つの部分点群データを回転変換やアフィン変
換によって統合する。そして、ステップ350に戻り、
現在までの統合点群データに隣接する部分点群データ
と、その共通点群データを取り込み、ステップ352で
さらに統合する。同様の統合処理を、全ての部分点群デ
ータの統合が終わるまで(ステップ354、YES)繰
り返すことにより、対象物体の全周形状を表す全周点群
データを生成し保存し(ステップ356)、処理を終了
する。この全周点群データは、最終的にテクスチャマッ
ピング画像インデックスと共にデータ出力部109によ
り出力され、記憶装置110に格納される。
<< Processing of Partial Point Cloud Integration Unit 108 >> FIG.
9 shows a processing flow of the partial point group integration unit 108. First,
In step 350, the partial point cloud data generated from two adjacent partial measurement matrices and the common point cloud data are fetched. In the next step 352, the two partial point cloud data are integrated by rotational transformation or affine transformation using the common point cloud data as the association information between the two partial point cloud data. Then, returning to step 350,
The partial point cloud data adjacent to the integrated point cloud data up to now and the common point cloud data are fetched and further integrated in step 352. By repeating the same integration process until the integration of all the partial point cloud data is completed (step 354, YES), all the circumference point cloud data representing the entire circumference shape of the target object is generated and stored (step 356). The process ends. The all-around point group data is finally output by the data output unit 109 together with the texture mapping image index, and stored in the storage device 110.

【0037】以上説明した一連の処理(又は3次元形状
情報生成システムの構成部分の機能)は、例えば、図1
4に簡略化して示すようなCPU400、メモリ40
1、ハードディスクなどの補助記憶装置402、フロッ
ピーディスクなどの記録媒体403の読み書きのための
媒体ドライブ404、外部の入出力機器とのI/Oイン
ターフェイス405などをシステムバス406によって
接続したようなコンピュータ上でソフトウェアにより実
現可能である。そのためのプログラム407は、、例え
ば、それが記録されたフロッピーディスクなどの記録媒
体403より媒体ドライブ404を介して読み込まれて
補助記憶装置402に一旦格納され、処理実行時にメモ
リ401にロードされる。時系列画像データや撮影方向
データなどは、例えば、I/Oインターフェイス405
を介して取り込まれる。
The series of processes described above (or the functions of the components of the three-dimensional shape information generating system) are described in, for example, FIG.
4, a CPU 400 and a memory 40 as shown in a simplified manner.
1. On a computer in which an auxiliary storage device 402 such as a hard disk, a media drive 404 for reading / writing a recording medium 403 such as a floppy disk, an I / O interface 405 with an external input / output device, and the like are connected by a system bus 406. And can be realized by software. The program 407 for that purpose is read from a recording medium 403 such as a floppy disk on which the program 407 is recorded via the medium drive 404, temporarily stored in the auxiliary storage device 402, and loaded into the memory 401 when the processing is executed. The time-series image data and the shooting direction data are stored in, for example, the I / O interface 405.
Is captured via

【0038】以上に説明した本発明の処理方法によれ
ば、特徴点数が多い場合でも、従来の追跡行列を一括し
て処理する因子分解法に比べ、計算時間を大幅に短縮で
きる。この計算時間の短縮効果を明らかにするため、実
験データを図15に示す。この実験では、サン(SU
N)社のワークステーションULTRA60(CPU:
UltraSPARC_II,メモリ:384MB)を使
用し、ソフトウェアによって処理を実行した。追跡行列
の特徴点数は1921個である。追跡行列の分割は、部
分追跡行列の特徴点数の4分の1の個数の特徴点を共通
点群とするように行った。図15に示す「計算時間」
は、CPU100%換算のCPU時間である。また、
「分割数」は追跡行列の分割数(部分追跡行列の個数)
であり、分割数=1は分割を行わない場合、つまり従来
の因子分解法による場合に相当する。「部分点群点数」
は各部分追跡行列の特徴点数であり、その右側の括弧内
の数字は共通点群数である。「実行時間」は追跡行列の
分割から各部分点群データの生成までに要した計算時間
(秒)であり、部分点群データの統合処理の時間(非常
に短く、ミリ秒オーダーである)は含まれていない。
「特異値分解」は特異値分解のための計算時間(秒)で
あり、その右側の括弧内の数字は特異値分解のための計
算時間が「実行時間」に占める割合(%)を示してい
る。因子分解法における計算時間の大半は、特異値分解
のための計算時間である。
According to the processing method of the present invention described above, even when the number of feature points is large, the calculation time can be greatly reduced as compared with the conventional factorization method which collectively processes a tracking matrix. Experimental data is shown in FIG. 15 to clarify the effect of shortening the calculation time. In this experiment, Sun (SU
N) Company ULTRA60 (CPU:
(UltraSPARC_II, memory: 384 MB), and the processing was executed by software. The number of feature points of the tracking matrix is 1921. The division of the tracking matrix was performed such that one-fourth of the feature points of the partial tracking matrix were used as a common point group. "Calculation time" shown in FIG.
Is the CPU time in terms of CPU 100%. Also,
"Division number" is the number of divisions of the tracking matrix (the number of partial tracking matrices)
Where the number of divisions = 1 corresponds to a case where division is not performed, that is, a case where a conventional factorization method is used. "Partial point cloud score"
Is the number of feature points of each partial tracking matrix, and the number in parentheses on the right side is the number of common point groups. The "execution time" is the calculation time (seconds) required from the division of the tracking matrix to the generation of each partial point cloud data, and the time required for the integration processing of the partial point cloud data (very short, on the order of milliseconds) Not included.
“Singular value decomposition” is the calculation time (seconds) for singular value decomposition, and the number in parentheses to the right indicates the ratio (%) of the calculation time for singular value decomposition to “execution time”. I have. Most of the calculation time in the factorization method is the calculation time for singular value decomposition.

【0039】図15を見ると時間短縮効果は一目瞭然で
ある。分割数=1の場合(従来の因子分解法による場合
に相当)、2時間以上の計算時間を要するが、分割数=
6の場合には計算時間は約6分まで短縮される。分割数
=20の場合には計算時間はさらに大幅に短縮され、全
周点群データを90秒程度の短時間で生成できる。
Referring to FIG. 15, the effect of shortening the time is obvious. When the number of divisions = 1 (corresponding to the case of the conventional factorization method), a calculation time of 2 hours or more is required.
In the case of 6, the calculation time is reduced to about 6 minutes. When the number of divisions is 20, the calculation time is further greatly reduced, and the entire circumference point group data can be generated in a short time of about 90 seconds.

【0040】[0040]

【発明の効果】以上の説明から明らかなように、本発明
によれば、追跡行列の全体を一括して処理したのでは推
定が困難な欠測値が追跡行列に含まれている場合にも、
対象物体の3次元形状の復元に必要な点群データを確実
に生成することができ、したがって、対象物体を全周撮
影した画像系列から対象物体の全周にわたる3次元形状
を復元するための全周点群データも容易に生成可能であ
る。高密度な点群データを生成するための計算時間を大
幅に短縮でき、また、処理に消費されるメモリ量も削減
できる。対象物体の形状を、その表面の凹凸も含め正確
に復元可能な点群データを生成できる。点群データから
生成したメッシュのテクスチャマッピングのための最適
な画像を自動的に選択できる、等々の効果を得られる。
As is apparent from the above description, according to the present invention, even if the tracking matrix contains missing values which are difficult to estimate if the entire tracking matrix is processed collectively. ,
Point cloud data required for restoring the three-dimensional shape of the target object can be reliably generated. Surrounding point group data can also be easily generated. The calculation time for generating high-density point cloud data can be greatly reduced, and the amount of memory consumed for processing can be reduced. It is possible to generate point cloud data capable of accurately restoring the shape of the target object including its surface irregularities. It is possible to obtain an effect of automatically selecting an optimal image for texture mapping of a mesh generated from point cloud data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】対象物体の全周撮影から全周点群データを生成
するまでの過程を簡略化して示す図である。
FIG. 1 is a diagram schematically illustrating a process from full-scale imaging of a target object to generation of full-circumference point group data.

【図2】本発明による3次元形状情報生成システムの概
略構成図である。
FIG. 2 is a schematic configuration diagram of a three-dimensional shape information generation system according to the present invention.

【図3】追跡行列生成部の処理フローを示すフローチャ
ートである。
FIG. 3 is a flowchart illustrating a processing flow of a tracking matrix generation unit.

【図4】追跡行列分割部の処理フローを示すフローチャ
ートである。
FIG. 4 is a flowchart illustrating a processing flow of a tracking matrix division unit.

【図5】追跡行列の整形処理の説明図である。FIG. 5 is an explanatory diagram of a tracking matrix shaping process.

【図6】追跡行列の部分追跡行列への分割の説明図であ
る。
FIG. 6 is an explanatory diagram of division of a tracking matrix into partial tracking matrices.

【図7】整形処理後の追跡行列の一例を示す図である。FIG. 7 is a diagram illustrating an example of a tracking matrix after a shaping process.

【図8】図7に示した追跡行列の部分追跡行列への分割
例を示す図である。
FIG. 8 is a diagram showing an example of dividing the tracking matrix shown in FIG. 7 into partial tracking matrices.

【図9】図7に示した追跡行列から生成された7つの部
分追跡行列を示す図である。
FIG. 9 is a diagram showing seven partial tracking matrices generated from the tracking matrix shown in FIG. 7;

【図10】欠測値の推定方法の説明図である。FIG. 10 is an explanatory diagram of a method of estimating a missing value.

【図11】欠測値推定補完処理の一例を示すフローチャ
ートである。
FIG. 11 is a flowchart illustrating an example of a missing value estimation complementing process.

【図12】部分3次元データ生成部の処理フローを示す
フローチャートである。
FIG. 12 is a flowchart illustrating a processing flow of a partial three-dimensional data generation unit.

【図13】部分点群統合部の処理フローを示すフローチ
ャートである。
FIG. 13 is a flowchart illustrating a processing flow of a partial point cloud integration unit.

【図14】本発明をソフトウェアで実現するためのコン
ピュータの一例を示すブロック図である。
FIG. 14 is a block diagram illustrating an example of a computer for realizing the present invention with software.

【図15】本発明による計算時間短縮効果を明らかにす
るための実験データを示す図である。
FIG. 15 is a diagram showing experimental data for clarifying the effect of shortening the calculation time according to the present invention.

【符号の説明】[Explanation of symbols]

100 画像取り込み装置 101 記憶装置 102 画像入力装置 103 2次元演算部 104 追跡行列構築部 105 追跡行列分割部 106 3次元演算部 107 部分3次元データ生成部 108 部分点群統合部 109 データ出力部 110 記憶装置 403 記録媒体 REFERENCE SIGNS LIST 100 image capturing device 101 storage device 102 image input device 103 two-dimensional operation unit 104 tracking matrix construction unit 105 tracking matrix division unit 106 three-dimensional operation unit 107 partial three-dimensional data generation unit 108 partial point group integration unit 109 data output unit 110 storage Apparatus 403 Recording medium

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 対象物体を撮影した画像系列から画像特
徴点の追跡行列を生成するステップ、追跡行列を分割し
て部分的にオーバーラップした複数の部分追跡行列を生
成するステップ、部分追跡行列の欠測値を推定して補完
した部分計測行列を生成するステップ、部分計測行列か
ら部分点群データを生成するステップ、複数の部分計測
行列から生成された部分点群データを統合するステップ
からなることを特徴とする3次元形状情報生成方法。
A step of generating a tracking matrix of image feature points from an image sequence of an image of a target object; a step of dividing the tracking matrix to generate a plurality of partially overlapping partial tracking matrices; Estimating missing values and generating a supplementary partial measurement matrix, generating partial point cloud data from the partial measurement matrix, and integrating partial point cloud data generated from the plurality of partial measurement matrices. A three-dimensional shape information generating method.
【請求項2】 対象物体を撮影した画像系列から画像特
徴点の追跡行列を生成するステップ、追跡行列を分割し
て部分的にオーバーラップした複数の部分追跡行列を生
成するステップ、部分追跡行列の欠測値を推定して補完
した部分計測行列を生成するステップ、部分計測行列か
ら部分点群データ及びカメラ姿勢データを生成するステ
ップ、カメラ姿勢データ及び対象物体の撮影方向に基づ
いて、部分計測行列から生成された部分点群データに対
し凹凸修正を行うステップ、複数の部分計測行列から生
成された凹凸修正後の部分点群データを統合するステッ
プからなることを特徴とする3次元形状情報生成方法。
2. A method of generating a tracking matrix of image feature points from an image sequence obtained by photographing a target object, a step of dividing the tracking matrix to generate a plurality of partially overlapped partial tracking matrices, Generating a partial measurement matrix supplemented by estimating missing values, generating partial point cloud data and camera posture data from the partial measurement matrix, and a partial measurement matrix based on the camera posture data and the imaging direction of the target object. A three-dimensional shape information generating method, comprising the steps of: performing unevenness correction on partial point cloud data generated from the data; and integrating the partial point cloud data after unevenness correction generated from a plurality of partial measurement matrices. .
【請求項3】 対象物体を撮影した画像系列から画像特
徴点の追跡行列を生成するステップ、追跡行列を分割し
て部分的にオーバーラップした複数の部分追跡行列を生
成するステップ、部分追跡行列の欠測値を推定して補完
した部分計測行列を生成するステップ、部分計測行列か
ら部分点群データ及びカメラ姿勢データを生成するステ
ップ、複数の部分計測行列から生成された部分点群デー
タを統合するステップ、カメラ姿勢データに基づいてテ
クスチャマッピング用画像を選択するステップからなる
ことを特徴とする3次元形状情報生成方法。
3. A step of generating a tracking matrix of image feature points from an image sequence obtained by photographing a target object; a step of dividing the tracking matrix to generate a plurality of partially overlapping partial tracking matrices; Estimating missing values and generating a supplementary partial measurement matrix, generating partial point cloud data and camera attitude data from the partial measurement matrix, integrating partial point cloud data generated from the plurality of partial measurement matrices 3. A method for generating three-dimensional shape information, comprising the steps of: selecting a texture mapping image based on camera posture data.
【請求項4】 部分追跡行列の生成ステップは追跡行列
を整形した後に分割すること特徴とする請求項1、2又
は3記載の3次元形状情報生成方法。
4. The three-dimensional shape information generating method according to claim 1, wherein in the step of generating the partial tracking matrix, the tracking matrix is divided after being shaped.
【請求項5】 請求項1、2、3又は4記載の3次元形
状情報生成方法の各処理ステップをコンピュータに実行
させるためのプログラムが記録されたことを特徴とする
コンピュータ読取可能記録媒体。
5. A computer-readable recording medium having recorded thereon a program for causing a computer to execute each processing step of the method for generating three-dimensional shape information according to claim 1, 2, 3, or 4.
【請求項6】 対象物体を撮影した画像系列を入力する
手段、入力された画像系列から画像特徴点の追跡行列を
生成する手段、追跡行列を分割して部分的にオーバーラ
ップした複数の部分追跡行列を生成する手段、部分追跡
行列の欠測値を推定して補完した部分計測行列を生成す
る手段、部分計測行列から部分点群データを生成する手
段、複数の部分計測行列から生成された部分点群データ
を統合する手段を具備することを特徴とする3次元形状
情報生成装置。
6. A means for inputting an image sequence obtained by capturing an image of a target object, a means for generating a tracking matrix of image feature points from the input image sequence, and a plurality of partial tracings in which the tracking matrix is divided and partially overlapped Means for generating a matrix, means for estimating missing values of the partial tracking matrix to generate a partial measurement matrix supplemented, means for generating partial point cloud data from the partial measurement matrix, parts generated from a plurality of partial measurement matrices A three-dimensional shape information generating device comprising means for integrating point cloud data.
【請求項7】 対象物体を撮影した画像系列を入力する
手段、入力された画像系列から画像特徴点の追跡行列を
生成する手段、追跡行列を分割して部分的にオーバーラ
ップした複数の部分追跡行列を生成する手段、部分追跡
行列の欠測値を推定して補完した部分計測行列を生成す
る手段、部分計測行列から部分点群データ及びカメラ姿
勢データを生成する手段、複数の部分計測行列から生成
された部分点群データを統合する手段、カメラ姿勢デー
タに基づいて、テクスチャマッピング用画像を選択する
手段を具備することを特徴とする3次元形状情報生成装
置。
7. A means for inputting an image sequence obtained by capturing an image of a target object, a means for generating a tracking matrix of image feature points from the input image sequence, and a plurality of partial trackings obtained by dividing the tracking matrix and partially overlapping each other. Means for generating a matrix, means for estimating missing values of the partial tracking matrix to generate a supplemented partial measurement matrix, means for generating partial point cloud data and camera attitude data from the partial measurement matrix, and from a plurality of partial measurement matrices A three-dimensional shape information generating apparatus comprising: means for integrating generated partial point cloud data; and means for selecting a texture mapping image based on camera posture data.
【請求項8】 部分点群データを生成する手段は、カメ
ラ姿勢データ及び対象物体の撮影方向に基づいて、部分
点群データに対し凹凸修正を行うことを特徴とする請求
項6又は7記載の3次元形状情報生成装置。
8. The method according to claim 6, wherein the means for generating partial point cloud data corrects unevenness of the partial point cloud data based on the camera posture data and the shooting direction of the target object. A three-dimensional shape information generation device.
【請求項9】 部分追跡行列を生成する手段は、追跡行
列を整形した後に分割すること特徴とする請求項6、7
又は8記載の3次元形状情報生成装置。
9. The method according to claim 6, wherein the means for generating the partial tracking matrix divides the tracking matrix after shaping it.
Or the three-dimensional shape information generating device according to 8.
JP04132199A 1998-10-09 1999-02-19 Three-dimensional shape information generation method and apparatus, and recording medium Expired - Fee Related JP3835658B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04132199A JP3835658B2 (en) 1999-02-19 1999-02-19 Three-dimensional shape information generation method and apparatus, and recording medium
US09/414,349 US6628819B1 (en) 1998-10-09 1999-10-07 Estimation of 3-dimensional shape from image sequence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04132199A JP3835658B2 (en) 1999-02-19 1999-02-19 Three-dimensional shape information generation method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000242785A true JP2000242785A (en) 2000-09-08
JP3835658B2 JP3835658B2 (en) 2006-10-18

Family

ID=12605267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04132199A Expired - Fee Related JP3835658B2 (en) 1998-10-09 1999-02-19 Three-dimensional shape information generation method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3835658B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108071A1 (en) * 2007-03-06 2008-09-12 Panasonic Corporation Image processing apparatus and method, image processing program and image processor
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
CN109613557A (en) * 2018-11-28 2019-04-12 南京莱斯信息技术股份有限公司 A kind of system and method for completion laser radar three-dimensional point cloud target
KR102220151B1 (en) * 2020-09-25 2021-02-24 서울대학교 산학협력단 Complementing device and method for data of the sky using aerial lidar data and program recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008108071A1 (en) * 2007-03-06 2008-09-12 Panasonic Corporation Image processing apparatus and method, image processing program and image processor
US8005295B2 (en) 2007-03-06 2011-08-23 Panasonic Corporation Apparatus and method for image processing, image processing program and image processor
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
CN109613557A (en) * 2018-11-28 2019-04-12 南京莱斯信息技术股份有限公司 A kind of system and method for completion laser radar three-dimensional point cloud target
KR102220151B1 (en) * 2020-09-25 2021-02-24 서울대학교 산학협력단 Complementing device and method for data of the sky using aerial lidar data and program recording medium

Also Published As

Publication number Publication date
JP3835658B2 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
CN110108258B (en) Monocular vision odometer positioning method
CN111161349B (en) Object posture estimation method, device and equipment
CN111160298B (en) Robot and pose estimation method and device thereof
CN111079565B (en) Construction method and identification method of view two-dimensional attitude template and positioning grabbing system
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
CN112001859A (en) Method and system for repairing face image
CN112562001B (en) Object 6D pose estimation method, device, equipment and medium
CN112084911A (en) Human face feature point positioning method and system based on global attention
CN113096249A (en) Method for training vertex reconstruction model, image reconstruction method and electronic equipment
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
KR102482472B1 (en) Electronic device that can rectangularize an inclined license plate image through machine learning-based vertex extraction and the operating method thereof
JP3835658B2 (en) Three-dimensional shape information generation method and apparatus, and recording medium
JP2002109518A (en) Three-dimensional shape restoring method and system therefor
CN111738092A (en) Method for recovering shielded human body posture sequence based on deep learning
CN111179408B (en) Three-dimensional modeling method and equipment
JP5281479B2 (en) Camera motion / object shape restoration method, camera motion / object shape restoration device, camera motion / object shape restoration program, and recording medium recording the program
JP2000003446A (en) Missing value estimating method, three-dimensional data input device and recording medium
CN116245915A (en) Target tracking method based on video
JP3476710B2 (en) Euclidean 3D information restoration method and 3D information restoration apparatus
JP2002008014A (en) Method and device for extracting three-dimensional shape, and recording medium
CN112950787B (en) Target object three-dimensional point cloud generation method based on image sequence
JP7489247B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS AND MODEL GENERATION METHOD
CN112257686B (en) Training method and device for human body posture recognition model and storage medium
CN114626982A (en) Scene reconstruction method and device, storage medium and computer equipment
JP7095616B2 (en) Learning data generators, methods and programs

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060720

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090804

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees