JP5185777B2 - Method and apparatus for aligning 3D range data - Google Patents
Method and apparatus for aligning 3D range data Download PDFInfo
- Publication number
- JP5185777B2 JP5185777B2 JP2008280774A JP2008280774A JP5185777B2 JP 5185777 B2 JP5185777 B2 JP 5185777B2 JP 2008280774 A JP2008280774 A JP 2008280774A JP 2008280774 A JP2008280774 A JP 2008280774A JP 5185777 B2 JP5185777 B2 JP 5185777B2
- Authority
- JP
- Japan
- Prior art keywords
- range data
- data
- computer
- range
- predetermined number
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
この発明は3D形状の検査に関し、特に、表示された3Dモデルの早期の検査を必要とする、エンターテインメント、教育及びデザイン等の応用分野に関する。 The present invention relates to inspection of 3D shapes, and in particular to application fields such as entertainment, education and design that require early inspection of displayed 3D models.
3Dモデルをスキャンしてからすぐに完全な3Dモデルを表示するという課題は、依然として解決されていない。ある対象物の完全なディジタルモデルを構築するのに必要とされる現在の切換方法は、対応の点を手で選択するためのユーザの介入、又は自動3Dビュー位置合わせ(registration)のいずれかを伴う。自動位置合わせでは、表示が行なわれるのは全てのビューが位置合わせされた後である。前者では、中間のビューを視覚化することは可能(かつ不可欠)であるが、スキャン数が大きければ位置合わせ処理を行なうのは煩雑であろう。視覚化の部分を自動位置合わせと組み合わせることで、実時間表示のより先鋭な感覚が生み出されうる。 The problem of displaying a complete 3D model as soon as it is scanned is still not solved. Current switching methods required to build a complete digital model of an object include either user intervention to manually select corresponding points or automatic 3D view registration. Accompany. In automatic alignment, the display occurs after all views are aligned. In the former, it is possible (and indispensable) to visualize the intermediate view, but if the number of scans is large, it will be complicated to perform the alignment process. Combining the visualization part with automatic alignment can create a sharper sense of real-time display.
特許文献1はデータパケット/セル損失のある通信ネットワークで3D形状データを転送し表示する方法を記載する。システムは形状を表す複数の要素からなる3D形状データを送信するための送信ユニットと、3D形状データを受け3D形状データを画像として表示するための受信側表示ユニットと、を含む。
このシステムでは、送信ユニットが外部記憶装置から3Dデータを読出し、領域の属性に従って3D形状要素を並替える。その後、これは3Dデータを要素単位で漸次送信する(大きい領域を表す領域属性を有する要素から始まり、続いてより小さい領域を表す領域属性を有する要素を処理する)。受信側表示ユニットは送信ユニットから送信される要素を受け、これらを受信順に漸次表示する。 In this system, a transmission unit reads 3D data from an external storage device, and rearranges 3D shape elements according to region attributes. It then sends 3D data progressively element by element (starting with an element having an area attribute representing a large area and then processing elements having an area attribute representing a smaller area). The receiving side display unit receives the elements transmitted from the transmitting unit and displays them gradually in the order of reception.
非特許文献1では、レンジデータとともに記憶された明度画像が利用され、完全に自動の位置合わせ技術が実行される。内在的なスケール情報を伴う2D―画像特徴量を用いて、3Dビューの対応の点を発見する。その後、まず特徴点自体を整合させ、それに続いて表面要素を考慮する整合ステップによって、2つのレンジの画像の精密な位置合わせが行なわれる。最後に、全体的な位置合わせ誤差を、グラフリラクセーション技術を用いて最少化する。
In
非特許文献2に記載のソフトウェアは、表面ジオメトリ又は容積情報のいずれかを用いることで、目標又は他の整合ツールなしで、多数の点の集まり(クラウド)を整合させる。 The software described in Non-Patent Document 2 uses either surface geometry or volume information to align a large collection of points (cloud) without a target or other alignment tool.
特許文献1は画像データの漸次送信及び表示を開示しているが、実時間表示の先鋭な感覚と組合わされた自動位置合わせを伴った3Dモデルの視覚化には触れていない。
非特許文献1は3Dモデルの自動位置合わせを扱っている。しかし、視覚化は遅く、実時間表示はできない。
Non-Patent
非特許文献2は多数の点クラウドの自動整合を扱っている。しかし、これは3Dモデルの実時間視覚化とは無関係である。 Non-Patent Document 2 deals with automatic alignment of many point clouds. However, this is independent of the real-time visualization of the 3D model.
従って、この発明の目的の1つは、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。 Accordingly, one object of the present invention is to provide a method and apparatus for automatically aligning and merging acquired 3D models in a manner that gives the viewer a sense of real-time display.
この発明の別の目的は、位置合わせの過程を示すことで、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。 Another object of the present invention is to provide a method and apparatus for automatically aligning and merging acquired 3D models in a manner that gives the viewer a sense of real-time display by showing the registration process. Is to provide.
この発明のさらに別の目的は、多方向から実際の形状を徐々に明らかにすることによって、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。 Yet another object of the present invention is to automatically align and merge acquired 3D models in a way that gives the viewer a sense of real-time display by gradually revealing the actual shape from multiple directions. It is to provide a method and apparatus for doing so.
この発明の第1の局面に従った、対象物の3Dレンジデータの組を位置合わせするためのコンピュータで実現される方法は、3Dレンジデータと前記3Dレンジデータに対応する2D画像データの組とを記憶する記憶媒体に接続するステップと、前記3Dレンジデータの組を表す点をモニタ上に表示するステップと、前記3Dレンジデータの組を、各々が連続した3Dレンジデータの組を含む予め定められた数のグループに分割するステップと、前記グループの各々において、前記2D画像データの組を利用して、所定数の連続したレンジデータの対を整合させ、対応の3Dレンジデータを更新するステップと、を含む。前記所定数は前記各グループ内の連続したレンジデータの対の数より小さい。前記ステップはさらに、整合するステップに従って、前記モニタに表示される点を更新するステップと、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記整合のステップと更新のステップとを繰返すステップと、前記繰返しステップの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるステップと、を含む。 A computer-implemented method for aligning a 3D range data set of an object according to a first aspect of the present invention includes a 3D range data and a set of 2D image data corresponding to the 3D range data. A step of connecting to a storage medium for storing, a step of displaying a point representing the set of 3D range data on a monitor, and a set of 3D range data, each including a set of consecutive 3D range data Dividing into a predetermined number of groups, and in each of the groups, using the set of 2D image data, aligning a predetermined number of consecutive range data pairs and updating corresponding 3D range data And including. The predetermined number is smaller than the number of consecutive range data pairs in each group. The step further comprises: updating points displayed on the monitor according to the matching step; repeating the matching step and the updating step until all 3D range data is matched in each group; Aligning all sets of 3D range data aligned and updated during the iteration step.
前記分割ステップは前記3Dレンジデータの組を、各々が連続した3Dレンジデータを含む4つのグループに分割するステップを含んでもよい。 The dividing step may include a step of dividing the set of 3D range data into four groups each including continuous 3D range data.
好ましくは、前記4つのグループは同数の連続した3Dレンジデータを含みうる。 Preferably, the four groups may include the same number of consecutive 3D range data.
さらに好ましくは、前記整合させるステップは、前記各グループにおいて、1対の連続したレンジデータを整合させ、対応の3Dレンジデータを更新するステップを含む。 More preferably, the step of matching includes a step of matching a pair of continuous range data and updating corresponding 3D range data in each group.
この発明の第2の局面に従ったコンピュータプログラムは、コンピュータ上で実行されると、コンピュータに、上述の方法のいずれかに記載のステップの全てを実行させる。 When the computer program according to the second aspect of the present invention is executed on a computer, the computer program causes the computer to execute all of the steps described in any of the methods described above.
この発明の第3の局面に従った対象物の3Dレンジデータの組を位置合わせするための装置は、3Dレンジデータと前記3Dレンジデータに対応する2D画像データの組とを記憶するための手段と、前記3Dレンジデータの組を表す点をモニタ上に表示するための手段と、前記3Dレンジデータの組を、各々が連続した3Dレンジデータの組を含む予め定められた数のグループに分割するための手段と、前記グループの各々において、前記2D画像データの組を利用して、所定数の連続したレンジデータの対を整合させ、対応の3Dレンジデータを更新するための第1の手段と、を含む。前記所定数は前記各グループ内の連続したレンジデータの対の数より小さい。前記装置はさらに、前記第1の手段による整合に従って、前記モニタに表示される点を更新するための手段と、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記3Dレンジデータの整合と更新が繰返されるように、前記第1の手段と前記更新するための手段とを制御するための手段と、前記制御するための手段の制御に基づいて、繰返しの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるための第2の手段とを含む。 An apparatus for aligning a 3D range data set of an object according to a third aspect of the present invention stores means for storing 3D range data and a set of 2D image data corresponding to the 3D range data. And means for displaying on the monitor a point representing the 3D range data set; and dividing the 3D range data set into a predetermined number of groups each including a continuous 3D range data set. And first means for matching a predetermined number of consecutive range data pairs and updating corresponding 3D range data using each set of 2D image data in each of the groups And including. The predetermined number is smaller than the number of consecutive range data pairs in each group. The apparatus further includes means for updating the points displayed on the monitor according to the alignment by the first means, and alignment of the 3D range data until all 3D range data is aligned in each group. Aligned and updated between iterations based on control of the first means and the means for updating and control of the means for controlling, so that updates are repeated Second means for matching all sets of 3D range data.
[第1の実施の形態]
−概観−
以下で説明する実施の形態では、3Dレンジデータのシーケンスと対応の2D画像データとから、実生活の対象物のディジタル化された3Dモデルを自動的に構築し表示する方法を紹介する。目標とするのは、実際の対象物のスキャンとその3Dモデルの表示とを中断なしに行なって、見る人に実時間表示の感覚を与えるシステムである。連続したスキャンを整合するようにすすめた後に、展開された3Dデータを表示することに代えて、この発明では異なる手法をとる。
[First Embodiment]
-Overview-
In the embodiment described below, a method for automatically constructing and displaying a digitized 3D model of an object in real life from a sequence of 3D range data and corresponding 2D image data will be introduced. The goal is a system that gives the viewer a sense of real-time display by scanning the actual object and displaying its 3D model without interruption. Instead of displaying the expanded 3D data after recommending successive scans to be aligned, the present invention takes a different approach.
始めに、3D表示装置に、スキャンの完全な組を一度に表示する。その後、図1に示すように、対象物20の完全なビューを4つの区画30A−30Dに分割し、その各々の内部で、連続したビューを整合させる。4つの区画全てにおいて、連続したビューの第1の対が独立して整合された後、これにしたがってこれらを3D表示装置に表示する。例えば、区画30Aの2つの連続したビュー32A及び34Aが最初に整合され、その後、区画30B、30C、30Dのビューの対32B及び34B、32C及び34C、32D及び34Dがそれぞれ位置合わせされる。表示は、部分的に位置合わせされたビューの組で更新されることになる。続いて、各区画内の連続したビューについて、これらを先行するビューと整合させる処理が行なわれる。その後、その結果にしたがってそれらが表示される。こうして、初期の点のクラウドは徐々に、4方向から同時に実際の対象物の真の形状と色とを現すようになる。最終ステップとして、全体的な位置合わせが行なわれる。ここでは、先行技術と同様に、一意の世界座標系に対し、全てのビューが整合される。
First, a complete set of scans is displayed at a time on a 3D display device. Thereafter, as shown in FIG. 1, the complete view of the
ここでは、2つのビューが、その視点の位置と向きとが予め定められた世界座標系を基準として、特徴点を利用して正確に決定されたときに、「位置合わせされた」という。 Here, two views are said to be “aligned” when the position and orientation of their viewpoints are accurately determined using feature points with reference to a predetermined world coordinate system.
この実施の形態では、3Dレンジデータと対応のテクスチャデータとを入力として用いて、対象物の完全なディジタルモデルを生成する。この入力データは、何らかの種類のレンジセンサによって提供されうる(レーザレンジファインダ、ステレオカメラ、構造光)。一方で、結果(3Dディジタルモデル)は、ユーザとの相互作用で機能を強化したか、又は検査のために操作可能な何らかの種類の3D表示装置で視覚化可能である。 In this embodiment, a complete digital model of an object is generated using 3D range data and corresponding texture data as inputs. This input data can be provided by some kind of range sensor (laser range finder, stereo camera, structured light). On the other hand, the results (3D digital model) can be visualized on some kind of 3D display device that has been enhanced by interaction with the user or can be manipulated for examination.
この実施の形態では、表示されたモデルを早期に検査することが必要な状況で、また結果として、表示された対象物を回転させるか移動させて全体的なビューを得るために表示された対象物との相互作用を行なう手段が存在するような状況で使用可能である。念頭においているのは、文化遺産等の、実世界の対象物のディジタルコピーをスキャンして、3Dハンドヘルド表示装置又は従来の3D表示モニタであってユーザとの対話機能を持つものを用いて表示するような例である。別の例は、ユーザが各自ディジタルモデルの異なるビューを持ちながら、全体としては同じ対象物を共有するような、協働作業である。 In this embodiment, in situations where it is necessary to inspect the displayed model early, and as a result, the displayed object is rotated or moved to obtain an overall view. It can be used in situations where there is a means for interacting with things. Keep in mind that a digital copy of a real-world object, such as a cultural heritage, is scanned and displayed using a 3D handheld display device or a conventional 3D display monitor that can interact with the user. This is an example. Another example is collaborative work where users share the same object as a whole while having different views of their digital models.
−システム構成−
図2はこの実施の形態の3Dモデル位置合わせ方法を実現する3Dモデル位置合わせシステム50の平面図であり、図3はシステム50のブロック図である。
-System configuration-
FIG. 2 is a plan view of a 3D
図2及び図3を参照して、システム50は、モニタ62、キーボード66及びマウス68が接続されたコンピュータ60と、コンピュータ60に接続されたカメラ96を備えたレーザレンジスキャナ92と、コンピュータ60によって制御される回転テーブル94と、を含む。コンピュータ60は半導体メモリ86を装着するためのI/F72と、DVD媒体82を駆動するためのDVD(Digital Versatile Disc)ドライブ80とを有する。回転テーブル94はコンピュータ60の制御下で所定量だけ回転する。対象物が回転テーブル94上に置かれると、回転テーブル94が回転し、レンジスキャナ92とカメラ96とが、対象物の回転位置の各々で、3Dレンジデータと2D画像データとをそれぞれキャプチャする。
2 and 3, the
特に図3を参照して、システム50はさらに、プロセッサ70と、プロセッサ70に接続されたメモリ/バスコントローラ76と、メモリ/バスコントローラ76に接続されたランダムアクセスメモリ(RAM)78及びキャッシュメモリ(図示せず)と、プロセッサ70及びモニタ62に接続された、グラフィックコントローラ90と、メモリ/バスコントローラ76に接続されたバス98と、バス98に接続された入力/出力(I/O)コントローラ72と、I/Oコントローラ72に接続されたグラフィックカード88と、バス98に接続されたハードディスクドライブ(HDD)と、を含む。DVDドライブ80とグラフィックカード88とは、内部でI/Oコントローラ88に接続されている。モニタ62はグラフィックコントローラ90に接続される。回転テーブル94はI/Oコントローラ72に接続される。レンジセンサ92とカメラ96とはグラフィックカード88に接続される。キーボード66とマウス68とはI/F84に接続される。
With particular reference to FIG. 3, the
後述するプログラムは、ハードディスクに記憶される。プログラム実行の際は、プログラムはハードディスクからHDD74によって読出され、RAM78に記憶される。プロセッサ70はプログラムカウンタと称される内部レジスタを有する。プロセッサ70はプログラムカウンタによって指定されたRAM78のアドレスから命令をフェッチし、その命令をデコードし、命令の実行に用いられるデータをフェッチし、命令を実行し、その後、命令によって指定されたアドレスにデータを記憶する。
A program to be described later is stored in the hard disk. When executing the program, the program is read from the hard disk by the
プログラムはDVD媒体82に記憶されハードディスクにインストールされてもよい。
The program may be stored in the
図4はこの実施の形態の方法を実現するプログラムの制御の流れを示すフローチャートである。図4を参照して、プログラムはステップ120で始まり、ここで関連のメモリ空間を初期化した後、コンピュータ60は回転テーブル94に置かれた実物をディジタル化する。ステップ120で、コンピュータ60は回転テーブル94を回転させ、特定の角度で停止させる。各々の角度で、レンジスキャナ92は対象物の3Dレンジデータをキャプチャし、カメラ96が対応の2D画像をキャプチャする。
FIG. 4 is a flowchart showing the flow of control of a program for realizing the method of this embodiment. Referring to FIG. 4, the program begins at
プログラムはさらに、ステップ120でキャプチャされた3Dレンジデータの完全な組をモニタ62上に表示するステップ122と、ステップ122に続いて、3Dレンジデータを4つの区画に大まかに配置するステップ124と、ステップ120でレンジスキャナ92によってキャプチャされた3Dビューを位置合わせして、4つの区画の各々で連続したビューの対の位置合わせを繰返すたびにモデルビューを漸次更新するステップ128と、ステップ128に続いて、各々ステップ128で位置合わせされた4つの区画を含む3Dレンジビューの完全な組を位置合わせするステップ130と、ステップ130で位置合わせされたディジタル化された対象物の表面を生成するステップ132と、ステップ134に続いて、ハードディスクに対象物のビューデータを記憶するステップ134と、を含む。
The program further includes a
図5は図4のステップ120の詳細を示す。図5を参照して、ステップ120のルーチンは、回転テーブル94の各角度において、3Dレンジデータと対応の2D画像データとを、レンジスキャナ92とカメラ96とからそれぞれ抽出し、データをそれぞれの場所に記憶するステップ150と、スキャンが完了したか否かを判断し、判断の結果により制御の流れをステップ150又は図4のステップ122に分岐させるステップ152と、を含む。
FIG. 5 shows details of
図6は図4のステップ128で実行されるルーチンの詳細なフローチャートである。図6を参照して、このルーチンはステップ170で始まり、ここでは繰返し制御変数iが0に初期化され、iの値が定数M−1より小さい間は処理172が繰返され、1回繰返すごとにiの値が増分される。ここでMは各区画内のビューの数である。変数iがM−1に等しくなると、繰返しが終了する。繰返しのたびに、図6に示す処理172が実行される。
FIG. 6 is a detailed flowchart of the routine executed in
処理172は、各区画について、i番目と(i+1)番目とのビューが位置合わせされ3Dレンジデータがそれに従って更新されるステップ174と、更新された3Dレンジデータの完全な組を表示するステップ178と、を含む。
たとえば、i=0であるとき、ビュー32Aと34Aとが区画30Aで位置合わせされ、ビュー32Bと34Bとが区画30Bで位置合わせされ、ビュー32Cと34Cとが区画30Cで位置合わせされ、ビュー32Dと34Dとが区画30Dで位置合わせされる。3Dレンジデータは位置合わせの結果に従って更新され、その後更新された3Dレンジデータの完全な組がモニタ62に表示される。その後iが1に増分され、ビュー34Aと36Aとが区画30Aで位置合わせされ、ビュー34Bと36Bとが区画30Bで位置合わせされ、その後同様に繰返される。3Dレンジデータはこれに従って更新され、3Dレンジデータの完全な組が表示される。
For example, when i = 0, views 32A and 34A are aligned in
こうして、図6に示す処理の実行中、モニタ62上の3Dモデルビューは漸次更新される。各区画で、連続した3Dレンジビューの対が位置合わせされ、モデルビューが更新される。この処理は連続した対の全てについて繰返されることになり、実時間表示の感覚が得られる。
Thus, the 3D model view on the
図7は各区画についてステップ174で行なわれる位置合わせ処理のフローチャートである。図7を参照して、このルーチンは、位置合わせすべき3Dビューの各々について、対応の2D画像を分析し、一致する2D点の対を抽出するステップ200を含む。このステップは、例えば、SIFTキーポイントディテクタ(http://www.cs.ubc.ca/~lowe_keypoints/)等の公に入手可能なソフトウェアで実現することができる。
FIG. 7 is a flowchart of the alignment process performed in
2D一致点を図8に例示する。日本の人形220の画像が、第1の区画30AのN番目の2Dビューであり、画像222が同じ人形の(N+1)番目の2Dビューであると仮定する。これらのビューの各々を上述のソフトウェアを利用して分析すると、各画像において特徴点を見出すことができる。
A 2D coincidence point is illustrated in FIG. Assume that the image of the
ルーチンはさらに、ステップ200に続いて、ステップ200で抽出された偽の一致点を消去するステップ202を含む。これは、例えばOpenCVライブラリ(http://opencvlibrary.sourceforge.net/)等の公に入手可能なソフトウェアを用いて行なうことができる。再び図8を参照して、画像220及び222の特徴点はさらに分析され、偽の一致点が消去されて、真の一致点の対のみが残る。
Following the
ステップ202の後、2Dの一致に基づいて対応の3D点の対を抽出するステップ204が来る。このステップは、2D画像の画素と3Dビューの奥行き値との間の1対1の対応を用いて実現することができる。
Following
ルーチンはさらに、ステップ204に続いて、ステップ204で抽出された3D一致点に基づいて、3Dビューの絶対的な向きを計算するステップ206を含む。このステップは、ジブ ヤニフ(Zib Yaniv)によるhttp://isiswiki.georgetown.edu/zivy/にある公に利用可能なソフトウェアで実現可能である。このソフトウェアは、ホーン法(バートルド K.P.ホーン、単位区画を用いた絶対的向きの閉鎖形態の解決法、アメリカ光学学会会報1987)(Berthold K.P. Horn. Closed-form solution of absolute orientation using unit quarternions. Journal of the Optical Society of America, 1987)を実現したものである。2つの3Dレンジデータの位置合わせには、対応する点の少なくとも3個の対が必要である。さらに、ジブによるソフトウェアは、VXLと呼ばれるC++ライブラリの集合(http://vxl.sourceforge.net#download)を用いて実現することもできる。ステップ206の後、制御はこのルーチンから抜ける。
The routine further includes, following
−動作−
3Dモデル位置合わせシステム50は以下のように動作する。図2及び図3を参照して、モデルが回転テーブル94に置かれ、回転テーブル94の最初の位置が決定される。レンジスキャナ92がモデルのレンジデータをキャプチャする。カメラ96がモデルの2D画像をキャプチャする。レンジデータと2D画像とがグラフィックカード88、I/Oコントローラ72及びバス98を介してコンピュータ60に送信され、HDD74によってハードディスクのプロセッサ70によって指定されたアドレスに記憶される。
-Operation-
The 3D
その後プロセッサ70は回転テーブル94を所定の角度だけ回転させる。レンジスキャナ92とカメラ96とがこの角度でのレンジデータと2D画像とをそれぞれキャプチャする。レンジデータと2D画像とはともにハードディスクに記憶される。こうして、回転テーブル94の予め定められた回転位置の各々で、レンジデータと2D画像とがキャプチャされ記憶される。このタスクは図4に示すステップ120で行なわれる。
Thereafter, the
レンジデータと対応の2D画像との完全な組がキャプチャされ記憶されると、制御は図4のステップ122に進む。ここで、3Dレンジデータの完全な組がハードディスクから読出されてモニタ62に表示される。ビューは位置合わせされていないので、表示されるモデルはレンジデータ点のクラウドである。
Once the complete set of range data and corresponding 2D images has been captured and stored, control proceeds to step 122 of FIG. Here, the complete set of 3D range data is read from the hard disk and displayed on the
ステップ124で、3Dレンジデータは4つの区画で大まかに配置される。ステップ128で、各区画について、選択された連続する3Dレンジビューの1対が位置合わせされる。各区画での位置合わせの後、モニタ62上のレンジデータ表示がそれに従って更新される。次に、各区画において連続した3Dレンジビューの次の1対が選択され位置合わせされ、表示が更新される。この処理は、各区画の連続したビューの対の全てが位置合わせされるまで繰返される(ステップ128)。
At
ステップ128が完了すると、3Dレンジビューの完全な組が、従来の位置合わせ方法を利用してステップ130で再び位置合わせされる。ステップ132で位置合わせされた対象物のために表面が生成され、ステップ134でモデルデータがハードディスクに記憶される。
When
上述のとおり、この実施の形態では、各区画においてレンジデータの3Dビューの選択された対を位置合わせし、その後繰返しごとに、レンジデータの表示を更新する。位置合わせ処理の間、モデルビューは漸次更新されるので、ユーザに実時間位置合わせの先鋭な感覚を与える。 As described above, this embodiment aligns selected pairs of 3D views of range data in each section and then updates the display of range data with each iteration. During the alignment process, the model view is gradually updated, giving the user a sharp sense of real-time alignment.
上述の実施の形態ではレンジデータは4区画に配置されるが、この発明はこの実施の形態には限られず、レンジデータは1より大きいいかなる数のグループに分割されてもよい。しかし、漸次実時間表示の感覚を与えるためには、この数が大きすぎてはならない。レンジデータを4、8又は16個のグループに分割するのが好ましい。レンジデータは大まかにグループ分けすればよく、グループ内のレンジデータの数は互いに異なっていてもよい。 In the above-described embodiment, the range data is arranged in four sections. However, the present invention is not limited to this embodiment, and the range data may be divided into any number of groups greater than one. However, this number should not be too large to give a gradual real-time display sensation. The range data is preferably divided into 4, 8 or 16 groups. The range data may be roughly grouped, and the number of range data in the group may be different from each other.
上述の実施の形態では、レンジデータをキャプチャするのにレンジスキャナ92を利用したが、この発明はこのような実施の形態に限定されない。対象物の表面の任意に選択された点への距離を測定することができれば、レンジスキャナ92に代えてステレオカメラ又は構造光を用いてもよい。
In the above-described embodiment, the
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.
50 3Dモデル位置合わせシステム
60 コンピュータ
62 モニタ
70 プロセッサ
72 I/Oコントローラ
74 ハードディスクドライブ
76 メモリ/バスコントローラ
78 ランダムアクセスメモリ
80 DVDドライブ
84 インターフェイス
88 グラフィックカード
90 グラフィックコントローラ
92 レンジスキャナ
94 回転テーブル
96 カメラ
50 3D
Claims (6)
前記コンピュータが、3Dレンジデータの組と、前記3Dレンジデータの組に対応する2D画像データの組とを記憶する記憶媒体に接続するステップと、
前記コンピュータが、前記3Dレンジデータの組を前記記憶媒体から読出し、前記3Dレンジデータの各々により表される点をモニタ上に表示するステップと、
前記コンピュータが、前記3Dレンジデータの組を、各々が複数の3Dレンジデータを含む予め定められた数のグループに分割する分割ステップと、
前記コンピュータが、前記グループの各々において、前記2D画像データの組のうち、当該グループに含まれる所定数の3Dレンジデータに対応する2D画像データにおける特徴点の画像の対応を利用して、当該所定数の3Dレンジデータにより表される前記特徴点が一致するように、前記所定数の3Dレンジデータを整合させ、前記記憶媒体に記憶された、前記所定数の3Dレンジデータを更新する整合ステップと、
前記コンピュータが、前記整合ステップにおいて更新された前記3Dレンジデータを前記記憶媒体から読出し、前記モニタに表示される点を、前記読出された3Dレンジデータにしたがって更新する更新ステップと、
前記コンピュータが、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記所定数の3Dレンジデータの組合せを変更しながら前記整合ステップと前記更新ステップとを繰返すステップと、
前記コンピュータが、前記繰返しステップの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるステップと、を含む、方法。 A computer-implemented method for registering a 3D range data set of an object, comprising:
A step wherein the computer is to connect a set of 3D range data, the storage medium for storing a set of 2D image data corresponding to the set of the 3D range data,
The computer reading the set of 3D range data from the storage medium and displaying on the monitor the points represented by each of the 3D range data;
The computer includes a dividing step of dividing the set of 3D range data, the number of groups to a predetermined comprising each a plurality of 3D Renjide data,
The computer, in each of the groups, said one set of 2D image data, by using the corresponding image feature points in the 2D image data corresponding to a predetermined number of 3D range data included in the group, the predetermined as the feature points represented by the number of 3D range data matches, the matching step is aligning the 3D Renjide data of the predetermined number, stored in the storage medium, and updates the 3 D range data of the predetermined number and,
The computer reads the 3D range data updated at the integer Gosu step from the storage medium, the points displayed on the monitor, and updating step of updating in accordance with 3D range data the reading,
And repeating the computer until all of the 3D range data is aligned in said each group, and said further Synth step and the integer Gosu step while changing a combination of 3D range data of the predetermined number,
Said computer comprises the steps of aligning all the sets of 3D range data updated aligned between said repeating step method.
3Dレンジデータの組と、前記3Dレンジデータの組に対応する2D画像データの組とを記憶するための記憶手段と、
前記3Dレンジデータの組を前記記憶手段から読出し、前記3Dレンジデータの各々により表される点をモニタ上に表示するための手段と、
前記3Dレンジデータの組を、各々が複数の3Dレンジデータを含む予め定められた数のグループに分割するための分割手段と、
前記グループの各々において、前記2D画像データの組のうち、当該グループに含まれる所定数の3Dレンジデータに対応する2D画像データにおける特徴点の画像の対応を利用して、当該所定数の3Dレンジデータにより表される前記特徴点が一致するように、前記所定数の3Dレンジデータを整合させ、前記記憶手段に記憶された、前記所定数の3Dレンジデータを更新するための第1の手段と、
前記第1の手段による整合によって更新された前記3Dレンジデータを前記記憶手段から読出し、前記モニタに表示される点を、前記読出された3Dレンジデータにしたがって更新するための更新手段と、
全ての3Dレンジデータが前記各グループにおいて整合するまで、前記所定数の3Dレンジデータの組合せを変更しながら前記3Dレンジデータの整合と更新とが繰返されるように、前記第1の手段と前記更新手段とを制御するための手段と、
前記制御するための手段の制御に基づいて、繰返しの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるための第2の手段とを含む、装置。
An apparatus for aligning a 3D range data set of an object,
A set of 3D range data, storage means for storing a set of 2D image data corresponding to the set of the 3D range data,
Means for reading the set of 3D range data from the storage means and displaying the points represented by each of the 3D range data on a monitor;
The set of 3D range data, and dividing means for each divided into the number of groups that have been predetermined that includes a plurality of 3D Renjide data,
In each of the groups, said one set of 2D image data, by using the corresponding image feature points in the 2D image data corresponding to a predetermined number of 3D range data included in the group, the predetermined number of 3D range as the feature point matches represented by the data, first means for aligned the 3D Renjide data of the predetermined number, stored in the storage unit, updates the 3D range data of the predetermined number ,
Reading the 3D range data thus updated to the matching by the prior SL first means from the storage means, the point to be displayed on the monitor, and updating means for updating in accordance with 3D range data the reading,
Until all of the 3D range data is aligned in the respective groups, so that the the alignment of 3D range data updates and are repeated while changing the combination of 3D range data of the predetermined number, further wherein said first means and means for controlling the newcomer stage,
And a second means for aligning all sets of 3D range data aligned and updated during the iteration based on the control of the means for controlling.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008280774A JP5185777B2 (en) | 2008-10-31 | 2008-10-31 | Method and apparatus for aligning 3D range data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008280774A JP5185777B2 (en) | 2008-10-31 | 2008-10-31 | Method and apparatus for aligning 3D range data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010108328A JP2010108328A (en) | 2010-05-13 |
JP5185777B2 true JP5185777B2 (en) | 2013-04-17 |
Family
ID=42297702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008280774A Expired - Fee Related JP5185777B2 (en) | 2008-10-31 | 2008-10-31 | Method and apparatus for aligning 3D range data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5185777B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9438891B2 (en) * | 2014-03-13 | 2016-09-06 | Seiko Epson Corporation | Holocam systems and methods |
KR101811696B1 (en) * | 2016-01-25 | 2017-12-27 | 주식회사 쓰리디시스템즈코리아 | 3D scanning Apparatus and 3D scanning method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0991436A (en) * | 1995-09-21 | 1997-04-04 | Toyota Central Res & Dev Lab Inc | Image processing method and device therefor |
JPH09237354A (en) * | 1996-02-29 | 1997-09-09 | Chokosoku Network Computer Gijutsu Kenkyusho:Kk | Method for transferring and displaying three-dimensional shape data |
JP3835658B2 (en) * | 1999-02-19 | 2006-10-18 | 株式会社リコー | Three-dimensional shape information generation method and apparatus, and recording medium |
JP4608152B2 (en) * | 2000-09-12 | 2011-01-05 | ソニー株式会社 | Three-dimensional data processing apparatus, three-dimensional data processing method, and program providing medium |
JP2008033521A (en) * | 2006-07-27 | 2008-02-14 | Namco Bandai Games Inc | Program, information storage medium and image generation system |
-
2008
- 2008-10-31 JP JP2008280774A patent/JP5185777B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010108328A (en) | 2010-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6954212B2 (en) | Three-dimensional computer modelling | |
Martinez et al. | Molecular graphics: bridging structural biologists and computer scientists | |
US20100020069A1 (en) | Partitioning-based performance analysis for graphics imaging | |
Pereira et al. | Using 360-degree interactive panoramas to develop virtual representation of construction sites | |
EP3175614A1 (en) | Virtual changes to a real object | |
Seidametova et al. | Using augmented reality for architecture artifacts visualizations | |
Teruggi et al. | 3D surveying, semantic enrichment and virtual access of large cultural heritage | |
CN115701305A (en) | Shadow screening | |
Michel et al. | Object 3dit: Language-guided 3d-aware image editing | |
Taubin et al. | 3d scanning for personal 3d printing: build your own desktop 3d scanner | |
JP5185777B2 (en) | Method and apparatus for aligning 3D range data | |
US20060250389A1 (en) | Method for creating virtual reality from real three-dimensional environment | |
Zhang et al. | Real-Time 3-D Reconstruction for Facilitating the Development of Game-based Virtual Laboratories | |
Belhi et al. | An integrated framework for the interaction and 3D visualization of cultural heritage | |
JP7168979B2 (en) | 3D structure determination device, 3D structure determination method, 3D structure discriminator learning device, 3D structure discriminator learning method and program | |
US11113868B2 (en) | Rastered volume renderer and manipulator | |
Dubois et al. | Worm selector: volume selection in a 3D point cloud through adaptive modelling | |
JP6967150B2 (en) | Learning device, image generator, learning method, image generation method and program | |
Shao et al. | A multi-GPU accelerated virtual-reality interaction simulation framework | |
Miles et al. | A community-built virtual heritage collection | |
Ye et al. | Digital reconstruction of Elmina Castle for mobile virtual reality via point-based detail transfer | |
Dong et al. | Occlusion handling method for ubiquitous augmented reality using reality capture technology and GLSL | |
CN116993894B (en) | Virtual picture generation method, device, equipment, storage medium and program product | |
Schlaug | 3D modeling in augmented reality | |
WO2021176877A1 (en) | Image processing device, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121009 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5185777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |