JP5185777B2 - Method and apparatus for aligning 3D range data - Google Patents

Method and apparatus for aligning 3D range data Download PDF

Info

Publication number
JP5185777B2
JP5185777B2 JP2008280774A JP2008280774A JP5185777B2 JP 5185777 B2 JP5185777 B2 JP 5185777B2 JP 2008280774 A JP2008280774 A JP 2008280774A JP 2008280774 A JP2008280774 A JP 2008280774A JP 5185777 B2 JP5185777 B2 JP 5185777B2
Authority
JP
Japan
Prior art keywords
range data
data
computer
range
predetermined number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008280774A
Other languages
Japanese (ja)
Other versions
JP2010108328A (en
Inventor
ダニエル・モルドバン
澄男 矢野
俊介 吉田
直己 井ノ上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2008280774A priority Critical patent/JP5185777B2/en
Publication of JP2010108328A publication Critical patent/JP2010108328A/en
Application granted granted Critical
Publication of JP5185777B2 publication Critical patent/JP5185777B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は3D形状の検査に関し、特に、表示された3Dモデルの早期の検査を必要とする、エンターテインメント、教育及びデザイン等の応用分野に関する。   The present invention relates to inspection of 3D shapes, and in particular to application fields such as entertainment, education and design that require early inspection of displayed 3D models.

3Dモデルをスキャンしてからすぐに完全な3Dモデルを表示するという課題は、依然として解決されていない。ある対象物の完全なディジタルモデルを構築するのに必要とされる現在の切換方法は、対応の点を手で選択するためのユーザの介入、又は自動3Dビュー位置合わせ(registration)のいずれかを伴う。自動位置合わせでは、表示が行なわれるのは全てのビューが位置合わせされた後である。前者では、中間のビューを視覚化することは可能(かつ不可欠)であるが、スキャン数が大きければ位置合わせ処理を行なうのは煩雑であろう。視覚化の部分を自動位置合わせと組み合わせることで、実時間表示のより先鋭な感覚が生み出されうる。   The problem of displaying a complete 3D model as soon as it is scanned is still not solved. Current switching methods required to build a complete digital model of an object include either user intervention to manually select corresponding points or automatic 3D view registration. Accompany. In automatic alignment, the display occurs after all views are aligned. In the former, it is possible (and indispensable) to visualize the intermediate view, but if the number of scans is large, it will be complicated to perform the alignment process. Combining the visualization part with automatic alignment can create a sharper sense of real-time display.

特許文献1はデータパケット/セル損失のある通信ネットワークで3D形状データを転送し表示する方法を記載する。システムは形状を表す複数の要素からなる3D形状データを送信するための送信ユニットと、3D形状データを受け3D形状データを画像として表示するための受信側表示ユニットと、を含む。   Patent Document 1 describes a method for transferring and displaying 3D shape data in a communication network with data packet / cell loss. The system includes a transmission unit for transmitting 3D shape data composed of a plurality of elements representing the shape, and a receiving side display unit for receiving the 3D shape data and displaying the 3D shape data as an image.

このシステムでは、送信ユニットが外部記憶装置から3Dデータを読出し、領域の属性に従って3D形状要素を並替える。その後、これは3Dデータを要素単位で漸次送信する(大きい領域を表す領域属性を有する要素から始まり、続いてより小さい領域を表す領域属性を有する要素を処理する)。受信側表示ユニットは送信ユニットから送信される要素を受け、これらを受信順に漸次表示する。   In this system, a transmission unit reads 3D data from an external storage device, and rearranges 3D shape elements according to region attributes. It then sends 3D data progressively element by element (starting with an element having an area attribute representing a large area and then processing elements having an area attribute representing a smaller area). The receiving side display unit receives the elements transmitted from the transmitting unit and displays them gradually in the order of reception.

非特許文献1では、レンジデータとともに記憶された明度画像が利用され、完全に自動の位置合わせ技術が実行される。内在的なスケール情報を伴う2D―画像特徴量を用いて、3Dビューの対応の点を発見する。その後、まず特徴点自体を整合させ、それに続いて表面要素を考慮する整合ステップによって、2つのレンジの画像の精密な位置合わせが行なわれる。最後に、全体的な位置合わせ誤差を、グラフリラクセーション技術を用いて最少化する。   In Non-Patent Document 1, a brightness image stored together with range data is used, and a completely automatic alignment technique is executed. Find the corresponding point in the 3D view using 2D-image features with inherent scale information. Thereafter, the feature points themselves are first aligned, followed by an alignment step that takes into account the surface elements, so that the two ranges of images are precisely aligned. Finally, the overall alignment error is minimized using graph relaxation techniques.

非特許文献2に記載のソフトウェアは、表面ジオメトリ又は容積情報のいずれかを用いることで、目標又は他の整合ツールなしで、多数の点の集まり(クラウド)を整合させる。   The software described in Non-Patent Document 2 uses either surface geometry or volume information to align a large collection of points (cloud) without a target or other alignment tool.

米国特許第5850226号、3D形状データの転送及び表示方法、1998年12月15日、発明者:ミチオ ナガサワ、ダイスケ ニシオカUS Pat. No. 5,850,226 3D shape data transfer and display method, December 15, 1998, inventor: Michio Nagasawa, Daisuke Nishioka

特徴量表面要素を用いた3Dレンジデータの画像による位置合わせ、仮想現実、考古学及び文化遺産に関する第5回国際シンポジウム2004、G.H.ベンデルス、P.デジェナー、R.ワール、M.コートゲン、R.クライン(Image-Based Registration of 3D-Range Data Using Feature Surface Elements, The 5th International Symposium on Virtual Reality, Archeology and Cultural Heritage 2004, G. H. Bendels, P. Degener, R. Wahl, M. Kortgen, R. Klein)5th International Symposium 2004 on G.3D Range Data Image Using Feature Surface Elements, Virtual Reality, Archeology and Cultural Heritage H. Vendels, P.A. DeJenner, R.D. Waal, M.W. Cotgen, R.A. Klein (Image-Based Registration of 3D-Range Data Using Feature Surface Elements, The 5th International Symposium on Virtual Reality, Archeology and Cultural Heritage 2004, G. H. Bendels, P. Degener, R. Wahl, M. Kortgen, R. Klein) ラピッドフォームからの点クラウド整合技術(http://www.rapidform.com/)(Point Cloud Alignment Technology from Rapidform (http://www.rapidform.com/)Point Cloud Alignment Technology from Rapidform (http://www.rapidform.com/)

特許文献1は画像データの漸次送信及び表示を開示しているが、実時間表示の先鋭な感覚と組合わされた自動位置合わせを伴った3Dモデルの視覚化には触れていない。   Patent document 1 discloses the gradual transmission and display of image data, but does not touch the visualization of the 3D model with automatic alignment combined with a sharp sense of real-time display.

非特許文献1は3Dモデルの自動位置合わせを扱っている。しかし、視覚化は遅く、実時間表示はできない。   Non-Patent Document 1 deals with automatic alignment of 3D models. However, visualization is slow and real time display is not possible.

非特許文献2は多数の点クラウドの自動整合を扱っている。しかし、これは3Dモデルの実時間視覚化とは無関係である。   Non-Patent Document 2 deals with automatic alignment of many point clouds. However, this is independent of the real-time visualization of the 3D model.

従って、この発明の目的の1つは、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。   Accordingly, one object of the present invention is to provide a method and apparatus for automatically aligning and merging acquired 3D models in a manner that gives the viewer a sense of real-time display.

この発明の別の目的は、位置合わせの過程を示すことで、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。   Another object of the present invention is to provide a method and apparatus for automatically aligning and merging acquired 3D models in a manner that gives the viewer a sense of real-time display by showing the registration process. Is to provide.

この発明のさらに別の目的は、多方向から実際の形状を徐々に明らかにすることによって、見る人に実時間表示の感覚を与えるようなやり方で、獲得した3Dモデルを自動的に整合しマージするための方法及び装置を提供することである。   Yet another object of the present invention is to automatically align and merge acquired 3D models in a way that gives the viewer a sense of real-time display by gradually revealing the actual shape from multiple directions. It is to provide a method and apparatus for doing so.

この発明の第1の局面に従った、対象物の3Dレンジデータの組を位置合わせするためのコンピュータで実現される方法は、3Dレンジデータと前記3Dレンジデータに対応する2D画像データの組とを記憶する記憶媒体に接続するステップと、前記3Dレンジデータの組を表す点をモニタ上に表示するステップと、前記3Dレンジデータの組を、各々が連続した3Dレンジデータの組を含む予め定められた数のグループに分割するステップと、前記グループの各々において、前記2D画像データの組を利用して、所定数の連続したレンジデータの対を整合させ、対応の3Dレンジデータを更新するステップと、を含む。前記所定数は前記各グループ内の連続したレンジデータの対の数より小さい。前記ステップはさらに、整合するステップに従って、前記モニタに表示される点を更新するステップと、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記整合のステップと更新のステップとを繰返すステップと、前記繰返しステップの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるステップと、を含む。   A computer-implemented method for aligning a 3D range data set of an object according to a first aspect of the present invention includes a 3D range data and a set of 2D image data corresponding to the 3D range data. A step of connecting to a storage medium for storing, a step of displaying a point representing the set of 3D range data on a monitor, and a set of 3D range data, each including a set of consecutive 3D range data Dividing into a predetermined number of groups, and in each of the groups, using the set of 2D image data, aligning a predetermined number of consecutive range data pairs and updating corresponding 3D range data And including. The predetermined number is smaller than the number of consecutive range data pairs in each group. The step further comprises: updating points displayed on the monitor according to the matching step; repeating the matching step and the updating step until all 3D range data is matched in each group; Aligning all sets of 3D range data aligned and updated during the iteration step.

前記分割ステップは前記3Dレンジデータの組を、各々が連続した3Dレンジデータを含む4つのグループに分割するステップを含んでもよい。   The dividing step may include a step of dividing the set of 3D range data into four groups each including continuous 3D range data.

好ましくは、前記4つのグループは同数の連続した3Dレンジデータを含みうる。   Preferably, the four groups may include the same number of consecutive 3D range data.

さらに好ましくは、前記整合させるステップは、前記各グループにおいて、1対の連続したレンジデータを整合させ、対応の3Dレンジデータを更新するステップを含む。   More preferably, the step of matching includes a step of matching a pair of continuous range data and updating corresponding 3D range data in each group.

この発明の第2の局面に従ったコンピュータプログラムは、コンピュータ上で実行されると、コンピュータに、上述の方法のいずれかに記載のステップの全てを実行させる。   When the computer program according to the second aspect of the present invention is executed on a computer, the computer program causes the computer to execute all of the steps described in any of the methods described above.

この発明の第3の局面に従った対象物の3Dレンジデータの組を位置合わせするための装置は、3Dレンジデータと前記3Dレンジデータに対応する2D画像データの組とを記憶するための手段と、前記3Dレンジデータの組を表す点をモニタ上に表示するための手段と、前記3Dレンジデータの組を、各々が連続した3Dレンジデータの組を含む予め定められた数のグループに分割するための手段と、前記グループの各々において、前記2D画像データの組を利用して、所定数の連続したレンジデータの対を整合させ、対応の3Dレンジデータを更新するための第1の手段と、を含む。前記所定数は前記各グループ内の連続したレンジデータの対の数より小さい。前記装置はさらに、前記第1の手段による整合に従って、前記モニタに表示される点を更新するための手段と、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記3Dレンジデータの整合と更新が繰返されるように、前記第1の手段と前記更新するための手段とを制御するための手段と、前記制御するための手段の制御に基づいて、繰返しの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるための第2の手段とを含む。   An apparatus for aligning a 3D range data set of an object according to a third aspect of the present invention stores means for storing 3D range data and a set of 2D image data corresponding to the 3D range data. And means for displaying on the monitor a point representing the 3D range data set; and dividing the 3D range data set into a predetermined number of groups each including a continuous 3D range data set. And first means for matching a predetermined number of consecutive range data pairs and updating corresponding 3D range data using each set of 2D image data in each of the groups And including. The predetermined number is smaller than the number of consecutive range data pairs in each group. The apparatus further includes means for updating the points displayed on the monitor according to the alignment by the first means, and alignment of the 3D range data until all 3D range data is aligned in each group. Aligned and updated between iterations based on control of the first means and the means for updating and control of the means for controlling, so that updates are repeated Second means for matching all sets of 3D range data.

図1はこの発明の第1の実施の形態に従った3Dビューの配置を示す図である。FIG. 1 is a diagram showing the arrangement of 3D views according to the first embodiment of the present invention. この発明の第1の実施の形態に従った3Dモデル位置合わせシステム50の平面図である。1 is a plan view of a 3D model registration system 50 according to a first embodiment of the present invention. FIG. 図2に示すシステム50のブロック図である。FIG. 3 is a block diagram of the system 50 shown in FIG. 2. この実施の形態の方法を実現するプログラムの制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the program which implement | achieves the method of this embodiment. 図4に示すステップ120の詳細なフローチャートである。It is a detailed flowchart of step 120 shown in FIG. 図4のステップ128で行なわれるルーチンの詳細なフローチャートである。FIG. 5 is a detailed flowchart of a routine performed in Step 128 of FIG. 4. FIG. 各区画についてステップ174で行なわれる位置合わせ処理のフローチャートである。It is a flowchart of the alignment process performed by step 174 about each division. 2D一致点を例示する図である。It is a figure which illustrates 2D coincidence point.

[第1の実施の形態]
−概観−
以下で説明する実施の形態では、3Dレンジデータのシーケンスと対応の2D画像データとから、実生活の対象物のディジタル化された3Dモデルを自動的に構築し表示する方法を紹介する。目標とするのは、実際の対象物のスキャンとその3Dモデルの表示とを中断なしに行なって、見る人に実時間表示の感覚を与えるシステムである。連続したスキャンを整合するようにすすめた後に、展開された3Dデータを表示することに代えて、この発明では異なる手法をとる。
[First Embodiment]
-Overview-
In the embodiment described below, a method for automatically constructing and displaying a digitized 3D model of an object in real life from a sequence of 3D range data and corresponding 2D image data will be introduced. The goal is a system that gives the viewer a sense of real-time display by scanning the actual object and displaying its 3D model without interruption. Instead of displaying the expanded 3D data after recommending successive scans to be aligned, the present invention takes a different approach.

始めに、3D表示装置に、スキャンの完全な組を一度に表示する。その後、図1に示すように、対象物20の完全なビューを4つの区画30A−30Dに分割し、その各々の内部で、連続したビューを整合させる。4つの区画全てにおいて、連続したビューの第1の対が独立して整合された後、これにしたがってこれらを3D表示装置に表示する。例えば、区画30Aの2つの連続したビュー32A及び34Aが最初に整合され、その後、区画30B、30C、30Dのビューの対32B及び34B、32C及び34C、32D及び34Dがそれぞれ位置合わせされる。表示は、部分的に位置合わせされたビューの組で更新されることになる。続いて、各区画内の連続したビューについて、これらを先行するビューと整合させる処理が行なわれる。その後、その結果にしたがってそれらが表示される。こうして、初期の点のクラウドは徐々に、4方向から同時に実際の対象物の真の形状と色とを現すようになる。最終ステップとして、全体的な位置合わせが行なわれる。ここでは、先行技術と同様に、一意の世界座標系に対し、全てのビューが整合される。   First, a complete set of scans is displayed at a time on a 3D display device. Thereafter, as shown in FIG. 1, the complete view of the object 20 is divided into four compartments 30A-30D, within each of which the successive views are aligned. In all four sections, after the first pair of consecutive views are independently aligned, they are displayed on the 3D display accordingly. For example, two consecutive views 32A and 34A of partition 30A are first aligned, and then pairs of views 32B and 34B, 32C and 34C, 32D and 34D of partitions 30B, 30C and 30D are aligned, respectively. The display will be updated with a set of partially aligned views. Subsequently, processing is performed on successive views in each partition to match them with the preceding view. They are then displayed according to the result. In this way, the cloud of initial points gradually reveals the true shape and color of the actual object simultaneously from four directions. As a final step, overall alignment is performed. Here, as in the prior art, all views are matched to a unique world coordinate system.

ここでは、2つのビューが、その視点の位置と向きとが予め定められた世界座標系を基準として、特徴点を利用して正確に決定されたときに、「位置合わせされた」という。   Here, two views are said to be “aligned” when the position and orientation of their viewpoints are accurately determined using feature points with reference to a predetermined world coordinate system.

この実施の形態では、3Dレンジデータと対応のテクスチャデータとを入力として用いて、対象物の完全なディジタルモデルを生成する。この入力データは、何らかの種類のレンジセンサによって提供されうる(レーザレンジファインダ、ステレオカメラ、構造光)。一方で、結果(3Dディジタルモデル)は、ユーザとの相互作用で機能を強化したか、又は検査のために操作可能な何らかの種類の3D表示装置で視覚化可能である。   In this embodiment, a complete digital model of an object is generated using 3D range data and corresponding texture data as inputs. This input data can be provided by some kind of range sensor (laser range finder, stereo camera, structured light). On the other hand, the results (3D digital model) can be visualized on some kind of 3D display device that has been enhanced by interaction with the user or can be manipulated for examination.

この実施の形態では、表示されたモデルを早期に検査することが必要な状況で、また結果として、表示された対象物を回転させるか移動させて全体的なビューを得るために表示された対象物との相互作用を行なう手段が存在するような状況で使用可能である。念頭においているのは、文化遺産等の、実世界の対象物のディジタルコピーをスキャンして、3Dハンドヘルド表示装置又は従来の3D表示モニタであってユーザとの対話機能を持つものを用いて表示するような例である。別の例は、ユーザが各自ディジタルモデルの異なるビューを持ちながら、全体としては同じ対象物を共有するような、協働作業である。   In this embodiment, in situations where it is necessary to inspect the displayed model early, and as a result, the displayed object is rotated or moved to obtain an overall view. It can be used in situations where there is a means for interacting with things. Keep in mind that a digital copy of a real-world object, such as a cultural heritage, is scanned and displayed using a 3D handheld display device or a conventional 3D display monitor that can interact with the user. This is an example. Another example is collaborative work where users share the same object as a whole while having different views of their digital models.

−システム構成−
図2はこの実施の形態の3Dモデル位置合わせ方法を実現する3Dモデル位置合わせシステム50の平面図であり、図3はシステム50のブロック図である。
-System configuration-
FIG. 2 is a plan view of a 3D model registration system 50 that implements the 3D model registration method of this embodiment, and FIG. 3 is a block diagram of the system 50.

図2及び図3を参照して、システム50は、モニタ62、キーボード66及びマウス68が接続されたコンピュータ60と、コンピュータ60に接続されたカメラ96を備えたレーザレンジスキャナ92と、コンピュータ60によって制御される回転テーブル94と、を含む。コンピュータ60は半導体メモリ86を装着するためのI/F72と、DVD媒体82を駆動するためのDVD(Digital Versatile Disc)ドライブ80とを有する。回転テーブル94はコンピュータ60の制御下で所定量だけ回転する。対象物が回転テーブル94上に置かれると、回転テーブル94が回転し、レンジスキャナ92とカメラ96とが、対象物の回転位置の各々で、3Dレンジデータと2D画像データとをそれぞれキャプチャする。   2 and 3, the system 50 includes a computer 60 to which a monitor 62, a keyboard 66 and a mouse 68 are connected, a laser range scanner 92 having a camera 96 connected to the computer 60, and a computer 60. A rotary table 94 to be controlled. The computer 60 includes an I / F 72 for mounting the semiconductor memory 86 and a DVD (Digital Versatile Disc) drive 80 for driving the DVD medium 82. The rotary table 94 rotates by a predetermined amount under the control of the computer 60. When the object is placed on the turntable 94, the turntable 94 rotates, and the range scanner 92 and the camera 96 capture 3D range data and 2D image data at each of the rotation positions of the object.

特に図3を参照して、システム50はさらに、プロセッサ70と、プロセッサ70に接続されたメモリ/バスコントローラ76と、メモリ/バスコントローラ76に接続されたランダムアクセスメモリ(RAM)78及びキャッシュメモリ(図示せず)と、プロセッサ70及びモニタ62に接続された、グラフィックコントローラ90と、メモリ/バスコントローラ76に接続されたバス98と、バス98に接続された入力/出力(I/O)コントローラ72と、I/Oコントローラ72に接続されたグラフィックカード88と、バス98に接続されたハードディスクドライブ(HDD)と、を含む。DVDドライブ80とグラフィックカード88とは、内部でI/Oコントローラ88に接続されている。モニタ62はグラフィックコントローラ90に接続される。回転テーブル94はI/Oコントローラ72に接続される。レンジセンサ92とカメラ96とはグラフィックカード88に接続される。キーボード66とマウス68とはI/F84に接続される。   With particular reference to FIG. 3, the system 50 further includes a processor 70, a memory / bus controller 76 connected to the processor 70, a random access memory (RAM) 78 and a cache memory (connected to the memory / bus controller 76). (Not shown), a graphics controller 90 connected to the processor 70 and the monitor 62, a bus 98 connected to the memory / bus controller 76, and an input / output (I / O) controller 72 connected to the bus 98. And a graphic card 88 connected to the I / O controller 72 and a hard disk drive (HDD) connected to the bus 98. The DVD drive 80 and the graphic card 88 are connected to the I / O controller 88 internally. The monitor 62 is connected to the graphic controller 90. The rotary table 94 is connected to the I / O controller 72. Range sensor 92 and camera 96 are connected to graphic card 88. The keyboard 66 and the mouse 68 are connected to the I / F 84.

後述するプログラムは、ハードディスクに記憶される。プログラム実行の際は、プログラムはハードディスクからHDD74によって読出され、RAM78に記憶される。プロセッサ70はプログラムカウンタと称される内部レジスタを有する。プロセッサ70はプログラムカウンタによって指定されたRAM78のアドレスから命令をフェッチし、その命令をデコードし、命令の実行に用いられるデータをフェッチし、命令を実行し、その後、命令によって指定されたアドレスにデータを記憶する。   A program to be described later is stored in the hard disk. When executing the program, the program is read from the hard disk by the HDD 74 and stored in the RAM 78. The processor 70 has an internal register called a program counter. The processor 70 fetches an instruction from the address of the RAM 78 designated by the program counter, decodes the instruction, fetches data used for execution of the instruction, executes the instruction, and then executes data at the address designated by the instruction. Remember.

プログラムはDVD媒体82に記憶されハードディスクにインストールされてもよい。   The program may be stored in the DVD medium 82 and installed on the hard disk.

図4はこの実施の形態の方法を実現するプログラムの制御の流れを示すフローチャートである。図4を参照して、プログラムはステップ120で始まり、ここで関連のメモリ空間を初期化した後、コンピュータ60は回転テーブル94に置かれた実物をディジタル化する。ステップ120で、コンピュータ60は回転テーブル94を回転させ、特定の角度で停止させる。各々の角度で、レンジスキャナ92は対象物の3Dレンジデータをキャプチャし、カメラ96が対応の2D画像をキャプチャする。   FIG. 4 is a flowchart showing the flow of control of a program for realizing the method of this embodiment. Referring to FIG. 4, the program begins at step 120, where after initializing the associated memory space, the computer 60 digitizes the actual object placed on the turntable 94. In step 120, the computer 60 rotates the rotary table 94 and stops it at a specific angle. At each angle, the range scanner 92 captures 3D range data of the object, and the camera 96 captures the corresponding 2D image.

プログラムはさらに、ステップ120でキャプチャされた3Dレンジデータの完全な組をモニタ62上に表示するステップ122と、ステップ122に続いて、3Dレンジデータを4つの区画に大まかに配置するステップ124と、ステップ120でレンジスキャナ92によってキャプチャされた3Dビューを位置合わせして、4つの区画の各々で連続したビューの対の位置合わせを繰返すたびにモデルビューを漸次更新するステップ128と、ステップ128に続いて、各々ステップ128で位置合わせされた4つの区画を含む3Dレンジビューの完全な組を位置合わせするステップ130と、ステップ130で位置合わせされたディジタル化された対象物の表面を生成するステップ132と、ステップ134に続いて、ハードディスクに対象物のビューデータを記憶するステップ134と、を含む。   The program further includes a step 122 for displaying the complete set of 3D range data captured in step 120 on the monitor 62, and a step 124 following the step 122 for roughly placing the 3D range data in four sections; Following step 128 is the step of registering the 3D view captured by range scanner 92 in step 120 and incrementally updating the model view each time it repeats the alignment of successive view pairs in each of the four sections. Step 130 for registering a complete set of 3D range views, each including four sections aligned in step 128, and step 132 for generating the digitized object surface aligned in step 130. And following step 134 to the hard disk Includes a step 134 for storing view data elephant product, the.

図5は図4のステップ120の詳細を示す。図5を参照して、ステップ120のルーチンは、回転テーブル94の各角度において、3Dレンジデータと対応の2D画像データとを、レンジスキャナ92とカメラ96とからそれぞれ抽出し、データをそれぞれの場所に記憶するステップ150と、スキャンが完了したか否かを判断し、判断の結果により制御の流れをステップ150又は図4のステップ122に分岐させるステップ152と、を含む。   FIG. 5 shows details of step 120 of FIG. Referring to FIG. 5, the routine of step 120 extracts 3D range data and corresponding 2D image data from range scanner 92 and camera 96 at each angle of turntable 94, and stores the data at each location. And step 152 for determining whether or not the scan is completed and branching the control flow to step 150 or step 122 in FIG. 4 according to the result of the determination.

図6は図4のステップ128で実行されるルーチンの詳細なフローチャートである。図6を参照して、このルーチンはステップ170で始まり、ここでは繰返し制御変数iが0に初期化され、iの値が定数M−1より小さい間は処理172が繰返され、1回繰返すごとにiの値が増分される。ここでMは各区画内のビューの数である。変数iがM−1に等しくなると、繰返しが終了する。繰返しのたびに、図6に示す処理172が実行される。   FIG. 6 is a detailed flowchart of the routine executed in step 128 of FIG. Referring to FIG. 6, this routine starts at step 170, where the iteration control variable i is initialized to 0, and processing 172 is repeated as long as the value of i is smaller than a constant M-1, and is repeated once. The value of i is incremented. Here, M is the number of views in each partition. When the variable i is equal to M−1, the iteration ends. At each repetition, processing 172 shown in FIG. 6 is executed.

処理172は、各区画について、i番目と(i+1)番目とのビューが位置合わせされ3Dレンジデータがそれに従って更新されるステップ174と、更新された3Dレンジデータの完全な組を表示するステップ178と、を含む。   Process 172 includes, for each partition, step 174 where the i th and (i + 1) th views are aligned and the 3D range data is updated accordingly, and a complete set of updated 3D range data is displayed 178. And including.

たとえば、i=0であるとき、ビュー32Aと34Aとが区画30Aで位置合わせされ、ビュー32Bと34Bとが区画30Bで位置合わせされ、ビュー32Cと34Cとが区画30Cで位置合わせされ、ビュー32Dと34Dとが区画30Dで位置合わせされる。3Dレンジデータは位置合わせの結果に従って更新され、その後更新された3Dレンジデータの完全な組がモニタ62に表示される。その後iが1に増分され、ビュー34Aと36Aとが区画30Aで位置合わせされ、ビュー34Bと36Bとが区画30Bで位置合わせされ、その後同様に繰返される。3Dレンジデータはこれに従って更新され、3Dレンジデータの完全な組が表示される。   For example, when i = 0, views 32A and 34A are aligned in partition 30A, views 32B and 34B are aligned in partition 30B, views 32C and 34C are aligned in partition 30C, and view 32D And 34D are aligned in section 30D. The 3D range data is updated according to the alignment result, and then the complete set of updated 3D range data is displayed on the monitor 62. I is then incremented to 1, views 34A and 36A are aligned in section 30A, views 34B and 36B are aligned in section 30B, and so on. The 3D range data is updated accordingly and the complete set of 3D range data is displayed.

こうして、図6に示す処理の実行中、モニタ62上の3Dモデルビューは漸次更新される。各区画で、連続した3Dレンジビューの対が位置合わせされ、モデルビューが更新される。この処理は連続した対の全てについて繰返されることになり、実時間表示の感覚が得られる。   Thus, the 3D model view on the monitor 62 is gradually updated during the execution of the processing shown in FIG. In each section, consecutive 3D range view pairs are aligned and the model view is updated. This process will be repeated for all successive pairs, giving a sense of real time display.

図7は各区画についてステップ174で行なわれる位置合わせ処理のフローチャートである。図7を参照して、このルーチンは、位置合わせすべき3Dビューの各々について、対応の2D画像を分析し、一致する2D点の対を抽出するステップ200を含む。このステップは、例えば、SIFTキーポイントディテクタ(http://www.cs.ubc.ca/~lowe_keypoints/)等の公に入手可能なソフトウェアで実現することができる。   FIG. 7 is a flowchart of the alignment process performed in step 174 for each section. Referring to FIG. 7, the routine includes a step 200 of analyzing the corresponding 2D image and extracting matching 2D point pairs for each of the 3D views to be registered. This step can be realized by publicly available software such as a SIFT keypoint detector (http://www.cs.ubc.ca/~lowe_keypoints/).

2D一致点を図8に例示する。日本の人形220の画像が、第1の区画30AのN番目の2Dビューであり、画像222が同じ人形の(N+1)番目の2Dビューであると仮定する。これらのビューの各々を上述のソフトウェアを利用して分析すると、各画像において特徴点を見出すことができる。   A 2D coincidence point is illustrated in FIG. Assume that the image of the Japanese doll 220 is the Nth 2D view of the first partition 30A and the image 222 is the (N + 1) th 2D view of the same doll. When each of these views is analyzed using the software described above, feature points can be found in each image.

ルーチンはさらに、ステップ200に続いて、ステップ200で抽出された偽の一致点を消去するステップ202を含む。これは、例えばOpenCVライブラリ(http://opencvlibrary.sourceforge.net/)等の公に入手可能なソフトウェアを用いて行なうことができる。再び図8を参照して、画像220及び222の特徴点はさらに分析され、偽の一致点が消去されて、真の一致点の対のみが残る。   Following the step 200, the routine further includes a step 202 of eliminating the false match points extracted in the step 200. This can be done using publicly available software such as the OpenCV library (http://opencvlibrary.sourceforge.net/). Referring again to FIG. 8, the feature points of images 220 and 222 are further analyzed, false match points are eliminated, and only true match point pairs remain.

ステップ202の後、2Dの一致に基づいて対応の3D点の対を抽出するステップ204が来る。このステップは、2D画像の画素と3Dビューの奥行き値との間の1対1の対応を用いて実現することができる。   Following step 202 is a step 204 of extracting corresponding 3D point pairs based on the 2D match. This step can be achieved using a one-to-one correspondence between the pixels of the 2D image and the depth values of the 3D view.

ルーチンはさらに、ステップ204に続いて、ステップ204で抽出された3D一致点に基づいて、3Dビューの絶対的な向きを計算するステップ206を含む。このステップは、ジブ ヤニフ(Zib Yaniv)によるhttp://isiswiki.georgetown.edu/zivy/にある公に利用可能なソフトウェアで実現可能である。このソフトウェアは、ホーン法(バートルド K.P.ホーン、単位区画を用いた絶対的向きの閉鎖形態の解決法、アメリカ光学学会会報1987)(Berthold K.P. Horn. Closed-form solution of absolute orientation using unit quarternions. Journal of the Optical Society of America, 1987)を実現したものである。2つの3Dレンジデータの位置合わせには、対応する点の少なくとも3個の対が必要である。さらに、ジブによるソフトウェアは、VXLと呼ばれるC++ライブラリの集合(http://vxl.sourceforge.net#download)を用いて実現することもできる。ステップ206の後、制御はこのルーチンから抜ける。   The routine further includes, following step 204, calculating 206 an absolute orientation of the 3D view based on the 3D coincidence points extracted in step 204. This step can be implemented with publicly available software at http://isiswiki.georgetown.edu/zivy/ by Zib Yaniv. This software is based on the Horn method (Berthold KP Horn. Closed-form solution of absolute orientation using unit quarternions). Journal of the Optical Society of America, 1987). Alignment of two 3D range data requires at least three pairs of corresponding points. Further, the software by Jib can be realized by using a set of C ++ libraries (http: //vxl.sourceforge.net#download) called VXL. After step 206, control exits from this routine.

−動作−
3Dモデル位置合わせシステム50は以下のように動作する。図2及び図3を参照して、モデルが回転テーブル94に置かれ、回転テーブル94の最初の位置が決定される。レンジスキャナ92がモデルのレンジデータをキャプチャする。カメラ96がモデルの2D画像をキャプチャする。レンジデータと2D画像とがグラフィックカード88、I/Oコントローラ72及びバス98を介してコンピュータ60に送信され、HDD74によってハードディスクのプロセッサ70によって指定されたアドレスに記憶される。
-Operation-
The 3D model registration system 50 operates as follows. 2 and 3, the model is placed on the turntable 94 and the initial position of the turntable 94 is determined. The range scanner 92 captures the model range data. A camera 96 captures a 2D image of the model. The range data and the 2D image are transmitted to the computer 60 via the graphic card 88, the I / O controller 72, and the bus 98, and stored in the address specified by the hard disk processor 70 by the HDD 74.

その後プロセッサ70は回転テーブル94を所定の角度だけ回転させる。レンジスキャナ92とカメラ96とがこの角度でのレンジデータと2D画像とをそれぞれキャプチャする。レンジデータと2D画像とはともにハードディスクに記憶される。こうして、回転テーブル94の予め定められた回転位置の各々で、レンジデータと2D画像とがキャプチャされ記憶される。このタスクは図4に示すステップ120で行なわれる。   Thereafter, the processor 70 rotates the rotary table 94 by a predetermined angle. Range scanner 92 and camera 96 capture range data and 2D images at this angle, respectively. Both the range data and the 2D image are stored in the hard disk. Thus, the range data and the 2D image are captured and stored at each predetermined rotation position of the turntable 94. This task is performed in step 120 shown in FIG.

レンジデータと対応の2D画像との完全な組がキャプチャされ記憶されると、制御は図4のステップ122に進む。ここで、3Dレンジデータの完全な組がハードディスクから読出されてモニタ62に表示される。ビューは位置合わせされていないので、表示されるモデルはレンジデータ点のクラウドである。   Once the complete set of range data and corresponding 2D images has been captured and stored, control proceeds to step 122 of FIG. Here, the complete set of 3D range data is read from the hard disk and displayed on the monitor 62. Since the view is not aligned, the model displayed is a cloud of range data points.

ステップ124で、3Dレンジデータは4つの区画で大まかに配置される。ステップ128で、各区画について、選択された連続する3Dレンジビューの1対が位置合わせされる。各区画での位置合わせの後、モニタ62上のレンジデータ表示がそれに従って更新される。次に、各区画において連続した3Dレンジビューの次の1対が選択され位置合わせされ、表示が更新される。この処理は、各区画の連続したビューの対の全てが位置合わせされるまで繰返される(ステップ128)。   At step 124, the 3D range data is roughly arranged in four sections. At step 128, for each partition, a pair of selected consecutive 3D range views is aligned. After alignment in each section, the range data display on the monitor 62 is updated accordingly. Next, the next pair of consecutive 3D range views in each section is selected and aligned and the display is updated. This process is repeated until all of the successive view pairs in each partition are aligned (step 128).

ステップ128が完了すると、3Dレンジビューの完全な組が、従来の位置合わせ方法を利用してステップ130で再び位置合わせされる。ステップ132で位置合わせされた対象物のために表面が生成され、ステップ134でモデルデータがハードディスクに記憶される。   When step 128 is complete, the complete set of 3D range views is re-aligned at step 130 using conventional alignment methods. A surface is generated for the registered object at step 132 and the model data is stored on the hard disk at step 134.

上述のとおり、この実施の形態では、各区画においてレンジデータの3Dビューの選択された対を位置合わせし、その後繰返しごとに、レンジデータの表示を更新する。位置合わせ処理の間、モデルビューは漸次更新されるので、ユーザに実時間位置合わせの先鋭な感覚を与える。   As described above, this embodiment aligns selected pairs of 3D views of range data in each section and then updates the display of range data with each iteration. During the alignment process, the model view is gradually updated, giving the user a sharp sense of real-time alignment.

上述の実施の形態ではレンジデータは4区画に配置されるが、この発明はこの実施の形態には限られず、レンジデータは1より大きいいかなる数のグループに分割されてもよい。しかし、漸次実時間表示の感覚を与えるためには、この数が大きすぎてはならない。レンジデータを4、8又は16個のグループに分割するのが好ましい。レンジデータは大まかにグループ分けすればよく、グループ内のレンジデータの数は互いに異なっていてもよい。   In the above-described embodiment, the range data is arranged in four sections. However, the present invention is not limited to this embodiment, and the range data may be divided into any number of groups greater than one. However, this number should not be too large to give a gradual real-time display sensation. The range data is preferably divided into 4, 8 or 16 groups. The range data may be roughly grouped, and the number of range data in the group may be different from each other.

上述の実施の形態では、レンジデータをキャプチャするのにレンジスキャナ92を利用したが、この発明はこのような実施の形態に限定されない。対象物の表面の任意に選択された点への距離を測定することができれば、レンジスキャナ92に代えてステレオカメラ又は構造光を用いてもよい。   In the above-described embodiment, the range scanner 92 is used to capture the range data. However, the present invention is not limited to such an embodiment. A stereo camera or structured light may be used in place of the range scanner 92 as long as the distance to an arbitrarily selected point on the surface of the object can be measured.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.

50 3Dモデル位置合わせシステム
60 コンピュータ
62 モニタ
70 プロセッサ
72 I/Oコントローラ
74 ハードディスクドライブ
76 メモリ/バスコントローラ
78 ランダムアクセスメモリ
80 DVDドライブ
84 インターフェイス
88 グラフィックカード
90 グラフィックコントローラ
92 レンジスキャナ
94 回転テーブル
96 カメラ
50 3D Model Alignment System 60 Computer 62 Monitor 70 Processor 72 I / O Controller 74 Hard Disk Drive 76 Memory / Bus Controller 78 Random Access Memory 80 DVD Drive 84 Interface 88 Graphic Card 90 Graphic Controller 92 Range Scanner 94 Rotary Table 96 Camera

Claims (6)

対象物の3Dレンジデータの組を位置合わせ(register)するためのコンピュータで実現される方法であって、
前記コンピュータが、3Dレンジデータの組前記3Dレンジデータの組に対応する2D画像データの組とを記憶する記憶媒体に接続するステップと、
前記コンピュータが、前記3Dレンジデータの組を前記記憶媒体から読出し、前記3Dレンジデータの各々により表される点をモニタ上に表示するステップと、
前記コンピュータが、前記3Dレンジデータの組を、各々が複数の3Dレンジデータを含む予め定められた数のグループに分割する分割ステップと、
前記コンピュータが、前記グループの各々において、前記2D画像データの組のうち、当該グループに含まれる所定数の3Dレンジデータに対応する2D画像データにおける特徴点の画像の対応を利用して、当該所定数の3Dレンジデータにより表される前記特徴点が一致するように、前記所定数の3Dレンジデータを整合させ、前記記憶媒体に記憶された、前記所定数の3Dレンジデータを更新する整合ステップと
前記コンピュータが、前記合ステップにおいて更新された前記3Dレンジデータを前記記憶媒体から読出し、前記モニタに表示される点を、前記読出された3Dレンジデータにしたがって更新する更新ステップと、
前記コンピュータが、全ての3Dレンジデータが前記各グループにおいて整合するまで、前記所定数の3Dレンジデータの組合せを変更しながら前記整合ステップと前記新ステップとを繰返すステップと、
前記コンピュータが、前記繰返しステップの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるステップと、を含む、方法。
A computer-implemented method for registering a 3D range data set of an object, comprising:
A step wherein the computer is to connect a set of 3D range data, the storage medium for storing a set of 2D image data corresponding to the set of the 3D range data,
The computer reading the set of 3D range data from the storage medium and displaying on the monitor the points represented by each of the 3D range data;
The computer includes a dividing step of dividing the set of 3D range data, the number of groups to a predetermined comprising each a plurality of 3D Renjide data,
The computer, in each of the groups, said one set of 2D image data, by using the corresponding image feature points in the 2D image data corresponding to a predetermined number of 3D range data included in the group, the predetermined as the feature points represented by the number of 3D range data matches, the matching step is aligning the 3D Renjide data of the predetermined number, stored in the storage medium, and updates the 3 D range data of the predetermined number and,
The computer reads the 3D range data updated at the integer Gosu step from the storage medium, the points displayed on the monitor, and updating step of updating in accordance with 3D range data the reading,
And repeating the computer until all of the 3D range data is aligned in said each group, and said further Synth step and the integer Gosu step while changing a combination of 3D range data of the predetermined number,
Said computer comprises the steps of aligning all the sets of 3D range data updated aligned between said repeating step method.
前記分割ステップは、前記コンピュータが、前記3Dレンジデータの組を、各々が連続した3Dレンジデータを含む4つのグループに分割するステップを含む、請求項1に記載の方法。 The method of claim 1, wherein the dividing step includes the computer dividing the set of 3D range data into four groups, each containing consecutive 3D range data. 前記4つのグループは同数の連続した3Dレンジデータを含む、請求項2に記載の方法。   The method of claim 2, wherein the four groups include the same number of consecutive 3D range data. 前記整合ステップは、前記コンピュータが、前記グループの各々において、前記2D画像データの組のうち、当該グループに含まれる1対の3Dレンジデータに対応する2D画像データにおける特徴点の画像の対応を利用して、当該1対の3Dレンジデータにより表される前記特徴点が一致するように、前記1対の3Dレンジデータを整合させ、前記記憶媒体に記憶された、前記1対の3Dレンジデータを更新するステップを含む、請求項1に記載の方法。 The integer Gosu step, the computer, in each of the groups, of the set of the 2D image data, corresponding image feature points in the 2D image data corresponding to a pair of 3D range data included in the group The pair of 3D range data is matched and stored in the storage medium so that the feature points represented by the pair of 3D range data match, and stored in the storage medium. The method of claim 1, comprising updating the range data. コンピュータ上で実行されると、コンピュータに、請求項1から請求項4のいずれかに記載のステップの全てを実行させる、コンピュータプログラム。   A computer program that, when executed on a computer, causes the computer to execute all of the steps according to any one of claims 1 to 4. 対象物の3Dレンジデータの組を位置合わせするための装置であって、
3Dレンジデータの組前記3Dレンジデータの組に対応する2D画像データの組とを記憶するための記憶手段と、
前記3Dレンジデータの組を前記記憶手段から読出し、前記3Dレンジデータの各々により表される点をモニタ上に表示するための手段と、
前記3Dレンジデータの組を、各々が複数の3Dレンジデータを含む予め定められた数のグループに分割するための分割手段と、
前記グループの各々において、前記2D画像データの組のうち、当該グループに含まれる所定数の3Dレンジデータに対応する2D画像データにおける特徴点の画像の対応を利用して、当該所定数の3Dレンジデータにより表される前記特徴点が一致するように、前記所定数の3Dレンジデータを整合させ、前記記憶手段に記憶された、前記所定数の3Dレンジデータを更新するための第1の手段と
記第1の手段による整合によって更新された前記3Dレンジデータを前記記憶手段から読出し、前記モニタに表示される点を、前記読出された3Dレンジデータにしたがって更新するための更新手段と、
全ての3Dレンジデータが前記各グループにおいて整合するまで、前記所定数の3Dレンジデータの組合せを変更しながら前記3Dレンジデータの整合と更新が繰返されるように、前記第1の手段と前記更新手段とを制御するための手段と、
前記制御するための手段の制御に基づいて、繰返しの間に位置合わせされ更新された3Dレンジデータの全ての組を整合させるための第2の手段とを含む、装置。

An apparatus for aligning a 3D range data set of an object,
A set of 3D range data, storage means for storing a set of 2D image data corresponding to the set of the 3D range data,
Means for reading the set of 3D range data from the storage means and displaying the points represented by each of the 3D range data on a monitor;
The set of 3D range data, and dividing means for each divided into the number of groups that have been predetermined that includes a plurality of 3D Renjide data,
In each of the groups, said one set of 2D image data, by using the corresponding image feature points in the 2D image data corresponding to a predetermined number of 3D range data included in the group, the predetermined number of 3D range as the feature point matches represented by the data, first means for aligned the 3D Renjide data of the predetermined number, stored in the storage unit, updates the 3D range data of the predetermined number ,
Reading the 3D range data thus updated to the matching by the prior SL first means from the storage means, the point to be displayed on the monitor, and updating means for updating in accordance with 3D range data the reading,
Until all of the 3D range data is aligned in the respective groups, so that the the alignment of 3D range data updates and are repeated while changing the combination of 3D range data of the predetermined number, further wherein said first means and means for controlling the newcomer stage,
And a second means for aligning all sets of 3D range data aligned and updated during the iteration based on the control of the means for controlling.

JP2008280774A 2008-10-31 2008-10-31 Method and apparatus for aligning 3D range data Expired - Fee Related JP5185777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008280774A JP5185777B2 (en) 2008-10-31 2008-10-31 Method and apparatus for aligning 3D range data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008280774A JP5185777B2 (en) 2008-10-31 2008-10-31 Method and apparatus for aligning 3D range data

Publications (2)

Publication Number Publication Date
JP2010108328A JP2010108328A (en) 2010-05-13
JP5185777B2 true JP5185777B2 (en) 2013-04-17

Family

ID=42297702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008280774A Expired - Fee Related JP5185777B2 (en) 2008-10-31 2008-10-31 Method and apparatus for aligning 3D range data

Country Status (1)

Country Link
JP (1) JP5185777B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9438891B2 (en) * 2014-03-13 2016-09-06 Seiko Epson Corporation Holocam systems and methods
KR101811696B1 (en) * 2016-01-25 2017-12-27 주식회사 쓰리디시스템즈코리아 3D scanning Apparatus and 3D scanning method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991436A (en) * 1995-09-21 1997-04-04 Toyota Central Res & Dev Lab Inc Image processing method and device therefor
JPH09237354A (en) * 1996-02-29 1997-09-09 Chokosoku Network Computer Gijutsu Kenkyusho:Kk Method for transferring and displaying three-dimensional shape data
JP3835658B2 (en) * 1999-02-19 2006-10-18 株式会社リコー Three-dimensional shape information generation method and apparatus, and recording medium
JP4608152B2 (en) * 2000-09-12 2011-01-05 ソニー株式会社 Three-dimensional data processing apparatus, three-dimensional data processing method, and program providing medium
JP2008033521A (en) * 2006-07-27 2008-02-14 Namco Bandai Games Inc Program, information storage medium and image generation system

Also Published As

Publication number Publication date
JP2010108328A (en) 2010-05-13

Similar Documents

Publication Publication Date Title
US6954212B2 (en) Three-dimensional computer modelling
Martinez et al. Molecular graphics: bridging structural biologists and computer scientists
US20100020069A1 (en) Partitioning-based performance analysis for graphics imaging
Pereira et al. Using 360-degree interactive panoramas to develop virtual representation of construction sites
EP3175614A1 (en) Virtual changes to a real object
Seidametova et al. Using augmented reality for architecture artifacts visualizations
Teruggi et al. 3D surveying, semantic enrichment and virtual access of large cultural heritage
CN115701305A (en) Shadow screening
Michel et al. Object 3dit: Language-guided 3d-aware image editing
Taubin et al. 3d scanning for personal 3d printing: build your own desktop 3d scanner
JP5185777B2 (en) Method and apparatus for aligning 3D range data
US20060250389A1 (en) Method for creating virtual reality from real three-dimensional environment
Zhang et al. Real-Time 3-D Reconstruction for Facilitating the Development of Game-based Virtual Laboratories
Belhi et al. An integrated framework for the interaction and 3D visualization of cultural heritage
JP7168979B2 (en) 3D structure determination device, 3D structure determination method, 3D structure discriminator learning device, 3D structure discriminator learning method and program
US11113868B2 (en) Rastered volume renderer and manipulator
Dubois et al. Worm selector: volume selection in a 3D point cloud through adaptive modelling
JP6967150B2 (en) Learning device, image generator, learning method, image generation method and program
Shao et al. A multi-GPU accelerated virtual-reality interaction simulation framework
Miles et al. A community-built virtual heritage collection
Ye et al. Digital reconstruction of Elmina Castle for mobile virtual reality via point-based detail transfer
Dong et al. Occlusion handling method for ubiquitous augmented reality using reality capture technology and GLSL
CN116993894B (en) Virtual picture generation method, device, equipment, storage medium and program product
Schlaug 3D modeling in augmented reality
WO2021176877A1 (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130118

R150 Certificate of patent or registration of utility model

Ref document number: 5185777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees