JP2003532125A - Method and system for scanning a surface to create a three-dimensional object - Google Patents

Method and system for scanning a surface to create a three-dimensional object

Info

Publication number
JP2003532125A
JP2003532125A JP2001581218A JP2001581218A JP2003532125A JP 2003532125 A JP2003532125 A JP 2003532125A JP 2001581218 A JP2001581218 A JP 2001581218A JP 2001581218 A JP2001581218 A JP 2001581218A JP 2003532125 A JP2003532125 A JP 2003532125A
Authority
JP
Japan
Prior art keywords
image
data
feature
model
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001581218A
Other languages
Japanese (ja)
Other versions
JP2003532125A5 (en
JP4206213B2 (en
Inventor
リュドガー ルッバート、
ピーア シュポルベルト、
トマス ヴァイゼ、
ロヒト サクデヴァ、
Original Assignee
オラメトリックス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/560,132 external-priority patent/US6771809B1/en
Priority claimed from US09/560,133 external-priority patent/US6744932B1/en
Priority claimed from US09/560,583 external-priority patent/US6738508B1/en
Priority claimed from US09/560,645 external-priority patent/US6728423B1/en
Priority claimed from US09/560,131 external-priority patent/US6744914B1/en
Priority claimed from US09/560,584 external-priority patent/US7068836B1/en
Priority claimed from US09/560,644 external-priority patent/US6413084B1/en
Priority claimed from US09/616,093 external-priority patent/US6532299B1/en
Application filed by オラメトリックス インコーポレイテッド filed Critical オラメトリックス インコーポレイテッド
Publication of JP2003532125A publication Critical patent/JP2003532125A/en
Publication of JP2003532125A5 publication Critical patent/JP2003532125A5/ja
Application granted granted Critical
Publication of JP4206213B2 publication Critical patent/JP4206213B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/12Brackets; Arch wires; Combinations thereof; Accessories therefor
    • A61C7/14Brackets; Fixing brackets to teeth
    • A61C7/146Positioning or placement of brackets; Tools therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/3094Designing or manufacturing processes
    • A61F2/30942Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques
    • A61F2002/30953Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques using a remote computer network, e.g. Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

(57)【要約】 三次元物体の表面に画像が投影され(611)、画像は、表面を測定しマッピングするために使用される複数の個別の形状を含むパターンを含むことができる。画像は、複数の形状を個別に識別するためにコード化された情報を含む特徴部をさらに備える。投影軸及び視軸に沿った点によって形成された平面に垂直な線に沿ってコード化された情報が検索されるように(613)、コード化された情報を含む特徴部が配向される。特徴部の使用は、マルチフレーム独立走査を実行するために使用される(612)。 An image is projected (611) on the surface of a three-dimensional object, and the image may include a pattern including a plurality of individual shapes used to measure and map the surface. The image further comprises features that include coded information to individually identify the plurality of shapes. The features containing the coded information are oriented such that the coded information is retrieved (613) along a line perpendicular to the plane formed by the points along the projection and viewing axes. The use of features is used to perform a multi-frame independent scan (612).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】 (関連出願) 本願は、2000年4月28日に出願された米国特許出願第09/560,1
31号、2000年4月28日に出願された米国特許出願第09/560,13
2号、2000年4月28日に出願された米国特許出願第09/560,583
号、2000年7月13日に出願された米国特許出願第09/616,093号
、2000年4月28日に出願された米国特許出願第09/560,645号、
2000年4月28日に出願された米国特許出願第09/560,644号、2
000年4月28日に出願された米国特許出願第09/560,584号及び2
000年4月28日に出願された米国特許出願第09/560,133号の優先
権を主張し、それらの教示全体を参照によって本願に組み入れたものとする。
RELATED APPLICATION This application is related to US patent application Ser. No. 09 / 560,1 filed April 28, 2000.
No. 31, U.S. Patent Application No. 09 / 560,13, filed April 28, 2000.
No. 2, US patent application Ser. No. 09 / 560,583, filed April 28, 2000.
No. 09 / 616,093, filed Jul. 13, 2000, U.S. patent application No. 09 / 560,645, filed Apr. 28, 2000,
US patent application Ser. No. 09 / 560,644, filed April 28, 2000, 2
U.S. Patent Application Nos. 09 / 560,584 and 2 filed April 28, 000
Priority of US patent application Ser. No. 09 / 560,133, filed April 28, 000, is hereby incorporated by reference in its entirety.

【0002】 (発明の分野) 本発明は、主に物体のマッピングに関し、より具体的には、物体の三次元モデ
ルを作ることと、物体の部分を位置合わせして物体のモデルを作製することと、
物体の走査された部分を位置合わせして三次元物体を提供することと、解剖学的
構造物を走査して治療且つ診断し、さらに、医療及び歯科装置及び器具を開発し
製造することと、特定の画像を提供して物体のマッピングを補助することと、に
関する。
FIELD OF THE INVENTION The present invention relates generally to object mapping, and more specifically to creating a three-dimensional model of an object and aligning parts of the object to create an object model. When,
Aligning scanned portions of the object to provide a three-dimensional object, scanning anatomical structures for treatment and diagnosis, and developing and manufacturing medical and dental devices and appliances; Providing a specific image to assist in mapping the object.

【0003】 (発明の背景) 補綴、矯正等の解剖学的装置及び歯列矯正等の器具を作製することができるこ
とは、よく知られている。解剖学的装置を作製する現在の方法は、主観的であり
、それによって、医者は、自分の解剖学的構造物に対する見解、装置が使用され
る場所、及び、医者の経験及び類似状況の記憶等の主観的な基準に基づいて、解
剖学的装置の仕様を定めるかまたは設計する。そのような主観的な基準は、結果
として、医者によって変動が大きくなりうる解剖学的装置が開発されることにな
り、他者が使用することができる知識のデータベースを獲得することを妨げる。 あまり主観的ではない解剖学的装置を開発しようとする試みは、解剖学的構造
物の印象を取ることを含む。解剖学的構造物の雌型表示である印象から、解剖学
的構造物の雄型モデルを作ることができる。しかし、印象、及び印象から作られ
たモデルは、歪み、摩耗、損傷を受けやすく、有効期限が短く、不正確であり、
複数のコピーを作製するのに追加コストがかかり、正確度は容易に検証すること
ができない。したがって、構造物の印象またはモデルが解剖学的構造物の真正な
表示であるか否かは、容易に検証することができない。さらに、印象処理は一般
に、患者には不愉快且つ不便であり、医者へ行かなければならず、時間がかかる
。さらに、複数のモデルが必要である場合、複数の印象を作らなければならない
か、または、単一の印象から複数のモデルを作らなければならないかのいずれか
である。いずれの場合にも、モデルの各々の類似性を保証する信頼のおける利用
可能な標準参照がない。さらに、モデルは依然として1人の医者によって目で見
て判断されなければならないため、結果として主観的処理になる。
BACKGROUND OF THE INVENTION It is well known that anatomical devices such as prostheses, orthodontics and appliances such as orthodontics can be made. Current methods of making anatomical devices are subjective, which allows the doctor to view his or her anatomy, where the device is used, and to remember his experience and similar circumstances. Specify or design the anatomical device based on subjective criteria such as. Such subjective criteria result in the development of anatomical devices, which can be highly variable by physicians, and prevent them from obtaining a database of knowledge that can be used by others. Attempts to develop a less subjective anatomical device include taking an impression of the anatomical structure. A male model of the anatomical structure can be created from the impression of a female representation of the anatomical structure. However, impressions and models made from impressions are vulnerable to distortion, wear and damage, have short expiration dates, are inaccurate,
Making multiple copies is expensive and accuracy cannot be easily verified. Therefore, it is not easy to verify whether the impression or model of the structure is an authentic representation of the anatomical structure. Moreover, impression processing is generally uncomfortable and inconvenient for the patient, has to go to the doctor and is time consuming. Furthermore, if multiple models are required, then either multiple impressions must be made or multiple models must be made from a single impression. In each case, there is no reliable standard reference available that guarantees the similarity of each of the models. Moreover, the model still has to be visually judged by one doctor, resulting in a subjective process.

【0004】 あまり主観的ではない開発をしようとする別の試みは、二次元画像を使用する
ことを含む。しかし、二次元画像を使用することは、公知のように、精密な構造
物情報を提供することはできず、依然として医者によって客観的に解釈されなけ
ればならない。さらに、装置の製造は、依然として客観的な解釈に依存している
Another attempt at less subjective development involves the use of two-dimensional images. However, the use of two-dimensional images, as is known, cannot provide precise structural information and must still be objectively interpreted by the physician. Moreover, device manufacturing still relies on an objective interpretation.

【0005】 印象が医者のもとから製造施設へ輸送されるときには、人工装具装置を設計す
るのに使用されている三次元モデルが製造施設のみで利用可能であるため、製造
されているモデルまたは装置に属する問題に関する医者と技術者との間の通信は
妨げられる。複数のモデルが存在するときでさえ、それらは物理的に別個の物体
であり、複数のモデルを互いに参照するインタラクティブな方法がないため、同
一の視点から同時に見ることはできない。
When the impression is transported from the doctor to the manufacturing facility, the model being manufactured or the three-dimensional model used to design the prosthetic device is available only at the manufacturing facility. Communication between the doctor and the technician regarding problems with the device is prevented. Even when multiple models exist, they are physically distinct objects and cannot be viewed simultaneously from the same perspective, because there is no interactive way to reference the models to each other.

【0006】 鋳型及び印象に加えて、歯科医及び歯列矯正医等の医者によって維持される他
の種類の記録は、失われやすいかまたは損傷を受けやすく、複製を作るのは高価
である。したがって、これらの不利点を克服する方法またはシステムが有用であ
る。
In addition to molds and impressions, other types of records maintained by doctors such as dentists and orthodontists are prone to loss or damage and are expensive to make duplicates. Therefore, a method or system that overcomes these disadvantages would be useful.

【0007】 物体の表面をマッピングするために走査技術を使用することは、よく知られて
いる。先行技術の図1は、可視表面101から104を有する物体100を例示
する。一般に、可視表面101から103は、矩形形状を形成し、略平坦な表面
104の頂部にある。
The use of scanning techniques to map the surface of an object is well known. Prior art FIG. 1 illustrates an object 100 having visible surfaces 101-104. In general, the visible surfaces 101-103 form a rectangular shape and are on top of the substantially flat surface 104.

【0008】 画像が物体100に投影され、これは線110を含む。操作において、線11
0の画像は、カメラ(図示せず)等の観察装置によって受け取られ、線110が
ある物体100のその部分の形状を決定するために処理される。線110を物体
100にわたって動かすことによって、物体100全体をマッピングすることが
可能である。単一の線110を備える画像を使用することに関連する限界は、正
確なマップを提供するために物体100を走査するには多大な時間が必要であり
、スキャナまたは物体のいずれかに固定参照点が必要であるということである。
An image is projected on the object 100, which includes lines 110. In operation, line 11
The zero image is received by a viewing device such as a camera (not shown) and processed to determine the shape of that portion of the object 100 where the line 110 is. By moving the line 110 across the object 100, it is possible to map the entire object 100. The limitations associated with using an image with a single line 110 require a significant amount of time to scan the object 100 to provide an accurate map, fixed reference to either the scanner or the object. The point is that it is necessary.

【0009】 図2は、物体を走査するのにかかる時間の量を減少する先行技術の解法を例示
する。具体的には、図2は、線121から125を含む画像を例示する。複数の
線を提供することによって、一度により大きな表面区域を走査することが可能で
あり、そのため、物体100に関連するデータのより効率的な処理が可能になる
。図2に例示されるようなパターンを使用する限界は、固定参照点が必要である
こと、及び、画像の不連続部分の重なり合いによるデータの不適切な処理の可能
性があるため、マッピングされることが可能である表面解像度を減少する可能性
があることである。
FIG. 2 illustrates a prior art solution that reduces the amount of time it takes to scan an object. Specifically, FIG. 2 illustrates an image that includes lines 121-125. By providing multiple lines, it is possible to scan a larger surface area at one time, which allows for more efficient processing of data associated with object 100. The limitations of using a pattern such as that illustrated in FIG. 2 are mapped because of the need for fixed reference points and the potential for improper processing of data due to overlapping discontinuities in the image. It is possible to reduce the surface resolution.

【0010】 重なり合いの概念を良好に理解するために、走査処理を理解することが有用で
ある。先行技術の図3は、表面102のみが見えるように側面から図1及び2の
形状を例示する。検討のために、投影装置(図示せず)が、図3の表面102の
頂縁を形成する表面101に垂直な方向にパターンを投影する。投影レンズの中
心から表面への点は、投影軸、投影レンズの回転軸または投影レンズの中心線と
称される。同様に、観察装置(図示せず)の中心点からの想像線は、視軸、観察
装置の回転軸または観察装置の中心線と称され、観察装置が配向される方向に拡
張する。
To better understand the concept of overlap, it is useful to understand the scanning process. Prior art FIG. 3 illustrates the shape of FIGS. 1 and 2 from the side so that only surface 102 is visible. For consideration, a projection device (not shown) projects the pattern in a direction perpendicular to surface 101 forming the top edge of surface 102 of FIG. The point from the center of the projection lens to the surface is called the projection axis, the axis of rotation of the projection lens or the centerline of the projection lens. Similarly, the imaginary line from the center point of the viewing device (not shown) is referred to as the visual axis, the axis of rotation of the viewing device or the center line of the viewing device and extends in the direction in which the viewing device is oriented.

【0011】 投影軸と視軸との互いに対する物理的関係は、ほぼ知られている。図3の特定
の例示において、投影軸及び視軸は共通平面にある。プロジェクタと観察装置と
の間の関係が知られるように、投影システムと観察システムとの間の関係が物理
的にキャリブレートされる。「参照の点」という用語は、たとえば読み手等の第
三者が画像を見る、参照を説明することに注意されたい。たとえば、図2では、
参照の点は、表面101、102及び103によって形成される点の上及び側部
にある。
The physical relationship between the projection axis and the visual axis with respect to each other is generally known. In the particular illustration of FIG. 3, the projection axis and the viewing axis are in a common plane. The relationship between the projection system and the viewing system is physically calibrated so that the relationship between the projector and the viewing device is known. Note that the term "point of reference" describes a reference by which a third party, such as a reader, sees an image. For example, in FIG.
The points of reference are above and to the sides of the points formed by the surfaces 101, 102 and 103.

【0012】 図4は、参照の点が投影角度に等しいところに投影された図2の画像を備えた
物体100を例示する。参照の点が投影角度に等しいときには、投影された画像
に途切れは見えない。言い換えると、線121から125は、物体100上で直
線に見える。しかし、参照の点が投影角度に等しい場合には、線に歪みが見えな
いため、物体をマッピングするのに有用なデータは得られない。
FIG. 4 illustrates an object 100 with the image of FIG. 2 projected at a point of reference equal to the projection angle. When the reference point is equal to the projection angle, no discontinuity is visible in the projected image. In other words, lines 121-125 appear straight on object 100. However, if the point of reference is equal to the projection angle, no distortion is visible in the line and no useful data is obtained for mapping the object.

【0013】 図5は、図2の視角フリートに等しい参照の点からの物体100を例示する。
図5において、表面104、103及び101は見えるが、これは、視軸が表面
101及び103によって形成される線に実質的に垂直であり、表面102によ
って形成された平面の右側にあるからであり、したがってこれは図5では例示さ
れない。図2参照のこと。画像が見られているかまたは観察装置によって受け取
られている角度のため、線121及び122は、単一の連続した直線に見える。
同様に、線の対122及び123、及び、123及び124は、単一の連続であ
る印象を与えるように一致している。線125は単一の水平な表面高さに投影さ
れるため、表面104、線125は連続した単一の線である。
FIG. 5 illustrates the object 100 from a point of reference equal to the viewing angle fleet of FIG.
In FIG. 5, surfaces 104, 103 and 101 are visible because the visual axis is substantially perpendicular to the line formed by surfaces 101 and 103 and is to the right of the plane formed by surface 102. Yes, so this is not illustrated in FIG. See FIG. Due to the angle at which the image is viewed or received by the viewing device, lines 121 and 122 appear as a single continuous straight line.
Similarly, line pairs 122 and 123 and 123 and 124 are matched to give the impression of being a single continuum. Since line 125 is projected to a single horizontal surface height, surface 104, line 125 is a single continuous line.

【0014】 図5のパターンが処理装置によって受け取られ、マッピング機能を実施すると
きには、線の対121及び122、122及び123、及び、123及び124
は、単一の線であると誤って解釈される。結果として、図2に例示された二段の
物体は、実際に単一の水平な表面としてマッピングされることがあるか、または
、そうでなければ、処理ステップが線の対の間を区別することができないため、
不正確に表示される。
When the pattern of FIG. 5 is received by the processor and implements the mapping function, line pairs 121 and 122, 122 and 123, and 123 and 124.
Is misinterpreted as a single line. As a result, the two-tiered object illustrated in FIG. 2 may actually be mapped as a single horizontal surface, or otherwise the processing step distinguishes between pairs of lines. Because I can't
Displayed incorrectly.

【0015】 図6は、図5に記載された問題を克服する先行技術の解法を例示する。具体的
には、図6は、それに投影された画像を有する形状100を例示し、それによっ
て、異なる線の幅または厚さを有する複数の線が使用される。図7は、図5と同
一の参照の点から図6のパターンを例示する。
FIG. 6 illustrates a prior art solution that overcomes the problem described in FIG. Specifically, FIG. 6 illustrates a shape 100 having an image projected thereon, whereby multiple lines having different line widths or thicknesses are used. FIG. 7 illustrates the pattern of FIG. 6 from the same point of reference as FIG.

【0016】 図7に例示されるように、受け取られたデータを分析する処理要素が、先には
区別不可能であった線の対の間を区別することができる。図7を参照すると、線
421は依然として線422と一直線であり、連続した線に見えるものを形成す
る。しかし、線421及び線425は異なる厚さを有するため、今や、画像を分
析することによって特定の線セグメントの正確な識別を決定することが可能であ
る。言い換えると、受け取られた画像を分析することによって、今や、表面10
4に投影された線422と、表面101に投影された線422とが、実際に共通
の線であることを決定することができる。この情報を使用して、受け取られた画
像を分析することによって、走査されている物体にステップタイプ特徴部が発生
し、結果として線422の2つのセグメントの間で不一致になることを決定する
ことができる。
As illustrated in FIG. 7, a processing element that analyzes the received data can distinguish between previously indistinguishable pairs of lines. Referring to FIG. 7, line 421 is still aligned with line 422, forming what appears to be a continuous line. However, since lines 421 and 425 have different thicknesses, it is now possible to determine the exact identification of a particular line segment by analyzing the image. In other words, by analyzing the received image, the surface 10 is now
It can be determined that the line 422 projected on 4 and the line 422 projected on the surface 101 are in fact a common line. Using this information, it is determined by analyzing the received image that step-type features occur in the object being scanned, resulting in a mismatch between the two segments of line 422. You can

【0017】 図7に例示されるように、変動する線の厚さを使用することによって、線セグ
メントを識別するのを補助する一方、例示された種類の変動する特徴部を有する
物体は、結果として、受け取られた画像の分析中に、依然としてエラーになる可
能性がある。
By using varying line thickness, as illustrated in FIG. 7, while assisting in identifying line segments, an object with varying features of the illustrated type results in As such, it may still be in error while analyzing the received image.

【0018】 図8は、はっきりと変動する特徴部を備えた表面710を有する構造物を側部
の参照の点から例示する。表面710は、図8の参照の点に実質的に垂直である
ように例示される。加えて、物体700は、側部表面713及び715、及び、
頂部表面711及び712を有する。図8の参照の点から、実際の表面711、
712、713及び715は見えず、その縁のみが表されている。表面711は
、比較的急な傾斜の表面であり、一方、表面712は比較的なだらかな傾斜の表
面である。
FIG. 8 illustrates a structure having a surface 710 with well-varying features in terms of side references. Surface 710 is illustrated as being substantially perpendicular to the point of reference in FIG. Additionally, the object 700 has side surfaces 713 and 715, and
It has top surfaces 711 and 712. From the point of reference in FIG. 8, the actual surface 711,
712, 713 and 715 are not visible, only their edges are represented. Surface 711 is a relatively steep surface, while surface 712 is a relatively gently sloping surface.

【0019】 さらに図8には、様々な幅を有する3本の投影された線721から723が例
示される。第1の線721は4の幅を有する。第2の投影された線722は1の
幅を有する。第3の投影された線723は8の幅を有する。
Further illustrated in FIG. 8 are three projected lines 721-723 having varying widths. The first line 721 has a width of 4. The second projected line 722 has a width of 1. The third projected line 723 has a width of 8.

【0020】 線721は、4の幅を有し、比較的平らな表面714に投影される。投影軸と
視軸との間の角度のため、平らな表面714で見られる実際の線721の幅は、
およそ2である。線722及び723も比較的平らな表面714に投影されるの
であれば、そのそれぞれの幅は、表面をマッピングする分析ステップ中に厚さを
検出することができるように、721の幅とほぼ同一の割合量だけ変動する。し
かし、線722は傾斜した表面711に投影されるため、視軸に沿った観察装置
からの視点は、線722が2の幅を有するように見えるものである。
Line 721 has a width of 4 and is projected onto a relatively flat surface 714. Due to the angle between the projection axis and the viewing axis, the width of the actual line 721 seen on the flat surface 714 is:
It is about 2. If the lines 722 and 723 are also projected onto the relatively flat surface 714, their respective widths are approximately the same as the width of 721, so that the thickness can be detected during the analysis step of mapping the surface. Fluctuates by the amount of. However, since the line 722 is projected onto the inclined surface 711, the viewpoint from the viewing device along the visual axis is such that the line 722 appears to have a width of 2.

【0021】 表面710の急な角度のため、投影された線722の大部分が表面711のよ
り大きい区域に投影されることができるため、線722は2の幅を有するように
見える。投影された線722が2の幅を有するという認識を与えるのは、見られ
ている表面722の表面より大きい区域である。
Due to the steep angle of the surface 710, most of the projected line 722 can be projected onto a larger area of the surface 711 so that the line 722 appears to have a width of 2. It is the larger area of the surface 722 being viewed that gives the perception that the projected line 722 has a width of 2.

【0022】 線722が表面711によってどのように影響されるかとは反対のやり方で、
線723は表面712によって影響され、実際には8の幅を有する投影された線
723が2の幅を有するという認識を与える。観察装置に対する表面712の角
度によって、投影された線723を有する表面区域が2の幅を有するように見え
るため、これが発生する。この現象の結果がさらに図9に例示される。
In the opposite way how line 722 is affected by surface 711,
Line 723 is affected by surface 712, giving the perception that projected line 723, which actually has a width of 8, has a width of 2. This occurs because the angle of surface 712 with respect to the viewing device causes the surface area with projected line 723 to appear to have a width of 2. The result of this phenomenon is further illustrated in FIG.

【0023】 図9は、視軸の参照の点から図8の形状700を例示する。視軸の参照の点か
ら、線の厚さの間の差を容易に決定することができるように、線721から72
3が表面714に投影される。したがって、表面区域714が分析されるときに
は、線は、見られた画像に基づいて容易に識別可能である。しかし、分析が表面
711及び712を含むときには、幅が同一であるだけではなく、表面711の
線722が表面714の線721と一列に並ぶため、線722が線721として
誤って識別されることがあり得る。同様に、線723は、8の投影された幅を有
するが、見られる幅は2である。したがって、受け取られた画像の分析中に、表
面711及び712上の線721、722及び723の間を区別することは可能
ではない。そのような線を区別することはできないため、結果として表面の誤っ
た分析になる可能性がある。
FIG. 9 illustrates the shape 700 of FIG. 8 in terms of a visual axis reference. From the point of reference of the visual axis, the lines 721 to 72 are so that the difference between the line thicknesses can be easily determined.
3 is projected onto the surface 714. Thus, when the surface area 714 is analyzed, the lines are easily identifiable based on the image seen. However, when the analysis includes surfaces 711 and 712, line 722 is erroneously identified as line 721 because not only are the widths the same, but line 722 on surface 711 is aligned with line 721 on surface 714. Can be. Similarly, line 723 has a projected width of 8 but the width seen is 2. Therefore, it is not possible to distinguish between the lines 721, 722 and 723 on the surfaces 711 and 712 during the analysis of the received image. Since it is not possible to distinguish such lines, it can result in a false analysis of the surface.

【0024】 走査の1つの提案された方法は、外国特許DE19821611.4に開示さ
れたように、黒及び白の三角形及び矩形の列が三角測量の平面に平行に走るパタ
ーンを使用した。列は、デジタル暗号化パターンを含む測定特徴部を使用した。
しかし、走査されている表面がシャドーイング及び/またはアンダーカットを発
生させるときには、パターンの一部が隠されているため、結果としてシーケンス
の中断が生じる可能性がある。さらに、パターンのいずれの部分が失われている
かを知ることは不可能であるため、開示された暗号化パターンは、シーケンスの
中断の結果としてパターンをデコードすることができない可能性が生じるもので
ある。記載されたコード化されたの種類のさらなる限界は、その歪みが、1つの
コード化された特徴部を別のコード化された特徴部に似させる可能性があること
である。たとえば、三角形を矩形のように見えさせることができる。
One proposed method of scanning used a pattern in which black and white triangles and rectangular rows run parallel to the plane of triangulation, as disclosed in foreign patent DE 1982611.4. Rows used measurement features containing digital encryption patterns.
However, when the surface being scanned causes shadowing and / or undercut, some of the pattern is hidden, which can result in sequence interruptions. Moreover, it is not possible to know which part of the pattern is lost, so the disclosed cipher pattern may result in the pattern not being able to be decoded as a result of the interruption of the sequence. . A further limitation of the type of coded described is that its distortion may cause one coded feature to resemble another coded feature. For example, a triangle can look like a rectangle.

【0025】 したがって、物体をマッピングする先行技術に関連した問題を克服することが
できる方法及び装置が有利である。
Accordingly, a method and apparatus that can overcome the problems associated with the prior art of mapping objects is advantageous.

【0026】 (好ましい実施形態の詳細な説明) 本発明の特定の実施形態にしたがって、表面に画像が投影される。画像は、表
面を測定しマッピングするのに使用される複数の個別形状を有するパターンを含
むことができる。複数の個別形状は、投影された形状の投影軸及び視軸に関連し
た点によって形成された平面に平行な方向に検出可能である特徴部を含む。画像
は、複数の形状を個別に識別するためのコード化された情報を含む特徴部をさら
に備える。コード化された特徴部は、投影軸及び視軸の点によって形成された平
面に実質的に直交する方向に変動し、複数の個別形状の各々からの別個の特徴部
であり得、複数の個別形状に一体的な特徴部であり得、且つ/または、複数の個
別形状から異なる時間間隔で表示されることができる。投影軸及び視軸に沿った
点によって形成された平面に実質的に垂直な線に沿ってコード化された情報が検
索されるように、コード化された情報を含む特徴部は配向される。特徴部の使用
は、マルチフレーム参照独立走査を実施するために使用される。特定の実施形態
において、走査されたフレームは互いに対して位置合わせされる。
Detailed Description of the Preferred Embodiments An image is projected onto a surface according to a particular embodiment of the invention. The image can include a pattern having a plurality of discrete features used to measure and map the surface. The plurality of discrete shapes includes features that are detectable in a direction parallel to the plane formed by the points associated with the projection axis and the visual axis of the projected shape. The image further comprises features including coded information for uniquely identifying the plurality of shapes. The coded feature varies in a direction substantially orthogonal to the plane formed by the projection axis and the point of view of the axis, and may be a separate feature from each of the plurality of discrete shapes, the plurality of individual features. It can be an integral feature of the shape and / or can be displayed from different individual shapes at different time intervals. The features containing coded information are oriented such that the coded information is retrieved along a line substantially perpendicular to the plane formed by the points along the projection and viewing axes. The use of features is used to implement a multi-frame reference independent scan. In certain embodiments, the scanned frames are aligned with respect to each other.

【0027】 本発明の特定の実施形態は、添付の図10から24を参照して最良に理解され
る。図10及び11は、本発明の特定の実施形態を実施するシステムを表し、図
12及び19から22は、本発明にしたがった特定の方法を例示し、図13から
18、23、24は、システムと組み合わされた方法の特定の実施を例示する。
Specific embodiments of the present invention are best understood with reference to the accompanying Figures 10 to 24. 10 and 11 represent a system for implementing a particular embodiment of the invention, FIGS. 12 and 19 to 22 illustrate a particular method according to the invention, and FIGS. 13 to 18, 23, 24 3 illustrates a particular implementation of the method combined with the system.

【0028】 図44から52は、解剖学的構造物の三次元走査データを使用する別の本発明
の実施形態の特定の方法及び装置を例示し、ここに例示された特定のやり方で得
ることができる。三次元走査データは、さらなる使用のために遠隔施設に発信さ
れる。たとえば、三次元走査データは、解剖学的構造物の生体組織を表すことが
でき、これを使用して、解剖学的装置を設計するか、解剖学的装置を製造するか
、生体組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定
期間保存するか、解剖学的構造物の閉鎖ループの反復分析を実施するか、構造物
のインタラクティブな相談を行うか、構造物に基づいたシミュレーションを実施
するか、解剖学的構造物に関連した診断を行うか、または、解剖学的構造物に基
づいた治療計画を決定する。
FIGS. 44-52 illustrate certain methods and apparatus of another embodiment of the present invention using three-dimensional scan data of an anatomical structure, obtained in the particular manner illustrated herein. You can The 3D scan data is transmitted to the remote facility for further use. For example, the three-dimensional scan data can represent the anatomy of an anatomical structure and can be used to design an anatomical device, manufacture an anatomical device, or Dynamic changes, save data belonging to anatomical structures for a certain period of time, perform closed loop iterative analysis of anatomical structures, conduct interactive consultation of structures, structure Based simulation, perform anatomical structure related diagnosis, or determine an anatomical structure based treatment plan.

【0029】 図10は、走査装置980へ制御信号を提供するシステム制御装置951を例
示する。走査装置980は、線962及び963によって画像境界を投影し、反
射した線972及び973内の画像を検索するかまたは観察する。
FIG. 10 illustrates a system controller 951 that provides control signals to the scanning device 980. The scanning device 980 projects the image boundaries by lines 962 and 963 and retrieves or views the image within the reflected lines 972 and 973.

【0030】 1つの操作において、システム制御装置951は特定の情報をスキャナ980
へ提供し、物体990の表面991に投影されるべき特定画像を特定する。反射
した画像は、走査装置980によってキャプチャされ、これは今度は、キャプチ
ャされた情報をシステム制御装置951へ戻す。キャプチャされた情報は、シス
テム制御装置951へ自動的に戻されることが可能であるか、または、走査装置
980内に格納されシステム951によって検索されることが可能である。シス
テム制御装置951によって受け取られた画像データは、表面991の形状を決
定するために分析される。受け取られたデータの分析は、システム制御装置95
1によって、または図示されていない外部処理装置によってかのいずれかで実施
されることができることに注意されたい。
In one operation, the system controller 951 sends specific information to the scanner 980.
A specific image to be projected onto the surface 991 of the object 990. The reflected image is captured by the scanning device 980, which in turn returns the captured information to the system controller 951. The captured information can be automatically returned to the system controller 951 or stored within the scanning device 980 and retrieved by the system 951. The image data received by the system controller 951 is analyzed to determine the shape of the surface 991. The analysis of the received data is performed by the system controller 95.
It should be noted that it may be implemented either by means of an external processing unit (not shown) or by an external processing device (not shown).

【0031】 さらに、図10には走査装置980が例示され、これは、投影装置(プロジェ
クタ)960及び観察装置(ビューアー)970を含む。プロジェクタ960は
、画像が物体990に投影されるように配向される。プロジェクタ960は、投
影軸961を有する。投影軸961は、画像を投影するレンズの中心で開始し、
投影の方向を表す。同様に、ビューアー970は、視軸971を有し、これは、
ビューアー970に関連したレンズの中心から拡張し、画像が受け取られている
方向を表す。
Further illustrated in FIG. 10 is a scanning device 980, which includes a projection device (projector) 960 and an observation device (viewer) 970. The projector 960 is oriented so that the image is projected on the object 990. The projector 960 has a projection axis 961. The projection axis 961 starts at the center of the lens that projects the image,
Indicates the projection direction. Similarly, the viewer 970 has a visual axis 971, which
It extends from the center of the lens associated with the viewer 970 and represents the direction in which the image is being received.

【0032】 ひとたび走査装置がキャリブレートされると、受け取られた信号の分析が実施
されて走査された表面をマッピングすることができる。本願の図面に表された角
度は例示目的のみのために表されていることが当業者には理解される。実際の角
度及び距離は、例示されたものから大幅に変動しうる。
Once the scanning device is calibrated, an analysis of the received signal can be performed to map the scanned surface. Those skilled in the art will understand that the angles depicted in the drawings of the present application are depicted for illustrative purposes only. Actual angles and distances may vary significantly from those illustrated.

【0033】 図11は、図10のシステム制御装置951をより詳細に例示する。システム
制御装置951は、データプロセッサ952と投影画像表示953とプロジェク
タ制御装置954とビューアー制御装置955とをさらに含む。
FIG. 11 illustrates the system controller 951 of FIG. 10 in more detail. The system controller 951 further includes a data processor 952, a projected image display 953, a projector controller 954 and a viewer controller 955.

【0034】 ビューアー制御装置955は、反射した画像データを表すビューアー970か
らデータを受け取るのに必要なインターフェースを提供する。反射した画像デー
タは、ビューアー制御装置955でビューアー970から受け取られ、その後、
データプロセッサ952へ提供される。類似のやり方で、プロジェクタ制御装置
954は、プロジェクタ960を制御するのに必要なインターフェースを提供す
る。プロジェクタ制御装置954は、プロジェクタ960に、プロジェクタによ
って支持されたフォーマットに投影された画像を提供する。応答して、プロジェ
クタ960は、物体の表面に画像を投影する。プロジェクタ制御装置954は、
プロジェクタに画像を提供するために、投影画像表示953を受け取るかまたは
これにアクセスする。
Viewer controller 955 provides the interface necessary to receive data from viewer 970, which represents the reflected image data. The reflected image data is received from viewer 970 at viewer controller 955 and then
Provided to the data processor 952. In a similar manner, the projector controller 954 provides the interface needed to control the projector 960. The projector controller 954 provides the projector 960 with an image projected in a format supported by the projector. In response, projector 960 projects an image on the surface of the object. The projector control device 954 is
Receives or accesses a projected image display 953 to provide an image to the projector.

【0035】 例示された実施形態において、投影画像表示953は、メモリ場所に格納され
た画像の電子表示である。格納された画像は、ビットマップされた画像、または
、プロジェクタ960によって投影された画像を規定するのに使用される他の標
準またはカスタムプロトコルを、表すことができる。投影画像がデジタル画像(
電子的に作製される)である場合には、表示は、データプロセッサ952によっ
てメモリに格納されることができ、それによってデータプロセッサ952は、投
影画像表示を修正することができ、本発明にしたがって必要に応じて画像を変え
ることが可能である。
In the illustrated embodiment, the projected image representation 953 is an electronic representation of the image stored in the memory location. The stored image may represent a bitmapped image or other standard or custom protocol used to define the image projected by projector 960. The projected image is a digital image (
Electronically produced), the display can be stored in memory by the data processor 952, which allows the data processor 952 to modify the projected image display, in accordance with the present invention. The image can be changed as needed.

【0036】 別の実施形態において、投影画像表示953は存在する必要がない。代わりに
、投影制御装置954が、プロジェクタ960に関連した1つまたはそれ以上の
透明画(図示せず)を選択することができる。そのような透明画は、フィルム、
プレートまたは画像を投影する他の種類のレチクル装置のいずれの組み合わせを
含むことができる。
In another embodiment, the projected image display 953 need not be present. Alternatively, projection controller 954 may select one or more transparency (not shown) associated with projector 960. Such transparency is a film,
It can include any combination of plates or other types of reticle devices that project images.

【0037】 データプロセッサ952は、制御装置954及び955を通してそれぞれデー
タの投影及び受取を制御する。
Data processor 952 controls the projection and reception of data through controllers 954 and 955, respectively.

【0038】 図12は、図10及び添付の図面のシステムを参照して検討される本発明にし
たがった方法を例示する。本願で検討される方法を良好に理解するために、本発
明に独自の用語及び特性が記載される。「投影/観察平面」という用語は、投影
軸及び視軸の少なくとも1つの点によって形成される平面を意味する。投影/観
察平面という用語は、図3を参照して最良に理解される。図3が物体100の断
面を表すと想定する。例示された投影軸は、図3を含む用紙によって形成される
平面内に全体が入るように、方向づけられる。同様に、図3の視軸も、図3の用
紙によって表される平面内に全体が入っている。この実施例において、図3の投
影軸及び図3の視軸の少なくとも1つの点によって形成された投影/観察平面は
、図が引かれている用紙を含む。
FIG. 12 illustrates a method in accordance with the present invention that is discussed with reference to the system of FIG. 10 and the accompanying drawings. For a better understanding of the methods discussed herein, the terminology and characteristics unique to the present invention are described. The term "projection / viewing plane" means the plane formed by at least one point of the projection axis and the viewing axis. The term projection / viewing plane is best understood with reference to FIG. Assume that FIG. 3 represents a cross section of object 100. The illustrated projection axis is oriented such that it lies entirely within the plane formed by the paper containing FIG. Similarly, the visual axis of FIG. 3 is entirely within the plane represented by the sheet of FIG. In this example, the projection / viewing plane formed by at least one point of the projection axis of FIG. 3 and the viewing axis of FIG.

【0039】 しかし、図3の視軸が実際に、観察装置に近い終点が用紙の平面上にあるよう
に配向される場合、視軸表示の矢印の端が、用紙から読者へ向かっている間には
、視軸及び投影軸全体を含む平面を形成することは可能ではない。したがって、
投影/観察平面は、投影軸の実質的にすべて及び視軸の少なくとも1つの点、ま
たは、視軸のすべて及び投影軸の少なくとも1つの点、を含むと記載することが
できる。本願での検討目的には、観察装置にもっとも近い視軸の点がその投影/
観察平面内に含まれるべき点であることが想定される。たとえば、先行技術の図
4を参照すると、図3を参照して記載された投影/観察平面は、表面104に実
質的に直交し、線121から125の各々に直交する。投影/観察平面は線99
によって表され、これは、線121から125に交差する縁図からの平面を表す
However, if the visual axis of FIG. 3 is actually oriented such that the end point close to the viewing device is on the plane of the paper, then the end of the arrow on the visual axis indication may be while the paper is facing the reader. It is not possible to form a plane that includes the entire visual axis and projection axis. Therefore,
The projection / viewing plane can be described as including substantially all of the projection axis and at least one point of the visual axis, or all of the visual axis and at least one point of the projection axis. For the purposes of this study, the point on the visual axis closest to the observation device is the projection /
It is assumed that it is a point that should be included in the observation plane. For example, referring to prior art FIG. 4, the projection / viewing plane described with reference to FIG. 3 is substantially orthogonal to surface 104 and orthogonal to each of lines 121-125. The projection / view plane is line 99
Represented by the plane from the edge view that intersects lines 121-125.

【0040】 図12のステップ611では、投影/観察平面に直交して変動する単数または
複数の構成要素を備えたコード化された(変数)特徴部を有する画像が投影され
る。図13に対して、投影/観察平面は線936によって例示され、投影/観察
平面の配向が、そのような平面が線であるとして表れるように縁上にあり、形状
またはパターン931から935の各々が、コード化された特徴部を表すのを示
している。
In step 611 of FIG. 12, an image having a coded (variable) feature with one or more components varying orthogonal to the projection / viewing plane is projected. For FIG. 13, the projection / viewing plane is illustrated by line 936, the orientation of the projection / viewing plane is on the edge so that such plane appears as a line, and each of the shapes or patterns 931 to 935. , Which represent the encoded features.

【0041】 個別の特徴部931から935の各々は、投影/観察平面に対して直交する方
向に変動する単数または複数の構成要素を有する。たとえば、特徴部933は、
3本の個別の線を識別することができるように、投影平面に直交して変動する。
3本の個別の線の厚さを変えることによって、独特なパターンが特徴部931か
ら935の各々に関連する。たとえば、バーコード特徴部933は、線なし、薄
い線、線なし、厚い線、線なし、薄い線及び線なしの間を直交して変動する。特
徴部933の個別の線は、投影/観察平面に平行に投影される。投影/観察平面
に平行な投影線は、線の幅に表面位相の観察された歪み効果を減少するかまたは
排除する。したがって、特徴部933を作る個別の線の観察された幅は、実質的
には歪まないため、特徴部933の各個別の線の厚さまたは相対厚さは、表面位
相とは無関係に容易に識別することができる。結果として、特徴部933は、表
面位相とは実質的に無関係に識別することができる。
Each of the individual features 931 to 935 has one or more components that vary in a direction orthogonal to the projection / viewing plane. For example, the feature part 933 is
It varies perpendicular to the projection plane so that three individual lines can be identified.
A unique pattern is associated with each of the features 931 to 935 by varying the thickness of the three individual lines. For example, the barcode feature 933 varies orthogonally between no line, thin line, no line, thick line, no line, thin line and no line. The individual lines of feature 933 are projected parallel to the projection / viewing plane. A projection line parallel to the projection / viewing plane reduces or eliminates the observed distortion effect of surface phase on the width of the line. Therefore, the observed width of the individual lines that make up the feature 933 is substantially undistorted, so that the thickness or relative thickness of each individual line of the feature 933 can be readily independent of the surface phase. Can be identified. As a result, the features 933 can be identified substantially independent of the surface phase.

【0042】 図13は、5本の別個の線(測定特徴部)431から435を有する画像の特
定の実施形態を表示する。例示された線431から435は、投影/観察平面に
実質的に直交して走る長さを有し、投影/観察平面に平行な方向に互いから均一
に間隔をおいている。投影/観察平面に平行な方向に検出可能な複数の線を提供
することによって、複数の測定線を同時に観察して分析することができる。1つ
の実施形態において、線431から435である。線431から435に加えて
、5つの独特なバーコード931から935も例示されている。独特なバーコー
ド(可変特徴部)931から935の各々は、それぞれの測定特徴部431から
435に関連し、これに沿って繰り返される。別の実施において、各バーコード
は、例示された2回を超えて、測定特徴部に沿って繰り返すことができる。例示
されたバーコードは、繰り返しセットとして例示されていることに注意されたい
。別の実施において、バーコードは、セットでグループ化される必要はない。
FIG. 13 displays a particular embodiment of an image having five distinct lines (measurement features) 431-435. The illustrated lines 431 to 435 have a length that runs substantially orthogonal to the projection / viewing plane and are evenly spaced from one another in a direction parallel to the projection / viewing plane. By providing multiple detectable lines in a direction parallel to the projection / viewing plane, multiple measurement lines can be observed and analyzed simultaneously. In one embodiment, lines 431-435. In addition to lines 431-435, five unique barcodes 931-935 are also illustrated. Each unique barcode (variable feature) 931 to 935 is associated with and is repeated along with a respective measurement feature 431 to 435. In another implementation, each barcode can be repeated along the measurement feature more than the two times illustrated. Note that the illustrated barcode is illustrated as a repeating set. In another implementation, barcodes need not be grouped in sets.

【0043】 特定の実施形態において、線431から435及びバーコード931から93
5は、パターンが目で見て耐えられ且つ皮膚耐性があるように、低強度の可視光
を使用して作製される。たとえば、線431から435は白線として見ることが
でき、バーコード931から935は特定の色または色の組み合わせとして見る
ことができる。別の実施形態において、用途によっては、高強度またはレーザ光
も使用することができる。
In certain embodiments, lines 431-435 and barcodes 931-93
5 is made using low intensity visible light so that the pattern is visually endurable and skin resistant. For example, lines 431-435 can be seen as white lines and barcodes 931-935 can be seen as a particular color or combination of colors. In another embodiment, high intensity or laser light may also be used, depending on the application.

【0044】 例示したやり方でバーコードを特定の線に関連させることによって、線が直線
的に一致しているように見えるときでさえ線を互いから区別することが可能であ
る。たとえば、線432と433とは、物体101の縁で連続した線であるよう
に見える。しかし、線432と433とは、各線に関連する(コード化された特
徴部)バーコードを分析することによって、互いから区別することができる。言
い換えると、線432と433とが見る人にとって共通線であると見える場合に
は、左側の線432に関連するバーコードは右側の線433に関連するバーコー
ドとは同一ではないため、2つの異なる線であることを容易に決定することがで
きる。
By associating a barcode with a particular line in the manner illustrated, it is possible to distinguish the lines from each other even when the lines appear to be in straight line correspondence. For example, lines 432 and 433 appear to be continuous lines at the edge of object 101. However, the lines 432 and 433 can be distinguished from each other by analyzing the (coded feature) barcode associated with each line. In other words, if lines 432 and 433 appear to be common to the viewer, the bar code associated with line 432 on the left is not the same as the bar code associated with line 433 on the right, and the two It can be easily determined that the lines are different.

【0045】 図13に例示された特定の実施形態において、検索された画像を分析すること
によって、線セグメント432と433との共通の線として表させる一番左側の
バーコード932と一番右側のバーコード933との間のいずれかに、不連続が
あることを決定する。特定の実施形態において、そのような縁の場所は、互いに
対して比較的近位にバーコードパターンを繰り返すことによって、より精密に決
定することができる。たとえば、表面102が表面101に出会う縁は、隣接す
るバーコードの間の間隔開けに等しい正確度でのみ決定することができる。これ
は、2つの異なるバーコードを有する単一の線に見えるものを分析するときに、
2つのバーコードの間のどこで不連続が発生したかは知られていないからである
。したがって、図13の測定線に沿ってより頻繁にバーコードを繰り返すことに
よって、不連続の場所をより正確に識別することができる。
In the particular embodiment illustrated in FIG. 13, by analyzing the retrieved image, the leftmost bar code 932 and the rightmost bar code 932 represented as a common line for line segments 432 and 433. It is determined that there is a discontinuity anywhere with the barcode 933. In certain embodiments, the location of such edges can be more precisely determined by repeating the barcode pattern relatively proximal to each other. For example, the edge where surface 102 meets surface 101 can only be determined with an accuracy equal to the spacing between adjacent barcodes. This is when analyzing what looks like a single line with two different barcodes,
It is not known where the discontinuity occurred between the two barcodes. Therefore, by repeating the bar code more frequently along the measurement line of FIG. 13, the location of the discontinuity can be more accurately identified.

【0046】 図13のコード化された特徴部931から935は、2つのバーコードが同一
ではないため、繰り返しはない。しかし、コード化されたの値またはシーケンス
は、曖昧さが回避される限り、投影された画像内で繰り返すことができる。たと
えば、画像が、バイナリコード化されたを使用する60本の線(測定特徴部)を
含む場合には、各線を独自に識別するために6ビットのデータが必要である。し
かし、スキャナの焦点の範囲がフィールドの深さによって限定されるという事実
のため、60本の線の各個別の線は、一定の範囲内のみで認識可能な画像として
現れることができる。
The coded features 931 to 935 of FIG. 13 do not repeat because the two barcodes are not the same. However, the coded values or sequences can be repeated in the projected image as long as ambiguity is avoided. For example, if the image contains 60 lines (measurement features) using binary coded, 6 bits of data are required to uniquely identify each line. However, due to the fact that the range of focus of the scanner is limited by the depth of field, each individual line of the 60 lines can appear as a recognizable image only within a certain range.

【0047】 図25及び26は、フィールドの深さが特徴部の繰り返しにどのように影響を
与えるかを良好に例示する。図25は、経路2540に沿って形状を投影するプ
ロジェクタを例示する。形状が表面に投影されるとき、その画像は反射経路に沿
って観察装置2506に反射する。たとえば、形状が場所2531で表面から反
射するときに結果として反射経路2544が得られ、形状が場所2532で表面
から反射するときに結果として反射経路2541が得られ、形状が場所2533
で表面から反射するときに結果として反射経路2542が得られ、形状が場所2
534で表面から反射するときに結果として反射経路2543が得られる。
FIGS. 25 and 26 better illustrate how the depth of field affects feature repetition. FIG. 25 illustrates a projector that projects a shape along a path 2540. When the shape is projected on the surface, the image reflects to the viewing device 2506 along the reflection path. For example, when the shape reflects from the surface at location 2531, the resulting reflection path 2544 results, when the shape reflects from the surface at location 2532, the resulting reflection path 2541, and the shape results at location 2533.
The result is a reflection path 2542 when reflected from a surface at
Reflection path 2543 results when reflected from the surface at 534.

【0048】 図26は、ビューアー2506が見せる形状を表す。具体的には、プロジェク
にもっとも近い表面である表面2531から反射した画像は、図26の一番右側
の画像に見られ、プロジェクからもっとも離れた表面である表面2534から反
射した画像は、図26の一番左側の画像に見られる。しかし、一番右側及び一番
左側の画像は、それぞれプロジェク2505からもっとも離れたもの及びこれに
もっとも近いものであり、焦点がずれていることに注意しなければならない。焦
点がずれているため、観察装置2506によって受け取られた画像に基づいて正
確に検出することはできない。
FIG. 26 shows a shape that the viewer 2506 shows. Specifically, the image reflected from the surface 2531, which is the surface closest to the project, is seen in the rightmost image in FIG. 26, and the image reflected from the surface 2534, the surface furthest from the project, is shown in FIG. Seen in the far left image of. However, it should be noted that the rightmost and leftmost images are farthest from and closest to the project 2505, respectively, and are out of focus. Due to the defocus, it cannot be accurately detected based on the image received by the viewing device 2506.

【0049】 図25に戻って参照すると、平面2525よりも投影装置2505に近いいず
れの表面、または、平面2526よりも投影装置2505から離れたいずれの表
面は、見ることができる範囲2610外または視野外であるため、使用可能な形
状を反射することができない。したがって、繰り返される形状が図6の範囲26
10内で見ることができない限り、形状は繰り返されて依然として独特に識別す
ることができる。
Referring back to FIG. 25, any surface closer to the projection device 2505 than the plane 2525 or further away from the projection device 2505 than the plane 2526 is outside the visible range 2610 or in the field of view. Since it is outside, it cannot reflect a usable shape. Therefore, the repeated shape is the range 26 in FIG.
Unless visible in 10, the shape can be repeated and still be uniquely identified.

【0050】 特定の実施形態において、プロジェクタはおよそ80本の線を投影する。たと
えば、3色を使用するときには(赤、青、緑)、3色の場所を有するコード化さ
れた特徴部が、27本の異なる線を独特に識別する。同一のコード化された線が
同一の場所に見ることができないように視野が提供されると、27本のこのコー
ディングシーケンスは、全80本の線をカバーするために3回繰り返すことがで
きる。別の実施形態において、特定の色の場所が失われる可能性のある認識能力
を提供するために、シーケンスの線の数を増やすかまたは増やさずに、5つの色
の場所を加えることができる。
In a particular embodiment, the projector projects approximately 80 lines. For example, when using 3 colors (red, blue, green), a coded feature with 3 color locations uniquely identifies 27 different lines. Given the field of view such that the same coded line cannot be seen at the same location, this 27 coding sequence can be repeated 3 times to cover all 80 lines. In another embodiment, five color locations can be added, with or without increasing the number of lines in the sequence, to provide cognitive ability where a particular color location can be lost.

【0051】 これは、繰り返し特徴部の各々を見ることができない視野が重なり合わない限
り、コーディング特徴部は繰り返されてもよいことを意味する。したがって、1
2の独特なコード化された特徴部のシーケンスは、バイナリデータの4ビットの
みを必要とし、特徴部が同一の場所で見られる機会がないのであれば、60本の
線すべてをエンコードするために5回繰り返すことができる。
This means that the coding features may be repeated as long as the fields of view that cannot see each of the repeating features overlap. Therefore, 1
A sequence of two unique coded features requires only 4 bits of binary data to encode all 60 lines unless the feature has the opportunity to be seen in the same place. It can be repeated 5 times.

【0052】 関連コーディング特徴部を備えた多数の測定特徴部を有するパターンを提供す
ることによって、参照独立走査が達成される。具体的には、物体もスキャナも空
間に固定される必要はなく、または、互いに対して参照する必要はない。代わり
に、フレーム1つずつのベースで、参照独立スキャナが、十分な測定情報(3D
クラウド)を検索し、これはコーディング特徴部のため正確であり、その隣接す
るフレームに対して位置合わせすることができる。位置合わせは、隣接するフレ
ーム上の重なり合う特徴部を決定し、物体の統合マップを形成する処理である。
A reference independent scan is achieved by providing a pattern with multiple measurement features with associated coding features. In particular, neither the object nor the scanner need be fixed in space or referenced to each other. Instead, on a frame-by-frame basis, a reference-independent scanner provides sufficient measurement information (3D
Cloud), which is accurate due to the coding features and can be aligned to its adjacent frames. Alignment is the process of determining overlapping features on adjacent frames and forming an integrated map of the object.

【0053】 図14は、図13の物体を例示し、それによって測定線431から435が変
動する厚さを有する。しかし、線431から435の厚さは、歪みを受ける。そ
れによって、その厚さにのみ基づいて個別の線431から435を識別すること
は、誤りになりやすい。これは、図15を参照してより良好に例示される。
FIG. 14 illustrates the object of FIG. 13, whereby the measurement lines 431-435 have varying thicknesses. However, the thickness of lines 431-435 is subject to strain. Thereby, identifying the individual lines 431-435 based solely on their thickness is error prone. This is better illustrated with reference to FIG.

【0054】 図15は、本発明にしたがってその表面に投影されたパターンを有する図8及
び9の物体700を例示する。図15は、変動する幅を有する線721から72
3の投影を例示する。先に検討したように、線722及び723は、それぞれ表
面711及び712に投影されるときには、線721と同一の線厚さを有するよ
うに見える。したがって、単に変動する厚さの線を測定するだけでは、画像の分
析によってどちらの線がどちらであるかを決定することができない。しかし、投
影/観察平面に直交して変動する構成要素を有するように、コード化された特徴
部451から453をさらに組み込むことによって、線721から723の識別
及びそれに続くマッピング分析は、先行技術に対して改良される。
FIG. 15 illustrates the object 700 of FIGS. 8 and 9 having a pattern projected on its surface in accordance with the present invention. FIG. 15 shows lines 721 to 72 having varying widths.
3 illustrates a projection of 3. As discussed above, lines 722 and 723 appear to have the same line thickness as line 721 when projected onto surfaces 711 and 712, respectively. Therefore, by simply measuring lines of varying thickness, it is not possible to determine which line is which by analysis of the image. However, by further incorporating the coded features 451-453 to have components that vary orthogonally to the projection / viewing plane, the identification of lines 721-723 and the subsequent mapping analysis is prior art. Will be improved.

【0055】 コード化された特徴部が投影/観察平面に垂直な部分を有するように投影され
る例示された特定の実施は、受け取られた画像を分析することによってパターン
に関連した特定の線をより正確に識別することができるため、先行技術に対して
有利であることを当業者は認識する。ここに記載された特定の実施が、線及びバ
ーコードを参照して記載されていることを当業者はさらに認識し理解する。しか
し、他のパターン、形状及び特徴部も使用することができる。
The particular implementation illustrated, in which the coded features are projected to have a portion perpendicular to the projection / viewing plane, identifies particular lines associated with the pattern by analyzing the received image. One of ordinary skill in the art will recognize that it is advantageous over the prior art because it can be more accurately identified. Those skilled in the art will further appreciate and appreciate that the particular implementations described herein have been described with reference to lines and bar codes. However, other patterns, shapes and features can be used.

【0056】 図16を参照すると、投影/観察平面に直交した方向に使用される形状の特定
のセットが例示される表が例示される。表16の欄1は、独特な特徴識別子を表
す。表16の欄2から4は、各特徴識別子を表すことができる特定なやり方を例
示する。欄2は、バーコードを示す。欄3は、単独でまたは他のコード化された
特徴部とともに使用されることが可能な色を示す。色特徴部を含むいくつかの種
類のコード化された特徴部は、測定特徴部の一体化部分として且つ測定特徴部と
は別個のコード化された特徴部として実施することができることに注意されたい
。同様に、他の種類のコード化されたが、測定及び/または特徴部且つそのコー
ド化された特徴部が投影される強度に基づくことができる。欄4は、形状を識別
する形状とは無関係に、または、形状の一部として組み合わされて、使用するこ
とができるパターンを表す。言い換えると、欄4に例示された種類の繰り返しパ
ターンシーケンスを含む線を提供することができる。このようにして、投影/観
察平面に直交する方向におけるパターンの変化は、実際の形状自体に対して相対
的であり得る。加えて、可変構成要素に関する多くの変化が本発明によって予想
されることが、当業者には認識される。
Referring to FIG. 16, illustrated is a table that illustrates a particular set of shapes used in a direction orthogonal to the projection / viewing plane. Column 1 of Table 16 represents the unique feature identifier. Columns 2-4 of Table 16 illustrate the particular way each feature identifier can be represented. Column 2 shows the bar code. Column 3 shows the colors that can be used alone or with other coded features. It should be noted that some types of coded features, including color features, can be implemented as an integral part of the measurement feature and as a coded feature separate from the measurement feature. . Similarly, other types of coded, but also measurement and / or features and the intensities at which the coded features are projected can be based. Column 4 represents a pattern that can be used independently of the shape that identifies the shape, or combined as part of the shape. In other words, it is possible to provide a line containing a repeating pattern sequence of the type illustrated in column 4. In this way, the change in pattern in the direction orthogonal to the projection / viewing plane can be relative to the actual shape itself. In addition, those skilled in the art will recognize that many variations on variable components are envisioned by the present invention.

【0057】 図17は、管状フォームに、各線用の独特な非繰り返し識別子の使用を例示す
る。たとえば、図17の最初の列を参照すると、シーケンス0からFが順次に呈
される。1つの実施において、0からFまでの値の各々は、特定の線に関連した
独特のコードを表す。特定のコードを識別するために、ある種類のスペーサーが
各個別のコードの間に存在する必要があることが、当業者に認識される。たとえ
ば、長いスペースまたは独特なコードを使用することができる。
FIG. 17 illustrates the use of a unique non-repeating identifier for each line on a tubular foam. For example, referring to the first column of FIG. 17, sequences 0 through F are presented sequentially. In one implementation, each value from 0 to F represents a unique code associated with a particular line. It will be appreciated by those skilled in the art that certain types of spacers need to be present between each individual code to identify the particular code. For example, long spaces or unique codes can be used.

【0058】 図17に例示されたシーケンスの1つを各々が備えた4本の線を投影し分析す
るために使用されるシステムにおいて、ひとたび3つのコードのシーケンスが検
索されていると、4本の線のどの1本が分析されているかを識別することが可能
である。一般に、コードは投影/観察平面に直交して変動するため、失われたコ
ードは、誤認の問題を引き起こさない。
In a system used to project and analyze four lines, each with one of the sequences illustrated in FIG. 17, once a sequence of three codes has been retrieved, four It is possible to identify which one of the lines of is being analyzed. In general, the lost code does not cause a misidentification problem, as the code varies orthogonal to the projection / viewing plane.

【0059】 図18は、4本の独特な繰り返しコードシーケンスを例示する。表18の文字
Sは、繰り返しシーケンスの間に使用されるスペーサーを表すのに使用される。
スペーサーは、コード化されたシーケンスの繰り返しコードの各々がどこで開始
し且つ/または終了するかを特定する独特な識別子であってもよい。
FIG. 18 illustrates four unique repeating code sequences. The letter S in Table 18 is used to represent the spacer used during the repeating sequence.
The spacer may be a unique identifier that identifies where each of the repeated codes in the encoded sequence begins and / or ends.

【0060】 図12のフローに戻ると、ひとたび投影/観察平面に直交するコード化された
特徴部を有する画像が投影されると、表面画像の表示がビューアーで受け取られ
る。これは、図10の検討に類似し、それによってビューアー970は反射した
画像を受け取る。次に、ステップ613で、物体に関連する点の場所が、直交し
て変動する特徴部に基づいて決定される。本発明の特定な実施形態において、形
状の各1つ、たとえば線は、物体分析に使用される前に独特なコードパターンに
定量化されるため、点は可変構成要素に基づいている。
Returning to the flow of FIG. 12, once the image with the coded features orthogonal to the projection / viewing plane is projected, the display of the surface image is received at the viewer. This is similar to the discussion of Figure 10, whereby the viewer 970 receives the reflected image. Next, in step 613, the location of the points associated with the object is determined based on the orthogonally varying features. In a particular embodiment of the invention, each one of the shapes, eg lines, is quantified into a unique code pattern before being used for object analysis, so the points are based on variable components.

【0061】 図19は、図12のステップ611に関連するサブステップを例示する。ステ
ップ621では、第1の画像が投影され、一方、ステップ622では第2の特徴
部が投影される。図14を参照すると、第1の画像は、測定線431とその関連
コード化された特徴部931との組み合わせに類似することが可能である。類似
のやり方で、第2の特徴部は、測定線432とそのコード化された特徴部932
との組み合わせによって表すことができる。線431を特徴部931に対して分
析することができるのに加えて、別の実施形態では、コード化された特徴部93
2に基づいて線431の識別を決定することも可能であることに注意されたい。
言い換えると、図14に例示されるような、線のグループにおける特定の線は、
様々なコード化された特徴部の2つ以上に基づいて識別することができる。しか
し、特定の実施形態では、コード化された特徴部の単数の隣接するセットのみが
、または、コード化された特徴部の複数の隣接するセットが、使用される。加え
て、ステップ621及び622は、図23を参照して検討されるように、異なる
ときに発生することができる。
FIG. 19 illustrates substeps associated with step 611 of FIG. At step 621, the first image is projected, while at step 622 the second feature is projected. Referring to FIG. 14, the first image can resemble the combination of the measurement line 431 and its associated coded feature 931. In a similar manner, the second feature is the measurement line 432 and its coded feature 932.
It can be represented by a combination with. In addition to being able to analyze line 431 for features 931, in another embodiment, coded features 93
Note that it is also possible to determine the identification of line 431 based on 2.
In other words, a particular line in a group of lines, as illustrated in FIG.
Identification can be based on two or more of the various coded features. However, in certain embodiments, only a single contiguous set of coded features or multiple contiguous sets of coded features are used. In addition, steps 621 and 622 can occur at different times, as discussed with reference to FIG.

【0062】 図21は、本発明にしたがった別の方法を例示する。ステップ631では、複
数の第1の特徴部及び複数の第2の特徴部が投影される。これらの特徴部は、同
時に投影されてもよく、または、別個の場所に投影されてもよい。
FIG. 21 illustrates another method according to the present invention. In step 631, a plurality of first features and a plurality of second features are projected. These features may be projected simultaneously or at separate locations.

【0063】 ステップ632では、第2の特徴部に基づいて複数の第1の特徴部の1つが決
定されるかまたは識別される。図14を参照すると、複数の第1の特徴部は測定
する線431から435を含む。第2の特徴部、すなわちバーコード931から
935を使用して、線431から435の特定の1つを識別することができる。
At step 632, one of the plurality of first features is determined or identified based on the second feature. Referring to FIG. 14, the plurality of first features includes lines 431 to 435 to measure. The second feature, barcode 931 to 935, can be used to identify the particular one of lines 431 to 435.

【0064】 ステップ633では、複数の平行な第1の特徴部の特定の1つに基づいて、表
面に点の場所が決定される。
In step 633, the location of the point on the surface is determined based on the particular one of the plurality of parallel first features.

【0065】 コード化された情報に基づいてその識別が検証されるまで受け取られた形状の
分析によって識別された線は使用されないため、この特定の実施形態は、先行技
術に対して有利である。
This particular embodiment is advantageous over the prior art, since the line identified by the analysis of the received shape is not used until its identification is verified based on the coded information.

【0066】 図22は、本発明にしたがった別の方法を例示する。ステップ641で平行な
第1及び第2の不連続形状が投影される。そのような不連続の形状の例として、
図14の線431及び432が挙げられる。しかし、他の様々な平行な形状を投
影することができることを当業者は認識する。
FIG. 22 illustrates another method according to the present invention. In step 641, parallel first and second discontinuities are projected. As an example of such a discontinuous shape,
Lines 431 and 432 of FIG. 14 are mentioned. However, one skilled in the art will recognize that various other parallel shapes can be projected.

【0067】 ステップ642では、第1の不連続形状に対するコード化された特徴部が投影
される。再度、図14を参照すると、線432に対するコード化された特徴部は
、コード化された特徴部932または、コード化された特徴部933さえ含むこ
とができる。
At step 642, the coded features for the first discontinuity shape are projected. Referring again to FIG. 14, the coded features for line 432 can include coded features 932 or even coded features 933.

【0068】 ステップ643では、第2の不連続形状に対するコード化された特徴部が投影
される。
At step 643, the coded features for the second discontinuity shape are projected.

【0069】 ステップ644では、第1の不連続形状が、第1のコード化された特徴部に基
づいて識別される。これは、先に検討されたものと類似のやり方で達成される。
At step 644, a first discontinuity shape is identified based on the first coded feature. This is accomplished in a similar manner as previously discussed.

【0070】 ステップ645では、物体の特定の点の場所が、第1の不連続形状に基づいて
決定される。
At step 645, the location of the particular point on the object is determined based on the first discontinuity shape.

【0071】 図23は、本発明の別の実施形態を例示する。具体的には、図23は、時間T
1、T2、T3及びT4で投影された一連の画像を例示する。時間T1では、投
影された画像は測定特徴部1011から1013を含む。時間T1の間には、コ
ード化された特徴部は投影されない。時間T2の間に、コード化された特徴部1
021から1023を含む画像が投影される。時間T1及びT2のパターンは、
それぞれ、時間T3及びT4の間に繰り返される。コード化された及び測定特徴
部を交替して投影する結果として、より密なパターンを使用することができ、よ
り多くの情報を得ることができる。時間T4の画像は、測定特徴部1011から
1013の上に横たわるコード化された特徴部1021から1023を示すこと
に注意されたい。しかし、1つの実施形態において、測定特徴部は、例示目的の
ためのみに含まれ、一般に、コード化された特徴部と同時には存在しない。
FIG. 23 illustrates another embodiment of the present invention. Specifically, FIG. 23 shows time T
1 illustrates a series of images projected at 1, T2, T3 and T4. At time T1, the projected image includes measurement features 1011-1013. No coded features are projected during time T1. Coded feature 1 during time T2
An image including 021 to 1023 is projected. The patterns of time T1 and T2 are
Repeated during times T3 and T4, respectively. As a result of the alternating projection of the coded and measurement features, a denser pattern can be used and more information can be obtained. Note that the image at time T4 shows the coded features 1021-1023 overlying the measurement features 1011-1013. However, in one embodiment, the measurement features are included for illustrative purposes only and generally do not co-exist with the coded features.

【0072】 本発明のさらに別の実施形態において、図24は、異なる特性を備えた特徴部
を有する画像を例示する。具体的には、図24は、線1131から1134を有
し個別の線の間に距離Xを備えた画像1100を例示し、一方、線1134、1
135及び1136の間の距離は、線を分離する実質的により大きな距離Yを例
示する。特徴部が異なる孤立特性を有することができることによって、高解像度
特徴部を提供することが可能である。言い換えると、線1135を使用して、そ
うでなければマッピングすることができない表面特徴部をマッピングすることが
できる。パターン1100は、ここに記載のコーディング技術とともにまたはこ
れなしで使用することができることに注意されたい。
In yet another embodiment of the present invention, FIG. 24 illustrates an image having features with different characteristics. Specifically, FIG. 24 illustrates an image 1100 having lines 1131 to 1134 with a distance X between the individual lines, while lines 1134, 1
The distance between 135 and 1136 exemplifies a substantially larger distance Y separating the lines. By allowing the features to have different isolation characteristics, it is possible to provide high resolution features. In other words, the line 1135 can be used to map surface features that otherwise could not be mapped. Note that the pattern 1100 can be used with or without the coding techniques described herein.

【0073】 ひとたびスキャナが投影されたフレームパターンを受け取るかまたは観察する
かすると、フレームパターンは複数の2D点(2D画像フレーム)にデジタル化
される。スキャナの投影軸及び視軸は固定され知られているため、2D画像フレ
ームの各2D点が投影された点に相関することができるのであれば、従来の3D
画像形成技術を使用して2D画像フレームの各2D点を3D点に転換することが
できる。コード化された特徴部を有する投影されたフレームパターンを使用する
ことによって、2D画像の点をそれぞれの投影された点に相関することができる
。 マルチフレーム参照独立走査が、本開示の別の態様にしたがってここに記載さ
れる。特定の実施形態において、携帯スキャナを使用して物体を1度に1フレー
ムずつ走査して複数のフレームを獲得することによって、複数の3D画像が受け
取られ、各フレームは物体の一部のみをキャプチャする。複数のフレームを参照
して、参照独立走査が、走査されている物体に対してフレームごとに変わること
ができる空間位置を有し、その空間的位置は、参照点に対して固定されないか、
または、追跡されない。たとえば、走査されている物体に対して固定された参照
点はない。
Once the scanner receives or views the projected frame pattern, the frame pattern is digitized into multiple 2D points (2D image frames). Since the projection axis and the visual axis of the scanner are fixed and known, if each 2D point of a 2D image frame can be correlated to the projected point, the conventional 3D
Imaging techniques can be used to convert each 2D point in a 2D image frame into a 3D point. By using the projected frame pattern with coded features, the points in the 2D image can be correlated to each projected point. Multi-frame reference independent scanning is described herein in accordance with another aspect of the disclosure. In certain embodiments, multiple 3D images are received by scanning the object one frame at a time using a handheld scanner to acquire multiple frames, each frame capturing only a portion of the object. To do. With reference to multiple frames, a reference independent scan has a spatial position that can vary from frame to frame with respect to the object being scanned, the spatial position being fixed relative to a reference point, or
Or not tracked. For example, there is no fixed reference point for the object being scanned.

【0074】 ここに開示された参照独立スキャナの1つの種類は、測定特徴部及びコード化
された特徴部を有する連続フレームにパターンを投影する携帯スキャナを含む。
これによって、フレームの各観察された点は、公知の対応する投影された点を有
することができ、それによって、2Dフレームデータを3Dフレームデータへ転
換することができる。
One type of reference independent scanner disclosed herein includes a handheld scanner that projects a pattern into a continuous frame having measurement features and coded features.
This allows each observed point of the frame to have a known corresponding projected point, which can convert 2D frame data to 3D frame data.

【0075】 図27から28を使用して、複数のフレーム参照独立走査を検討する。[0075]   27-28 are used to consider multiple frame reference independent scans.

【0076】 図27、28及び30は、異なる視点から物体2700を例示する。図27に
例示されるように、物体2700は、3本の歯2710、2720及び2730
と、3本の歯に隣接する歯肉部分2740とを含む。
27, 28 and 30 illustrate the object 2700 from different perspectives. As illustrated in FIG. 27, the object 2700 has three teeth 2710, 2720 and 2730.
And a gingival portion 2740 adjacent to three teeth.

【0077】 図27は、複数の非連続表面部分が見えるような視点である。たとえば、図2
7の視点から、3つの非連続表面部分2711から2713が見える。表面部分
2713は、歯2710の側部部分を表す。表面部分2711は、表面部分27
13とは連続していない歯2710の噛み合い表面の一部を表す。表面部分27
12は、部分2711とも2713とも連続していない歯2710の噛み合い表
面の別の部分を表す。類似したやり方で、歯2720は4つの表面部分2721
から2724を有し、歯2730は4つの表面部分2731から2734を有す
る。
FIG. 27 is a viewpoint in which a plurality of non-continuous surface portions can be seen. For example, in Figure 2.
From the perspective of 7, three discontinuous surface portions 2711 to 2713 are visible. Surface portion 2713 represents a side portion of tooth 2710. The surface portion 2711 is the surface portion 27.
13 represents a part of the meshing surface of the tooth 2710 which is not continuous. Surface part 27
12 represents another part of the meshing surface of the tooth 2710 which is not continuous with the parts 2711 and 2713. In a similar manner, tooth 2720 has four surface portions 2721.
To 2724 and the tooth 2730 has four surface portions 2731 to 2734.

【0078】 図28は、わずかに異なる視点(図28視点)からの物体2700を例示する
。図27から図28へ視点が変わるのは、結果としてビューアーすなわちスキャ
ナが、上部歯表面のより大きな部分を見ることができる方向に動く結果である。
視点の変化は、結果として、複数の見られる表面部分に対する変動になる。歯2
710に対して、歯の部分2813は、今はその対応する歯の部分2713より
も小さな2D表面を表している。一方、歯の部分2811及び2812は、今は
図27のそれらの対応する部分2711及び2712よりも大きい2D表面とし
て見られる。
FIG. 28 illustrates the object 2700 from a slightly different viewpoint (FIG. 28 viewpoint). The change in perspective from FIG. 27 to FIG. 28 is the result of the viewer or scanner moving in a direction that allows a larger portion of the upper tooth surface to be viewed.
Changes in viewpoint result in variations for multiple visible surface portions. Tooth 2
For 710, tooth portion 2813 now represents a smaller 2D surface than its corresponding tooth portion 2713. On the other hand, tooth portions 2811 and 2812 are now seen as larger 2D surfaces than their corresponding portions 2711 and 2712 in FIG.

【0079】 歯2720に対して、表面2824は図27のその対応する歯表面2724よ
りも小さな2D表面として見られる。歯2720に対して、表面2821は、図
27の視点から表面2721及び2723の両方を含む連続して見られる歯表面
を表している。
For tooth 2720, surface 2824 is seen as a smaller 2D surface than its corresponding tooth surface 2724 in FIG. For tooth 2720, surface 2821 represents the tooth surface as seen in succession including both surfaces 2721 and 2723 from the perspective of FIG.

【0080】 歯2730に対して、見られる2D表面2832及び2835は、各々が、表
面2732の部分と先には見られなかった表面区域とを含む。これは、歯273
0の形成的特徴の結果であり、これは結果として、表面2732が第2のフレー
ム視点から連続して見られなくなる。
For tooth 2730, visible 2D surfaces 2832 and 2835 each include a portion of surface 2732 and a previously unseen surface area. This is tooth 273
The result is a formative feature of 0, which results in the surface 2732 not being continuously visible from the second frame viewpoint.

【0081】 図27の歯部分の図28の歯部分に対する関係は、図29を参照して良好に理
解される。具体的には、図29は、図28と同一の視点からのものであり、影を
つけた区域として示される図27の見られた表面部分を備える。たとえば、図2
7の表面部分2711は、表面部分2811内の影をつけた部分として表される
。例示されるように、図27と図28との間の視点の変化のため、結果として、
見られる表面部分2811はより小さく見られた表面部分2711を包含する。
同様に、視点の変化によって、結果として異なる表面部分が見られていることに
なる。
The relationship of the tooth portion of FIG. 27 to the tooth portion of FIG. 28 is well understood with reference to FIG. Specifically, FIG. 29 is from the same perspective as FIG. 28, with the visible surface portion of FIG. 27 shown as the shaded area. For example, in Figure 2.
7 surface portion 2711 is represented as the shaded portion within surface portion 2811. As illustrated, due to the change in viewpoint between FIGS. 27 and 28, the result is:
The visible surface portion 2811 includes a smaller-looking surface portion 2711.
Similarly, a change in viewpoint will result in different surface portions being viewed.

【0082】 図30は、別の視点から物体2700を例示する。具体的には、図30の視点
は、歯2710から2730の直接上からである。図28の見られる表面部分が
、図30に重ね合わされている。図27に例示された物体2700がここにさら
に参照され、マルチフレーム参照独立走査の特定の実施形態を記載する。
FIG. 30 illustrates the object 2700 from another perspective. Specifically, the perspective of FIG. 30 is from directly above teeth 2710-2730. The visible surface portion of FIG. 28 is overlaid on FIG. 27. The object 2700 illustrated in FIG. 27 is further referred to herein to describe particular embodiments of multi-frame reference independent scan.

【0083】 図31は、参照独立走査の特定の実施形態にしたがった方法を例示する。ステ
ップ3101では、物体が走査され、データの2Dクラウドを得る。データの2
Dクラウドは、複数のフレームを有する。フレームの各々は、複数の2D点を有
し、これは、見られるときには、2D画像を表す。
FIG. 31 illustrates a method according to a particular embodiment of reference independent scanning. In step 3101, the object is scanned to obtain a 2D cloud of data. Data 2
The D cloud has a plurality of frames. Each of the frames has multiple 2D points, which when viewed represent a 2D image.

【0084】 ステップ3102では、データの2Dクラウドの第1のフレームが、3Dフレ
ームモデルに転換される。1つの実施形態において、3Dフレームモデルは3D
点モデルであり、これは、三次元空間に複数の点を含む。3Dフレーム点モデル
への実際の転換は、データの走査された2Dクラウドを3D点モデルに転換する
ための従来の技術を使用して、データのフレームの2Dクラウドのいくつかまた
はすべてで実施される。ここに開示されたようなコード化された特徴部を使用す
る特定の実施形態において、連続していない見られる表面を備えた表面、たとえ
ば、図27の歯2710から2730を、フレームごとにうまく走査することが
可能である。
At step 3102, the first frame of the 2D cloud of data is transformed into a 3D frame model. In one embodiment, the 3D frame model is 3D
A point model, which includes multiple points in three-dimensional space. The actual conversion to a 3D frame point model is performed on some or all of the 2D cloud of frames of data using conventional techniques for converting a scanned 2D cloud of data to a 3D point model. . In certain embodiments that use coded features as disclosed herein, surfaces with non-contiguous visible surfaces, eg, teeth 2710-2730 of FIG. 27, are successfully scanned frame by frame. It is possible to

【0085】 図32及び33は、それぞれ、図27及び図28の視点から、走査されている
物体2700を例示する。図32において、走査パターンは線3211から32
23を含む。フレーム境界3210外部のいずれの走査線部分は、適切に走査さ
れることができない。境界3210内で各走査線は、スキャナのCCD(電荷結
合ダイオード)チップで検知されるときに、複数の2D点(データのクラウド)
に転換される。走査線のいくつかのまたはすべての点を、本発明にしたがって使
用することができる。たとえば、最終3Dモデルの所望の解像度に依存して、走
査線の1つおきまたは2つおきの点を使用することができる。図32は、識別さ
れている各線の4つの点(AからD)を例示する。2D座標値、たとえばX−Y
座標は、これらの点の各々用に決定される。
32 and 33 illustrate the object 2700 being scanned from the perspectives of FIGS. 27 and 28, respectively. In FIG. 32, the scan pattern is lines 3211 to 32.
Including 23. No part of the scan line outside the frame boundary 3210 can be properly scanned. Within the boundary 3210, each scan line is a plurality of 2D points (cloud of data) as detected by the CCD (charge coupled diode) chip of the scanner.
Converted to. Some or all points in the scan line can be used in accordance with the present invention. For example, every other or every other point in the scan line may be used, depending on the desired resolution of the final 3D model. FIG. 32 illustrates four points (A to D) on each line being identified. 2D coordinate values, eg XY
Coordinates are determined for each of these points.

【0086】 走査の特定の実施形態において、1秒あたり1から20フレームの走査速度が
使用される。より速い走査速度を使用することもできる。特定の実施形態におい
て、走査速度は、三次元画像をリアルタイムで見ることができるように選ばれる
。各フレームがキャプチャされている間のパルス時間は、スキャナが動いている
と予想される速度の関数である。生歯構造物では、最大パルス幅は、およそ14
0マイクロ秒であると決定されるが、ずっと速いパルス幅、すなわち3マイクロ
秒を使用することもある。加えて、特定の実施形態において、歯2710から2
730には物質が塗布され、結果として歯自体よりも不透明な表面が得られる。
In a particular embodiment of scanning, a scan rate of 1 to 20 frames per second is used. Higher scan rates can also be used. In a particular embodiment, the scanning speed is chosen so that the three-dimensional image can be viewed in real time. The pulse time during which each frame is captured is a function of the speed at which the scanner is expected to be moving. For dentition structures, the maximum pulse width is approximately 14
It is determined to be 0 microseconds, but a much faster pulse width may be used, ie 3 microseconds. Additionally, in certain embodiments, teeth 2710-2
The material is applied to 730, resulting in a surface that is more opaque than the teeth themselves.

【0087】 特定の実施形態において、データのクラウドの各点は、ここに記載される様々
なステップ及び機能の間に分析される。別の実施形態では、データのクラウドの
一部のみが分析される。たとえば、所望の解像度に合致するために、2つおきま
たは3つおきの点のみを分析する必要があるように決定されてもよい。別の実施
形態では、データのクラウドの特定の空間部分のみが使用されるように、たとえ
ば、データのクラウドの中心部分のみが境界ボックスに含まれるように、フレー
ムデータの一部が、データのフレーム全体よりも小さい境界ボックスであり得る
。データのクラウドのサブセットを使用することによって、ここに記載された様
々なルーチンの速度を上げることが可能である。
In particular embodiments, each point of the cloud of data is analyzed during the various steps and functions described herein. In another embodiment, only a portion of the cloud of data is analyzed. For example, it may be determined that only every second or third point needs to be analyzed to meet the desired resolution. In another embodiment, a portion of the frame data is a frame of data such that only a particular spatial portion of the cloud of data is used, for example, only a central portion of the cloud of data is included in the bounding box. It can be a bounding box that is smaller than the whole. By using a cloud subset of data, it is possible to speed up various routines described herein.

【0088】 図33は、図28の視点から、走査されている物体2700を例示する。その
ようであるため、線3321から3323を含む見られるパターンは、歯271
0から2730に異なって位置決めされる。加えて、フレーム境界3310は、
歯2720の大半を含むように動く。
FIG. 33 illustrates the object 2700 being scanned from the perspective of FIG. As such, the pattern seen, including lines 3321 to 3323, is tooth 271
Differently positioned from 0 to 2730. In addition, the frame boundary 3310 is
Moves to include most of teeth 2720.

【0089】 図34は、3D初期モデルとしてここに参照される3Dフレームモデルの別の
実施形態を例示する。3D初期モデルは、フレームの3D点に基づいた複数の初
期形状を含む。例示された特定の実施形態において、3D点モデルに隣接する点
を選択して三角形を形成し、初期形状として三角形PS1からPS3を含む。他
の実施は、異なるまたは様々な初期形状を使用することができる。
FIG. 34 illustrates another embodiment of the 3D frame model referred to herein as the 3D initial model. The 3D initial model includes a plurality of initial shapes based on the 3D points of the frame. In the particular embodiment illustrated, points adjacent to the 3D point model are selected to form a triangle, including triangles PS1 to PS3 as initial shapes. Other implementations may use different or different initial shapes.

【0090】 位置合わせを実施するために初期形状を使用することは、点クラウドの1つの
初期表面表示を使用することによって、より低い解像度のモデルを使用すること
ができ、結果としてより速い位置合わせが得られ、望ましくないずれエラーの不
利点がないため、互いに対してできるだけ近い2つの点クラウドの点を得ること
を試みる位置合わせ技術に対して有利である。たとえば、点から点への位置合わ
せ用に1mmの走査解像度が使用される場合、2つのフレームの間の最良の保証
された整列配置は0.5mmである。これは、表面のどの点がマッピングされる
かを携帯スキャナが無作為にキャプチャするという事実による。点から表面への
使用することによって、位置合わせが頂点だけではなく表面のいずれの点で発生
することができるため、より正確な結果が提供される。
Using the initial shape to perform the registration allows a lower resolution model to be used by using one initial surface representation of the point cloud, resulting in faster registration. Is obtained and there is no undesired error penalty, which is advantageous for registration techniques that try to get the points of the two point clouds as close as possible to each other. For example, if a scan resolution of 1 mm is used for point-to-point registration, the best guaranteed alignment between the two frames is 0.5 mm. This is due to the fact that the handheld scanner randomly captures which points on the surface are mapped. The point-to-surface use provides more accurate results because the registration can occur at any point on the surface, not just at the vertices.

【0091】 図31のステップ3103では、第2の3Dフレームモデルがクラウドデータ
の第2のフレームから作製される。特定の実施に依存して、第2の3Dフレーム
モデルは、点モデルまたは初期モデルであってもよい。
In step 3103 of FIG. 31, a second 3D frame model is created from the second frame of cloud data. Depending on the particular implementation, the second 3D frame model may be a point model or an initial model.

【0092】 ステップ3104では、第1のフレームモデルと第2のフレームモデルとの間
で位置合わせが実施され、累積モデルを作製する。「位置合わせ」は、第1のモ
デルを第2のモデルに整列配置させて、第1のモデルに重なり合う第2のモデル
の部分を使用することによって最良適合を決定する処理を意味する。第1のモデ
ルに重なり合わない第2のモデルの部分は、未だにマッピングされていない走査
された物体の部分であり、第1のモデルに加えられて累積モデルを作る。位置合
わせは、図35の方法を参照して良好に理解される。
At step 3104, alignment is performed between the first frame model and the second frame model to create a cumulative model. "Alignment" refers to the process of aligning a first model with a second model and determining the best fit by using the portion of the second model that overlaps the first model. The portion of the second model that does not overlap the first model is the portion of the scanned object that has not yet been mapped and is added to the first model to create a cumulative model. Alignment is well understood with reference to the method of FIG.

【0093】 図35は、位置合わせ方法3500を含み、これは、特定の実施形態において
、図31の位置合わせステップの1つによって呼び出される。図35のステップ
3501では、位置合わせへの項目点が決定される。位置合わせへの項目点は、
2つのモデルの重なり合う部分の整列配置の当初推量を規定する。項目点を選ぶ
特定の実施形態は、図36を参照してより詳細に検討される。
FIG. 35 includes an alignment method 3500, which in certain embodiments is invoked by one of the alignment steps of FIG. In step 3501 of FIG. 35, item points for alignment are determined. Item points for alignment are
It defines an initial guess for the alignment of the overlapping parts of the two models. Specific embodiments for choosing item points are discussed in more detail with reference to FIG.

【0094】 ステップ3502では、2つの形状の位置合わせが試みられる。適合の規定さ
れた近似または品質に合致する重なり合いが検出されるならば、位置合わせは成
功である。位置合わせが成功のときには、フローは図31の呼び出しステップへ
戻る。位置合わせが成功ではないときには、フローはステップ3598へ進み、
そこで続行するか否かが決定される。
At step 3502, two shape registrations are attempted. Alignment is successful if an overlap is detected that matches the defined approximation or quality of fit. If the alignment is successful, the flow returns to the calling step of FIG. If the registration is not successful, the flow proceeds to step 3598,
It is then decided whether or not to continue.

【0095】 続行する決定は、因子の数に基づいて決定することができる。1つの実施形態
において、続行する決定は、試行された位置合わせ項目点の数に基づいてなされ
る。ステップ3598での決定が位置合わせの試みをやめるものである場合には
、フローはステップ3503へ進み、そこで位置合わせエラー取扱が発生する。
そうでなければ、フローはステップ3501で続行する。
The decision to proceed may be based on the number of factors. In one embodiment, the decision to proceed is made based on the number of registration item points tried. If the determination at step 3598 is to discontinue the registration attempt, flow proceeds to step 3503 where registration error handling occurs.
Otherwise, the flow continues at step 3501.

【0096】 図36は、位置合わせ項目点を選ぶための特定の方法を例示する。ステップ3
699では、これが、新しいフレームの特定の位置合わせ試み用の最初の項目点
であるか否かの決定がなされる。そうであれば、フローはステップ3601へ進
み、そうでなければ、フローはステップ3698へ進む。
FIG. 36 illustrates a particular method for choosing alignment item points. Step 3
At 699, a determination is made whether this is the first entry point for the particular alignment attempt of the new frame. If so, the flow proceeds to step 3601; otherwise, the flow proceeds to step 3698.

【0097】 ステップ3601では、項目点のX及びY構成要素が、2つのフレームの各々
用のデータの2Dクラウドの二次元分析に基づいて決定される。特定の実施形態
において、二次元分析が2D画像の相互相関を実施する。これらの2D画像は、
データの2Dクラウドからである必要はなく、代わりに、パターンを有さない物
体の平易なビデオ画像に関連するデータを相互相関に使用することができる。こ
のようにして、スキャナの有望な動きを決定することができる。たとえば、相互
相関を使用して、スキャナがおそらくはどのように動いたかを決定するために、
ピクセルがどのように動いたかを決定する。
At step 3601, the X and Y components of the entry point are determined based on a 2D analysis of the 2D cloud of data for each of the two frames. In a particular embodiment, two-dimensional analysis performs cross-correlation of 2D images. These 2D images are
It does not have to be from a 2D cloud of data, but instead data associated with plain video images of objects without patterns can be used for cross-correlation. In this way, promising movements of the scanner can be determined. For example, using cross-correlation to determine how the scanner probably moved
Determines how the pixel has moved.

【0098】 別の実施形態において、回転分析が可能であるが、これは時間がかかるもので
あるため、特定の実施形態用にはこれは行われず、X及びY座標に正しい項目点
を有することによってここに記載の位置合わせアルゴリズムが回転を取り扱うこ
とが可能になる。
In another embodiment, rotation analysis is possible, but this is not done for certain embodiments, as it is time consuming and has the correct entry points in the X and Y coordinates. Allows the registration algorithm described here to handle rotation.

【0099】 ステップ3602では、Z方向の有望な動きが決定される。[0099]   In step 3602, the probable movement in the Z direction is determined.

【0100】 1つの特定の実施形態において、先のフレームのZ座標が使用され、Z方向の
いずれの変化が位置合わせの一部として計算される。別の実施形態において、有
望なZ座標が項目点の一部として計算される。たとえば、システムの光学パラメ
ータが、最良適合が受け取られるまで、第1のフレームに対する第2のフレーム
を「ズーム」することができる。そのために使用されるズーム因子によって、2
つの表面がZで互いからどれほど離れているかがわかる。特定の実施形態におい
て、X、Y及びZ座標は、Z座標が視軸にほぼ平行であるように、整列配置され
ることが可能である。
In one particular embodiment, the Z coordinate of the previous frame is used and any change in the Z direction is calculated as part of the alignment. In another embodiment, the probable Z coordinate is calculated as part of the entry point. For example, the optical parameters of the system may "zoom" the second frame relative to the first frame until the best fit is received. 2 depending on the zoom factor used for that
You can see how far the two surfaces are from each other at Z. In certain embodiments, the X, Y, and Z coordinates can be aligned such that the Z coordinate is substantially parallel to the visual axis.

【0101】 ステップ3603では、項目点値が戻される。[0101]   In step 3603, the item point value is returned.

【0102】 ステップ3698では、すべての項目点変動が、位置合わせステップ3601
及び3602で試行されたか否かが決定される。されていなければ、フローはス
テップ3603へ進み、されていれば、フローはステップ3697へ進む。
In step 3698, all item point variations are registered in the registration step 3601.
And 3602, it is determined whether or not it has been tried. If not, the flow proceeds to step 3603, and if so, the flow proceeds to step 3697.

【0103】 ステップ3603では、次の項目点変動が選択される。図37は、位置合わせ
項目点変動を選択するための特定の方法を例示する。具体的には、図37は、当
初項目点E1及びその後に続く項目点E2からE9を例示する。項目点E2から
E9は、いずれの所定の順番で順次選択される。図37の特定の実施形態は、半
径3710を有する円3720の様々な点として位置合わせ項目点E2からE9
を例示する。特定の実施形態にしたがって、項目点変動の範囲は二次元であり、
たとえば、X及びY次元である。他の実施形態において、項目点は三次元に変動
することができる。項目点の変動する数すなわち項目点のサブセットを使用して
、位置合わせ処理をスピードアップすることができることに注意されたい。たと
えば、ここで使用される単一のフレーム位置合わせは、図示された9つの項目点
よりも少ない数を使用することができる。同様に、ここに記載される累積位置合
わせは、例示された9点を超えて多くの数を使用することによって、利益を得る
ことができる。
In step 3603, the next item point variation is selected. FIG. 37 illustrates a particular method for selecting registration item point variation. Specifically, FIG. 37 illustrates an initial item point E1 and subsequent item points E2 to E9. The item points E2 to E9 are sequentially selected in any predetermined order. The particular embodiment of FIG. 37 has alignment entry points E2 through E9 as various points on a circle 3720 having a radius 3710.
Is illustrated. According to a particular embodiment, the range of item point variation is two-dimensional,
For example, the X and Y dimensions. In other embodiments, item points can vary in three dimensions. Note that a varying number of item points or a subset of item points can be used to speed up the registration process. For example, the single frame alignment used here may use fewer than the nine entry points shown. Similarly, the cumulative registration described herein can benefit by using a large number beyond the 9 points illustrated.

【0104】 図36のステップ3698に戻ると、ひとたび第1に識別される項目点のすべ
ての変動が試行されると、フローはステップ3697へ進む。ステップ3697
では、第1に識別される項目点に関連したすべての項目点が試行され、第2に識
別される項目点がステップ3604によって識別されたか否かが決定される。さ
れていなければ、フローはステップ3604へ進み、そこで、第2の項目点が規
定される。具体的には、ステップ3604では、2つの先のフレームモデルの間
のスキャナの動きが決定される。次に、スキャナの動きが少なくとも1つの追加
フレームでは一定であると想定される。これらの想定を使用して、ステップ36
04での項目点は、先のフレームに計算されたスキャナの動きをプラスした場所
であると規定される。フローはステップ3606へ進み、これは、項目点を図3
1の呼び出しステップへ戻す。別の実施形態において、スキャナの動きの方向は
同一のままであるが、異なる速度で加速されるという想定をすることができる。
Returning to step 3698 of FIG. 36, once all variations of the first identified item point have been tried, flow proceeds to step 3697. Step 3697
Now, all item points associated with the first identified item point are tried and it is determined whether the second identified item point was identified by step 3604. If not, the flow proceeds to step 3604 where the second item point is defined. Specifically, in step 3604, the movement of the scanner between the two previous frame models is determined. It is then assumed that the movement of the scanner is constant for at least one additional frame. Using these assumptions, step 36
The entry point at 04 is defined as the location where the calculated scanner motion was added to the previous frame. The flow proceeds to step 3606, which illustrates the item points in FIG.
Return to call step 1. In another embodiment, it can be assumed that the direction of movement of the scanner remains the same, but is accelerated at different speeds.

【0105】 ステップ3604の第2に識別される項目点が先に決定されているならば、ス
テップ3697からのフローはステップ3696へ進む。ステップ3696では
、第2に識別される項目点用の追加位置合わせ項目点変動が存在するか否かが決
定される。そうであれば、フローはステップ3605へ進み、そうでなければ、
フローはステップ3607で図31の呼び出しステップへ戻り、新しい項目点の
選択は不成功であったことを示す。ステップ3605では、第2に識別される項
目点の次の項目点変動が識別され、フローは図31の呼び出しステップへ戻る。
If the second identified item point of step 3604 has been previously determined, then flow from step 3697 proceeds to step 3696. At step 3696, it is determined whether there is an additional registration item point variation for the second identified item point. If so, flow proceeds to step 3605; otherwise,
The flow returns to the calling step of FIG. 31 in step 3607, indicating that the selection of a new item point was unsuccessful. In step 3605, the item point variation next to the second identified item point is identified and flow returns to the calling step of FIG.

【0106】 実施されている位置合わせの種類に依存して、異なる項目点ルーチンを使用す
ることができる。たとえば、フレームデータの中断には寛容ではない位置合わせ
処理には、特定のフレームを放棄する前により多くの項目点を試行する必要があ
る。フレームデータの中断に寛容である位置合わせ処理には、より簡単なまたは
より少ない項目点を試みることができ、それによって位置合わせ処理をスピード
アップする。
Different entry point routines may be used, depending on the type of alignment being performed. For example, an alignment process that is not tolerant of breaking frame data requires trying more item points before discarding a particular frame. A registration process that is tolerant of frame data breaks may attempt simpler or fewer item points, which speeds up the registration process.

【0107】 図31に戻ると、ステップ3105で、次の3Dモデル部分が、クラウドデー
タの次のフレームから作製される。
Returning to FIG. 31, in step 3105, the next 3D model portion is created from the next frame of cloud data.

【0108】 ステップ3106では、次の3Dモデル部分と累積モデルとの間で位置合わせ
が実施され、累積モデルを更新する。特定の実施において、フレームからすべて
の新しい点を既存の累積モデルへ加えて新しい累積モデルに到達することによっ
て、累積モデルが更新される。他の実施において、今までに獲得された3D点に
基づく新しい表面を格納することができ、それによって格納されるデータの量を
減少する。
In step 3106, registration is performed between the next 3D model portion and the cumulative model to update the cumulative model. In a particular implementation, the cumulative model is updated by adding all new points from the frame to the existing cumulative model to arrive at the new cumulative model. In another implementation, a new surface based on previously acquired 3D points can be stored, thereby reducing the amount of data stored.

【0109】 すべてのフレームが位置合わせされた場合には、方法3100が完了し、そう
でなれば、各フレームの点のクラウドが位置合わせされるまで、フローはステッ
プ3199を通ってステップ3105へ進む。方法3100に記載された位置合
わせ処理の結果として、フレーム3210及び3310等の複数のより小さなフ
レームから物体2700用のモデルを展開することが可能である。複数のフレー
ムを位置合わせすることができることによって、大きな物体の高度に正確なモデ
ルを得ることができる。たとえば、歯肉、歯及び歯列矯正及び人工装具の構造物
を含む患者の生歯構造物全体のモデルを得ることができる。別の実施形態におい
て、患者の顔のモデルを得ることができる。
If all frames have been aligned, method 3100 is complete, otherwise flow proceeds through step 3199 to step 3105 until the cloud of points in each frame is aligned. . As a result of the registration process described in method 3100, it is possible to develop the model for object 2700 from multiple smaller frames, such as frames 3210 and 3310. By being able to align multiple frames, a highly accurate model of a large object can be obtained. For example, a model of the patient's entire dentition structure can be obtained, including gingiva, teeth and orthodontic and prosthesis structures. In another embodiment, a model of the patient's face can be obtained.

【0110】 図38は方法3800を例示し、これは、参照独立スキャナから複数のフレー
ムを使用して物体を位置合わせする代替方法である。具体的には、ステップ38
01では、物体が走査され物体用のクラウドデータを受け取る。先に記載された
ように、データのクラウドが複数のフレームからのデータを含み、各フレームは
複数の点を含む。
FIG. 38 illustrates method 3800, which is an alternative method of aligning an object using multiple frames from a reference independent scanner. Specifically, step 38
At 01, the object is scanned and cloud data for the object is received. As described above, the cloud of data includes data from multiple frames, each frame including multiple points.

【0111】 ステップ3802では、単一のフレーム位置合わせが実施される。単一のフレ
ーム位置合わせは、累積モデルを作製せずに、走査された画像の隣接するフレー
ムの間で位置合わせを実施する。その代わり、特定の実施形態において、単一の
フレーム位置合わせ処理の累積画像が表示される。単一のフレーム位置合わせ処
理によって形成された画像を使用して、走査処理を補助することができる。たと
えば、単一のフレーム位置合わせの結果として表示された画像は、累積モデルほ
ど正確ではないが、スキャナのオペレータによって使用され、追加走査が必要で
ある区域を決定することができる。
At step 3802, a single frame alignment is performed. Single frame registration performs registration between adjacent frames of the scanned image without creating a cumulative model. Instead, in certain embodiments, a cumulative image of a single frame registration process is displayed. The image formed by the single frame registration process can be used to assist the scanning process. For example, the image displayed as a result of a single frame registration, although less accurate than the cumulative model, can be used by the operator of the scanner to determine the areas where additional scanning is required.

【0112】 単一のフレーム位置合わせ処理は、いずれの2つのフレームの間に導入された
いずれのエラーが、単一のフレーム位置合わせを使用して作製された3Dモデル
の次のすべてのフレームへ「拡張」される。しかし、正確度のレベルは、走査処
理中にオペレータを補助するに適切である。たとえば、位置合わせ結果は、1つ
のフレームから別のフレームへの動きが記載され、累積位置合わせ処理用の項目
点として使用することができる。単一のフレーム位置合わせは、図39を参照し
てより詳細に検討される。
The single frame registration process is such that any error introduced between any two frames will be propagated to all subsequent frames of the 3D model created using single frame registration. "Expanded". However, the level of accuracy is adequate to assist the operator during the scanning process. For example, the alignment result describes the movement from one frame to another and can be used as an item point for the cumulative alignment process. Single frame alignment is discussed in more detail with reference to FIG.

【0113】 ステップ3803では、累積位置合わせが実施される。累積位置合わせは、各
新しいフレームを累積モデルに位置合わせすることによって累積3Dモデルを作
る。たとえば、1000の参照独立3Dモデル部分(フレーム)を表す1000
の個別のフレームがステップ3801でキャプチャされた場合、累積位置合わせ
ステップ3803は、1000の参照独立3Dモデル部分を、物体を表す単一の
累積3Dモデルに結合する。たとえば、1000の参照独立3Dモデル部分の各
々が、図32及び33のフレーム3210及び3310を含む1本またはそれ以
上の歯の一部を表す場合には、単一の累積3Dモデルは、歯2710から273
0を含む歯のセット全体を表す。
At step 3803, cumulative registration is performed. Cumulative registration creates a cumulative 3D model by registering each new frame with a cumulative model. For example, 1000 representing 1000 reference independent 3D model parts (frames).
If individual frames of are captured in step 3801, a cumulative registration step 3803 combines the 1000 reference independent 3D model portions into a single cumulative 3D model representing the object. For example, if each of the 1000 reference independent 3D model portions represents a portion of one or more teeth including frames 3210 and 3310 of FIGS. 32 and 33, then a single cumulative 3D model may be tooth 2710. From 273
Represents the entire set of teeth, including 0.

【0114】 ステップ3804では、位置合わせの結果が報告される。これは、下記にさら
に詳細に検討される。
At step 3804, the alignment result is reported. This is discussed in more detail below.

【0115】 図39には、図38のステップ3802の単一フレームレンダリング実施に対
して特定である方法3900が記載される。ステップ3903では、変数xが2
に等しく設定される。
FIG. 39 describes a method 3900 that is specific to the single frame rendering implementation of step 3802 of FIG. In step 3903, the variable x is 2
Is set equal to.

【0116】 ステップ3904では、現在のフレーム(3DFx)と直前のまたは第1の隣
接するフレーム(3DFx−1)との間の位置合わせが実施される。2つのフレ
ームの間の位置合わせは、単一フレーム位置合わせと称される。2つのモデルの
間の位置合わせの特定の実施形態は、図40に例示される方法を参照してさらに
詳細に検討される。
In step 3904, alignment between the current frame (3DFx) and the immediately preceding or first adjacent frame (3DFx-1) is performed. Alignment between two frames is referred to as single frame alignment. Specific embodiments of the alignment between the two models are discussed in more detail with reference to the method illustrated in FIG.

【0117】 ステップ3999では、ステップ3904の単一フレーム位置合わせが成功し
たか否かが決定される。特定の実施形態において、図40の方法等の位置合わせ
方法は、ステップ3999で評価される成功インジケータを提供する。位置合わ
せが成功であるときにはフローはステップ3905へ進み、そうでないときには
フローはステップ3907へ進む。
In step 3999, it is determined whether the single frame registration of step 3904 was successful. In a particular embodiment, a registration method such as the method of FIG. 40 provides a success indicator evaluated at step 3999. If the alignment is successful, the flow proceeds to step 3905, otherwise the flow proceeds to step 3907.

【0118】 ステップ3999で位置合わせが成功したと決定されるときには、フローはス
テップ3905へ進む。ステップ3905では、現在の3Dフレーム(3DFx
)が、3Dフレームの現在のセットに加えられる。このセットは一般に、変換マ
トリクスのセットであることに注意されたい。3Dフレームの現在のフレームセ
ットがフレームの連続したセットであり、シーケンスの各フレームは、その2つ
の隣接するフレーム(の両方)に成功して位置合わせされる可能性が高い。加え
て、新しく位置合わせされたフレームは、既に表示されている先のフレームに対
して表示することができる。
If it is determined in step 3999 that the alignment is successful, the flow proceeds to step 3905. In step 3905, the current 3D frame (3DFx
) Is added to the current set of 3D frames. Note that this set is generally a set of transformation matrices. The current frame set of 3D frames is a contiguous set of frames, and each frame of the sequence is likely to be successfully aligned with its two adjacent frames (both). In addition, the newly aligned frame can be displayed relative to the previous frame already displayed.

【0119】 ステップ3998では、変数xがnに等しい値を有するか否かが決定され、た
だし、nは、評価されるべきフレームの合計数である。xがnに等しい場合には
、単一フレーム位置合わせが完了し、フローはステップ3910で図38へ戻る
ことができる。xがnよりも小さい場合には、ステップ3906で単一フレーム
位置合わせが続けられ、ステップ3904へ進む前にxがインクリメントされる
In step 3998, it is determined whether the variable x has a value equal to n, where n is the total number of frames to be evaluated. If x equals n, then single frame alignment is complete and flow may return to step 38 at step 3910. If x is less than n, then single frame alignment continues at step 3906 and x is incremented before proceeding to step 3904.

【0120】 ステップ3999へ戻ると、ステップ3904の位置合わせが成功していなけ
ればフローはステップ3907へ進む。ステップ3907では、現在のフレーム
(3DFx)と2つ前の隣接するフレーム(3DFx−2)との間で位置合わせ
が試みられる。ステップ3907の位置合わせが成功であれば、ステップ399
7は、フローをステップ3905へ方向づける。そうでなければ、ステップ39
97は、フローをステップ3908へ方向づけ、それによって現在のフレーム(
3DFx)の位置合わせが不成功であることを示す。
Returning to step 3999, if the alignment in step 3904 is not successful, the flow proceeds to step 3907. In step 3907, an attempt is made to align between the current frame (3DFx) and the next adjacent frame (3DFx-2). If the alignment in step 3907 is successful, step 399
7 directs the flow to step 3905. Otherwise, step 39
97 directs the flow to step 3908, which causes the current frame (
3DFx) registration is unsuccessful.

【0121】 現在のフレームを位置合わせすることができない場合には、ステップ3908
が、現在のフレームセットすなわちマトリクスのセットを保存し、新しい現在の
フレームセットが開始される。ステップ3908からのフローはステップ390
5へ進み、そこで、現在のフレームが現在のフレームセットに加えられ、これは
、ステップ3908で新しく作られていた。したがって、単一フレーム位置合わ
せステップ3802が複数のフレームセットを識別することが可能である。
If the current frame cannot be aligned, step 3908.
Saves the current frameset or matrix set and a new current frameset is started. The flow from step 3908 is step 390.
Proceed to 5, where the current frame was added to the current frame set, which was newly created in step 3908. Thus, the single frame registration step 3802 can identify multiple frame sets.

【0122】 累積位置合わせ中に複数のフレームセットを作製することは、複数の累積モデ
ルを調停するのに必要な介入の量のため、望ましくない。しかし、単一フレーム
位置合わせの目的はオペレータを補助し累積位置合わせに対する項目点を規定す
ることであるため、単一フレーム位置合わせの中断は一般に受け入れられる。単
一フレーム位置合わせ中の中断に対処する1つの方法は、単に、中断前の最後の
フレームと同一の場所に中断後の最初のフレームを表示することであり、それに
よって、オペレータは画像を見るのを続けることができる。
Creating multiple frame sets during cumulative registration is not desirable due to the amount of intervention required to reconcile multiple cumulative models. However, interruption of single frame registration is generally accepted because the purpose of single frame registration is to assist the operator and define the entry points for cumulative registration. One way to deal with breaks during single frame registration is to simply display the first frame after the break in the same place as the last frame before the break, thereby allowing the operator to view the image. You can continue.

【0123】 図40のステップ4001にしたがって、第1のモデルは3D初期形状モデル
であり、一方、第2のモデルは3D点モデルである。参照目的用に、第1の3D
モデルの初期形状はS1…Snとして参照され、ただし、nは第1のモデルの形
状の合計数であり、第2の3Dモデルの点はP1…Pzとして参照され、ただし
、zは第2のモデルの合計数である。
According to step 4001 of FIG. 40, the first model is a 3D initial shape model, while the second model is a 3D point model. For reference purposes, the first 3D
The initial shape of the model is referred to as S1 ... Sn, where n is the total number of shapes of the first model and the points of the second 3D model are referred to as P1 ... Pz, where z is the second The total number of models.

【0124】 ステップ4002では、第2のモデルの個別の点P1…Pzが分析されて、そ
の場所にもっとも近い形状を決定する。特定の実施形態において、点P1には、
P1にもっとも近い形状S1…Snが、他のいずれの形状の他のいずれの表面場
所よりもP1にもっとも近い表面場所を有する形状である。点P1にもっとも近
い形状はSc1と称され、一方、点Pzにもっとも近い形状はSczと称される
At step 4002, the individual points P1 ... Pz of the second model are analyzed to determine the shape closest to that location. In a particular embodiment, point P1 includes
The shape S1 ... Sn closest to P1 is the shape having the surface location closest to P1 than any other surface location of any other shape. The shape closest to the point P1 is called Sc1, while the shape closest to the point Pz is called Scz.

【0125】 別の実施形態において、三角形のすぐ上またはすぐ下に位置する点のみが三角
形に関連し、三角形表面のすぐ上またはすぐ下に位置しない点は、2つの三角形
の間に形成された線、または、複数の三角形によって形成された点に関連する。
広い意味では、三角形を形成する線及び三角形のかど点を形成する点を、形状と
してみなすことができることに注意されたに。
In another embodiment, only points located directly above or below the triangle are associated with the triangle, and points not located directly above or below the surface of the triangle were formed between two triangles. It is associated with a line or a point formed by multiple triangles.
It should be noted that, in a broad sense, the lines forming the triangle and the points forming the corner points of the triangle can be considered as shapes.

【0126】 ステップ4003では、ベクトルD1…Dzが、点P1…Pzの各々用に計算
される。特定の実施において、各ベクトルたとえばD1は、その対応する点たと
えばP1から、そのもっとも近い形状たとえばSc1のもっとも近い点への最小
距離によって規定される大きさ及び方向を有する。一般に、点P1…Pzの一部
のみが累積画像に重なり合う。位置合わせする必要がない非重なり合い点は、重
なり合っている点よりも比較的大きな大きさを有する関連ベクトルを有するか、
または、特定の三角形のすぐ上またはすぐ下になくてもよい。したがって、特定
の実施形態において、所定の値(イプシロン値)よりも小さい大きさを有するベ
クトルのみが、さらなる位置合わせに使用される。
In step 4003, the vectors D1 ... Dz are calculated for each of the points P1 ... Pz. In a particular implementation, each vector, eg D1, has a magnitude and direction defined by the minimum distance from its corresponding point, eg P1, to the closest point of its closest shape, eg Sc1. Generally, only some of the points P1 ... Pz overlap the accumulated image. Non-overlapping points that do not need to be aligned have associated vectors with a relatively larger magnitude than the overlapping points, or
Alternatively, it need not be directly above or below a particular triangle. Therefore, in a particular embodiment, only vectors having a magnitude less than a predetermined value (epsilon value) are used for further alignment.

【0127】 重なり合う点になりそうにない点を排除するのに加えて、イプシロン値を使用
して、デコーディングエラーのリスクをさらに減少することができる。たとえば
、パターンの測定線の1本が異なる線であると誤って解釈されると、誤った解釈
の結果として、Z方向に大きなエラーが生じる可能性がある。隣接するパターン
線の間の一般的な距離がおよそ0.3mmであり三角測量の角度がおよそ13度
である場合に、X方向の0.3mmのエラーが、結果として、Z方向においてお
よそ1.3mmの三次元変形エラーになる(0.3mm/tan13度)。イプ
シロン距離が0.5mm未満に保たれる場合には、互いから0.5mmを超えて
さらに離れる表面区域の影響はないことが確実である。特定の実施形態において
、イプシロン値は0.5mmを超える値であるように最初に選択され、たとえば
2.0mmであり、一定の品質に到達すると値が減少されることに注意されたい
In addition to eliminating points that are unlikely to overlap, the epsilon value can be used to further reduce the risk of decoding errors. For example, if one of the measurement lines of the pattern is misinterpreted as a different line, the misinterpretation may result in a large error in the Z direction. If the typical distance between adjacent pattern lines is approximately 0.3 mm and the angle of triangulation is approximately 13 degrees, an error of 0.3 mm in the X direction results in approximately 1. A three-dimensional deformation error of 3 mm occurs (0.3 mm / tan 13 degrees). If the epsilon distance is kept below 0.5 mm, it is certain that there will be no effect of surface areas further away from each other by more than 0.5 mm. Note that in certain embodiments, the epsilon value is initially selected to be greater than 0.5 mm, for example 2.0 mm, and the value is reduced when a certain quality is reached.

【0128】 ステップ4004では、特定の実施形態において、ベクトルD1…Dzがばね
力として取り扱われ、第2の3Dモデルフレームの動きを決定する。特定の実施
形態において、第2の3Dモデルは、すべての力ベクトルD1…Dzの合計をベ
クトルの数で割ったものによって規定される線状方向に動かされる。
In step 4004, in a particular embodiment, the vectors D1 ... Dz are treated as spring forces to determine the movement of the second 3D model frame. In a particular embodiment, the second 3D model is moved in a linear direction defined by the sum of all force vectors D1 ... Dz divided by the number of vectors.

【0129】 ステップ4005では、ベクトルD1…Dzは、第2の3Dモデルの各点用に
再計算される。
In step 4005, the vectors D1 ... Dz are recalculated for each point of the second 3D model.

【0130】 ステップ4006では、ベクトルD1…Dzは、ばね力として取り扱われ、第
2の3Dモデルの動きを決定する。ステップ4004の特定の実施形態用に、第
2の3Dモデルフレームは、ベクトルD1…Dzに基づいた質量中心を中心にし
て回転する。たとえば、第2の3Dモデルは、ばね力が最小になるまで、質量中
心を中心にして回転する。
In step 4006, the vectors D1 ... Dz are treated as spring forces and determine the movement of the second 3D model. For the particular embodiment of step 4004, the second 3D model frame rotates about the center of mass based on the vectors D1 ... Dz. For example, the second 3D model rotates about the center of mass until the spring force is minimal.

【0131】 ステップ4007では、第2の3Dモデルの現在の配向に対する位置合わせの
品質が決定される。位置合わせの品質を規定するために様々な方法を使用するこ
とができることが、当業者には理解される。たとえば、イプシロンよりも小さい
大きさを有するベクトルD1…Dzの標準偏差を使用することができる。別の実
施形態において、下記のステップを使用して品質を計算することができる。すな
わち、ベクトルの距離を二乗し、イプシロン距離内のすべてのベクトルの二乗さ
れた距離を合計し、この合計をベクトルの数で割り、平方根を取る。ベクトル値
D1…Dzは回転ステップ4006後に再計算する必要があることを当業者は認
識することに注意されたい。加えて、品質を示す定量値を提供するのに使用する
ことができる他の統計的計算があることを当業者は認識する。
In step 4007, the quality of alignment of the second 3D model with respect to the current orientation is determined. Those skilled in the art will appreciate that various methods can be used to define the quality of alignment. For example, the standard deviation of the vectors D1 ... Dz having a magnitude smaller than epsilon can be used. In another embodiment, the following steps may be used to calculate quality. That is, the distances of the vectors are squared, the squared distances of all the vectors within the epsilon distance are summed, and the sum is divided by the number of vectors to take the square root. Note that those skilled in the art will recognize that the vector values D1 ... Dz need to be recalculated after the rotation step 4006. In addition, one of ordinary skill in the art will recognize that there are other statistical calculations that can be used to provide a quantitative value indicative of quality.

【0132】 ステップ4009では、ステップ4007で決定された品質が、所望の品質レ
ベルに合致しているか否かが決定される。品質が所望のレベル内であれば、2つ
のフレームモデルの間の完全な位置合わせが達成可能であることを高度の信頼度
で示す。所望の程度の品質が得られたときに方法4000のフローを終結するこ
とによって、ユーザに画像を提供するためにフレームのすべての対にわたって即
座にソートすることが可能である。方法のこの点でデータ内の可能性のある中断
を排除することによって、その後の累積位置合わせは、累積モデルの複数のセグ
メントではなく、単一の累積モデルを作製する可能性が高い。現在の品質レベル
が所望のレベルに合致する場合には、フローは、成功であると示して、適切な呼
び出しステップへ戻る。現在の品質レベルが所望のレベルに合致しない場合には
、フローはステップ4098へ進む。
In step 4009, it is determined whether or not the quality determined in step 4007 matches the desired quality level. A high degree of confidence indicates that perfect alignment between the two frame models can be achieved if the quality is within the desired level. By terminating the flow of method 4000 when the desired degree of quality is achieved, it is possible to sort immediately across all pairs of frames to present the image to the user. By eliminating possible interruptions in the data at this point of the method, subsequent cumulative registration is likely to produce a single cumulative model rather than multiple segments of the cumulative model. If the current quality level matches the desired level, the flow indicates success and returns to the appropriate calling step. If the current quality level does not match the desired level, flow proceeds to step 4098.

【0133】 ステップ4098では、位置合わせの現在の品質が改良しているか否かが決定
される。特定の実施形態において、これは、ステップ4003を含むループを通
る先の通過の品質を現在の品質と比較することによって決定される。品質が改良
していない場合には、フローは、位置合わせは成功しなかったと示して、呼び出
しステップへ戻る。改良している場合には、フローはステップ4003へ進む。
At step 4098, it is determined whether the current quality of registration is improving. In a particular embodiment, this is determined by comparing the quality of previous passes through the loop including step 4003 with the current quality. If the quality has not improved, the flow indicates that the registration was not successful and returns to the calling step. If so, the flow proceeds to step 4003.

【0134】 ステップ4003へ戻ると、新しいフレーム場所を使用して、別の位置合わせ
反復が発生する。ひとたびフレームデータが走査されて格納されると、走査の順
番に正確に位置合わせを行う必要はないということに注意されたい。位置合わせ
は、逆に開始することができ、または、意味のあるいずれの他の順番を使用して
もよい。特に、走査が結果として複数の通過になるときには、フレームがおおよ
そどこに属するかは既に知られている。したがって、隣接するフレームの位置合
わせは、画像形成の順番とは無関係に行うことができる。
Returning to step 4003, another registration iteration occurs using the new frame location. Note that once the frame data is scanned and stored, it is not necessary to align it exactly in the scan order. Alignment can start in reverse, or any other order that makes sense may be used. It is already known where the frame belongs approximately, especially when the scan results in multiple passes. Therefore, the alignment of adjacent frames can be performed regardless of the order of image formation.

【0135】 図41は、図38用の方法4100の特定の実施形態を例示する。具体的には
、方法4100は、すべての個別の3Dフレームモデルを単一の累積3Dモデル
に結合するよう試みる累積位置合わせを開示する。
FIG. 41 illustrates a particular embodiment of method 4100 for FIG. Specifically, method 4100 discloses cumulative registration that attempts to combine all individual 3D frame models into a single cumulative 3D model.

【0136】 ステップ4101から4103はセットアップステップである。ステップ41
01では、変数xが1に等しいように設定され、変数x_lastは、3Dモデ
ルセットの合計数を規定する。3Dモデルセットの数は、図39のステップ39
08に基づいていることに注意されたい。
Steps 4101 to 4103 are setup steps. Step 41
At 01, the variable x is set equal to 1, and the variable x_last defines the total number of 3D model sets. The number of 3D model sets is determined by step 39 in FIG.
Note that it is based on 08.

【0137】 ステップ4102では、3D累積モデル(3Dc)が、当初、フレームの現在
のセットの第1の3Dフレームに等しく設定される。3D累積モデルは、3D累
積モデルによって既に表されていないその後のフレームモデルからその情報を含
むように修正される。
In step 4102, the 3D cumulative model (3Dc) is initially set equal to the first 3D frame of the current set of frames. The 3D cumulative model is modified to include that information from subsequent frame models that are not already represented by the 3D cumulative model.

【0138】 ステップ4103では、Yは2に等しく設定され、変数Y_lastは、セッ
トSxのフレーム(3DF)かまたはフレームモデルの合計数を示すように規定
され、ただし、Sxは位置合わせされているフレームモデルの現在のセットを表
す。
In step 4103, Y is set equal to 2 and the variable Y_last is defined to indicate the total number of frames (3DF) or frame models of the set Sx, where Sx is the aligned frame. Represents the current set of models.

【0139】 ステップ4104では、3D累積モデル(3Dc)が、位置合わせされている
現在の3Dフレームモデル(Sx(3DFy))と3D累積モデル(3DC)と
の間の位置合わせに基づいて追加情報を含むように修正される。図41において
、現在の3DフレームモデルはSx(3Dy)として参照され、ただし、3Dy
はフレームモデルを示し、Sxはフレームセットを示すことに注意されたい。ス
テップ4104の位置合わせを実施するための特定の実施形態は、図42から4
3に例示された方法によってさらに記載される。
In step 4104, the 3D cumulative model (3Dc) provides additional information based on the alignment between the current 3D frame model (Sx (3DFy)) being aligned and the 3D cumulative model (3DC). Modified to include. In FIG. 41, the current 3D frame model is referred to as Sx (3Dy), where 3Dy
Note that denotes the frame model and Sx denotes the frame set. Particular embodiments for performing the alignment of step 4104 are shown in FIGS.
It is further described by the method illustrated in 3.

【0140】 ステップ4199では、現在の3Dフレームモデルが現在のステップの最後の
3Dフレームモデルか否かが決定される。図41の特定の実施形態にしたがって
、これは、変数Yが値Y_lastに等しいか否かを決定することによって達成
することができる。YがY_lastに等しいときには、フローはステップ41
98へ進む。そうでない場合には、フローはステップ4106へ進み、そこで、
現在のセットSyに関連する3Dフレームモデルのさらなる位置合わせのために
ステップ4104へ戻る前に、Yがインクリメントされる。
In step 4199, it is determined whether the current 3D frame model is the last 3D frame model of the current step. According to the particular embodiment of FIG. 41, this can be achieved by determining whether the variable Y is equal to the value Y_last. When Y is equal to Y_last, the flow is step 41.
Proceed to 98. Otherwise, flow proceeds to step 4106, where
Y is incremented before returning to step 4104 for further alignment of the 3D frame model associated with the current set Sy.

【0141】 ステップ4198では、フレームの現在のセットがフレームの最後のセットで
あるか否かが決定される。図41の特定の実施形態にしたがって、これは、変数
xが値x_lastに等しいか否かを決定することによって達成することができ
る。xがx_lastに等しいときには、フローはステップ4105へ進む。そ
うでない場合には、フローはステップ4107へ進み、そこで、次のセットを使
用してさらなる位置合わせのためにステップ4103へ戻る前に、xがインクリ
メントされる。
In step 4198, it is determined whether the current set of frames is the last set of frames. According to the particular embodiment of FIG. 41, this can be achieved by determining whether the variable x is equal to the value x_last. When x is equal to x_last, the flow proceeds to step 4105. If not, flow proceeds to step 4107, where x is incremented before returning to step 4103 for further alignment using the next set.

【0142】 フローがステップ4105に到達するときには、すべてのセットのすべてのフ
レームが位置合わせされている。ステップ4105は、方法4100の位置合わ
せ、及び、いずれの他のクリーンアップ操作の結果を報告する。たとえば、理想
的には方法4100が結果として単一の3D累積モデルを生じるが、実際には、
複数の累積モデルを作製する可能性がある(図43のステップ4207の検討を
参照のこと)。これが発生すると、ステップ4105は、結果として得られる3
D累積モデルの数をユーザに、または取り扱いのために次のルーチンへ、報告す
ることができる。ステップ4105の一部として、ユーザは、複数の3Dモデル
を互いに位置合わせするのを補助する選択肢を有することができる。たとえば、
2つの3D累積モデルが作製されると、ユーザは3D累積モデルを図式的に操作
して、項目点の識別を補助することができ、これを使用して2つの3D累積モデ
ルの間の位置合わせを実施することができる。
When the flow reaches step 4105, all frames in all sets have been aligned. Step 4105 reports the results of the alignment of method 4100 and any other cleanup operations. For example, although method 4100 ideally results in a single 3D cumulative model, in practice
It is possible to create multiple cumulative models (see discussion of step 4207 in Figure 43). When this occurs, step 4105 results in 3
The number of D cumulative models can be reported to the user or to the next routine for handling. As part of step 4105, the user may have options to help align multiple 3D models with each other. For example,
Once the two 3D cumulative models have been created, the user can graphically manipulate the 3D cumulative model to help identify item points, which can be used to align the two 3D cumulative models. Can be carried out.

【0143】 本発明の別の実施形態にしたがって、新しい計算用の項目点として第1の累積
位置合わせから結果として得られるマトリクスを使用して、第2の累積位置合わ
せ処理を実施することができる。1つの実施形態において、単数または複数のフ
レームが最初の試みでは位置合わせに成功することができない点に処理が遭遇す
るときには、項目点のより大きな数を使用することができるか、または、点のよ
り高いパーセンテージを使用することができる。
In accordance with another embodiment of the present invention, the second cumulative registration process may be performed using the resulting matrix from the first cumulative registration as entry points for the new calculation. . In one embodiment, a larger number of item points may be used, or a larger number of item points may be used when the process encounters a point where the frame or frames cannot be successfully registered in the first attempt. Higher percentages can be used.

【0144】 図42から42は、図41のステップ4104に関連した位置合わせの特定の
実施形態を開示する。
42 to 42 disclose particular embodiments of alignment associated with step 4104 of FIG.

【0145】 ステップ4201は、図40のステップ4002に類似しており、現在のフレ
ームSx(3Dy)の各点(P1…Pm)が分析され、もっとも近い形状である
累積モデルの形状を決定する。
Step 4201 is similar to step 4002 of FIG. 40 and each point (P1 ... Pm) of the current frame Sx (3Dy) is analyzed to determine the shape of the closest cumulative model.

【0146】 ステップ4202は、図40のステップ4003を参照して先に記載されたや
り方に類似したやり方で現在のフレームの各点のベクトルを規定する。
Step 4202 defines a vector for each point of the current frame in a manner similar to that previously described with reference to step 4003 of FIG.

【0147】 ステップ4203から4206は、図40のステップ4004から4006で
記載されたやり方で現在の3Dフレームモデルを動かし、方法4000の第1の
モデルは累積モデルであり、方法4000の第2のモデルは現在のフレームであ
る。
Steps 4203 to 4206 move the current 3D frame model in the manner described in steps 4004 to 4006 of FIG. 40, the first model of method 4000 is a cumulative model, and the second model of method 4000 is Is the current frame.

【0148】 ステップ4299では、位置合わせステップ4202から4206を通る現在
の通過が、結果として、累積モデルと現在のフレームモデルとの間に改良された
整列配置を生じたか否かが決定される。品質改良を決定する1つの方法は、モデ
ルの現在の位置に基づいた品質値をモデルの先の位置に基づいた品質値に比較す
ることである。図40を参照して先に検討したように、品質値は、標準偏差かま
たはDベクトルに基づいた他の品質計算を使用して、決定することができる。デ
フォルトで、各モデル3Dy用のステップ4202から4206を通る第1の通
過が、結果として改良された整列配置になることに注意されたい。改良された整
列配置が発生すると、フローはステップ4202へ戻り、そうでなければ、フロ
ーは図43のステップ4298へ進む。
At step 4299, it is determined whether the current pass through registration steps 4202 to 4206 resulted in an improved alignment between the cumulative model and the current frame model. One way to determine the quality improvement is to compare the quality value based on the current position of the model to the quality value based on the previous position of the model. As discussed above with reference to FIG. 40, quality values can be determined using standard deviations or other quality calculations based on the D vector. Note that by default, the first pass through steps 4202 to 4206 for each model 3Dy results in an improved alignment. If the improved alignment occurs, flow returns to step 4202, else flow proceeds to step 4298 of FIG.

【0149】 図42の累積位置合わせ方法用のフロー制御は、図40の単一フレーム位置合
わせ方法用のフロー制御とは異なることに注意されたい。具体的には、累積フロ
ーは品質の改良が実現されなくなるまで続くが、単一フレームのフローは、ひと
たび特定の品質に到達すると、停止する。位置合わせルーチン内でフローを制御
する他の実施形態が予期される。
Note that the flow control for the cumulative registration method of FIG. 42 is different from the flow control for the single frame registration method of FIG. Specifically, the cumulative flow continues until no quality improvement is realized, but the single frame flow stops once a certain quality is reached. Other embodiments of controlling flow within the registration routine are envisioned.

【0150】 代替フロー制御実施形態において、位置合わせ反復処理は、収束基準が合致さ
れる限り、続けられる。たとえば、収束基準は、定率よりも大きい品質の改良が
実現される限り、合致されるとみなされる。そのようなパーセンテージは、0.
5から10%の範囲内であり得る。
In an alternative flow control embodiment, the registration iteration process continues as long as the convergence criteria are met. For example, the convergence criterion is considered to be met as long as a quality improvement greater than a constant rate is achieved. Such a percentage is 0.
It can be in the range of 5 to 10%.

【0151】 別の実施形態において、たとえひとたび収束または品質に改良がない等の特定
の第1の基準が合致しても、追加の静止反復を使用することができる。静止反復
は、ひとたび品質レベルが改良を停止するかまたは所定の基準に合致した場合に
、位置合わせルーチンを通過する。特定の実施において、静止反復の数を固定す
ることができる。たとえば、3から10の追加反復を特定することができる。
In another embodiment, additional stationary iterations may be used even if certain first criteria are met, such as once there is no convergence or quality improvement. The static iteration passes through the registration routine once the quality level stops improving or meets a predetermined criterion. In a particular implementation, the number of stationary iterations can be fixed. For example, 3 to 10 additional iterations can be identified.

【0152】 ステップ4298では、現在の位置合わせが成功か否かが決定される。特定の
実施において、成功は単に、現在のモデル配置の計算された品質値が所定の基準
に合致するか否かに基づいている。そうであれば、位置合わせは成功であり、ル
ーチン4200は呼び出しステップへ戻る。基準に合致しなければ、フローはス
テップ4207へ進む。
At step 4298, it is determined whether the current alignment is successful. In a particular implementation, success is simply based on whether the calculated quality value of the current model placement meets the predetermined criteria. If so, the alignment was successful and routine 4200 returns to the calling step. If the criteria are not met, flow proceeds to step 4207.

【0153】 ステップ4207では、現在のフレームモデルが累積3Dモデルに成功して位
置合わせすることができないことが決定されている。したがって、現在の累積3
Dモデルは保存され、現在のフレームを有する新しい累積3Dモデルが開始され
る。先に記載されたように、新しい3D累積モデルが開始されているため、点モ
デルである現在の3Dフレームモデルは、呼び出しステップへ戻る前に、初期モ
デルへ転換される。
In step 4207, it is determined that the current frame model cannot successfully align with the cumulative 3D model. Therefore, the current cumulative 3
The D model is saved and a new cumulative 3D model with the current frame is started. Since a new 3D cumulative model has been started, as described above, the current 3D frame model, which is a point model, is converted to the initial model before returning to the calling step.

【0154】 本発明の多くの他の実施形態が存在する。たとえば、ステップ4004、40
06、4203及び4205の間のフレームの動きは、加速または過剰運動の構
成要素を含んでもよい。たとえば、特定の方向における動きが1mmである必要
があると分析によって示すことができる。しかし、計算されているサンプルのサ
イズまたは他の因子を補償するために、フレームは1.5mmで、または他の何
らかのスケールされた因子で、動くことができる。フレームのその後の動きは、
類似のまたは異なる加速因子を使用することができる。たとえば、より小さい加
速値を、位置合わせ進捗のために使用することができる。加速因子を使用するこ
とによって、整列配置する重なり合い特徴部が発生しないときに生じる極小値を
補償する助けをする。これが発生するときには、小さな運動値が結果としてより
低い品質レベルになりうる。しかし、加速を使用することによって、整列配置ミ
スを克服することができる可能性が高い。一般に、加速は、特徴部の「でこぼこ
」を克服するのに有益であり得る。
There are many other embodiments of the invention. For example, steps 4004, 40
The motion of the frame between 06, 4203 and 4205 may include components of acceleration or hypermotion. For example, the analysis can indicate that movement in a particular direction should be 1 mm. However, to compensate for the size of the sample being calculated or other factors, the frame can move by 1.5 mm, or some other scaled factor. The subsequent movement of the frame is
Similar or different accelerating factors can be used. For example, a smaller acceleration value can be used for registration progress. The use of acceleration factors helps compensate for the local minima that occur when the aligning overlapping features do not occur. When this occurs, small motion values can result in lower quality levels. However, misalignment is likely to be overcome by using acceleration. In general, acceleration can be beneficial in overcoming feature "bumps".

【0155】 本願の方法に示される特定のステップ、及び/または、本願の特定のモジュー
ルの機能が一般に、ハードウェア及び/またはソフトウェアで実施されてもよい
ことを理解すべきである。たとえば、1つまたはそれ以上の処理モジュールで実
行されるソフトウェア及び/またはファームウェアを使用して、特定のステップ
または機能が実施されてもよい。
It should be understood that the particular steps shown in the methods of the present application and / or the functionality of the particular modules of the present application may generally be implemented in hardware and / or software. For example, particular steps or functions may be implemented using software and / or firmware running on one or more processing modules.

【0156】 典型的には、走査及び/または走査されたデータの位置合わせ用のシステムは
、一般的なまたは特定の処理モジュール及びメモリを含む。処理モジュールは、
単一の処理装置または複数の処理装置に基づくことができる。そのような処理装
置は、マイクロプロセッサ、マイクロコントローラ、デジタルプロセッサ、マイ
クロコンピュータ、中央演算処理装置の一部、状態機械、論理回路、及び/また
は、信号を操作するいずれの装置であってもよい。
[0156] Typically, systems for scanning and / or alignment of scanned data include general or specific processing modules and memory. The processing module
It can be based on a single processor or multiple processors. Such a processor may be a microprocessor, microcontroller, digital processor, microcomputer, part of a central processing unit, state machine, logic circuit, and / or any device that manipulates signals.

【0157】 これらの信号の操作は一般に、メモリに表される操作指令に基づく。メモリは
、単一のメモリ装置であってもよく、または複数のメモリ装置であってもよい。
そのようなメモリ装置(機械読取可能な媒体)は、リードオンリーメモリ、ラン
ダムアクセスメモリ、フロッピー(登録商標)ディスクメモリ、磁気テープメモ
リ、消去可能なメモリ、システムメモリの一部、デジタルフォーマットで操作指
令を格納する他のいずれの装置であってもよい。処理モジュールが1つまたはそ
れ以上の機能を実施するときには、対応する操作指令を格納するメモリが状態機
械及び/または他の論理回路を備える回路内に埋め込まれているところで、行わ
れてもよいことに注意されたい。
Manipulation of these signals is generally based on manipulation instructions represented in memory. The memory may be a single memory device or multiple memory devices.
Such memory devices (machine-readable media) include read-only memory, random access memory, floppy disk memory, magnetic tape memory, erasable memory, part of system memory, operating instructions in digital format. May be any other device that stores When the processing module performs one or more functions, it may be performed where the memory storing the corresponding operating instructions is embedded in a circuit with a state machine and / or other logic circuits. Please note.

【0158】 本発明は、特定の実施形態を参照して記載されてきた。他の実施形態において
、3つ以上の位置合わせ処理を使用することができる。たとえば、累積位置合わ
せ処理が中断して、結果として複数の累積モデルができる場合、その後の位置合
わせルーチンを使用して、複数の累積モデルの間の位置合わせを試みることがで
きる。
The present invention has been described with reference to particular embodiments. In other embodiments, more than two alignment processes can be used. For example, if the cumulative registration process is interrupted, resulting in multiple cumulative models, a subsequent registration routine may be used to attempt the registration between the multiple cumulative models.

【0159】 図44から52は、ここに記載された特定のやり方で得ることができる解剖学
的構造物の三次元走査データを使用して特定の方法及び装置を例示する。三次元
走査データは、さらに使用するために、遠隔施設へ発信される。たとえば、三次
元走査データは、解剖学的装置を設計するか、解剖学的装置を製造するか、生体
組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定期間保
存するか、解剖学的構造物の閉鎖ループ反復分析を実施するか、構造物の反復相
談を実施するか、構造物に基づいたシミュレーションを実施するか、解剖学的構
造物に関する診断を行うか、または、解剖学的構造物に基づいた治療計画を決定
するために使用される解剖学的構造物の生体組織を表すことができる。
44 to 52 illustrate particular methods and devices using three-dimensional scan data of anatomical structures that can be obtained in the particular manner described herein. The 3D scan data is transmitted to a remote facility for further use. For example, the three-dimensional scan data is used to design an anatomical device, manufacture an anatomical device, monitor a structural change of a living tissue, or store data belonging to an anatomical structure for a predetermined period. Perform closed loop iterative analysis of anatomical structures, iterative consultation of structures, structure-based simulations, make diagnostics on anatomical structures, or , Can represent anatomy anatomy used to determine an anatomical-based treatment plan.

【0160】 ここで使用されるように、解剖学的装置は、解剖学的構造物を能動的にまたは
受動的に補足するかまたは修正する装置を含むように規定される。解剖学的器具
は、歯列矯正器具を含み、これは能動的であっても受動的であってもよく、歯列
矯正用ブリッジ、保持器、ブラケット、ワイヤ及び位置決め器等の項目を含むこ
とができるが、これに限定されない。他の解剖学的器具の例として、副子及びス
テントが挙げられる。歯列矯正及び人工装具の解剖学的装置の例として、取り外
し可能な人工装具装置、固定人工装具装置及び移植可能な装置が挙げられる。取
り外し可能な人工装具装置の例として、義歯、部分的義歯等の歯科構造物、及び
、他の身体部分用の人工装具構造物、たとえば、四肢、眼、美容整形に含まれる
移植片、補聴器、及び、眼鏡のフレーム等の類似物を含む人工身体部分として作
用する人工装具装置等が挙げられる。固定人工装具装置解剖学的装置の例として
、キャップ、歯冠、及び、他の非歯科解剖学的交換構造物が挙げられる。移植可
能な人工装具装置の例として、骨内インプラント及び歯列矯正インプラント、及
び、破損を保持するか減少するために使用されるプレート等の固定装置が挙げら
れる。
As used herein, anatomical devices are defined to include devices that actively or passively supplement or modify anatomical structures. Anatomical instruments include orthodontic instruments, which may be active or passive, and include items such as orthodontic bridges, retainers, brackets, wires and positioners. However, the present invention is not limited to this. Examples of other anatomical instruments include splints and stents. Examples of orthodontic and prosthetic anatomical devices include removable prosthetic devices, fixed prosthetic devices and implantable devices. Examples of removable prosthesis devices include dentures, dental structures such as partial dentures, and prosthesis structures for other body parts, such as limbs, eyes, implants included in cosmetic surgery, hearing aids, Also included are prosthetic devices that act as artificial body parts including analogues such as eyeglass frames. Examples of fixed prosthetic device anatomical devices include caps, crowns, and other non-dental anatomical replacement structures. Examples of implantable prosthetic devices include endosseous and orthodontic implants and fixation devices such as plates used to hold or reduce fractures.

【0161】 図44は、本発明にしたがったフローを例示する。具体的には、図44は、施
設4441で走査装置4401によって解剖学的構造物4400を走査するのを
例示する。本発明の1つの態様にしたがって、ここに提案された目的のためにデ
ジタルデータを作製することができるいずれのスキャナタイプまたは方法を使用
することができる。直接三次元表面走査は、解剖学的構造物のいくつかまたはす
べてを、直接走査することができることを示す。直接三次元表面走査を実施する
1つの実施形態は、ここに先に記載されている。1つの実施形態において、走査
は表面走査であり、それによって走査装置4401は、信号及び/または構造物
4400の表面でまたはその近傍でそれから反射したパターンを検出する。特定
の表面走査方法及び装置は、ここに先に記載されている。他の走査方法も使用す
ることができる。
FIG. 44 illustrates a flow according to the present invention. Specifically, FIG. 44 illustrates scanning anatomical structure 4400 by scanning device 4401 at facility 4441. According to one aspect of the invention, any scanner type or method capable of producing digital data for the purposes proposed herein can be used. Direct three-dimensional surface scanning shows that some or all of the anatomical structures can be scanned directly. One embodiment for performing a direct three-dimensional surface scan has been previously described herein. In one embodiment, the scan is a surface scan whereby the scanning device 4401 detects signals and / or patterns reflected therefrom at or near the surface of the structure 4400. Specific surface scanning methods and devices have been previously described herein. Other scanning methods can also be used.

【0162】 一般に、解剖学的構造物の表面走査は、解剖学的構造物の直接走査である。直
接走査は、実際の解剖学的構造物を走査することを意味する(生体内)。代替実
施形態において、解剖学的構造物の間接走査を行うこともでき、直接走査と統合
することもできる。間接走査は、実際の元々の解剖学的構造物の表示を走査する
ことを意味する(生体外)。
Generally, a surface scan of an anatomical structure is a direct scan of the anatomical structure. Direct scanning means scanning the actual anatomy (in vivo). In alternative embodiments, indirect scanning of the anatomical structure can be performed or integrated with direct scanning. Indirect scanning means scanning the representation of the actual original anatomical structure (in vitro).

【0163】 デジタルデータ4405は、解剖学的構造物4400の直接走査に基づいて施
設(場所)4441で作製される。1つの実施形態において、デジタルデータ4
405は、未加工の走査データを表し、これは一般に、走査装置4401によっ
て作製された、点の二次元クラウドである。別の実施形態において、デジタルデ
ータ4405は三次元点モデルを表し、これは一般に、点の二次元クラウドに基
づいて作製される。さらに別の実施形態において、デジタルデータ4405は三
次元初期モデルを表す。デジタルデータ4405は複数の独立した走査の複合で
あってもよく、これは、時間的にほぼ同一の点または異なる点で実施されてもよ
く、且つ、同一の場所または異なる場所で実施されてもよい。
Digital data 4405 is generated at facility 4441 based on a direct scan of anatomical structure 4400. In one embodiment, digital data 4
405 represents the raw scan data, which is typically a two-dimensional cloud of points created by the scanning device 4401. In another embodiment, digital data 4405 represents a three-dimensional point model, which is generally created based on a two-dimensional cloud of points. In yet another embodiment, digital data 4405 represents a three-dimensional initial model. The digital data 4405 may be a composite of multiple independent scans, which may be performed at about the same or different points in time, and at the same or different locations. Good.

【0164】 デジタルデータ4405の実際のデータの種類は、場所4441で未加工の走
査データになされた処理の量によって決定される。一般に、スキャナ4401か
ら直接受け取られたデータは、点の二次元クラウドである。したがって、施設4
441で何の処理も実施されないときには、デジタルデータ4405は点の二次
元クラウドである。三次元点モデル及び三次元初期モデルは一般に、二次元点ク
ラウドをさらに処理することによって作製される。
The actual data type of digital data 4405 is determined by the amount of processing performed on the raw scan data at location 4441. Generally, the data received directly from the scanner 4401 is a two dimensional cloud of points. Therefore, facility 4
When no processing is performed at 441, the digital data 4405 is a two-dimensional cloud of points. The 3D point model and the 3D initial model are generally created by further processing the 2D point cloud.

【0165】 施設4441は、解剖学的構造物の物理的走査が発生する場所を表す。1つの
実施形態において、施設4441は、解剖学的構造物を走査するのに専用の、ま
たは主に専用の場所である。この実施形態において、施設は、走査を必要とする
大勢のクライアント(患者)が容易にアクセスすることができるところに位置す
る。たとえば、ショッピングモールのボックスまたは小規模ショッピングセンタ
ーの場所が、走査を実施するために専用であり得る。そのような施設は、広く様
々な走査を実施してもよく、または、顔構造物または歯構造物の走査等の特定の
種類の走査に特化されてもよい。代替実施形態において、走査は、ユーザが家庭
で実施することができる。たとえば、ユーザには、携帯スキャナを提供すること
ができ、解剖学的構造物を走査するのに遠隔使用して治療計画の進捗をモニタす
るために使用することができる走査データを作製するためか、または診断目的か
、または、調査またはモニタ目的かである。
Facility 4441 represents where a physical scan of the anatomical structure occurs. In one embodiment, the facility 4441 is a dedicated or predominantly dedicated location for scanning anatomical structures. In this embodiment, the facility is located within easy access to a large number of clients (patients) in need of scanning. For example, a shopping mall box or small shopping center location may be dedicated to performing the scan. Such a facility may perform a wide variety of scans, or may be specialized for a particular type of scan, such as a scan of facial or dental structures. In an alternative embodiment, the scanning can be performed at home by the user. For example, a user may be provided with a handheld scanner and used to generate scan data that can be used remotely to scan an anatomical structure and used to monitor the progress of a treatment plan. , Or for diagnostic purposes, or for investigative or monitoring purposes.

【0166】 別の実施形態において、施設4441は、解剖学的構造物を走査し、デジタル
データ4405を作製することに関する、他の付加価値のあるサービスを実施す
る場所である。他の付加価値のあるサービスの例として、デジタルデータ440
5を作製するために走査データに基づいて解剖学的装置を設計するかまたは部分
的に設計すること、または、そのような解剖学的装置を設置することが挙げられ
る。1つの実施形態において、デジタルデータ4405の作製を超えた付加価値
サービスは施設4441で実施されない。
In another embodiment, facility 4441 is a location for performing other value-added services related to scanning anatomical structures and producing digital data 4405. Other examples of value-added services include digital data 440.
Designing or partially designing an anatomical device based on scan data to create 5, or installing such an anatomical device. In one embodiment, value-added services beyond the production of digital data 4405 are not performed at facility 4441.

【0167】 ひとたびデジタルデータ4405が施設4441で作製されると、デジタルデ
ータをクライアントに提供することができる。接続4406は第三者へ提供され
ているデジタルデータを表す。提供するこのステップは、クライアントによって
、施設4441によって、または、他のいずれの中間源によって、行うことがで
きる。一般に、クライアントは、データが送られるべき第三者を特定する。デジ
タルデータ4405は、物理的にすなわち郵便またはクーリエによって、または
、遠隔的にすなわち通信によって、施設4442へ提供することができる。たと
えば、デジタルデータ4405は、不揮発性の格納装置、たとえば、携帯磁気媒
体、リードオンリーフューズ装置またはプログラム可能な不揮発性装置に、物理
的に設けることができる。他の実施形態において、デジタルデータは、直接接続
、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、
ワイヤレス接続、及び/または、デジタル情報を1つの計算システムから別の計
算システムへ移送することができるいずれの装置によって、クライアントまたは
第三者へ送信することができる。特定の実施形態において、デジタルデータのす
べてまたはいくらかを発信する必要がある。たとえば、走査が患者の歯及び関連
構造物、たとえば歯肉等の場合、歯の一部が発信される。
Once the digital data 4405 has been created at the facility 4441, the digital data can be provided to the client. Connection 4406 represents digital data being provided to a third party. This step of providing can be performed by the client, by facility 4441, or by any other intermediate source. Generally, the client identifies the third party to which the data should be sent. Digital data 4405 can be provided to facility 4442 physically, ie, by post or courier, or remotely, ie, by communication. For example, the digital data 4405 can be physically provided in a non-volatile storage device, such as a portable magnetic medium, a read-only fuse device or a programmable non-volatile device. In other embodiments, the digital data is a direct connection, the internet, a local area network, a wide area network,
It may be transmitted to the client or a third party by a wireless connection and / or any device capable of transferring digital information from one computing system to another. In certain embodiments, all or some of the digital data needs to be transmitted. For example, if the scan is the patient's teeth and associated structures, such as the gingiva, a portion of the teeth is transmitted.

【0168】 図44の特定の実施形態において、施設4442(受取施設)で受け取られた
デジタルデータ4405を使用して、ステップ4415で解剖学的装置を設計す
る。図45は、ステップ4415の2つの代替実施形態を有する方法を例示する
。第1の実施形態は、ステップ4501で開始し、物理的モデルを使用して解剖
学的構造物を設計し、一方、第2の実施形態は、ステップ4511で開始し、解
剖学的装置の仮想モデルを使用する構造物を設計する。解剖学的装置の仮想モデ
ルは一般に、コンピュータが作製した仮想のモデルである。
In the particular embodiment of FIG. 44, digital data 4405 received at facility 4442 (recipient facility) is used to design an anatomical device at step 4415. FIG. 45 illustrates a method having two alternative embodiments of step 4415. The first embodiment starts at step 4501 to design an anatomical structure using a physical model, while the second embodiment starts at step 4511 to create a virtual anatomical device. Design a structure that uses the model. The virtual model of the anatomical device is generally a computer-generated virtual model.

【0169】 ステップ4501では、デジタルデータ4405を使用して、解剖学的構造物
の物理的な三次元物理的モデルの作製が発生する。特定の実施形態において、走
査された物体の物理的モデルは、数値的に制御された処理技術、たとえば、三次
元プリンティング、自動化フライス削り、レーザ焼結、立体リソグラフィ、射出
成形及び押出成形を使用して作製される。
In step 4501, digital data 4405 is used to generate a physical three-dimensional physical model of the anatomical structure. In certain embodiments, the physical model of the scanned object uses numerically controlled processing techniques such as three-dimensional printing, automated milling, laser sintering, stereolithography, injection molding and extrusion. It is made by.

【0170】 ステップ4502では、三次元物理的モデルを使用して解剖学的装置を設計す
る。たとえば、物理的モデルを使用して、医者は、クライアントによって使用さ
れる解剖学的装置を作製する。1つの実施形態において、解剖学的装置は、物理
的モデルに基づいてカスタム設計される。別の実施形態において、解剖学的構造
物の物理的モデルに基づいて標準歯列矯正装置が選択される。これらの標準装置
は、必要に応じて修正されてもよく、セミカスタム装置を形成する。
In step 4502, the three-dimensional physical model is used to design an anatomical device. For example, using the physical model, the doctor creates the anatomical device used by the client. In one embodiment, the anatomical device is custom designed based on the physical model. In another embodiment, a standard orthodontic device is selected based on the physical model of the anatomy. These standard devices may be modified as needed to form a semi-custom device.

【0171】 図45のステップ4503では、解剖学的装置の製造は物理的モデルに基づく
ことができる。物理的モデルが使用される場合には、設計するステップ4502
及び製造するステップ4503は、設計及び製造処理が同時に発生しているステ
ップであることが多い。他の実施形態において、所望の解剖学的装置の成型品ま
たは仕様書が作られ、カスタム設計及び/または製造のために、処理センターへ
送られる。
In step 4503 of FIG. 45, anatomical device fabrication may be based on a physical model. If a physical model is used, design step 4502
And manufacturing step 4503 is often the step where the design and manufacturing processes are occurring at the same time. In another embodiment, a molding or specification of the desired anatomical device is made and sent to a processing center for custom design and / or manufacturing.

【0172】 ステップ4511で開始する代替実施形態において、解剖学的装置の仮想三次
元モデルを使用して、解剖学的装置を設計する。仮想三次元モデルは、数値的に
制御される装置、たとえばコンピュータによって作製されたモデルを意味し、デ
ジタルデータ4405を含むかまたはデジタルデータ4405に基づいて作製さ
れるかのいずれかである。1つの実施形態において、仮想三次元モデルは、設計
センターへ提供されるデジタルデータ4405の部分として含まれる。別の実施
形態において、三次元モデルがデジタルデータを使用して作製され、ステップ4
511で受け取られる。別の実施形態において、代替三次元モデルが、デジタル
データ4405の部分として含まれる三次元モデルに基づいて、ステップ451
1で作製される。別の実施形態において、複数の三次元モデルを複数の走査から
一緒にとじることができる。たとえば、複数の走査セッションからのデータを使
用することができる。
In an alternative embodiment starting at step 4511, a virtual three-dimensional model of the anatomical device is used to design the anatomical device. A virtual three-dimensional model means a model produced by a numerically controlled device, such as a computer, either containing digital data 4405 or made based on digital data 4405. In one embodiment, the virtual three-dimensional model is included as part of the digital data 4405 provided to the design center. In another embodiment, a three-dimensional model is created using digital data, step 4
Received at 511. In another embodiment, the alternative 3D model is based on the 3D model included as part of the digital data 4405, step 451.
Made in 1. In another embodiment, multiple 3D models can be stitched together from multiple scans. For example, data from multiple scan sessions can be used.

【0173】 さらに、ステップ4511では、仮想解剖学的装置が仮想三次元モデルを使用
して設計(モデル化)される。仮想装置は、仮想装置を特定するための標準のま
たはカスタム設計ソフトウェアを使用して設計することができる。そのような設
計ソフトウェアの例として、市販の製品、たとえば、AutoCAD、Alia
s、Inc及びProEngineerが挙げられる。たとえば、設計ソフトウ
ェアを使用して、解剖学的構造物の三次元仮想モデルを使用する仮想歯冠を設計
することができるか、または、実際の装置を表す装置のライブラリから、カスタ
ムに近いか標準かまたは仮想の装置を選択することができる。標準装置を選択す
ることに続いて、カスタム化を行うことができる。
Further, in step 4511, the virtual anatomical device is designed (modeled) using the virtual three-dimensional model. Virtual devices can be designed using standard or custom design software to identify virtual devices. Examples of such design software include commercially available products such as AutoCAD, Alia.
s, Inc and ProEngineer. For example, the design software can be used to design a virtual crown using a 3D virtual model of an anatomical structure, or a near custom or standard from a library of devices that represent the actual device. Alternatively, a virtual device can be selected. Following the selection of standard equipment, customization can be done.

【0174】 ステップ4512では、解剖学的装置が、装置の仮想仕様に基づいて直接製造
することができる。たとえば、解剖学的装置は、数値的に制御された処理技術、
たとえば、三次元プリンティング、自動化フライス削り、または、レーザ焼結、
立体リソグラフィ、及び、射出成形及び押出成形、及び、注型技術を使用して、
作製することができる。解剖学的装置の製造は、装置を部分的に製造すること、
及び、複数の場所で装置を製造することを含むことが認識される。
At step 4512, the anatomical device can be manufactured directly based on the virtual specifications of the device. For example, anatomical devices have numerically controlled processing techniques,
For example, three-dimensional printing, automated milling, or laser sintering,
Using stereolithography and injection and extrusion and casting techniques,
Can be made. Manufacture of anatomical devices consists of partially manufacturing the device,
And that it includes manufacturing the device at multiple locations.

【0175】 ステップ4426では、製造された解剖学的装置が走査される。製造された解
剖学的装置の仮想モデルを作製することによって、製造された解剖学的装置と解
剖学的構造物との間の関係を検証するためにシミュレーションを実施することが
でき、それによって、閉鎖ループを提供して、装置の適切な製造を保証する。
At step 4426, the manufactured anatomical device is scanned. By creating a virtual model of the manufactured anatomical device, a simulation can be performed to verify the relationship between the manufactured anatomical device and the anatomical structure, thereby A closed loop is provided to ensure proper manufacture of the device.

【0176】 ステップ4504では、完成した解剖学的装置が、設置のため特定の場所へ送
られる。たとえば、図44へ戻ると、解剖学的装置は施設4444へ送られ、そ
こで、ステップ4435で設置が発生する。1つの実施形態において、解剖学的
装置はステップ4435で、医者、たとえば、歯科医、歯列矯正医、内科医また
は療法士によって設置される。別の実施形態では、患者が、いくつかの歯列矯正
装置、たとえば、保持器または類似の位置決め装置を設置することができる。
At step 4504, the completed anatomical device is shipped to a specific location for installation. For example, returning to FIG. 44, the anatomical device is sent to facility 4444 where the installation occurs at step 4435. In one embodiment, the anatomical device is installed at step 4435 by a physician, eg, a dentist, orthodontist, physician, or therapist. In another embodiment, the patient may install some orthodontic devices, such as retainers or similar positioning devices.

【0177】 本発明の特定の実施形態にしたがって、解剖学的装置は、デジタルデータ44
05が受け取られるかまたは作製されるところに対して遠隔な場所で、設計され
るかまたは製造される。1つの実施形態において、デジタルデータは場所444
1で受け取られる。具体的には、デジタルデータは、解剖学的構造物4400を
走査することによって受け取られる。ひとたび受け取られると、デジタルデータ
は場所4442へ発信され、これは場所4441に対して遠隔地であり、そこで
解剖学的装置が少なくとも部分的に設計される。
In accordance with certain embodiments of the present invention, the anatomical device includes digital data 44
Designed or manufactured at a location remote from where 05 is received or made. In one embodiment, the digital data is location 444.
Received in 1. Specifically, digital data is received by scanning anatomical structure 4400. Once received, the digital data is transmitted to location 4442, which is remote to location 4441, where the anatomical device is at least partially designed.

【0178】 遠隔地(施設)は、何らかのやり方で他の場所から引き離されたところである
。たとえば、遠隔地は、他の場所から物理的に離れた場所であってもよい。たと
えば、走査施設は、異なった部屋、建物、都市、州、国または他の場所内にあっ
てもよい。別の実施形態において、遠隔地は、機能的に独立した場所であり得る
。たとえば、一方の場所は、1つの特定の機能または機能のセットを実施するた
めに使用することができ、他方、別の場所は、異なる機能を実施するために使用
することができる。異なる機能の例として、走査、設計及び製造が挙げられる。
遠隔地は一般に、人員及び設備等の別個の構造基盤によって支持される。
A remote location (facility) is one that is somehow separated from another location. For example, a remote location may be a location that is physically remote from other locations. For example, scanning facilities may be in different rooms, buildings, cities, states, countries or other locations. In another embodiment, the remote location may be a functionally independent location. For example, one location can be used to perform one particular function or set of functions, while another location can be used to perform a different function. Examples of different functions include scanning, designing and manufacturing.
Remote areas are generally supported by separate structural foundations such as personnel and equipment.

【0179】 別の実施形態において、施設4441でデジタルデータ4405は、部分的に
設計された解剖学的装置を含む。解剖学的装置は、遠隔施設4442でさらに設
計される。施設4442は、最終解剖学的装置を決定するか、診断を行うか、治
療計画を形成するか、進捗をモニタするか、または、コスト、専門的知識、通信
の容易さ及び必要な応答時間に基づいて装置を設計するかのために、平行してま
たは連続して使用することができる1つまたはそれ以上の遠隔施設を表すことが
できることに注意されたい。平行施設の例は、図48にさらに例示される。
In another embodiment, digital data 4405 at facility 4441 includes partially designed anatomical devices. The anatomical device is further designed at remote facility 4442. Facility 4442 may determine the final anatomical device, make a diagnosis, formulate a treatment plan, monitor progress, or determine cost, expertise, ease of communication and required response time. It should be noted that, depending on whether the device is designed on the basis, it may represent one or more remote facilities that can be used in parallel or serially. An example of a parallel facility is further illustrated in FIG.

【0180】 図46は、本発明の別の実施形態を例示する。図46のフローは、図44のフ
ローに類似しており、追加中間ステップ4615を有する。中間ステップ461
5は、デジタルデータ4405が、データが走査された施設4441から直接受
け取られる必要はないことを示す。たとえば、デジタルデータを走査し、これを
、中間ステップ4615が発生する第2の施設4641(受取施設)へ提供する
ことによって、デジタルデータ4405を第1の施設(送出施設)で作製するこ
とができる。ひとたび中間ステップ4615が完了すると、デジタルデータ44
05またはデジタルデータの表示である修正されたデジタルデータを、第1及び
第2の施設の少なくとも一方に対して遠隔である第3の施設(遠隔施設)へ発信
することができる。中間ステップ4615中に、データが第3の施設へ送られる
前に、他のステップがデジタルデータ4405を修正することができる。たとえ
ば、走査データを処理して解剖学的構造物の三次元仮想モデルを提供することが
でき、データをデジタルデータに加えることができ、走査された解剖学的構造物
4400の画像データ、色情報、診断情報、治療情報を含むビデオ及び/または
写真データ、音声データ、テキストデータ、X線データ、解剖学的装置設計情報
、及び、解剖学的装置の設計または製造に属する他のいずれのデータを含む。代
替実施形態において、中間ステップ4615はデジタルデータ4405を変える
必要はない。
FIG. 46 illustrates another embodiment of the present invention. The flow of FIG. 46 is similar to the flow of FIG. 44 and has an additional intermediate step 4615. Intermediate step 461
5 indicates that the digital data 4405 need not be received directly from the facility 4441 from which the data was scanned. For example, digital data 4405 can be produced at a first facility (delivery facility) by scanning the digital data and providing it to a second facility 4641 (reception facility) where intermediate step 4615 occurs. . Once the intermediate step 4615 is complete, the digital data 44
05 or modified digital data, which is a display of digital data, can be transmitted to a third facility (remote facility) remote to at least one of the first and second facilities. During the intermediate step 4615, other steps may modify the digital data 4405 before the data is sent to the third facility. For example, the scan data can be processed to provide a three-dimensional virtual model of the anatomy, the data can be added to the digital data, image data of the scanned anatomy 4400, color information. , Video and / or photographic data, including diagnostic information, treatment information, audio data, text data, X-ray data, anatomical device design information, and any other data pertaining to anatomical device design or manufacture. Including. In an alternative embodiment, the intermediate step 4615 need not change the digital data 4405.

【0181】 図47は、ステップ4741で法医学的評価のために施設4742でデジタル
データ4405が受け取られる本発明の代替実施形態を例示する。法医学的評価
の例として、走査された解剖学的構造物に基づいた犠牲者の識別が挙げられる。
そのような識別は一般に、特定の解剖学的構造物を目標データベース内に含まれ
る解剖学的構造物に整合することに基づいて行われ、目標データベースは単一の
構造物、複数の構造物を含むことができる。1つの実施形態において、目標デー
タベースは、所定期間保存されたデータを含む中央に位置するデータベースであ
ってもよい。
FIG. 47 illustrates an alternative embodiment of the invention in which digital data 4405 is received at facility 4742 for forensic evaluation at step 4741. An example of forensic evaluation includes victim identification based on scanned anatomical structures.
Such identification is generally based on matching a particular anatomical structure to an anatomical structure contained within the target database, which may be a single structure or multiple structures. Can be included. In one embodiment, the target database may be a centrally located database that contains data stored for a period of time.

【0182】 図48は、デジタルデータ4405またはその表示が、ステップ4844及び
4845で診断目的または治療計画のために、1つまたはそれ以上の遠隔施設4
843へ送られる本発明の実施形態を例示する。診断目的のためにデータを発信
することができることによって、患者が物理的に存在する必要なしで、専門家等
の他の医者へ、解剖学的構造物の三次元情報を提供することができる。これがで
きることによって、治療の全体的速度及び便利さ、及び、複数の診断を平行して
行うことができるときの正確度を改良する。治療計画及び診断的のためにデジタ
ルデータ4405またはその表示を複数の施設へ送ることができることによって
、複数の意見を得ることができる。ひとたび特定の治療計画を選択すると、治療
計画の部分として特定された装置のいずれの1つを、製造するために選択するこ
とができる。
FIG. 48 illustrates that digital data 4405 or a representation thereof may be displayed at steps 4844 and 4845 for one or more remote facilities 4 for diagnostic purposes or treatment planning.
8 illustrates an embodiment of the present invention sent to 843. The ability to publish data for diagnostic purposes can provide three-dimensional information of the anatomical structure to other physicians, such as specialists, without the need for the patient to be physically present. This ability improves the overall speed and convenience of treatment and the accuracy with which multiple diagnoses can be made in parallel. The ability to send digital data 4405, or an indication thereof, to multiple facilities for treatment planning and diagnostics allows for multiple views. Once a particular treatment plan has been selected, any one of the devices identified as part of the treatment plan can be selected for manufacture.

【0183】 図48の特定の実施において、施設の各々から見積価格を得ることができる。
見積価格は、取引相手によって特定された特定の治療に基づくことができ、治療
は解剖学的構造物に関する。あるいは、見積価格は、取引相手によって特定され
た所望の結果に基づくことができ、治療定義及びその関連実施コストは、見積を
提供する施設によって決定される。このようにして、患者または患者の代理人が
効果的なやり方で競争入札を得ることができる。
In the particular implementation of FIG. 48, an estimated price may be obtained from each of the facilities.
The quoted price can be based on the particular treatment specified by the trading partner, where the treatment relates to the anatomical structure. Alternatively, the quoted price can be based on the desired outcome specified by the trading partner, and the treatment definition and its associated delivery costs are determined by the facility providing the quote. In this way, the patient or the patient's agent can get competitive bids in an effective manner.

【0184】 図49は、本発明の代替実施形態を例示し、デジタルデータ4405またはそ
の表示は、施設4942で受け取られ、そのためデータは、教育的目的のために
ステップ4941で使用することができる。ここに記載された実施形態の決定論
的性質のために、以前の方法を使用しては可能ではない標準化方法で教育的技術
を実施することができる。教育的目的の例として、自己学習目的、教育モニタリ
ング目的、及び、以前には可能ではなかった標準化適用検査を提供することがで
きることが挙げられる。さらに、特定の患者のケースファクトを、他の患者の先
のまたは現在の症病録へ整合させることができ、症病録は格納されているかまた
は所定期間保存されている。
FIG. 49 illustrates an alternative embodiment of the present invention, in which digital data 4405 or an indication thereof is received at facility 4942, so that the data can be used in step 4941 for educational purposes. Because of the deterministic nature of the embodiments described herein, educational techniques can be implemented in standardized ways that are not possible using previous methods. Examples of educational objectives include the ability to provide self-learning objectives, educational monitoring objectives, and standardized application tests not previously possible. Further, the case facts of a particular patient can be matched to the previous or current symptom records of other patients, the symptom record being stored or retained for a period of time.

【0185】 図50は、走査データをステップ5001で所定期間保存することができる実
施形態を例示し、これは、認可された者によって容易に検索されるように場所5
002で発生する。特定の実施形態において、そのような所定期間保存は、サー
ビスとして提供され、それによってそのデータは共通して維持され、それによっ
て、デジタルデータの共通サイトの独立した「黄金律」コピーを得ることができ
る。
FIG. 50 illustrates an embodiment in which the scan data can be stored at step 5001 for a predetermined period of time at location 5 for easy retrieval by an authorized person.
It occurs in 002. In certain embodiments, such retention for a period of time is provided as a service, whereby the data is commonly maintained, thereby obtaining an independent "golden rule" copy of a common site of digital data. it can.

【0186】 図51は、解剖学的構造物を走査することによって得られたデジタルデータが
閉鎖ループ反復システムに使用される本発明の特定の実施形態を例示する。図5
1のフローもインタラクティブ的である。具体的には、解剖学的構造物の変化が
、故意であれ故意ではないのであれ、モニタされ閉鎖ループシステムの部分とし
て制御されることが可能である。走査データが三次元空間で測定可能であり、そ
れによって、三次元モデルの形態の標準参照を分析のために使用することができ
るため、本発明にしたがった閉鎖ループシステムは決定論的である。
FIG. 51 illustrates a particular embodiment of the invention in which digital data obtained by scanning an anatomical structure is used in a closed loop iterative system. Figure 5
The flow of 1 is also interactive. Specifically, anatomical changes, whether intentional or unintentional, can be monitored and controlled as part of a closed loop system. The closed-loop system according to the invention is deterministic, since the scan data can be measured in three-dimensional space, whereby a standard reference in the form of a three-dimensional model can be used for the analysis.

【0187】 ステップ5101では、解剖学的装置の三次元走査データが得られる。[0187]   In step 5101, three-dimensional scan data of the anatomical device is obtained.

【0188】 ステップ5102では、ステップ5001の走査からデータが、またはデータ
の表示が、遠隔施設へ発信される。
At step 5102, the data from the scan of step 5001 or the display of data is transmitted to the remote facility.

【0189】 ステップ5103では、発信されたデータの設計/評価が実施される。たとえ
ば、治療計画、診断及び解剖学的装置用の設計が、ステップ5103を含むルー
プを通る第1の通過の間に決定される。ステップ5103を通るその次の通過の
間に、治療または装置の状態または進捗がモニタされ、必要に応じて変更が行わ
れる。1つの実施形態において、モニタリングは、シミュレートされた予想され
る結果か先のヒストリーかまたは整合した症病録に対して、現在の走査データを
比較することによって実施される。
At step 5103, design / evaluation of the transmitted data is performed. For example, treatment planning, diagnostics, and anatomical device designs are determined during a first pass through the loop including step 5103. During the next pass through step 5103, the treatment or device status or progress is monitored and changes are made as needed. In one embodiment, monitoring is performed by comparing current scan data against simulated expected results, prior history or consistent symptom records.

【0190】 ステップ5104では、装置または治療計画が、実施されるかまたは適切に設
置される。装置のいずれの製造も、ステップ5104の部分として実施される。
At step 5104, the device or treatment plan is implemented or properly installed. Manufacturing of any of the devices is performed as part of step 5104.

【0191】 図50の閉鎖ループシステムの追加通過が、ステップ5105で必要か否かが
決定される。必要であれば、フローはステップ5101へ進む。必要でなければ
、フローは終結する。図51を参照して検討したように、閉鎖ループフィードバ
ックループは、図50に例示されたいずれのステップの間に存在することができ
る。
It is determined in step 5105 if an additional pass through the closed loop system of FIG. 50 is required. If so, the flow proceeds to step 5101. If not required, the flow ends. As discussed with reference to FIG. 51, a closed loop feedback loop can exist during any of the steps illustrated in FIG.

【0192】 進捗を検証するためにフィードバックを使用することができることは、医者が
、テキストノート、モデルの視覚観察及び他の画像の1つまたはそれ以上に依存
した先行技術に対する利点である。しかし、同一の視点で見られていることを医
者が保証することができる固定三次元モデルなしで、これらの観察は行われた。
ここに記載されたビジュアルモデルを使用することによって、固定した参照を得
ることができる。たとえば、歯列矯正構造物用の固定された参照点を得る1つの
方法は、歯列矯正構造物の物理的特質に基づいて配向参照点を選択することを含
む。配向参照点をその後に使用して、歯列矯正構造物のデジタル画像を三次元座
標システムにマッピングすることができる。たとえば、小帯を配向参照点の1つ
として選択することができ、皺を他方の配向参照点として選択することができる
。小帯は、歯列矯正患者の固定された点であり、治療中に変化しないかまたは変
化しても最小である。小帯は、上部アーチの歯肉の上部部分の三角形形状の組織
である。皺は、上部アーチの口蓋68にある腔である。皺も、治療中にその物理
的位置を変化しない。そのようであるため、小帯及び皺は、治療中に変化しない
歯列矯正患者の固定された点である。そのようであるため、これらを配向参照点
として使用することによって、三次元座標システムをマッピングすることができ
る。切歯乳頭、口唇裂、瞳孔間中間点、交運間中間点(たとえば唇の間)、翼間
中間点(たとえば鼻の側部の間)、鼻臥(たとえば鼻の先端)、鼻下(たとえば
鼻との唇との接合部)、歯中線点、骨上の点、インプラント等の固定骨マーカー
(たとえば、歯根管治療、口腔外科からのねじ)を含む歯列矯正患者の他の物理
的特質も配向参照点として使用することに注意されたい。
The ability to use feedback to verify progress is an advantage over the prior art where physicians rely on one or more of text notes, visual observations of models and other images. However, these observations were made without a fixed three-dimensional model that allows the doctor to ensure that they are viewed from the same perspective.
A fixed reference can be obtained by using the visual model described here. For example, one method of obtaining a fixed reference point for an orthodontic structure involves selecting an oriented reference point based on the physical characteristics of the orthodontic structure. The orientation reference points can then be used to map a digital image of the orthodontic structure to a three-dimensional coordinate system. For example, a swath can be selected as one of the orientation reference points and a wrinkle can be selected as the other orientation reference point. A frenulum is a fixed point on an orthodontic patient that remains unchanged or minimal during treatment. The frenulum is a triangular shaped tissue of the upper part of the gingiva of the upper arch. A wrinkle is a cavity in the palate 68 of the upper arch. Wrinkles also do not change their physical location during treatment. As such, frenulums and wrinkles are fixed points in orthodontic patients that do not change during treatment. As such, three-dimensional coordinate systems can be mapped by using them as orientation reference points. Incisor papilla, cleft lip, midpoint between pupils, midpoint between pallets (eg between lips), midpoint between wings (eg between sides of nose), nose (eg tip of nose), under nose (eg Other physical of orthodontic patients, including fixed bone markers (eg, nose-lips junction), midline points, bony points, implants (eg root canal treatment, screws from oral surgery) Note that attributes are also used as orientation reference points.

【0193】 図52は、ここに例示されたステップのいずれの組み合わせ内及びその間で反
復フィードバックステップが起こることができることを例示する。たとえば、イ
ンタラクティブ及び/またはインタラクティブループが、製造ステップ4425
と設計ステップ4415との間に、または、図44のステップ4426を参照し
て記載された単一ステップ内にあってもよい。
FIG. 52 illustrates that iterative feedback steps can occur within and between any combination of the steps illustrated herein. For example, interactive and / or interactive loops may be manufactured step 4425.
And design step 4415, or within the single step described with reference to step 4426 of FIG.

【0194】 本願のステップに導出された走査されたデータを使用する多くの方法に加えて
、データの使用に助成する多くの方法が可能である。たとえば、そのような走査
データ4405を使用する料金は、データの使用か、提供されるサービスのコス
トか、作製されている解剖学的装置か、またはデータに基づいて装置またはサー
ビスに加えられた値か、に基づいて固定されたまたは変動の料金であってもよい
。加えて、他の多くの種類の料金が想像可能であることは明らかである。
In addition to the many ways of using scanned data derived in the steps of the present application, many ways of facilitating the use of data are possible. For example, the fee for using such scan data 4405 may be the use of the data, the cost of the service provided, the anatomical device being created, or the value added to the device or service based on the data. Or it may be a fixed or variable fee based on. In addition, it is clear that many other types of fees are imaginable.

【0195】 ここに記載のステップ及び方法は、処理モジュール(図示せず)で実行されて
もよい。処理モジュールは、単一の処理装置であっても複数の処理装置であって
もよい。そのような処理モジュールは、マイクロプロセッサ、マイクロコンピュ
ータ、デジタルシグナルプロセッサ、コンピュータまたはワークステーションの
中央演算処理装置、デジタル回路、状態機械、及び/または、操作指令に基づい
て信号(たとえば、アナログ及び/またはデジタル)を操作するいずれの装置で
あってもよい。処理モジュールの操作は一般に、メモリに格納されたデータによ
って制御される。たとえば、マイクロプロセッサが使用される場合には、マイク
ロプロセッサのバスがメモリのバスに接続されて指令にアクセスする。メモリの
例として、単一または複数のメモリ装置、たとえば、ランダムアクセスメモリ、
リードオンリーメモリ、フロッピーディスクメモリ、ハードドライブメモリ、拡
張メモリ、磁気テープメモリ、ジップドライブメモリ、及び/または、デジタル
情報を格納するいずれの装置が挙げられる。そのようなメモリ装置は、ローカル
(すなわち、処理装置に直接接続される)であってもよく、または、物理的に異
なる場所(すなわち、インターネットに接続されるサイト)であってもよい。処
理モジュールが、状態機械または論理回路を経由して、1つまたはそれ以上の機
能を実施するときには、対応する操作指令を格納するメモリが状態機械または論
理回路を備える回路内に埋め込まれていることに注意されたい。
The steps and methods described herein may be performed by a processing module (not shown). The processing module may be a single processing device or multiple processing devices. Such processing modules may include microprocessors, microcomputers, digital signal processors, central processing units of computers or workstations, digital circuits, state machines, and / or signals (eg, analog and / or analog) based on operating instructions. It may be any device that operates digitally). The operation of the processing module is generally controlled by the data stored in memory. For example, if a microprocessor is used, the microprocessor's bus is connected to the memory's bus to access the instructions. Examples of memory are single or multiple memory devices, eg random access memory,
These include read-only memory, floppy disk memory, hard drive memory, extended memory, magnetic tape memory, zip drive memory, and / or any device that stores digital information. Such memory devices may be local (ie directly connected to the processing unit) or physically different locations (ie a site connected to the Internet). When the processing module performs one or more functions via a state machine or logic circuit, the memory storing the corresponding operating instructions is embedded in the circuit comprising the state machine or logic circuit. Please note.

【0196】 ここに記載の特定の実施形態は、公知の技術に対して利点を提供することを当
業者は理解する。たとえば、走査されている解剖学的構造物は、1つまたはそれ
以上の関連解剖学的装置または器具を有してもよい。加えて、本発明は、診断し
、治療し、モニタし、設計し且つ解剖学的装置を製造するための決定論的方法を
提供する。加えて、本実施形態を使用して、人工装具を設計し製造する様々な当
事者間で通信を行うためのインタラクティブな方法を提供することができる。そ
のようなインタラクティブな方法は、リアルタイムで実施することができる。こ
こに記載された方法によって、他者が、他者の経験から得られた実際の情報及び
知識を得ることができるようなやり方で、データを所定期間保存することができ
る。複数の相談者が、場所に関係なく情報の同一の決定論的コピーにアクセスす
ることができ、複数の独立したサイトが使用されているときでさえ、客観的な設
計、製造及び/または治療モニタリング情報を得ることができる。本実施形態に
よって、解剖学的装置を作製するのに使用される従来のラボの回避が可能である
。具体的には、解剖学的装置を作製するのに使用されるサポート施設が今では数
え切れないほど多く、患者に対して遠隔である。これが、医者及び患者にかかる
全体的コストを減少することができる。走査場所が他のサポート場所から遠隔で
あってもよいため、患者は、装置の状態または進捗をモニタさせるために医者へ
行く必要がない。全体として、本実施形態のデジタルデータの固定された所定期
間保存可能な性質のため、黄金律モデルから同一の複製モデルを低コストで作製
することができ、それによって、データが失われたり不正確であったりする可能
性を減少する。特定の解剖学的構造物を分析するために、患者に必要な時間及び
移動の量を減少することによって、治療コストが減少される。先行技術の方法で
は関連のあった患者へのさらなる不便なしで、複数の意見(見積もり、治療計画
、診断等)へのアクセス可能性が増加する。図示された特定の実施形態を使用し
て、競争見積もりも容易に獲得することができる。
Those skilled in the art will appreciate that the particular embodiments described herein provide advantages over known techniques. For example, the anatomy being scanned may have one or more associated anatomical devices or instruments. In addition, the present invention provides a deterministic method for diagnosing, treating, monitoring, designing and manufacturing anatomical devices. In addition, this embodiment can be used to provide an interactive method for communicating between the various parties designing and manufacturing the prosthesis. Such an interactive method can be implemented in real time. The methods described herein allow data to be stored for a period of time in a manner that allows others to obtain the actual information and knowledge gained from their experience. Multiple consultants have access to the same deterministic copy of information regardless of location, and objective design, manufacturing and / or treatment monitoring, even when multiple independent sites are used. You can get information. This embodiment allows the avoidance of conventional laboratories used to make anatomical devices. Specifically, the support facilities used to create anatomical devices are now numerous and remote to the patient. This can reduce the overall cost to doctors and patients. Since the scanning location may be remote from other support locations, the patient does not have to go to the doctor to have the status or progress of the device monitored. Overall, due to the fixed, storable nature of the digital data of this embodiment, an identical replica model can be produced from the golden rule model at low cost, which results in lost or inaccurate data. Less likely to be. By reducing the amount of time and movement required of the patient to analyze a particular anatomy, treatment costs are reduced. Prior art methods increase the accessibility of multiple opinions (estimations, treatment plans, diagnoses, etc.) without further inconvenience to associated patients. Competitive quotes can also be easily obtained using the particular embodiment illustrated.

【0197】 前述の明細書において、本発明は、特定の実施形態に関連して記載してきた。
しかし、下記の特許請求の範囲に述べられる本発明の範囲から逸脱することなく
様々な修正及び変更を行うことができることは当業者には明らかである。たとえ
ば、デジタルデータは、解剖学的構造物の直接走査と構造物の間接走査との複合
であってもよい。これは、解剖学的構造物の一部がスキャナ4401によって見
ることができないときに発生してもよく、そのため、解剖学的構造物の少なくと
もその部分の印象は見えない。印象または印象から作られたモデルは、次いで走
査され、直接走査データに「とじ」られて、完全走査を形成する。他の実施形態
において、デジタルデータ4405は、他の従来の方法と組み合わせて使用する
ことができる。他の実施形態において、ここに記載されたデジタルデータは、圧
縮されるかまたは暗号化方法を使用して確実にされてもよい。暗号化されるとき
には、患者、走査施設及び所定期間保存しうる施設または患者の代理人の1つま
たはそれ以上が、デジタルデータ用の暗号の鍵を有することができる。したがっ
て、明細書及び図面は、制限的な意味ではなく、例示的な意味にみなされるべき
であり、そのような修正のすべては、本発明の範囲内に含まれるものと意図され
る。特許請求の範囲において、単数及び複数のミーンズプラスファンクション項
が、もしあれば、それは、単数及び複数の引用された機能を実施するここに記載
された構造物をカバーする。単数及び複数のミーンズプラスファンクション項は
、構造的等価物、及び、単数及び複数の引用された機能を実施する等価の構造物
もカバーする。利益、他の利点及び問題への解法は、特定の実施形態に関連して
上述されている。しかし、利益、他の利点、問題への解法、及び、いずれの利益
または利点または解法を発生させるかまたはよりはっきりさせることができる単
数及び複数のいずれの要素は、いずれのまたはすべての請求項の重大な必要なま
たは必須の特徴または要素として解釈すべきではない。
In the preceding specification, the present invention has been described with reference to particular embodiments.
However, one of ordinary skill in the art appreciates that various modifications and changes can be made without departing from the scope of the present invention as set forth in the claims below. For example, the digital data may be a composite of direct scanning of the anatomical structure and indirect scanning of the structure. This may occur when a portion of the anatomical structure is not visible by the scanner 4401, so an impression of at least that portion of the anatomical structure is not visible. The impression or model made from the impression is then scanned and "binded" to the direct scan data to form a full scan. In other embodiments, the digital data 4405 can be used in combination with other conventional methods. In other embodiments, the digital data described herein may be compressed or secured using encryption methods. When encrypted, one or more of the patient, the scanning facility and the facility or patient representative that may be stored for a period of time may have a cryptographic key for digital data. Therefore, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense, and all such modifications are intended to be included within the scope of the present invention. In the claims, one or more means-plus-function terms, if any, cover the structures described herein that perform the recited function (s). The means plus function term (s) also covers structural equivalents, and equivalent structures that perform the recited function (s). Benefits, other advantages, and solutions to problems have been described above with regard to specific embodiments. However, benefits, other advantages, solutions to problems, and any singular and plural elements that may give rise to or make clear any benefit or advantage or solution may be defined by any or all of the claims. It should not be construed as a critical required or essential feature or element.

【0198】 参照独立スキャナは、特定の実施形態において投影/観察平面に直交する方向
に可変識別子を組み込むことが開示されているため、本発明は先行技術に対して
有利であることを当業者は認識する。投影/観察平面に直交する方向に変数を提
供することによって、これらの変数の歪みは、投影/観察平面に平行な方向な歪
みよりも少なく、特定の形状の識別を禁止しない。結果として、物体のマッピン
グのより大きな正確度を得ることができる。
Those skilled in the art will appreciate that the present invention is advantageous over the prior art because reference independent scanners have been disclosed in certain embodiments to incorporate variable identifiers in a direction orthogonal to the projection / viewing plane. recognize. By providing the variables in a direction orthogonal to the projection / viewing plane, the distortion of these variables is less than the distortion in the direction parallel to the projection / viewing plane and does not prohibit the identification of particular shapes. As a result, greater accuracy of object mapping can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 図1は先行技術にしたがって単一の線によって走査されている物体を例示する
FIG. 1 illustrates an object being scanned by a single line according to the prior art.

【図2】 図2は先行技術にしたがって複数の線によって走査されている物体を例示する
FIG. 2 illustrates an object being scanned by multiple lines according to the prior art.

【図3】 図3は先行技術にしたがって図2の線に関連した投影軸及び視軸を例示する。[Figure 3]   FIG. 3 illustrates the projection and viewing axes associated with the lines of FIG. 2 according to the prior art.

【図4】 図4は図3の投影軸に等しい参照の点から図3の物体を例示する。[Figure 4]   FIG. 4 illustrates the object of FIG. 3 from a point of reference equal to the projection axis of FIG.

【図5】 図5は図3の視軸から図3の物体を例示する。[Figure 5]   FIG. 5 illustrates the object of FIG. 3 from the visual axis of FIG.

【図6】 図6は先行技術にしたがって、投影された複数の変動する厚さの線を有する物
体を例示する。
FIG. 6 illustrates an object having a plurality of projected lines of varying thickness according to the prior art.

【図7】 図7は図3に示される視軸に等しい参照の点から図6の物体を例示する。[Figure 7]   FIG. 7 illustrates the object of FIG. 6 from the point of reference equal to the visual axis shown in FIG.

【図8】 図8は先行技術にしたがって、変動する投影された線の厚さを有する物体を側
面から例示する。
FIG. 8 illustrates a side view of an object with varying projected line thicknesses according to the prior art.

【図9】 図9は図8の視軸に等しい参照の点から図8の物体を例示する。[Figure 9]   FIG. 9 illustrates the object of FIG. 8 from the point of reference equal to the visual axis of FIG.

【図10】 図10は本発明にしたがったシステムを例示する。[Figure 10]   FIG. 10 illustrates a system according to the present invention.

【図11】 図11は本発明にしたがった図10のシステムの一部を例示する。FIG. 11   FIG. 11 illustrates a portion of the system of FIG. 10 according to the present invention.

【図12】 図12は本発明にしたがった方法を、フローチャートの形態で例示する。[Fig. 12]   FIG. 12 illustrates the method according to the invention in the form of a flow chart.

【図13】 図13は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例
示する。
13 illustrates the object of FIG. 3 from a point of reference equal to the visual axis of FIG. 3 according to the present invention.

【図14】 図14は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例
示する。
14 illustrates the object of FIG. 3 from a point of reference equal to the visual axis of FIG. 3 in accordance with the present invention.

【図15】 図15は本発明にしたがって、投影されたパターンを有する物体を例示する。FIG. 15   FIG. 15 illustrates an object having a projected pattern according to the present invention.

【図16】 図16は本発明にしたがって様々な種類のパターン構成要素を識別する表を例
示する。
FIG. 16 illustrates a table that identifies various types of pattern components in accordance with the present invention.

【図17】 図17は本発明にしたがって1セットの独特な識別子を例示する。FIG. 17   FIG. 17 illustrates a set of unique identifiers in accordance with the present invention.

【図18】 図18は本発明にしたがって1セットの繰り返し識別子を例示する。FIG. 18   FIG. 18 illustrates a set of repeating identifiers according to the present invention.

【図19】 図19は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 19   FIG. 19 illustrates the method according to the invention in the form of a flow chart.

【図20】 図20は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 20   FIG. 20 illustrates the method according to the invention in the form of a flow chart.

【図21】 図21は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 21   FIG. 21 illustrates the method according to the invention in the form of a flow chart.

【図22】 図22は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 22   FIG. 22 illustrates the method according to the invention in the form of a flow chart.

【図23】 図23は本発明の実施形態にしたがって、物体に投影されるべき一連の画像を
例示する。
FIG. 23 illustrates a series of images to be projected on an object according to an embodiment of the invention.

【図24】 図24は本発明の実施形態にしたがって、変動する特徴部を有する画像を例示
する。
FIG. 24 illustrates an image with varying features according to an embodiment of the invention.

【図25】 図25は本発明の好ましい実施形態にしたがって、異なる深さで表面から反射
している投影された画像特徴部を例示する。
FIG. 25 illustrates projected image features reflecting from a surface at different depths in accordance with a preferred embodiment of the present invention.

【図26】 図26は異なる深さで見られる図25の投影された画像を例示する。FIG. 26   FIG. 26 illustrates the projected image of FIG. 25 seen at different depths.

【図27】 図27は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 27 illustrates a dentition object from various perspectives, in accordance with a preferred embodiment of the present invention.

【図28】 図28は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 28 illustrates a dentition object from various perspectives, in accordance with a preferred embodiment of the present invention.

【図29】 図29は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 29 illustrates a dentition object from various perspectives, according to a preferred embodiment of the present invention.

【図30】 図30は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 30 illustrates a dentition object from various perspectives, according to a preferred embodiment of the present invention.

【図31】 図31は本発明の特定の実施形態にしたがった方法を例示する。FIG. 31   FIG. 31 illustrates a method according to a particular embodiment of the invention.

【図32】 図32は本発明の好ましい実施形態にしたがって、様々な視点から走査されて
いる生歯物体を例示する。
FIG. 32 illustrates a dentition object being scanned from various perspectives in accordance with a preferred embodiment of the present invention.

【図33】 図33は本発明の好ましい実施形態にしたがって、様々な視点から走査されて
いる生歯物体を例示する。
FIG. 33 illustrates a dentition object being scanned from various perspectives, in accordance with a preferred embodiment of the present invention.

【図34】 図34は生歯物体をモデル化するための初期形状を例示する。FIG. 34   FIG. 34 illustrates an initial shape for modeling a dentition object.

【図35】 図35は本発明の特定の実施形態にしたがった方法を例示する。FIG. 35   FIG. 35 illustrates a method according to a particular embodiment of the invention.

【図36】 図36は本発明の特定の実施形態にしたがった方法を例示する。FIG. 36   FIG. 36 illustrates a method according to a particular embodiment of the invention.

【図37】 図37は本発明に好ましい実施形態にしたがって、位置合わせ用に様々な項目
点を選択するための方法の図式表示を例示する。
FIG. 37 illustrates a schematic representation of a method for selecting various item points for registration, according to a preferred embodiment of the present invention.

【図38】 図38は本発明の特定の実施形態にしたがった方法を例示する。FIG. 38   FIG. 38 illustrates a method according to a particular embodiment of the invention.

【図39】 図39は本発明の特定の実施形態にしたがった方法を例示する。FIG. 39   FIG. 39 illustrates a method according to a particular embodiment of the invention.

【図40】 図40は本発明の特定の実施形態にしたがった方法を例示する。FIG. 40 FIG. 40 illustrates a method according to a particular embodiment of the invention.

【図41】 図41は本発明の特定の実施形態にしたがった方法を例示する。FIG. 41   FIG. 41 illustrates a method according to a particular embodiment of the invention.

【図42】 図42は本発明の特定の実施形態にしたがった方法を例示する。FIG. 42   FIG. 42 illustrates a method according to a particular embodiment of the invention.

【図43】 図43は本発明の特定の実施形態にしたがった方法を例示する。FIG. 43   FIG. 43 illustrates a method according to a particular embodiment of the invention.

【図44】 図44は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 44   FIG. 44 illustrates a particular flow according to a particular embodiment of the invention.

【図45】 図45は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 45   FIG. 45 illustrates a particular flow according to a particular embodiment of the invention.

【図46】 図46は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 46   FIG. 46 illustrates a particular flow according to a particular embodiment of the invention.

【図47】 図47は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 47   FIG. 47 illustrates a particular flow according to a particular embodiment of the invention.

【図48】 図48は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 48   FIG. 48 illustrates a particular flow according to a particular embodiment of the invention.

【図49】 図49は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 49   FIG. 49 illustrates a particular flow according to a particular embodiment of the invention.

【図50】 図50は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 50   FIG. 50 illustrates a particular flow according to a particular embodiment of the invention.

【図51】 図51は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 51   FIG. 51 illustrates a particular flow according to a particular embodiment of the invention.

【図52】 図52は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 52   FIG. 52 illustrates a particular flow according to a particular embodiment of the invention.

【手続補正書】[Procedure amendment]

【提出日】平成14年11月29日(2002.11.29)[Submission date] November 29, 2002 (2002.1.19)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0081[Correction target item name] 0081

【補正方法】削除[Correction method] Delete

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0082[Correction target item name] 0082

【補正方法】削除[Correction method] Delete

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Name of item to be corrected] Brief description of the drawing

【補正方法】変更[Correction method] Change

【補正の内容】[Contents of correction]

【図面の簡単な説明】[Brief description of drawings]

【図1】 図1は先行技術にしたがって単一の線によって走査されている物体を例示する
FIG. 1 illustrates an object being scanned by a single line according to the prior art.

【図2】 図2は先行技術にしたがって複数の線によって走査されている物体を例示する
FIG. 2 illustrates an object being scanned by multiple lines according to the prior art.

【図3】 図3は先行技術にしたがって図2の線に関連した投影軸及び視軸を例示する。[Figure 3]   FIG. 3 illustrates the projection and viewing axes associated with the lines of FIG. 2 according to the prior art.

【図4】 図4は図3の投影軸に等しい参照の点から図3の物体を例示する。[Figure 4]   FIG. 4 illustrates the object of FIG. 3 from a point of reference equal to the projection axis of FIG.

【図5】 図5は図3の視軸から図3の物体を例示する。[Figure 5]   FIG. 5 illustrates the object of FIG. 3 from the visual axis of FIG.

【図6】 図6は先行技術にしたがって、投影された複数の変動する厚さの線を有する物
体を例示する。
FIG. 6 illustrates an object having a plurality of projected lines of varying thickness according to the prior art.

【図7】 図7は図3に示される視軸に等しい参照の点から図6の物体を例示する。[Figure 7]   FIG. 7 illustrates the object of FIG. 6 from the point of reference equal to the visual axis shown in FIG.

【図8】 図8は先行技術にしたがって、変動する投影された線の厚さを有する物体を側
面から例示する。
FIG. 8 illustrates a side view of an object with varying projected line thicknesses according to the prior art.

【図9】 図9は図8の視軸に等しい参照の点から図8の物体を例示する。[Figure 9]   FIG. 9 illustrates the object of FIG. 8 from the point of reference equal to the visual axis of FIG.

【図10】 図10は本発明にしたがったシステムを例示する。[Figure 10]   FIG. 10 illustrates a system according to the present invention.

【図11】 図11は本発明にしたがった図10のシステムの一部を例示する。FIG. 11   FIG. 11 illustrates a portion of the system of FIG. 10 according to the present invention.

【図12】 図12は本発明にしたがった方法を、フローチャートの形態で例示する。[Fig. 12]   FIG. 12 illustrates the method according to the invention in the form of a flow chart.

【図13】 図13は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例
示する。
13 illustrates the object of FIG. 3 from a point of reference equal to the visual axis of FIG. 3 according to the present invention.

【図14】 図14は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例
示する。
14 illustrates the object of FIG. 3 from a point of reference equal to the visual axis of FIG. 3 in accordance with the present invention.

【図15】 図15は本発明にしたがって、投影されたパターンを有する物体を例示する。FIG. 15   FIG. 15 illustrates an object having a projected pattern according to the present invention.

【図16】 図16は本発明にしたがって様々な種類のパターン構成要素を識別する表を例
示する。
FIG. 16 illustrates a table that identifies various types of pattern components in accordance with the present invention.

【図17】 図17は本発明にしたがって1セットの独特な識別子を例示する。FIG. 17   FIG. 17 illustrates a set of unique identifiers in accordance with the present invention.

【図18】 図18は本発明にしたがって1セットの繰り返し識別子を例示する。FIG. 18   FIG. 18 illustrates a set of repeating identifiers according to the present invention.

【図19】 図19は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 19   FIG. 19 illustrates the method according to the invention in the form of a flow chart.

【図20】 図20は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 20   FIG. 20 illustrates the method according to the invention in the form of a flow chart.

【図21】 図21は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 21   FIG. 21 illustrates the method according to the invention in the form of a flow chart.

【図22】 図22は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 22   FIG. 22 illustrates the method according to the invention in the form of a flow chart.

【図23】 図23は本発明の実施形態にしたがって、物体に投影されるべき一連の画像を
例示する。
FIG. 23 illustrates a series of images to be projected on an object according to an embodiment of the invention.

【図24】 図24は本発明の実施形態にしたがって、変動する特徴部を有する画像を例示
する。
FIG. 24 illustrates an image with varying features according to an embodiment of the invention.

【図25】 図25は本発明の好ましい実施形態にしたがって、異なる深さで表面から反射
している投影された画像特徴部を例示する。
FIG. 25 illustrates projected image features reflecting from a surface at different depths in accordance with a preferred embodiment of the present invention.

【図26】 図26は異なる深さで見られる図25の投影された画像を例示する。FIG. 26   FIG. 26 illustrates the projected image of FIG. 25 seen at different depths.

【図27】 図27は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 27 illustrates a dentition object from various perspectives, in accordance with a preferred embodiment of the present invention.

【図28】 図28は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を
例示する。
FIG. 28 illustrates a dentition object from various perspectives, in accordance with a preferred embodiment of the present invention.

【図31】 図31は本発明の特定の実施形態にしたがった方法を例示する。FIG. 31   FIG. 31 illustrates a method according to a particular embodiment of the invention.

【図32】 図32は本発明の好ましい実施形態にしたがって、様々な視点から走査されて
いる生歯物体を例示する。
FIG. 32 illustrates a dentition object being scanned from various perspectives in accordance with a preferred embodiment of the present invention.

【図33】 図33は本発明の好ましい実施形態にしたがって、様々な視点から走査されて
いる生歯物体を例示する。
FIG. 33 illustrates a dentition object being scanned from various perspectives, in accordance with a preferred embodiment of the present invention.

【図34】 図34は生歯物体をモデル化するための初期形状を例示する。FIG. 34   FIG. 34 illustrates an initial shape for modeling a dentition object.

【図35】 図35は本発明の特定の実施形態にしたがった方法を例示する。FIG. 35   FIG. 35 illustrates a method according to a particular embodiment of the invention.

【図36】 図36は本発明の特定の実施形態にしたがった方法を例示する。FIG. 36   FIG. 36 illustrates a method according to a particular embodiment of the invention.

【図37】 図37は本発明に好ましい実施形態にしたがって、位置合わせ用に様々な項目
点を選択するための方法の図式表示を例示する。
FIG. 37 illustrates a schematic representation of a method for selecting various item points for registration, according to a preferred embodiment of the present invention.

【図38】 図38は本発明の特定の実施形態にしたがった方法を例示する。FIG. 38   FIG. 38 illustrates a method according to a particular embodiment of the invention.

【図39】 図39は本発明の特定の実施形態にしたがった方法を例示する。FIG. 39   FIG. 39 illustrates a method according to a particular embodiment of the invention.

【図40】 図40は本発明の特定の実施形態にしたがった方法を例示する。FIG. 40   FIG. 40 illustrates a method according to a particular embodiment of the invention.

【図41】 図41は本発明の特定の実施形態にしたがった方法を例示する。FIG. 41   FIG. 41 illustrates a method according to a particular embodiment of the invention.

【図42】 図42は本発明の特定の実施形態にしたがった方法を例示する。FIG. 42   FIG. 42 illustrates a method according to a particular embodiment of the invention.

【図43】 図43は本発明の特定の実施形態にしたがった方法を例示する。FIG. 43   FIG. 43 illustrates a method according to a particular embodiment of the invention.

【図44】 図44は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 44   FIG. 44 illustrates a particular flow according to a particular embodiment of the invention.

【図45】 図45は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 45   FIG. 45 illustrates a particular flow according to a particular embodiment of the invention.

【図46】 図46は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 46   FIG. 46 illustrates a particular flow according to a particular embodiment of the invention.

【図47】 図47は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 47   FIG. 47 illustrates a particular flow according to a particular embodiment of the invention.

【図48】 図48は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 48   FIG. 48 illustrates a particular flow according to a particular embodiment of the invention.

【図49】 図49は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 49   FIG. 49 illustrates a particular flow according to a particular embodiment of the invention.

【図50】 図50は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 50   FIG. 50 illustrates a particular flow according to a particular embodiment of the invention.

【図51】 図51は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 51   FIG. 51 illustrates a particular flow according to a particular embodiment of the invention.

【図52】 図52は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 52   FIG. 52 illustrates a particular flow according to a particular embodiment of the invention.

───────────────────────────────────────────────────── フロントページの続き (31)優先権主張番号 09/560,583 (32)優先日 平成12年4月28日(2000.4.28) (33)優先権主張国 米国(US) (31)優先権主張番号 09/560,644 (32)優先日 平成12年4月28日(2000.4.28) (33)優先権主張国 米国(US) (31)優先権主張番号 09/560,645 (32)優先日 平成12年4月28日(2000.4.28) (33)優先権主張国 米国(US) (31)優先権主張番号 09/560,133 (32)優先日 平成12年4月28日(2000.4.28) (33)優先権主張国 米国(US) (31)優先権主張番号 09/560,584 (32)優先日 平成12年4月28日(2000.4.28) (33)優先権主張国 米国(US) (31)優先権主張番号 09/616,093 (32)優先日 平成12年7月13日(2000.7.13) (33)優先権主張国 米国(US) (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE,TR),OA(BF ,BJ,CF,CG,CI,CM,GA,GN,GW, ML,MR,NE,SN,TD,TG),AP(GH,G M,KE,LS,MW,MZ,SD,SL,SZ,TZ ,UG,ZW),EA(AM,AZ,BY,KG,KZ, MD,RU,TJ,TM),AE,AG,AL,AM, AT,AU,AZ,BA,BB,BG,BR,BY,B Z,CA,CH,CN,CR,CU,CZ,DE,DK ,DM,DZ,EE,ES,FI,GB,GD,GE, GH,GM,HR,HU,ID,IL,IN,IS,J P,KE,KG,KP,KR,KZ,LC,LK,LR ,LS,LT,LU,LV,MA,MD,MG,MK, MN,MW,MX,MZ,NO,NZ,PL,PT,R O,RU,SD,SE,SG,SI,SK,SL,TJ ,TM,TR,TT,TZ,UA,UG,UZ,VN, YU,ZA,ZW (72)発明者 ヴァイゼ、 トマス ドイツ国 10965 ベルリン メーリンク ダム 91 (72)発明者 サクデヴァ、 ロヒト アメリカ合衆国 テキサス州 75093 プ ラノ コートサイド レーン 2605 Fターム(参考) 2F065 AA04 AA53 BB05 CC16 DD06 FF01 FF02 FF09 GG24 HH07 HH12 JJ03 JJ08 JJ26 MM11 NN20 QQ00 QQ03 QQ24 QQ27 QQ28 QQ38 QQ41 2F069 AA04 AA61 BB40 DD15 GG04 GG07 JJ01 NN00 NN08 NN25 5B057 AA07 BA02 BA19 CA01 CA12 CA16 CB02 CB13 CB16 CC02 CD14 DA07 DA17 DC05 ─────────────────────────────────────────────────── ─── Continued front page    (31) Priority claim number 09 / 560,583 (32) Priority date April 28, 2000 (April 28, 2000) (33) Priority claiming countries United States (US) (31) Priority claim number 09 / 560,644 (32) Priority date April 28, 2000 (April 28, 2000) (33) Priority claiming countries United States (US) (31) Priority claim number 09 / 560,645 (32) Priority date April 28, 2000 (April 28, 2000) (33) Priority claiming countries United States (US) (31) Priority claim number 09/560, 133 (32) Priority date April 28, 2000 (April 28, 2000) (33) Priority claiming countries United States (US) (31) Priority claim number 09 / 560,584 (32) Priority date April 28, 2000 (April 28, 2000) (33) Priority claiming countries United States (US) (31) Priority claim number 09 / 616,093 (32) Priority date July 13, 2000 (July 13, 2000) (33) Priority claiming countries United States (US) (81) Designated countries EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, I T, LU, MC, NL, PT, SE, TR), OA (BF , BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, G M, KE, LS, MW, MZ, SD, SL, SZ, TZ , UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AE, AG, AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, B Z, CA, CH, CN, CR, CU, CZ, DE, DK , DM, DZ, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, J P, KE, KG, KP, KR, KZ, LC, LK, LR , LS, LT, LU, LV, MA, MD, MG, MK, MN, MW, MX, MZ, NO, NZ, PL, PT, R O, RU, SD, SE, SG, SI, SK, SL, TJ , TM, TR, TT, TZ, UA, UG, UZ, VN, YU, ZA, ZW (72) Inventor Weize, Thomas             Germany 10965 Berlin Mehring             Dam 91 (72) Inventor Sakdeva, Rohit             United States Texas 75093             Rano Courtside Lane 2605 F term (reference) 2F065 AA04 AA53 BB05 CC16 DD06                       FF01 FF02 FF09 GG24 HH07                       HH12 JJ03 JJ08 JJ26 MM11                       NN20 QQ00 QQ03 QQ24 QQ27                       QQ28 QQ38 QQ41                 2F069 AA04 AA61 BB40 DD15 GG04                       GG07 JJ01 NN00 NN08 NN25                 5B057 AA07 BA02 BA19 CA01 CA12                       CA16 CB02 CB13 CB16 CC02                       CD14 DA07 DA17 DC05

Claims (48)

【特許請求の範囲】[Claims] 【請求項1】 物体の三次元モデルを作る方法であって、 第1の物体部分の3D初期モデルを受け取るステップであって、前記3D初期
モデルは複数の初期形状を含むステップと、 第2のモデル部分の3D点モデルを受け取るステップであって、前記3D点モ
デルは複数の点を含むステップと、 有効であり且つ前記第1の物体部分の前記3D初期モデルの一部に重なり合う
と思われる前記3D点モデルの第1のセットの点を決定するステップと、 前記第1の点のセットに基づいて前記3D点モデルを前記3D初期モデルに整
列配置させるステップと、 を含む方法。
1. A method of creating a three-dimensional model of an object, the method comprising: receiving a 3D initial model of a first object portion, the 3D initial model including a plurality of initial shapes; Receiving a 3D point model of a model portion, said 3D point model comprising a plurality of points, said valid and possibly overlapping a portion of said 3D initial model of said first object portion. Determining a first set of points of a 3D point model; aligning the 3D point model with the 3D initial model based on the first set of points.
【請求項2】 前記決定ステップは、 x=1からnであり、ただし、nは前記3D点モデル内の点の数であるときに
、 点Pxから前記初期モデルへの最小距離を決定するサブステップと、 Dxが所定値未満であるならば前記第1の点のセット内に点Pxを含むサブス
テップと、 を含む請求項1に記載の方法。
2. The determining step comprises: substituting a minimum distance from the point Px to the initial model, where x = 1 to n, where n is the number of points in the 3D point model. The method of claim 1, comprising: a substep of including a point Px in the first set of points if Dx is less than a predetermined value.
【請求項3】 物体の表面を走査するための装置であって、 投影装置及び観察装置を含む走査装置と、 前記走査装置に作用的に連結されたシステム制御装置であって、前記投影装置
を制御するための第1の制御装置と、前記観察装置を制御するための第2の制御
装置と、を備えるシステム制御装置と、 を組み合わせて備える装置。
3. A device for scanning the surface of an object, comprising: a scanning device including a projection device and an observation device; and a system controller operatively connected to the scanning device, the projection device comprising: An apparatus provided with a combination of a system control apparatus having a first control apparatus for controlling and a second control apparatus for controlling the observation apparatus.
【請求項4】 物体の三次元モデルを作製するための方法であって、 投影軸及び視軸の少なくとも1つの点によって形成された平面に直交して変動
する少なくとも1つの構成要素を備えた少なくとも1つのコード化された特徴部
を有する画像を投影するステップと、 観察装置で表面画像の表示を受け取るステップと、 前記少なくとも1つのコード化された特徴部に基づいて前記物体の前記表面に
点の位置を決定するステップと、 を含む方法。
4. A method for producing a three-dimensional model of an object, comprising at least one component that varies orthogonal to a plane formed by at least one point of a projection axis and a visual axis. Projecting an image having one coded feature, receiving a display of a surface image at a viewing device, and observing a point on the surface of the object based on the at least one coded feature. Determining the position.
【請求項5】 参照独立走査装置から物体の三次元モデルを作製するための
方法であって、 a)二次元物体データを表す第1のデータを走査して受け取るステップであっ
て、前記第1のデータは複数のフレームを含むステップと、 b)前記第1のデータの第1のフレームから第1の三次元モデルを作製するス
テップと、 c)前記第1のデータの第2のフレームから第2の三次元モデルを作製するス
テップと、 d)前記第1の三次元モデルを前記第2の三次元モデルに整列配置して累積モ
デルを作製する処理を実施するステップと、 e)整列配置して累積モデルを作製する前記処理が、前記第1のデータのすべ
てのフレームに対して完了するまで、前記ステップb)からd)を反復するステ
ップと、 を含む方法。
5. A method for producing a three-dimensional model of an object from a reference independent scanning device, comprising the steps of: a) scanning and receiving first data representing two-dimensional object data, Data of a plurality of frames, b) creating a first three-dimensional model from a first frame of the first data, and c) a second frame of the first data. 2) creating a three-dimensional model; d) performing a process of aligning the first three-dimensional model with the second three-dimensional model to produce a cumulative model; and e) aligning. Repeating the steps b) to d) until the process of producing a cumulative model is completed for all frames of the first data.
【請求項6】 データを位置合わせする方法であって、 物体を表す参照独立データを受け取るステップであって、前記参照独立データ
は複数のフレームF1からFnを含み、ただし、nは1より大きい正の整数であ
り、フレームF1からFnの各々は、前記物体の物体部分を表すステップと、 フレームFxの間の前記物体部分とフレームFx+1の間の前記物体部分との
間の位置合わせを実施するステップであって、ただしxは1とn−1との間の整
数であるステップと、 を含む方法。
6. A method of registering data, the step of receiving reference independent data representing an object, said reference independent data comprising a plurality of frames F1 to Fn, where n is a positive number greater than one. And each of frames F1 to Fn represents an object part of said object and performing an alignment between said object part during frame Fx and said object part during frame Fx + 1. Where x is an integer between 1 and n-1.
【請求項7】 フレームFxの前記物体部分の空間位置は未知であり、フレ
ームFx+1の前記物体部分の空間位置は未知である請求項6に記載の方法。
7. The method of claim 6, wherein the spatial position of the object portion of frame Fx is unknown and the spatial position of the object portion of frame Fx + 1 is unknown.
【請求項8】 フレームFxがキャプチャされたときにスキャナの空間位置
は未知であり、フレームFx+1がキャプチャされたときにスキャナの空間位置
は未知である請求項6に記載の方法。
8. The method of claim 6, wherein the spatial position of the scanner is unknown when frame Fx is captured and the spatial position of the scanner is unknown when frame Fx + 1 is captured.
【請求項9】 フレームFxの前記物体部分の空間位置は未知であり、フレ
ームFx+1の前記物体部分の空間位置は未知である請求項8に記載の方法。
9. The method of claim 8, wherein the spatial position of the object portion of frame Fx is unknown and the spatial position of the object portion of frame Fx + 1 is unknown.
【請求項10】 データを位置合わせする方法であって、 物体の第1の部分を表す第1の二次元画像を受け取るステップであって、前記
第1の二次元画像は参照独立画像であるステップと、 物体の第2の部分を表す第2の二次元画像を受け取るステップであって、前記
第2の二次元画像は参照独立画像であるステップと、 前記第1の画像に対する前記第2の画像の三次元位置合わせを実施するために
使用される元々の項目点を決定するステップと、 を含む方法。
10. A method of registering data, the method comprising: receiving a first two-dimensional image representing a first portion of an object, the first two-dimensional image being a reference independent image. Receiving a second two-dimensional image representing a second part of the object, the second two-dimensional image being a reference independent image; and the second image with respect to the first image. Determining the original item points used to perform the three-dimensional registration of the.
【請求項11】 前記元々の項目点に基づいて三次元位置合わせを実施する
ステップをさらに含む請求項10に記載の方法。
11. The method of claim 10, further comprising performing a three-dimensional registration based on the original item points.
【請求項12】 前記元々の項目点に基づいて代替項目点を規定するステッ
プと、 前記代替項目点に基づいて三次元位置合わせを実施するステップと、 をさらに含む請求項11に記載の方法。
12. The method of claim 11, further comprising: defining alternative item points based on the original item points; and performing three-dimensional registration based on the alternative item points.
【請求項13】 データを位置合わせする方法であって、 物体を表す参照独立データを受け取るステップであって、前記参照独立データ
は複数のフレームF1からFnを含み、ただし、nは1より大きい正の整数であ
り、フレームF1からFnの各々は、前記物体の物体部分を表すステップと、 前記参照独立データを使用して第1の位置合わせを実施して、第1の三次元モ
デルを作るステップと、 前記参照独立データを使用して第2の位置合わせを実施して、第2の三次元モ
デルを作るステップと、 を含む方法。
13. A method of registering data, the method comprising receiving reference independent data representing an object, the reference independent data comprising a plurality of frames F1 to Fn, where n is a positive number greater than one. And each frame F1 to Fn represents an object portion of the object, and performing a first registration using the reference independent data to create a first three-dimensional model. Performing a second registration using the reference independent data to produce a second three-dimensional model.
【請求項14】 前記第1の位置合わせは第1の特性を有し、前記第2の位
置合わせは第2の特性を有する請求項13に記載の方法。
14. The method of claim 13, wherein the first alignment has a first characteristic and the second alignment has a second characteristic.
【請求項15】 前記第1及び第2の特性は、正確度特性である請求項14
に記載の方法。
15. The first and second characteristics are accuracy characteristics.
The method described in.
【請求項16】 前記第1の特性は結果として、前記第1の三次元モデルよ
りも正確度が高い第2の三次元モデルが得られる請求項15に記載の方法。
16. The method of claim 15, wherein the first characteristic results in a second three-dimensional model that is more accurate than the first three-dimensional model.
【請求項17】 前記第1の位置合わせを実施する前記ステップは、前記第
2の位置合わせを実施する前記ステップよりも時間がかからない請求項16に記
載の方法。
17. The method of claim 16, wherein the step of performing the first alignment takes less time than the step of performing the second alignment.
【請求項18】 前記第1の位置合わせは、x=2…nであるときに、各フ
レームFxを隣接するフレームFx−1に対して位置合わせするよう試みる単一
フレーム位置合わせである請求項13に記載の方法。
18. The first alignment is a single frame alignment that attempts to align each frame Fx with an adjacent frame Fx−1 when x = 2 ... n. 13. The method according to 13.
【請求項19】 デジタルデータを受け取るステップであって、前記デジタ
ルデータは、解剖学的構造物の直接三次元表面走査に基づくステップと、 前記デジタルデータの表示を、解剖学的装置を設計させる遠隔地へ発信するス
テップと、 を含む方法。
19. Receiving digital data, the digital data being based on a direct three-dimensional surface scan of an anatomical structure, and displaying the digital data to remotely design an anatomical device. And a step of transmitting to the ground.
【請求項20】 前記受取ステップは、前記デジタルデータを直接受け取る
前記解剖学的構造物を走査することをさらに含む請求項19に記載の方法。
20. The method of claim 19, wherein the receiving step further comprises scanning the anatomical structure that directly receives the digital data.
【請求項21】 前記受取ステップは、送出施設から受取施設で前記デジタ
ルデータを受け取ることをさらに含み、前記受取施設、前記送出施設及び前記遠
隔施設は異なる施設である請求項19に記載の方法。
21. The method of claim 19, wherein said receiving step further comprises receiving said digital data at a receiving facility from a sending facility, wherein said receiving facility, said sending facility and said remote facility are different facilities.
【請求項22】 解剖学的装置を設計させるために発信する前記ステップは
、前記装置を製造させることを含む請求項19に記載の方法。
22. The method of claim 19, wherein the step of transmitting to design an anatomical device comprises manufacturing the device.
【請求項23】 前記受取ステップは、参照独立走査に基づいた前記デジタ
ルデータを含む請求項19に記載の方法。
23. The method of claim 19, wherein the receiving step includes the digital data based on a reference independent scan.
【請求項24】 前記参照独立走査は、物体のマルチフレーム参照独立三次
元走査を含む請求項23に記載の方法。
24. The method of claim 23, wherein the reference independent scan comprises a multi-frame reference independent three-dimensional scan of an object.
【請求項25】 前記受取ステップは、前記解剖学的装置を設計しない施設
で前記デジタルデータを受け取ることを含む請求項19に記載の方法。
25. The method of claim 19, wherein the receiving step comprises receiving the digital data at a facility that does not design the anatomical device.
【請求項26】 デジタルデータを受け取るステップであって、前記デジタ
ルデータは、解剖学的構造物の直接三次元表面走査に基づくステップと、 前記デジタルデータの表示を法医学用に遠隔地へ発信するステップと、 を含む方法。
26. Receiving digital data, the digital data being based on a direct three-dimensional surface scan of an anatomical structure, and transmitting the representation of the digital data to a remote location for forensic purposes. And, including.
【請求項27】 バスを有する処理モジュールと、 前記処理モジュールの前記バスに連結されたバスを有するメモリであって、 前記処理モジュールに、 解剖学的構造物の三次元表面走査に基づくデジタルデータを受け取らせ、且つ
、 前記デジタルデータの表示を遠隔地へ発信して解剖学的装置を設計させる指令
を格納するメモリと、 を備えるシステム。
27. A processing module having a bus and a memory having a bus connected to the bus of the processing module, wherein the processing module is provided with digital data based on a three-dimensional surface scan of an anatomical structure. A system for receiving instructions for receiving and transmitting a display of the digital data to a remote location to design an anatomical device.
【請求項28】 表面をマッピングする方法であって、 第1の期間中にマッピングすべき物体へ投影軸に沿って第1の画像を投影する
ステップであって、前記第1の画像は測定特徴部を有するステップと、 第2の期間中に前記表面に対して前記投影軸に沿って第2の画像を投影するス
テップであって、前記第2の画像は、前記第1の画像の前記測定特徴部を識別す
るのに使用されるコード化された特徴部を有するステップと、を含み、前記第1
の期間と前記第2の期間とは時間的に隣接しており、実質的に相互に排他的であ
る方法。
28. A method of mapping a surface, the method comprising: projecting a first image along a projection axis onto an object to be mapped during a first period of time, the first image being a measurement feature. And a step of projecting a second image along the projection axis onto the surface during a second period, the second image being the measurement of the first image. Having a coded feature used to identify a feature, said first
And the second period are temporally adjacent to each other and are substantially mutually exclusive.
【請求項29】 前記第2の画像を投影する前記ステップは、前記投影軸及
び視軸の1つの点によって形成された平面に少なくとも部分的に実質的に直交す
るコード化された特徴部を含む請求項28に記載の方法。
29. The step of projecting the second image includes a coded feature that is at least partially substantially orthogonal to a plane formed by one point of the projection axis and the viewing axis. The method of claim 28.
【請求項30】 物体をマッピングする装置であって、 マッピングすべき物体へ投影軸に沿って第1の期間中に測定特徴部を有する第
1の画像を発信し、前記投影軸に沿って第2の期間中にコード化された特徴部を
有する第2の画像を発信するプロジェクタであって、前記第2の画像は平面に対
して少なくとも部分的に直交し、前記第1の画像の前記測定特徴部を識別するの
に使用され、前記第1の期間と前記第2の期間とは時間的に隣接しており、実質
的に相互に排他的である装置。
30. An apparatus for mapping an object, the first image having a measurement feature being emitted during a first time period along a projection axis to the object to be mapped, and a first image along the projection axis. A projector emitting a second image having features coded during two periods, the second image being at least partially orthogonal to a plane, the measurement of the first image A device used to identify features, wherein the first time period and the second time period are temporally adjacent and are substantially mutually exclusive.
【請求項31】 物体を走査するための装置であって、 指令を実行するデータプロセッサと、 複数の指令であって、下記の、 第1の画像がマッピングすべき物体へ投影軸に沿って投影されるべき第1の期
間を特定する操作であって、前記第1の画像は、前記投影軸及び視軸の1つの点
によって形成された平面に対して平行な方向に検出可能である測定特徴部を有す
る操作と、 第2の画像が表面へ前記投影軸に沿って投影されるべき第2の期間を特定する
操作であって、前記第2の画像は、前記平面に少なくとも部分的に直交し且つ前
記第1の画像の前記測定特徴部を識別するのに使用されるコード化された特徴部
を有する操作と、 を実行するために前記データプロセッサで実行されることが可能である複数の
指令と、 を含み、前記第1の期間と前記第2の期間とは時間的に隣接しており、実質的
に相互に排他的である装置。
31. An apparatus for scanning an object, comprising: a data processor for executing a command; and a plurality of commands for projecting a first image below onto an object to be mapped along a projection axis. An operation for identifying a first period to be performed, wherein the first image is detectable in a direction parallel to a plane formed by one point of the projection axis and the visual axis. An operation having a section, and an operation specifying a second time period during which a second image should be projected onto a surface along the projection axis, the second image being at least partially orthogonal to the plane. And having an encoded feature used to identify the measurement feature of the first image, and a plurality of operations that can be performed in the data processor to perform A first term, including: The space and the second time period are adjacent in time and are substantially mutually exclusive.
【請求項32】 走査する方法であって、 患者を提供するステップと、 三角測量の平面に直交するコード化された特徴部を備えたパターンを使用する
スキャナを提供するステップと、 マルチフレーム参照独立三次元走査を使用して患者の一部を走査して、走査デ
ータを受け取るステップと、 を含む方法。
32. A method of scanning, providing a patient; providing a scanner using a pattern with coded features orthogonal to a plane of triangulation; and multi-frame reference independent. Scanning a portion of the patient using a three-dimensional scan to receive scan data.
【請求項33】 前記患者の前記一部は、生歯構造物である請求項32に記
載の方法。
33. The method of claim 32, wherein the portion of the patient is a dentition structure.
【請求項34】 前記患者の前記一部は、歯部分を含む請求項33に記載の
方法。
34. The method of claim 33, wherein the portion of the patient comprises a tooth portion.
【請求項35】 前記走査ステップ中に、前記患者の前記一部は固定されな
い請求項32に記載の方法。
35. The method of claim 32, wherein the portion of the patient is unfixed during the scanning step.
【請求項36】 患者の口の一部を走査する方法であって、 生歯構造物のアンダーカットを備えた画像を有する走査データを受け取るステ
ップであって、前記走査データ参照点に関連する公知の空間参照がないステップ
と、 前記走査データを使用して前記生歯構造物の三次元モデルを作製するステップ
と、 を含む方法。
36. A method of scanning a portion of a patient's mouth, the step of receiving scan data having an image with an undercut of a dentition structure, the known method relating to said scan data reference points. Free spatial reference of the denture structure, and using the scan data to create a three-dimensional model of the dentition structure.
【請求項37】 物体をマッピングする方法であって、 前記物体の表面へ投影軸に沿って第1の画像を投影するステップであって、前
記第1の画像は、第1の特性を有する第1のセットの表面特徴部をマッピングす
るための測定特徴部を含むステップと、 前記物体の前記表面へ投影軸に沿って第2の画像を投影するステップであって
、前記第2の画像は、第2の特性を有する第2のセットの表面特徴部をマッピン
グするための測定特徴部を含むステップと、 を含む方法。
37. A method of mapping an object, the method comprising: projecting a first image onto a surface of the object along a projection axis, the first image having a first characteristic. Including a measurement feature for mapping a set of surface features of the first set, and projecting a second image along the projection axis onto the surface of the object, the second image comprising: Including a measurement feature for mapping a second set of surface features having a second characteristic.
【請求項38】 前記第2の画像を投影する前記ステップは、前記第2の画
像を前記第1の画像と同時に投影することをさらに含む請求項37に記載の方法
38. The method of claim 37, wherein the step of projecting the second image further comprises projecting the second image at the same time as the first image.
【請求項39】 前記第1の画像は複数の平行な特徴部を有する第1の画像
をさらに含み、前記複数の平行な特徴部の各々は所定の距離Xだけ分離され、前
記第2の画像は、所定の距離Yだけ他のいずれの特徴部から分離された少なくと
も1つの特徴部を含み、YはXよりも大きい請求項38に記載の方法。
39. The first image further comprises a first image having a plurality of parallel features, each of the plurality of parallel features being separated by a predetermined distance X, and the second image. 39. The method of claim 38, wherein includes at least one feature separated from any other feature by a predetermined distance Y, where Y is greater than X.
【請求項40】 前記第1の画像特徴部を投影することに基づいて前記第2
のセットの表面特徴部を決定するステップであって、前記第2のセットの表面特
徴部は前記第1の画像特徴部を使用してマッピングされないステップをさらに含
む請求項37に記載の方法。
40. The second image based on projecting the first image feature
38. The method of claim 37, further comprising: determining surface features of the second set of surface features, wherein the second set of surface features is not mapped using the first image features.
【請求項41】 物体をマッピングするために画像を投影するのに使用され
、前記物体の表面へ投影軸に沿って第1の画像及び第2の画像を投影するプロジ
ェクタを備える装置であって、前記第1の画像は第1の特性を有する第1のセッ
トの表面特徴部をマッピングするための測定特徴部を含み、前記物体の前記表面
へ前記投影軸に沿って第2の画像を投影し、前記第2の画像は、第2の特性を有
する第2のセットの表面特徴部をマッピングするための測定特徴部を含む装置。
41. An apparatus comprising a projector used to project an image for mapping an object, the projector projecting a first image and a second image along a projection axis onto a surface of the object, The first image includes a measurement feature for mapping a first set of surface features having a first characteristic, projecting a second image onto the surface of the object along the projection axis. , The second image comprises a measurement feature for mapping a second set of surface features having a second characteristic.
【請求項42】 表面をマッピングする方法であって、 画像を投影軸に沿って表面へ投影して表面画像を提供するステップであって、
前記画像は、前記投影軸及び視軸の1つの点によって形成された平面に実質的に
直交する方向に変動する可変特徴部を含むステップと、 前記視軸に沿って前記表面画像の表示を受け取るステップと、 前記表面画像の前記表示の前記可変特徴部に少なくとも部分的に基づいて前記
表面の点に場所を決定するステップと、 を含む方法。
42. A method of mapping a surface, the method comprising: projecting an image onto the surface along a projection axis to provide a surface image.
The image includes a variable feature that varies in a direction substantially orthogonal to a plane formed by one point of the projection axis and the visual axis, and receives a display of the surface image along the visual axis. Determining a location at a point on the surface based at least in part on the variable feature of the representation of the surface image.
【請求項43】 前記画像は所定のパターンである請求項42に記載の方法
43. The method of claim 42, wherein the image is a predetermined pattern.
【請求項44】 前記所定のパターンは、 前記表面の前記点に少なくとも場所を含む第1の特徴部と、前記可変特徴部の
少なくとも一部を含む第2の特徴部と、を有する第1の画像部分と、 第3の特徴部と第4の特徴部とを有する第2の画像部分と、 を含み、 前記決定ステップは、前記第2の特徴部を使用して前記第1の特徴部を識別す
ることをさらに含む請求項43に記載の方法。
44. A first feature wherein the predetermined pattern has a first feature that includes at least a location at the point on the surface and a second feature that includes at least a portion of the variable feature. An image portion and a second image portion having a third feature and a fourth feature, wherein the determining step uses the second feature to determine the first feature. 44. The method of claim 43, further comprising identifying.
【請求項45】 表面をマッピングする方法であって、 表面にパターンを投影するステップであって、前記パターンは、複数の第1の
特徴部と複数の第2の特徴部とを有し、前記複数の第2の特徴部の各々は、前記
表面の位相とは無関係に独自に識別可能であるステップと、 前記複数の第2の特徴部に基づいて前記複数の第1の特徴部の特定の特徴部を
決定するステップと、 を含む方法。
45. A method of mapping a surface, the method comprising: projecting a pattern onto the surface, the pattern having a plurality of first features and a plurality of second features. Each of the plurality of second features is uniquely identifiable regardless of the phase of the surface; and identifying the plurality of first features based on the plurality of second features. Determining a feature.
【請求項46】 前記特定の特徴部に基づいて前記表面の1点の相対的位置
関係を計算するステップをさらに含む請求項45に記載の方法。
46. The method of claim 45, further comprising the step of calculating the relative position of one point on the surface based on the particular feature.
【請求項47】 物体を走査する方法であって、 物体を走査するために複数の不連続形状を投影するステップであって、前記複
数の不連続形状は、第1の不連続形状と第2の不連続形状とを含むステップと、 前記第1の不連続形状に対して第1のコード化された特徴部を投影するステッ
プと、 を含む方法。
47. A method of scanning an object, comprising: projecting a plurality of discontinuity shapes to scan an object, the plurality of discontinuity shapes including a first discontinuity shape and a second discontinuity shape. And a step of projecting a first coded feature onto the first discontinuous shape.
【請求項48】 物体を走査する装置であって、 指令を実行するためのデータプロセッサと、 複数の指令であって、下記の、 物体を走査するために複数の不連続形状を投影する操作であって、前記複数
の不連続形状は第1の不連続形状と第2の不連続形状とを含む操作と、 前記第1の不連続形状に対して第1のコード化された特徴部を投影する操作
と、 を実行するために前記データプロセッサで実行されることが可能である複数の
指令と、 を含む装置。
48. An apparatus for scanning an object, comprising: a data processor for executing a command; and a plurality of commands, the operations of: projecting a plurality of discontinuous shapes to scan an object. And wherein the plurality of discontinuity shapes includes an operation including a first discontinuity shape and a second discontinuity shape, and projecting a first coded feature onto the first discontinuity shape. And a plurality of instructions that can be executed by the data processor to perform the operation.
JP2001581218A 2000-04-28 2001-04-13 Method and system for scanning a surface and creating a three-dimensional object Expired - Fee Related JP4206213B2 (en)

Applications Claiming Priority (17)

Application Number Priority Date Filing Date Title
US09/560,584 US7068836B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,645 2000-04-28
US09/560,584 2000-04-28
US09/560,133 2000-04-28
US09/560,132 2000-04-28
US09/560,131 US6744914B1 (en) 2000-04-28 2000-04-28 Method and system for generating a three-dimensional object
US09/560,644 2000-04-28
US09/560,131 2000-04-28
US09/560,645 US6728423B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,644 US6413084B1 (en) 2000-04-28 2000-04-28 Method and system of scanning
US09/560,132 US6771809B1 (en) 2000-04-28 2000-04-28 Method and system for registering data
US09/560,583 2000-04-28
US09/560,133 US6744932B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,583 US6738508B1 (en) 2000-04-28 2000-04-28 Method and system for registering data
US09/616,093 US6532299B1 (en) 2000-04-28 2000-07-13 System and method for mapping a surface
US09/616,093 2000-07-13
PCT/US2001/012107 WO2001084479A1 (en) 2000-04-28 2001-04-13 Method and system for scanning a surface and generating a three-dimensional object

Related Child Applications (4)

Application Number Title Priority Date Filing Date
JP2004364282A Division JP5362166B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364269A Division JP5325366B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364294A Division JP4989848B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2008047760A Division JP2008276743A (en) 2000-04-28 2008-02-28 Method and system for scanning surface and preparing three-dimensional object

Publications (3)

Publication Number Publication Date
JP2003532125A true JP2003532125A (en) 2003-10-28
JP2003532125A5 JP2003532125A5 (en) 2008-10-30
JP4206213B2 JP4206213B2 (en) 2009-01-07

Family

ID=27575480

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2001581218A Expired - Fee Related JP4206213B2 (en) 2000-04-28 2001-04-13 Method and system for scanning a surface and creating a three-dimensional object
JP2004364294A Expired - Lifetime JP4989848B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364282A Expired - Lifetime JP5362166B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364269A Expired - Lifetime JP5325366B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2004364294A Expired - Lifetime JP4989848B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364282A Expired - Lifetime JP5362166B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364269A Expired - Lifetime JP5325366B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object

Country Status (4)

Country Link
EP (1) EP1287482A4 (en)
JP (4) JP4206213B2 (en)
AU (1) AU2001251606A1 (en)
WO (1) WO2001084479A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508007A (en) * 2004-07-30 2008-03-21 ヘレウス・クルツァー・ゲーエムベーハー Device for imaging the surface structure of a three-dimensional object
JP2010515502A (en) * 2007-01-11 2010-05-13 ジカット ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト Image registration
JP2011513881A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション A method of recording multiple frames of a cloud-like 3D data point cloud for a target.
JP2016500546A (en) * 2012-11-02 2016-01-14 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Calibration device and method for calibrating a dental camera
KR101617738B1 (en) 2015-05-19 2016-05-04 모젼스랩(주) Real-time image mapping system and method for multi-object
JP2017144210A (en) * 2016-02-05 2017-08-24 バテック カンパニー リミテッド Scanning object in three dimensions using color dashed line pattern
JP2019168328A (en) * 2018-03-23 2019-10-03 株式会社東芝 Method for inspecting semiconductor device and method for manufacturing semiconductor device
WO2021242053A1 (en) * 2020-05-29 2021-12-02 주식회사 메디트 Three-dimensional data acquisition method and device, and computer-readable storage medium storing program for performing same method

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4206213B2 (en) * 2000-04-28 2009-01-07 オラメトリックス インコーポレイテッド Method and system for scanning a surface and creating a three-dimensional object
US6854973B2 (en) 2002-03-14 2005-02-15 Orametrix, Inc. Method of wet-field scanning
SE0203140L (en) * 2002-10-24 2004-04-25 Jemtab Systems Device for determining positions for one or more teeth in tooth replacement arrangements
US8407067B2 (en) 2007-04-17 2013-03-26 Biomet Manufacturing Corp. Method and apparatus for manufacturing an implant
US8133234B2 (en) 2006-02-27 2012-03-13 Biomet Manufacturing Corp. Patient specific acetabular guide and method
US8092465B2 (en) 2006-06-09 2012-01-10 Biomet Manufacturing Corp. Patient specific knee alignment guide and associated method
US10278711B2 (en) 2006-02-27 2019-05-07 Biomet Manufacturing, Llc Patient-specific femoral guide
US9289253B2 (en) 2006-02-27 2016-03-22 Biomet Manufacturing, Llc Patient-specific shoulder guide
US9339278B2 (en) 2006-02-27 2016-05-17 Biomet Manufacturing, Llc Patient-specific acetabular guides and associated instruments
US8608748B2 (en) 2006-02-27 2013-12-17 Biomet Manufacturing, Llc Patient specific guides
US20150335438A1 (en) 2006-02-27 2015-11-26 Biomet Manufacturing, Llc. Patient-specific augments
US8568487B2 (en) 2006-02-27 2013-10-29 Biomet Manufacturing, Llc Patient-specific hip joint devices
US8377066B2 (en) 2006-02-27 2013-02-19 Biomet Manufacturing Corp. Patient-specific elbow guides and associated methods
US7967868B2 (en) 2007-04-17 2011-06-28 Biomet Manufacturing Corp. Patient-modified implant and associated method
US8591516B2 (en) 2006-02-27 2013-11-26 Biomet Manufacturing, Llc Patient-specific orthopedic instruments
US8864769B2 (en) 2006-02-27 2014-10-21 Biomet Manufacturing, Llc Alignment guides with patient-specific anchoring elements
US9918740B2 (en) 2006-02-27 2018-03-20 Biomet Manufacturing, Llc Backup surgical instrument system and method
US9345548B2 (en) 2006-02-27 2016-05-24 Biomet Manufacturing, Llc Patient-specific pre-operative planning
US9907659B2 (en) 2007-04-17 2018-03-06 Biomet Manufacturing, Llc Method and apparatus for manufacturing an implant
US8608749B2 (en) 2006-02-27 2013-12-17 Biomet Manufacturing, Llc Patient-specific acetabular guides and associated instruments
US8858561B2 (en) 2006-06-09 2014-10-14 Blomet Manufacturing, LLC Patient-specific alignment guide
US8603180B2 (en) 2006-02-27 2013-12-10 Biomet Manufacturing, Llc Patient-specific acetabular alignment guides
US20080257363A1 (en) * 2007-04-17 2008-10-23 Biomet Manufacturing Corp. Method And Apparatus For Manufacturing An Implant
US9113971B2 (en) 2006-02-27 2015-08-25 Biomet Manufacturing, Llc Femoral acetabular impingement guide
US8535387B2 (en) 2006-02-27 2013-09-17 Biomet Manufacturing, Llc Patient-specific tools and implants
US9173661B2 (en) 2006-02-27 2015-11-03 Biomet Manufacturing, Llc Patient specific alignment guide with cutting surface and laser indicator
US9795399B2 (en) 2006-06-09 2017-10-24 Biomet Manufacturing, Llc Patient-specific knee alignment guide and associated method
US20090061381A1 (en) * 2007-09-05 2009-03-05 Duane Milford Durbin Systems and methods for 3D previewing
US8265949B2 (en) 2007-09-27 2012-09-11 Depuy Products, Inc. Customized patient surgical plan
ES2802126T3 (en) 2007-09-30 2021-01-15 Depuy Products Inc Patient Specific Custom Orthopedic Surgical Instrument
US8357111B2 (en) 2007-09-30 2013-01-22 Depuy Products, Inc. Method and system for designing patient-specific orthopaedic surgical instruments
US8738165B2 (en) 2007-12-21 2014-05-27 3M Innovative Properties Company Methods of preparing a virtual dentition model and fabricating a dental retainer therefrom
US8992538B2 (en) 2008-09-30 2015-03-31 DePuy Synthes Products, Inc. Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication
US8243289B2 (en) * 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
ES2607052T3 (en) 2009-06-17 2017-03-29 3Shape A/S Focus scanning apparatus
DE102009028503B4 (en) 2009-08-13 2013-11-14 Biomet Manufacturing Corp. Resection template for the resection of bones, method for producing such a resection template and operation set for performing knee joint surgery
US8632547B2 (en) 2010-02-26 2014-01-21 Biomet Sports Medicine, Llc Patient-specific osteotomy devices and methods
US9066727B2 (en) 2010-03-04 2015-06-30 Materialise Nv Patient-specific computed tomography guides
US8808302B2 (en) 2010-08-12 2014-08-19 DePuy Synthes Products, LLC Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication
US9271744B2 (en) 2010-09-29 2016-03-01 Biomet Manufacturing, Llc Patient-specific guide for partial acetabular socket replacement
US9968376B2 (en) 2010-11-29 2018-05-15 Biomet Manufacturing, Llc Patient-specific orthopedic instruments
US9241745B2 (en) 2011-03-07 2016-01-26 Biomet Manufacturing, Llc Patient-specific femoral version guide
US8715289B2 (en) 2011-04-15 2014-05-06 Biomet Manufacturing, Llc Patient-specific numerically controlled instrument
US9675400B2 (en) 2011-04-19 2017-06-13 Biomet Manufacturing, Llc Patient-specific fracture fixation instrumentation and method
US8956364B2 (en) 2011-04-29 2015-02-17 Biomet Manufacturing, Llc Patient-specific partial knee guides and other instruments
US8668700B2 (en) 2011-04-29 2014-03-11 Biomet Manufacturing, Llc Patient-specific convertible guides
US8532807B2 (en) 2011-06-06 2013-09-10 Biomet Manufacturing, Llc Pre-operative planning and manufacturing method for orthopedic procedure
US9084618B2 (en) 2011-06-13 2015-07-21 Biomet Manufacturing, Llc Drill guides for confirming alignment of patient-specific alignment guides
US8764760B2 (en) 2011-07-01 2014-07-01 Biomet Manufacturing, Llc Patient-specific bone-cutting guidance instruments and methods
US20130001121A1 (en) 2011-07-01 2013-01-03 Biomet Manufacturing Corp. Backup kit for a patient-specific arthroplasty kit assembly
US8597365B2 (en) 2011-08-04 2013-12-03 Biomet Manufacturing, Llc Patient-specific pelvic implants for acetabular reconstruction
US9295497B2 (en) 2011-08-31 2016-03-29 Biomet Manufacturing, Llc Patient-specific sacroiliac and pedicle guides
US9066734B2 (en) 2011-08-31 2015-06-30 Biomet Manufacturing, Llc Patient-specific sacroiliac guides and associated methods
US9386993B2 (en) 2011-09-29 2016-07-12 Biomet Manufacturing, Llc Patient-specific femoroacetabular impingement instruments and methods
US9301812B2 (en) 2011-10-27 2016-04-05 Biomet Manufacturing, Llc Methods for patient-specific shoulder arthroplasty
WO2013062848A1 (en) 2011-10-27 2013-05-02 Biomet Manufacturing Corporation Patient-specific glenoid guides
KR20130046337A (en) 2011-10-27 2013-05-07 삼성전자주식회사 Multi-view device and contol method thereof, display apparatus and contol method thereof, and display system
US9451973B2 (en) 2011-10-27 2016-09-27 Biomet Manufacturing, Llc Patient specific glenoid guide
US9554910B2 (en) 2011-10-27 2017-01-31 Biomet Manufacturing, Llc Patient-specific glenoid guide and implants
US9237950B2 (en) 2012-02-02 2016-01-19 Biomet Manufacturing, Llc Implant with patient-specific porous structure
DE102012214467B4 (en) * 2012-08-14 2019-08-08 Sirona Dental Systems Gmbh Method for registering individual three-dimensional optical recordings of a dental object
EP2728305B1 (en) * 2012-10-31 2016-06-29 VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH Method and light patterns for measuring the height or the height curve of an object
US9060788B2 (en) 2012-12-11 2015-06-23 Biomet Manufacturing, Llc Patient-specific acetabular guide for anterior approach
US9204977B2 (en) 2012-12-11 2015-12-08 Biomet Manufacturing, Llc Patient-specific acetabular guide for anterior approach
KR101416985B1 (en) 2012-12-15 2014-08-14 주식회사 디오에프연구소 An auxiliary scan table for scanning 3D articulator dental model
US9839438B2 (en) 2013-03-11 2017-12-12 Biomet Manufacturing, Llc Patient-specific glenoid guide with a reusable guide holder
US9579107B2 (en) 2013-03-12 2017-02-28 Biomet Manufacturing, Llc Multi-point fit for patient specific guide
US9498233B2 (en) 2013-03-13 2016-11-22 Biomet Manufacturing, Llc. Universal acetabular guide and associated hardware
US9826981B2 (en) 2013-03-13 2017-11-28 Biomet Manufacturing, Llc Tangential fit of patient-specific guides
US9517145B2 (en) 2013-03-15 2016-12-13 Biomet Manufacturing, Llc Guide alignment system and method
US20150112349A1 (en) 2013-10-21 2015-04-23 Biomet Manufacturing, Llc Ligament Guide Registration
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
US10282488B2 (en) 2014-04-25 2019-05-07 Biomet Manufacturing, Llc HTO guide with optional guided ACL/PCL tunnels
US9408616B2 (en) 2014-05-12 2016-08-09 Biomet Manufacturing, Llc Humeral cut guide
US9839436B2 (en) 2014-06-03 2017-12-12 Biomet Manufacturing, Llc Patient-specific glenoid depth control
US9561040B2 (en) 2014-06-03 2017-02-07 Biomet Manufacturing, Llc Patient-specific glenoid depth control
US9833245B2 (en) 2014-09-29 2017-12-05 Biomet Sports Medicine, Llc Tibial tubercule osteotomy
US9826994B2 (en) 2014-09-29 2017-11-28 Biomet Manufacturing, Llc Adjustable glenoid pin insertion guide
US9820868B2 (en) 2015-03-30 2017-11-21 Biomet Manufacturing, Llc Method and apparatus for a pin apparatus
US10568647B2 (en) 2015-06-25 2020-02-25 Biomet Manufacturing, Llc Patient-specific humeral guide designs
US10226262B2 (en) 2015-06-25 2019-03-12 Biomet Manufacturing, Llc Patient-specific humeral guide designs
US10034753B2 (en) 2015-10-22 2018-07-31 DePuy Synthes Products, Inc. Customized patient-specific orthopaedic instruments for component placement in a total hip arthroplasty
US10722310B2 (en) 2017-03-13 2020-07-28 Zimmer Biomet CMF and Thoracic, LLC Virtual surgery planning system and method
US11051829B2 (en) 2018-06-26 2021-07-06 DePuy Synthes Products, Inc. Customized patient-specific orthopaedic surgical instrument
EP3827418A4 (en) * 2019-01-08 2022-03-16 Hewlett-Packard Development Company, L.P. Simulation-based capture system adjustments
KR102615021B1 (en) * 2021-10-14 2023-12-20 주식회사 메디트 Method, apparatus and recording medium storing commands for aligning scanned images of 3d scanner

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4508452A (en) * 1975-08-27 1985-04-02 Robotic Vision Systems, Inc. Arrangement for sensing the characteristics of a surface and determining the position of points thereon
JPS5256558A (en) * 1975-11-04 1977-05-10 Nippon Telegr & Teleph Corp <Ntt> Three-dimentional object measuring system
JPS5368267A (en) * 1976-11-30 1978-06-17 Nippon Telegr & Teleph Corp <Ntt> Object shape identifying system
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4286852A (en) * 1979-05-23 1981-09-01 Solid Photography, Inc. Recording images of a three-dimensional surface by focusing on a plane of light irradiating the surface
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
ZA838150B (en) * 1982-11-01 1984-06-27 Nat Res Dev Automatic welding
US4745469A (en) * 1987-02-18 1988-05-17 Perceptron, Inc. Vehicle wheel alignment apparatus and method
JP2517062B2 (en) * 1988-04-26 1996-07-24 三菱電機株式会社 3D measuring device
US5028799A (en) * 1988-08-01 1991-07-02 Robotic Vision System, Inc. Method and apparatus for three dimensional object surface determination using co-planar data from multiple sensors
JPH02110305A (en) * 1988-10-19 1990-04-23 Mitsubishi Electric Corp Three-dimensional measuring device
US4935635A (en) * 1988-12-09 1990-06-19 Harra Dale G O System for measuring objects in three dimensions
US5098426A (en) * 1989-02-06 1992-03-24 Phoenix Laser Systems, Inc. Method and apparatus for precision laser surgery
US5243665A (en) * 1990-03-07 1993-09-07 Fmc Corporation Component surface distortion evaluation apparatus and method
US5347454A (en) * 1990-04-10 1994-09-13 Mushabac David R Method, system and mold assembly for use in preparing a dental restoration
JPH03293507A (en) * 1990-04-11 1991-12-25 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5131844A (en) * 1991-04-08 1992-07-21 Foster-Miller, Inc. Contact digitizer, particularly for dental applications
SE469158B (en) * 1991-11-01 1993-05-24 Nobelpharma Ab DENTAL SENSOR DEVICE INTENDED TO BE USED IN CONNECTION WITH CONTROL OF A WORKING EQUIPMENT
US5214686A (en) * 1991-12-13 1993-05-25 Wake Forest University Three-dimensional panoramic dental radiography method and apparatus which avoids the subject's spine
JPH0666527A (en) * 1992-08-20 1994-03-08 Sharp Corp Three-dimensional measurement method
US5568384A (en) * 1992-10-13 1996-10-22 Mayo Foundation For Medical Education And Research Biomedical imaging and analysis
AT404638B (en) * 1993-01-28 1999-01-25 Oesterr Forsch Seibersdorf METHOD AND DEVICE FOR THREE-DIMENSIONAL MEASUREMENT OF THE SURFACE OF OBJECTS
US5724435A (en) * 1994-04-15 1998-03-03 Hewlett Packard Company Digital filter and method of tracking a structure extending in three spatial dimensions
DE4415834C2 (en) * 1994-05-05 2000-12-21 Breuckmann Gmbh Device for measuring distances and spatial coordinates
US5513276A (en) * 1994-06-02 1996-04-30 The Board Of Regents Of The University Of Oklahoma Apparatus and method for three-dimensional perspective imaging of objects
US5880961A (en) * 1994-08-02 1999-03-09 Crump; Craig D. Appararus and method for creating three-dimensional modeling data from an object
US5999840A (en) * 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US6205716B1 (en) * 1995-12-04 2001-03-27 Diane P. Peltz Modular video conference enclosure
KR970067585A (en) * 1996-03-25 1997-10-13 오노 시게오 Measurement method of projection characteristics and projection exposure method
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5823778A (en) * 1996-06-14 1998-10-20 The United States Of America As Represented By The Secretary Of The Air Force Imaging method for fabricating dental devices
US5991437A (en) * 1996-07-12 1999-11-23 Real-Time Geometry Corporation Modular digital audio system having individualized functional modules
DE19636354A1 (en) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Method and device for performing optical recordings
DE19638727A1 (en) * 1996-09-12 1998-03-19 Ruedger Dipl Ing Rubbert Method for increasing the significance of the three-dimensional measurement of objects
US6088695A (en) * 1996-09-17 2000-07-11 Kara; Salim G. System and method for communicating medical records using bar coding
JPH10170239A (en) * 1996-10-08 1998-06-26 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring device
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd Apparatus and method for 3d surface geometry reconstruction
US6217334B1 (en) * 1997-01-28 2001-04-17 Iris Development Corporation Dental scanning method and apparatus
US5886775A (en) * 1997-03-12 1999-03-23 M+Ind Noncontact digitizing imaging system
US5848115A (en) * 1997-05-02 1998-12-08 General Electric Company Computed tomography metrology
US6100893A (en) * 1997-05-23 2000-08-08 Light Sciences Limited Partnership Constructing solid models using implicit functions defining connectivity relationships among layers of an object to be modeled
JP3121301B2 (en) * 1997-10-28 2000-12-25 得丸 正博 Artificial tooth manufacturing system and method
US6253164B1 (en) * 1997-12-24 2001-06-26 Silicon Graphics, Inc. Curves and surfaces modeling based on a cloud of points
DE19821611A1 (en) * 1998-05-14 1999-11-18 Syrinx Med Tech Gmbh Recording method for spatial structure of three-dimensional surface, e.g. for person recognition
US6201546B1 (en) * 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
US6227850B1 (en) * 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
US6124934A (en) * 1999-01-08 2000-09-26 Shahar; Arie High-accuracy high-stability method and apparatus for measuring distance from surface to reference plane
US6139499A (en) * 1999-02-22 2000-10-31 Wilk; Peter J. Ultrasonic medical system and associated method
JP2001204757A (en) * 2000-01-31 2001-07-31 Ecchandesu:Kk Artificial eyeball
JP2008276743A (en) * 2000-04-28 2008-11-13 Orametrix Inc Method and system for scanning surface and preparing three-dimensional object
JP4206213B2 (en) * 2000-04-28 2009-01-07 オラメトリックス インコーポレイテッド Method and system for scanning a surface and creating a three-dimensional object
JP2001349713A (en) * 2000-06-06 2001-12-21 Asahi Hightech Kk Three-dimensional shape measuring device
JP2001356010A (en) * 2000-06-12 2001-12-26 Asahi Hightech Kk Three-dimensional shape measuring apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008508007A (en) * 2004-07-30 2008-03-21 ヘレウス・クルツァー・ゲーエムベーハー Device for imaging the surface structure of a three-dimensional object
JP2010515502A (en) * 2007-01-11 2010-05-13 ジカット ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト Image registration
US8798346B2 (en) 2007-01-11 2014-08-05 Sicat Gmbh & Co. Kg Image registration
JP2011513881A (en) * 2008-03-12 2011-04-28 ハリス コーポレイション A method of recording multiple frames of a cloud-like 3D data point cloud for a target.
JP2016500546A (en) * 2012-11-02 2016-01-14 シロナ・デンタル・システムズ・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング Calibration device and method for calibrating a dental camera
KR101617738B1 (en) 2015-05-19 2016-05-04 모젼스랩(주) Real-time image mapping system and method for multi-object
JP2017144210A (en) * 2016-02-05 2017-08-24 バテック カンパニー リミテッド Scanning object in three dimensions using color dashed line pattern
JP2019168328A (en) * 2018-03-23 2019-10-03 株式会社東芝 Method for inspecting semiconductor device and method for manufacturing semiconductor device
WO2021242053A1 (en) * 2020-05-29 2021-12-02 주식회사 메디트 Three-dimensional data acquisition method and device, and computer-readable storage medium storing program for performing same method
KR20210147729A (en) * 2020-05-29 2021-12-07 주식회사 메디트 METHOD AND APPARATUS FOR OBTAINING THREE Dimensional Data AND COMPUTER READABLE MEDIUM STORING A PROGRAM FOR PERFORMING THE SAME METHOD
KR102441485B1 (en) * 2020-05-29 2022-09-07 주식회사 메디트 METHOD AND APPARATUS FOR OBTAINING THREE Dimensional Data AND COMPUTER READABLE MEDIUM STORING A PROGRAM FOR PERFORMING THE SAME METHOD

Also Published As

Publication number Publication date
WO2001084479A1 (en) 2001-11-08
EP1287482A1 (en) 2003-03-05
JP4206213B2 (en) 2009-01-07
JP4989848B2 (en) 2012-08-01
JP2005214965A (en) 2005-08-11
AU2001251606A1 (en) 2001-11-12
EP1287482A4 (en) 2007-07-11
JP2005230530A (en) 2005-09-02
JP5362166B2 (en) 2013-12-11
JP5325366B2 (en) 2013-10-23
JP2005201896A (en) 2005-07-28

Similar Documents

Publication Publication Date Title
JP5362166B2 (en) Method and system for scanning a surface and creating a three-dimensional object
US6532299B1 (en) System and method for mapping a surface
EP3952782B1 (en) Visual presentation of gingival line generated based on 3d tooth model
US11672629B2 (en) Photo realistic rendering of smile image after treatment
US10945813B2 (en) Providing a simulated outcome of dental treatment on a patient
US8135569B2 (en) System and method for three-dimensional complete tooth modeling
EP2134290B1 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
US7585172B2 (en) Orthodontic treatment planning with user-specified simulation of tooth movement
US7068825B2 (en) Scanning system and calibration method for capturing precise three-dimensional information of objects
US7027642B2 (en) Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US20070160957A1 (en) Image based dentition record digitization
JP2008276743A (en) Method and system for scanning surface and preparing three-dimensional object
KR20170000794A (en) Generating a design for a dental restorative product from dental images
US20100291505A1 (en) Haptically Enabled Coterminous Production of Prosthetics and Patient Preparations in Medical and Dental Applications
WO2006065955A2 (en) Image based orthodontic treatment methods
US20230162457A1 (en) Method and system for evaluating a dental preparation surface

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040706

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20041006

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20041025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050308

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050812

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050913

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20051021

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080228

A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20080912

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees