JP5325366B2 - Method and system for scanning a surface and creating a three-dimensional object - Google Patents

Method and system for scanning a surface and creating a three-dimensional object Download PDF

Info

Publication number
JP5325366B2
JP5325366B2 JP2004364269A JP2004364269A JP5325366B2 JP 5325366 B2 JP5325366 B2 JP 5325366B2 JP 2004364269 A JP2004364269 A JP 2004364269A JP 2004364269 A JP2004364269 A JP 2004364269A JP 5325366 B2 JP5325366 B2 JP 5325366B2
Authority
JP
Japan
Prior art keywords
model
frame
illustrates
line
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004364269A
Other languages
Japanese (ja)
Other versions
JP2005214965A (en
Inventor
リュドガー ルッバート、
ピーア シュポルベルト、
トマス ヴァイゼ、
ロヒト サクデヴァ、
Original Assignee
オラメトリックス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/560,583 external-priority patent/US6738508B1/en
Priority claimed from US09/560,644 external-priority patent/US6413084B1/en
Priority claimed from US09/560,645 external-priority patent/US6728423B1/en
Priority claimed from US09/560,584 external-priority patent/US7068836B1/en
Priority claimed from US09/560,133 external-priority patent/US6744932B1/en
Priority claimed from US09/560,131 external-priority patent/US6744914B1/en
Priority claimed from US09/560,132 external-priority patent/US6771809B1/en
Priority claimed from US09/616,093 external-priority patent/US6532299B1/en
Application filed by オラメトリックス インコーポレイテッド filed Critical オラメトリックス インコーポレイテッド
Publication of JP2005214965A publication Critical patent/JP2005214965A/en
Application granted granted Critical
Publication of JP5325366B2 publication Critical patent/JP5325366B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/12Brackets; Arch wires; Combinations thereof; Accessories therefor
    • A61C7/14Brackets; Fixing brackets to teeth
    • A61C7/146Positioning or placement of brackets; Tools therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/006Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C7/00Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
    • A61C7/002Orthodontic computer assisted systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/3094Designing or manufacturing processes
    • A61F2/30942Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques
    • A61F2002/30953Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques using a remote computer network, e.g. Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Instructional Devices (AREA)

Abstract

An image is projected upon a surface of a three dimensional object (611), the image can include a pattern having plurality of individual shapes used to measure and map the surface. The image further comprises a feature containing an encoding information for identifying the plurality of shapes individually. The feature containing encoding information is oriented such that encoding information is retrieved along a line perpendicular to aplane formed by the projection axis and the point along the view axis (613). The use of the feature is used to perform multiframe independant scanning (612).

Description

(関連出願)
本願は、2000年4月28日に出願された米国特許出願第09/560,131号、2000年4月28日に出願された米国特許出願第09/560,132号、2000年4月28日に出願された米国特許出願第09/560,583号、2000年7月13日に出願された米国特許出願第09/616,093号、2000年4月28日に出願された米国特許出願第09/560,645号、2000年4月28日に出願された米国特許出願第09/560,644号、2000年4月28日に出願された米国特許出願第09/560,584号及び2000年4月28日に出願された米国特許出願第09/560,133号の優先権を主張し、それらの教示全体を参照によって本願に組み入れたものとする。
(Related application)
No. 09 / 560,131, filed Apr. 28, 2000, U.S. Patent Application No. 09 / 560,132, filed Apr. 28, 2000, Apr. 28, 2000. US patent application 09 / 560,583 filed on the same day, US patent application 09 / 616,093 filed on July 13, 2000, US patent application filed on April 28, 2000 No. 09 / 560,645, U.S. Patent Application No. 09 / 560,644, filed April 28, 2000, U.S. Patent Application No. 09 / 560,584, filed Apr. 28, 2000, and No. 09 / 560,133, filed Apr. 28, 2000, the priority of which is hereby incorporated by reference in its entirety.

(発明の分野)
本発明は、主に物体のマッピングに関し、より具体的には、物体の三次元モデルを作ることと、物体の部分を位置合わせして物体のモデルを作製することと、物体の走査された部分を位置合わせして三次元物体を提供することと、解剖学的構造物を走査して治療且つ診断し、さらに、医療及び歯科装置及び器具を開発し製造することと、特定の画像を提供して物体のマッピングを補助することと、に関する。
(Field of Invention)
The present invention is primarily concerned with object mapping, and more specifically, creating a three-dimensional model of an object, creating a model of an object by aligning portions of the object, and scanned portions of the object. To provide 3D objects, scan and treat and diagnose anatomical structures, develop and manufacture medical and dental devices and instruments, and provide specific images Assisting with object mapping.

(発明の背景)
補綴、矯正等の解剖学的装置及び歯列矯正等の器具を作製することができることは、よく知られている。解剖学的装置を作製する現在の方法は、主観的であり、それによって、医者は、自分の解剖学的構造物に対する見解、装置が使用される場所、及び、医者の経験及び類似状況の記憶等の主観的な基準に基づいて、解剖学的装置の仕様を定めるかまたは設計する。そのような主観的な基準は、結果として、医者によって変動が大きくなりうる解剖学的装置が開発されることになり、他者が使用することができる知識のデータベースを獲得することを妨げる。
(Background of the Invention)
It is well known that anatomical devices such as prosthetics and orthodontics and instruments such as orthodontics can be made. Current methods of making anatomical devices are subjective, which allows doctors to remember their views on their anatomical structures, where the device is used, and their experiences and similar situations. Specify or design the anatomical device based on subjective criteria such as Such subjective criteria will result in the development of anatomical devices that can vary greatly by the physician and prevent obtaining a database of knowledge that can be used by others.

あまり主観的ではない解剖学的装置を開発しようとする試みは、解剖学的構造物の印象を取ることを含む。解剖学的構造物の雌型表示である印象から、解剖学的構造物の雄型モデルを作ることができる。しかし、印象、及び印象から作られたモデルは、歪み、摩耗、損傷を受けやすく、有効期限が短く、不正確であり、複数のコピーを作製するのに追加コストがかかり、正確度は容易に検証することができない。したがって、構造物の印象またはモデルが解剖学的構造物の真正な表示であるか否かは、容易に検証することができない。さらに、印象処理は一般に、患者には不愉快且つ不便であり、医者へ行かなければならず、時間がかかる。さらに、複数のモデルが必要である場合、複数の印象を作らなければならないか、または、単一の印象から複数のモデルを作らなければならないかのいずれかである。いずれの場合にも、モデルの各々の類似性を保証する信頼のおける利用可能な標準参照がない。さらに、モデルは依然として1人の医者によって目で見て判断されなければならないため、結果として主観的処理になる。   Attempts to develop less subjective anatomical devices include taking the impression of anatomical structures. From the impression that is a female representation of the anatomical structure, a male model of the anatomical structure can be created. However, impressions and models made from impressions are prone to distortion, wear and damage, have a short expiration date, are inaccurate, have an additional cost to make multiple copies, and accuracy is easy It cannot be verified. Therefore, it cannot be easily verified whether the impression or model of the structure is an authentic representation of the anatomical structure. Furthermore, impression processing is generally unpleasant and inconvenient for the patient, has to go to a doctor and is time consuming. Furthermore, if multiple models are needed, either multiple impressions must be made or multiple models must be created from a single impression. In any case, there is no reliable standard reference that guarantees the similarity of each of the models. Furthermore, the model still has to be judged visually by one doctor, resulting in a subjective process.

あまり主観的ではない開発をしようとする別の試みは、二次元画像を使用することを含む。しかし、二次元画像を使用することは、公知のように、精密な構造物情報を提供することはできず、依然として医者によって客観的に解釈されなければならない。さらに、装置の製造は、依然として客観的な解釈に依存している。   Another attempt to develop less subjective development involves using two-dimensional images. However, using two-dimensional images, as is well known, cannot provide precise structure information and must still be objectively interpreted by a physician. Furthermore, the manufacture of the device still relies on an objective interpretation.

印象が医者のもとから製造施設へ輸送されるときには、人工装具装置を設計するのに使用されている三次元モデルが製造施設のみで利用可能であるため、製造されているモデルまたは装置に属する問題に関する医者と技術者との間の通信は妨げられる。複数のモデルが存在するときでさえ、それらは物理的に別個の物体であり、複数のモデルを互いに参照するインタラクティブな方法がないため、同一の視点から同時に見ることはできない。   When the impression is transported from the doctor to the manufacturing facility, the 3D model used to design the prosthetic device is only available at the manufacturing facility and therefore belongs to the model or device being manufactured Communication between the doctor and technician regarding the problem is hindered. Even when there are multiple models, they are physically separate objects and cannot be viewed simultaneously from the same viewpoint because there is no interactive way of referring to the multiple models.

鋳型及び印象に加えて、歯科医及び歯列矯正医等の医者によって維持される他の種類の記録は、失われやすいかまたは損傷を受けやすく、複製を作るのは高価である。したがって、これらの不利点を克服する方法またはシステムが有用である。   In addition to molds and impressions, other types of records maintained by doctors such as dentists and orthodontists are easily lost or damaged and expensive to make duplicates. Therefore, methods or systems that overcome these disadvantages are useful.

物体の表面をマッピングするために走査技術を使用することは、よく知られている。先行技術の図1は、可視表面101から104を有する物体100を例示する。一般に、可視表面101から103は、矩形形状を形成し、略平坦な表面104の頂部にある。   The use of scanning techniques to map the surface of an object is well known. Prior art FIG. 1 illustrates an object 100 having visible surfaces 101-104. In general, the visible surfaces 101 to 103 form a rectangular shape and lie on top of the substantially flat surface 104.

画像が物体100に投影され、これは線110を含む。操作において、線110の画像は、カメラ(図示せず)等の観察装置によって受け取られ、線110がある物体100のその部分の形状を決定するために処理される。線110を物体100にわたって動かすことによって、物体100全体をマッピングすることが可能である。単一の線110を備える画像を使用することに関連する限界は、正確なマップを提供するために物体100を走査するには多大な時間が必要であり、スキャナまたは物体のいずれかに固定参照点が必要であるということである。   An image is projected onto the object 100, which includes a line 110. In operation, an image of line 110 is received by an observation device such as a camera (not shown) and processed to determine the shape of that portion of object 100 where line 110 is. By moving the line 110 across the object 100, the entire object 100 can be mapped. A limitation associated with using an image with a single line 110 is that it takes a great deal of time to scan the object 100 to provide an accurate map, and it is a fixed reference to either the scanner or the object. The point is necessary.

図2は、物体を走査するのにかかる時間の量を減少する先行技術の解法を例示する。具体的には、図2は、線121から125を含む画像を例示する。複数の線を提供することによって、一度により大きな表面区域を走査することが可能であり、そのため、物体100に関連するデータのより効率的な処理が可能になる。図2に例示されるようなパターンを使用する限界は、固定参照点が必要であること、及び、画像の不連続部分の重なり合いによるデータの不適切な処理の可能性があるため、マッピングされることが可能である表面解像度を減少する可能性があることである。   FIG. 2 illustrates a prior art solution that reduces the amount of time it takes to scan an object. Specifically, FIG. 2 illustrates an image that includes lines 121-125. By providing multiple lines, it is possible to scan a larger surface area at a time, thus allowing more efficient processing of data associated with the object 100. The limitations of using a pattern as illustrated in FIG. 2 are mapped due to the need for fixed reference points and possible improper processing of data due to overlapping discontinuities in the image. It is possible to reduce the surface resolution that is possible.

重なり合いの概念を良好に理解するために、走査処理を理解することが有用である。先行技術の図3は、表面102のみが見えるように側面から図1及び2の形状を例示する。検討のために、投影装置(図示せず)が、図3の表面102の頂縁を形成する表面101に垂直な方向にパターンを投影する。投影レンズの中心から表面への点は、投影軸、投影レンズの回転軸または投影レンズの中心線と称される。同様に、観察装置(図示せず)の中心点からの想像線は、視軸、観察装置の回転軸または観察装置の中心線と称され、観察装置が配向される方向に拡張する。   To better understand the concept of overlap, it is useful to understand the scanning process. Prior art FIG. 3 illustrates the shape of FIGS. 1 and 2 from the side so that only the surface 102 is visible. For consideration, a projection device (not shown) projects the pattern in a direction perpendicular to the surface 101 that forms the top edge of the surface 102 of FIG. The point from the center of the projection lens to the surface is called the projection axis, the rotation axis of the projection lens or the center line of the projection lens. Similarly, the imaginary line from the center point of the observation device (not shown) is called the visual axis, the rotation axis of the observation device or the center line of the observation device, and extends in the direction in which the observation device is oriented.

投影軸と視軸との互いに対する物理的関係は、ほぼ知られている。図3の特定の例示において、投影軸及び視軸は共通平面にある。プロジェクタと観察装置との間の関係が知られるように、投影システムと観察システムとの間の関係が物理的にキャリブレートされる。「参照の点」という用語は、たとえば読み手等の第三者が画像を見る、参照を説明することに注意されたい。たとえば、図2では、参照の点は、表面101、102及び103によって形成される点の上及び側部にある。   The physical relationship between the projection axis and the visual axis relative to each other is almost known. In the particular illustration of FIG. 3, the projection axis and the viewing axis are in a common plane. The relationship between the projection system and the observation system is physically calibrated so that the relationship between the projector and the observation device is known. Note that the term “reference point” describes a reference by which a third party such as a reader views the image. For example, in FIG. 2, the reference points are above and to the sides formed by the surfaces 101, 102, and 103.

図4は、参照の点が投影角度に等しいところに投影された図2の画像を備えた物体100を例示する。参照の点が投影角度に等しいときには、投影された画像に途切れは見えない。言い換えると、線121から125は、物体100上で直線に見える。しかし、参照の点が投影角度に等しい場合には、線に歪みが見えないため、物体をマッピングするのに有用なデータは得られない。   FIG. 4 illustrates the object 100 with the image of FIG. 2 projected where the reference point is equal to the projection angle. When the reference point is equal to the projection angle, there is no break in the projected image. In other words, the lines 121 to 125 appear straight on the object 100. However, when the reference point is equal to the projection angle, the line is not distorted, so that data useful for mapping the object cannot be obtained.

図5は、図2の視角フリートに等しい参照の点からの物体100を例示する。図5において、表面104、103及び101は見えるが、これは、視軸が表面101及び103によって形成される線に実質的に垂直であり、表面102によって形成された平面の右側にあるからであり、したがってこれは図5では例示されない。図2参照のこと。画像が見られているかまたは観察装置によって受け取られている角度のため、線121及び122は、単一の連続した直線に見える。同様に、線の対122及び123、及び、123及び124は、単一の連続である印象を与えるように一致している。線125は単一の水平な表面高さに投影されるため、表面104、線125は連続した単一の線である。   FIG. 5 illustrates the object 100 from a reference point equal to the viewing angle fleet of FIG. In FIG. 5, the surfaces 104, 103 and 101 are visible because the visual axis is substantially perpendicular to the line formed by the surfaces 101 and 103 and to the right of the plane formed by the surface 102. Yes, so this is not illustrated in FIG. See FIG. Due to the angle at which the image is viewed or received by the viewing device, lines 121 and 122 appear as a single continuous straight line. Similarly, line pairs 122 and 123, and 123 and 124 are matched to give the impression of a single series. Since line 125 is projected to a single horizontal surface height, surface 104, line 125 is a continuous single line.

図5のパターンが処理装置によって受け取られ、マッピング機能を実施するときには、線の対121及び122、122及び123、及び、123及び124は、単一の線であると誤って解釈される。結果として、図2に例示された二段の物体は、実際に単一の水平な表面としてマッピングされることがあるか、または、そうでなければ、処理ステップが線の対の間を区別することができないため、不正確に表示される。   When the pattern of FIG. 5 is received by the processing device and performing the mapping function, line pairs 121 and 122, 122 and 123, and 123 and 124 are misinterpreted as being a single line. As a result, the two-stage object illustrated in FIG. 2 may actually be mapped as a single horizontal surface, or otherwise the processing step will distinguish between line pairs. Can not be displayed correctly.

図6は、図5に記載された問題を克服する先行技術の解法を例示する。具体的には、図6は、それに投影された画像を有する形状100を例示し、それによって、異なる線の幅または厚さを有する複数の線が使用される。図7は、図5と同一の参照の点から図6のパターンを例示する。   FIG. 6 illustrates a prior art solution that overcomes the problem described in FIG. Specifically, FIG. 6 illustrates a shape 100 having an image projected thereon, whereby multiple lines having different line widths or thicknesses are used. FIG. 7 illustrates the pattern of FIG. 6 from the same reference point as FIG.

図7に例示されるように、受け取られたデータを分析する処理要素が、先には区別不可能であった線の対の間を区別することができる。図7を参照すると、線421は依然として線422と一直線であり、連続した線に見えるものを形成する。しかし、線421及び線425は異なる厚さを有するため、今や、画像を分析することによって特定の線セグメントの正確な識別を決定することが可能である。言い換えると、受け取られた画像を分析することによって、今や、表面104に投影された線422と、表面101に投影された線422とが、実際に共通の線であることを決定することができる。この情報を使用して、受け取られた画像を分析することによって、走査されている物体にステップタイプ特徴部が発生し、結果として線422の2つのセグメントの間で不一致になることを決定することができる。   As illustrated in FIG. 7, a processing element that analyzes the received data can distinguish between pairs of lines that were previously indistinguishable. Referring to FIG. 7, line 421 is still in line with line 422, forming what appears to be a continuous line. However, since lines 421 and 425 have different thicknesses, it is now possible to determine the exact identification of a particular line segment by analyzing the image. In other words, by analyzing the received image, it can now be determined that the line 422 projected onto the surface 104 and the line 422 projected onto the surface 101 are actually common lines. . Using this information, by analyzing the received image, determining that a step type feature occurs in the object being scanned, resulting in a mismatch between the two segments of line 422 Can do.

図7に例示されるように、変動する線の厚さを使用することによって、線セグメントを識別するのを補助する一方、例示された種類の変動する特徴部を有する物体は、結果として、受け取られた画像の分析中に、依然としてエラーになる可能性がある。   As illustrated in FIG. 7, the use of varying line thickness helps to identify line segments, while objects having varying features of the illustrated type are received as a result. May still result in errors during analysis of captured images.

図8は、はっきりと変動する特徴部を備えた表面710を有する構造物を側部の参照の点から例示する。表面710は、図8の参照の点に実質的に垂直であるように例示される。加えて、物体700は、側部表面713及び715、及び、頂部表面711及び712を有する。図8の参照の点から、実際の表面711、712、713及び715は見えず、その縁のみが表されている。表面711は、比較的急な傾斜の表面であり、一方、表面712は比較的なだらかな傾斜の表面である。   FIG. 8 illustrates a structure having a surface 710 with distinctly varying features in terms of side references. Surface 710 is illustrated as being substantially perpendicular to the reference point in FIG. In addition, the object 700 has side surfaces 713 and 715 and top surfaces 711 and 712. From the point of reference in FIG. 8, the actual surfaces 711, 712, 713 and 715 are not visible and only their edges are represented. Surface 711 is a relatively steeply inclined surface, while surface 712 is a relatively gentle inclined surface.

さらに図8には、様々な幅を有する3本の投影された線721から723が例示される。第1の線721は4の幅を有する。第2の投影された線722は1の幅を有する。第3の投影された線723は8の幅を有する。   Further illustrated in FIG. 8 are three projected lines 721-723 having various widths. The first line 721 has a width of 4. The second projected line 722 has a width of one. The third projected line 723 has a width of 8.

線721は、4の幅を有し、比較的平らな表面714に投影される。投影軸と視軸との間の角度のため、平らな表面714で見られる実際の線721の幅は、およそ2である。線722及び723も比較的平らな表面714に投影されるのであれば、そのそれぞれの幅は、表面をマッピングする分析ステップ中に厚さを検出することができるように、721の幅とほぼ同一の割合量だけ変動する。しかし、線722は傾斜した表面711に投影されるため、視軸に沿った観察装置からの視点は、線722が2の幅を有するように見えるものである。   Line 721 has a width of 4 and is projected onto a relatively flat surface 714. Due to the angle between the projection axis and the viewing axis, the width of the actual line 721 seen on the flat surface 714 is approximately two. If lines 722 and 723 are also projected onto a relatively flat surface 714, their respective widths are approximately the same as the width of 721 so that the thickness can be detected during the analysis step of mapping the surface. Fluctuates by the percentage amount. However, since the line 722 is projected onto the inclined surface 711, the viewpoint from the observation device along the visual axis is such that the line 722 appears to have a width of two.

表面710の急な角度のため、投影された線722の大部分が表面711のより大きい区域に投影されることができるため、線722は2の幅を有するように見える。投影された線722が2の幅を有するという認識を与えるのは、見られている表面722の表面より大きい区域である。   Due to the steep angle of the surface 710, the line 722 appears to have a width of 2 because most of the projected line 722 can be projected onto a larger area of the surface 711. It is the area that is larger than the surface of the surface 722 being viewed that gives the recognition that the projected line 722 has a width of two.

線722が表面711によってどのように影響されるかとは反対のやり方で、線723は表面712によって影響され、実際には8の幅を有する投影された線723が2の幅を有するという認識を与える。観察装置に対する表面712の角度によって、投影された線723を有する表面区域が2の幅を有するように見えるため、これが発生する。この現象の結果がさらに図9に例示される。   In a manner opposite to how line 722 is affected by surface 711, the recognition that line 723 is affected by surface 712, and in fact a projected line 723 having a width of 8 has a width of 2. give. This occurs because the angle of the surface 712 relative to the viewing device causes the surface area with the projected line 723 to appear to have a width of two. The result of this phenomenon is further illustrated in FIG.

図9は、視軸の参照の点から図8の形状700を例示する。視軸の参照の点から、線の厚さの間の差を容易に決定することができるように、線721から723が表面714に投影される。したがって、表面区域714が分析されるときには、線は、見られた画像に基づいて容易に識別可能である。しかし、分析が表面711及び712を含むときには、幅が同一であるだけではなく、表面711の線722が表面714の線721と一列に並ぶため、線722が線721として誤って識別されることがあり得る。同様に、線723は、8の投影された幅を有するが、見られる幅は2である。したがって、受け取られた画像の分析中に、表面711及び712上の線721、722及び723の間を区別することは可能ではない。そのような線を区別することはできないため、結果として表面の誤った分析になる可能性がある。   FIG. 9 illustrates the shape 700 of FIG. 8 in terms of visual axis reference. Lines 721 to 723 are projected onto the surface 714 so that the difference between the line thicknesses can be easily determined from the reference point of the visual axis. Thus, when the surface area 714 is analyzed, the lines can be easily identified based on the viewed image. However, when the analysis includes surfaces 711 and 712, not only are the widths the same, but because the line 722 of the surface 711 is aligned with the line 721 of the surface 714, the line 722 is mistakenly identified as the line 721. There can be. Similarly, line 723 has a projected width of 8, but the width seen is 2. Therefore, it is not possible to distinguish between lines 721, 722 and 723 on surfaces 711 and 712 during analysis of the received image. Since such lines cannot be distinguished, the result can be an incorrect analysis of the surface.

走査の1つの提案された方法は、外国特許DE19821611.4に開示されたように、黒及び白の三角形及び矩形の列が三角測量の平面に平行に走るパターンを使用した。列は、デジタル暗号化パターンを含む測定特徴部を使用した。しかし、走査されている表面がシャドーイング及び/またはアンダーカットを発生させるときには、パターンの一部が隠されているため、結果としてシーケンスの中断が生じる可能性がある。さらに、パターンのいずれの部分が失われているかを知ることは不可能であるため、開示された暗号化パターンは、シーケンスの中断の結果としてパターンをデコードすることができない可能性が生じるものである。記載されたコード化されたの種類のさらなる限界は、その歪みが、1つのコード化された特徴部を別のコード化された特徴部に似させる可能性があることである。たとえば、三角形を矩形のように見えさせることができる。   One proposed method of scanning used a pattern in which black and white triangles and rectangular columns run parallel to the triangulation plane, as disclosed in the foreign patent DE 19821611.4. The column used a measurement feature containing a digital encryption pattern. However, when the surface being scanned causes shadowing and / or undercutting, a portion of the pattern is hidden, which can result in interruption of the sequence. Furthermore, since it is impossible to know which part of the pattern is lost, the disclosed encryption pattern may result in the pattern not being able to be decoded as a result of a sequence interruption. . A further limitation of the coded type described is that the distortion can make one coded feature resemble another coded feature. For example, a triangle can look like a rectangle.

したがって、物体をマッピングする先行技術に関連した問題を克服することができる方法及び装置が有利である。   Therefore, methods and apparatus that can overcome the problems associated with the prior art of mapping objects are advantageous.

(好ましい実施形態の詳細な説明)
本発明の特定の実施形態にしたがって、表面に画像が投影される。画像は、表面を測定しマッピングするのに使用される複数の個別形状を有するパターンを含むことができる。複数の個別形状は、投影された形状の投影軸及び視軸に関連した点によって形成された平面に平行な方向に検出可能である特徴部を含む。画像は、複数の形状を個別に識別するためのコード化された情報を含む特徴部をさらに備える。コード化された特徴部は、投影軸及び視軸の点によって形成された平面に実質的に直交する方向に変動し、複数の個別形状の各々からの別個の特徴部であり得、複数の個別形状に一体的な特徴部であり得、且つ/または、複数の個別形状から異なる時間間隔で表示されることができる。投影軸及び視軸に沿った点によって形成された平面に実質的に垂直な線に沿ってコード化された情報が検索されるように、コード化された情報を含む特徴部は配向される。特徴部の使用は、マルチフレーム参照独立走査を実施するために使用される。特定の実施形態において、走査されたフレームは互いに対して位置合わせされる。
Detailed Description of Preferred Embodiments
In accordance with certain embodiments of the invention, an image is projected onto the surface. The image can include a pattern having a plurality of individual shapes used to measure and map the surface. The plurality of individual shapes includes features that are detectable in a direction parallel to a plane formed by the projection axis of the projected shape and points associated with the visual axis. The image further comprises features that include coded information for individually identifying a plurality of shapes. The encoded feature varies in a direction substantially perpendicular to the plane formed by the projection and visual axis points, and can be a separate feature from each of a plurality of individual shapes. It can be a feature that is integral to the shape and / or can be displayed at different time intervals from multiple individual shapes. The feature containing the coded information is oriented so that the coded information is retrieved along a line substantially perpendicular to the plane formed by the points along the projection axis and the viewing axis. The use of features is used to perform multi-frame reference independent scanning. In certain embodiments, the scanned frames are aligned with respect to each other.

本発明の特定の実施形態は、添付の図10から24を参照して最良に理解される。図10及び11は、本発明の特定の実施形態を実施するシステムを表し、図12及び19から22は、本発明にしたがった特定の方法を例示し、図13から18、23、24は、システムと組み合わされた方法の特定の実施を例示する。   Certain embodiments of the present invention are best understood with reference to the accompanying FIGS. FIGS. 10 and 11 represent a system implementing a particular embodiment of the invention, FIGS. 12 and 19 to 22 illustrate a particular method according to the invention, and FIGS. 2 illustrates a specific implementation of the method in combination with the system.

図42から50は、解剖学的構造物の三次元走査データを使用する別の本発明の実施形態の特定の方法及び装置を例示し、ここに例示された特定のやり方で得ることができる。三次元走査データは、さらなる使用のために遠隔施設に発信される。たとえば、三次元走査データは、解剖学的構造物の生体組織を表すことができ、これを使用して、解剖学的装置を設計するか、解剖学的装置を製造するか、生体組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定期間保存するか、解剖学的構造物の閉鎖ループの反復分析を実施するか、構造物のインタラクティブな相談を行うか、構造物に基づいたシミュレーションを実施するか、解剖学的構造物に関連した診断を行うか、または、解剖学的構造物に基づいた治療計画を決定する。   FIGS. 42 through 50 illustrate specific methods and apparatus of another embodiment of the present invention that use three-dimensional scan data of anatomical structures and can be obtained in the specific manner illustrated herein. The 3D scan data is transmitted to the remote facility for further use. For example, three-dimensional scan data can represent the anatomy of living tissue, which can be used to design anatomical devices, manufacture anatomical devices, or structure of living tissue. Monitoring anatomical changes, storing data belonging to anatomical structures for a period of time, performing an iterative analysis of closed loops of anatomical structures, consulting structures interactively, or structures Or a diagnosis related to the anatomical structure or a treatment plan based on the anatomical structure is determined.

図10は、走査装置980へ制御信号を提供するシステム制御装置951を例示する。走査装置980は、線962及び963によって画像境界を投影し、反射した線972及び973内の画像を検索するかまたは観察する。   FIG. 10 illustrates a system controller 951 that provides control signals to the scanning device 980. The scanning device 980 projects the image boundary by lines 962 and 963 and retrieves or observes the images in the reflected lines 972 and 973.

1つの操作において、システム制御装置951は特定の情報をスキャナ980へ提供し、物体990の表面991に投影されるべき特定画像を特定する。反射した画像は、走査装置980によってキャプチャされ、これは今度は、キャプチャされた情報をシステム制御装置951へ戻す。キャプチャされた情報は、システム制御装置951へ自動的に戻されることが可能であるか、または、走査装置980内に格納されシステム951によって検索されることが可能である。システム制御装置951によって受け取られた画像データは、表面991の形状を決定するために分析される。受け取られたデータの分析は、システム制御装置951によって、または図示されていない外部処理装置によってかのいずれかで実施されることができることに注意されたい。   In one operation, the system controller 951 provides specific information to the scanner 980 to identify a specific image to be projected on the surface 991 of the object 990. The reflected image is captured by the scanning device 980, which in turn returns the captured information to the system controller 951. The captured information can be automatically returned to the system controller 951 or stored within the scanning device 980 and retrieved by the system 951. Image data received by the system controller 951 is analyzed to determine the shape of the surface 991. Note that analysis of the received data can be performed either by the system controller 951 or by an external processing device not shown.

さらに、図10には走査装置980が例示され、これは、投影装置(プロジェクタ)960及び観察装置(ビューアー)970を含む。プロジェクタ960は、画像が物体990に投影されるように配向される。プロジェクタ960は、投影軸961を有する。投影軸961は、画像を投影するレンズの中心で開始し、投影の方向を表す。同様に、ビューアー970は、視軸971を有し、これは、ビューアー970に関連したレンズの中心から拡張し、画像が受け取られている方向を表す。   10 illustrates a scanning device 980, which includes a projection device (projector) 960 and an observation device (viewer) 970. Projector 960 is oriented so that an image is projected onto object 990. The projector 960 has a projection axis 961. Projection axis 961 starts at the center of the lens that projects the image and represents the direction of projection. Similarly, the viewer 970 has a viewing axis 971 that extends from the center of the lens associated with the viewer 970 and represents the direction in which the image is being received.

ひとたび走査装置がキャリブレートされると、受け取られた信号の分析が実施されて走査された表面をマッピングすることができる。本願の図面に表された角度は例示目的のみのために表されていることが当業者には理解される。実際の角度及び距離は、例示されたものから大幅に変動しうる。   Once the scanning device is calibrated, an analysis of the received signal can be performed to map the scanned surface. Those skilled in the art will appreciate that the angles shown in the drawings of this application are shown for illustrative purposes only. Actual angles and distances can vary significantly from those illustrated.

図11は、図10のシステム制御装置951をより詳細に例示する。システム制御装置951は、データプロセッサ952と投影画像表示953とプロジェクタ制御装置954とビューアー制御装置955とをさらに含む。   FIG. 11 illustrates the system controller 951 of FIG. 10 in more detail. The system control device 951 further includes a data processor 952, a projection image display 953, a projector control device 954, and a viewer control device 955.

ビューアー制御装置955は、反射した画像データを表すビューアー970からデータを受け取るのに必要なインターフェースを提供する。反射した画像データは、ビューアー制御装置955でビューアー970から受け取られ、その後、データプロセッサ952へ提供される。類似のやり方で、プロジェクタ制御装置954は、プロジェクタ960を制御するのに必要なインターフェースを提供する。プロジェクタ制御装置954は、プロジェクタ960に、プロジェクタによって支持されたフォーマットに投影された画像を提供する。応答して、プロジェクタ960は、物体の表面に画像を投影する。プロジェクタ制御装置954は、プロジェクタに画像を提供するために、投影画像表示953を受け取るかまたはこれにアクセスする。   The viewer controller 955 provides the necessary interface to receive data from the viewer 970 representing the reflected image data. The reflected image data is received from the viewer 970 at the viewer controller 955 and then provided to the data processor 952. In a similar manner, projector controller 954 provides the interface necessary to control projector 960. Projector controller 954 provides projector 960 with an image projected in a format supported by the projector. In response, the projector 960 projects an image on the surface of the object. Projector controller 954 receives or accesses projection image display 953 to provide images to the projector.

例示された実施形態において、投影画像表示953は、メモリ場所に格納された画像の電子表示である。格納された画像は、ビットマップされた画像、または、プロジェクタ960によって投影された画像を規定するのに使用される他の標準またはカスタムプロトコルを、表すことができる。投影画像がデジタル画像(電子的に作製される)である場合には、表示は、データプロセッサ952によってメモリに格納されることができ、それによってデータプロセッサ952は、投影画像表示を修正することができ、本発明にしたがって必要に応じて画像を変えることが可能である。   In the illustrated embodiment, the projected image display 953 is an electronic representation of an image stored in a memory location. The stored image can represent a bitmapped image or other standard or custom protocol used to define an image projected by projector 960. If the projection image is a digital image (made electronically), the display can be stored in memory by the data processor 952 so that the data processor 952 can modify the projection image display. It is possible to change the image as required according to the present invention.

別の実施形態において、投影画像表示953は存在する必要がない。代わりに、投影制御装置954が、プロジェクタ960に関連した1つまたはそれ以上の透明画(図示せず)を選択することができる。そのような透明画は、フィルム、プレートまたは画像を投影する他の種類のレチクル装置のいずれの組み合わせを含むことができる。   In another embodiment, the projected image display 953 need not be present. Alternatively, the projection controller 954 can select one or more transparencys (not shown) associated with the projector 960. Such transparency can include any combination of film, plate, or other type of reticle device that projects an image.

データプロセッサ952は、制御装置954及び955を通してそれぞれデータの投影及び受取を制御する。   Data processor 952 controls the projection and receipt of data through controllers 954 and 955, respectively.

図12は、図10及び添付の図面のシステムを参照して検討される本発明にしたがった方法を例示する。本願で検討される方法を良好に理解するために、本発明に独自の用語及び特性が記載される。「投影/観察平面」という用語は、投影軸及び視軸の少なくとも1つの点によって形成される平面を意味する。投影/観察平面という用語は、図3を参照して最良に理解される。図3が物体100の断面を表すと想定する。例示された投影軸は、図3を含む用紙によって形成される平面内に全体が入るように、方向づけられる。同様に、図3の視軸も、図3の用紙によって表される平面内に全体が入っている。この実施例において、図3の投影軸及び図3の視軸の少なくとも1つの点によって形成された投影/観察平面は、図が引かれている用紙を含む。   FIG. 12 illustrates a method according to the present invention discussed with reference to the system of FIG. 10 and the accompanying drawings. In order to better understand the methods discussed herein, unique terms and characteristics are described in the present invention. The term “projection / viewing plane” means a plane formed by at least one point of the projection axis and the viewing axis. The term projection / view plane is best understood with reference to FIG. Assume that FIG. 3 represents a cross section of the object 100. The illustrated projection axis is oriented so that it lies entirely in the plane formed by the sheet comprising FIG. Similarly, the visual axis of FIG. 3 is entirely within the plane represented by the paper of FIG. In this embodiment, the projection / viewing plane formed by at least one point of the projection axis of FIG. 3 and the viewing axis of FIG. 3 includes the sheet on which the drawing is drawn.

しかし、図3の視軸が実際に、観察装置に近い終点が用紙の平面上にあるように配向される場合、視軸表示の矢印の端が、用紙から読者へ向かっている間には、視軸及び投影軸全体を含む平面を形成することは可能ではない。したがって、投影/観察平面は、投影軸の実質的にすべて及び視軸の少なくとも1つの点、または、視軸のすべて及び投影軸の少なくとも1つの点、を含むと記載することができる。本願での検討目的には、観察装置にもっとも近い視軸の点がその投影/観察平面内に含まれるべき点であることが想定される。たとえば、先行技術の図4を参照すると、図3を参照して記載された投影/観察平面は、表面104に実質的に直交し、線121から125の各々に直交する。投影/観察平面は線99によって表され、これは、線121から125に交差する縁図からの平面を表す。   However, if the visual axis of FIG. 3 is actually oriented so that the end point close to the viewing device is on the plane of the paper, while the arrow end of the visual axis is pointing from the paper to the reader, It is not possible to form a plane that includes the entire viewing axis and projection axis. Thus, the projection / viewing plane can be described as including substantially all of the projection axes and at least one point of the viewing axis, or all of the viewing axes and at least one point of the projection axis. For the purpose of this study, it is assumed that the point of the visual axis closest to the observation apparatus is the point that should be included in the projection / observation plane. For example, referring to prior art FIG. 4, the projection / view plane described with reference to FIG. 3 is substantially orthogonal to surface 104 and orthogonal to each of lines 121-125. The projection / view plane is represented by line 99, which represents the plane from the edge view that intersects lines 121-125.

図12のステップ611では、投影/観察平面に直交して変動する単数または複数の構成要素を備えたコード化された(変数)特徴部を有する画像が投影される。図13に対して、投影/観察平面は線936によって例示され、投影/観察平面の配向が、そのような平面が線であるとして表れるように縁上にあり、形状またはパターン931から935の各々が、コード化された特徴部を表すのを示している。   In step 611 of FIG. 12, an image having coded (variable) features with one or more components that vary orthogonal to the projection / viewing plane is projected. For FIG. 13, the projection / viewing plane is illustrated by line 936, and the orientation of the projection / viewing plane is on the edge such that such a plane appears as being a line, Represents the coded features.

個別の特徴部931から935の各々は、投影/観察平面に対して直交する方向に変動する単数または複数の構成要素を有する。たとえば、特徴部933は、3本の個別の線を識別することができるように、投影平面に直交して変動する。3本の個別の線の厚さを変えることによって、独特なパターンが特徴部931から935の各々に関連する。たとえば、バーコード特徴部933は、線なし、薄い線、線なし、厚い線、線なし、薄い線及び線なしの間を直交して変動する。特徴部933の個別の線は、投影/観察平面に平行に投影される。投影/観察平面に平行な投影線は、線の幅に表面位相の観察された歪み効果を減少するかまたは排除する。したがって、特徴部933を作る個別の線の観察された幅は、実質的には歪まないため、特徴部933の各個別の線の厚さまたは相対厚さは、表面位相とは無関係に容易に識別することができる。結果として、特徴部933は、表面位相とは実質的に無関係に識別することができる。   Each of the individual features 931-935 has one or more components that vary in a direction orthogonal to the projection / viewing plane. For example, the feature 933 varies perpendicular to the projection plane so that three individual lines can be identified. By changing the thickness of the three individual lines, a unique pattern is associated with each of the features 931-935. For example, the bar code feature 933 varies orthogonally between no line, thin line, no line, thick line, no line, thin line and no line. Individual lines of the feature 933 are projected parallel to the projection / observation plane. Projection lines parallel to the projection / view plane reduce or eliminate the observed distortion effects of surface phase on the line width. Thus, since the observed width of the individual lines that make up the feature 933 is not substantially distorted, the thickness or relative thickness of each individual line of the feature 933 can be easily determined regardless of the surface phase. Can be identified. As a result, the feature 933 can be identified substantially independently of the surface phase.

図13は、5本の別個の線(測定特徴部)431から435を有する画像の特定の実施形態を表示する。例示された線431から435は、投影/観察平面に実質的に直交して走る長さを有し、投影/観察平面に平行な方向に互いから均一に間隔をおいている。投影/観察平面に平行な方向に検出可能な複数の線を提供することによって、複数の測定線を同時に観察して分析することができる。1つの実施形態において、線431から435である。線431から435に加えて、5つの独特なバーコード931から935も例示されている。独特なバーコード(可変特徴部)931から935の各々は、それぞれの測定特徴部431から435に関連し、これに沿って繰り返される。別の実施において、各バーコードは、例示された2回を超えて、測定特徴部に沿って繰り返すことができる。例示されたバーコードは、繰り返しセットとして例示されていることに注意されたい。別の実施において、バーコードは、セットでグループ化される必要はない。   FIG. 13 displays a specific embodiment of an image having five separate lines (measurement features) 431-435. The illustrated lines 431 to 435 have a length that runs substantially perpendicular to the projection / viewing plane and are uniformly spaced from each other in a direction parallel to the projection / viewing plane. By providing a plurality of lines that can be detected in a direction parallel to the projection / observation plane, a plurality of measurement lines can be observed and analyzed simultaneously. In one embodiment, lines 431-435. In addition to lines 431-435, five unique bar codes 931-935 are also illustrated. Each unique bar code (variable feature) 931-935 is associated with a respective measurement feature 431-435 and is repeated along with it. In another implementation, each barcode can be repeated along the measurement feature more than twice as illustrated. Note that the illustrated barcode is illustrated as a repeating set. In another implementation, barcodes need not be grouped in sets.

特定の実施形態において、線431から435及びバーコード931から935は、パターンが目で見て耐えられ且つ皮膚耐性があるように、低強度の可視光を使用して作製される。たとえば、線431から435は白線として見ることができ、バーコード931から935は特定の色または色の組み合わせとして見ることができる。別の実施形態において、用途によっては、高強度またはレーザ光も使用することができる。   In certain embodiments, lines 431-435 and barcodes 931-935 are made using low-intensity visible light so that the pattern is visibly resistant and skin-tolerant. For example, lines 431-435 can be viewed as white lines and barcodes 931-935 can be viewed as specific colors or combinations of colors. In another embodiment, depending on the application, high intensity or laser light can also be used.

例示したやり方でバーコードを特定の線に関連させることによって、線が直線的に一致しているように見えるときでさえ線を互いから区別することが可能である。たとえば、線432と433とは、物体101の縁で連続した線であるように見える。しかし、線432と433とは、各線に関連する(コード化された特徴部)バーコードを分析することによって、互いから区別することができる。言い換えると、線432と433とが見る人にとって共通線であると見える場合には、左側の線432に関連するバーコードは右側の線433に関連するバーコードとは同一ではないため、2つの異なる線であることを容易に決定することができる。   By associating a barcode with a particular line in the manner illustrated, it is possible to distinguish lines from each other even when the lines appear to be linearly coincident. For example, lines 432 and 433 appear to be continuous lines at the edge of object 101. However, lines 432 and 433 can be distinguished from each other by analyzing the (coded feature) barcode associated with each line. In other words, if the lines 432 and 433 appear to be a common line to the viewer, the barcode associated with the left line 432 is not the same as the barcode associated with the right line 433. It can be easily determined that the lines are different.

図13に例示された特定の実施形態において、検索された画像を分析することによって、線セグメント432と433との共通の線として表させる一番左側のバーコード932と一番右側のバーコード933との間のいずれかに、不連続があることを決定する。特定の実施形態において、そのような縁の場所は、互いに対して比較的近位にバーコードパターンを繰り返すことによって、より精密に決定することができる。たとえば、表面102が表面101に出会う縁は、隣接するバーコードの間の間隔開けに等しい正確度でのみ決定することができる。これは、2つの異なるバーコードを有する単一の線に見えるものを分析するときに、2つのバーコードの間のどこで不連続が発生したかは知られていないからである。したがって、図13の測定線に沿ってより頻繁にバーコードを繰り返すことによって、不連続の場所をより正確に識別することができる。   In the particular embodiment illustrated in FIG. 13, the leftmost barcode 932 and the rightmost barcode 933 are analyzed by analyzing the retrieved image to be represented as a common line of line segments 432 and 433. Determine that there is a discontinuity somewhere in between. In certain embodiments, such edge locations can be more precisely determined by repeating the barcode pattern relatively proximal to each other. For example, the edge where surface 102 meets surface 101 can only be determined with an accuracy equal to the spacing between adjacent barcodes. This is because it is not known where the discontinuity occurred between the two barcodes when analyzing what appears to be a single line with two different barcodes. Therefore, discontinuous locations can be more accurately identified by repeating the barcode more frequently along the measurement line of FIG.

図13のコード化された特徴部931から935は、2つのバーコードが同一ではないため、繰り返しはない。しかし、コード化されたの値またはシーケンスは、曖昧さが回避される限り、投影された画像内で繰り返すことができる。たとえば、画像が、バイナリコード化されたを使用する60本の線(測定特徴部)を含む場合には、各線を独自に識別するために6ビットのデータが必要である。しかし、スキャナの焦点の範囲がフィールドの深さによって限定されるという事実のため、60本の線の各個別の線は、一定の範囲内のみで認識可能な画像として現れることができる。   The coded features 931 through 935 of FIG. 13 are not repeated because the two barcodes are not identical. However, the encoded value or sequence can be repeated in the projected image as long as ambiguity is avoided. For example, if the image contains 60 lines (measurement features) that use binary coded, 6 bits of data are required to uniquely identify each line. However, due to the fact that the range of focus of the scanner is limited by the depth of the field, each individual line of 60 lines can appear as a recognizable image only within a certain range.

図25及び26は、フィールドの深さが特徴部の繰り返しにどのように影響を与えるかを良好に例示する。図25は、経路2540に沿って形状を投影するプロジェクタを例示する。形状が表面に投影されるとき、その画像は反射経路に沿って観察装置2506に反射する。たとえば、形状が場所2531で表面から反射するときに結果として反射経路2544が得られ、形状が場所2532で表面から反射するときに結果として反射経路2541が得られ、形状が場所2533で表面から反射するときに結果として反射経路2542が得られ、形状が場所2534で表面から反射するときに結果として反射経路2543が得られる。   FIGS. 25 and 26 better illustrate how the depth of the field affects feature repetition. FIG. 25 illustrates a projector that projects a shape along path 2540. As the shape is projected onto the surface, the image reflects to the viewing device 2506 along the reflection path. For example, a reflection path 2544 results when the shape reflects from the surface at location 2531, a reflection path 2541 results when the shape reflects from the surface at location 2532, and a shape reflects from the surface at location 2533. Results in a reflection path 2542 and results in a reflection path 2543 when the shape reflects from the surface at location 2534.

図26は、ビューアー2506が見せる形状を表す。具体的には、プロジェクタにもっとも近い表面である表面2531から反射した画像は、図26の一番右側の画像に見られ、プロジェクタからもっとも離れた表面である表面2534から反射した画像は、図26の一番左側の画像に見られる。しかし、一番右側及び一番左側の画像は、それぞれプロジェクタ2505からもっとも離れたもの及びこれにもっとも近いものであり、焦点がずれていることに注意しなければならない。焦点がずれているため、観察装置2506によって受け取られた画像に基づいて正確に検出することはできない。   FIG. 26 shows the shape that the viewer 2506 shows. Specifically, the image reflected from the surface 2531 which is the surface closest to the projector is seen in the rightmost image in FIG. 26, and the image reflected from the surface 2534 which is the surface farthest from the projector is shown in FIG. It can be seen in the leftmost image. However, it should be noted that the rightmost and leftmost images are respectively the furthest away from and closest to the projector 2505 and are out of focus. Because it is out of focus, it cannot be accurately detected based on the image received by the viewing device 2506.

図25に戻って参照すると、平面2525よりも投影装置2505に近いいずれの表面、または、平面2526よりも投影装置2505から離れたいずれの表面は、見ることができる範囲2610外または視野外であるため、使用可能な形状を反射することができない。したがって、繰り返される形状が図6の範囲2610内で見ることができない限り、形状は繰り返されて依然として独特に識別することができる。   Referring back to FIG. 25, any surface closer to the projection device 2505 than the plane 2525 or any surface farther from the projection device 2505 than the plane 2526 is outside the visible range 2610 or out of the field of view. Therefore, the usable shape cannot be reflected. Thus, as long as the repeated shape cannot be seen within range 2610 of FIG. 6, the shape can be repeated and still uniquely identified.

特定の実施形態において、プロジェクタはおよそ80本の線を投影する。たとえば、3色を使用するときには(赤、青、緑)、3色の場所を有するコード化された特徴部が、27本の異なる線を独特に識別する。同一のコード化された線が同一の場所に見ることができないように視野が提供されると、27本のこのコーディングシーケンスは、全80本の線をカバーするために3回繰り返すことができる。別の実施形態において、特定の色の場所が失われる可能性のある認識能力を提供するために、シーケンスの線の数を増やすかまたは増やさずに、5つの色の場所を加えることができる。   In certain embodiments, the projector projects approximately 80 lines. For example, when using three colors (red, blue, green), a coded feature with three color locations uniquely identifies 27 different lines. If a field of view is provided so that the same coded line cannot be seen at the same location, this 27 coding sequence can be repeated three times to cover all 80 lines. In another embodiment, five color locations can be added with or without increasing the number of lines in the sequence in order to provide a recognition capability where specific color locations can be lost.

これは、繰り返し特徴部の各々を見ることができない視野が重なり合わない限り、コーディング特徴部は繰り返されてもよいことを意味する。したがって、12の独特なコード化された特徴部のシーケンスは、バイナリデータの4ビットのみを必要とし、特徴部が同一の場所で見られる機会がないのであれば、60本の線すべてをエンコードするために5回繰り返すことができる。   This means that the coding features may be repeated as long as the fields of view where each of the repeating features cannot be seen do not overlap. Thus, a sequence of 12 unique coded features encodes all 60 lines if only 4 bits of binary data are needed and the feature has no opportunity to be seen in the same place Can be repeated 5 times.

関連コーディング特徴部を備えた多数の測定特徴部を有するパターンを提供することによって、参照独立走査が達成される。具体的には、物体もスキャナも空間に固定される必要はなく、または、互いに対して参照する必要はない。代わりに、フレーム1つずつのベースで、参照独立スキャナが、十分な測定情報(3Dクラウド)を検索し、これはコーディング特徴部のため正確であり、その隣接するフレームに対して位置合わせすることができる。位置合わせは、隣接するフレーム上の重なり合う特徴部を決定し、物体の統合マップを形成する処理である。   Reference independent scanning is achieved by providing a pattern having multiple measurement features with associated coding features. Specifically, neither the object nor the scanner need be fixed in space or need to be referenced with respect to each other. Instead, on a frame-by-frame basis, the reference independent scanner retrieves enough measurement information (3D cloud), which is accurate due to the coding feature and aligns with its neighboring frames Can do. Registration is a process of determining overlapping features on adjacent frames and forming an integrated map of objects.

図14は、図13の物体を例示し、それによって測定線431から435が変動する厚さを有する。しかし、線431から435の厚さは、歪みを受ける。それによって、その厚さにのみ基づいて個別の線431から435を識別することは、誤りになりやすい。これは、図15を参照してより良好に例示される。   FIG. 14 illustrates the object of FIG. 13, whereby the measurement lines 431 to 435 have a varying thickness. However, the thickness of lines 431-435 is subject to distortion. Thereby, identifying individual lines 431-435 based solely on their thickness is prone to error. This is better illustrated with reference to FIG.

図15は、本発明にしたがってその表面に投影されたパターンを有する図8及び9の物体700を例示する。図15は、変動する幅を有する線721から723の投影を例示する。先に検討したように、線722及び723は、それぞれ表面711及び712に投影されるときには、線721と同一の線厚さを有するように見える。したがって、単に変動する厚さの線を測定するだけでは、画像の分析によってどちらの線がどちらであるかを決定することができない。しかし、投影/観察平面に直交して変動する構成要素を有するように、コード化された特徴部451から453をさらに組み込むことによって、線721から723の識別及びそれに続くマッピング分析は、先行技術に対して改良される。   FIG. 15 illustrates the object 700 of FIGS. 8 and 9 having a pattern projected onto its surface in accordance with the present invention. FIG. 15 illustrates the projection of lines 721 to 723 having varying widths. As discussed above, lines 722 and 723 appear to have the same line thickness as line 721 when projected onto surfaces 711 and 712, respectively. Therefore, simply measuring a line of varying thickness cannot determine which line is which by analysis of the image. However, by further incorporating coded features 451-453 to have components that vary orthogonal to the projection / viewing plane, identification of lines 721-723 and subsequent mapping analysis is On the other hand, it is improved.

コード化された特徴部が投影/観察平面に垂直な部分を有するように投影される例示された特定の実施は、受け取られた画像を分析することによってパターンに関連した特定の線をより正確に識別することができるため、先行技術に対して有利であることを当業者は認識する。ここに記載された特定の実施が、線及びバーコードを参照して記載されていることを当業者はさらに認識し理解する。しかし、他のパターン、形状及び特徴部も使用することができる。   The particular implementation illustrated in which the encoded feature is projected to have a portion perpendicular to the projection / viewing plane makes the particular line associated with the pattern more accurate by analyzing the received image. Those skilled in the art will recognize the advantages over the prior art because they can be identified. Those skilled in the art will further appreciate and understand that the specific implementations described herein are described with reference to lines and barcodes. However, other patterns, shapes and features can also be used.

図16を参照すると、投影/観察平面に直交した方向に使用される形状の特定のセットが例示される表が例示される。表の欄1は、独特な特徴識別子を表す。表の欄2から4は、各特徴識別子を表すことができる特定なやり方を例示する。欄2は、バーコードを示す。欄3は、単独でまたは他のコード化された特徴部とともに使用されることが可能な色を示す。色特徴部を含むいくつかの種類のコード化された特徴部は、測定特徴部の一体化部分として且つ測定特徴部とは別個のコード化された特徴部として実施することができることに注意されたい。同様に、他の種類のコード化されたが、測定及び/または特徴部且つそのコード化された特徴部が投影される強度に基づくことができる。欄4は、形状を識別する形状とは無関係に、または、形状の一部として組み合わされて、使用することができるパターンを表す。言い換えると、欄4に例示された種類の繰り返しパターンシーケンスを含む線を提供することができる。このようにして、投影/観察平面に直交する方向におけるパターンの変化は、実際の形状自体に対して相対的であり得る。加えて、可変構成要素に関する多くの変化が本発明によって予想されることが、当業者には認識される。   Referring to FIG. 16, a table illustrating a particular set of shapes used in a direction orthogonal to the projection / viewing plane is illustrated. Column 1 of the table represents a unique feature identifier. Table columns 2 through 4 illustrate specific ways in which each feature identifier can be represented. Column 2 shows the barcode. Column 3 shows the colors that can be used alone or with other coded features. Note that some types of coded features, including color features, can be implemented as an integrated part of the measurement feature and as a coded feature separate from the measurement feature. . Similarly, other types of coded but can be based on measurements and / or features and the intensity with which the coded features are projected. Column 4 represents a pattern that can be used independently of the shape identifying shape or combined as part of the shape. In other words, a line including a repetitive pattern sequence of the type illustrated in column 4 can be provided. In this way, the pattern change in the direction orthogonal to the projection / viewing plane can be relative to the actual shape itself. In addition, those skilled in the art will recognize that many variations on variable components are anticipated by the present invention.

図17は、管状フォームに、各線用の独特な非繰り返し識別子の使用を例示する。たとえば、図17の最初の列を参照すると、シーケンス0からFが順次に呈される。1つの実施において、0からFまでの値の各々は、特定の線に関連した独特のコードを表す。特定のコードを識別するために、ある種類のスペーサーが各個別のコードの間に存在する必要があることが、当業者に認識される。たとえば、長いスペースまたは独特なコードを使用することができる。   FIG. 17 illustrates the use of a unique non-repeating identifier for each line in a tubular form. For example, referring to the first column of FIG. 17, sequences 0 through F are presented sequentially. In one implementation, each value from 0 to F represents a unique code associated with a particular line. Those skilled in the art will recognize that some type of spacer needs to be present between each individual code to identify a particular code. For example, long spaces or unique codes can be used.

図17に例示されたシーケンスの1つを各々が備えた4本の線を投影し分析するために使用されるシステムにおいて、ひとたび3つのコードのシーケンスが検索されていると、4本の線のどの1本が分析されているかを識別することが可能である。一般に、コードは投影/観察平面に直交して変動するため、失われたコードは、誤認の問題を引き起こさない。   In a system used to project and analyze four lines, each with one of the sequences illustrated in FIG. 17, once three code sequences have been retrieved, It is possible to identify which one is being analyzed. In general, since codes vary orthogonal to the projection / viewing plane, lost codes do not cause misidentification problems.

図18は、4本の独特な繰り返しコードシーケンスを例示する。表の文字Sは、繰り返しシーケンスの間に使用されるスペーサーを表すのに使用される。スペーサーは、コード化されたシーケンスの繰り返しコードの各々がどこで開始し且つ/または終了するかを特定する独特な識別子であってもよい。   FIG. 18 illustrates four unique repetitive code sequences. The letter S in the table is used to represent the spacer used during the repeating sequence. The spacer may be a unique identifier that identifies where each repeated code of the encoded sequence begins and / or ends.

図12のフローに戻ると、ひとたび投影/観察平面に直交するコード化された特徴部を有する画像が投影されると、表面画像の表示がビューアーで受け取られる。これは、図10の検討に類似し、それによってビューアー970は反射した画像を受け取る。次に、ステップ613で、物体に関連する点の場所が、直交して変動する特徴部に基づいて決定される。本発明の特定な実施形態において、形状の各1つ、たとえば線は、物体分析に使用される前に独特なコードパターンに定量化されるため、点は可変構成要素に基づいている。   Returning to the flow of FIG. 12, once an image with coded features orthogonal to the projection / view plane is projected, a display of the surface image is received at the viewer. This is similar to the discussion of FIG. 10, whereby the viewer 970 receives the reflected image. Next, at step 613, the location of the point associated with the object is determined based on orthogonally varying features. In a particular embodiment of the invention, each one of the shapes, eg lines, is quantified into a unique code pattern before being used for object analysis, so the points are based on variable components.

図19は、図12のステップ611に関連するサブステップを例示する。ステップ621では、第1の画像が投影され、一方、ステップ622では第2の特徴部が投影される。図14を参照すると、第1の画像は、測定線431とその関連コード化された特徴部931との組み合わせに類似することが可能である。類似のやり方で、第2の特徴部は、測定線432とそのコード化された特徴部932との組み合わせによって表すことができる。線431を特徴部931に対して分析することができるのに加えて、別の実施形態では、コード化された特徴部932に基づいて線431の識別を決定することも可能であることに注意されたい。言い換えると、図14に例示されるような、線のグループにおける特定の線は、様々なコード化された特徴部の2つ以上に基づいて識別することができる。しかし、特定の実施形態では、コード化された特徴部の単数の隣接するセットのみが、または、コード化された特徴部の複数の隣接するセットが、使用される。加えて、ステップ621及び622は、図23を参照して検討されるように、異なるときに発生することができる。   FIG. 19 illustrates the sub-steps associated with step 611 of FIG. In step 621, the first image is projected, while in step 622, the second feature is projected. Referring to FIG. 14, the first image can be similar to the combination of the measurement line 431 and its associated coded feature 931. In a similar manner, the second feature can be represented by a combination of measurement line 432 and its encoded feature 932. In addition to being able to analyze the line 431 against the feature 931, in another embodiment, it is also possible to determine the identification of the line 431 based on the encoded feature 932. I want to be. In other words, a particular line in a group of lines, as illustrated in FIG. 14, can be identified based on two or more of the various coded features. However, in certain embodiments, only a single contiguous set of coded features, or multiple contiguous sets of coded features are used. In addition, steps 621 and 622 can occur at different times, as discussed with reference to FIG.

図21は、本発明にしたがった別の方法を例示する。ステップ631では、複数の第1の特徴部及び複数の第2の特徴部が投影される。これらの特徴部は、同時に投影されてもよく、または、別個の場所に投影されてもよい。   FIG. 21 illustrates another method according to the present invention. In step 631, a plurality of first features and a plurality of second features are projected. These features may be projected simultaneously or may be projected to separate locations.

ステップ632では、第2の特徴部に基づいて複数の第1の特徴部の1つが決定されるかまたは識別される。図14を参照すると、複数の第1の特徴部は測定する線431から435を含む。第2の特徴部、すなわちバーコード931から935を使用して、線431から435の特定の1つを識別することができる。   In step 632, one of the plurality of first features is determined or identified based on the second feature. Referring to FIG. 14, the plurality of first features include lines 431 to 435 to be measured. A second feature, bar code 931-935, can be used to identify a particular one of lines 431-435.

ステップ633では、複数の平行な第1の特徴部の特定の1つに基づいて、表面に点の場所が決定される。   In step 633, the location of the point on the surface is determined based on a particular one of the plurality of parallel first features.

コード化された情報に基づいてその識別が検証されるまで受け取られた形状の分析によって識別された線は使用されないため、この特定の実施形態は、先行技術に対して有利である。   This particular embodiment is advantageous over the prior art because lines identified by analysis of the received shape are not used until their identity is verified based on the encoded information.

図22は、本発明にしたがった別の方法を例示する。ステップ641で平行な第1及び第2の不連続形状が投影される。そのような不連続の形状の例として、図14の線431及び432が挙げられる。しかし、他の様々な平行な形状を投影することができることを当業者は認識する。   FIG. 22 illustrates another method according to the present invention. In step 641, parallel first and second discontinuous shapes are projected. Examples of such discontinuous shapes include lines 431 and 432 in FIG. However, those skilled in the art will recognize that various other parallel shapes can be projected.

ステップ642では、第1の不連続形状に対するコード化された特徴部が投影される。再度、図14を参照すると、線432に対するコード化された特徴部は、コード化された特徴部932または、コード化された特徴部933さえ含むことができる。   In step 642, the coded features for the first discontinuous shape are projected. Referring again to FIG. 14, the coded features for line 432 can include coded features 932 or even coded features 933.

ステップ643では、第2の不連続形状に対するコード化された特徴部が投影される。   In step 643, the coded features for the second discontinuous shape are projected.

ステップ644では、第1の不連続形状が、第1のコード化された特徴部に基づいて識別される。これは、先に検討されたものと類似のやり方で達成される。   In step 644, a first discontinuous shape is identified based on the first encoded feature. This is accomplished in a manner similar to that previously discussed.

ステップ645では、物体の特定の点の場所が、第1の不連続形状に基づいて決定される。   In step 645, the location of the particular point of the object is determined based on the first discontinuous shape.

図23は、本発明の別の実施形態を例示する。具体的には、図23は、時間T1、T2、T3及びT4で投影された一連の画像を例示する。時間T1では、投影された画像は測定特徴部1011から1013を含む。時間T1の間には、コード化された特徴部は投影されない。時間T2の間に、コード化された特徴部1021から1023を含む画像が投影される。時間T1及びT2のパターンは、それぞれ、時間T3及びT4の間に繰り返される。コード化された及び測定特徴部を交替して投影する結果として、より密なパターンを使用することができ、より多くの情報を得ることができる。時間T4の画像は、測定特徴部1011から1013の上に横たわるコード化された特徴部1021から1023を示すことに注意されたい。しかし、1つの実施形態において、測定特徴部は、例示目的のためのみに含まれ、一般に、コード化された特徴部と同時には存在しない。   FIG. 23 illustrates another embodiment of the present invention. Specifically, FIG. 23 illustrates a series of images projected at times T1, T2, T3, and T4. At time T1, the projected image includes measurement features 1011 to 1013. During the time T1, the coded features are not projected. During time T2, an image including coded features 1021 to 1023 is projected. The pattern of times T1 and T2 is repeated during times T3 and T4, respectively. As a result of alternating projection of coded and measurement features, denser patterns can be used and more information can be obtained. Note that the image at time T4 shows the coded features 1021 to 1023 lying on top of the measurement features 1011 to 1013. However, in one embodiment, the measurement features are included for illustrative purposes only and are generally not present at the same time as the coded features.

本発明のさらに別の実施形態において、図24は、異なる特性を備えた特徴部を有する画像を例示する。具体的には、図24は、線1131から1134を有し個別の線の間に距離Xを備えた画像1100を例示し、一方、線1134、1135及び1136の間の距離は、線を分離する実質的により大きな距離Yを例示する。特徴部が異なる孤立特性を有することができることによって、高解像度特徴部を提供することが可能である。言い換えると、線1135を使用して、そうでなければマッピングすることができない表面特徴部をマッピングすることができる。パターン1100は、ここに記載のコーディング技術とともにまたはこれなしで使用することができることに注意されたい。   In yet another embodiment of the invention, FIG. 24 illustrates an image having features with different characteristics. Specifically, FIG. 24 illustrates an image 1100 with lines 1131 through 1134 and a distance X between individual lines, while the distance between lines 1134, 1135 and 1136 separates the lines. Illustrate a substantially larger distance Y. By allowing the features to have different isolation properties, it is possible to provide a high resolution feature. In other words, line 1135 can be used to map surface features that would otherwise not be mapped. Note that pattern 1100 can be used with or without the coding techniques described herein.

ひとたびスキャナが投影されたフレームパターンを受け取るかまたは観察するかすると、フレームパターンは複数の2D点(2D画像フレーム)にデジタル化される。スキャナの投影軸及び視軸は固定され知られているため、2D画像フレームの各2D点が投影された点に相関することができるのであれば、従来の3D画像形成技術を使用して2D画像フレームの各2D点を3D点に転換することができる。コード化された特徴部を有する投影されたフレームパターンを使用することによって、2D画像の点をそれぞれの投影された点に相関することができる。   Once the scanner receives or observes the projected frame pattern, the frame pattern is digitized into a plurality of 2D points (2D image frames). Since the projection axis and visual axis of the scanner are fixed and known, if each 2D point of the 2D image frame can be correlated to the projected point, the 2D image can be generated using conventional 3D image forming techniques. Each 2D point of the frame can be converted to a 3D point. By using a projected frame pattern with coded features, a 2D image point can be correlated to each projected point.

マルチフレーム参照独立走査が、本開示の別の態様にしたがってここに記載される。特定の実施形態において、携帯スキャナを使用して物体を1度に1フレームずつ走査して複数のフレームを獲得することによって、複数の3D画像が受け取られ、各フレームは物体の一部のみをキャプチャする。複数のフレームを参照して、参照独立走査が、走査されている物体に対してフレームごとに変わることができる空間位置を有し、その空間的位置は、参照点に対して固定されないか、または、追跡されない。たとえば、走査されている物体に対して固定された参照点はない。   Multi-frame reference independent scanning is described herein in accordance with another aspect of the present disclosure. In certain embodiments, multiple 3D images are received by scanning the object one frame at a time using a portable scanner to obtain multiple frames, each frame capturing only a portion of the object. To do. Referring to multiple frames, the reference independent scan has a spatial position that can vary from frame to frame with respect to the object being scanned, and the spatial position is not fixed relative to the reference point, or Not tracked. For example, there is no fixed reference point for the object being scanned.

ここに開示された参照独立スキャナの1つの種類は、測定特徴部及びコード化された特徴部を有する連続フレームにパターンを投影する携帯スキャナを含む。これによって、フレームの各観察された点は、公知の対応する投影された点を有することができ、それによって、2Dフレームデータを3Dフレームデータへ転換することができる。   One type of reference independent scanner disclosed herein includes a portable scanner that projects a pattern onto a continuous frame having a measurement feature and a coded feature. This allows each observed point of the frame to have a known corresponding projected point, thereby converting 2D frame data to 3D frame data.

図27から28を使用して、複数のフレーム参照独立走査を検討する。   27-28 are used to consider multiple frame reference independent scans.

図27、28は、異なる視点から物体2700を例示する。図27に例示されるように、物体2700は、3本の歯2710、2720及び2730と、3本の歯に隣接する歯肉部分2740とを含む。   27 and 28 illustrate the object 2700 from different viewpoints. As illustrated in FIG. 27, the object 2700 includes three teeth 2710, 2720, and 2730 and a gingival portion 2740 adjacent to the three teeth.

図27は、複数の非連続表面部分が見えるような視点である。たとえば、図27の視点から、3つの非連続表面部分2711から2713が見える。表面部分2713は、歯2710の側部部分を表す。表面部分2711は、表面部分2713とは連続していない歯2710の噛み合い表面の一部を表す。表面部分2712は、部分2711とも2713とも連続していない歯2710の噛み合い表面の別の部分を表す。類似したやり方で、歯2720は4つの表面部分2721から2724を有し、歯2730は4つの表面部分2731から2734を有する。   FIG. 27 is a viewpoint where a plurality of non-continuous surface portions can be seen. For example, from the viewpoint of FIG. 27, three non-continuous surface portions 2711 to 2713 are visible. Surface portion 2713 represents the side portion of tooth 2710. Surface portion 2711 represents a portion of the mating surface of tooth 2710 that is not continuous with surface portion 2713. Surface portion 2712 represents another portion of the mating surface of tooth 2710 that is not continuous with either portion 2711 or 2713. In a similar manner, tooth 2720 has four surface portions 2721 to 2724 and tooth 2730 has four surface portions 2731 to 2734.

図28は、わずかに異なる視点(図28視点)からの物体2700を例示する。図27から図28へ視点が変わるのは、結果としてビューアーすなわちスキャナが、上部歯表面のより大きな部分を見ることができる方向に動く結果である。視点の変化は、結果として、複数の見られる表面部分に対する変動になる。歯2710に対して、歯の部分2813は、今はその対応する歯の部分2713よりも小さな2D表面を表している。一方、歯の部分2811及び2812は、今は図27のそれらの対応する部分2711及び2712よりも大きい2D表面として見られる。   FIG. 28 illustrates an object 2700 from a slightly different viewpoint (viewpoint in FIG. 28). The view point changes from FIG. 27 to FIG. 28 as a result of the viewer or scanner moving in a direction that allows a larger portion of the upper tooth surface to be seen. The change in viewpoint results in a variation for multiple visible surface portions. For tooth 2710, tooth portion 2813 now represents a smaller 2D surface than its corresponding tooth portion 2713. On the other hand, tooth portions 2811 and 2812 are now seen as 2D surfaces that are larger than their corresponding portions 2711 and 2712 in FIG.

歯2720に対して、表面2824は図27のその対応する歯表面2724よりも小さな2D表面として見られる。歯2720に対して、表面2821は、図27の視点から表面2721及び2723の両方を含む連続して見られる歯表面を表している。   For tooth 2720, surface 2824 is viewed as a 2D surface that is smaller than its corresponding tooth surface 2724 in FIG. For tooth 2720, surface 2821 represents a tooth surface that is viewed sequentially, including both surfaces 2721 and 2723 from the perspective of FIG.

歯2730に対して、見られる2D表面2832及び2835は、各々が、表面2732の部分と先には見られなかった表面区域とを含む。これは、歯2730の形成的特徴の結果であり、これは結果として、表面2732が第2のフレーム視点から連続して見られなくなる。   For teeth 2730, the 2D surfaces 2832 and 2835 seen each include a portion of the surface 2732 and a surface area not previously seen. This is a result of the forming features of the teeth 2730, which results in the surface 2732 not being seen continuously from the second frame viewpoint.

図29は、参照独立走査の特定の実施形態にしたがった方法を例示する。ステップ3101では、物体が走査され、データの2Dクラウドを得る。データの2Dクラウドは、複数のフレームを有する。フレームの各々は、複数の2D点を有し、これは、見られるときには、2D画像を表す。   FIG. 29 illustrates a method according to a particular embodiment of reference independent scanning. In step 3101, the object is scanned to obtain a 2D cloud of data. A 2D cloud of data has multiple frames. Each of the frames has a plurality of 2D points, which when viewed represent a 2D image.

ステップ3102では、データの2Dクラウドの第1のフレームが、3Dフレームモデルに転換される。1つの実施形態において、3Dフレームモデルは3D点モデルであり、これは、三次元空間に複数の点を含む。3Dフレーム点モデルへの実際の転換は、データの走査された2Dクラウドを3D点モデルに転換するための従来の技術を使用して、データのフレームの2Dクラウドのいくつかまたはすべてで実施される。ここに開示されたようなコード化された特徴部を使用する特定の実施形態において、連続していない見られる表面を備えた表面、たとえば、図27の歯2710から2730を、フレームごとにうまく走査することが可能である。   In step 3102, the first frame of the 2D cloud of data is converted to a 3D frame model. In one embodiment, the 3D frame model is a 3D point model, which includes a plurality of points in a three-dimensional space. The actual conversion to a 3D frame point model is performed on some or all of the 2D cloud of frames of data using conventional techniques for converting a scanned 2D cloud of data to a 3D point model . In certain embodiments that use coded features as disclosed herein, surfaces with non-consecutive viewed surfaces, such as teeth 2710 to 2730 in FIG. 27, are successfully scanned from frame to frame. Is possible.

図30及び31は、それぞれ、図27及び図28の視点から、走査されている物体2700を例示する。図30において、走査パターンは線3211から3223を含む。フレーム境界3210外部のいずれの走査線部分は、適切に走査されることができない。境界3210内で各走査線は、スキャナのCCD(電荷結合ダイオード)チップで検知されるときに、複数の2D点(データのクラウド)に転換される。走査線のいくつかのまたはすべての点を、本発明にしたがって使用することができる。たとえば、最終3Dモデルの所望の解像度に依存して、走査線の1つおきまたは2つおきの点を使用することができる。図30は、識別されている各線の4つの点(AからD)を例示する。2D座標値、たとえばX−Y座標は、これらの点の各々用に決定される。   FIGS. 30 and 31 illustrate an object 2700 being scanned from the viewpoint of FIGS. 27 and 28, respectively. In FIG. 30, the scan pattern includes lines 3211 to 3223. Any scan line portion outside the frame boundary 3210 cannot be properly scanned. Within the boundary 3210, each scan line is converted into a plurality of 2D points (data clouds) as detected by the CCD (charge coupled diode) chip of the scanner. Some or all of the scan lines can be used in accordance with the present invention. For example, every other or every other point of the scan line can be used, depending on the desired resolution of the final 3D model. FIG. 30 illustrates four points (A to D) of each identified line. A 2D coordinate value, such as an XY coordinate, is determined for each of these points.

走査の特定の実施形態において、1秒あたり1から20フレームの走査速度が使用される。より速い走査速度を使用することもできる。特定の実施形態において、走査速度は、三次元画像をリアルタイムで見ることができるように選ばれる。各フレームがキャプチャされている間のパルス時間は、スキャナが動いていると予想される速度の関数である。生歯構造物では、最大パルス幅は、およそ140マイクロ秒であると決定されるが、ずっと速いパルス幅、すなわち3マイクロ秒を使用することもある。加えて、特定の実施形態において、歯2710から2730には物質が塗布され、結果として歯自体よりも不透明な表面が得られる。   In particular embodiments of scanning, a scanning rate of 1 to 20 frames per second is used. Faster scanning speeds can also be used. In certain embodiments, the scanning speed is chosen so that a three-dimensional image can be viewed in real time. The pulse time during which each frame is captured is a function of the speed at which the scanner is expected to be moving. For dentition structures, the maximum pulse width is determined to be approximately 140 microseconds, but a much faster pulse width, or 3 microseconds, may be used. In addition, in certain embodiments, the teeth 2710-2730 are coated with a material resulting in a more opaque surface than the teeth themselves.

特定の実施形態において、データのクラウドの各点は、ここに記載される様々なステップ及び機能の間に分析される。別の実施形態では、データのクラウドの一部のみが分析される。たとえば、所望の解像度に合致するために、2つおきまたは3つおきの点のみを分析する必要があるように決定されてもよい。別の実施形態では、データのクラウドの特定の空間部分のみが使用されるように、たとえば、データのクラウドの中心部分のみが境界ボックスに含まれるように、フレームデータの一部が、データのフレーム全体よりも小さい境界ボックスであり得る。データのクラウドのサブセットを使用することによって、ここに記載された様々なルーチンの速度を上げることが可能である。   In certain embodiments, each point in the cloud of data is analyzed during various steps and functions described herein. In another embodiment, only a portion of the cloud of data is analyzed. For example, it may be determined that only every second or third point needs to be analyzed to meet the desired resolution. In another embodiment, a portion of the frame data is a frame of data so that only a particular spatial portion of the cloud of data is used, for example, only the central portion of the cloud of data is included in the bounding box. It can be a bounding box that is smaller than the whole. By using a subset of the cloud of data, it is possible to speed up the various routines described herein.

図31は、図28の視点から、走査されている物体2700を例示する。そのようであるため、線3321から3323を含む見られるパターンは、歯2710から2730に異なって位置決めされる。加えて、フレーム境界3310は、歯2720の大半を含むように動く。   FIG. 31 illustrates an object 2700 being scanned from the viewpoint of FIG. As such, the pattern seen, including lines 3321-3323, is positioned differently on teeth 2710-2730. In addition, the frame boundary 3310 moves to include most of the teeth 2720.

図32は、3D初期モデルとしてここに参照される3Dフレームモデルの別の実施形態を例示する。3D初期モデルは、フレームの3D点に基づいた複数の初期形状を含む。例示された特定の実施形態において、3D点モデルに隣接する点を選択して三角形を形成し、初期形状として三角形PS1からPS3を含む。他の実施は、異なるまたは様々な初期形状を使用することができる。   FIG. 32 illustrates another embodiment of a 3D frame model referred to herein as a 3D initial model. The 3D initial model includes a plurality of initial shapes based on the 3D points of the frame. In the particular embodiment illustrated, the points adjacent to the 3D point model are selected to form triangles, including triangles PS1 to PS3 as initial shapes. Other implementations can use different or various initial shapes.

位置合わせを実施するために初期形状を使用することは、点クラウドの1つの初期表面表示を使用することによって、より低い解像度のモデルを使用することができ、結果としてより速い位置合わせが得られ、望ましくないずれエラーの不利点がないため、互いに対してできるだけ近い2つの点クラウドの点を得ることを試みる位置合わせ技術に対して有利である。たとえば、点から点への位置合わせ用に1mmの走査解像度が使用される場合、2つのフレームの間の最良の保証された整列配置は0.5mmである。これは、表面のどの点がマッピングされるかを携帯スキャナが無作為にキャプチャするという事実による。点から表面への使用することによって、位置合わせが頂点だけではなく表面のいずれの点で発生することができるため、より正確な結果が提供される。   Using the initial shape to perform the alignment can use a lower resolution model by using one initial surface representation of the point cloud, resulting in faster alignment. It is advantageous for registration techniques that attempt to obtain two point cloud points as close as possible to each other, since there are no desirable any error disadvantages. For example, if a 1 mm scan resolution is used for point-to-point alignment, the best guaranteed alignment between two frames is 0.5 mm. This is due to the fact that the portable scanner randomly captures which points on the surface are mapped. Point-to-surface use provides more accurate results because alignment can occur at any point on the surface, not just the vertices.

図29のステップ3103では、第2の3Dフレームモデルがクラウドデータの第2のフレームから作製される。特定の実施に依存して、第2の3Dフレームモデルは、点モデルまたは初期モデルであってもよい。   In step 3103 of FIG. 29, a second 3D frame model is created from the second frame of cloud data. Depending on the particular implementation, the second 3D frame model may be a point model or an initial model.

ステップ3104では、第1のフレームモデルと第2のフレームモデルとの間で位置合わせが実施され、累積モデルを作製する。「位置合わせ」は、第1のモデルを第2のモデルに整列配置させて、第1のモデルに重なり合う第2のモデルの部分を使用することによって最良適合を決定する処理を意味する。第1のモデルに重なり合わない第2のモデルの部分は、未だにマッピングされていない走査された物体の部分であり、第1のモデルに加えられて累積モデルを作る。位置合わせは、図33の方法を参照して良好に理解される。   In step 3104, alignment is performed between the first frame model and the second frame model to create a cumulative model. “Alignment” means the process of aligning a first model with a second model and determining the best fit by using the portion of the second model that overlaps the first model. The portion of the second model that does not overlap the first model is the portion of the scanned object that has not yet been mapped and is added to the first model to create a cumulative model. The alignment is better understood with reference to the method of FIG.

図33は、位置合わせ方法3500を含み、これは、特定の実施形態において、図29の位置合わせステップの1つによって呼び出される。図33のステップ3501では、位置合わせへの項目点が決定される。位置合わせへの項目点は、2つのモデルの重なり合う部分の整列配置の当初推量を規定する。項目点を選ぶ特定の実施形態は、図34を参照してより詳細に検討される。   FIG. 33 includes an alignment method 3500, which in certain embodiments is invoked by one of the alignment steps of FIG. In step 3501 of FIG. 33, an item point for alignment is determined. The item point to alignment defines the initial guess for the alignment of the overlapping parts of the two models. The particular embodiment for selecting item points is discussed in more detail with reference to FIG.

ステップ3502では、2つの形状の位置合わせが試みられる。適合の規定された近似または品質に合致する重なり合いが検出されるならば、位置合わせは成功である。位置合わせが成功のときには、フローは図29の呼び出しステップへ戻る。位置合わせが成功ではないときには、フローはステップ3598へ進み、そこで続行するか否かが決定される。   In step 3502, two shape registrations are attempted. Registration is successful if an overlap is detected that matches the defined approximation or quality of the fit. If the alignment is successful, the flow returns to the calling step of FIG. If the alignment is not successful, flow proceeds to step 3598 where it is determined whether to continue.

続行する決定は、因子の数に基づいて決定することができる。1つの実施形態において、続行する決定は、試行された位置合わせ項目点の数に基づいてなされる。ステップ3598での決定が位置合わせの試みをやめるものである場合には、フローはステップ3503へ進み、そこで位置合わせエラー取扱が発生する。そうでなければ、フローはステップ3501で続行する。   The decision to proceed can be made based on the number of factors. In one embodiment, the decision to proceed is made based on the number of alignment item points attempted. If the determination at step 3598 is to stop the alignment attempt, flow proceeds to step 3503 where alignment error handling occurs. Otherwise, the flow continues at step 3501.

図34は、位置合わせ項目点を選ぶための特定の方法を例示する。ステップ3699では、これが、新しいフレームの特定の位置合わせ試み用の最初の項目点であるか否かの決定がなされる。そうであれば、フローはステップ3601へ進み、そうでなければ、フローはステップ3698へ進む。   FIG. 34 illustrates a particular method for selecting alignment item points. In step 3699, a determination is made whether this is the first item point for a particular alignment attempt for a new frame. If so, flow proceeds to step 3601, otherwise flow proceeds to step 3698.

ステップ3601では、項目点のX及びY構成要素が、2つのフレームの各々用のデータの2Dクラウドの二次元分析に基づいて決定される。特定の実施形態において、二次元分析が2D画像の相互相関を実施する。これらの2D画像は、データの2Dクラウドからである必要はなく、代わりに、パターンを有さない物体の平易なビデオ画像に関連するデータを相互相関に使用することができる。このようにして、スキャナの有望な動きを決定することができる。たとえば、相互相関を使用して、スキャナがおそらくはどのように動いたかを決定するために、ピクセルがどのように動いたかを決定する。   In step 3601, the X and Y components of the item points are determined based on a 2D cloud 2D analysis of the data for each of the two frames. In certain embodiments, two-dimensional analysis performs cross-correlation of 2D images. These 2D images need not be from a 2D cloud of data; instead, data associated with plain video images of objects without patterns can be used for cross-correlation. In this way, a promising movement of the scanner can be determined. For example, cross-correlation is used to determine how the pixels have moved to determine how likely the scanner has moved.

別の実施形態において、回転分析が可能であるが、これは時間がかかるものであるため、特定の実施形態用にはこれは行われず、X及びY座標に正しい項目点を有することによってここに記載の位置合わせアルゴリズムが回転を取り扱うことが可能になる。   In another embodiment, rotation analysis is possible, but this is time consuming, so this is not done for a particular embodiment, and here it is by having the correct item points in the X and Y coordinates. The described alignment algorithm can handle rotation.

ステップ3602では、Z方向の有望な動きが決定される。   In step 3602, a promising movement in the Z direction is determined.

1つの特定の実施形態において、先のフレームのZ座標が使用され、Z方向のいずれの変化が位置合わせの一部として計算される。別の実施形態において、有望なZ座標が項目点の一部として計算される。たとえば、システムの光学パラメータが、最良適合が受け取られるまで、第1のフレームに対する第2のフレームを「ズーム」することができる。そのために使用されるズーム因子によって、2つの表面がZで互いからどれほど離れているかがわかる。特定の実施形態において、X、Y及びZ座標は、Z座標が視軸にほぼ平行であるように、整列配置されることが可能である。   In one particular embodiment, the Z coordinate of the previous frame is used and any change in the Z direction is calculated as part of the alignment. In another embodiment, a promising Z coordinate is calculated as part of the item point. For example, the optical parameters of the system can “zoom” the second frame relative to the first frame until the best fit is received. The zoom factor used for this tells how far the two surfaces are in Z from each other. In certain embodiments, the X, Y, and Z coordinates can be aligned so that the Z coordinate is substantially parallel to the viewing axis.

ステップ3606では、項目点値が戻される。   In step 3606, the item point value is returned.

ステップ3698では、すべての項目点変動が、位置合わせステップ3601及び3602で試行されたか否かが決定される。されていなければ、フローはステップ3603へ進み、されていれば、フローはステップ3697へ進む。   In step 3698, it is determined whether all item point variations have been attempted in registration steps 3601 and 3602. If not, the flow proceeds to step 3603; otherwise, the flow proceeds to step 3697.

ステップ3603では、次の項目点変動が選択される。図35は、位置合わせ項目点変動を選択するための特定の方法を例示する。具体的には、図35は、当初項目点E1及びその後に続く項目点E2からE9を例示する。項目点E2からE9は、いずれの所定の順番で順次選択される。図35の特定の実施形態は、半径3710を有する円3720の様々な点として位置合わせ項目点E2からE9を例示する。特定の実施形態にしたがって、項目点変動の範囲は二次元であり、たとえば、X及びY次元である。他の実施形態において、項目点は三次元に変動することができる。項目点の変動する数すなわち項目点のサブセットを使用して、位置合わせ処理をスピードアップすることができることに注意されたい。たとえば、ここで使用される単一のフレーム位置合わせは、図示された9つの項目点よりも少ない数を使用することができる。同様に、ここに記載される累積位置合わせは、例示された9点を超えて多くの数を使用することによって、利益を得ることができる。   In step 3603, the next item point variation is selected. FIG. 35 illustrates a particular method for selecting registration item point variation. Specifically, FIG. 35 illustrates an initial item point E1 and subsequent item points E2 to E9. The item points E2 to E9 are sequentially selected in any predetermined order. The particular embodiment of FIG. 35 illustrates alignment item points E2 through E9 as various points of a circle 3720 having a radius 3710. According to certain embodiments, the range of item point variation is two-dimensional, for example, X and Y dimensions. In other embodiments, the item points can vary in three dimensions. Note that a variable number of item points, i.e. a subset of item points, can be used to speed up the registration process. For example, the single frame alignment used here may use fewer than the nine item points shown. Similarly, the cumulative registration described herein can benefit from using many numbers beyond the nine points illustrated.

図34のステップ3698に戻ると、ひとたび第1に識別される項目点のすべての変動が試行されると、フローはステップ3697へ進む。ステップ3697では、第1に識別される項目点に関連したすべての項目点が試行され、第2に識別される項目点がステップ3604によって識別されたか否かが決定される。されていなければ、フローはステップ3604へ進み、そこで、第2の項目点が規定される。具体的には、ステップ3604では、2つの先のフレームモデルの間のスキャナの動きが決定される。次に、スキャナの動きが少なくとも1つの追加フレームでは一定であると想定される。これらの想定を使用して、ステップ3604での項目点は、先のフレームに計算されたスキャナの動きをプラスした場所であると規定される。フローはステップ3606へ進み、これは、項目点を図29の呼び出しステップへ戻す。別の実施形態において、スキャナの動きの方向は同一のままであるが、異なる速度で加速されるという想定をすることができる。   Returning to step 3698 of FIG. 34, once all variations of the first identified item point have been attempted, flow proceeds to step 3697. In step 3697, all item points associated with the first identified item point are tried to determine whether the second identified item point has been identified by step 3604. If not, flow proceeds to step 3604 where a second item point is defined. Specifically, in step 3604, scanner motion between two previous frame models is determined. Next, it is assumed that the scanner movement is constant for at least one additional frame. Using these assumptions, the item point at step 3604 is defined as the location plus the computed scanner movement for the previous frame. Flow proceeds to step 3606, which returns the item point to the calling step of FIG. In another embodiment, it can be assumed that the direction of movement of the scanner remains the same, but is accelerated at different speeds.

ステップ3604の第2に識別される項目点が先に決定されているならば、ステップ3697からのフローはステップ3696へ進む。ステップ3696では、第2に識別される項目点用の追加位置合わせ項目点変動が存在するか否かが決定される。そうであれば、フローはステップ3605へ進み、そうでなければ、フローはステップ3607で図29の呼び出しステップへ戻り、新しい項目点の選択は不成功であったことを示す。ステップ3605では、第2に識別される項目点の次の項目点変動が識別され、フローは図29の呼び出しステップへ戻る。   If the second identified item point of step 3604 has been previously determined, the flow from step 3697 proceeds to step 3696. In step 3696, it is determined whether there is an additional registration item point variation for the second identified item point. If so, flow proceeds to step 3605; otherwise, flow returns to the calling step of FIG. 29 at step 3607, indicating that the selection of a new item point was unsuccessful. In step 3605, the next item point variation of the second identified item point is identified, and the flow returns to the calling step of FIG.

実施されている位置合わせの種類に依存して、異なる項目点ルーチンを使用することができる。たとえば、フレームデータの中断には寛容ではない位置合わせ処理には、特定のフレームを放棄する前により多くの項目点を試行する必要がある。フレームデータの中断に寛容である位置合わせ処理には、より簡単なまたはより少ない項目点を試みることができ、それによって位置合わせ処理をスピードアップする。   Different item point routines can be used depending on the type of alignment being performed. For example, an alignment process that is not tolerant of frame data interruption requires more item points to be tried before abandoning a particular frame. For an alignment process that is tolerant of frame data interruption, simpler or fewer item points can be attempted, thereby speeding up the alignment process.

図29に戻ると、ステップ3105で、次の3Dモデル部分が、クラウドデータの次のフレームから作製される。   Returning to FIG. 29, at step 3105, the next 3D model portion is created from the next frame of cloud data.

ステップ3106では、次の3Dモデル部分と累積モデルとの間で位置合わせが実施され、累積モデルを更新する。特定の実施において、フレームからすべての新しい点を既存の累積モデルへ加えて新しい累積モデルに到達することによって、累積モデルが更新される。他の実施において、今までに獲得された3D点に基づく新しい表面を格納することができ、それによって格納されるデータの量を減少する。   In step 3106, alignment is performed between the next 3D model portion and the cumulative model to update the cumulative model. In a particular implementation, the cumulative model is updated by adding all new points from the frame to the existing cumulative model to arrive at the new cumulative model. In other implementations, a new surface based on the 3D points acquired so far can be stored, thereby reducing the amount of data stored.

すべてのフレームが位置合わせされた場合には、方法3100が完了し、そうでなれば、各フレームの点のクラウドが位置合わせされるまで、フローはステップ3199を通ってステップ3105へ進む。方法3100に記載された位置合わせ処理の結果として、フレーム3210及び3310等の複数のより小さなフレームから物体2700用のモデルを展開することが可能である。複数のフレームを位置合わせすることができることによって、大きな物体の高度に正確なモデルを得ることができる。たとえば、歯肉、歯及び歯列矯正及び人工装具の構造物を含む患者の生歯構造物全体のモデルを得ることができる。別の実施形態において、患者の顔のモデルを得ることができる。   If all frames are aligned, method 3100 is complete, otherwise flow proceeds through step 3199 to step 3105 until the cloud of points for each frame is aligned. As a result of the registration process described in method 3100, it is possible to develop a model for object 2700 from multiple smaller frames, such as frames 3210 and 3310. By being able to align multiple frames, a highly accurate model of a large object can be obtained. For example, a model of the entire patient's dentition structure can be obtained, including gingiva, teeth and orthodontic and prosthetic structures. In another embodiment, a model of the patient's face can be obtained.

図36は方法3800を例示し、これは、参照独立スキャナから複数のフレームを使用して物体を位置合わせする代替方法である。具体的には、ステップ3801では、物体が走査され物体用のクラウドデータを受け取る。先に記載されたように、データのクラウドが複数のフレームからのデータを含み、各フレームは複数の点を含む。   FIG. 36 illustrates a method 3800, which is an alternative method of aligning an object using multiple frames from a reference independent scanner. Specifically, in step 3801, the object is scanned and cloud data for the object is received. As described above, a cloud of data includes data from multiple frames, and each frame includes multiple points.

ステップ3802では、単一のフレーム位置合わせが実施される。単一のフレーム位置合わせは、累積モデルを作製せずに、走査された画像の隣接するフレームの間で位置合わせを実施する。その代わり、特定の実施形態において、単一のフレーム位置合わせ処理の累積画像が表示される。単一のフレーム位置合わせ処理によって形成された画像を使用して、走査処理を補助することができる。たとえば、単一のフレーム位置合わせの結果として表示された画像は、累積モデルほど正確ではないが、スキャナのオペレータによって使用され、追加走査が必要である区域を決定することができる。   In step 3802, a single frame alignment is performed. Single frame alignment performs alignment between adjacent frames of the scanned image without creating a cumulative model. Instead, in certain embodiments, a cumulative image of a single frame alignment process is displayed. An image formed by a single frame alignment process can be used to assist the scanning process. For example, the image displayed as a result of a single frame alignment is not as accurate as the cumulative model, but can be used by the scanner operator to determine the areas that require additional scanning.

単一のフレーム位置合わせ処理は、いずれの2つのフレームの間に導入されたいずれのエラーが、単一のフレーム位置合わせを使用して作製された3Dモデルの次のすべてのフレームへ「拡張」される。しかし、正確度のレベルは、走査処理中にオペレータを補助するに適切である。たとえば、位置合わせ結果は、1つのフレームから別のフレームへの動きが記載され、累積位置合わせ処理用の項目点として使用することができる。単一のフレーム位置合わせは、図37を参照してより詳細に検討される。   The single frame alignment process “extends” any error introduced between any two frames to all subsequent frames of the 3D model created using the single frame alignment. Is done. However, the level of accuracy is adequate to assist the operator during the scanning process. For example, the registration result describes the movement from one frame to another and can be used as an item point for cumulative registration processing. Single frame alignment is discussed in more detail with reference to FIG.

ステップ3803では、累積位置合わせが実施される。累積位置合わせは、各新しいフレームを累積モデルに位置合わせすることによって累積3Dモデルを作る。たとえば、1000の参照独立3Dモデル部分(フレーム)を表す1000の個別のフレームがステップ3801でキャプチャされた場合、累積位置合わせステップ3803は、1000の参照独立3Dモデル部分を、物体を表す単一の累積3Dモデルに結合する。たとえば、1000の参照独立3Dモデル部分の各々が、図30及び31のフレーム3210及び3310を含む1本またはそれ以上の歯の一部を表す場合には、単一の累積3Dモデルは、歯2710から2730を含む歯のセット全体を表す。   In step 3803, cumulative alignment is performed. Cumulative registration creates a cumulative 3D model by registering each new frame with the cumulative model. For example, if 1000 individual frames representing 1000 reference independent 3D model parts (frames) were captured in step 3801, the cumulative registration step 3803 may represent 1000 reference independent 3D model parts representing a single object. Combine with the cumulative 3D model. For example, if each of the 1000 reference independent 3D model parts represents a portion of one or more teeth including the frames 3210 and 3310 of FIGS. To 2730 represent the entire set of teeth.

ステップ3804では、位置合わせの結果が報告される。これは、下記にさらに詳細に検討される。   In step 3804, the registration result is reported. This is discussed in further detail below.

図37には、図36のステップ3802の単一フレームレンダリング実施に対して特定である方法3900が記載される。ステップ3903では、変数xが2に等しく設定される。   FIG. 37 describes a method 3900 that is specific to the single frame rendering implementation of step 3802 of FIG. In step 3903, the variable x is set equal to 2.

ステップ3904では、現在のフレーム(3DFx)と直前のまたは第1の隣接するフレーム(3DFx−1)との間の位置合わせが実施される。2つのフレームの間の位置合わせは、単一フレーム位置合わせと称される。2つのモデルの間の位置合わせの特定の実施形態は、図38に例示される方法を参照してさらに詳細に検討される。   In step 3904, alignment between the current frame (3DFx) and the previous or first adjacent frame (3DFx-1) is performed. The alignment between two frames is referred to as single frame alignment. Specific embodiments of alignment between two models are discussed in further detail with reference to the method illustrated in FIG.

ステップ3999では、ステップ3904の単一フレーム位置合わせが成功したか否かが決定される。特定の実施形態において、図38の方法等の位置合わせ方法は、ステップ3999で評価される成功インジケータを提供する。位置合わせが成功であるときにはフローはステップ3905へ進み、そうでないときにはフローはステップ3907へ進む。   In step 3999, it is determined whether the single frame alignment of step 3904 was successful. In certain embodiments, an alignment method, such as the method of FIG. 38, provides a success indicator that is evaluated at step 3999. If the alignment is successful, the flow proceeds to step 3905; otherwise, the flow proceeds to step 3907.

ステップ3999で位置合わせが成功したと決定されるときには、フローはステップ3905へ進む。ステップ3905では、現在の3Dフレーム(3DFx)が、3Dフレームの現在のセットに加えられる。このセットは一般に、変換マトリクスのセットであることに注意されたい。3Dフレームの現在のフレームセットがフレームの連続したセットであり、シーケンスの各フレームは、その2つの隣接するフレーム(の両方)に成功して位置合わせされる可能性が高い。加えて、新しく位置合わせされたフレームは、既に表示されている先のフレームに対して表示することができる。   When step 3999 determines that the alignment is successful, flow proceeds to step 3905. In step 3905, the current 3D frame (3DFx) is added to the current set of 3D frames. Note that this set is generally a set of transformation matrices. The current frame set of 3D frames is a contiguous set of frames, and each frame of the sequence is likely to be successfully aligned with (both) its two adjacent frames. In addition, the newly aligned frame can be displayed relative to the previously displayed frame.

ステップ3998では、変数xがnに等しい値を有するか否かが決定され、ただし、nは、評価されるべきフレームの合計数である。xがnに等しい場合には、単一フレーム位置合わせが完了し、フローはステップ3910で図36へ戻ることができる。xがnよりも小さい場合には、ステップ3906で単一フレーム位置合わせが続けられ、ステップ3904へ進む前にxがインクリメントされる。   In step 3998, it is determined whether the variable x has a value equal to n, where n is the total number of frames to be evaluated. If x equals n, single frame alignment is complete and flow can return to FIG. 36 at step 3910. If x is less than n, single frame alignment is continued at step 3906 and x is incremented before proceeding to step 3904.

ステップ3999へ戻ると、ステップ3904の位置合わせが成功していなければフローはステップ3907へ進む。ステップ3907では、現在のフレーム(3DFx)と2つ前の隣接するフレーム(3DFx−2)との間で位置合わせが試みられる。ステップ3907の位置合わせが成功であれば、ステップ3997は、フローをステップ3905へ方向づける。そうでなければ、ステップ3997は、フローをステップ3908へ方向づけ、それによって現在のフレーム(3DFx)の位置合わせが不成功であることを示す。   Returning to step 3999, if the alignment of step 3904 is not successful, the flow proceeds to step 3907. In step 3907, an alignment is attempted between the current frame (3DFx) and the previous adjacent frame (3DFx-2). If the alignment at step 3907 is successful, step 3997 directs the flow to step 3905. Otherwise, step 3997 directs the flow to step 3908, thereby indicating that the alignment of the current frame (3DFx) is unsuccessful.

現在のフレームを位置合わせすることができない場合には、ステップ3908が、現在のフレームセットすなわちマトリクスのセットを保存し、新しい現在のフレームセットが開始される。ステップ3908からのフローはステップ3905へ進み、そこで、現在のフレームが現在のフレームセットに加えられ、これは、ステップ3908で新しく作られていた。したがって、単一フレーム位置合わせステップ3802が複数のフレームセットを識別することが可能である。   If the current frame cannot be aligned, step 3908 saves the current frame set or matrix set and a new current frame set is started. The flow from step 3908 proceeds to step 3905 where the current frame is added to the current frame set, which was newly created in step 3908. Thus, the single frame alignment step 3802 can identify multiple frame sets.

累積位置合わせ中に複数のフレームセットを作製することは、複数の累積モデルを調停するのに必要な介入の量のため、望ましくない。しかし、単一フレーム位置合わせの目的はオペレータを補助し累積位置合わせに対する項目点を規定することであるため、単一フレーム位置合わせの中断は一般に受け入れられる。単一フレーム位置合わせ中の中断に対処する1つの方法は、単に、中断前の最後のフレームと同一の場所に中断後の最初のフレームを表示することであり、それによって、オペレータは画像を見るのを続けることができる。   Creating multiple frame sets during cumulative registration is undesirable due to the amount of intervention required to reconcile multiple cumulative models. However, interruption of single frame alignment is generally accepted because the purpose of single frame alignment is to assist the operator and define entry points for cumulative alignment. One way to deal with a break during single frame alignment is simply to display the first frame after the break in the same place as the last frame before the break, so that the operator views the image. Can continue.

図38のステップ4001にしたがって、第1のモデルは3D初期形状モデルであり、一方、第2のモデルは3D点モデルである。参照目的用に、第1の3Dモデルの初期形状はS1…Snとして参照され、ただし、nは第1のモデルの形状の合計数であり、第2の3Dモデルの点はP1…Pzとして参照され、ただし、zは第2のモデルの合計数である。   According to step 4001 of FIG. 38, the first model is a 3D initial shape model, while the second model is a 3D point model. For reference purposes, the initial shape of the first 3D model is referred to as S1... Sn, where n is the total number of shapes of the first model and the points of the second 3D model are referred to as P1. Where z is the total number of the second model.

ステップ4002では、第2のモデルの個別の点P1…Pzが分析されて、その場所にもっとも近い形状を決定する。特定の実施形態において、点P1には、P1にもっとも近い形状S1…Snが、他のいずれの形状の他のいずれの表面場所よりもP1にもっとも近い表面場所を有する形状である。点P1にもっとも近い形状はSc1と称され、一方、点Pzにもっとも近い形状はSczと称される。   In step 4002, the individual points P1 ... Pz of the second model are analyzed to determine the shape closest to that location. In a particular embodiment, the point P1 has a shape S1 ... Sn closest to P1 having a surface location closest to P1 than any other surface location of any other shape. The shape closest to the point P1 is referred to as Sc1, while the shape closest to the point Pz is referred to as Scz.

別の実施形態において、三角形のすぐ上またはすぐ下に位置する点のみが三角形に関連し、三角形表面のすぐ上またはすぐ下に位置しない点は、2つの三角形の間に形成された線、または、複数の三角形によって形成された点に関連する。広い意味では、三角形を形成する線及び三角形のかど点を形成する点を、形状としてみなすことができることに注意されたに。   In another embodiment, only points that are directly above or below the triangle are associated with the triangle, and points that are not directly above or below the surface of the triangle are lines formed between the two triangles, or , Associated with a point formed by a plurality of triangles. Note that in a broad sense, the lines that form a triangle and the points that form the corners of a triangle can be considered as shapes.

ステップ4003では、ベクトルD1…Dzが、点P1…Pzの各々用に計算される。特定の実施において、各ベクトルたとえばD1は、その対応する点たとえばP1から、そのもっとも近い形状たとえばSc1のもっとも近い点への最小距離によって規定される大きさ及び方向を有する。一般に、点P1…Pzの一部のみが累積画像に重なり合う。位置合わせする必要がない非重なり合い点は、重なり合っている点よりも比較的大きな大きさを有する関連ベクトルを有するか、または、特定の三角形のすぐ上またはすぐ下になくてもよい。したがって、特定の実施形態において、所定の値(イプシロン値)よりも小さい大きさを有するベクトルのみが、さらなる位置合わせに使用される。   In step 4003, vectors D1... Dz are calculated for each of the points P1. In a particular implementation, each vector, eg, D1, has a magnitude and direction defined by the minimum distance from its corresponding point, eg, P1, to its closest shape, eg, the nearest point of Sc1. In general, only a part of the points P1... Pz overlaps the accumulated image. Non-overlapping points that do not need to be aligned may have an associated vector that is relatively larger than the overlapping points, or may not be directly above or below a particular triangle. Thus, in certain embodiments, only vectors having a magnitude smaller than a predetermined value (epsilon value) are used for further alignment.

重なり合う点になりそうにない点を排除するのに加えて、イプシロン値を使用して、デコーディングエラーのリスクをさらに減少することができる。たとえば、パターンの測定線の1本が異なる線であると誤って解釈されると、誤った解釈の結果として、Z方向に大きなエラーが生じる可能性がある。隣接するパターン線の間の一般的な距離がおよそ0.3mmであり三角測量の角度がおよそ13度である場合に、X方向の0.3mmのエラーが、結果として、Z方向においておよそ1.3mmの三次元変形エラーになる(0.3mm/tan13度)。イプシロン距離が0.5mm未満に保たれる場合には、互いから0.5mmを超えてさらに離れる表面区域の影響はないことが確実である。特定の実施形態において、イプシロン値は0.5mmを超える値であるように最初に選択され、たとえば2.0mmであり、一定の品質に到達すると値が減少されることに注意されたい。   In addition to eliminating points that are not likely to overlap, epsilon values can be used to further reduce the risk of decoding errors. For example, if one of the pattern measurement lines is misinterpreted as a different line, a large error may occur in the Z direction as a result of the misinterpretation. When the general distance between adjacent pattern lines is approximately 0.3 mm and the triangulation angle is approximately 13 degrees, an error of 0.3 mm in the X direction results in approximately 1.. A 3 mm three-dimensional deformation error results (0.3 mm / tan 13 degrees). If the epsilon distance is kept below 0.5 mm, it is certain that there will be no influence of surface areas further away from each other by more than 0.5 mm. Note that in certain embodiments, the epsilon value is initially selected to be a value greater than 0.5 mm, for example 2.0 mm, and the value is reduced once a certain quality is reached.

ステップ4004では、特定の実施形態において、ベクトルD1…Dzがばね力として取り扱われ、第2の3Dモデルフレームの動きを決定する。特定の実施形態において、第2の3Dモデルは、すべての力ベクトルD1…Dzの合計をベクトルの数で割ったものによって規定される線状方向に動かされる。   In step 4004, in a particular embodiment, the vectors D1 ... Dz are treated as spring forces to determine the motion of the second 3D model frame. In a particular embodiment, the second 3D model is moved in a linear direction defined by the sum of all force vectors D1 ... Dz divided by the number of vectors.

ステップ4005では、ベクトルD1…Dzは、第2の3Dモデルの各点用に再計算される。   In step 4005, the vectors D1 ... Dz are recalculated for each point of the second 3D model.

ステップ4006では、ベクトルD1…Dzは、ばね力として取り扱われ、第2の3Dモデルの動きを決定する。ステップ4004の特定の実施形態用に、第2の3Dモデルフレームは、ベクトルD1…Dzに基づいた質量中心を中心にして回転する。たとえば、第2の3Dモデルは、ばね力が最小になるまで、質量中心を中心にして回転する。   In step 4006, the vectors D1 ... Dz are treated as spring forces to determine the movement of the second 3D model. For the particular embodiment of step 4004, the second 3D model frame rotates around the center of mass based on the vectors D1... Dz. For example, the second 3D model rotates around the center of mass until the spring force is minimized.

ステップ4007では、第2の3Dモデルの現在の配向に対する位置合わせの品質が決定される。位置合わせの品質を規定するために様々な方法を使用することができることが、当業者には理解される。たとえば、イプシロンよりも小さい大きさを有するベクトルD1…Dzの標準偏差を使用することができる。別の実施形態において、下記のステップを使用して品質を計算することができる。すなわち、ベクトルの距離を二乗し、イプシロン距離内のすべてのベクトルの二乗された距離を合計し、この合計をベクトルの数で割り、平方根を取る。ベクトル値D1…Dzは回転ステップ4006後に再計算する必要があることを当業者は認識することに注意されたい。加えて、品質を示す定量値を提供するのに使用することができる他の統計的計算があることを当業者は認識する。   In step 4007, the alignment quality for the current orientation of the second 3D model is determined. Those skilled in the art will appreciate that various methods can be used to define the quality of the alignment. For example, the standard deviation of vectors D1... Dz having a magnitude smaller than epsilon can be used. In another embodiment, the quality can be calculated using the following steps: That is, square the vector distance, sum the squared distances of all vectors within the epsilon distance, divide this sum by the number of vectors and take the square root. Note that one skilled in the art will recognize that the vector values D1... Dz need to be recalculated after the rotation step 4006. In addition, those skilled in the art will recognize that there are other statistical calculations that can be used to provide a quantitative value indicative of quality.

ステップ4099では、ステップ4007で決定された品質が、所望の品質レベルに合致しているか否かが決定される。品質が所望のレベル内であれば、2つのフレームモデルの間の完全な位置合わせが達成可能であることを高度の信頼度で示す。所望の程度の品質が得られたときに方法4000のフローを終結することによって、ユーザに画像を提供するためにフレームのすべての対にわたって即座にソートすることが可能である。方法のこの点でデータ内の可能性のある中断を排除することによって、その後の累積位置合わせは、累積モデルの複数のセグメントではなく、単一の累積モデルを作製する可能性が高い。現在の品質レベルが所望のレベルに合致する場合には、フローは、成功であると示して、適切な呼び出しステップへ戻る。現在の品質レベルが所望のレベルに合致しない場合には、フローはステップ4098へ進む。   In step 4099, it is determined whether or not the quality determined in step 4007 matches a desired quality level. If the quality is within the desired level, it indicates with a high degree of confidence that perfect alignment between the two frame models can be achieved. By ending the flow of method 4000 when the desired degree of quality is obtained, it is possible to sort immediately across all pairs of frames to provide the user with images. By eliminating possible interruptions in the data at this point in the method, subsequent cumulative alignment is likely to create a single cumulative model rather than multiple segments of the cumulative model. If the current quality level matches the desired level, the flow indicates success and returns to the appropriate call step. If the current quality level does not match the desired level, the flow proceeds to step 4098.

ステップ4098では、位置合わせの現在の品質が改良しているか否かが決定される。特定の実施形態において、これは、ステップ4003を含むループを通る先の通過の品質を現在の品質と比較することによって決定される。品質が改良していない場合には、フローは、位置合わせは成功しなかったと示して、呼び出しステップへ戻る。改良している場合には、フローはステップ4003へ進む。   In step 4098, it is determined whether the current quality of alignment has improved. In certain embodiments, this is determined by comparing the quality of the previous pass through the loop including step 4003 with the current quality. If the quality has not improved, the flow indicates that the alignment was not successful and returns to the calling step. If so, flow proceeds to step 4003.

ステップ4003へ戻ると、新しいフレーム場所を使用して、別の位置合わせ反復が発生する。ひとたびフレームデータが走査されて格納されると、走査の順番に正確に位置合わせを行う必要はないということに注意されたい。位置合わせは、逆に開始することができ、または、意味のあるいずれの他の順番を使用してもよい。特に、走査が結果として複数の通過になるときには、フレームがおおよそどこに属するかは既に知られている。したがって、隣接するフレームの位置合わせは、画像形成の順番とは無関係に行うことができる。   Returning to step 4003, another alignment iteration occurs using the new frame location. Note that once the frame data has been scanned and stored, there is no need to align exactly in the scan order. The alignment can be started in reverse, or any other order that makes sense may be used. In particular, when a scan results in multiple passes, it is already known where the frame belongs. Therefore, alignment of adjacent frames can be performed regardless of the order of image formation.

図39は、図36用の方法4100の特定の実施形態を例示する。具体的には、方法4100は、すべての個別の3Dフレームモデルを単一の累積3Dモデルに結合するよう試みる累積位置合わせを開示する。   FIG. 39 illustrates a particular embodiment of the method 4100 for FIG. Specifically, the method 4100 discloses cumulative alignment that attempts to combine all individual 3D frame models into a single cumulative 3D model.

ステップ4101から4103はセットアップステップである。ステップ4101では、変数xが1に等しいように設定され、変数x_lastは、3Dモデルセットの合計数を規定する。3Dモデルセットの数は、図37のステップ3908に基づいていることに注意されたい。   Steps 4101 to 4103 are setup steps. In step 4101, the variable x is set to be equal to 1, and the variable x_last defines the total number of 3D model sets. Note that the number of 3D model sets is based on step 3908 of FIG.

ステップ4102では、3D累積モデル(3Dc)が、当初、フレームの現在のセットの第1の3Dフレームに等しく設定される。3D累積モデルは、3D累積モデルによって既に表されていないその後のフレームモデルからその情報を含むように修正される。   In step 4102, the 3D cumulative model (3Dc) is initially set equal to the first 3D frame of the current set of frames. The 3D cumulative model is modified to include that information from subsequent frame models that are not already represented by the 3D cumulative model.

ステップ4103では、Yは2に等しく設定され、変数Y_lastは、セットSxのフレーム(3DF)かまたはフレームモデルの合計数を示すように規定され、ただし、Sxは位置合わせされているフレームモデルの現在のセットを表す。   In step 4103, Y is set equal to 2 and the variable Y_last is defined to indicate the total number of frames (3DF) or frame models in the set Sx, where Sx is the current frame model being aligned. Represents a set of

ステップ4104では、3D累積モデル(3Dc)が、位置合わせされている現在の3Dフレームモデル(Sx(3DFy))と3D累積モデル(3DC)との間の位置合わせに基づいて追加情報を含むように修正される。図39において、現在の3DフレームモデルはSx(3Dy)として参照され、ただし、3Dyはフレームモデルを示し、Sxはフレームセットを示すことに注意されたい。ステップ4104の位置合わせを実施するための特定の実施形態は、図40から41に例示された方法によってさらに記載される。   In step 4104, the 3D cumulative model (3Dc) includes additional information based on the alignment between the current 3D frame model being aligned (Sx (3DFy)) and the 3D cumulative model (3DC). Will be corrected. Note that in FIG. 39, the current 3D frame model is referred to as Sx (3Dy), where 3Dy indicates the frame model and Sx indicates the frame set. Particular embodiments for performing the alignment of step 4104 are further described by the method illustrated in FIGS.

ステップ4199では、現在の3Dフレームモデルが現在のステップの最後の3Dフレームモデルか否かが決定される。図39の特定の実施形態にしたがって、これは、変数Yが値Y_lastに等しいか否かを決定することによって達成することができる。YがY_lastに等しいときには、フローはステップ4198へ進む。そうでない場合には、フローはステップ4106へ進み、そこで、現在のセットSyに関連する3Dフレームモデルのさらなる位置合わせのためにステップ4104へ戻る前に、Yがインクリメントされる。   In step 4199, it is determined whether the current 3D frame model is the last 3D frame model of the current step. According to the particular embodiment of FIG. 39, this can be achieved by determining whether the variable Y is equal to the value Y_last. When Y is equal to Y_last, the flow proceeds to step 4198. Otherwise, the flow proceeds to step 4106 where Y is incremented before returning to step 4104 for further alignment of the 3D frame model associated with the current set Sy.

ステップ4198では、フレームの現在のセットがフレームの最後のセットであるか否かが決定される。図39の特定の実施形態にしたがって、これは、変数xが値x_lastに等しいか否かを決定することによって達成することができる。xがx_lastに等しいときには、フローはステップ4105へ進む。そうでない場合には、フローはステップ4107へ進み、そこで、次のセットを使用してさらなる位置合わせのためにステップ4103へ戻る前に、xがインクリメントされる。   In step 4198, it is determined whether the current set of frames is the last set of frames. According to the particular embodiment of FIG. 39, this can be achieved by determining whether the variable x is equal to the value x_last. When x is equal to x_last, the flow proceeds to step 4105. Otherwise, flow proceeds to step 4107 where x is incremented before returning to step 4103 for further alignment using the next set.

フローがステップ4105に到達するときには、すべてのセットのすべてのフレームが位置合わせされている。ステップ4105は、方法4100の位置合わせ、及び、いずれの他のクリーンアップ操作の結果を報告する。たとえば、理想的には方法4100が結果として単一の3D累積モデルを生じるが、実際には、複数の累積モデルを作製する可能性がある(図41のステップ4207の検討を参照のこと)。これが発生すると、ステップ4105は、結果として得られる3D累積モデルの数をユーザに、または取り扱いのために次のルーチンへ、報告することができる。ステップ4105の一部として、ユーザは、複数の3Dモデルを互いに位置合わせするのを補助する選択肢を有することができる。たとえば、2つの3D累積モデルが作製されると、ユーザは3D累積モデルを図式的に操作して、項目点の識別を補助することができ、これを使用して2つの3D累積モデルの間の位置合わせを実施することができる。   When the flow reaches step 4105, all frames in all sets are aligned. Step 4105 reports the result of the alignment of method 4100 and any other cleanup operations. For example, ideally method 4100 results in a single 3D cumulative model, but in practice, multiple cumulative models may be created (see the discussion of step 4207 in FIG. 41). When this occurs, step 4105 can report the resulting number of 3D cumulative models to the user or to the next routine for handling. As part of step 4105, the user may have an option to help align multiple 3D models with each other. For example, once two 3D cumulative models have been created, the user can graphically manipulate the 3D cumulative model to help identify item points, which can be used between the two 3D cumulative models. Registration can be performed.

本発明の別の実施形態にしたがって、新しい計算用の項目点として第1の累積位置合わせから結果として得られるマトリクスを使用して、第2の累積位置合わせ処理を実施することができる。1つの実施形態において、単数または複数のフレームが最初の試みでは位置合わせに成功することができない点に処理が遭遇するときには、項目点のより大きな数を使用することができるか、または、点のより高いパーセンテージを使用することができる。   In accordance with another embodiment of the present invention, the second cumulative alignment process can be performed using the resulting matrix from the first cumulative alignment as a new calculation item point. In one embodiment, when processing encounters a point where one or more frames cannot be successfully aligned on the first attempt, a larger number of item points can be used, or Higher percentages can be used.

図40から42は、図39のステップ4104に関連した位置合わせの特定の実施形態を開示する。   40-42 disclose a specific embodiment of the alignment associated with step 4104 of FIG.

ステップ4201は、図38のステップ4002に類似しており、現在のフレームSx(3Dy)の各点(P1…Pm)が分析され、もっとも近い形状である累積モデルの形状を決定する。   Step 4201 is similar to step 4002 of FIG. 38, where each point (P1... Pm) of the current frame Sx (3Dy) is analyzed to determine the shape of the cumulative model that is the closest shape.

ステップ4202は、図38のステップ4003を参照して先に記載されたやり方に類似したやり方で現在のフレームの各点のベクトルを規定する。   Step 4202 defines a vector of points in the current frame in a manner similar to that described above with reference to step 4003 of FIG.

ステップ4203から4206は、図38のステップ4004から4006で記載されたやり方で現在の3Dフレームモデルを動かし、方法4000の第1のモデルは累積モデルであり、方法4000の第2のモデルは現在のフレームである。   Steps 4203 to 4206 move the current 3D frame model in the manner described in steps 4004 to 4006 of FIG. 38, where the first model of method 4000 is a cumulative model and the second model of method 4000 is the current model. It is a frame.

ステップ4299では、位置合わせステップ4202から4206を通る現在の通過が、結果として、累積モデルと現在のフレームモデルとの間に改良された整列配置を生じたか否かが決定される。品質改良を決定する1つの方法は、モデルの現在の位置に基づいた品質値をモデルの先の位置に基づいた品質値に比較することである。図38を参照して先に検討したように、品質値は、標準偏差かまたはDベクトルに基づいた他の品質計算を使用して、決定することができる。デフォルトで、各モデル3Dy用のステップ4202から4206を通る第1の通過が、結果として改良された整列配置になることに注意されたい。改良された整列配置が発生すると、フローはステップ4202へ戻り、そうでなければ、フローは図41のステップ4298へ進む。   In step 4299, it is determined whether the current pass through registration steps 4202 to 4206 resulted in an improved alignment between the cumulative model and the current frame model. One way to determine quality improvement is to compare a quality value based on the current position of the model to a quality value based on the previous position of the model. As discussed above with reference to FIG. 38, the quality value can be determined using standard deviation or other quality calculations based on the D vector. Note that by default, the first pass through steps 4202 to 4206 for each model 3Dy results in an improved alignment. If an improved alignment occurs, flow returns to step 4202, otherwise flow proceeds to step 4298 of FIG.

図40の累積位置合わせ方法用のフロー制御は、図38の単一フレーム位置合わせ方法用のフロー制御とは異なることに注意されたい。具体的には、累積フローは品質の改良が実現されなくなるまで続くが、単一フレームのフローは、ひとたび特定の品質に到達すると、停止する。位置合わせルーチン内でフローを制御する他の実施形態が予期される。   Note that the flow control for the cumulative alignment method of FIG. 40 is different from the flow control for the single frame alignment method of FIG. Specifically, the cumulative flow continues until no quality improvement is realized, but the single frame flow stops once it reaches a certain quality. Other embodiments for controlling flow within the alignment routine are envisioned.

代替フロー制御実施形態において、位置合わせ反復処理は、収束基準が合致される限り、続けられる。たとえば、収束基準は、定率よりも大きい品質の改良が実現される限り、合致されるとみなされる。そのようなパーセンテージは、0.5から10%の範囲内であり得る。   In an alternative flow control embodiment, the registration iteration process continues as long as the convergence criteria are met. For example, the convergence criterion is considered met as long as a quality improvement greater than a fixed rate is achieved. Such a percentage can be in the range of 0.5 to 10%.

別の実施形態において、たとえひとたび収束または品質に改良がない等の特定の第1の基準が合致しても、追加の静止反復を使用することができる。静止反復は、ひとたび品質レベルが改良を停止するかまたは所定の基準に合致した場合に、位置合わせルーチンを通過する。特定の実施において、静止反復の数を固定することができる。たとえば、3から10の追加反復を特定することができる。   In another embodiment, additional stationary iterations can be used once certain first criteria are met, such as once there is no improvement in convergence or quality. The stationary iteration passes the registration routine once the quality level stops improving or meets predetermined criteria. In certain implementations, the number of stationary iterations can be fixed. For example, 3 to 10 additional iterations can be identified.

ステップ4298では、現在の位置合わせが成功か否かが決定される。特定の実施において、成功は単に、現在のモデル配置の計算された品質値が所定の基準に合致するか否かに基づいている。そうであれば、位置合わせは成功であり、ルーチン4200は呼び出しステップへ戻る。基準に合致しなければ、フローはステップ4207へ進む。   In step 4298, it is determined whether the current alignment is successful. In certain implementations, success is simply based on whether the calculated quality value of the current model configuration meets a predetermined criterion. If so, the alignment is successful and routine 4200 returns to the calling step. If the criteria are not met, flow proceeds to step 4207.

ステップ4207では、現在のフレームモデルが累積3Dモデルに成功して位置合わせすることができないことが決定されている。したがって、現在の累積3Dモデルは保存され、現在のフレームを有する新しい累積3Dモデルが開始される。先に記載されたように、新しい3D累積モデルが開始されているため、点モデルである現在の3Dフレームモデルは、呼び出しステップへ戻る前に、初期モデルへ転換される。   In step 4207, it is determined that the current frame model cannot be successfully registered to the cumulative 3D model. Thus, the current cumulative 3D model is saved and a new cumulative 3D model with the current frame is started. As described above, since a new 3D cumulative model has been started, the current 3D frame model, which is a point model, is converted to the initial model before returning to the calling step.

本発明の多くの他の実施形態が存在する。たとえば、ステップ4004、4006、4203及び4205の間のフレームの動きは、加速または過剰運動の構成要素を含んでもよい。たとえば、特定の方向における動きが1mmである必要があると分析によって示すことができる。しかし、計算されているサンプルのサイズまたは他の因子を補償するために、フレームは1.5mmで、または他の何らかのスケールされた因子で、動くことができる。フレームのその後の動きは、類似のまたは異なる加速因子を使用することができる。たとえば、より小さい加速値を、位置合わせ進捗のために使用することができる。加速因子を使用することによって、整列配置する重なり合い特徴部が発生しないときに生じる極小値を補償する助けをする。これが発生するときには、小さな運動値が結果としてより低い品質レベルになりうる。しかし、加速を使用することによって、整列配置ミスを克服することができる可能性が高い。一般に、加速は、特徴部の「でこぼこ」を克服するのに有益であり得る。   There are many other embodiments of the present invention. For example, the frame motion during steps 4004, 4006, 4203, and 4205 may include acceleration or overmotion components. For example, analysis can indicate that the motion in a particular direction needs to be 1 mm. However, the frame can be moved by 1.5 mm or some other scaled factor to compensate for the sample size being calculated or other factors. Subsequent movement of the frame can use similar or different acceleration factors. For example, a smaller acceleration value can be used for alignment progress. By using an acceleration factor, it helps to compensate for the local minima that occur when overlapping features that align are not generated. When this occurs, a small motion value can result in a lower quality level. However, it is likely that alignment errors can be overcome by using acceleration. In general, acceleration can be beneficial in overcoming feature “bumps”.

本願の方法に示される特定のステップ、及び/または、本願の特定のモジュールの機能が一般に、ハードウェア及び/またはソフトウェアで実施されてもよいことを理解すべきである。たとえば、1つまたはそれ以上の処理モジュールで実行されるソフトウェア及び/またはファームウェアを使用して、特定のステップまたは機能が実施されてもよい。   It should be understood that the specific steps shown in the present method and / or the functions of the specific modules of the present application may generally be implemented in hardware and / or software. For example, certain steps or functions may be performed using software and / or firmware executed on one or more processing modules.

典型的には、走査及び/または走査されたデータの位置合わせ用のシステムは、一般的なまたは特定の処理モジュール及びメモリを含む。処理モジュールは、単一の処理装置または複数の処理装置に基づくことができる。そのような処理装置は、マイクロプロセッサ、マイクロコントローラ、デジタルプロセッサ、マイクロコンピュータ、中央演算処理装置の一部、状態機械、論理回路、及び/または、信号を操作するいずれの装置であってもよい。   Typically, a system for scanning and / or alignment of scanned data includes general or specific processing modules and memory. The processing module can be based on a single processing device or multiple processing devices. Such a processing device may be a microprocessor, microcontroller, digital processor, microcomputer, part of a central processing unit, state machine, logic circuit, and / or any device that manipulates signals.

これらの信号の操作は一般に、メモリに表される操作指令に基づく。メモリは、単一のメモリ装置であってもよく、または複数のメモリ装置であってもよい。そのようなメモリ装置(機械読取可能な媒体)は、リードオンリーメモリ、ランダムアクセスメモリ、フロッピーディスク(登録商標)メモリ、磁気テープメモリ、消去可能なメモリ、システムメモリの一部、デジタルフォーマットで操作指令を格納する他のいずれの装置であってもよい。処理モジュールが1つまたはそれ以上の機能を実施するときには、対応する操作指令を格納するメモリが状態機械及び/または他の論理回路を備える回路内に埋め込まれているところで、行われてもよいことに注意されたい。   The operation of these signals is generally based on an operation command represented in a memory. The memory may be a single memory device or a plurality of memory devices. Such memory devices (machine-readable media) are read-only memory, random access memory, floppy disk (R) memory, magnetic tape memory, erasable memory, part of system memory, operating instructions in digital format It may be any other device that stores. When a processing module performs one or more functions, it may be done where the memory storing the corresponding operating instructions is embedded in a circuit comprising a state machine and / or other logic circuits Please be careful.

本発明は、特定の実施形態を参照して記載されてきた。他の実施形態において、3つ以上の位置合わせ処理を使用することができる。たとえば、累積位置合わせ処理が中断して、結果として複数の累積モデルができる場合、その後の位置合わせルーチンを使用して、複数の累積モデルの間の位置合わせを試みることができる。   The invention has been described with reference to specific embodiments. In other embodiments, more than two alignment processes can be used. For example, if the cumulative registration process is interrupted, resulting in multiple cumulative models, a subsequent registration routine can be used to attempt registration between the multiple cumulative models.

図42から50は、ここに記載された特定のやり方で得ることができる解剖学的構造物の三次元走査データを使用して特定の方法及び装置を例示する。三次元走査データは、さらに使用するために、遠隔施設へ発信される。たとえば、三次元走査データは、解剖学的装置を設計するか、解剖学的装置を製造するか、生体組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定期間保存するか、解剖学的構造物の閉鎖ループ反復分析を実施するか、構造物の反復相談を実施するか、構造物に基づいたシミュレーションを実施するか、解剖学的構造物に関する診断を行うか、または、解剖学的構造物に基づいた治療計画を決定するために使用される解剖学的構造物の生体組織を表すことができる。   FIGS. 42 through 50 illustrate certain methods and apparatus using three-dimensional scanning data of anatomical structures that can be obtained in the particular manner described herein. The 3D scan data is transmitted to a remote facility for further use. For example, three-dimensional scanning data is designed for designing an anatomical device, manufacturing an anatomical device, monitoring structural changes in living tissue, or storing data belonging to an anatomical structure for a predetermined period of time. Perform a closed-loop iterative analysis of the anatomical structure, perform a repeated consultation of the structure, perform a structure-based simulation, perform a diagnosis on the anatomical structure, or The anatomical structure anatomy used to determine a treatment plan based on the anatomical structure can be represented.

ここで使用されるように、解剖学的装置は、解剖学的構造物を能動的にまたは受動的に補足するかまたは修正する装置を含むように規定される。解剖学的器具は、歯列矯正器具を含み、これは能動的であっても受動的であってもよく、歯列矯正用ブリッジ、保持器、ブラケット、ワイヤ及び位置決め器等の項目を含むことができるが、これに限定されない。他の解剖学的器具の例として、副子及びステントが挙げられる。歯列矯正及び人工装具の解剖学的装置の例として、取り外し可能な人工装具装置、固定人工装具装置及び移植可能な装置が挙げられる。取り外し可能な人工装具装置の例として、義歯、部分的義歯等の歯科構造物、及び、他の身体部分用の人工装具構造物、たとえば、四肢、眼、美容整形に含まれる移植片、補聴器、及び、眼鏡のフレーム等の類似物を含む人工身体部分として作用する人工装具装置等が挙げられる。固定人工装具装置解剖学的装置の例として、キャップ、歯冠、及び、他の非歯科解剖学的交換構造物が挙げられる。移植可能な人工装具装置の例として、骨内インプラント及び歯列矯正インプラント、及び、破損を保持するか減少するために使用されるプレート等の固定装置が挙げられる。   As used herein, anatomical devices are defined to include devices that actively or passively supplement or modify anatomical structures. Anatomical instruments include orthodontic instruments, which may be active or passive, and include items such as orthodontic bridges, retainers, brackets, wires and positioners However, it is not limited to this. Examples of other anatomical instruments include splints and stents. Examples of orthodontic and prosthetic anatomical devices include removable prosthetic devices, fixed prosthetic devices, and implantable devices. Examples of removable prosthetic devices include dental structures such as dentures, partial dentures, and other body part prosthetic structures such as extremities, eyes, implants included in cosmetic surgery, hearing aids, And a prosthetic device that acts as an artificial body part including analogs such as a frame of glasses. Examples of fixed prosthetic device anatomical devices include caps, crowns, and other non-dental anatomical replacement structures. Examples of implantable prosthetic devices include intraosseous and orthodontic implants and fixation devices such as plates used to hold or reduce breakage.

図42は、本発明にしたがったフローを例示する。具体的には、図42は、施設4441で走査装置4401によって解剖学的構造物4400を走査するのを例示する。本発明の1つの態様にしたがって、ここに提案された目的のためにデジタルデータを作製することができるいずれのスキャナタイプまたは方法を使用することができる。直接三次元表面走査は、解剖学的構造物のいくつかまたはすべてを、直接走査することができることを示す。直接三次元表面走査を実施する1つの実施形態は、ここに先に記載されている。1つの実施形態において、走査は表面走査であり、それによって走査装置4401は、信号及び/または構造物4400の表面でまたはその近傍でそれから反射したパターンを検出する。特定の表面走査方法及び装置は、ここに先に記載されている。他の走査方法も使用することができる。   FIG. 42 illustrates a flow according to the present invention. Specifically, FIG. 42 illustrates scanning an anatomical structure 4400 with a scanning device 4401 at a facility 4441. In accordance with one aspect of the present invention, any scanner type or method that can produce digital data for the purposes proposed herein can be used. Direct three-dimensional surface scanning indicates that some or all of the anatomical structures can be scanned directly. One embodiment for performing direct three-dimensional surface scanning has been described previously herein. In one embodiment, the scan is a surface scan, whereby the scanning device 4401 detects signals and / or patterns reflected therefrom at or near the surface of the structure 4400. Specific surface scanning methods and apparatus have been previously described herein. Other scanning methods can also be used.

一般に、解剖学的構造物の表面走査は、解剖学的構造物の直接走査である。直接走査は、実際の解剖学的構造物を走査することを意味する(生体内)。代替実施形態において、解剖学的構造物の間接走査を行うこともでき、直接走査と統合することもできる。間接走査は、実際の元々の解剖学的構造物の表示を走査することを意味する(生体外)。   In general, a surface scan of an anatomical structure is a direct scan of the anatomical structure. Direct scanning means scanning the actual anatomy (in vivo). In an alternative embodiment, an indirect scan of the anatomy can be performed and can be integrated with the direct scan. Indirect scanning means scanning the display of the actual original anatomical structure (in vitro).

デジタルデータ4405は、解剖学的構造物4400の直接走査に基づいて施設(場所)4441で作製される。1つの実施形態において、デジタルデータ4405は、未加工の走査データを表し、これは一般に、走査装置4401によって作製された、点の二次元クラウドである。別の実施形態において、デジタルデータ4405は三次元点モデルを表し、これは一般に、点の二次元クラウドに基づいて作製される。さらに別の実施形態において、デジタルデータ4405は三次元初期モデルを表す。デジタルデータ4405は複数の独立した走査の複合であってもよく、これは、時間的にほぼ同一の点または異なる点で実施されてもよく、且つ、同一の場所または異なる場所で実施されてもよい。   Digital data 4405 is generated at a facility 4441 based on a direct scan of the anatomical structure 4400. In one embodiment, the digital data 4405 represents raw scan data, which is typically a two-dimensional cloud of points created by a scanning device 4401. In another embodiment, the digital data 4405 represents a three-dimensional point model, which is typically created based on a two-dimensional cloud of points. In yet another embodiment, the digital data 4405 represents a three-dimensional initial model. The digital data 4405 may be a composite of multiple independent scans, which may be performed at approximately the same or different points in time and may be performed at the same or different locations. Good.

デジタルデータ4405の実際のデータの種類は、場所4441で未加工の走査データになされた処理の量によって決定される。一般に、スキャナ4401から直接受け取られたデータは、点の二次元クラウドである。したがって、施設4441で何の処理も実施されないときには、デジタルデータ4405は点の二次元クラウドである。三次元点モデル及び三次元初期モデルは一般に、二次元点クラウドをさらに処理することによって作製される。   The actual data type of the digital data 4405 is determined by the amount of processing performed on the raw scan data at location 4441. In general, the data received directly from the scanner 4401 is a two-dimensional cloud of points. Thus, when no processing is performed at the facility 4441, the digital data 4405 is a two-dimensional cloud of points. The 3D point model and the 3D initial model are generally created by further processing the 2D point cloud.

施設4441は、解剖学的構造物の物理的走査が発生する場所を表す。1つの実施形態において、施設4441は、解剖学的構造物を走査するのに専用の、または主に専用の場所である。この実施形態において、施設は、走査を必要とする大勢のクライアント(患者)が容易にアクセスすることができるところに位置する。たとえば、ショッピングモールのボックスまたは小規模ショッピングセンターの場所が、走査を実施するために専用であり得る。そのような施設は、広く様々な走査を実施してもよく、または、顔構造物または歯構造物の走査等の特定の種類の走査に特化されてもよい。代替実施形態において、走査は、ユーザが家庭で実施することができる。たとえば、ユーザには、携帯スキャナを提供することができ、解剖学的構造物を走査するのに遠隔使用して治療計画の進捗をモニタするために使用することができる走査データを作製するためか、または診断目的か、または、調査またはモニタ目的かである。   Facility 4441 represents the location where a physical scan of the anatomical structure occurs. In one embodiment, the facility 4441 is a dedicated or primarily dedicated location for scanning anatomical structures. In this embodiment, the facility is located where a large number of clients (patients) in need of scanning can easily access. For example, a shopping mall box or a small shopping center location may be dedicated to perform the scan. Such facilities may perform a wide variety of scans, or may be specialized for specific types of scans, such as scans of facial or dental structures. In an alternative embodiment, the scan can be performed by the user at home. For example, a user can be provided with a portable scanner to create scan data that can be used remotely to scan the anatomy and used to monitor the progress of the treatment plan. Or for diagnostic or monitoring or monitoring purposes.

別の実施形態において、施設4441は、解剖学的構造物を走査し、デジタルデータ4405を作製することに関する、他の付加価値のあるサービスを実施する場所である。他の付加価値のあるサービスの例として、デジタルデータ4405を作製するために走査データに基づいて解剖学的装置を設計するかまたは部分的に設計すること、または、そのような解剖学的装置を設置することが挙げられる。1つの実施形態において、デジタルデータ4405の作製を超えた付加価値サービスは施設4441で実施されない。   In another embodiment, the facility 4441 is a place to perform other value-added services related to scanning anatomical structures and creating digital data 4405. Examples of other value-added services include designing or partially designing an anatomical device based on scan data to produce digital data 4405, or such an anatomical device It is mentioned to install. In one embodiment, value added services beyond the creation of digital data 4405 are not performed at the facility 4441.

ひとたびデジタルデータ4405が施設4441で作製されると、デジタルデータをクライアントに提供することができる。接続4406は第三者へ提供されているデジタルデータを表す。提供するこのステップは、クライアントによって、施設4441によって、または、他のいずれの中間源によって、行うことができる。一般に、クライアントは、データが送られるべき第三者を特定する。デジタルデータ4405は、物理的にすなわち郵便またはクーリエによって、または、遠隔的にすなわち通信によって、施設4442へ提供することができる。たとえば、デジタルデータ4405は、不揮発性の格納装置、たとえば、携帯磁気媒体、リードオンリーフューズ装置またはプログラム可能な不揮発性装置に、物理的に設けることができる。他の実施形態において、デジタルデータは、直接接続、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、ワイヤレス接続、及び/または、デジタル情報を1つの計算システムから別の計算システムへ移送することができるいずれの装置によって、クライアントまたは第三者へ送信することができる。特定の実施形態において、デジタルデータのすべてまたはいくらかを発信する必要がある。たとえば、走査が患者の歯及び関連構造物、たとえば歯肉等の場合、歯の一部が発信される。   Once digital data 4405 is created at facility 4441, the digital data can be provided to the client. Connection 4406 represents digital data being provided to a third party. This step of providing may be performed by the client, by the facility 4441, or by any other intermediate source. In general, the client identifies a third party to which data should be sent. The digital data 4405 can be provided to the facility 4442 physically, ie by mail or courier, or remotely, ie by communication. For example, the digital data 4405 can be physically provided on a non-volatile storage device, such as a portable magnetic medium, a read-only fuse device, or a programmable non-volatile device. In other embodiments, the digital data can be a direct connection, the Internet, a local area network, a wide area network, a wireless connection, and / or any digital information that can be transferred from one computing system to another. Depending on the device, it can be sent to a client or a third party. In certain embodiments, all or some of the digital data needs to be transmitted. For example, if the scan is a patient's teeth and related structures, such as gingiva, a portion of the tooth is transmitted.

図42の特定の実施形態において、施設4442(受取施設)で受け取られたデジタルデータ4405を使用して、ステップ4415で解剖学的装置を設計する。図43は、ステップ4415の2つの代替実施形態を有する方法を例示する。第1の実施形態は、ステップ4501で開始し、物理的モデルを使用して解剖学的構造物を設計し、一方、第2の実施形態は、ステップ4511で開始し、解剖学的装置の仮想モデルを使用する構造物を設計する。解剖学的装置の仮想モデルは一般に、コンピュータが作製した仮想のモデルである。   In the particular embodiment of FIG. 42, digital data 4405 received at facility 4442 (receiving facility) is used to design an anatomical device at step 4415. FIG. 43 illustrates a method having two alternative embodiments of step 4415. The first embodiment starts at step 4501 and designs an anatomical structure using a physical model, while the second embodiment starts at step 4511 and starts a virtual anatomical device. Design structures that use the model. A virtual model of an anatomical device is generally a virtual model created by a computer.

ステップ4501では、デジタルデータ4405を使用して、解剖学的構造物の物理的な三次元物理的モデルの作製が発生する。特定の実施形態において、走査された物体の物理的モデルは、数値的に制御された処理技術、たとえば、三次元プリンティング、自動化フライス削り、レーザ焼結、立体リソグラフィ、射出成形及び押出成形を使用して作製される。   In step 4501, digital data 4405 is used to generate a physical three-dimensional physical model of the anatomical structure. In certain embodiments, the physical model of the scanned object uses numerically controlled processing techniques such as three-dimensional printing, automated milling, laser sintering, stereolithography, injection molding and extrusion. Produced.

ステップ4502では、三次元物理的モデルを使用して解剖学的装置を設計する。たとえば、物理的モデルを使用して、医者は、クライアントによって使用される解剖学的装置を作製する。1つの実施形態において、解剖学的装置は、物理的モデルに基づいてカスタム設計される。別の実施形態において、解剖学的構造物の物理的モデルに基づいて標準歯列矯正装置が選択される。これらの標準装置は、必要に応じて修正されてもよく、セミカスタム装置を形成する。   In step 4502, an anatomical device is designed using a three-dimensional physical model. For example, using a physical model, a doctor creates an anatomical device for use by a client. In one embodiment, the anatomical device is custom designed based on a physical model. In another embodiment, a standard orthodontic device is selected based on a physical model of the anatomical structure. These standard devices may be modified as needed to form a semi-custom device.

図43のステップ4503では、解剖学的装置の製造は物理的モデルに基づくことができる。物理的モデルが使用される場合には、設計するステップ4502及び製造するステップ4503は、設計及び製造処理が同時に発生しているステップであることが多い。他の実施形態において、所望の解剖学的装置の成型品または仕様書が作られ、カスタム設計及び/または製造のために、処理センターへ送られる。   In step 4503 of FIG. 43, the manufacture of the anatomical device can be based on a physical model. If a physical model is used, the designing step 4502 and the manufacturing step 4503 are often steps in which the design and manufacturing processes occur simultaneously. In other embodiments, a molding or specification of the desired anatomical device is created and sent to a processing center for custom design and / or manufacturing.

ステップ4511で開始する代替実施形態において、解剖学的装置の仮想三次元モデルを使用して、解剖学的装置を設計する。仮想三次元モデルは、数値的に制御される装置、たとえばコンピュータによって作製されたモデルを意味し、デジタルデータ4405を含むかまたはデジタルデータ4405に基づいて作製されるかのいずれかである。1つの実施形態において、仮想三次元モデルは、設計センターへ提供されるデジタルデータ4405の部分として含まれる。別の実施形態において、三次元モデルがデジタルデータを使用して作製され、ステップ4511で受け取られる。別の実施形態において、代替三次元モデルが、デジタルデータ4405の部分として含まれる三次元モデルに基づいて、ステップ4511で作製される。別の実施形態において、複数の三次元モデルを複数の走査から一緒にとじることができる。たとえば、複数の走査セッションからのデータを使用することができる。   In an alternative embodiment starting at step 4511, the anatomical device is designed using a virtual three-dimensional model of the anatomical device. A virtual three-dimensional model refers to a model that is created by a numerically controlled device, such as a computer, that either contains digital data 4405 or is created based on digital data 4405. In one embodiment, the virtual 3D model is included as part of the digital data 4405 provided to the design center. In another embodiment, a three-dimensional model is created using digital data and received at step 4511. In another embodiment, an alternative 3D model is created at step 4511 based on the 3D model included as part of the digital data 4405. In another embodiment, multiple 3D models can be bound together from multiple scans. For example, data from multiple scan sessions can be used.

さらに、ステップ4511では、仮想解剖学的装置が仮想三次元モデルを使用して設計(モデル化)される。仮想装置は、仮想装置を特定するための標準のまたはカスタム設計ソフトウェアを使用して設計することができる。そのような設計ソフトウェアの例として、市販の製品、たとえば、AutoCAD、Alias、Inc及びProEngineerが挙げられる。たとえば、設計ソフトウェアを使用して、解剖学的構造物の三次元仮想モデルを使用する仮想歯冠を設計することができるか、または、実際の装置を表す装置のライブラリから、カスタムに近いか標準かまたは仮想の装置を選択することができる。標準装置を選択することに続いて、カスタム化を行うことができる。   Further, in step 4511, a virtual anatomical device is designed (modeled) using a virtual three-dimensional model. Virtual devices can be designed using standard or custom design software to identify virtual devices. Examples of such design software include commercially available products such as AutoCAD, Alias, Inc, and ProEngineer. For example, design software can be used to design a virtual crown using a three-dimensional virtual model of an anatomical structure, or from a library of devices that represent real devices, close to custom or standard Or a virtual device can be selected. Following selection of a standard device, customization can be performed.

ステップ4512では、解剖学的装置が、装置の仮想仕様に基づいて直接製造することができる。たとえば、解剖学的装置は、数値的に制御された処理技術、たとえば、三次元プリンティング、自動化フライス削り、または、レーザ焼結、立体リソグラフィ、及び、射出成形及び押出成形、及び、注型技術を使用して、作製することができる。解剖学的装置の製造は、装置を部分的に製造すること、及び、複数の場所で装置を製造することを含むことが認識される。   In step 4512, the anatomical device can be manufactured directly based on the virtual specification of the device. For example, anatomical equipment uses numerically controlled processing techniques such as three-dimensional printing, automated milling, or laser sintering, stereolithography, and injection and extrusion, and casting techniques. And can be made. It will be appreciated that manufacturing an anatomical device includes partially manufacturing the device and manufacturing the device at multiple locations.

ステップ4426では、製造された解剖学的装置が走査される。製造された解剖学的装置の仮想モデルを作製することによって、製造された解剖学的装置と解剖学的構造物との間の関係を検証するためにシミュレーションを実施することができ、それによって、閉鎖ループを提供して、装置の適切な製造を保証する。   In step 4426, the manufactured anatomical device is scanned. By creating a virtual model of the manufactured anatomical device, a simulation can be performed to verify the relationship between the manufactured anatomical device and the anatomical structure, thereby A closed loop is provided to ensure proper manufacture of the device.

ステップ4504では、完成した解剖学的装置が、設置のため特定の場所へ送られる。たとえば、図42へ戻ると、解剖学的装置は施設4444へ送られ、そこで、ステップ4435で設置が発生する。1つの実施形態において、解剖学的装置はステップ4435で、医者、たとえば、歯科医、歯列矯正医、内科医または療法士によって設置される。別の実施形態では、患者が、いくつかの歯列矯正装置、たとえば、保持器または類似の位置決め装置を設置することができる。   In step 4504, the completed anatomical device is sent to a specific location for installation. For example, returning to FIG. 42, the anatomical device is sent to the facility 4444 where installation occurs at step 4435. In one embodiment, the anatomical device is installed at step 4435 by a doctor, eg, a dentist, orthodontist, physician or therapist. In another embodiment, the patient can install several orthodontic devices, such as a retainer or similar positioning device.

本発明の特定の実施形態にしたがって、解剖学的装置は、デジタルデータ4405が受け取られるかまたは作製されるところに対して遠隔な場所で、設計されるかまたは製造される。1つの実施形態において、デジタルデータは場所4441で受け取られる。具体的には、デジタルデータは、解剖学的構造物4400を走査することによって受け取られる。ひとたび受け取られると、デジタルデータは場所4442へ発信され、これは場所4441に対して遠隔地であり、そこで解剖学的装置が少なくとも部分的に設計される。   In accordance with certain embodiments of the present invention, the anatomical device is designed or manufactured at a location remote from where the digital data 4405 is received or created. In one embodiment, digital data is received at location 4441. Specifically, the digital data is received by scanning the anatomical structure 4400. Once received, the digital data is transmitted to location 4442, which is remote to location 4441, where the anatomical device is at least partially designed.

遠隔地(施設)は、何らかのやり方で他の場所から引き離されたところである。たとえば、遠隔地は、他の場所から物理的に離れた場所であってもよい。たとえば、走査施設は、異なった部屋、建物、都市、州、国または他の場所内にあってもよい。別の実施形態において、遠隔地は、機能的に独立した場所であり得る。たとえば、一方の場所は、1つの特定の機能または機能のセットを実施するために使用することができ、他方、別の場所は、異なる機能を実施するために使用することができる。異なる機能の例として、走査、設計及び製造が挙げられる。遠隔地は一般に、人員及び設備等の別個の構造基盤によって支持される。   The remote location (facility) has just been separated from the other location in some way. For example, the remote location may be a location physically separated from other locations. For example, the scanning facility may be in a different room, building, city, state, country or other location. In another embodiment, the remote location may be a functionally independent location. For example, one location can be used to perform one particular function or set of functions, while another location can be used to perform different functions. Examples of different functions include scanning, design and manufacturing. Remote locations are generally supported by separate structural infrastructure such as personnel and equipment.

別の実施形態において、施設4441でデジタルデータ4405は、部分的に設計された解剖学的装置を含む。解剖学的装置は、遠隔施設4442でさらに設計される。施設4442は、最終解剖学的装置を決定するか、診断を行うか、治療計画を形成するか、進捗をモニタするか、または、コスト、専門的知識、通信の容易さ及び必要な応答時間に基づいて装置を設計するかのために、平行してまたは連続して使用することができる1つまたはそれ以上の遠隔施設を表すことができることに注意されたい。平行施設の例は、図46にさらに例示される。   In another embodiment, the digital data 4405 at the facility 4441 includes a partially designed anatomical device. The anatomical device is further designed at a remote facility 4442. Facility 4442 can determine the final anatomical device, make a diagnosis, form a treatment plan, monitor progress, or at cost, expertise, ease of communication and required response time. Note that one or more remote facilities can be represented that can be used in parallel or sequentially for designing the devices based. An example of a parallel facility is further illustrated in FIG.

図44は、本発明の別の実施形態を例示する。図44のフローは、図42のフローに類似しており、追加中間ステップ4615を有する。中間ステップ4615は、デジタルデータ4405が、データが走査された施設4441から直接受け取られる必要はないことを示す。たとえば、デジタルデータを走査し、これを、中間ステップ4615が発生する第2の施設4641(受取施設)へ提供することによって、デジタルデータ4405を第1の施設(送出施設)で作製することができる。ひとたび中間ステップ4615が完了すると、デジタルデータ4405またはデジタルデータの表示である修正されたデジタルデータを、第1及び第2の施設の少なくとも一方に対して遠隔である第3の施設(遠隔施設)へ発信することができる。中間ステップ4615中に、データが第3の施設へ送られる前に、他のステップがデジタルデータ4405を修正することができる。たとえば、走査データを処理して解剖学的構造物の三次元仮想モデルを提供することができ、データをデジタルデータに加えることができ、走査された解剖学的構造物4400の画像データ、色情報、診断情報、治療情報を含むビデオ及び/または写真データ、音声データ、テキストデータ、X線データ、解剖学的装置設計情報、及び、解剖学的装置の設計または製造に属する他のいずれのデータを含む。代替実施形態において、中間ステップ4615はデジタルデータ4405を変える必要はない。   FIG. 44 illustrates another embodiment of the present invention. The flow of FIG. 44 is similar to the flow of FIG. 42 with an additional intermediate step 4615. Intermediate step 4615 indicates that digital data 4405 need not be received directly from the facility 4441 from which the data was scanned. For example, the digital data 4405 can be generated at the first facility (sending facility) by scanning the digital data and providing it to a second facility 4641 (receiving facility) where the intermediate step 4615 occurs. . Once the intermediate step 4615 is complete, the digital data 4405 or the modified digital data that is a representation of the digital data is transferred to a third facility (remote facility) that is remote to at least one of the first and second facilities. You can make a call. During intermediate step 4615, other steps can modify the digital data 4405 before the data is sent to the third facility. For example, the scanned data can be processed to provide a three-dimensional virtual model of the anatomical structure, the data can be added to the digital data, and the scanned anatomical structure 4400 image data, color information Video and / or photo data including diagnostic information, treatment information, audio data, text data, X-ray data, anatomical device design information, and any other data belonging to the design or manufacture of anatomical devices Including. In an alternative embodiment, intermediate step 4615 need not change digital data 4405.

図45は、ステップ4741で法医学的評価のために施設4742でデジタルデータ4405が受け取られる本発明の代替実施形態を例示する。法医学的評価の例として、走査された解剖学的構造物に基づいた犠牲者の識別が挙げられる。そのような識別は一般に、特定の解剖学的構造物を目標データベース内に含まれる解剖学的構造物に整合することに基づいて行われ、目標データベースは単一の構造物、複数の構造物を含むことができる。1つの実施形態において、目標データベースは、所定期間保存されたデータを含む中央に位置するデータベースであってもよい。   FIG. 45 illustrates an alternative embodiment of the invention in which digital data 4405 is received at facility 4742 for forensic evaluation at step 4741. An example of forensic assessment is victim identification based on scanned anatomical structures. Such identification is generally based on matching a particular anatomical structure to an anatomical structure contained in the target database, which is a single structure, multiple structures. Can be included. In one embodiment, the target database may be a centrally located database that includes data stored for a predetermined period of time.

図46は、デジタルデータ4405またはその表示が、ステップ4844及び4845で診断目的または治療計画のために、1つまたはそれ以上の遠隔施設4843へ送られる本発明の実施形態を例示する。診断目的のためにデータを発信することができることによって、患者が物理的に存在する必要なしで、専門家等の他の医者へ、解剖学的構造物の三次元情報を提供することができる。これができることによって、治療の全体的速度及び便利さ、及び、複数の診断を平行して行うことができるときの正確度を改良する。治療計画及び診断的のためにデジタルデータ4405またはその表示を複数の施設へ送ることができることによって、複数の意見を得ることができる。ひとたび特定の治療計画を選択すると、治療計画の部分として特定された装置のいずれの1つを、製造するために選択することができる。   FIG. 46 illustrates an embodiment of the invention in which digital data 4405 or its display is sent to one or more remote facilities 4843 for diagnostic purposes or treatment planning in steps 4844 and 4845. Being able to transmit data for diagnostic purposes can provide three-dimensional information of anatomical structures to other doctors such as specialists without the need for the patient to be physically present. This ability improves the overall speed and convenience of the treatment and the accuracy with which multiple diagnoses can be made in parallel. Multiple opinions can be obtained by allowing digital data 4405 or its display to be sent to multiple facilities for treatment planning and diagnostics. Once a particular treatment plan is selected, any one of the devices identified as part of the treatment plan can be selected for manufacturing.

図46の特定の実施において、施設の各々から見積価格を得ることができる。見積価格は、取引相手によって特定された特定の治療に基づくことができ、治療は解剖学的構造物に関する。あるいは、見積価格は、取引相手によって特定された所望の結果に基づくことができ、治療定義及びその関連実施コストは、見積を提供する施設によって決定される。このようにして、患者または患者の代理人が効果的なやり方で競争入札を得ることができる。   In the particular implementation of FIG. 46, an estimated price can be obtained from each of the facilities. The quoted price can be based on a specific treatment identified by the trading partner, where the treatment relates to the anatomical structure. Alternatively, the quoted price can be based on the desired result specified by the trading partner, and the treatment definition and its associated implementation costs are determined by the facility providing the quote. In this way, the patient or patient representative can get a competitive bid in an effective manner.

図47は、本発明の代替実施形態を例示し、デジタルデータ4405またはその表示は、施設4942で受け取られ、そのためデータは、教育的目的のためにステップ4941で使用することができる。ここに記載された実施形態の決定論的性質のために、以前の方法を使用しては可能ではない標準化方法で教育的技術を実施することができる。教育的目的の例として、自己学習目的、教育モニタリング目的、及び、以前には可能ではなかった標準化適用検査を提供することができることが挙げられる。さらに、特定の患者のケースファクトを、他の患者の先のまたは現在の症病録へ整合させることができ、症病録は格納されているかまたは所定期間保存されている。   FIG. 47 illustrates an alternative embodiment of the present invention, where digital data 4405 or its display is received at a facility 4942 so that the data can be used at step 4941 for educational purposes. Because of the deterministic nature of the embodiments described herein, educational techniques can be implemented in a standardized manner that is not possible using previous methods. Examples of educational objectives include being able to provide self-learning objectives, educational monitoring objectives, and standardized application tests that were not previously possible. In addition, a particular patient's case facts can be matched to other patients' previous or current symptom records, where the symptom records are stored or stored for a predetermined period of time.

図48は、走査データをステップ5001で所定期間保存することができる実施形態を例示し、これは、認可された者によって容易に検索されるように場所5002で発生する。特定の実施形態において、そのような所定期間保存は、サービスとして提供され、それによってそのデータは共通して維持され、それによって、デジタルデータの共通サイトの独立した「黄金律」コピーを得ることができる。   FIG. 48 illustrates an embodiment in which scan data can be stored for a predetermined period of time at step 5001, which occurs at location 5002 for easy retrieval by an authorized person. In certain embodiments, such pre-determined retention is provided as a service, whereby the data is maintained in common, thereby obtaining an independent “golden rule” copy of a common site of digital data. it can.

図49は、解剖学的構造物を走査することによって得られたデジタルデータが閉鎖ループ反復システムに使用される本発明の特定の実施形態を例示する。図49のフローもインタラクティブ的である。具体的には、解剖学的構造物の変化が、故意であれ故意ではないのであれ、モニタされ閉鎖ループシステムの部分として制御されることが可能である。走査データが三次元空間で測定可能であり、それによって、三次元モデルの形態の標準参照を分析のために使用することができるため、本発明にしたがった閉鎖ループシステムは決定論的である。   FIG. 49 illustrates a particular embodiment of the present invention in which digital data obtained by scanning an anatomical structure is used in a closed loop iterative system. The flow of FIG. 49 is also interactive. In particular, changes in anatomical structures, whether intentional or unintentional, can be monitored and controlled as part of a closed loop system. A closed-loop system according to the present invention is deterministic because the scan data can be measured in three-dimensional space, whereby a standard reference in the form of a three-dimensional model can be used for analysis.

ステップ5101では、解剖学的装置の三次元走査データが得られる。   In step 5101, three-dimensional scan data of the anatomical device is obtained.

ステップ5102では、ステップ5001の走査からデータが、またはデータの表示が、遠隔施設へ発信される。   In step 5102, data or a display of data from the scan of step 5001 is transmitted to the remote facility.

ステップ5103では、発信されたデータの設計/評価が実施される。たとえば、治療計画、診断及び解剖学的装置用の設計が、ステップ5103を含むループを通る第1の通過の間に決定される。ステップ5103を通るその次の通過の間に、治療または装置の状態または進捗がモニタされ、必要に応じて変更が行われる。1つの実施形態において、モニタリングは、シミュレートされた予想される結果か先のヒストリーかまたは整合した症病録に対して、現在の走査データを比較することによって実施される。   In step 5103, the transmitted data is designed / evaluated. For example, the design for the treatment plan, diagnosis and anatomical device is determined during the first pass through the loop including step 5103. During the next pass through step 5103, the status or progress of the treatment or device is monitored and changes are made as necessary. In one embodiment, monitoring is performed by comparing current scan data against simulated expected results or prior history or a matched symptom record.

ステップ5104では、装置または治療計画が、実施されるかまたは適切に設置される。装置のいずれの製造も、ステップ5104の部分として実施される。   In step 5104, the device or treatment plan is implemented or properly installed. Any manufacturing of the device is performed as part of step 5104.

図48の閉鎖ループシステムの追加通過が、ステップ5105で必要か否かが決定される。必要であれば、フローはステップ5101へ進む。必要でなければ、フローは終結する。図49を参照して検討したように、閉鎖ループフィードバックループは、図48に例示されたいずれのステップの間に存在することができる。   It is determined in step 5105 whether an additional pass through the closed loop system of FIG. If necessary, flow proceeds to step 5101. If not necessary, the flow ends. As discussed with reference to FIG. 49, a closed loop feedback loop can exist during any of the steps illustrated in FIG.

進捗を検証するためにフィードバックを使用することができることは、医者が、テキストノート、モデルの視覚観察及び他の画像の1つまたはそれ以上に依存した先行技術に対する利点である。しかし、同一の視点で見られていることを医者が保証することができる固定三次元モデルなしで、これらの観察は行われた。ここに記載されたビジュアルモデルを使用することによって、固定した参照を得ることができる。たとえば、歯列矯正構造物用の固定された参照点を得る1つの方法は、歯列矯正構造物の物理的特質に基づいて配向参照点を選択することを含む。配向参照点をその後に使用して、歯列矯正構造物のデジタル画像を三次元座標システムにマッピングすることができる。たとえば、小帯を配向参照点の1つとして選択することができ、皺を他方の配向参照点として選択することができる。小帯は、歯列矯正患者の固定された点であり、治療中に変化しないかまたは変化しても最小である。小帯は、上部アーチの歯肉の上部部分の三角形形状の組織である。皺は、上部アーチの口蓋68にある腔である。皺も、治療中にその物理的位置を変化しない。そのようであるため、小帯及び皺は、治療中に変化しない歯列矯正患者の固定された点である。そのようであるため、これらを配向参照点として使用することによって、三次元座標システムをマッピングすることができる。切歯乳頭、口唇裂、瞳孔間中間点、交運間中間点(たとえば唇の間)、翼間中間点(たとえば鼻の側部の間)、鼻臥(たとえば鼻の先端)、鼻下(たとえば鼻との唇との接合部)、歯中線点、骨上の点、インプラント等の固定骨マーカー(たとえば、歯根管治療、口腔外科からのねじ)を含む歯列矯正患者の他の物理的特質も配向参照点として使用することに注意されたい。   The ability to use feedback to verify progress is an advantage over the prior art where doctors rely on one or more of text notes, visual observation of models, and other images. However, these observations were made without a fixed three-dimensional model that the doctor could assure that they were viewed from the same perspective. By using the visual model described here, a fixed reference can be obtained. For example, one method of obtaining a fixed reference point for an orthodontic structure includes selecting an orientation reference point based on the physical characteristics of the orthodontic structure. The orientation reference point can then be used to map a digital image of the orthodontic structure to the three-dimensional coordinate system. For example, the zonule can be selected as one of the orientation reference points, and the eyelid can be selected as the other orientation reference point. A zonule is a fixed point in an orthodontic patient and does not change or is minimal when changing during treatment. The zonule is the triangular shaped tissue of the upper part of the upper arch gingiva. The heel is a cavity in the palate 68 of the upper arch. Acupuncture also does not change its physical position during treatment. As such, zonules and wrinkles are fixed points in orthodontic patients that do not change during treatment. As such, a 3D coordinate system can be mapped by using these as orientation reference points. Incisor papilla, cleft lip, interpupillary midpoint, intercarriage midpoint (eg between lips), wing midpoint (eg between nose sides), nasal fin (eg nose tip), subnasal (eg Other physical parts of orthodontic patients including nose and lip joints), midline points, points on bones, fixed bone markers such as implants (eg root canal treatment, screws from oral surgery) Note that attributes are also used as orientation reference points.

図50は、ここに例示されたステップのいずれの組み合わせ内及びその間で反復フィードバックステップが起こることができることを例示する。たとえば、インタラクティブ及び/またはインタラクティブループが、製造ステップ4425と設計ステップ4415との間に、または、図42のステップ4426を参照して記載された単一ステップ内にあってもよい。   FIG. 50 illustrates that iterative feedback steps can occur within and between any combination of the steps illustrated herein. For example, the interactive and / or interactive loop may be in a single step described between the manufacturing step 4425 and the design step 4415 or with reference to step 4426 of FIG.

本願のステップに導出された走査されたデータを使用する多くの方法に加えて、データの使用に助成する多くの方法が可能である。たとえば、そのような走査データ4405を使用する料金は、データの使用か、提供されるサービスのコストか、作製されている解剖学的装置か、またはデータに基づいて装置またはサービスに加えられた値か、に基づいて固定されたまたは変動の料金であってもよい。加えて、他の多くの種類の料金が想像可能であることは明らかである。   In addition to the many methods that use the scanned data derived in the present application step, many methods are possible to assist in the use of the data. For example, the fee for using such scan data 4405 is the use of the data, the cost of the service provided, the anatomical device being made, or the value added to the device or service based on the data Or may be a fixed or variable charge based on. In addition, it is clear that many other types of charges are imaginable.

ここに記載のステップ及び方法は、処理モジュール(図示せず)で実行されてもよい。処理モジュールは、単一の処理装置であっても複数の処理装置であってもよい。そのような処理モジュールは、マイクロプロセッサ、マイクロコンピュータ、デジタルシグナルプロセッサ、コンピュータまたはワークステーションの中央演算処理装置、デジタル回路、状態機械、及び/または、操作指令に基づいて信号(たとえば、アナログ及び/またはデジタル)を操作するいずれの装置であってもよい。処理モジュールの操作は一般に、メモリに格納されたデータによって制御される。たとえば、マイクロプロセッサが使用される場合には、マイクロプロセッサのバスがメモリのバスに接続されて指令にアクセスする。メモリの例として、単一または複数のメモリ装置、たとえば、ランダムアクセスメモリ、リードオンリーメモリ、フロッピーディスク(登録商標)メモリ、ハードドライブメモリ、拡張メモリ、磁気テープメモリ、ジップドライブメモリ、及び/または、デジタル情報を格納するいずれの装置が挙げられる。そのようなメモリ装置は、ローカル(すなわち、処理装置に直接接続される)であってもよく、または、物理的に異なる場所(すなわち、インターネットに接続されるサイト)であってもよい。処理モジュールが、状態機械または論理回路を経由して、1つまたはそれ以上の機能を実施するときには、対応する操作指令を格納するメモリが状態機械または論理回路を備える回路内に埋め込まれていることに注意されたい。   The steps and methods described herein may be performed by a processing module (not shown). The processing module may be a single processing device or a plurality of processing devices. Such processing modules may be microprocessors, microcomputers, digital signal processors, central processing units of computers or workstations, digital circuits, state machines, and / or signals based on operational commands (eg, analog and / or Any device that operates (digital) may be used. The operation of the processing module is generally controlled by data stored in memory. For example, if a microprocessor is used, the microprocessor bus is connected to the memory bus to access commands. Examples of memory include single or multiple memory devices, such as random access memory, read only memory, floppy disk memory, hard drive memory, expansion memory, magnetic tape memory, zip drive memory, and / or Any device that stores digital information can be mentioned. Such a memory device may be local (ie, directly connected to the processing device) or may be physically different (ie, a site connected to the Internet). When a processing module performs one or more functions via a state machine or logic circuit, the memory storing the corresponding operation command is embedded in the circuit comprising the state machine or logic circuit Please be careful.

ここに記載の特定の実施形態は、公知の技術に対して利点を提供することを当業者は理解する。たとえば、走査されている解剖学的構造物は、1つまたはそれ以上の関連解剖学的装置または器具を有してもよい。加えて、本発明は、診断し、治療し、モニタし、設計し且つ解剖学的装置を製造するための決定論的方法を提供する。加えて、本実施形態を使用して、人工装具を設計し製造する様々な当事者間で通信を行うためのインタラクティブな方法を提供することができる。そのようなインタラクティブな方法は、リアルタイムで実施することができる。ここに記載された方法によって、他者が、他者の経験から得られた実際の情報及び知識を得ることができるようなやり方で、データを所定期間保存することができる。複数の相談者が、場所に関係なく情報の同一の決定論的コピーにアクセスすることができ、複数の独立したサイトが使用されているときでさえ、客観的な設計、製造及び/または治療モニタリング情報を得ることができる。本実施形態によって、解剖学的装置を作製するのに使用される従来のラボの回避が可能である。具体的には、解剖学的装置を作製するのに使用されるサポート施設が今では数え切れないほど多く、患者に対して遠隔である。これが、医者及び患者にかかる全体的コストを減少することができる。走査場所が他のサポート場所から遠隔であってもよいため、患者は、装置の状態または進捗をモニタさせるために医者へ行く必要がない。全体として、本実施形態のデジタルデータの固定された所定期間保存可能な性質のため、黄金律モデルから同一の複製モデルを低コストで作製することができ、それによって、データが失われたり不正確であったりする可能性を減少する。特定の解剖学的構造物を分析するために、患者に必要な時間及び移動の量を減少することによって、治療コストが減少される。先行技術の方法では関連のあった患者へのさらなる不便なしで、複数の意見(見積もり、治療計画、診断等)へのアクセス可能性が増加する。図示された特定の実施形態を使用して、競争見積もりも容易に獲得することができる。   Those skilled in the art will appreciate that the specific embodiments described herein provide advantages over known techniques. For example, the anatomical structure being scanned may have one or more associated anatomical devices or instruments. In addition, the present invention provides a deterministic method for diagnosing, treating, monitoring, designing and manufacturing anatomical devices. In addition, the present embodiments can be used to provide an interactive method for communicating between various parties designing and manufacturing prostheses. Such interactive methods can be implemented in real time. The methods described herein allow data to be stored for a period of time in such a way that others can obtain actual information and knowledge derived from the experience of others. Multiple consultants can access the same deterministic copy of information regardless of location, and objective design, manufacturing and / or treatment monitoring, even when multiple independent sites are used Information can be obtained. This embodiment allows for the avoidance of conventional labs used to make anatomical devices. Specifically, the number of support facilities used to create anatomical devices is now countless and remote to the patient. This can reduce the overall costs for doctors and patients. Because the scanning location may be remote from other support locations, the patient does not have to go to the doctor to monitor the status or progress of the device. Overall, the digital data of this embodiment can be stored for a fixed period of time, so that the same replica model can be created at low cost from the golden rule model, resulting in lost or inaccurate data. Reduce the likelihood of being By reducing the amount of time and travel required for the patient to analyze a particular anatomical structure, treatment costs are reduced. Prior art methods increase the accessibility to multiple opinions (estimates, treatment plans, diagnoses, etc.) without further inconvenience to the patients involved. Competition estimates can also be easily obtained using the particular embodiment illustrated.

前述の明細書において、本発明は、特定の実施形態に関連して記載してきた。しかし、下記の特許請求の範囲に述べられる本発明の範囲から逸脱することなく様々な修正及び変更を行うことができることは当業者には明らかである。たとえば、デジタルデータは、解剖学的構造物の直接走査と構造物の間接走査との複合であってもよい。これは、解剖学的構造物の一部がスキャナ4401によって見ることができないときに発生してもよく、そのため、解剖学的構造物の少なくともその部分の印象は見えない。印象または印象から作られたモデルは、次いで走査され、直接走査データに「とじ」られて、完全走査を形成する。他の実施形態において、デジタルデータ4405は、他の従来の方法と組み合わせて使用することができる。他の実施形態において、ここに記載されたデジタルデータは、圧縮されるかまたは暗号化方法を使用して確実にされてもよい。暗号化されるときには、患者、走査施設及び所定期間保存しうる施設または患者の代理人の1つまたはそれ以上が、デジタルデータ用の暗号の鍵を有することができる。したがって、明細書及び図面は、制限的な意味ではなく、例示的な意味にみなされるべきであり、そのような修正のすべては、本発明の範囲内に含まれるものと意図される。特許請求の範囲において、単数及び複数のミーンズプラスファンクション項が、もしあれば、それは、単数及び複数の引用された機能を実施するここに記載された構造物をカバーする。単数及び複数のミーンズプラスファンクション項は、構造的等価物、及び、単数及び複数の引用された機能を実施する等価の構造物もカバーする。利益、他の利点及び問題への解法は、特定の実施形態に関連して上述されている。しかし、利益、他の利点、問題への解法、及び、いずれの利益または利点または解法を発生させるかまたはよりはっきりさせることができる単数及び複数のいずれの要素は、いずれのまたはすべての請求項の重大な必要なまたは必須の特徴または要素として解釈すべきではない。   In the foregoing specification, the invention has been described with reference to specific embodiments. However, one of ordinary skill in the art appreciates that various modifications and changes can be made without departing from the scope of the present invention as set forth in the claims below. For example, the digital data may be a combination of a direct scan of the anatomical structure and an indirect scan of the structure. This may occur when a portion of the anatomical structure cannot be viewed by the scanner 4401, so that an impression of at least that portion of the anatomical structure is not visible. The impression or model created from the impression is then scanned and “bound” directly into the scanned data to form a full scan. In other embodiments, the digital data 4405 can be used in combination with other conventional methods. In other embodiments, the digital data described herein may be compressed or secured using an encryption method. When encrypted, one or more of the patient, the scanning facility, and the facility or patient representative that can be stored for a period of time can have a cryptographic key for the digital data. The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense, and all such modifications are intended to be included within the scope of the invention. In the claims, one or more means-plus-function terms, if any, cover the structures described herein that perform the cited function (s). The singular and plural means plus function terms also cover structural equivalents and equivalent structures that perform the singular and plural cited functions. Benefits, other advantages, and solutions to problems have been described above with regard to specific embodiments. However, benefits, other benefits, solutions to problems, and any singular and plural elements that may generate or make clear any benefit or advantage or solution are included in any or all claims. It should not be construed as a critical necessary or essential feature or element.

参照独立スキャナは、特定の実施形態において投影/観察平面に直交する方向に可変識別子を組み込むことが開示されているため、本発明は先行技術に対して有利であることを当業者は認識する。投影/観察平面に直交する方向に変数を提供することによって、これらの変数の歪みは、投影/観察平面に平行な方向な歪みよりも少なく、特定の形状の識別を禁止しない。結果として、物体のマッピングのより大きな正確度を得ることができる。   Those skilled in the art will recognize that the present invention is advantageous over the prior art because the reference independent scanner is disclosed to incorporate a variable identifier in a direction orthogonal to the projection / viewing plane in certain embodiments. By providing variables in a direction orthogonal to the projection / viewing plane, the distortion of these variables is less than that in a direction parallel to the projection / viewing plane and does not prohibit identification of specific shapes. As a result, greater accuracy of object mapping can be obtained.

図1は先行技術にしたがって単一の線によって走査されている物体を例示する。FIG. 1 illustrates an object being scanned by a single line according to the prior art. 図2は先行技術にしたがって複数の線によって走査されている物体を例示する。FIG. 2 illustrates an object being scanned by multiple lines according to the prior art. 図3は先行技術にしたがって図2の線に関連した投影軸及び視軸を例示する。FIG. 3 illustrates the projection and viewing axes associated with the lines of FIG. 2 according to the prior art. 図4は図3の投影軸に等しい参照の点から図3の物体を例示する。FIG. 4 illustrates the object of FIG. 3 from a reference point equal to the projection axis of FIG. 図5は図3の視軸から図3の物体を例示する。FIG. 5 illustrates the object of FIG. 3 from the visual axis of FIG. 図6は先行技術にしたがって、投影された複数の変動する厚さの線を有する物体を例示する。FIG. 6 illustrates an object having a plurality of projected lines of varying thickness according to the prior art. 図7は図3に示される視軸に等しい参照の点から図6の物体を例示する。FIG. 7 illustrates the object of FIG. 6 from a reference point equal to the visual axis shown in FIG. 図8は先行技術にしたがって、変動する投影された線の厚さを有する物体を側面から例示する。FIG. 8 illustrates an object with varying projected line thickness from the side according to the prior art. 図9は図8の視軸に等しい参照の点から図8の物体を例示する。FIG. 9 illustrates the object of FIG. 8 from a reference point equal to the visual axis of FIG. 図10は本発明にしたがったシステムを例示する。FIG. 10 illustrates a system according to the present invention. 図11は本発明にしたがった図10のシステムの一部を例示する。FIG. 11 illustrates a portion of the system of FIG. 10 in accordance with the present invention. 図12は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 12 illustrates the method according to the invention in the form of a flowchart. 図13は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例示する。FIG. 13 illustrates the object of FIG. 3 from a reference point equal to the visual axis of FIG. 3 in accordance with the present invention. 図14は本発明にしたがって図3の視軸に等しい参照の点から図3の物体を例示する。FIG. 14 illustrates the object of FIG. 3 from a reference point equal to the visual axis of FIG. 3 in accordance with the present invention. 図15は本発明にしたがって、投影されたパターンを有する物体を例示する。FIG. 15 illustrates an object having a projected pattern in accordance with the present invention. 図16は本発明にしたがって様々な種類のパターン構成要素を識別する表を例示する。FIG. 16 illustrates a table identifying various types of pattern components in accordance with the present invention. 図17は本発明にしたがって1セットの独特な識別子を例示する。FIG. 17 illustrates a set of unique identifiers in accordance with the present invention. 図18は本発明にしたがって1セットの繰り返し識別子を例示する。FIG. 18 illustrates a set of repeated identifiers according to the present invention. 図19は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 19 illustrates the method according to the invention in the form of a flowchart. 図20は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 20 illustrates the method according to the invention in the form of a flowchart. 図21は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 21 illustrates the method according to the invention in the form of a flowchart. 図22は本発明にしたがった方法を、フローチャートの形態で例示する。FIG. 22 illustrates the method according to the invention in the form of a flowchart. 図23は本発明の実施形態にしたがって、物体に投影されるべき一連の画像を例示する。FIG. 23 illustrates a series of images to be projected onto an object according to an embodiment of the present invention. 図24は本発明の実施形態にしたがって、変動する特徴部を有する画像を例示する。FIG. 24 illustrates an image having varying features according to an embodiment of the present invention. 図25は本発明の好ましい実施形態にしたがって、異なる深さで表面から反射している投影された画像特徴部を例示する。FIG. 25 illustrates projected image features reflecting off the surface at different depths, in accordance with a preferred embodiment of the present invention. 図26は異なる深さで見られる図25の投影された画像を例示する。FIG. 26 illustrates the projected image of FIG. 25 viewed at different depths. 図27は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を例示する。FIG. 27 illustrates a dentition object from various viewpoints, in accordance with a preferred embodiment of the present invention. 図28は本発明の好ましい実施形態にしたがって、様々な視点から生歯物体を例示する。FIG. 28 illustrates a dentition object from various viewpoints in accordance with a preferred embodiment of the present invention. 図29は本発明の特定の実施形態にしたがった方法を例示する。FIG. 29 illustrates a method according to a particular embodiment of the invention. 図30は本発明の好ましい実施形態にしたがって、様々な視点から走査されている生歯物体を例示する。FIG. 30 illustrates a dentition object being scanned from various viewpoints, in accordance with a preferred embodiment of the present invention. 図31は本発明の好ましい実施形態にしたがって、様々な視点から走査されている生歯物体を例示する。FIG. 31 illustrates a dentition object being scanned from various viewpoints, in accordance with a preferred embodiment of the present invention. 図32は生歯物体をモデル化するための初期形状を例示する。FIG. 32 illustrates an initial shape for modeling a dentition object. 図33は本発明の特定の実施形態にしたがった方法を例示する。FIG. 33 illustrates a method according to a particular embodiment of the invention. 図34は本発明の特定の実施形態にしたがった方法を例示する。FIG. 34 illustrates a method according to a particular embodiment of the invention. 図35は本発明に好ましい実施形態にしたがって、位置合わせ用に様々な項目点を選択するための方法の図式表示を例示する。FIG. 35 illustrates a graphical representation of a method for selecting various item points for alignment according to a preferred embodiment of the present invention. 図36は本発明の特定の実施形態にしたがった方法を例示する。FIG. 36 illustrates a method according to a particular embodiment of the invention. 図37は本発明の特定の実施形態にしたがった方法を例示する。FIG. 37 illustrates a method according to a particular embodiment of the invention. 図38は本発明の特定の実施形態にしたがった方法を例示する。FIG. 38 illustrates a method according to a particular embodiment of the invention. 図39は本発明の特定の実施形態にしたがった方法を例示する。FIG. 39 illustrates a method according to a particular embodiment of the invention. 図40は本発明の特定の実施形態にしたがった方法を例示する。FIG. 40 illustrates a method according to a particular embodiment of the invention. 図41は本発明の特定の実施形態にしたがった方法を例示する。FIG. 41 illustrates a method according to a particular embodiment of the invention. 図42は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 42 illustrates a specific flow according to a specific embodiment of the present invention. 図43は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 43 illustrates a specific flow according to a specific embodiment of the present invention. 図44は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 44 illustrates a specific flow according to a specific embodiment of the present invention. 図45は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 45 illustrates a specific flow according to a specific embodiment of the present invention. 図46は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 46 illustrates a specific flow according to a specific embodiment of the present invention. 図47は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 47 illustrates a specific flow according to a specific embodiment of the present invention. 図48は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 48 illustrates a specific flow according to a specific embodiment of the present invention. 図49は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 49 illustrates a specific flow according to a specific embodiment of the present invention. 図50は本発明の特定の実施形態にしたがった特定のフローを例示する。FIG. 50 illustrates a specific flow according to a specific embodiment of the present invention.

Claims (3)

走査する方法であって、
投影軸及び視軸によって形成された平面に平行な方向に均一な間隔に互いに置かれる少なくともつの線のそれぞれに沿って配置されるつの要素を備えた少なくとも1つのコード化特徴部を備えたパターンを使用し且つ空間的に固定されないスキャナを提供するステップであって、前記スキャナは前記パターンを物体の表面に投影する投影装置及び前記投影されたパターンを受け取る観察装置を含み、前記少なくとも1つの要素は前記平面に直交した方向に変化し、前記投影軸は前記投影装置のレンズの中心点から前記物体の前記表面への線で表され、前記視軸は前記観察装置のレンズの中心点から前記物体の前記表面への線で表されるステップと、
前記スキャナを使用して空間的に固定されない患者の一部を走査して、複数のフレームを含む画像データを受け取るステップであって、前記画像データはフレームごとに前記コード化特徴部に基づいて識別される前記少なくとも1つの線を転換して得られる前記物体の前記表面の複数の点を含み、前記スキャナは前記複数のフレームのうち隣接するフレーム間の重なり合う前記複数の点を決定することにより前記複数のフレームを位置合わせする参照独立スキャナであるステップと、
を含む方法。
A method of scanning,
With at least one coding feature comprises a single element which is arranged along each of at least three lines are placed together in a uniform spacing in the direction parallel to the plane formed by the projection axis and viewing axis Providing a scanner that uses a pattern and is not spatially fixed, the scanner comprising a projection device that projects the pattern onto a surface of an object and an observation device that receives the projected pattern, the at least one The element changes in a direction perpendicular to the plane, the projection axis is represented by a line from the center point of the lens of the projection device to the surface of the object, and the visual axis is from the center point of the lens of the observation device. Represented by a line to the surface of the object;
Scanning a portion of the patient that is not spatially fixed using the scanner to receive image data including a plurality of frames, wherein the image data is identified on a frame-by-frame basis based on the coded features. A plurality of points on the surface of the object obtained by translating the at least one line, wherein the scanner determines the plurality of points overlapping between adjacent frames of the plurality of frames. A reference independent scanner for aligning multiple frames;
Including methods.
前記患者の前記一部は、生歯構造物である請求項1に記載の方法。   The method of claim 1, wherein the portion of the patient is a dentition structure. 前記患者の前記一部は、歯部分を含む請求項1に記載の方法。   The method of claim 1, wherein the portion of the patient includes a tooth portion.
JP2004364269A 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object Expired - Lifetime JP5325366B2 (en)

Applications Claiming Priority (16)

Application Number Priority Date Filing Date Title
US09/560,133 US6744932B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,131 US6744914B1 (en) 2000-04-28 2000-04-28 Method and system for generating a three-dimensional object
US09/560,584 2000-04-28
US09/560,644 US6413084B1 (en) 2000-04-28 2000-04-28 Method and system of scanning
US09/560,132 US6771809B1 (en) 2000-04-28 2000-04-28 Method and system for registering data
US09/560,644 2000-04-28
US09/560,133 2000-04-28
US09/560,645 US6728423B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,132 2000-04-28
US09/560,583 2000-04-28
US09/560,583 US6738508B1 (en) 2000-04-28 2000-04-28 Method and system for registering data
US09/560,131 2000-04-28
US09/560,584 US7068836B1 (en) 2000-04-28 2000-04-28 System and method for mapping a surface
US09/560,645 2000-04-28
US09/616,093 2000-07-13
US09/616,093 US6532299B1 (en) 2000-04-28 2000-07-13 System and method for mapping a surface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001581218A Division JP4206213B2 (en) 2000-04-28 2001-04-13 Method and system for scanning a surface and creating a three-dimensional object

Publications (2)

Publication Number Publication Date
JP2005214965A JP2005214965A (en) 2005-08-11
JP5325366B2 true JP5325366B2 (en) 2013-10-23

Family

ID=27575480

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2001581218A Expired - Fee Related JP4206213B2 (en) 2000-04-28 2001-04-13 Method and system for scanning a surface and creating a three-dimensional object
JP2004364282A Expired - Lifetime JP5362166B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364269A Expired - Lifetime JP5325366B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object
JP2004364294A Expired - Lifetime JP4989848B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2001581218A Expired - Fee Related JP4206213B2 (en) 2000-04-28 2001-04-13 Method and system for scanning a surface and creating a three-dimensional object
JP2004364282A Expired - Lifetime JP5362166B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2004364294A Expired - Lifetime JP4989848B2 (en) 2000-04-28 2004-12-16 Method and system for scanning a surface and creating a three-dimensional object

Country Status (4)

Country Link
EP (1) EP1287482A4 (en)
JP (4) JP4206213B2 (en)
AU (1) AU2001251606A1 (en)
WO (1) WO2001084479A1 (en)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2001251606A1 (en) * 2000-04-28 2001-11-12 Orametirix, Inc. Method and system for scanning a surface and generating a three-dimensional object
US6854973B2 (en) 2002-03-14 2005-02-15 Orametrix, Inc. Method of wet-field scanning
SE0203140L (en) * 2002-10-24 2004-04-25 Jemtab Systems Device for determining positions for one or more teeth in tooth replacement arrangements
DE102004037464A1 (en) * 2004-07-30 2006-03-23 Heraeus Kulzer Gmbh Arrangement for imaging surface structures of three-dimensional objects
US8407067B2 (en) 2007-04-17 2013-03-26 Biomet Manufacturing Corp. Method and apparatus for manufacturing an implant
US20080257363A1 (en) * 2007-04-17 2008-10-23 Biomet Manufacturing Corp. Method And Apparatus For Manufacturing An Implant
US8864769B2 (en) 2006-02-27 2014-10-21 Biomet Manufacturing, Llc Alignment guides with patient-specific anchoring elements
US8858561B2 (en) 2006-06-09 2014-10-14 Blomet Manufacturing, LLC Patient-specific alignment guide
US7967868B2 (en) * 2007-04-17 2011-06-28 Biomet Manufacturing Corp. Patient-modified implant and associated method
US8092465B2 (en) 2006-06-09 2012-01-10 Biomet Manufacturing Corp. Patient specific knee alignment guide and associated method
US8535387B2 (en) 2006-02-27 2013-09-17 Biomet Manufacturing, Llc Patient-specific tools and implants
US8608749B2 (en) 2006-02-27 2013-12-17 Biomet Manufacturing, Llc Patient-specific acetabular guides and associated instruments
US9289253B2 (en) 2006-02-27 2016-03-22 Biomet Manufacturing, Llc Patient-specific shoulder guide
US20150335438A1 (en) 2006-02-27 2015-11-26 Biomet Manufacturing, Llc. Patient-specific augments
US8603180B2 (en) 2006-02-27 2013-12-10 Biomet Manufacturing, Llc Patient-specific acetabular alignment guides
US9907659B2 (en) 2007-04-17 2018-03-06 Biomet Manufacturing, Llc Method and apparatus for manufacturing an implant
US8591516B2 (en) 2006-02-27 2013-11-26 Biomet Manufacturing, Llc Patient-specific orthopedic instruments
US8608748B2 (en) 2006-02-27 2013-12-17 Biomet Manufacturing, Llc Patient specific guides
US9113971B2 (en) 2006-02-27 2015-08-25 Biomet Manufacturing, Llc Femoral acetabular impingement guide
US8377066B2 (en) 2006-02-27 2013-02-19 Biomet Manufacturing Corp. Patient-specific elbow guides and associated methods
US8568487B2 (en) 2006-02-27 2013-10-29 Biomet Manufacturing, Llc Patient-specific hip joint devices
US9173661B2 (en) 2006-02-27 2015-11-03 Biomet Manufacturing, Llc Patient specific alignment guide with cutting surface and laser indicator
US10278711B2 (en) 2006-02-27 2019-05-07 Biomet Manufacturing, Llc Patient-specific femoral guide
US9345548B2 (en) 2006-02-27 2016-05-24 Biomet Manufacturing, Llc Patient-specific pre-operative planning
US9918740B2 (en) 2006-02-27 2018-03-20 Biomet Manufacturing, Llc Backup surgical instrument system and method
US8133234B2 (en) 2006-02-27 2012-03-13 Biomet Manufacturing Corp. Patient specific acetabular guide and method
US9339278B2 (en) 2006-02-27 2016-05-17 Biomet Manufacturing, Llc Patient-specific acetabular guides and associated instruments
US9795399B2 (en) 2006-06-09 2017-10-24 Biomet Manufacturing, Llc Patient-specific knee alignment guide and associated method
DE102007001684B4 (en) 2007-01-11 2023-01-26 Sicat Gmbh & Co. Kg Image Registration
US20090061381A1 (en) * 2007-09-05 2009-03-05 Duane Milford Durbin Systems and methods for 3D previewing
US8265949B2 (en) 2007-09-27 2012-09-11 Depuy Products, Inc. Customized patient surgical plan
CN102652684B (en) 2007-09-30 2015-09-16 德普伊产品公司 The patient-specific orthopaedic surgical instrumentation of customization
US8357111B2 (en) 2007-09-30 2013-01-22 Depuy Products, Inc. Method and system for designing patient-specific orthopaedic surgical instruments
US8738165B2 (en) * 2007-12-21 2014-05-27 3M Innovative Properties Company Methods of preparing a virtual dentition model and fabricating a dental retainer therefrom
US20090232388A1 (en) * 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data by creation of filtered density images
US8992538B2 (en) 2008-09-30 2015-03-31 DePuy Synthes Products, Inc. Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication
US8243289B2 (en) * 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
CN104783757B (en) 2009-06-17 2018-01-05 3形状股份有限公司 Focus on scanning device
DE102009028503B4 (en) 2009-08-13 2013-11-14 Biomet Manufacturing Corp. Resection template for the resection of bones, method for producing such a resection template and operation set for performing knee joint surgery
US8632547B2 (en) 2010-02-26 2014-01-21 Biomet Sports Medicine, Llc Patient-specific osteotomy devices and methods
US9066727B2 (en) 2010-03-04 2015-06-30 Materialise Nv Patient-specific computed tomography guides
US8808302B2 (en) 2010-08-12 2014-08-19 DePuy Synthes Products, LLC Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication
US9271744B2 (en) 2010-09-29 2016-03-01 Biomet Manufacturing, Llc Patient-specific guide for partial acetabular socket replacement
US9968376B2 (en) 2010-11-29 2018-05-15 Biomet Manufacturing, Llc Patient-specific orthopedic instruments
US9241745B2 (en) 2011-03-07 2016-01-26 Biomet Manufacturing, Llc Patient-specific femoral version guide
US8715289B2 (en) 2011-04-15 2014-05-06 Biomet Manufacturing, Llc Patient-specific numerically controlled instrument
US9675400B2 (en) 2011-04-19 2017-06-13 Biomet Manufacturing, Llc Patient-specific fracture fixation instrumentation and method
US8668700B2 (en) 2011-04-29 2014-03-11 Biomet Manufacturing, Llc Patient-specific convertible guides
US8956364B2 (en) 2011-04-29 2015-02-17 Biomet Manufacturing, Llc Patient-specific partial knee guides and other instruments
US8532807B2 (en) 2011-06-06 2013-09-10 Biomet Manufacturing, Llc Pre-operative planning and manufacturing method for orthopedic procedure
US9084618B2 (en) 2011-06-13 2015-07-21 Biomet Manufacturing, Llc Drill guides for confirming alignment of patient-specific alignment guides
US20130001121A1 (en) 2011-07-01 2013-01-03 Biomet Manufacturing Corp. Backup kit for a patient-specific arthroplasty kit assembly
US8764760B2 (en) 2011-07-01 2014-07-01 Biomet Manufacturing, Llc Patient-specific bone-cutting guidance instruments and methods
US8597365B2 (en) 2011-08-04 2013-12-03 Biomet Manufacturing, Llc Patient-specific pelvic implants for acetabular reconstruction
US9295497B2 (en) 2011-08-31 2016-03-29 Biomet Manufacturing, Llc Patient-specific sacroiliac and pedicle guides
US9066734B2 (en) 2011-08-31 2015-06-30 Biomet Manufacturing, Llc Patient-specific sacroiliac guides and associated methods
US9386993B2 (en) 2011-09-29 2016-07-12 Biomet Manufacturing, Llc Patient-specific femoroacetabular impingement instruments and methods
US9301812B2 (en) 2011-10-27 2016-04-05 Biomet Manufacturing, Llc Methods for patient-specific shoulder arthroplasty
US9554910B2 (en) 2011-10-27 2017-01-31 Biomet Manufacturing, Llc Patient-specific glenoid guide and implants
KR20130046337A (en) 2011-10-27 2013-05-07 삼성전자주식회사 Multi-view device and contol method thereof, display apparatus and contol method thereof, and display system
ES2635542T3 (en) 2011-10-27 2017-10-04 Biomet Manufacturing, Llc Glenoid guides specific to the patient
US9451973B2 (en) 2011-10-27 2016-09-27 Biomet Manufacturing, Llc Patient specific glenoid guide
US9237950B2 (en) 2012-02-02 2016-01-19 Biomet Manufacturing, Llc Implant with patient-specific porous structure
DE102012214467B4 (en) * 2012-08-14 2019-08-08 Sirona Dental Systems Gmbh Method for registering individual three-dimensional optical recordings of a dental object
EP2728305B1 (en) * 2012-10-31 2016-06-29 VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH Method and light patterns for measuring the height or the height curve of an object
DE102012220048B4 (en) * 2012-11-02 2018-09-20 Sirona Dental Systems Gmbh Calibration device and method for calibrating a dental camera
US9060788B2 (en) 2012-12-11 2015-06-23 Biomet Manufacturing, Llc Patient-specific acetabular guide for anterior approach
US9204977B2 (en) 2012-12-11 2015-12-08 Biomet Manufacturing, Llc Patient-specific acetabular guide for anterior approach
KR101416985B1 (en) 2012-12-15 2014-08-14 주식회사 디오에프연구소 An auxiliary scan table for scanning 3D articulator dental model
US9839438B2 (en) 2013-03-11 2017-12-12 Biomet Manufacturing, Llc Patient-specific glenoid guide with a reusable guide holder
US9579107B2 (en) 2013-03-12 2017-02-28 Biomet Manufacturing, Llc Multi-point fit for patient specific guide
US9498233B2 (en) 2013-03-13 2016-11-22 Biomet Manufacturing, Llc. Universal acetabular guide and associated hardware
US9826981B2 (en) 2013-03-13 2017-11-28 Biomet Manufacturing, Llc Tangential fit of patient-specific guides
US9517145B2 (en) 2013-03-15 2016-12-13 Biomet Manufacturing, Llc Guide alignment system and method
US20150112349A1 (en) 2013-10-21 2015-04-23 Biomet Manufacturing, Llc Ligament Guide Registration
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
US10282488B2 (en) 2014-04-25 2019-05-07 Biomet Manufacturing, Llc HTO guide with optional guided ACL/PCL tunnels
US9408616B2 (en) 2014-05-12 2016-08-09 Biomet Manufacturing, Llc Humeral cut guide
US9561040B2 (en) 2014-06-03 2017-02-07 Biomet Manufacturing, Llc Patient-specific glenoid depth control
US9839436B2 (en) 2014-06-03 2017-12-12 Biomet Manufacturing, Llc Patient-specific glenoid depth control
US9833245B2 (en) 2014-09-29 2017-12-05 Biomet Sports Medicine, Llc Tibial tubercule osteotomy
US9826994B2 (en) 2014-09-29 2017-11-28 Biomet Manufacturing, Llc Adjustable glenoid pin insertion guide
US9820868B2 (en) 2015-03-30 2017-11-21 Biomet Manufacturing, Llc Method and apparatus for a pin apparatus
KR101617738B1 (en) 2015-05-19 2016-05-04 모젼스랩(주) Real-time image mapping system and method for multi-object
US10568647B2 (en) 2015-06-25 2020-02-25 Biomet Manufacturing, Llc Patient-specific humeral guide designs
US10226262B2 (en) 2015-06-25 2019-03-12 Biomet Manufacturing, Llc Patient-specific humeral guide designs
US10034753B2 (en) 2015-10-22 2018-07-31 DePuy Synthes Products, Inc. Customized patient-specific orthopaedic instruments for component placement in a total hip arthroplasty
KR102482062B1 (en) * 2016-02-05 2022-12-28 주식회사바텍 Dental three-dimensional scanner using color pattern
US10722310B2 (en) 2017-03-13 2020-07-28 Zimmer Biomet CMF and Thoracic, LLC Virtual surgery planning system and method
JP2019168328A (en) * 2018-03-23 2019-10-03 株式会社東芝 Method for inspecting semiconductor device and method for manufacturing semiconductor device
US11051829B2 (en) 2018-06-26 2021-07-06 DePuy Synthes Products, Inc. Customized patient-specific orthopaedic surgical instrument
US11785333B2 (en) 2019-01-08 2023-10-10 Hewlett-Packard Development Company, L.P. Simulation-based capture system adjustments
MX2021008451A (en) * 2019-01-17 2021-08-19 Univ Health Network Systems, methods, and devices for three-dimensional imaging, measurement, and display of wounds and tissue specimens.
KR102441485B1 (en) * 2020-05-29 2022-09-07 주식회사 메디트 METHOD AND APPARATUS FOR OBTAINING THREE Dimensional Data AND COMPUTER READABLE MEDIUM STORING A PROGRAM FOR PERFORMING THE SAME METHOD
KR102268060B1 (en) * 2020-09-23 2021-06-22 심미영 Phantom model of teeth set, method of evaluating scanning precision of scanner using the same and method of evaluating 3D printing precision using the same
CN114688994B (en) * 2020-12-31 2023-03-14 先临三维科技股份有限公司 Color projection module, stripe decoding method, device, medium, equipment and system
KR102615021B1 (en) * 2021-10-14 2023-12-20 주식회사 메디트 Method, apparatus and recording medium storing commands for aligning scanned images of 3d scanner

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4508452A (en) * 1975-08-27 1985-04-02 Robotic Vision Systems, Inc. Arrangement for sensing the characteristics of a surface and determining the position of points thereon
JPS5256558A (en) * 1975-11-04 1977-05-10 Nippon Telegr & Teleph Corp <Ntt> Three-dimentional object measuring system
JPS5368267A (en) * 1976-11-30 1978-06-17 Nippon Telegr & Teleph Corp <Ntt> Object shape identifying system
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4286852A (en) * 1979-05-23 1981-09-01 Solid Photography, Inc. Recording images of a three-dimensional surface by focusing on a plane of light irradiating the surface
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
ZA838150B (en) * 1982-11-01 1984-06-27 Nat Res Dev Automatic welding
US4745469A (en) * 1987-02-18 1988-05-17 Perceptron, Inc. Vehicle wheel alignment apparatus and method
JP2517062B2 (en) * 1988-04-26 1996-07-24 三菱電機株式会社 3D measuring device
US5028799A (en) * 1988-08-01 1991-07-02 Robotic Vision System, Inc. Method and apparatus for three dimensional object surface determination using co-planar data from multiple sensors
JPH02110305A (en) * 1988-10-19 1990-04-23 Mitsubishi Electric Corp Three-dimensional measuring device
US4935635A (en) * 1988-12-09 1990-06-19 Harra Dale G O System for measuring objects in three dimensions
US5098426A (en) * 1989-02-06 1992-03-24 Phoenix Laser Systems, Inc. Method and apparatus for precision laser surgery
US5243665A (en) * 1990-03-07 1993-09-07 Fmc Corporation Component surface distortion evaluation apparatus and method
US5347454A (en) * 1990-04-10 1994-09-13 Mushabac David R Method, system and mold assembly for use in preparing a dental restoration
JPH03293507A (en) * 1990-04-11 1991-12-25 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5131844A (en) * 1991-04-08 1992-07-21 Foster-Miller, Inc. Contact digitizer, particularly for dental applications
SE469158B (en) * 1991-11-01 1993-05-24 Nobelpharma Ab DENTAL SENSOR DEVICE INTENDED TO BE USED IN CONNECTION WITH CONTROL OF A WORKING EQUIPMENT
US5214686A (en) * 1991-12-13 1993-05-25 Wake Forest University Three-dimensional panoramic dental radiography method and apparatus which avoids the subject's spine
JPH0666527A (en) * 1992-08-20 1994-03-08 Sharp Corp Three-dimensional measurement method
US5568384A (en) * 1992-10-13 1996-10-22 Mayo Foundation For Medical Education And Research Biomedical imaging and analysis
AT404638B (en) * 1993-01-28 1999-01-25 Oesterr Forsch Seibersdorf METHOD AND DEVICE FOR THREE-DIMENSIONAL MEASUREMENT OF THE SURFACE OF OBJECTS
US5724435A (en) * 1994-04-15 1998-03-03 Hewlett Packard Company Digital filter and method of tracking a structure extending in three spatial dimensions
DE4415834C2 (en) * 1994-05-05 2000-12-21 Breuckmann Gmbh Device for measuring distances and spatial coordinates
US5513276A (en) * 1994-06-02 1996-04-30 The Board Of Regents Of The University Of Oklahoma Apparatus and method for three-dimensional perspective imaging of objects
US5880961A (en) * 1994-08-02 1999-03-09 Crump; Craig D. Appararus and method for creating three-dimensional modeling data from an object
US5999840A (en) * 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
US6205716B1 (en) * 1995-12-04 2001-03-27 Diane P. Peltz Modular video conference enclosure
KR970067585A (en) * 1996-03-25 1997-10-13 오노 시게오 Measurement method of projection characteristics and projection exposure method
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5823778A (en) * 1996-06-14 1998-10-20 The United States Of America As Represented By The Secretary Of The Air Force Imaging method for fabricating dental devices
US5991437A (en) * 1996-07-12 1999-11-23 Real-Time Geometry Corporation Modular digital audio system having individualized functional modules
DE19636354A1 (en) * 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Method and device for performing optical recordings
DE19638727A1 (en) * 1996-09-12 1998-03-19 Ruedger Dipl Ing Rubbert Method for increasing the significance of the three-dimensional measurement of objects
US6088695A (en) * 1996-09-17 2000-07-11 Kara; Salim G. System and method for communicating medical records using bar coding
JPH10170239A (en) * 1996-10-08 1998-06-26 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring device
IL119831A (en) * 1996-12-15 2002-12-01 Cognitens Ltd Apparatus and method for 3d surface geometry reconstruction
US6217334B1 (en) * 1997-01-28 2001-04-17 Iris Development Corporation Dental scanning method and apparatus
US5886775A (en) * 1997-03-12 1999-03-23 M+Ind Noncontact digitizing imaging system
US5848115A (en) * 1997-05-02 1998-12-08 General Electric Company Computed tomography metrology
US6100893A (en) * 1997-05-23 2000-08-08 Light Sciences Limited Partnership Constructing solid models using implicit functions defining connectivity relationships among layers of an object to be modeled
JP3121301B2 (en) * 1997-10-28 2000-12-25 得丸 正博 Artificial tooth manufacturing system and method
US6253164B1 (en) * 1997-12-24 2001-06-26 Silicon Graphics, Inc. Curves and surfaces modeling based on a cloud of points
DE19821611A1 (en) * 1998-05-14 1999-11-18 Syrinx Med Tech Gmbh Recording method for spatial structure of three-dimensional surface, e.g. for person recognition
US6201546B1 (en) * 1998-05-29 2001-03-13 Point Cloud, Inc. Systems and methods for generating three dimensional, textured models
US6227850B1 (en) * 1999-05-13 2001-05-08 Align Technology, Inc. Teeth viewing system
US6124934A (en) * 1999-01-08 2000-09-26 Shahar; Arie High-accuracy high-stability method and apparatus for measuring distance from surface to reference plane
US6139499A (en) * 1999-02-22 2000-10-31 Wilk; Peter J. Ultrasonic medical system and associated method
JP2001204757A (en) * 2000-01-31 2001-07-31 Ecchandesu:Kk Artificial eyeball
AU2001251606A1 (en) * 2000-04-28 2001-11-12 Orametirix, Inc. Method and system for scanning a surface and generating a three-dimensional object
JP2008276743A (en) * 2000-04-28 2008-11-13 Orametrix Inc Method and system for scanning surface and preparing three-dimensional object
JP2001349713A (en) * 2000-06-06 2001-12-21 Asahi Hightech Kk Three-dimensional shape measuring device
JP2001356010A (en) * 2000-06-12 2001-12-26 Asahi Hightech Kk Three-dimensional shape measuring apparatus

Also Published As

Publication number Publication date
AU2001251606A1 (en) 2001-11-12
JP5362166B2 (en) 2013-12-11
WO2001084479A1 (en) 2001-11-08
JP2005214965A (en) 2005-08-11
JP4989848B2 (en) 2012-08-01
JP2003532125A (en) 2003-10-28
JP4206213B2 (en) 2009-01-07
JP2005230530A (en) 2005-09-02
JP2005201896A (en) 2005-07-28
EP1287482A1 (en) 2003-03-05
EP1287482A4 (en) 2007-07-11

Similar Documents

Publication Publication Date Title
JP5325366B2 (en) Method and system for scanning a surface and creating a three-dimensional object
US6532299B1 (en) System and method for mapping a surface
US11672629B2 (en) Photo realistic rendering of smile image after treatment
JP2008276743A (en) Method and system for scanning surface and preparing three-dimensional object
US20190307531A1 (en) Tooth movement measurement by automatic impression matching
US8135569B2 (en) System and method for three-dimensional complete tooth modeling
US7027642B2 (en) Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US20180263731A1 (en) Generating a virtual depiction of an orthodontic treatment of a patient
EP2134290B1 (en) Computer-assisted creation of a custom tooth set-up using facial analysis
US7068825B2 (en) Scanning system and calibration method for capturing precise three-dimensional information of objects
US7740476B2 (en) Method and workstation for generating virtual tooth models from three-dimensional tooth data
WO2006065955A2 (en) Image based orthodontic treatment methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120305

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R150 Certificate of patent or registration of utility model

Ref document number: 5325366

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term