JP5325366B2 - Method and system for scanning a surface and creating a three-dimensional object - Google Patents
Method and system for scanning a surface and creating a three-dimensional object Download PDFInfo
- Publication number
- JP5325366B2 JP5325366B2 JP2004364269A JP2004364269A JP5325366B2 JP 5325366 B2 JP5325366 B2 JP 5325366B2 JP 2004364269 A JP2004364269 A JP 2004364269A JP 2004364269 A JP2004364269 A JP 2004364269A JP 5325366 B2 JP5325366 B2 JP 5325366B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- frame
- illustrates
- line
- alignment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2509—Color coding
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/12—Brackets; Arch wires; Combinations thereof; Accessories therefor
- A61C7/14—Brackets; Fixing brackets to teeth
- A61C7/146—Positioning or placement of brackets; Tools therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C9/00—Impression cups, i.e. impression trays; Impression methods
- A61C9/004—Means or methods for taking digitized impressions
- A61C9/0046—Data acquisition means or methods
- A61C9/0053—Optical means or methods, e.g. scanning the teeth by a laser or light beam
- A61C9/006—Optical means or methods, e.g. scanning the teeth by a laser or light beam projecting one or more stripes or patterns on the teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C7/00—Orthodontics, i.e. obtaining or maintaining the desired position of teeth, e.g. by straightening, evening, regulating, separating, or by correcting malocclusions
- A61C7/002—Orthodontic computer assisted systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/3094—Designing or manufacturing processes
- A61F2/30942—Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques
- A61F2002/30953—Designing or manufacturing processes for designing or making customized prostheses, e.g. using templates, CT or NMR scans, finite-element analysis or CAD-CAM techniques using a remote computer network, e.g. Internet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Instructional Devices (AREA)
Abstract
Description
(関連出願)
本願は、2000年4月28日に出願された米国特許出願第09/560,131号、2000年4月28日に出願された米国特許出願第09/560,132号、2000年4月28日に出願された米国特許出願第09/560,583号、2000年7月13日に出願された米国特許出願第09/616,093号、2000年4月28日に出願された米国特許出願第09/560,645号、2000年4月28日に出願された米国特許出願第09/560,644号、2000年4月28日に出願された米国特許出願第09/560,584号及び2000年4月28日に出願された米国特許出願第09/560,133号の優先権を主張し、それらの教示全体を参照によって本願に組み入れたものとする。
(Related application)
No. 09 / 560,131, filed Apr. 28, 2000, U.S. Patent Application No. 09 / 560,132, filed Apr. 28, 2000, Apr. 28, 2000. US patent application 09 / 560,583 filed on the same day, US patent application 09 / 616,093 filed on July 13, 2000, US patent application filed on April 28, 2000 No. 09 / 560,645, U.S. Patent Application No. 09 / 560,644, filed April 28, 2000, U.S. Patent Application No. 09 / 560,584, filed Apr. 28, 2000, and No. 09 / 560,133, filed Apr. 28, 2000, the priority of which is hereby incorporated by reference in its entirety.
(発明の分野)
本発明は、主に物体のマッピングに関し、より具体的には、物体の三次元モデルを作ることと、物体の部分を位置合わせして物体のモデルを作製することと、物体の走査された部分を位置合わせして三次元物体を提供することと、解剖学的構造物を走査して治療且つ診断し、さらに、医療及び歯科装置及び器具を開発し製造することと、特定の画像を提供して物体のマッピングを補助することと、に関する。
(Field of Invention)
The present invention is primarily concerned with object mapping, and more specifically, creating a three-dimensional model of an object, creating a model of an object by aligning portions of the object, and scanned portions of the object. To provide 3D objects, scan and treat and diagnose anatomical structures, develop and manufacture medical and dental devices and instruments, and provide specific images Assisting with object mapping.
(発明の背景)
補綴、矯正等の解剖学的装置及び歯列矯正等の器具を作製することができることは、よく知られている。解剖学的装置を作製する現在の方法は、主観的であり、それによって、医者は、自分の解剖学的構造物に対する見解、装置が使用される場所、及び、医者の経験及び類似状況の記憶等の主観的な基準に基づいて、解剖学的装置の仕様を定めるかまたは設計する。そのような主観的な基準は、結果として、医者によって変動が大きくなりうる解剖学的装置が開発されることになり、他者が使用することができる知識のデータベースを獲得することを妨げる。
(Background of the Invention)
It is well known that anatomical devices such as prosthetics and orthodontics and instruments such as orthodontics can be made. Current methods of making anatomical devices are subjective, which allows doctors to remember their views on their anatomical structures, where the device is used, and their experiences and similar situations. Specify or design the anatomical device based on subjective criteria such as Such subjective criteria will result in the development of anatomical devices that can vary greatly by the physician and prevent obtaining a database of knowledge that can be used by others.
あまり主観的ではない解剖学的装置を開発しようとする試みは、解剖学的構造物の印象を取ることを含む。解剖学的構造物の雌型表示である印象から、解剖学的構造物の雄型モデルを作ることができる。しかし、印象、及び印象から作られたモデルは、歪み、摩耗、損傷を受けやすく、有効期限が短く、不正確であり、複数のコピーを作製するのに追加コストがかかり、正確度は容易に検証することができない。したがって、構造物の印象またはモデルが解剖学的構造物の真正な表示であるか否かは、容易に検証することができない。さらに、印象処理は一般に、患者には不愉快且つ不便であり、医者へ行かなければならず、時間がかかる。さらに、複数のモデルが必要である場合、複数の印象を作らなければならないか、または、単一の印象から複数のモデルを作らなければならないかのいずれかである。いずれの場合にも、モデルの各々の類似性を保証する信頼のおける利用可能な標準参照がない。さらに、モデルは依然として1人の医者によって目で見て判断されなければならないため、結果として主観的処理になる。 Attempts to develop less subjective anatomical devices include taking the impression of anatomical structures. From the impression that is a female representation of the anatomical structure, a male model of the anatomical structure can be created. However, impressions and models made from impressions are prone to distortion, wear and damage, have a short expiration date, are inaccurate, have an additional cost to make multiple copies, and accuracy is easy It cannot be verified. Therefore, it cannot be easily verified whether the impression or model of the structure is an authentic representation of the anatomical structure. Furthermore, impression processing is generally unpleasant and inconvenient for the patient, has to go to a doctor and is time consuming. Furthermore, if multiple models are needed, either multiple impressions must be made or multiple models must be created from a single impression. In any case, there is no reliable standard reference that guarantees the similarity of each of the models. Furthermore, the model still has to be judged visually by one doctor, resulting in a subjective process.
あまり主観的ではない開発をしようとする別の試みは、二次元画像を使用することを含む。しかし、二次元画像を使用することは、公知のように、精密な構造物情報を提供することはできず、依然として医者によって客観的に解釈されなければならない。さらに、装置の製造は、依然として客観的な解釈に依存している。 Another attempt to develop less subjective development involves using two-dimensional images. However, using two-dimensional images, as is well known, cannot provide precise structure information and must still be objectively interpreted by a physician. Furthermore, the manufacture of the device still relies on an objective interpretation.
印象が医者のもとから製造施設へ輸送されるときには、人工装具装置を設計するのに使用されている三次元モデルが製造施設のみで利用可能であるため、製造されているモデルまたは装置に属する問題に関する医者と技術者との間の通信は妨げられる。複数のモデルが存在するときでさえ、それらは物理的に別個の物体であり、複数のモデルを互いに参照するインタラクティブな方法がないため、同一の視点から同時に見ることはできない。 When the impression is transported from the doctor to the manufacturing facility, the 3D model used to design the prosthetic device is only available at the manufacturing facility and therefore belongs to the model or device being manufactured Communication between the doctor and technician regarding the problem is hindered. Even when there are multiple models, they are physically separate objects and cannot be viewed simultaneously from the same viewpoint because there is no interactive way of referring to the multiple models.
鋳型及び印象に加えて、歯科医及び歯列矯正医等の医者によって維持される他の種類の記録は、失われやすいかまたは損傷を受けやすく、複製を作るのは高価である。したがって、これらの不利点を克服する方法またはシステムが有用である。 In addition to molds and impressions, other types of records maintained by doctors such as dentists and orthodontists are easily lost or damaged and expensive to make duplicates. Therefore, methods or systems that overcome these disadvantages are useful.
物体の表面をマッピングするために走査技術を使用することは、よく知られている。先行技術の図1は、可視表面101から104を有する物体100を例示する。一般に、可視表面101から103は、矩形形状を形成し、略平坦な表面104の頂部にある。
The use of scanning techniques to map the surface of an object is well known. Prior art FIG. 1 illustrates an
画像が物体100に投影され、これは線110を含む。操作において、線110の画像は、カメラ(図示せず)等の観察装置によって受け取られ、線110がある物体100のその部分の形状を決定するために処理される。線110を物体100にわたって動かすことによって、物体100全体をマッピングすることが可能である。単一の線110を備える画像を使用することに関連する限界は、正確なマップを提供するために物体100を走査するには多大な時間が必要であり、スキャナまたは物体のいずれかに固定参照点が必要であるということである。
An image is projected onto the
図2は、物体を走査するのにかかる時間の量を減少する先行技術の解法を例示する。具体的には、図2は、線121から125を含む画像を例示する。複数の線を提供することによって、一度により大きな表面区域を走査することが可能であり、そのため、物体100に関連するデータのより効率的な処理が可能になる。図2に例示されるようなパターンを使用する限界は、固定参照点が必要であること、及び、画像の不連続部分の重なり合いによるデータの不適切な処理の可能性があるため、マッピングされることが可能である表面解像度を減少する可能性があることである。
FIG. 2 illustrates a prior art solution that reduces the amount of time it takes to scan an object. Specifically, FIG. 2 illustrates an image that includes lines 121-125. By providing multiple lines, it is possible to scan a larger surface area at a time, thus allowing more efficient processing of data associated with the
重なり合いの概念を良好に理解するために、走査処理を理解することが有用である。先行技術の図3は、表面102のみが見えるように側面から図1及び2の形状を例示する。検討のために、投影装置(図示せず)が、図3の表面102の頂縁を形成する表面101に垂直な方向にパターンを投影する。投影レンズの中心から表面への点は、投影軸、投影レンズの回転軸または投影レンズの中心線と称される。同様に、観察装置(図示せず)の中心点からの想像線は、視軸、観察装置の回転軸または観察装置の中心線と称され、観察装置が配向される方向に拡張する。
To better understand the concept of overlap, it is useful to understand the scanning process. Prior art FIG. 3 illustrates the shape of FIGS. 1 and 2 from the side so that only the
投影軸と視軸との互いに対する物理的関係は、ほぼ知られている。図3の特定の例示において、投影軸及び視軸は共通平面にある。プロジェクタと観察装置との間の関係が知られるように、投影システムと観察システムとの間の関係が物理的にキャリブレートされる。「参照の点」という用語は、たとえば読み手等の第三者が画像を見る、参照を説明することに注意されたい。たとえば、図2では、参照の点は、表面101、102及び103によって形成される点の上及び側部にある。
The physical relationship between the projection axis and the visual axis relative to each other is almost known. In the particular illustration of FIG. 3, the projection axis and the viewing axis are in a common plane. The relationship between the projection system and the observation system is physically calibrated so that the relationship between the projector and the observation device is known. Note that the term “reference point” describes a reference by which a third party such as a reader views the image. For example, in FIG. 2, the reference points are above and to the sides formed by the
図4は、参照の点が投影角度に等しいところに投影された図2の画像を備えた物体100を例示する。参照の点が投影角度に等しいときには、投影された画像に途切れは見えない。言い換えると、線121から125は、物体100上で直線に見える。しかし、参照の点が投影角度に等しい場合には、線に歪みが見えないため、物体をマッピングするのに有用なデータは得られない。
FIG. 4 illustrates the
図5は、図2の視角フリートに等しい参照の点からの物体100を例示する。図5において、表面104、103及び101は見えるが、これは、視軸が表面101及び103によって形成される線に実質的に垂直であり、表面102によって形成された平面の右側にあるからであり、したがってこれは図5では例示されない。図2参照のこと。画像が見られているかまたは観察装置によって受け取られている角度のため、線121及び122は、単一の連続した直線に見える。同様に、線の対122及び123、及び、123及び124は、単一の連続である印象を与えるように一致している。線125は単一の水平な表面高さに投影されるため、表面104、線125は連続した単一の線である。
FIG. 5 illustrates the
図5のパターンが処理装置によって受け取られ、マッピング機能を実施するときには、線の対121及び122、122及び123、及び、123及び124は、単一の線であると誤って解釈される。結果として、図2に例示された二段の物体は、実際に単一の水平な表面としてマッピングされることがあるか、または、そうでなければ、処理ステップが線の対の間を区別することができないため、不正確に表示される。
When the pattern of FIG. 5 is received by the processing device and performing the mapping function,
図6は、図5に記載された問題を克服する先行技術の解法を例示する。具体的には、図6は、それに投影された画像を有する形状100を例示し、それによって、異なる線の幅または厚さを有する複数の線が使用される。図7は、図5と同一の参照の点から図6のパターンを例示する。
FIG. 6 illustrates a prior art solution that overcomes the problem described in FIG. Specifically, FIG. 6 illustrates a
図7に例示されるように、受け取られたデータを分析する処理要素が、先には区別不可能であった線の対の間を区別することができる。図7を参照すると、線421は依然として線422と一直線であり、連続した線に見えるものを形成する。しかし、線421及び線425は異なる厚さを有するため、今や、画像を分析することによって特定の線セグメントの正確な識別を決定することが可能である。言い換えると、受け取られた画像を分析することによって、今や、表面104に投影された線422と、表面101に投影された線422とが、実際に共通の線であることを決定することができる。この情報を使用して、受け取られた画像を分析することによって、走査されている物体にステップタイプ特徴部が発生し、結果として線422の2つのセグメントの間で不一致になることを決定することができる。
As illustrated in FIG. 7, a processing element that analyzes the received data can distinguish between pairs of lines that were previously indistinguishable. Referring to FIG. 7,
図7に例示されるように、変動する線の厚さを使用することによって、線セグメントを識別するのを補助する一方、例示された種類の変動する特徴部を有する物体は、結果として、受け取られた画像の分析中に、依然としてエラーになる可能性がある。 As illustrated in FIG. 7, the use of varying line thickness helps to identify line segments, while objects having varying features of the illustrated type are received as a result. May still result in errors during analysis of captured images.
図8は、はっきりと変動する特徴部を備えた表面710を有する構造物を側部の参照の点から例示する。表面710は、図8の参照の点に実質的に垂直であるように例示される。加えて、物体700は、側部表面713及び715、及び、頂部表面711及び712を有する。図8の参照の点から、実際の表面711、712、713及び715は見えず、その縁のみが表されている。表面711は、比較的急な傾斜の表面であり、一方、表面712は比較的なだらかな傾斜の表面である。
FIG. 8 illustrates a structure having a
さらに図8には、様々な幅を有する3本の投影された線721から723が例示される。第1の線721は4の幅を有する。第2の投影された線722は1の幅を有する。第3の投影された線723は8の幅を有する。
Further illustrated in FIG. 8 are three projected lines 721-723 having various widths. The
線721は、4の幅を有し、比較的平らな表面714に投影される。投影軸と視軸との間の角度のため、平らな表面714で見られる実際の線721の幅は、およそ2である。線722及び723も比較的平らな表面714に投影されるのであれば、そのそれぞれの幅は、表面をマッピングする分析ステップ中に厚さを検出することができるように、721の幅とほぼ同一の割合量だけ変動する。しかし、線722は傾斜した表面711に投影されるため、視軸に沿った観察装置からの視点は、線722が2の幅を有するように見えるものである。
表面710の急な角度のため、投影された線722の大部分が表面711のより大きい区域に投影されることができるため、線722は2の幅を有するように見える。投影された線722が2の幅を有するという認識を与えるのは、見られている表面722の表面より大きい区域である。
Due to the steep angle of the
線722が表面711によってどのように影響されるかとは反対のやり方で、線723は表面712によって影響され、実際には8の幅を有する投影された線723が2の幅を有するという認識を与える。観察装置に対する表面712の角度によって、投影された線723を有する表面区域が2の幅を有するように見えるため、これが発生する。この現象の結果がさらに図9に例示される。
In a manner opposite to how
図9は、視軸の参照の点から図8の形状700を例示する。視軸の参照の点から、線の厚さの間の差を容易に決定することができるように、線721から723が表面714に投影される。したがって、表面区域714が分析されるときには、線は、見られた画像に基づいて容易に識別可能である。しかし、分析が表面711及び712を含むときには、幅が同一であるだけではなく、表面711の線722が表面714の線721と一列に並ぶため、線722が線721として誤って識別されることがあり得る。同様に、線723は、8の投影された幅を有するが、見られる幅は2である。したがって、受け取られた画像の分析中に、表面711及び712上の線721、722及び723の間を区別することは可能ではない。そのような線を区別することはできないため、結果として表面の誤った分析になる可能性がある。
FIG. 9 illustrates the
走査の1つの提案された方法は、外国特許DE19821611.4に開示されたように、黒及び白の三角形及び矩形の列が三角測量の平面に平行に走るパターンを使用した。列は、デジタル暗号化パターンを含む測定特徴部を使用した。しかし、走査されている表面がシャドーイング及び/またはアンダーカットを発生させるときには、パターンの一部が隠されているため、結果としてシーケンスの中断が生じる可能性がある。さらに、パターンのいずれの部分が失われているかを知ることは不可能であるため、開示された暗号化パターンは、シーケンスの中断の結果としてパターンをデコードすることができない可能性が生じるものである。記載されたコード化されたの種類のさらなる限界は、その歪みが、1つのコード化された特徴部を別のコード化された特徴部に似させる可能性があることである。たとえば、三角形を矩形のように見えさせることができる。 One proposed method of scanning used a pattern in which black and white triangles and rectangular columns run parallel to the triangulation plane, as disclosed in the foreign patent DE 19821611.4. The column used a measurement feature containing a digital encryption pattern. However, when the surface being scanned causes shadowing and / or undercutting, a portion of the pattern is hidden, which can result in interruption of the sequence. Furthermore, since it is impossible to know which part of the pattern is lost, the disclosed encryption pattern may result in the pattern not being able to be decoded as a result of a sequence interruption. . A further limitation of the coded type described is that the distortion can make one coded feature resemble another coded feature. For example, a triangle can look like a rectangle.
したがって、物体をマッピングする先行技術に関連した問題を克服することができる方法及び装置が有利である。 Therefore, methods and apparatus that can overcome the problems associated with the prior art of mapping objects are advantageous.
(好ましい実施形態の詳細な説明)
本発明の特定の実施形態にしたがって、表面に画像が投影される。画像は、表面を測定しマッピングするのに使用される複数の個別形状を有するパターンを含むことができる。複数の個別形状は、投影された形状の投影軸及び視軸に関連した点によって形成された平面に平行な方向に検出可能である特徴部を含む。画像は、複数の形状を個別に識別するためのコード化された情報を含む特徴部をさらに備える。コード化された特徴部は、投影軸及び視軸の点によって形成された平面に実質的に直交する方向に変動し、複数の個別形状の各々からの別個の特徴部であり得、複数の個別形状に一体的な特徴部であり得、且つ/または、複数の個別形状から異なる時間間隔で表示されることができる。投影軸及び視軸に沿った点によって形成された平面に実質的に垂直な線に沿ってコード化された情報が検索されるように、コード化された情報を含む特徴部は配向される。特徴部の使用は、マルチフレーム参照独立走査を実施するために使用される。特定の実施形態において、走査されたフレームは互いに対して位置合わせされる。
Detailed Description of Preferred Embodiments
In accordance with certain embodiments of the invention, an image is projected onto the surface. The image can include a pattern having a plurality of individual shapes used to measure and map the surface. The plurality of individual shapes includes features that are detectable in a direction parallel to a plane formed by the projection axis of the projected shape and points associated with the visual axis. The image further comprises features that include coded information for individually identifying a plurality of shapes. The encoded feature varies in a direction substantially perpendicular to the plane formed by the projection and visual axis points, and can be a separate feature from each of a plurality of individual shapes. It can be a feature that is integral to the shape and / or can be displayed at different time intervals from multiple individual shapes. The feature containing the coded information is oriented so that the coded information is retrieved along a line substantially perpendicular to the plane formed by the points along the projection axis and the viewing axis. The use of features is used to perform multi-frame reference independent scanning. In certain embodiments, the scanned frames are aligned with respect to each other.
本発明の特定の実施形態は、添付の図10から24を参照して最良に理解される。図10及び11は、本発明の特定の実施形態を実施するシステムを表し、図12及び19から22は、本発明にしたがった特定の方法を例示し、図13から18、23、24は、システムと組み合わされた方法の特定の実施を例示する。 Certain embodiments of the present invention are best understood with reference to the accompanying FIGS. FIGS. 10 and 11 represent a system implementing a particular embodiment of the invention, FIGS. 12 and 19 to 22 illustrate a particular method according to the invention, and FIGS. 2 illustrates a specific implementation of the method in combination with the system.
図42から50は、解剖学的構造物の三次元走査データを使用する別の本発明の実施形態の特定の方法及び装置を例示し、ここに例示された特定のやり方で得ることができる。三次元走査データは、さらなる使用のために遠隔施設に発信される。たとえば、三次元走査データは、解剖学的構造物の生体組織を表すことができ、これを使用して、解剖学的装置を設計するか、解剖学的装置を製造するか、生体組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定期間保存するか、解剖学的構造物の閉鎖ループの反復分析を実施するか、構造物のインタラクティブな相談を行うか、構造物に基づいたシミュレーションを実施するか、解剖学的構造物に関連した診断を行うか、または、解剖学的構造物に基づいた治療計画を決定する。 FIGS. 42 through 50 illustrate specific methods and apparatus of another embodiment of the present invention that use three-dimensional scan data of anatomical structures and can be obtained in the specific manner illustrated herein. The 3D scan data is transmitted to the remote facility for further use. For example, three-dimensional scan data can represent the anatomy of living tissue, which can be used to design anatomical devices, manufacture anatomical devices, or structure of living tissue. Monitoring anatomical changes, storing data belonging to anatomical structures for a period of time, performing an iterative analysis of closed loops of anatomical structures, consulting structures interactively, or structures Or a diagnosis related to the anatomical structure or a treatment plan based on the anatomical structure is determined.
図10は、走査装置980へ制御信号を提供するシステム制御装置951を例示する。走査装置980は、線962及び963によって画像境界を投影し、反射した線972及び973内の画像を検索するかまたは観察する。
FIG. 10 illustrates a
1つの操作において、システム制御装置951は特定の情報をスキャナ980へ提供し、物体990の表面991に投影されるべき特定画像を特定する。反射した画像は、走査装置980によってキャプチャされ、これは今度は、キャプチャされた情報をシステム制御装置951へ戻す。キャプチャされた情報は、システム制御装置951へ自動的に戻されることが可能であるか、または、走査装置980内に格納されシステム951によって検索されることが可能である。システム制御装置951によって受け取られた画像データは、表面991の形状を決定するために分析される。受け取られたデータの分析は、システム制御装置951によって、または図示されていない外部処理装置によってかのいずれかで実施されることができることに注意されたい。
In one operation, the
さらに、図10には走査装置980が例示され、これは、投影装置(プロジェクタ)960及び観察装置(ビューアー)970を含む。プロジェクタ960は、画像が物体990に投影されるように配向される。プロジェクタ960は、投影軸961を有する。投影軸961は、画像を投影するレンズの中心で開始し、投影の方向を表す。同様に、ビューアー970は、視軸971を有し、これは、ビューアー970に関連したレンズの中心から拡張し、画像が受け取られている方向を表す。
10 illustrates a
ひとたび走査装置がキャリブレートされると、受け取られた信号の分析が実施されて走査された表面をマッピングすることができる。本願の図面に表された角度は例示目的のみのために表されていることが当業者には理解される。実際の角度及び距離は、例示されたものから大幅に変動しうる。 Once the scanning device is calibrated, an analysis of the received signal can be performed to map the scanned surface. Those skilled in the art will appreciate that the angles shown in the drawings of this application are shown for illustrative purposes only. Actual angles and distances can vary significantly from those illustrated.
図11は、図10のシステム制御装置951をより詳細に例示する。システム制御装置951は、データプロセッサ952と投影画像表示953とプロジェクタ制御装置954とビューアー制御装置955とをさらに含む。
FIG. 11 illustrates the
ビューアー制御装置955は、反射した画像データを表すビューアー970からデータを受け取るのに必要なインターフェースを提供する。反射した画像データは、ビューアー制御装置955でビューアー970から受け取られ、その後、データプロセッサ952へ提供される。類似のやり方で、プロジェクタ制御装置954は、プロジェクタ960を制御するのに必要なインターフェースを提供する。プロジェクタ制御装置954は、プロジェクタ960に、プロジェクタによって支持されたフォーマットに投影された画像を提供する。応答して、プロジェクタ960は、物体の表面に画像を投影する。プロジェクタ制御装置954は、プロジェクタに画像を提供するために、投影画像表示953を受け取るかまたはこれにアクセスする。
The
例示された実施形態において、投影画像表示953は、メモリ場所に格納された画像の電子表示である。格納された画像は、ビットマップされた画像、または、プロジェクタ960によって投影された画像を規定するのに使用される他の標準またはカスタムプロトコルを、表すことができる。投影画像がデジタル画像(電子的に作製される)である場合には、表示は、データプロセッサ952によってメモリに格納されることができ、それによってデータプロセッサ952は、投影画像表示を修正することができ、本発明にしたがって必要に応じて画像を変えることが可能である。
In the illustrated embodiment, the projected
別の実施形態において、投影画像表示953は存在する必要がない。代わりに、投影制御装置954が、プロジェクタ960に関連した1つまたはそれ以上の透明画(図示せず)を選択することができる。そのような透明画は、フィルム、プレートまたは画像を投影する他の種類のレチクル装置のいずれの組み合わせを含むことができる。
In another embodiment, the projected
データプロセッサ952は、制御装置954及び955を通してそれぞれデータの投影及び受取を制御する。
図12は、図10及び添付の図面のシステムを参照して検討される本発明にしたがった方法を例示する。本願で検討される方法を良好に理解するために、本発明に独自の用語及び特性が記載される。「投影/観察平面」という用語は、投影軸及び視軸の少なくとも1つの点によって形成される平面を意味する。投影/観察平面という用語は、図3を参照して最良に理解される。図3が物体100の断面を表すと想定する。例示された投影軸は、図3を含む用紙によって形成される平面内に全体が入るように、方向づけられる。同様に、図3の視軸も、図3の用紙によって表される平面内に全体が入っている。この実施例において、図3の投影軸及び図3の視軸の少なくとも1つの点によって形成された投影/観察平面は、図が引かれている用紙を含む。
FIG. 12 illustrates a method according to the present invention discussed with reference to the system of FIG. 10 and the accompanying drawings. In order to better understand the methods discussed herein, unique terms and characteristics are described in the present invention. The term “projection / viewing plane” means a plane formed by at least one point of the projection axis and the viewing axis. The term projection / view plane is best understood with reference to FIG. Assume that FIG. 3 represents a cross section of the
しかし、図3の視軸が実際に、観察装置に近い終点が用紙の平面上にあるように配向される場合、視軸表示の矢印の端が、用紙から読者へ向かっている間には、視軸及び投影軸全体を含む平面を形成することは可能ではない。したがって、投影/観察平面は、投影軸の実質的にすべて及び視軸の少なくとも1つの点、または、視軸のすべて及び投影軸の少なくとも1つの点、を含むと記載することができる。本願での検討目的には、観察装置にもっとも近い視軸の点がその投影/観察平面内に含まれるべき点であることが想定される。たとえば、先行技術の図4を参照すると、図3を参照して記載された投影/観察平面は、表面104に実質的に直交し、線121から125の各々に直交する。投影/観察平面は線99によって表され、これは、線121から125に交差する縁図からの平面を表す。
However, if the visual axis of FIG. 3 is actually oriented so that the end point close to the viewing device is on the plane of the paper, while the arrow end of the visual axis is pointing from the paper to the reader, It is not possible to form a plane that includes the entire viewing axis and projection axis. Thus, the projection / viewing plane can be described as including substantially all of the projection axes and at least one point of the viewing axis, or all of the viewing axes and at least one point of the projection axis. For the purpose of this study, it is assumed that the point of the visual axis closest to the observation apparatus is the point that should be included in the projection / observation plane. For example, referring to prior art FIG. 4, the projection / view plane described with reference to FIG. 3 is substantially orthogonal to surface 104 and orthogonal to each of lines 121-125. The projection / view plane is represented by
図12のステップ611では、投影/観察平面に直交して変動する単数または複数の構成要素を備えたコード化された(変数)特徴部を有する画像が投影される。図13に対して、投影/観察平面は線936によって例示され、投影/観察平面の配向が、そのような平面が線であるとして表れるように縁上にあり、形状またはパターン931から935の各々が、コード化された特徴部を表すのを示している。
In
個別の特徴部931から935の各々は、投影/観察平面に対して直交する方向に変動する単数または複数の構成要素を有する。たとえば、特徴部933は、3本の個別の線を識別することができるように、投影平面に直交して変動する。3本の個別の線の厚さを変えることによって、独特なパターンが特徴部931から935の各々に関連する。たとえば、バーコード特徴部933は、線なし、薄い線、線なし、厚い線、線なし、薄い線及び線なしの間を直交して変動する。特徴部933の個別の線は、投影/観察平面に平行に投影される。投影/観察平面に平行な投影線は、線の幅に表面位相の観察された歪み効果を減少するかまたは排除する。したがって、特徴部933を作る個別の線の観察された幅は、実質的には歪まないため、特徴部933の各個別の線の厚さまたは相対厚さは、表面位相とは無関係に容易に識別することができる。結果として、特徴部933は、表面位相とは実質的に無関係に識別することができる。
Each of the individual features 931-935 has one or more components that vary in a direction orthogonal to the projection / viewing plane. For example, the
図13は、5本の別個の線(測定特徴部)431から435を有する画像の特定の実施形態を表示する。例示された線431から435は、投影/観察平面に実質的に直交して走る長さを有し、投影/観察平面に平行な方向に互いから均一に間隔をおいている。投影/観察平面に平行な方向に検出可能な複数の線を提供することによって、複数の測定線を同時に観察して分析することができる。1つの実施形態において、線431から435である。線431から435に加えて、5つの独特なバーコード931から935も例示されている。独特なバーコード(可変特徴部)931から935の各々は、それぞれの測定特徴部431から435に関連し、これに沿って繰り返される。別の実施において、各バーコードは、例示された2回を超えて、測定特徴部に沿って繰り返すことができる。例示されたバーコードは、繰り返しセットとして例示されていることに注意されたい。別の実施において、バーコードは、セットでグループ化される必要はない。
FIG. 13 displays a specific embodiment of an image having five separate lines (measurement features) 431-435. The illustrated
特定の実施形態において、線431から435及びバーコード931から935は、パターンが目で見て耐えられ且つ皮膚耐性があるように、低強度の可視光を使用して作製される。たとえば、線431から435は白線として見ることができ、バーコード931から935は特定の色または色の組み合わせとして見ることができる。別の実施形態において、用途によっては、高強度またはレーザ光も使用することができる。 In certain embodiments, lines 431-435 and barcodes 931-935 are made using low-intensity visible light so that the pattern is visibly resistant and skin-tolerant. For example, lines 431-435 can be viewed as white lines and barcodes 931-935 can be viewed as specific colors or combinations of colors. In another embodiment, depending on the application, high intensity or laser light can also be used.
例示したやり方でバーコードを特定の線に関連させることによって、線が直線的に一致しているように見えるときでさえ線を互いから区別することが可能である。たとえば、線432と433とは、物体101の縁で連続した線であるように見える。しかし、線432と433とは、各線に関連する(コード化された特徴部)バーコードを分析することによって、互いから区別することができる。言い換えると、線432と433とが見る人にとって共通線であると見える場合には、左側の線432に関連するバーコードは右側の線433に関連するバーコードとは同一ではないため、2つの異なる線であることを容易に決定することができる。
By associating a barcode with a particular line in the manner illustrated, it is possible to distinguish lines from each other even when the lines appear to be linearly coincident. For example,
図13に例示された特定の実施形態において、検索された画像を分析することによって、線セグメント432と433との共通の線として表させる一番左側のバーコード932と一番右側のバーコード933との間のいずれかに、不連続があることを決定する。特定の実施形態において、そのような縁の場所は、互いに対して比較的近位にバーコードパターンを繰り返すことによって、より精密に決定することができる。たとえば、表面102が表面101に出会う縁は、隣接するバーコードの間の間隔開けに等しい正確度でのみ決定することができる。これは、2つの異なるバーコードを有する単一の線に見えるものを分析するときに、2つのバーコードの間のどこで不連続が発生したかは知られていないからである。したがって、図13の測定線に沿ってより頻繁にバーコードを繰り返すことによって、不連続の場所をより正確に識別することができる。
In the particular embodiment illustrated in FIG. 13, the
図13のコード化された特徴部931から935は、2つのバーコードが同一ではないため、繰り返しはない。しかし、コード化されたの値またはシーケンスは、曖昧さが回避される限り、投影された画像内で繰り返すことができる。たとえば、画像が、バイナリコード化されたを使用する60本の線(測定特徴部)を含む場合には、各線を独自に識別するために6ビットのデータが必要である。しかし、スキャナの焦点の範囲がフィールドの深さによって限定されるという事実のため、60本の線の各個別の線は、一定の範囲内のみで認識可能な画像として現れることができる。 The coded features 931 through 935 of FIG. 13 are not repeated because the two barcodes are not identical. However, the encoded value or sequence can be repeated in the projected image as long as ambiguity is avoided. For example, if the image contains 60 lines (measurement features) that use binary coded, 6 bits of data are required to uniquely identify each line. However, due to the fact that the range of focus of the scanner is limited by the depth of the field, each individual line of 60 lines can appear as a recognizable image only within a certain range.
図25及び26は、フィールドの深さが特徴部の繰り返しにどのように影響を与えるかを良好に例示する。図25は、経路2540に沿って形状を投影するプロジェクタを例示する。形状が表面に投影されるとき、その画像は反射経路に沿って観察装置2506に反射する。たとえば、形状が場所2531で表面から反射するときに結果として反射経路2544が得られ、形状が場所2532で表面から反射するときに結果として反射経路2541が得られ、形状が場所2533で表面から反射するときに結果として反射経路2542が得られ、形状が場所2534で表面から反射するときに結果として反射経路2543が得られる。
FIGS. 25 and 26 better illustrate how the depth of the field affects feature repetition. FIG. 25 illustrates a projector that projects a shape along
図26は、ビューアー2506が見せる形状を表す。具体的には、プロジェクタにもっとも近い表面である表面2531から反射した画像は、図26の一番右側の画像に見られ、プロジェクタからもっとも離れた表面である表面2534から反射した画像は、図26の一番左側の画像に見られる。しかし、一番右側及び一番左側の画像は、それぞれプロジェクタ2505からもっとも離れたもの及びこれにもっとも近いものであり、焦点がずれていることに注意しなければならない。焦点がずれているため、観察装置2506によって受け取られた画像に基づいて正確に検出することはできない。
FIG. 26 shows the shape that the
図25に戻って参照すると、平面2525よりも投影装置2505に近いいずれの表面、または、平面2526よりも投影装置2505から離れたいずれの表面は、見ることができる範囲2610外または視野外であるため、使用可能な形状を反射することができない。したがって、繰り返される形状が図6の範囲2610内で見ることができない限り、形状は繰り返されて依然として独特に識別することができる。
Referring back to FIG. 25, any surface closer to the
特定の実施形態において、プロジェクタはおよそ80本の線を投影する。たとえば、3色を使用するときには(赤、青、緑)、3色の場所を有するコード化された特徴部が、27本の異なる線を独特に識別する。同一のコード化された線が同一の場所に見ることができないように視野が提供されると、27本のこのコーディングシーケンスは、全80本の線をカバーするために3回繰り返すことができる。別の実施形態において、特定の色の場所が失われる可能性のある認識能力を提供するために、シーケンスの線の数を増やすかまたは増やさずに、5つの色の場所を加えることができる。 In certain embodiments, the projector projects approximately 80 lines. For example, when using three colors (red, blue, green), a coded feature with three color locations uniquely identifies 27 different lines. If a field of view is provided so that the same coded line cannot be seen at the same location, this 27 coding sequence can be repeated three times to cover all 80 lines. In another embodiment, five color locations can be added with or without increasing the number of lines in the sequence in order to provide a recognition capability where specific color locations can be lost.
これは、繰り返し特徴部の各々を見ることができない視野が重なり合わない限り、コーディング特徴部は繰り返されてもよいことを意味する。したがって、12の独特なコード化された特徴部のシーケンスは、バイナリデータの4ビットのみを必要とし、特徴部が同一の場所で見られる機会がないのであれば、60本の線すべてをエンコードするために5回繰り返すことができる。 This means that the coding features may be repeated as long as the fields of view where each of the repeating features cannot be seen do not overlap. Thus, a sequence of 12 unique coded features encodes all 60 lines if only 4 bits of binary data are needed and the feature has no opportunity to be seen in the same place Can be repeated 5 times.
関連コーディング特徴部を備えた多数の測定特徴部を有するパターンを提供することによって、参照独立走査が達成される。具体的には、物体もスキャナも空間に固定される必要はなく、または、互いに対して参照する必要はない。代わりに、フレーム1つずつのベースで、参照独立スキャナが、十分な測定情報(3Dクラウド)を検索し、これはコーディング特徴部のため正確であり、その隣接するフレームに対して位置合わせすることができる。位置合わせは、隣接するフレーム上の重なり合う特徴部を決定し、物体の統合マップを形成する処理である。 Reference independent scanning is achieved by providing a pattern having multiple measurement features with associated coding features. Specifically, neither the object nor the scanner need be fixed in space or need to be referenced with respect to each other. Instead, on a frame-by-frame basis, the reference independent scanner retrieves enough measurement information (3D cloud), which is accurate due to the coding feature and aligns with its neighboring frames Can do. Registration is a process of determining overlapping features on adjacent frames and forming an integrated map of objects.
図14は、図13の物体を例示し、それによって測定線431から435が変動する厚さを有する。しかし、線431から435の厚さは、歪みを受ける。それによって、その厚さにのみ基づいて個別の線431から435を識別することは、誤りになりやすい。これは、図15を参照してより良好に例示される。
FIG. 14 illustrates the object of FIG. 13, whereby the
図15は、本発明にしたがってその表面に投影されたパターンを有する図8及び9の物体700を例示する。図15は、変動する幅を有する線721から723の投影を例示する。先に検討したように、線722及び723は、それぞれ表面711及び712に投影されるときには、線721と同一の線厚さを有するように見える。したがって、単に変動する厚さの線を測定するだけでは、画像の分析によってどちらの線がどちらであるかを決定することができない。しかし、投影/観察平面に直交して変動する構成要素を有するように、コード化された特徴部451から453をさらに組み込むことによって、線721から723の識別及びそれに続くマッピング分析は、先行技術に対して改良される。
FIG. 15 illustrates the
コード化された特徴部が投影/観察平面に垂直な部分を有するように投影される例示された特定の実施は、受け取られた画像を分析することによってパターンに関連した特定の線をより正確に識別することができるため、先行技術に対して有利であることを当業者は認識する。ここに記載された特定の実施が、線及びバーコードを参照して記載されていることを当業者はさらに認識し理解する。しかし、他のパターン、形状及び特徴部も使用することができる。 The particular implementation illustrated in which the encoded feature is projected to have a portion perpendicular to the projection / viewing plane makes the particular line associated with the pattern more accurate by analyzing the received image. Those skilled in the art will recognize the advantages over the prior art because they can be identified. Those skilled in the art will further appreciate and understand that the specific implementations described herein are described with reference to lines and barcodes. However, other patterns, shapes and features can also be used.
図16を参照すると、投影/観察平面に直交した方向に使用される形状の特定のセットが例示される表が例示される。表の欄1は、独特な特徴識別子を表す。表の欄2から4は、各特徴識別子を表すことができる特定なやり方を例示する。欄2は、バーコードを示す。欄3は、単独でまたは他のコード化された特徴部とともに使用されることが可能な色を示す。色特徴部を含むいくつかの種類のコード化された特徴部は、測定特徴部の一体化部分として且つ測定特徴部とは別個のコード化された特徴部として実施することができることに注意されたい。同様に、他の種類のコード化されたが、測定及び/または特徴部且つそのコード化された特徴部が投影される強度に基づくことができる。欄4は、形状を識別する形状とは無関係に、または、形状の一部として組み合わされて、使用することができるパターンを表す。言い換えると、欄4に例示された種類の繰り返しパターンシーケンスを含む線を提供することができる。このようにして、投影/観察平面に直交する方向におけるパターンの変化は、実際の形状自体に対して相対的であり得る。加えて、可変構成要素に関する多くの変化が本発明によって予想されることが、当業者には認識される。
Referring to FIG. 16, a table illustrating a particular set of shapes used in a direction orthogonal to the projection / viewing plane is illustrated.
図17は、管状フォームに、各線用の独特な非繰り返し識別子の使用を例示する。たとえば、図17の最初の列を参照すると、シーケンス0からFが順次に呈される。1つの実施において、0からFまでの値の各々は、特定の線に関連した独特のコードを表す。特定のコードを識別するために、ある種類のスペーサーが各個別のコードの間に存在する必要があることが、当業者に認識される。たとえば、長いスペースまたは独特なコードを使用することができる。
FIG. 17 illustrates the use of a unique non-repeating identifier for each line in a tubular form. For example, referring to the first column of FIG. 17,
図17に例示されたシーケンスの1つを各々が備えた4本の線を投影し分析するために使用されるシステムにおいて、ひとたび3つのコードのシーケンスが検索されていると、4本の線のどの1本が分析されているかを識別することが可能である。一般に、コードは投影/観察平面に直交して変動するため、失われたコードは、誤認の問題を引き起こさない。 In a system used to project and analyze four lines, each with one of the sequences illustrated in FIG. 17, once three code sequences have been retrieved, It is possible to identify which one is being analyzed. In general, since codes vary orthogonal to the projection / viewing plane, lost codes do not cause misidentification problems.
図18は、4本の独特な繰り返しコードシーケンスを例示する。表の文字Sは、繰り返しシーケンスの間に使用されるスペーサーを表すのに使用される。スペーサーは、コード化されたシーケンスの繰り返しコードの各々がどこで開始し且つ/または終了するかを特定する独特な識別子であってもよい。 FIG. 18 illustrates four unique repetitive code sequences. The letter S in the table is used to represent the spacer used during the repeating sequence. The spacer may be a unique identifier that identifies where each repeated code of the encoded sequence begins and / or ends.
図12のフローに戻ると、ひとたび投影/観察平面に直交するコード化された特徴部を有する画像が投影されると、表面画像の表示がビューアーで受け取られる。これは、図10の検討に類似し、それによってビューアー970は反射した画像を受け取る。次に、ステップ613で、物体に関連する点の場所が、直交して変動する特徴部に基づいて決定される。本発明の特定な実施形態において、形状の各1つ、たとえば線は、物体分析に使用される前に独特なコードパターンに定量化されるため、点は可変構成要素に基づいている。
Returning to the flow of FIG. 12, once an image with coded features orthogonal to the projection / view plane is projected, a display of the surface image is received at the viewer. This is similar to the discussion of FIG. 10, whereby the
図19は、図12のステップ611に関連するサブステップを例示する。ステップ621では、第1の画像が投影され、一方、ステップ622では第2の特徴部が投影される。図14を参照すると、第1の画像は、測定線431とその関連コード化された特徴部931との組み合わせに類似することが可能である。類似のやり方で、第2の特徴部は、測定線432とそのコード化された特徴部932との組み合わせによって表すことができる。線431を特徴部931に対して分析することができるのに加えて、別の実施形態では、コード化された特徴部932に基づいて線431の識別を決定することも可能であることに注意されたい。言い換えると、図14に例示されるような、線のグループにおける特定の線は、様々なコード化された特徴部の2つ以上に基づいて識別することができる。しかし、特定の実施形態では、コード化された特徴部の単数の隣接するセットのみが、または、コード化された特徴部の複数の隣接するセットが、使用される。加えて、ステップ621及び622は、図23を参照して検討されるように、異なるときに発生することができる。
FIG. 19 illustrates the sub-steps associated with
図21は、本発明にしたがった別の方法を例示する。ステップ631では、複数の第1の特徴部及び複数の第2の特徴部が投影される。これらの特徴部は、同時に投影されてもよく、または、別個の場所に投影されてもよい。
FIG. 21 illustrates another method according to the present invention. In
ステップ632では、第2の特徴部に基づいて複数の第1の特徴部の1つが決定されるかまたは識別される。図14を参照すると、複数の第1の特徴部は測定する線431から435を含む。第2の特徴部、すなわちバーコード931から935を使用して、線431から435の特定の1つを識別することができる。
In
ステップ633では、複数の平行な第1の特徴部の特定の1つに基づいて、表面に点の場所が決定される。
In
コード化された情報に基づいてその識別が検証されるまで受け取られた形状の分析によって識別された線は使用されないため、この特定の実施形態は、先行技術に対して有利である。 This particular embodiment is advantageous over the prior art because lines identified by analysis of the received shape are not used until their identity is verified based on the encoded information.
図22は、本発明にしたがった別の方法を例示する。ステップ641で平行な第1及び第2の不連続形状が投影される。そのような不連続の形状の例として、図14の線431及び432が挙げられる。しかし、他の様々な平行な形状を投影することができることを当業者は認識する。
FIG. 22 illustrates another method according to the present invention. In
ステップ642では、第1の不連続形状に対するコード化された特徴部が投影される。再度、図14を参照すると、線432に対するコード化された特徴部は、コード化された特徴部932または、コード化された特徴部933さえ含むことができる。
In
ステップ643では、第2の不連続形状に対するコード化された特徴部が投影される。
In
ステップ644では、第1の不連続形状が、第1のコード化された特徴部に基づいて識別される。これは、先に検討されたものと類似のやり方で達成される。
In
ステップ645では、物体の特定の点の場所が、第1の不連続形状に基づいて決定される。
In
図23は、本発明の別の実施形態を例示する。具体的には、図23は、時間T1、T2、T3及びT4で投影された一連の画像を例示する。時間T1では、投影された画像は測定特徴部1011から1013を含む。時間T1の間には、コード化された特徴部は投影されない。時間T2の間に、コード化された特徴部1021から1023を含む画像が投影される。時間T1及びT2のパターンは、それぞれ、時間T3及びT4の間に繰り返される。コード化された及び測定特徴部を交替して投影する結果として、より密なパターンを使用することができ、より多くの情報を得ることができる。時間T4の画像は、測定特徴部1011から1013の上に横たわるコード化された特徴部1021から1023を示すことに注意されたい。しかし、1つの実施形態において、測定特徴部は、例示目的のためのみに含まれ、一般に、コード化された特徴部と同時には存在しない。
FIG. 23 illustrates another embodiment of the present invention. Specifically, FIG. 23 illustrates a series of images projected at times T1, T2, T3, and T4. At time T1, the projected image includes measurement features 1011 to 1013. During the time T1, the coded features are not projected. During time T2, an image including coded
本発明のさらに別の実施形態において、図24は、異なる特性を備えた特徴部を有する画像を例示する。具体的には、図24は、線1131から1134を有し個別の線の間に距離Xを備えた画像1100を例示し、一方、線1134、1135及び1136の間の距離は、線を分離する実質的により大きな距離Yを例示する。特徴部が異なる孤立特性を有することができることによって、高解像度特徴部を提供することが可能である。言い換えると、線1135を使用して、そうでなければマッピングすることができない表面特徴部をマッピングすることができる。パターン1100は、ここに記載のコーディング技術とともにまたはこれなしで使用することができることに注意されたい。
In yet another embodiment of the invention, FIG. 24 illustrates an image having features with different characteristics. Specifically, FIG. 24 illustrates an
ひとたびスキャナが投影されたフレームパターンを受け取るかまたは観察するかすると、フレームパターンは複数の2D点(2D画像フレーム)にデジタル化される。スキャナの投影軸及び視軸は固定され知られているため、2D画像フレームの各2D点が投影された点に相関することができるのであれば、従来の3D画像形成技術を使用して2D画像フレームの各2D点を3D点に転換することができる。コード化された特徴部を有する投影されたフレームパターンを使用することによって、2D画像の点をそれぞれの投影された点に相関することができる。 Once the scanner receives or observes the projected frame pattern, the frame pattern is digitized into a plurality of 2D points (2D image frames). Since the projection axis and visual axis of the scanner are fixed and known, if each 2D point of the 2D image frame can be correlated to the projected point, the 2D image can be generated using conventional 3D image forming techniques. Each 2D point of the frame can be converted to a 3D point. By using a projected frame pattern with coded features, a 2D image point can be correlated to each projected point.
マルチフレーム参照独立走査が、本開示の別の態様にしたがってここに記載される。特定の実施形態において、携帯スキャナを使用して物体を1度に1フレームずつ走査して複数のフレームを獲得することによって、複数の3D画像が受け取られ、各フレームは物体の一部のみをキャプチャする。複数のフレームを参照して、参照独立走査が、走査されている物体に対してフレームごとに変わることができる空間位置を有し、その空間的位置は、参照点に対して固定されないか、または、追跡されない。たとえば、走査されている物体に対して固定された参照点はない。 Multi-frame reference independent scanning is described herein in accordance with another aspect of the present disclosure. In certain embodiments, multiple 3D images are received by scanning the object one frame at a time using a portable scanner to obtain multiple frames, each frame capturing only a portion of the object. To do. Referring to multiple frames, the reference independent scan has a spatial position that can vary from frame to frame with respect to the object being scanned, and the spatial position is not fixed relative to the reference point, or Not tracked. For example, there is no fixed reference point for the object being scanned.
ここに開示された参照独立スキャナの1つの種類は、測定特徴部及びコード化された特徴部を有する連続フレームにパターンを投影する携帯スキャナを含む。これによって、フレームの各観察された点は、公知の対応する投影された点を有することができ、それによって、2Dフレームデータを3Dフレームデータへ転換することができる。 One type of reference independent scanner disclosed herein includes a portable scanner that projects a pattern onto a continuous frame having a measurement feature and a coded feature. This allows each observed point of the frame to have a known corresponding projected point, thereby converting 2D frame data to 3D frame data.
図27から28を使用して、複数のフレーム参照独立走査を検討する。 27-28 are used to consider multiple frame reference independent scans.
図27、28は、異なる視点から物体2700を例示する。図27に例示されるように、物体2700は、3本の歯2710、2720及び2730と、3本の歯に隣接する歯肉部分2740とを含む。
27 and 28 illustrate the
図27は、複数の非連続表面部分が見えるような視点である。たとえば、図27の視点から、3つの非連続表面部分2711から2713が見える。表面部分2713は、歯2710の側部部分を表す。表面部分2711は、表面部分2713とは連続していない歯2710の噛み合い表面の一部を表す。表面部分2712は、部分2711とも2713とも連続していない歯2710の噛み合い表面の別の部分を表す。類似したやり方で、歯2720は4つの表面部分2721から2724を有し、歯2730は4つの表面部分2731から2734を有する。
FIG. 27 is a viewpoint where a plurality of non-continuous surface portions can be seen. For example, from the viewpoint of FIG. 27, three
図28は、わずかに異なる視点(図28視点)からの物体2700を例示する。図27から図28へ視点が変わるのは、結果としてビューアーすなわちスキャナが、上部歯表面のより大きな部分を見ることができる方向に動く結果である。視点の変化は、結果として、複数の見られる表面部分に対する変動になる。歯2710に対して、歯の部分2813は、今はその対応する歯の部分2713よりも小さな2D表面を表している。一方、歯の部分2811及び2812は、今は図27のそれらの対応する部分2711及び2712よりも大きい2D表面として見られる。
FIG. 28 illustrates an
歯2720に対して、表面2824は図27のその対応する歯表面2724よりも小さな2D表面として見られる。歯2720に対して、表面2821は、図27の視点から表面2721及び2723の両方を含む連続して見られる歯表面を表している。
For
歯2730に対して、見られる2D表面2832及び2835は、各々が、表面2732の部分と先には見られなかった表面区域とを含む。これは、歯2730の形成的特徴の結果であり、これは結果として、表面2732が第2のフレーム視点から連続して見られなくなる。
For
図29は、参照独立走査の特定の実施形態にしたがった方法を例示する。ステップ3101では、物体が走査され、データの2Dクラウドを得る。データの2Dクラウドは、複数のフレームを有する。フレームの各々は、複数の2D点を有し、これは、見られるときには、2D画像を表す。
FIG. 29 illustrates a method according to a particular embodiment of reference independent scanning. In
ステップ3102では、データの2Dクラウドの第1のフレームが、3Dフレームモデルに転換される。1つの実施形態において、3Dフレームモデルは3D点モデルであり、これは、三次元空間に複数の点を含む。3Dフレーム点モデルへの実際の転換は、データの走査された2Dクラウドを3D点モデルに転換するための従来の技術を使用して、データのフレームの2Dクラウドのいくつかまたはすべてで実施される。ここに開示されたようなコード化された特徴部を使用する特定の実施形態において、連続していない見られる表面を備えた表面、たとえば、図27の歯2710から2730を、フレームごとにうまく走査することが可能である。
In
図30及び31は、それぞれ、図27及び図28の視点から、走査されている物体2700を例示する。図30において、走査パターンは線3211から3223を含む。フレーム境界3210外部のいずれの走査線部分は、適切に走査されることができない。境界3210内で各走査線は、スキャナのCCD(電荷結合ダイオード)チップで検知されるときに、複数の2D点(データのクラウド)に転換される。走査線のいくつかのまたはすべての点を、本発明にしたがって使用することができる。たとえば、最終3Dモデルの所望の解像度に依存して、走査線の1つおきまたは2つおきの点を使用することができる。図30は、識別されている各線の4つの点(AからD)を例示する。2D座標値、たとえばX−Y座標は、これらの点の各々用に決定される。
FIGS. 30 and 31 illustrate an
走査の特定の実施形態において、1秒あたり1から20フレームの走査速度が使用される。より速い走査速度を使用することもできる。特定の実施形態において、走査速度は、三次元画像をリアルタイムで見ることができるように選ばれる。各フレームがキャプチャされている間のパルス時間は、スキャナが動いていると予想される速度の関数である。生歯構造物では、最大パルス幅は、およそ140マイクロ秒であると決定されるが、ずっと速いパルス幅、すなわち3マイクロ秒を使用することもある。加えて、特定の実施形態において、歯2710から2730には物質が塗布され、結果として歯自体よりも不透明な表面が得られる。 In particular embodiments of scanning, a scanning rate of 1 to 20 frames per second is used. Faster scanning speeds can also be used. In certain embodiments, the scanning speed is chosen so that a three-dimensional image can be viewed in real time. The pulse time during which each frame is captured is a function of the speed at which the scanner is expected to be moving. For dentition structures, the maximum pulse width is determined to be approximately 140 microseconds, but a much faster pulse width, or 3 microseconds, may be used. In addition, in certain embodiments, the teeth 2710-2730 are coated with a material resulting in a more opaque surface than the teeth themselves.
特定の実施形態において、データのクラウドの各点は、ここに記載される様々なステップ及び機能の間に分析される。別の実施形態では、データのクラウドの一部のみが分析される。たとえば、所望の解像度に合致するために、2つおきまたは3つおきの点のみを分析する必要があるように決定されてもよい。別の実施形態では、データのクラウドの特定の空間部分のみが使用されるように、たとえば、データのクラウドの中心部分のみが境界ボックスに含まれるように、フレームデータの一部が、データのフレーム全体よりも小さい境界ボックスであり得る。データのクラウドのサブセットを使用することによって、ここに記載された様々なルーチンの速度を上げることが可能である。 In certain embodiments, each point in the cloud of data is analyzed during various steps and functions described herein. In another embodiment, only a portion of the cloud of data is analyzed. For example, it may be determined that only every second or third point needs to be analyzed to meet the desired resolution. In another embodiment, a portion of the frame data is a frame of data so that only a particular spatial portion of the cloud of data is used, for example, only the central portion of the cloud of data is included in the bounding box. It can be a bounding box that is smaller than the whole. By using a subset of the cloud of data, it is possible to speed up the various routines described herein.
図31は、図28の視点から、走査されている物体2700を例示する。そのようであるため、線3321から3323を含む見られるパターンは、歯2710から2730に異なって位置決めされる。加えて、フレーム境界3310は、歯2720の大半を含むように動く。
FIG. 31 illustrates an
図32は、3D初期モデルとしてここに参照される3Dフレームモデルの別の実施形態を例示する。3D初期モデルは、フレームの3D点に基づいた複数の初期形状を含む。例示された特定の実施形態において、3D点モデルに隣接する点を選択して三角形を形成し、初期形状として三角形PS1からPS3を含む。他の実施は、異なるまたは様々な初期形状を使用することができる。 FIG. 32 illustrates another embodiment of a 3D frame model referred to herein as a 3D initial model. The 3D initial model includes a plurality of initial shapes based on the 3D points of the frame. In the particular embodiment illustrated, the points adjacent to the 3D point model are selected to form triangles, including triangles PS1 to PS3 as initial shapes. Other implementations can use different or various initial shapes.
位置合わせを実施するために初期形状を使用することは、点クラウドの1つの初期表面表示を使用することによって、より低い解像度のモデルを使用することができ、結果としてより速い位置合わせが得られ、望ましくないずれエラーの不利点がないため、互いに対してできるだけ近い2つの点クラウドの点を得ることを試みる位置合わせ技術に対して有利である。たとえば、点から点への位置合わせ用に1mmの走査解像度が使用される場合、2つのフレームの間の最良の保証された整列配置は0.5mmである。これは、表面のどの点がマッピングされるかを携帯スキャナが無作為にキャプチャするという事実による。点から表面への使用することによって、位置合わせが頂点だけではなく表面のいずれの点で発生することができるため、より正確な結果が提供される。 Using the initial shape to perform the alignment can use a lower resolution model by using one initial surface representation of the point cloud, resulting in faster alignment. It is advantageous for registration techniques that attempt to obtain two point cloud points as close as possible to each other, since there are no desirable any error disadvantages. For example, if a 1 mm scan resolution is used for point-to-point alignment, the best guaranteed alignment between two frames is 0.5 mm. This is due to the fact that the portable scanner randomly captures which points on the surface are mapped. Point-to-surface use provides more accurate results because alignment can occur at any point on the surface, not just the vertices.
図29のステップ3103では、第2の3Dフレームモデルがクラウドデータの第2のフレームから作製される。特定の実施に依存して、第2の3Dフレームモデルは、点モデルまたは初期モデルであってもよい。
In
ステップ3104では、第1のフレームモデルと第2のフレームモデルとの間で位置合わせが実施され、累積モデルを作製する。「位置合わせ」は、第1のモデルを第2のモデルに整列配置させて、第1のモデルに重なり合う第2のモデルの部分を使用することによって最良適合を決定する処理を意味する。第1のモデルに重なり合わない第2のモデルの部分は、未だにマッピングされていない走査された物体の部分であり、第1のモデルに加えられて累積モデルを作る。位置合わせは、図33の方法を参照して良好に理解される。
In
図33は、位置合わせ方法3500を含み、これは、特定の実施形態において、図29の位置合わせステップの1つによって呼び出される。図33のステップ3501では、位置合わせへの項目点が決定される。位置合わせへの項目点は、2つのモデルの重なり合う部分の整列配置の当初推量を規定する。項目点を選ぶ特定の実施形態は、図34を参照してより詳細に検討される。
FIG. 33 includes an
ステップ3502では、2つの形状の位置合わせが試みられる。適合の規定された近似または品質に合致する重なり合いが検出されるならば、位置合わせは成功である。位置合わせが成功のときには、フローは図29の呼び出しステップへ戻る。位置合わせが成功ではないときには、フローはステップ3598へ進み、そこで続行するか否かが決定される。
In
続行する決定は、因子の数に基づいて決定することができる。1つの実施形態において、続行する決定は、試行された位置合わせ項目点の数に基づいてなされる。ステップ3598での決定が位置合わせの試みをやめるものである場合には、フローはステップ3503へ進み、そこで位置合わせエラー取扱が発生する。そうでなければ、フローはステップ3501で続行する。
The decision to proceed can be made based on the number of factors. In one embodiment, the decision to proceed is made based on the number of alignment item points attempted. If the determination at
図34は、位置合わせ項目点を選ぶための特定の方法を例示する。ステップ3699では、これが、新しいフレームの特定の位置合わせ試み用の最初の項目点であるか否かの決定がなされる。そうであれば、フローはステップ3601へ進み、そうでなければ、フローはステップ3698へ進む。
FIG. 34 illustrates a particular method for selecting alignment item points. In
ステップ3601では、項目点のX及びY構成要素が、2つのフレームの各々用のデータの2Dクラウドの二次元分析に基づいて決定される。特定の実施形態において、二次元分析が2D画像の相互相関を実施する。これらの2D画像は、データの2Dクラウドからである必要はなく、代わりに、パターンを有さない物体の平易なビデオ画像に関連するデータを相互相関に使用することができる。このようにして、スキャナの有望な動きを決定することができる。たとえば、相互相関を使用して、スキャナがおそらくはどのように動いたかを決定するために、ピクセルがどのように動いたかを決定する。
In
別の実施形態において、回転分析が可能であるが、これは時間がかかるものであるため、特定の実施形態用にはこれは行われず、X及びY座標に正しい項目点を有することによってここに記載の位置合わせアルゴリズムが回転を取り扱うことが可能になる。 In another embodiment, rotation analysis is possible, but this is time consuming, so this is not done for a particular embodiment, and here it is by having the correct item points in the X and Y coordinates. The described alignment algorithm can handle rotation.
ステップ3602では、Z方向の有望な動きが決定される。
In
1つの特定の実施形態において、先のフレームのZ座標が使用され、Z方向のいずれの変化が位置合わせの一部として計算される。別の実施形態において、有望なZ座標が項目点の一部として計算される。たとえば、システムの光学パラメータが、最良適合が受け取られるまで、第1のフレームに対する第2のフレームを「ズーム」することができる。そのために使用されるズーム因子によって、2つの表面がZで互いからどれほど離れているかがわかる。特定の実施形態において、X、Y及びZ座標は、Z座標が視軸にほぼ平行であるように、整列配置されることが可能である。 In one particular embodiment, the Z coordinate of the previous frame is used and any change in the Z direction is calculated as part of the alignment. In another embodiment, a promising Z coordinate is calculated as part of the item point. For example, the optical parameters of the system can “zoom” the second frame relative to the first frame until the best fit is received. The zoom factor used for this tells how far the two surfaces are in Z from each other. In certain embodiments, the X, Y, and Z coordinates can be aligned so that the Z coordinate is substantially parallel to the viewing axis.
ステップ3606では、項目点値が戻される。
In
ステップ3698では、すべての項目点変動が、位置合わせステップ3601及び3602で試行されたか否かが決定される。されていなければ、フローはステップ3603へ進み、されていれば、フローはステップ3697へ進む。
In
ステップ3603では、次の項目点変動が選択される。図35は、位置合わせ項目点変動を選択するための特定の方法を例示する。具体的には、図35は、当初項目点E1及びその後に続く項目点E2からE9を例示する。項目点E2からE9は、いずれの所定の順番で順次選択される。図35の特定の実施形態は、半径3710を有する円3720の様々な点として位置合わせ項目点E2からE9を例示する。特定の実施形態にしたがって、項目点変動の範囲は二次元であり、たとえば、X及びY次元である。他の実施形態において、項目点は三次元に変動することができる。項目点の変動する数すなわち項目点のサブセットを使用して、位置合わせ処理をスピードアップすることができることに注意されたい。たとえば、ここで使用される単一のフレーム位置合わせは、図示された9つの項目点よりも少ない数を使用することができる。同様に、ここに記載される累積位置合わせは、例示された9点を超えて多くの数を使用することによって、利益を得ることができる。
In
図34のステップ3698に戻ると、ひとたび第1に識別される項目点のすべての変動が試行されると、フローはステップ3697へ進む。ステップ3697では、第1に識別される項目点に関連したすべての項目点が試行され、第2に識別される項目点がステップ3604によって識別されたか否かが決定される。されていなければ、フローはステップ3604へ進み、そこで、第2の項目点が規定される。具体的には、ステップ3604では、2つの先のフレームモデルの間のスキャナの動きが決定される。次に、スキャナの動きが少なくとも1つの追加フレームでは一定であると想定される。これらの想定を使用して、ステップ3604での項目点は、先のフレームに計算されたスキャナの動きをプラスした場所であると規定される。フローはステップ3606へ進み、これは、項目点を図29の呼び出しステップへ戻す。別の実施形態において、スキャナの動きの方向は同一のままであるが、異なる速度で加速されるという想定をすることができる。
Returning to step 3698 of FIG. 34, once all variations of the first identified item point have been attempted, flow proceeds to step 3697. In
ステップ3604の第2に識別される項目点が先に決定されているならば、ステップ3697からのフローはステップ3696へ進む。ステップ3696では、第2に識別される項目点用の追加位置合わせ項目点変動が存在するか否かが決定される。そうであれば、フローはステップ3605へ進み、そうでなければ、フローはステップ3607で図29の呼び出しステップへ戻り、新しい項目点の選択は不成功であったことを示す。ステップ3605では、第2に識別される項目点の次の項目点変動が識別され、フローは図29の呼び出しステップへ戻る。
If the second identified item point of
実施されている位置合わせの種類に依存して、異なる項目点ルーチンを使用することができる。たとえば、フレームデータの中断には寛容ではない位置合わせ処理には、特定のフレームを放棄する前により多くの項目点を試行する必要がある。フレームデータの中断に寛容である位置合わせ処理には、より簡単なまたはより少ない項目点を試みることができ、それによって位置合わせ処理をスピードアップする。 Different item point routines can be used depending on the type of alignment being performed. For example, an alignment process that is not tolerant of frame data interruption requires more item points to be tried before abandoning a particular frame. For an alignment process that is tolerant of frame data interruption, simpler or fewer item points can be attempted, thereby speeding up the alignment process.
図29に戻ると、ステップ3105で、次の3Dモデル部分が、クラウドデータの次のフレームから作製される。
Returning to FIG. 29, at
ステップ3106では、次の3Dモデル部分と累積モデルとの間で位置合わせが実施され、累積モデルを更新する。特定の実施において、フレームからすべての新しい点を既存の累積モデルへ加えて新しい累積モデルに到達することによって、累積モデルが更新される。他の実施において、今までに獲得された3D点に基づく新しい表面を格納することができ、それによって格納されるデータの量を減少する。
In
すべてのフレームが位置合わせされた場合には、方法3100が完了し、そうでなれば、各フレームの点のクラウドが位置合わせされるまで、フローはステップ3199を通ってステップ3105へ進む。方法3100に記載された位置合わせ処理の結果として、フレーム3210及び3310等の複数のより小さなフレームから物体2700用のモデルを展開することが可能である。複数のフレームを位置合わせすることができることによって、大きな物体の高度に正確なモデルを得ることができる。たとえば、歯肉、歯及び歯列矯正及び人工装具の構造物を含む患者の生歯構造物全体のモデルを得ることができる。別の実施形態において、患者の顔のモデルを得ることができる。
If all frames are aligned,
図36は方法3800を例示し、これは、参照独立スキャナから複数のフレームを使用して物体を位置合わせする代替方法である。具体的には、ステップ3801では、物体が走査され物体用のクラウドデータを受け取る。先に記載されたように、データのクラウドが複数のフレームからのデータを含み、各フレームは複数の点を含む。
FIG. 36 illustrates a
ステップ3802では、単一のフレーム位置合わせが実施される。単一のフレーム位置合わせは、累積モデルを作製せずに、走査された画像の隣接するフレームの間で位置合わせを実施する。その代わり、特定の実施形態において、単一のフレーム位置合わせ処理の累積画像が表示される。単一のフレーム位置合わせ処理によって形成された画像を使用して、走査処理を補助することができる。たとえば、単一のフレーム位置合わせの結果として表示された画像は、累積モデルほど正確ではないが、スキャナのオペレータによって使用され、追加走査が必要である区域を決定することができる。
In
単一のフレーム位置合わせ処理は、いずれの2つのフレームの間に導入されたいずれのエラーが、単一のフレーム位置合わせを使用して作製された3Dモデルの次のすべてのフレームへ「拡張」される。しかし、正確度のレベルは、走査処理中にオペレータを補助するに適切である。たとえば、位置合わせ結果は、1つのフレームから別のフレームへの動きが記載され、累積位置合わせ処理用の項目点として使用することができる。単一のフレーム位置合わせは、図37を参照してより詳細に検討される。 The single frame alignment process “extends” any error introduced between any two frames to all subsequent frames of the 3D model created using the single frame alignment. Is done. However, the level of accuracy is adequate to assist the operator during the scanning process. For example, the registration result describes the movement from one frame to another and can be used as an item point for cumulative registration processing. Single frame alignment is discussed in more detail with reference to FIG.
ステップ3803では、累積位置合わせが実施される。累積位置合わせは、各新しいフレームを累積モデルに位置合わせすることによって累積3Dモデルを作る。たとえば、1000の参照独立3Dモデル部分(フレーム)を表す1000の個別のフレームがステップ3801でキャプチャされた場合、累積位置合わせステップ3803は、1000の参照独立3Dモデル部分を、物体を表す単一の累積3Dモデルに結合する。たとえば、1000の参照独立3Dモデル部分の各々が、図30及び31のフレーム3210及び3310を含む1本またはそれ以上の歯の一部を表す場合には、単一の累積3Dモデルは、歯2710から2730を含む歯のセット全体を表す。
In
ステップ3804では、位置合わせの結果が報告される。これは、下記にさらに詳細に検討される。
In
図37には、図36のステップ3802の単一フレームレンダリング実施に対して特定である方法3900が記載される。ステップ3903では、変数xが2に等しく設定される。
FIG. 37 describes a
ステップ3904では、現在のフレーム(3DFx)と直前のまたは第1の隣接するフレーム(3DFx−1)との間の位置合わせが実施される。2つのフレームの間の位置合わせは、単一フレーム位置合わせと称される。2つのモデルの間の位置合わせの特定の実施形態は、図38に例示される方法を参照してさらに詳細に検討される。
In
ステップ3999では、ステップ3904の単一フレーム位置合わせが成功したか否かが決定される。特定の実施形態において、図38の方法等の位置合わせ方法は、ステップ3999で評価される成功インジケータを提供する。位置合わせが成功であるときにはフローはステップ3905へ進み、そうでないときにはフローはステップ3907へ進む。
In
ステップ3999で位置合わせが成功したと決定されるときには、フローはステップ3905へ進む。ステップ3905では、現在の3Dフレーム(3DFx)が、3Dフレームの現在のセットに加えられる。このセットは一般に、変換マトリクスのセットであることに注意されたい。3Dフレームの現在のフレームセットがフレームの連続したセットであり、シーケンスの各フレームは、その2つの隣接するフレーム(の両方)に成功して位置合わせされる可能性が高い。加えて、新しく位置合わせされたフレームは、既に表示されている先のフレームに対して表示することができる。
When
ステップ3998では、変数xがnに等しい値を有するか否かが決定され、ただし、nは、評価されるべきフレームの合計数である。xがnに等しい場合には、単一フレーム位置合わせが完了し、フローはステップ3910で図36へ戻ることができる。xがnよりも小さい場合には、ステップ3906で単一フレーム位置合わせが続けられ、ステップ3904へ進む前にxがインクリメントされる。
In
ステップ3999へ戻ると、ステップ3904の位置合わせが成功していなければフローはステップ3907へ進む。ステップ3907では、現在のフレーム(3DFx)と2つ前の隣接するフレーム(3DFx−2)との間で位置合わせが試みられる。ステップ3907の位置合わせが成功であれば、ステップ3997は、フローをステップ3905へ方向づける。そうでなければ、ステップ3997は、フローをステップ3908へ方向づけ、それによって現在のフレーム(3DFx)の位置合わせが不成功であることを示す。
Returning to step 3999, if the alignment of
現在のフレームを位置合わせすることができない場合には、ステップ3908が、現在のフレームセットすなわちマトリクスのセットを保存し、新しい現在のフレームセットが開始される。ステップ3908からのフローはステップ3905へ進み、そこで、現在のフレームが現在のフレームセットに加えられ、これは、ステップ3908で新しく作られていた。したがって、単一フレーム位置合わせステップ3802が複数のフレームセットを識別することが可能である。
If the current frame cannot be aligned, step 3908 saves the current frame set or matrix set and a new current frame set is started. The flow from step 3908 proceeds to step 3905 where the current frame is added to the current frame set, which was newly created in step 3908. Thus, the single
累積位置合わせ中に複数のフレームセットを作製することは、複数の累積モデルを調停するのに必要な介入の量のため、望ましくない。しかし、単一フレーム位置合わせの目的はオペレータを補助し累積位置合わせに対する項目点を規定することであるため、単一フレーム位置合わせの中断は一般に受け入れられる。単一フレーム位置合わせ中の中断に対処する1つの方法は、単に、中断前の最後のフレームと同一の場所に中断後の最初のフレームを表示することであり、それによって、オペレータは画像を見るのを続けることができる。 Creating multiple frame sets during cumulative registration is undesirable due to the amount of intervention required to reconcile multiple cumulative models. However, interruption of single frame alignment is generally accepted because the purpose of single frame alignment is to assist the operator and define entry points for cumulative alignment. One way to deal with a break during single frame alignment is simply to display the first frame after the break in the same place as the last frame before the break, so that the operator views the image. Can continue.
図38のステップ4001にしたがって、第1のモデルは3D初期形状モデルであり、一方、第2のモデルは3D点モデルである。参照目的用に、第1の3Dモデルの初期形状はS1…Snとして参照され、ただし、nは第1のモデルの形状の合計数であり、第2の3Dモデルの点はP1…Pzとして参照され、ただし、zは第2のモデルの合計数である。 According to step 4001 of FIG. 38, the first model is a 3D initial shape model, while the second model is a 3D point model. For reference purposes, the initial shape of the first 3D model is referred to as S1... Sn, where n is the total number of shapes of the first model and the points of the second 3D model are referred to as P1. Where z is the total number of the second model.
ステップ4002では、第2のモデルの個別の点P1…Pzが分析されて、その場所にもっとも近い形状を決定する。特定の実施形態において、点P1には、P1にもっとも近い形状S1…Snが、他のいずれの形状の他のいずれの表面場所よりもP1にもっとも近い表面場所を有する形状である。点P1にもっとも近い形状はSc1と称され、一方、点Pzにもっとも近い形状はSczと称される。
In
別の実施形態において、三角形のすぐ上またはすぐ下に位置する点のみが三角形に関連し、三角形表面のすぐ上またはすぐ下に位置しない点は、2つの三角形の間に形成された線、または、複数の三角形によって形成された点に関連する。広い意味では、三角形を形成する線及び三角形のかど点を形成する点を、形状としてみなすことができることに注意されたに。 In another embodiment, only points that are directly above or below the triangle are associated with the triangle, and points that are not directly above or below the surface of the triangle are lines formed between the two triangles, or , Associated with a point formed by a plurality of triangles. Note that in a broad sense, the lines that form a triangle and the points that form the corners of a triangle can be considered as shapes.
ステップ4003では、ベクトルD1…Dzが、点P1…Pzの各々用に計算される。特定の実施において、各ベクトルたとえばD1は、その対応する点たとえばP1から、そのもっとも近い形状たとえばSc1のもっとも近い点への最小距離によって規定される大きさ及び方向を有する。一般に、点P1…Pzの一部のみが累積画像に重なり合う。位置合わせする必要がない非重なり合い点は、重なり合っている点よりも比較的大きな大きさを有する関連ベクトルを有するか、または、特定の三角形のすぐ上またはすぐ下になくてもよい。したがって、特定の実施形態において、所定の値(イプシロン値)よりも小さい大きさを有するベクトルのみが、さらなる位置合わせに使用される。
In
重なり合う点になりそうにない点を排除するのに加えて、イプシロン値を使用して、デコーディングエラーのリスクをさらに減少することができる。たとえば、パターンの測定線の1本が異なる線であると誤って解釈されると、誤った解釈の結果として、Z方向に大きなエラーが生じる可能性がある。隣接するパターン線の間の一般的な距離がおよそ0.3mmであり三角測量の角度がおよそ13度である場合に、X方向の0.3mmのエラーが、結果として、Z方向においておよそ1.3mmの三次元変形エラーになる(0.3mm/tan13度)。イプシロン距離が0.5mm未満に保たれる場合には、互いから0.5mmを超えてさらに離れる表面区域の影響はないことが確実である。特定の実施形態において、イプシロン値は0.5mmを超える値であるように最初に選択され、たとえば2.0mmであり、一定の品質に到達すると値が減少されることに注意されたい。 In addition to eliminating points that are not likely to overlap, epsilon values can be used to further reduce the risk of decoding errors. For example, if one of the pattern measurement lines is misinterpreted as a different line, a large error may occur in the Z direction as a result of the misinterpretation. When the general distance between adjacent pattern lines is approximately 0.3 mm and the triangulation angle is approximately 13 degrees, an error of 0.3 mm in the X direction results in approximately 1.. A 3 mm three-dimensional deformation error results (0.3 mm / tan 13 degrees). If the epsilon distance is kept below 0.5 mm, it is certain that there will be no influence of surface areas further away from each other by more than 0.5 mm. Note that in certain embodiments, the epsilon value is initially selected to be a value greater than 0.5 mm, for example 2.0 mm, and the value is reduced once a certain quality is reached.
ステップ4004では、特定の実施形態において、ベクトルD1…Dzがばね力として取り扱われ、第2の3Dモデルフレームの動きを決定する。特定の実施形態において、第2の3Dモデルは、すべての力ベクトルD1…Dzの合計をベクトルの数で割ったものによって規定される線状方向に動かされる。
In
ステップ4005では、ベクトルD1…Dzは、第2の3Dモデルの各点用に再計算される。
In
ステップ4006では、ベクトルD1…Dzは、ばね力として取り扱われ、第2の3Dモデルの動きを決定する。ステップ4004の特定の実施形態用に、第2の3Dモデルフレームは、ベクトルD1…Dzに基づいた質量中心を中心にして回転する。たとえば、第2の3Dモデルは、ばね力が最小になるまで、質量中心を中心にして回転する。
In step 4006, the vectors D1 ... Dz are treated as spring forces to determine the movement of the second 3D model. For the particular embodiment of
ステップ4007では、第2の3Dモデルの現在の配向に対する位置合わせの品質が決定される。位置合わせの品質を規定するために様々な方法を使用することができることが、当業者には理解される。たとえば、イプシロンよりも小さい大きさを有するベクトルD1…Dzの標準偏差を使用することができる。別の実施形態において、下記のステップを使用して品質を計算することができる。すなわち、ベクトルの距離を二乗し、イプシロン距離内のすべてのベクトルの二乗された距離を合計し、この合計をベクトルの数で割り、平方根を取る。ベクトル値D1…Dzは回転ステップ4006後に再計算する必要があることを当業者は認識することに注意されたい。加えて、品質を示す定量値を提供するのに使用することができる他の統計的計算があることを当業者は認識する。
In
ステップ4099では、ステップ4007で決定された品質が、所望の品質レベルに合致しているか否かが決定される。品質が所望のレベル内であれば、2つのフレームモデルの間の完全な位置合わせが達成可能であることを高度の信頼度で示す。所望の程度の品質が得られたときに方法4000のフローを終結することによって、ユーザに画像を提供するためにフレームのすべての対にわたって即座にソートすることが可能である。方法のこの点でデータ内の可能性のある中断を排除することによって、その後の累積位置合わせは、累積モデルの複数のセグメントではなく、単一の累積モデルを作製する可能性が高い。現在の品質レベルが所望のレベルに合致する場合には、フローは、成功であると示して、適切な呼び出しステップへ戻る。現在の品質レベルが所望のレベルに合致しない場合には、フローはステップ4098へ進む。
In
ステップ4098では、位置合わせの現在の品質が改良しているか否かが決定される。特定の実施形態において、これは、ステップ4003を含むループを通る先の通過の品質を現在の品質と比較することによって決定される。品質が改良していない場合には、フローは、位置合わせは成功しなかったと示して、呼び出しステップへ戻る。改良している場合には、フローはステップ4003へ進む。
In
ステップ4003へ戻ると、新しいフレーム場所を使用して、別の位置合わせ反復が発生する。ひとたびフレームデータが走査されて格納されると、走査の順番に正確に位置合わせを行う必要はないということに注意されたい。位置合わせは、逆に開始することができ、または、意味のあるいずれの他の順番を使用してもよい。特に、走査が結果として複数の通過になるときには、フレームがおおよそどこに属するかは既に知られている。したがって、隣接するフレームの位置合わせは、画像形成の順番とは無関係に行うことができる。 Returning to step 4003, another alignment iteration occurs using the new frame location. Note that once the frame data has been scanned and stored, there is no need to align exactly in the scan order. The alignment can be started in reverse, or any other order that makes sense may be used. In particular, when a scan results in multiple passes, it is already known where the frame belongs. Therefore, alignment of adjacent frames can be performed regardless of the order of image formation.
図39は、図36用の方法4100の特定の実施形態を例示する。具体的には、方法4100は、すべての個別の3Dフレームモデルを単一の累積3Dモデルに結合するよう試みる累積位置合わせを開示する。
FIG. 39 illustrates a particular embodiment of the
ステップ4101から4103はセットアップステップである。ステップ4101では、変数xが1に等しいように設定され、変数x_lastは、3Dモデルセットの合計数を規定する。3Dモデルセットの数は、図37のステップ3908に基づいていることに注意されたい。
ステップ4102では、3D累積モデル(3Dc)が、当初、フレームの現在のセットの第1の3Dフレームに等しく設定される。3D累積モデルは、3D累積モデルによって既に表されていないその後のフレームモデルからその情報を含むように修正される。
In
ステップ4103では、Yは2に等しく設定され、変数Y_lastは、セットSxのフレーム(3DF)かまたはフレームモデルの合計数を示すように規定され、ただし、Sxは位置合わせされているフレームモデルの現在のセットを表す。
In
ステップ4104では、3D累積モデル(3Dc)が、位置合わせされている現在の3Dフレームモデル(Sx(3DFy))と3D累積モデル(3DC)との間の位置合わせに基づいて追加情報を含むように修正される。図39において、現在の3DフレームモデルはSx(3Dy)として参照され、ただし、3Dyはフレームモデルを示し、Sxはフレームセットを示すことに注意されたい。ステップ4104の位置合わせを実施するための特定の実施形態は、図40から41に例示された方法によってさらに記載される。
In
ステップ4199では、現在の3Dフレームモデルが現在のステップの最後の3Dフレームモデルか否かが決定される。図39の特定の実施形態にしたがって、これは、変数Yが値Y_lastに等しいか否かを決定することによって達成することができる。YがY_lastに等しいときには、フローはステップ4198へ進む。そうでない場合には、フローはステップ4106へ進み、そこで、現在のセットSyに関連する3Dフレームモデルのさらなる位置合わせのためにステップ4104へ戻る前に、Yがインクリメントされる。
In
ステップ4198では、フレームの現在のセットがフレームの最後のセットであるか否かが決定される。図39の特定の実施形態にしたがって、これは、変数xが値x_lastに等しいか否かを決定することによって達成することができる。xがx_lastに等しいときには、フローはステップ4105へ進む。そうでない場合には、フローはステップ4107へ進み、そこで、次のセットを使用してさらなる位置合わせのためにステップ4103へ戻る前に、xがインクリメントされる。
In
フローがステップ4105に到達するときには、すべてのセットのすべてのフレームが位置合わせされている。ステップ4105は、方法4100の位置合わせ、及び、いずれの他のクリーンアップ操作の結果を報告する。たとえば、理想的には方法4100が結果として単一の3D累積モデルを生じるが、実際には、複数の累積モデルを作製する可能性がある(図41のステップ4207の検討を参照のこと)。これが発生すると、ステップ4105は、結果として得られる3D累積モデルの数をユーザに、または取り扱いのために次のルーチンへ、報告することができる。ステップ4105の一部として、ユーザは、複数の3Dモデルを互いに位置合わせするのを補助する選択肢を有することができる。たとえば、2つの3D累積モデルが作製されると、ユーザは3D累積モデルを図式的に操作して、項目点の識別を補助することができ、これを使用して2つの3D累積モデルの間の位置合わせを実施することができる。
When the flow reaches
本発明の別の実施形態にしたがって、新しい計算用の項目点として第1の累積位置合わせから結果として得られるマトリクスを使用して、第2の累積位置合わせ処理を実施することができる。1つの実施形態において、単数または複数のフレームが最初の試みでは位置合わせに成功することができない点に処理が遭遇するときには、項目点のより大きな数を使用することができるか、または、点のより高いパーセンテージを使用することができる。 In accordance with another embodiment of the present invention, the second cumulative alignment process can be performed using the resulting matrix from the first cumulative alignment as a new calculation item point. In one embodiment, when processing encounters a point where one or more frames cannot be successfully aligned on the first attempt, a larger number of item points can be used, or Higher percentages can be used.
図40から42は、図39のステップ4104に関連した位置合わせの特定の実施形態を開示する。
40-42 disclose a specific embodiment of the alignment associated with
ステップ4201は、図38のステップ4002に類似しており、現在のフレームSx(3Dy)の各点(P1…Pm)が分析され、もっとも近い形状である累積モデルの形状を決定する。
ステップ4202は、図38のステップ4003を参照して先に記載されたやり方に類似したやり方で現在のフレームの各点のベクトルを規定する。
ステップ4203から4206は、図38のステップ4004から4006で記載されたやり方で現在の3Dフレームモデルを動かし、方法4000の第1のモデルは累積モデルであり、方法4000の第2のモデルは現在のフレームである。
ステップ4299では、位置合わせステップ4202から4206を通る現在の通過が、結果として、累積モデルと現在のフレームモデルとの間に改良された整列配置を生じたか否かが決定される。品質改良を決定する1つの方法は、モデルの現在の位置に基づいた品質値をモデルの先の位置に基づいた品質値に比較することである。図38を参照して先に検討したように、品質値は、標準偏差かまたはDベクトルに基づいた他の品質計算を使用して、決定することができる。デフォルトで、各モデル3Dy用のステップ4202から4206を通る第1の通過が、結果として改良された整列配置になることに注意されたい。改良された整列配置が発生すると、フローはステップ4202へ戻り、そうでなければ、フローは図41のステップ4298へ進む。
In
図40の累積位置合わせ方法用のフロー制御は、図38の単一フレーム位置合わせ方法用のフロー制御とは異なることに注意されたい。具体的には、累積フローは品質の改良が実現されなくなるまで続くが、単一フレームのフローは、ひとたび特定の品質に到達すると、停止する。位置合わせルーチン内でフローを制御する他の実施形態が予期される。 Note that the flow control for the cumulative alignment method of FIG. 40 is different from the flow control for the single frame alignment method of FIG. Specifically, the cumulative flow continues until no quality improvement is realized, but the single frame flow stops once it reaches a certain quality. Other embodiments for controlling flow within the alignment routine are envisioned.
代替フロー制御実施形態において、位置合わせ反復処理は、収束基準が合致される限り、続けられる。たとえば、収束基準は、定率よりも大きい品質の改良が実現される限り、合致されるとみなされる。そのようなパーセンテージは、0.5から10%の範囲内であり得る。 In an alternative flow control embodiment, the registration iteration process continues as long as the convergence criteria are met. For example, the convergence criterion is considered met as long as a quality improvement greater than a fixed rate is achieved. Such a percentage can be in the range of 0.5 to 10%.
別の実施形態において、たとえひとたび収束または品質に改良がない等の特定の第1の基準が合致しても、追加の静止反復を使用することができる。静止反復は、ひとたび品質レベルが改良を停止するかまたは所定の基準に合致した場合に、位置合わせルーチンを通過する。特定の実施において、静止反復の数を固定することができる。たとえば、3から10の追加反復を特定することができる。 In another embodiment, additional stationary iterations can be used once certain first criteria are met, such as once there is no improvement in convergence or quality. The stationary iteration passes the registration routine once the quality level stops improving or meets predetermined criteria. In certain implementations, the number of stationary iterations can be fixed. For example, 3 to 10 additional iterations can be identified.
ステップ4298では、現在の位置合わせが成功か否かが決定される。特定の実施において、成功は単に、現在のモデル配置の計算された品質値が所定の基準に合致するか否かに基づいている。そうであれば、位置合わせは成功であり、ルーチン4200は呼び出しステップへ戻る。基準に合致しなければ、フローはステップ4207へ進む。
In
ステップ4207では、現在のフレームモデルが累積3Dモデルに成功して位置合わせすることができないことが決定されている。したがって、現在の累積3Dモデルは保存され、現在のフレームを有する新しい累積3Dモデルが開始される。先に記載されたように、新しい3D累積モデルが開始されているため、点モデルである現在の3Dフレームモデルは、呼び出しステップへ戻る前に、初期モデルへ転換される。
In
本発明の多くの他の実施形態が存在する。たとえば、ステップ4004、4006、4203及び4205の間のフレームの動きは、加速または過剰運動の構成要素を含んでもよい。たとえば、特定の方向における動きが1mmである必要があると分析によって示すことができる。しかし、計算されているサンプルのサイズまたは他の因子を補償するために、フレームは1.5mmで、または他の何らかのスケールされた因子で、動くことができる。フレームのその後の動きは、類似のまたは異なる加速因子を使用することができる。たとえば、より小さい加速値を、位置合わせ進捗のために使用することができる。加速因子を使用することによって、整列配置する重なり合い特徴部が発生しないときに生じる極小値を補償する助けをする。これが発生するときには、小さな運動値が結果としてより低い品質レベルになりうる。しかし、加速を使用することによって、整列配置ミスを克服することができる可能性が高い。一般に、加速は、特徴部の「でこぼこ」を克服するのに有益であり得る。
There are many other embodiments of the present invention. For example, the frame motion during
本願の方法に示される特定のステップ、及び/または、本願の特定のモジュールの機能が一般に、ハードウェア及び/またはソフトウェアで実施されてもよいことを理解すべきである。たとえば、1つまたはそれ以上の処理モジュールで実行されるソフトウェア及び/またはファームウェアを使用して、特定のステップまたは機能が実施されてもよい。 It should be understood that the specific steps shown in the present method and / or the functions of the specific modules of the present application may generally be implemented in hardware and / or software. For example, certain steps or functions may be performed using software and / or firmware executed on one or more processing modules.
典型的には、走査及び/または走査されたデータの位置合わせ用のシステムは、一般的なまたは特定の処理モジュール及びメモリを含む。処理モジュールは、単一の処理装置または複数の処理装置に基づくことができる。そのような処理装置は、マイクロプロセッサ、マイクロコントローラ、デジタルプロセッサ、マイクロコンピュータ、中央演算処理装置の一部、状態機械、論理回路、及び/または、信号を操作するいずれの装置であってもよい。 Typically, a system for scanning and / or alignment of scanned data includes general or specific processing modules and memory. The processing module can be based on a single processing device or multiple processing devices. Such a processing device may be a microprocessor, microcontroller, digital processor, microcomputer, part of a central processing unit, state machine, logic circuit, and / or any device that manipulates signals.
これらの信号の操作は一般に、メモリに表される操作指令に基づく。メモリは、単一のメモリ装置であってもよく、または複数のメモリ装置であってもよい。そのようなメモリ装置(機械読取可能な媒体)は、リードオンリーメモリ、ランダムアクセスメモリ、フロッピーディスク(登録商標)メモリ、磁気テープメモリ、消去可能なメモリ、システムメモリの一部、デジタルフォーマットで操作指令を格納する他のいずれの装置であってもよい。処理モジュールが1つまたはそれ以上の機能を実施するときには、対応する操作指令を格納するメモリが状態機械及び/または他の論理回路を備える回路内に埋め込まれているところで、行われてもよいことに注意されたい。 The operation of these signals is generally based on an operation command represented in a memory. The memory may be a single memory device or a plurality of memory devices. Such memory devices (machine-readable media) are read-only memory, random access memory, floppy disk (R) memory, magnetic tape memory, erasable memory, part of system memory, operating instructions in digital format It may be any other device that stores. When a processing module performs one or more functions, it may be done where the memory storing the corresponding operating instructions is embedded in a circuit comprising a state machine and / or other logic circuits Please be careful.
本発明は、特定の実施形態を参照して記載されてきた。他の実施形態において、3つ以上の位置合わせ処理を使用することができる。たとえば、累積位置合わせ処理が中断して、結果として複数の累積モデルができる場合、その後の位置合わせルーチンを使用して、複数の累積モデルの間の位置合わせを試みることができる。 The invention has been described with reference to specific embodiments. In other embodiments, more than two alignment processes can be used. For example, if the cumulative registration process is interrupted, resulting in multiple cumulative models, a subsequent registration routine can be used to attempt registration between the multiple cumulative models.
図42から50は、ここに記載された特定のやり方で得ることができる解剖学的構造物の三次元走査データを使用して特定の方法及び装置を例示する。三次元走査データは、さらに使用するために、遠隔施設へ発信される。たとえば、三次元走査データは、解剖学的装置を設計するか、解剖学的装置を製造するか、生体組織の構造的変化をモニタするか、解剖学的構造物に属するデータを所定期間保存するか、解剖学的構造物の閉鎖ループ反復分析を実施するか、構造物の反復相談を実施するか、構造物に基づいたシミュレーションを実施するか、解剖学的構造物に関する診断を行うか、または、解剖学的構造物に基づいた治療計画を決定するために使用される解剖学的構造物の生体組織を表すことができる。 FIGS. 42 through 50 illustrate certain methods and apparatus using three-dimensional scanning data of anatomical structures that can be obtained in the particular manner described herein. The 3D scan data is transmitted to a remote facility for further use. For example, three-dimensional scanning data is designed for designing an anatomical device, manufacturing an anatomical device, monitoring structural changes in living tissue, or storing data belonging to an anatomical structure for a predetermined period of time. Perform a closed-loop iterative analysis of the anatomical structure, perform a repeated consultation of the structure, perform a structure-based simulation, perform a diagnosis on the anatomical structure, or The anatomical structure anatomy used to determine a treatment plan based on the anatomical structure can be represented.
ここで使用されるように、解剖学的装置は、解剖学的構造物を能動的にまたは受動的に補足するかまたは修正する装置を含むように規定される。解剖学的器具は、歯列矯正器具を含み、これは能動的であっても受動的であってもよく、歯列矯正用ブリッジ、保持器、ブラケット、ワイヤ及び位置決め器等の項目を含むことができるが、これに限定されない。他の解剖学的器具の例として、副子及びステントが挙げられる。歯列矯正及び人工装具の解剖学的装置の例として、取り外し可能な人工装具装置、固定人工装具装置及び移植可能な装置が挙げられる。取り外し可能な人工装具装置の例として、義歯、部分的義歯等の歯科構造物、及び、他の身体部分用の人工装具構造物、たとえば、四肢、眼、美容整形に含まれる移植片、補聴器、及び、眼鏡のフレーム等の類似物を含む人工身体部分として作用する人工装具装置等が挙げられる。固定人工装具装置解剖学的装置の例として、キャップ、歯冠、及び、他の非歯科解剖学的交換構造物が挙げられる。移植可能な人工装具装置の例として、骨内インプラント及び歯列矯正インプラント、及び、破損を保持するか減少するために使用されるプレート等の固定装置が挙げられる。 As used herein, anatomical devices are defined to include devices that actively or passively supplement or modify anatomical structures. Anatomical instruments include orthodontic instruments, which may be active or passive, and include items such as orthodontic bridges, retainers, brackets, wires and positioners However, it is not limited to this. Examples of other anatomical instruments include splints and stents. Examples of orthodontic and prosthetic anatomical devices include removable prosthetic devices, fixed prosthetic devices, and implantable devices. Examples of removable prosthetic devices include dental structures such as dentures, partial dentures, and other body part prosthetic structures such as extremities, eyes, implants included in cosmetic surgery, hearing aids, And a prosthetic device that acts as an artificial body part including analogs such as a frame of glasses. Examples of fixed prosthetic device anatomical devices include caps, crowns, and other non-dental anatomical replacement structures. Examples of implantable prosthetic devices include intraosseous and orthodontic implants and fixation devices such as plates used to hold or reduce breakage.
図42は、本発明にしたがったフローを例示する。具体的には、図42は、施設4441で走査装置4401によって解剖学的構造物4400を走査するのを例示する。本発明の1つの態様にしたがって、ここに提案された目的のためにデジタルデータを作製することができるいずれのスキャナタイプまたは方法を使用することができる。直接三次元表面走査は、解剖学的構造物のいくつかまたはすべてを、直接走査することができることを示す。直接三次元表面走査を実施する1つの実施形態は、ここに先に記載されている。1つの実施形態において、走査は表面走査であり、それによって走査装置4401は、信号及び/または構造物4400の表面でまたはその近傍でそれから反射したパターンを検出する。特定の表面走査方法及び装置は、ここに先に記載されている。他の走査方法も使用することができる。
FIG. 42 illustrates a flow according to the present invention. Specifically, FIG. 42 illustrates scanning an
一般に、解剖学的構造物の表面走査は、解剖学的構造物の直接走査である。直接走査は、実際の解剖学的構造物を走査することを意味する(生体内)。代替実施形態において、解剖学的構造物の間接走査を行うこともでき、直接走査と統合することもできる。間接走査は、実際の元々の解剖学的構造物の表示を走査することを意味する(生体外)。 In general, a surface scan of an anatomical structure is a direct scan of the anatomical structure. Direct scanning means scanning the actual anatomy (in vivo). In an alternative embodiment, an indirect scan of the anatomy can be performed and can be integrated with the direct scan. Indirect scanning means scanning the display of the actual original anatomical structure (in vitro).
デジタルデータ4405は、解剖学的構造物4400の直接走査に基づいて施設(場所)4441で作製される。1つの実施形態において、デジタルデータ4405は、未加工の走査データを表し、これは一般に、走査装置4401によって作製された、点の二次元クラウドである。別の実施形態において、デジタルデータ4405は三次元点モデルを表し、これは一般に、点の二次元クラウドに基づいて作製される。さらに別の実施形態において、デジタルデータ4405は三次元初期モデルを表す。デジタルデータ4405は複数の独立した走査の複合であってもよく、これは、時間的にほぼ同一の点または異なる点で実施されてもよく、且つ、同一の場所または異なる場所で実施されてもよい。
デジタルデータ4405の実際のデータの種類は、場所4441で未加工の走査データになされた処理の量によって決定される。一般に、スキャナ4401から直接受け取られたデータは、点の二次元クラウドである。したがって、施設4441で何の処理も実施されないときには、デジタルデータ4405は点の二次元クラウドである。三次元点モデル及び三次元初期モデルは一般に、二次元点クラウドをさらに処理することによって作製される。
The actual data type of the
施設4441は、解剖学的構造物の物理的走査が発生する場所を表す。1つの実施形態において、施設4441は、解剖学的構造物を走査するのに専用の、または主に専用の場所である。この実施形態において、施設は、走査を必要とする大勢のクライアント(患者)が容易にアクセスすることができるところに位置する。たとえば、ショッピングモールのボックスまたは小規模ショッピングセンターの場所が、走査を実施するために専用であり得る。そのような施設は、広く様々な走査を実施してもよく、または、顔構造物または歯構造物の走査等の特定の種類の走査に特化されてもよい。代替実施形態において、走査は、ユーザが家庭で実施することができる。たとえば、ユーザには、携帯スキャナを提供することができ、解剖学的構造物を走査するのに遠隔使用して治療計画の進捗をモニタするために使用することができる走査データを作製するためか、または診断目的か、または、調査またはモニタ目的かである。
別の実施形態において、施設4441は、解剖学的構造物を走査し、デジタルデータ4405を作製することに関する、他の付加価値のあるサービスを実施する場所である。他の付加価値のあるサービスの例として、デジタルデータ4405を作製するために走査データに基づいて解剖学的装置を設計するかまたは部分的に設計すること、または、そのような解剖学的装置を設置することが挙げられる。1つの実施形態において、デジタルデータ4405の作製を超えた付加価値サービスは施設4441で実施されない。
In another embodiment, the
ひとたびデジタルデータ4405が施設4441で作製されると、デジタルデータをクライアントに提供することができる。接続4406は第三者へ提供されているデジタルデータを表す。提供するこのステップは、クライアントによって、施設4441によって、または、他のいずれの中間源によって、行うことができる。一般に、クライアントは、データが送られるべき第三者を特定する。デジタルデータ4405は、物理的にすなわち郵便またはクーリエによって、または、遠隔的にすなわち通信によって、施設4442へ提供することができる。たとえば、デジタルデータ4405は、不揮発性の格納装置、たとえば、携帯磁気媒体、リードオンリーフューズ装置またはプログラム可能な不揮発性装置に、物理的に設けることができる。他の実施形態において、デジタルデータは、直接接続、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、ワイヤレス接続、及び/または、デジタル情報を1つの計算システムから別の計算システムへ移送することができるいずれの装置によって、クライアントまたは第三者へ送信することができる。特定の実施形態において、デジタルデータのすべてまたはいくらかを発信する必要がある。たとえば、走査が患者の歯及び関連構造物、たとえば歯肉等の場合、歯の一部が発信される。
Once
図42の特定の実施形態において、施設4442(受取施設)で受け取られたデジタルデータ4405を使用して、ステップ4415で解剖学的装置を設計する。図43は、ステップ4415の2つの代替実施形態を有する方法を例示する。第1の実施形態は、ステップ4501で開始し、物理的モデルを使用して解剖学的構造物を設計し、一方、第2の実施形態は、ステップ4511で開始し、解剖学的装置の仮想モデルを使用する構造物を設計する。解剖学的装置の仮想モデルは一般に、コンピュータが作製した仮想のモデルである。
In the particular embodiment of FIG. 42,
ステップ4501では、デジタルデータ4405を使用して、解剖学的構造物の物理的な三次元物理的モデルの作製が発生する。特定の実施形態において、走査された物体の物理的モデルは、数値的に制御された処理技術、たとえば、三次元プリンティング、自動化フライス削り、レーザ焼結、立体リソグラフィ、射出成形及び押出成形を使用して作製される。
In
ステップ4502では、三次元物理的モデルを使用して解剖学的装置を設計する。たとえば、物理的モデルを使用して、医者は、クライアントによって使用される解剖学的装置を作製する。1つの実施形態において、解剖学的装置は、物理的モデルに基づいてカスタム設計される。別の実施形態において、解剖学的構造物の物理的モデルに基づいて標準歯列矯正装置が選択される。これらの標準装置は、必要に応じて修正されてもよく、セミカスタム装置を形成する。
In
図43のステップ4503では、解剖学的装置の製造は物理的モデルに基づくことができる。物理的モデルが使用される場合には、設計するステップ4502及び製造するステップ4503は、設計及び製造処理が同時に発生しているステップであることが多い。他の実施形態において、所望の解剖学的装置の成型品または仕様書が作られ、カスタム設計及び/または製造のために、処理センターへ送られる。
In
ステップ4511で開始する代替実施形態において、解剖学的装置の仮想三次元モデルを使用して、解剖学的装置を設計する。仮想三次元モデルは、数値的に制御される装置、たとえばコンピュータによって作製されたモデルを意味し、デジタルデータ4405を含むかまたはデジタルデータ4405に基づいて作製されるかのいずれかである。1つの実施形態において、仮想三次元モデルは、設計センターへ提供されるデジタルデータ4405の部分として含まれる。別の実施形態において、三次元モデルがデジタルデータを使用して作製され、ステップ4511で受け取られる。別の実施形態において、代替三次元モデルが、デジタルデータ4405の部分として含まれる三次元モデルに基づいて、ステップ4511で作製される。別の実施形態において、複数の三次元モデルを複数の走査から一緒にとじることができる。たとえば、複数の走査セッションからのデータを使用することができる。
In an alternative embodiment starting at
さらに、ステップ4511では、仮想解剖学的装置が仮想三次元モデルを使用して設計(モデル化)される。仮想装置は、仮想装置を特定するための標準のまたはカスタム設計ソフトウェアを使用して設計することができる。そのような設計ソフトウェアの例として、市販の製品、たとえば、AutoCAD、Alias、Inc及びProEngineerが挙げられる。たとえば、設計ソフトウェアを使用して、解剖学的構造物の三次元仮想モデルを使用する仮想歯冠を設計することができるか、または、実際の装置を表す装置のライブラリから、カスタムに近いか標準かまたは仮想の装置を選択することができる。標準装置を選択することに続いて、カスタム化を行うことができる。
Further, in
ステップ4512では、解剖学的装置が、装置の仮想仕様に基づいて直接製造することができる。たとえば、解剖学的装置は、数値的に制御された処理技術、たとえば、三次元プリンティング、自動化フライス削り、または、レーザ焼結、立体リソグラフィ、及び、射出成形及び押出成形、及び、注型技術を使用して、作製することができる。解剖学的装置の製造は、装置を部分的に製造すること、及び、複数の場所で装置を製造することを含むことが認識される。
In
ステップ4426では、製造された解剖学的装置が走査される。製造された解剖学的装置の仮想モデルを作製することによって、製造された解剖学的装置と解剖学的構造物との間の関係を検証するためにシミュレーションを実施することができ、それによって、閉鎖ループを提供して、装置の適切な製造を保証する。
In
ステップ4504では、完成した解剖学的装置が、設置のため特定の場所へ送られる。たとえば、図42へ戻ると、解剖学的装置は施設4444へ送られ、そこで、ステップ4435で設置が発生する。1つの実施形態において、解剖学的装置はステップ4435で、医者、たとえば、歯科医、歯列矯正医、内科医または療法士によって設置される。別の実施形態では、患者が、いくつかの歯列矯正装置、たとえば、保持器または類似の位置決め装置を設置することができる。
In
本発明の特定の実施形態にしたがって、解剖学的装置は、デジタルデータ4405が受け取られるかまたは作製されるところに対して遠隔な場所で、設計されるかまたは製造される。1つの実施形態において、デジタルデータは場所4441で受け取られる。具体的には、デジタルデータは、解剖学的構造物4400を走査することによって受け取られる。ひとたび受け取られると、デジタルデータは場所4442へ発信され、これは場所4441に対して遠隔地であり、そこで解剖学的装置が少なくとも部分的に設計される。
In accordance with certain embodiments of the present invention, the anatomical device is designed or manufactured at a location remote from where the
遠隔地(施設)は、何らかのやり方で他の場所から引き離されたところである。たとえば、遠隔地は、他の場所から物理的に離れた場所であってもよい。たとえば、走査施設は、異なった部屋、建物、都市、州、国または他の場所内にあってもよい。別の実施形態において、遠隔地は、機能的に独立した場所であり得る。たとえば、一方の場所は、1つの特定の機能または機能のセットを実施するために使用することができ、他方、別の場所は、異なる機能を実施するために使用することができる。異なる機能の例として、走査、設計及び製造が挙げられる。遠隔地は一般に、人員及び設備等の別個の構造基盤によって支持される。 The remote location (facility) has just been separated from the other location in some way. For example, the remote location may be a location physically separated from other locations. For example, the scanning facility may be in a different room, building, city, state, country or other location. In another embodiment, the remote location may be a functionally independent location. For example, one location can be used to perform one particular function or set of functions, while another location can be used to perform different functions. Examples of different functions include scanning, design and manufacturing. Remote locations are generally supported by separate structural infrastructure such as personnel and equipment.
別の実施形態において、施設4441でデジタルデータ4405は、部分的に設計された解剖学的装置を含む。解剖学的装置は、遠隔施設4442でさらに設計される。施設4442は、最終解剖学的装置を決定するか、診断を行うか、治療計画を形成するか、進捗をモニタするか、または、コスト、専門的知識、通信の容易さ及び必要な応答時間に基づいて装置を設計するかのために、平行してまたは連続して使用することができる1つまたはそれ以上の遠隔施設を表すことができることに注意されたい。平行施設の例は、図46にさらに例示される。
In another embodiment, the
図44は、本発明の別の実施形態を例示する。図44のフローは、図42のフローに類似しており、追加中間ステップ4615を有する。中間ステップ4615は、デジタルデータ4405が、データが走査された施設4441から直接受け取られる必要はないことを示す。たとえば、デジタルデータを走査し、これを、中間ステップ4615が発生する第2の施設4641(受取施設)へ提供することによって、デジタルデータ4405を第1の施設(送出施設)で作製することができる。ひとたび中間ステップ4615が完了すると、デジタルデータ4405またはデジタルデータの表示である修正されたデジタルデータを、第1及び第2の施設の少なくとも一方に対して遠隔である第3の施設(遠隔施設)へ発信することができる。中間ステップ4615中に、データが第3の施設へ送られる前に、他のステップがデジタルデータ4405を修正することができる。たとえば、走査データを処理して解剖学的構造物の三次元仮想モデルを提供することができ、データをデジタルデータに加えることができ、走査された解剖学的構造物4400の画像データ、色情報、診断情報、治療情報を含むビデオ及び/または写真データ、音声データ、テキストデータ、X線データ、解剖学的装置設計情報、及び、解剖学的装置の設計または製造に属する他のいずれのデータを含む。代替実施形態において、中間ステップ4615はデジタルデータ4405を変える必要はない。
FIG. 44 illustrates another embodiment of the present invention. The flow of FIG. 44 is similar to the flow of FIG. 42 with an additional
図45は、ステップ4741で法医学的評価のために施設4742でデジタルデータ4405が受け取られる本発明の代替実施形態を例示する。法医学的評価の例として、走査された解剖学的構造物に基づいた犠牲者の識別が挙げられる。そのような識別は一般に、特定の解剖学的構造物を目標データベース内に含まれる解剖学的構造物に整合することに基づいて行われ、目標データベースは単一の構造物、複数の構造物を含むことができる。1つの実施形態において、目標データベースは、所定期間保存されたデータを含む中央に位置するデータベースであってもよい。
FIG. 45 illustrates an alternative embodiment of the invention in which
図46は、デジタルデータ4405またはその表示が、ステップ4844及び4845で診断目的または治療計画のために、1つまたはそれ以上の遠隔施設4843へ送られる本発明の実施形態を例示する。診断目的のためにデータを発信することができることによって、患者が物理的に存在する必要なしで、専門家等の他の医者へ、解剖学的構造物の三次元情報を提供することができる。これができることによって、治療の全体的速度及び便利さ、及び、複数の診断を平行して行うことができるときの正確度を改良する。治療計画及び診断的のためにデジタルデータ4405またはその表示を複数の施設へ送ることができることによって、複数の意見を得ることができる。ひとたび特定の治療計画を選択すると、治療計画の部分として特定された装置のいずれの1つを、製造するために選択することができる。
FIG. 46 illustrates an embodiment of the invention in which
図46の特定の実施において、施設の各々から見積価格を得ることができる。見積価格は、取引相手によって特定された特定の治療に基づくことができ、治療は解剖学的構造物に関する。あるいは、見積価格は、取引相手によって特定された所望の結果に基づくことができ、治療定義及びその関連実施コストは、見積を提供する施設によって決定される。このようにして、患者または患者の代理人が効果的なやり方で競争入札を得ることができる。 In the particular implementation of FIG. 46, an estimated price can be obtained from each of the facilities. The quoted price can be based on a specific treatment identified by the trading partner, where the treatment relates to the anatomical structure. Alternatively, the quoted price can be based on the desired result specified by the trading partner, and the treatment definition and its associated implementation costs are determined by the facility providing the quote. In this way, the patient or patient representative can get a competitive bid in an effective manner.
図47は、本発明の代替実施形態を例示し、デジタルデータ4405またはその表示は、施設4942で受け取られ、そのためデータは、教育的目的のためにステップ4941で使用することができる。ここに記載された実施形態の決定論的性質のために、以前の方法を使用しては可能ではない標準化方法で教育的技術を実施することができる。教育的目的の例として、自己学習目的、教育モニタリング目的、及び、以前には可能ではなかった標準化適用検査を提供することができることが挙げられる。さらに、特定の患者のケースファクトを、他の患者の先のまたは現在の症病録へ整合させることができ、症病録は格納されているかまたは所定期間保存されている。
FIG. 47 illustrates an alternative embodiment of the present invention, where
図48は、走査データをステップ5001で所定期間保存することができる実施形態を例示し、これは、認可された者によって容易に検索されるように場所5002で発生する。特定の実施形態において、そのような所定期間保存は、サービスとして提供され、それによってそのデータは共通して維持され、それによって、デジタルデータの共通サイトの独立した「黄金律」コピーを得ることができる。
FIG. 48 illustrates an embodiment in which scan data can be stored for a predetermined period of time at
図49は、解剖学的構造物を走査することによって得られたデジタルデータが閉鎖ループ反復システムに使用される本発明の特定の実施形態を例示する。図49のフローもインタラクティブ的である。具体的には、解剖学的構造物の変化が、故意であれ故意ではないのであれ、モニタされ閉鎖ループシステムの部分として制御されることが可能である。走査データが三次元空間で測定可能であり、それによって、三次元モデルの形態の標準参照を分析のために使用することができるため、本発明にしたがった閉鎖ループシステムは決定論的である。 FIG. 49 illustrates a particular embodiment of the present invention in which digital data obtained by scanning an anatomical structure is used in a closed loop iterative system. The flow of FIG. 49 is also interactive. In particular, changes in anatomical structures, whether intentional or unintentional, can be monitored and controlled as part of a closed loop system. A closed-loop system according to the present invention is deterministic because the scan data can be measured in three-dimensional space, whereby a standard reference in the form of a three-dimensional model can be used for analysis.
ステップ5101では、解剖学的装置の三次元走査データが得られる。
In
ステップ5102では、ステップ5001の走査からデータが、またはデータの表示が、遠隔施設へ発信される。
In
ステップ5103では、発信されたデータの設計/評価が実施される。たとえば、治療計画、診断及び解剖学的装置用の設計が、ステップ5103を含むループを通る第1の通過の間に決定される。ステップ5103を通るその次の通過の間に、治療または装置の状態または進捗がモニタされ、必要に応じて変更が行われる。1つの実施形態において、モニタリングは、シミュレートされた予想される結果か先のヒストリーかまたは整合した症病録に対して、現在の走査データを比較することによって実施される。
In
ステップ5104では、装置または治療計画が、実施されるかまたは適切に設置される。装置のいずれの製造も、ステップ5104の部分として実施される。
In
図48の閉鎖ループシステムの追加通過が、ステップ5105で必要か否かが決定される。必要であれば、フローはステップ5101へ進む。必要でなければ、フローは終結する。図49を参照して検討したように、閉鎖ループフィードバックループは、図48に例示されたいずれのステップの間に存在することができる。
It is determined in
進捗を検証するためにフィードバックを使用することができることは、医者が、テキストノート、モデルの視覚観察及び他の画像の1つまたはそれ以上に依存した先行技術に対する利点である。しかし、同一の視点で見られていることを医者が保証することができる固定三次元モデルなしで、これらの観察は行われた。ここに記載されたビジュアルモデルを使用することによって、固定した参照を得ることができる。たとえば、歯列矯正構造物用の固定された参照点を得る1つの方法は、歯列矯正構造物の物理的特質に基づいて配向参照点を選択することを含む。配向参照点をその後に使用して、歯列矯正構造物のデジタル画像を三次元座標システムにマッピングすることができる。たとえば、小帯を配向参照点の1つとして選択することができ、皺を他方の配向参照点として選択することができる。小帯は、歯列矯正患者の固定された点であり、治療中に変化しないかまたは変化しても最小である。小帯は、上部アーチの歯肉の上部部分の三角形形状の組織である。皺は、上部アーチの口蓋68にある腔である。皺も、治療中にその物理的位置を変化しない。そのようであるため、小帯及び皺は、治療中に変化しない歯列矯正患者の固定された点である。そのようであるため、これらを配向参照点として使用することによって、三次元座標システムをマッピングすることができる。切歯乳頭、口唇裂、瞳孔間中間点、交運間中間点(たとえば唇の間)、翼間中間点(たとえば鼻の側部の間)、鼻臥(たとえば鼻の先端)、鼻下(たとえば鼻との唇との接合部)、歯中線点、骨上の点、インプラント等の固定骨マーカー(たとえば、歯根管治療、口腔外科からのねじ)を含む歯列矯正患者の他の物理的特質も配向参照点として使用することに注意されたい。 The ability to use feedback to verify progress is an advantage over the prior art where doctors rely on one or more of text notes, visual observation of models, and other images. However, these observations were made without a fixed three-dimensional model that the doctor could assure that they were viewed from the same perspective. By using the visual model described here, a fixed reference can be obtained. For example, one method of obtaining a fixed reference point for an orthodontic structure includes selecting an orientation reference point based on the physical characteristics of the orthodontic structure. The orientation reference point can then be used to map a digital image of the orthodontic structure to the three-dimensional coordinate system. For example, the zonule can be selected as one of the orientation reference points, and the eyelid can be selected as the other orientation reference point. A zonule is a fixed point in an orthodontic patient and does not change or is minimal when changing during treatment. The zonule is the triangular shaped tissue of the upper part of the upper arch gingiva. The heel is a cavity in the palate 68 of the upper arch. Acupuncture also does not change its physical position during treatment. As such, zonules and wrinkles are fixed points in orthodontic patients that do not change during treatment. As such, a 3D coordinate system can be mapped by using these as orientation reference points. Incisor papilla, cleft lip, interpupillary midpoint, intercarriage midpoint (eg between lips), wing midpoint (eg between nose sides), nasal fin (eg nose tip), subnasal (eg Other physical parts of orthodontic patients including nose and lip joints), midline points, points on bones, fixed bone markers such as implants (eg root canal treatment, screws from oral surgery) Note that attributes are also used as orientation reference points.
図50は、ここに例示されたステップのいずれの組み合わせ内及びその間で反復フィードバックステップが起こることができることを例示する。たとえば、インタラクティブ及び/またはインタラクティブループが、製造ステップ4425と設計ステップ4415との間に、または、図42のステップ4426を参照して記載された単一ステップ内にあってもよい。
FIG. 50 illustrates that iterative feedback steps can occur within and between any combination of the steps illustrated herein. For example, the interactive and / or interactive loop may be in a single step described between the
本願のステップに導出された走査されたデータを使用する多くの方法に加えて、データの使用に助成する多くの方法が可能である。たとえば、そのような走査データ4405を使用する料金は、データの使用か、提供されるサービスのコストか、作製されている解剖学的装置か、またはデータに基づいて装置またはサービスに加えられた値か、に基づいて固定されたまたは変動の料金であってもよい。加えて、他の多くの種類の料金が想像可能であることは明らかである。
In addition to the many methods that use the scanned data derived in the present application step, many methods are possible to assist in the use of the data. For example, the fee for using
ここに記載のステップ及び方法は、処理モジュール(図示せず)で実行されてもよい。処理モジュールは、単一の処理装置であっても複数の処理装置であってもよい。そのような処理モジュールは、マイクロプロセッサ、マイクロコンピュータ、デジタルシグナルプロセッサ、コンピュータまたはワークステーションの中央演算処理装置、デジタル回路、状態機械、及び/または、操作指令に基づいて信号(たとえば、アナログ及び/またはデジタル)を操作するいずれの装置であってもよい。処理モジュールの操作は一般に、メモリに格納されたデータによって制御される。たとえば、マイクロプロセッサが使用される場合には、マイクロプロセッサのバスがメモリのバスに接続されて指令にアクセスする。メモリの例として、単一または複数のメモリ装置、たとえば、ランダムアクセスメモリ、リードオンリーメモリ、フロッピーディスク(登録商標)メモリ、ハードドライブメモリ、拡張メモリ、磁気テープメモリ、ジップドライブメモリ、及び/または、デジタル情報を格納するいずれの装置が挙げられる。そのようなメモリ装置は、ローカル(すなわち、処理装置に直接接続される)であってもよく、または、物理的に異なる場所(すなわち、インターネットに接続されるサイト)であってもよい。処理モジュールが、状態機械または論理回路を経由して、1つまたはそれ以上の機能を実施するときには、対応する操作指令を格納するメモリが状態機械または論理回路を備える回路内に埋め込まれていることに注意されたい。 The steps and methods described herein may be performed by a processing module (not shown). The processing module may be a single processing device or a plurality of processing devices. Such processing modules may be microprocessors, microcomputers, digital signal processors, central processing units of computers or workstations, digital circuits, state machines, and / or signals based on operational commands (eg, analog and / or Any device that operates (digital) may be used. The operation of the processing module is generally controlled by data stored in memory. For example, if a microprocessor is used, the microprocessor bus is connected to the memory bus to access commands. Examples of memory include single or multiple memory devices, such as random access memory, read only memory, floppy disk memory, hard drive memory, expansion memory, magnetic tape memory, zip drive memory, and / or Any device that stores digital information can be mentioned. Such a memory device may be local (ie, directly connected to the processing device) or may be physically different (ie, a site connected to the Internet). When a processing module performs one or more functions via a state machine or logic circuit, the memory storing the corresponding operation command is embedded in the circuit comprising the state machine or logic circuit Please be careful.
ここに記載の特定の実施形態は、公知の技術に対して利点を提供することを当業者は理解する。たとえば、走査されている解剖学的構造物は、1つまたはそれ以上の関連解剖学的装置または器具を有してもよい。加えて、本発明は、診断し、治療し、モニタし、設計し且つ解剖学的装置を製造するための決定論的方法を提供する。加えて、本実施形態を使用して、人工装具を設計し製造する様々な当事者間で通信を行うためのインタラクティブな方法を提供することができる。そのようなインタラクティブな方法は、リアルタイムで実施することができる。ここに記載された方法によって、他者が、他者の経験から得られた実際の情報及び知識を得ることができるようなやり方で、データを所定期間保存することができる。複数の相談者が、場所に関係なく情報の同一の決定論的コピーにアクセスすることができ、複数の独立したサイトが使用されているときでさえ、客観的な設計、製造及び/または治療モニタリング情報を得ることができる。本実施形態によって、解剖学的装置を作製するのに使用される従来のラボの回避が可能である。具体的には、解剖学的装置を作製するのに使用されるサポート施設が今では数え切れないほど多く、患者に対して遠隔である。これが、医者及び患者にかかる全体的コストを減少することができる。走査場所が他のサポート場所から遠隔であってもよいため、患者は、装置の状態または進捗をモニタさせるために医者へ行く必要がない。全体として、本実施形態のデジタルデータの固定された所定期間保存可能な性質のため、黄金律モデルから同一の複製モデルを低コストで作製することができ、それによって、データが失われたり不正確であったりする可能性を減少する。特定の解剖学的構造物を分析するために、患者に必要な時間及び移動の量を減少することによって、治療コストが減少される。先行技術の方法では関連のあった患者へのさらなる不便なしで、複数の意見(見積もり、治療計画、診断等)へのアクセス可能性が増加する。図示された特定の実施形態を使用して、競争見積もりも容易に獲得することができる。 Those skilled in the art will appreciate that the specific embodiments described herein provide advantages over known techniques. For example, the anatomical structure being scanned may have one or more associated anatomical devices or instruments. In addition, the present invention provides a deterministic method for diagnosing, treating, monitoring, designing and manufacturing anatomical devices. In addition, the present embodiments can be used to provide an interactive method for communicating between various parties designing and manufacturing prostheses. Such interactive methods can be implemented in real time. The methods described herein allow data to be stored for a period of time in such a way that others can obtain actual information and knowledge derived from the experience of others. Multiple consultants can access the same deterministic copy of information regardless of location, and objective design, manufacturing and / or treatment monitoring, even when multiple independent sites are used Information can be obtained. This embodiment allows for the avoidance of conventional labs used to make anatomical devices. Specifically, the number of support facilities used to create anatomical devices is now countless and remote to the patient. This can reduce the overall costs for doctors and patients. Because the scanning location may be remote from other support locations, the patient does not have to go to the doctor to monitor the status or progress of the device. Overall, the digital data of this embodiment can be stored for a fixed period of time, so that the same replica model can be created at low cost from the golden rule model, resulting in lost or inaccurate data. Reduce the likelihood of being By reducing the amount of time and travel required for the patient to analyze a particular anatomical structure, treatment costs are reduced. Prior art methods increase the accessibility to multiple opinions (estimates, treatment plans, diagnoses, etc.) without further inconvenience to the patients involved. Competition estimates can also be easily obtained using the particular embodiment illustrated.
前述の明細書において、本発明は、特定の実施形態に関連して記載してきた。しかし、下記の特許請求の範囲に述べられる本発明の範囲から逸脱することなく様々な修正及び変更を行うことができることは当業者には明らかである。たとえば、デジタルデータは、解剖学的構造物の直接走査と構造物の間接走査との複合であってもよい。これは、解剖学的構造物の一部がスキャナ4401によって見ることができないときに発生してもよく、そのため、解剖学的構造物の少なくともその部分の印象は見えない。印象または印象から作られたモデルは、次いで走査され、直接走査データに「とじ」られて、完全走査を形成する。他の実施形態において、デジタルデータ4405は、他の従来の方法と組み合わせて使用することができる。他の実施形態において、ここに記載されたデジタルデータは、圧縮されるかまたは暗号化方法を使用して確実にされてもよい。暗号化されるときには、患者、走査施設及び所定期間保存しうる施設または患者の代理人の1つまたはそれ以上が、デジタルデータ用の暗号の鍵を有することができる。したがって、明細書及び図面は、制限的な意味ではなく、例示的な意味にみなされるべきであり、そのような修正のすべては、本発明の範囲内に含まれるものと意図される。特許請求の範囲において、単数及び複数のミーンズプラスファンクション項が、もしあれば、それは、単数及び複数の引用された機能を実施するここに記載された構造物をカバーする。単数及び複数のミーンズプラスファンクション項は、構造的等価物、及び、単数及び複数の引用された機能を実施する等価の構造物もカバーする。利益、他の利点及び問題への解法は、特定の実施形態に関連して上述されている。しかし、利益、他の利点、問題への解法、及び、いずれの利益または利点または解法を発生させるかまたはよりはっきりさせることができる単数及び複数のいずれの要素は、いずれのまたはすべての請求項の重大な必要なまたは必須の特徴または要素として解釈すべきではない。
In the foregoing specification, the invention has been described with reference to specific embodiments. However, one of ordinary skill in the art appreciates that various modifications and changes can be made without departing from the scope of the present invention as set forth in the claims below. For example, the digital data may be a combination of a direct scan of the anatomical structure and an indirect scan of the structure. This may occur when a portion of the anatomical structure cannot be viewed by the
参照独立スキャナは、特定の実施形態において投影/観察平面に直交する方向に可変識別子を組み込むことが開示されているため、本発明は先行技術に対して有利であることを当業者は認識する。投影/観察平面に直交する方向に変数を提供することによって、これらの変数の歪みは、投影/観察平面に平行な方向な歪みよりも少なく、特定の形状の識別を禁止しない。結果として、物体のマッピングのより大きな正確度を得ることができる。 Those skilled in the art will recognize that the present invention is advantageous over the prior art because the reference independent scanner is disclosed to incorporate a variable identifier in a direction orthogonal to the projection / viewing plane in certain embodiments. By providing variables in a direction orthogonal to the projection / viewing plane, the distortion of these variables is less than that in a direction parallel to the projection / viewing plane and does not prohibit identification of specific shapes. As a result, greater accuracy of object mapping can be obtained.
Claims (3)
投影軸及び視軸によって形成された平面に平行な方向に均一な間隔に互いに置かれる少なくとも3つの線のそれぞれに沿って配置される1つの要素を備えた少なくとも1つのコード化特徴部を備えたパターンを使用し且つ空間的に固定されないスキャナを提供するステップであって、前記スキャナは前記パターンを物体の表面に投影する投影装置及び前記投影されたパターンを受け取る観察装置を含み、前記少なくとも1つの要素は前記平面に直交した方向に変化し、前記投影軸は前記投影装置のレンズの中心点から前記物体の前記表面への線で表され、前記視軸は前記観察装置のレンズの中心点から前記物体の前記表面への線で表されるステップと、
前記スキャナを使用して空間的に固定されない患者の一部を走査して、複数のフレームを含む画像データを受け取るステップであって、前記画像データはフレームごとに前記コード化特徴部に基づいて識別される前記少なくとも1つの線を転換して得られる前記物体の前記表面の複数の点を含み、前記スキャナは前記複数のフレームのうち隣接するフレーム間の重なり合う前記複数の点を決定することにより前記複数のフレームを位置合わせする参照独立スキャナであるステップと、
を含む方法。 A method of scanning,
With at least one coding feature comprises a single element which is arranged along each of at least three lines are placed together in a uniform spacing in the direction parallel to the plane formed by the projection axis and viewing axis Providing a scanner that uses a pattern and is not spatially fixed, the scanner comprising a projection device that projects the pattern onto a surface of an object and an observation device that receives the projected pattern, the at least one The element changes in a direction perpendicular to the plane, the projection axis is represented by a line from the center point of the lens of the projection device to the surface of the object, and the visual axis is from the center point of the lens of the observation device. Represented by a line to the surface of the object;
Scanning a portion of the patient that is not spatially fixed using the scanner to receive image data including a plurality of frames, wherein the image data is identified on a frame-by-frame basis based on the coded features. A plurality of points on the surface of the object obtained by translating the at least one line, wherein the scanner determines the plurality of points overlapping between adjacent frames of the plurality of frames. A reference independent scanner for aligning multiple frames;
Including methods.
Applications Claiming Priority (16)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/560,133 US6744932B1 (en) | 2000-04-28 | 2000-04-28 | System and method for mapping a surface |
US09/560,131 US6744914B1 (en) | 2000-04-28 | 2000-04-28 | Method and system for generating a three-dimensional object |
US09/560,584 | 2000-04-28 | ||
US09/560,644 US6413084B1 (en) | 2000-04-28 | 2000-04-28 | Method and system of scanning |
US09/560,132 US6771809B1 (en) | 2000-04-28 | 2000-04-28 | Method and system for registering data |
US09/560,644 | 2000-04-28 | ||
US09/560,133 | 2000-04-28 | ||
US09/560,645 US6728423B1 (en) | 2000-04-28 | 2000-04-28 | System and method for mapping a surface |
US09/560,132 | 2000-04-28 | ||
US09/560,583 | 2000-04-28 | ||
US09/560,583 US6738508B1 (en) | 2000-04-28 | 2000-04-28 | Method and system for registering data |
US09/560,131 | 2000-04-28 | ||
US09/560,584 US7068836B1 (en) | 2000-04-28 | 2000-04-28 | System and method for mapping a surface |
US09/560,645 | 2000-04-28 | ||
US09/616,093 | 2000-07-13 | ||
US09/616,093 US6532299B1 (en) | 2000-04-28 | 2000-07-13 | System and method for mapping a surface |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001581218A Division JP4206213B2 (en) | 2000-04-28 | 2001-04-13 | Method and system for scanning a surface and creating a three-dimensional object |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005214965A JP2005214965A (en) | 2005-08-11 |
JP5325366B2 true JP5325366B2 (en) | 2013-10-23 |
Family
ID=27575480
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001581218A Expired - Fee Related JP4206213B2 (en) | 2000-04-28 | 2001-04-13 | Method and system for scanning a surface and creating a three-dimensional object |
JP2004364282A Expired - Lifetime JP5362166B2 (en) | 2000-04-28 | 2004-12-16 | Method and system for scanning a surface and creating a three-dimensional object |
JP2004364269A Expired - Lifetime JP5325366B2 (en) | 2000-04-28 | 2004-12-16 | Method and system for scanning a surface and creating a three-dimensional object |
JP2004364294A Expired - Lifetime JP4989848B2 (en) | 2000-04-28 | 2004-12-16 | Method and system for scanning a surface and creating a three-dimensional object |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001581218A Expired - Fee Related JP4206213B2 (en) | 2000-04-28 | 2001-04-13 | Method and system for scanning a surface and creating a three-dimensional object |
JP2004364282A Expired - Lifetime JP5362166B2 (en) | 2000-04-28 | 2004-12-16 | Method and system for scanning a surface and creating a three-dimensional object |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004364294A Expired - Lifetime JP4989848B2 (en) | 2000-04-28 | 2004-12-16 | Method and system for scanning a surface and creating a three-dimensional object |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1287482A4 (en) |
JP (4) | JP4206213B2 (en) |
AU (1) | AU2001251606A1 (en) |
WO (1) | WO2001084479A1 (en) |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2001251606A1 (en) * | 2000-04-28 | 2001-11-12 | Orametirix, Inc. | Method and system for scanning a surface and generating a three-dimensional object |
US6854973B2 (en) | 2002-03-14 | 2005-02-15 | Orametrix, Inc. | Method of wet-field scanning |
SE0203140L (en) * | 2002-10-24 | 2004-04-25 | Jemtab Systems | Device for determining positions for one or more teeth in tooth replacement arrangements |
DE102004037464A1 (en) * | 2004-07-30 | 2006-03-23 | Heraeus Kulzer Gmbh | Arrangement for imaging surface structures of three-dimensional objects |
US8407067B2 (en) | 2007-04-17 | 2013-03-26 | Biomet Manufacturing Corp. | Method and apparatus for manufacturing an implant |
US20080257363A1 (en) * | 2007-04-17 | 2008-10-23 | Biomet Manufacturing Corp. | Method And Apparatus For Manufacturing An Implant |
US8864769B2 (en) | 2006-02-27 | 2014-10-21 | Biomet Manufacturing, Llc | Alignment guides with patient-specific anchoring elements |
US8858561B2 (en) | 2006-06-09 | 2014-10-14 | Blomet Manufacturing, LLC | Patient-specific alignment guide |
US7967868B2 (en) * | 2007-04-17 | 2011-06-28 | Biomet Manufacturing Corp. | Patient-modified implant and associated method |
US8092465B2 (en) | 2006-06-09 | 2012-01-10 | Biomet Manufacturing Corp. | Patient specific knee alignment guide and associated method |
US8535387B2 (en) | 2006-02-27 | 2013-09-17 | Biomet Manufacturing, Llc | Patient-specific tools and implants |
US8608749B2 (en) | 2006-02-27 | 2013-12-17 | Biomet Manufacturing, Llc | Patient-specific acetabular guides and associated instruments |
US9289253B2 (en) | 2006-02-27 | 2016-03-22 | Biomet Manufacturing, Llc | Patient-specific shoulder guide |
US20150335438A1 (en) | 2006-02-27 | 2015-11-26 | Biomet Manufacturing, Llc. | Patient-specific augments |
US8603180B2 (en) | 2006-02-27 | 2013-12-10 | Biomet Manufacturing, Llc | Patient-specific acetabular alignment guides |
US9907659B2 (en) | 2007-04-17 | 2018-03-06 | Biomet Manufacturing, Llc | Method and apparatus for manufacturing an implant |
US8591516B2 (en) | 2006-02-27 | 2013-11-26 | Biomet Manufacturing, Llc | Patient-specific orthopedic instruments |
US8608748B2 (en) | 2006-02-27 | 2013-12-17 | Biomet Manufacturing, Llc | Patient specific guides |
US9113971B2 (en) | 2006-02-27 | 2015-08-25 | Biomet Manufacturing, Llc | Femoral acetabular impingement guide |
US8377066B2 (en) | 2006-02-27 | 2013-02-19 | Biomet Manufacturing Corp. | Patient-specific elbow guides and associated methods |
US8568487B2 (en) | 2006-02-27 | 2013-10-29 | Biomet Manufacturing, Llc | Patient-specific hip joint devices |
US9173661B2 (en) | 2006-02-27 | 2015-11-03 | Biomet Manufacturing, Llc | Patient specific alignment guide with cutting surface and laser indicator |
US10278711B2 (en) | 2006-02-27 | 2019-05-07 | Biomet Manufacturing, Llc | Patient-specific femoral guide |
US9345548B2 (en) | 2006-02-27 | 2016-05-24 | Biomet Manufacturing, Llc | Patient-specific pre-operative planning |
US9918740B2 (en) | 2006-02-27 | 2018-03-20 | Biomet Manufacturing, Llc | Backup surgical instrument system and method |
US8133234B2 (en) | 2006-02-27 | 2012-03-13 | Biomet Manufacturing Corp. | Patient specific acetabular guide and method |
US9339278B2 (en) | 2006-02-27 | 2016-05-17 | Biomet Manufacturing, Llc | Patient-specific acetabular guides and associated instruments |
US9795399B2 (en) | 2006-06-09 | 2017-10-24 | Biomet Manufacturing, Llc | Patient-specific knee alignment guide and associated method |
DE102007001684B4 (en) | 2007-01-11 | 2023-01-26 | Sicat Gmbh & Co. Kg | Image Registration |
US20090061381A1 (en) * | 2007-09-05 | 2009-03-05 | Duane Milford Durbin | Systems and methods for 3D previewing |
US8265949B2 (en) | 2007-09-27 | 2012-09-11 | Depuy Products, Inc. | Customized patient surgical plan |
CN102652684B (en) | 2007-09-30 | 2015-09-16 | 德普伊产品公司 | The patient-specific orthopaedic surgical instrumentation of customization |
US8357111B2 (en) | 2007-09-30 | 2013-01-22 | Depuy Products, Inc. | Method and system for designing patient-specific orthopaedic surgical instruments |
US8738165B2 (en) * | 2007-12-21 | 2014-05-27 | 3M Innovative Properties Company | Methods of preparing a virtual dentition model and fabricating a dental retainer therefrom |
US20090232388A1 (en) * | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data by creation of filtered density images |
US8992538B2 (en) | 2008-09-30 | 2015-03-31 | DePuy Synthes Products, Inc. | Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication |
US8243289B2 (en) * | 2009-05-29 | 2012-08-14 | Perceptron, Inc. | System and method for dynamic windowing |
CN104783757B (en) | 2009-06-17 | 2018-01-05 | 3形状股份有限公司 | Focus on scanning device |
DE102009028503B4 (en) | 2009-08-13 | 2013-11-14 | Biomet Manufacturing Corp. | Resection template for the resection of bones, method for producing such a resection template and operation set for performing knee joint surgery |
US8632547B2 (en) | 2010-02-26 | 2014-01-21 | Biomet Sports Medicine, Llc | Patient-specific osteotomy devices and methods |
US9066727B2 (en) | 2010-03-04 | 2015-06-30 | Materialise Nv | Patient-specific computed tomography guides |
US8808302B2 (en) | 2010-08-12 | 2014-08-19 | DePuy Synthes Products, LLC | Customized patient-specific acetabular orthopaedic surgical instrument and method of use and fabrication |
US9271744B2 (en) | 2010-09-29 | 2016-03-01 | Biomet Manufacturing, Llc | Patient-specific guide for partial acetabular socket replacement |
US9968376B2 (en) | 2010-11-29 | 2018-05-15 | Biomet Manufacturing, Llc | Patient-specific orthopedic instruments |
US9241745B2 (en) | 2011-03-07 | 2016-01-26 | Biomet Manufacturing, Llc | Patient-specific femoral version guide |
US8715289B2 (en) | 2011-04-15 | 2014-05-06 | Biomet Manufacturing, Llc | Patient-specific numerically controlled instrument |
US9675400B2 (en) | 2011-04-19 | 2017-06-13 | Biomet Manufacturing, Llc | Patient-specific fracture fixation instrumentation and method |
US8668700B2 (en) | 2011-04-29 | 2014-03-11 | Biomet Manufacturing, Llc | Patient-specific convertible guides |
US8956364B2 (en) | 2011-04-29 | 2015-02-17 | Biomet Manufacturing, Llc | Patient-specific partial knee guides and other instruments |
US8532807B2 (en) | 2011-06-06 | 2013-09-10 | Biomet Manufacturing, Llc | Pre-operative planning and manufacturing method for orthopedic procedure |
US9084618B2 (en) | 2011-06-13 | 2015-07-21 | Biomet Manufacturing, Llc | Drill guides for confirming alignment of patient-specific alignment guides |
US20130001121A1 (en) | 2011-07-01 | 2013-01-03 | Biomet Manufacturing Corp. | Backup kit for a patient-specific arthroplasty kit assembly |
US8764760B2 (en) | 2011-07-01 | 2014-07-01 | Biomet Manufacturing, Llc | Patient-specific bone-cutting guidance instruments and methods |
US8597365B2 (en) | 2011-08-04 | 2013-12-03 | Biomet Manufacturing, Llc | Patient-specific pelvic implants for acetabular reconstruction |
US9295497B2 (en) | 2011-08-31 | 2016-03-29 | Biomet Manufacturing, Llc | Patient-specific sacroiliac and pedicle guides |
US9066734B2 (en) | 2011-08-31 | 2015-06-30 | Biomet Manufacturing, Llc | Patient-specific sacroiliac guides and associated methods |
US9386993B2 (en) | 2011-09-29 | 2016-07-12 | Biomet Manufacturing, Llc | Patient-specific femoroacetabular impingement instruments and methods |
US9301812B2 (en) | 2011-10-27 | 2016-04-05 | Biomet Manufacturing, Llc | Methods for patient-specific shoulder arthroplasty |
US9554910B2 (en) | 2011-10-27 | 2017-01-31 | Biomet Manufacturing, Llc | Patient-specific glenoid guide and implants |
KR20130046337A (en) | 2011-10-27 | 2013-05-07 | 삼성전자주식회사 | Multi-view device and contol method thereof, display apparatus and contol method thereof, and display system |
ES2635542T3 (en) | 2011-10-27 | 2017-10-04 | Biomet Manufacturing, Llc | Glenoid guides specific to the patient |
US9451973B2 (en) | 2011-10-27 | 2016-09-27 | Biomet Manufacturing, Llc | Patient specific glenoid guide |
US9237950B2 (en) | 2012-02-02 | 2016-01-19 | Biomet Manufacturing, Llc | Implant with patient-specific porous structure |
DE102012214467B4 (en) * | 2012-08-14 | 2019-08-08 | Sirona Dental Systems Gmbh | Method for registering individual three-dimensional optical recordings of a dental object |
EP2728305B1 (en) * | 2012-10-31 | 2016-06-29 | VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH | Method and light patterns for measuring the height or the height curve of an object |
DE102012220048B4 (en) * | 2012-11-02 | 2018-09-20 | Sirona Dental Systems Gmbh | Calibration device and method for calibrating a dental camera |
US9060788B2 (en) | 2012-12-11 | 2015-06-23 | Biomet Manufacturing, Llc | Patient-specific acetabular guide for anterior approach |
US9204977B2 (en) | 2012-12-11 | 2015-12-08 | Biomet Manufacturing, Llc | Patient-specific acetabular guide for anterior approach |
KR101416985B1 (en) | 2012-12-15 | 2014-08-14 | 주식회사 디오에프연구소 | An auxiliary scan table for scanning 3D articulator dental model |
US9839438B2 (en) | 2013-03-11 | 2017-12-12 | Biomet Manufacturing, Llc | Patient-specific glenoid guide with a reusable guide holder |
US9579107B2 (en) | 2013-03-12 | 2017-02-28 | Biomet Manufacturing, Llc | Multi-point fit for patient specific guide |
US9498233B2 (en) | 2013-03-13 | 2016-11-22 | Biomet Manufacturing, Llc. | Universal acetabular guide and associated hardware |
US9826981B2 (en) | 2013-03-13 | 2017-11-28 | Biomet Manufacturing, Llc | Tangential fit of patient-specific guides |
US9517145B2 (en) | 2013-03-15 | 2016-12-13 | Biomet Manufacturing, Llc | Guide alignment system and method |
US20150112349A1 (en) | 2013-10-21 | 2015-04-23 | Biomet Manufacturing, Llc | Ligament Guide Registration |
US10010387B2 (en) | 2014-02-07 | 2018-07-03 | 3Shape A/S | Detecting tooth shade |
US10282488B2 (en) | 2014-04-25 | 2019-05-07 | Biomet Manufacturing, Llc | HTO guide with optional guided ACL/PCL tunnels |
US9408616B2 (en) | 2014-05-12 | 2016-08-09 | Biomet Manufacturing, Llc | Humeral cut guide |
US9561040B2 (en) | 2014-06-03 | 2017-02-07 | Biomet Manufacturing, Llc | Patient-specific glenoid depth control |
US9839436B2 (en) | 2014-06-03 | 2017-12-12 | Biomet Manufacturing, Llc | Patient-specific glenoid depth control |
US9833245B2 (en) | 2014-09-29 | 2017-12-05 | Biomet Sports Medicine, Llc | Tibial tubercule osteotomy |
US9826994B2 (en) | 2014-09-29 | 2017-11-28 | Biomet Manufacturing, Llc | Adjustable glenoid pin insertion guide |
US9820868B2 (en) | 2015-03-30 | 2017-11-21 | Biomet Manufacturing, Llc | Method and apparatus for a pin apparatus |
KR101617738B1 (en) | 2015-05-19 | 2016-05-04 | 모젼스랩(주) | Real-time image mapping system and method for multi-object |
US10568647B2 (en) | 2015-06-25 | 2020-02-25 | Biomet Manufacturing, Llc | Patient-specific humeral guide designs |
US10226262B2 (en) | 2015-06-25 | 2019-03-12 | Biomet Manufacturing, Llc | Patient-specific humeral guide designs |
US10034753B2 (en) | 2015-10-22 | 2018-07-31 | DePuy Synthes Products, Inc. | Customized patient-specific orthopaedic instruments for component placement in a total hip arthroplasty |
KR102482062B1 (en) * | 2016-02-05 | 2022-12-28 | 주식회사바텍 | Dental three-dimensional scanner using color pattern |
US10722310B2 (en) | 2017-03-13 | 2020-07-28 | Zimmer Biomet CMF and Thoracic, LLC | Virtual surgery planning system and method |
JP2019168328A (en) * | 2018-03-23 | 2019-10-03 | 株式会社東芝 | Method for inspecting semiconductor device and method for manufacturing semiconductor device |
US11051829B2 (en) | 2018-06-26 | 2021-07-06 | DePuy Synthes Products, Inc. | Customized patient-specific orthopaedic surgical instrument |
US11785333B2 (en) | 2019-01-08 | 2023-10-10 | Hewlett-Packard Development Company, L.P. | Simulation-based capture system adjustments |
MX2021008451A (en) * | 2019-01-17 | 2021-08-19 | Univ Health Network | Systems, methods, and devices for three-dimensional imaging, measurement, and display of wounds and tissue specimens. |
KR102441485B1 (en) * | 2020-05-29 | 2022-09-07 | 주식회사 메디트 | METHOD AND APPARATUS FOR OBTAINING THREE Dimensional Data AND COMPUTER READABLE MEDIUM STORING A PROGRAM FOR PERFORMING THE SAME METHOD |
KR102268060B1 (en) * | 2020-09-23 | 2021-06-22 | 심미영 | Phantom model of teeth set, method of evaluating scanning precision of scanner using the same and method of evaluating 3D printing precision using the same |
CN114688994B (en) * | 2020-12-31 | 2023-03-14 | 先临三维科技股份有限公司 | Color projection module, stripe decoding method, device, medium, equipment and system |
KR102615021B1 (en) * | 2021-10-14 | 2023-12-20 | 주식회사 메디트 | Method, apparatus and recording medium storing commands for aligning scanned images of 3d scanner |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4508452A (en) * | 1975-08-27 | 1985-04-02 | Robotic Vision Systems, Inc. | Arrangement for sensing the characteristics of a surface and determining the position of points thereon |
JPS5256558A (en) * | 1975-11-04 | 1977-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimentional object measuring system |
JPS5368267A (en) * | 1976-11-30 | 1978-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Object shape identifying system |
US4373804A (en) * | 1979-04-30 | 1983-02-15 | Diffracto Ltd. | Method and apparatus for electro-optically determining the dimension, location and attitude of objects |
US4286852A (en) * | 1979-05-23 | 1981-09-01 | Solid Photography, Inc. | Recording images of a three-dimensional surface by focusing on a plane of light irradiating the surface |
US4294544A (en) * | 1979-08-03 | 1981-10-13 | Altschuler Bruce R | Topographic comparator |
ZA838150B (en) * | 1982-11-01 | 1984-06-27 | Nat Res Dev | Automatic welding |
US4745469A (en) * | 1987-02-18 | 1988-05-17 | Perceptron, Inc. | Vehicle wheel alignment apparatus and method |
JP2517062B2 (en) * | 1988-04-26 | 1996-07-24 | 三菱電機株式会社 | 3D measuring device |
US5028799A (en) * | 1988-08-01 | 1991-07-02 | Robotic Vision System, Inc. | Method and apparatus for three dimensional object surface determination using co-planar data from multiple sensors |
JPH02110305A (en) * | 1988-10-19 | 1990-04-23 | Mitsubishi Electric Corp | Three-dimensional measuring device |
US4935635A (en) * | 1988-12-09 | 1990-06-19 | Harra Dale G O | System for measuring objects in three dimensions |
US5098426A (en) * | 1989-02-06 | 1992-03-24 | Phoenix Laser Systems, Inc. | Method and apparatus for precision laser surgery |
US5243665A (en) * | 1990-03-07 | 1993-09-07 | Fmc Corporation | Component surface distortion evaluation apparatus and method |
US5347454A (en) * | 1990-04-10 | 1994-09-13 | Mushabac David R | Method, system and mold assembly for use in preparing a dental restoration |
JPH03293507A (en) * | 1990-04-11 | 1991-12-25 | Nippondenso Co Ltd | Three-dimensional shape measuring apparatus |
US5198877A (en) * | 1990-10-15 | 1993-03-30 | Pixsys, Inc. | Method and apparatus for three-dimensional non-contact shape sensing |
US5131844A (en) * | 1991-04-08 | 1992-07-21 | Foster-Miller, Inc. | Contact digitizer, particularly for dental applications |
SE469158B (en) * | 1991-11-01 | 1993-05-24 | Nobelpharma Ab | DENTAL SENSOR DEVICE INTENDED TO BE USED IN CONNECTION WITH CONTROL OF A WORKING EQUIPMENT |
US5214686A (en) * | 1991-12-13 | 1993-05-25 | Wake Forest University | Three-dimensional panoramic dental radiography method and apparatus which avoids the subject's spine |
JPH0666527A (en) * | 1992-08-20 | 1994-03-08 | Sharp Corp | Three-dimensional measurement method |
US5568384A (en) * | 1992-10-13 | 1996-10-22 | Mayo Foundation For Medical Education And Research | Biomedical imaging and analysis |
AT404638B (en) * | 1993-01-28 | 1999-01-25 | Oesterr Forsch Seibersdorf | METHOD AND DEVICE FOR THREE-DIMENSIONAL MEASUREMENT OF THE SURFACE OF OBJECTS |
US5724435A (en) * | 1994-04-15 | 1998-03-03 | Hewlett Packard Company | Digital filter and method of tracking a structure extending in three spatial dimensions |
DE4415834C2 (en) * | 1994-05-05 | 2000-12-21 | Breuckmann Gmbh | Device for measuring distances and spatial coordinates |
US5513276A (en) * | 1994-06-02 | 1996-04-30 | The Board Of Regents Of The University Of Oklahoma | Apparatus and method for three-dimensional perspective imaging of objects |
US5880961A (en) * | 1994-08-02 | 1999-03-09 | Crump; Craig D. | Appararus and method for creating three-dimensional modeling data from an object |
US5999840A (en) * | 1994-09-01 | 1999-12-07 | Massachusetts Institute Of Technology | System and method of registration of three-dimensional data sets |
US6205716B1 (en) * | 1995-12-04 | 2001-03-27 | Diane P. Peltz | Modular video conference enclosure |
KR970067585A (en) * | 1996-03-25 | 1997-10-13 | 오노 시게오 | Measurement method of projection characteristics and projection exposure method |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US5823778A (en) * | 1996-06-14 | 1998-10-20 | The United States Of America As Represented By The Secretary Of The Air Force | Imaging method for fabricating dental devices |
US5991437A (en) * | 1996-07-12 | 1999-11-23 | Real-Time Geometry Corporation | Modular digital audio system having individualized functional modules |
DE19636354A1 (en) * | 1996-09-02 | 1998-03-05 | Ruedger Dipl Ing Rubbert | Method and device for performing optical recordings |
DE19638727A1 (en) * | 1996-09-12 | 1998-03-19 | Ruedger Dipl Ing Rubbert | Method for increasing the significance of the three-dimensional measurement of objects |
US6088695A (en) * | 1996-09-17 | 2000-07-11 | Kara; Salim G. | System and method for communicating medical records using bar coding |
JPH10170239A (en) * | 1996-10-08 | 1998-06-26 | Matsushita Electric Ind Co Ltd | Three-dimensional shape measuring device |
IL119831A (en) * | 1996-12-15 | 2002-12-01 | Cognitens Ltd | Apparatus and method for 3d surface geometry reconstruction |
US6217334B1 (en) * | 1997-01-28 | 2001-04-17 | Iris Development Corporation | Dental scanning method and apparatus |
US5886775A (en) * | 1997-03-12 | 1999-03-23 | M+Ind | Noncontact digitizing imaging system |
US5848115A (en) * | 1997-05-02 | 1998-12-08 | General Electric Company | Computed tomography metrology |
US6100893A (en) * | 1997-05-23 | 2000-08-08 | Light Sciences Limited Partnership | Constructing solid models using implicit functions defining connectivity relationships among layers of an object to be modeled |
JP3121301B2 (en) * | 1997-10-28 | 2000-12-25 | 得丸 正博 | Artificial tooth manufacturing system and method |
US6253164B1 (en) * | 1997-12-24 | 2001-06-26 | Silicon Graphics, Inc. | Curves and surfaces modeling based on a cloud of points |
DE19821611A1 (en) * | 1998-05-14 | 1999-11-18 | Syrinx Med Tech Gmbh | Recording method for spatial structure of three-dimensional surface, e.g. for person recognition |
US6201546B1 (en) * | 1998-05-29 | 2001-03-13 | Point Cloud, Inc. | Systems and methods for generating three dimensional, textured models |
US6227850B1 (en) * | 1999-05-13 | 2001-05-08 | Align Technology, Inc. | Teeth viewing system |
US6124934A (en) * | 1999-01-08 | 2000-09-26 | Shahar; Arie | High-accuracy high-stability method and apparatus for measuring distance from surface to reference plane |
US6139499A (en) * | 1999-02-22 | 2000-10-31 | Wilk; Peter J. | Ultrasonic medical system and associated method |
JP2001204757A (en) * | 2000-01-31 | 2001-07-31 | Ecchandesu:Kk | Artificial eyeball |
AU2001251606A1 (en) * | 2000-04-28 | 2001-11-12 | Orametirix, Inc. | Method and system for scanning a surface and generating a three-dimensional object |
JP2008276743A (en) * | 2000-04-28 | 2008-11-13 | Orametrix Inc | Method and system for scanning surface and preparing three-dimensional object |
JP2001349713A (en) * | 2000-06-06 | 2001-12-21 | Asahi Hightech Kk | Three-dimensional shape measuring device |
JP2001356010A (en) * | 2000-06-12 | 2001-12-26 | Asahi Hightech Kk | Three-dimensional shape measuring apparatus |
-
2001
- 2001-04-13 AU AU2001251606A patent/AU2001251606A1/en not_active Abandoned
- 2001-04-13 EP EP01925005A patent/EP1287482A4/en not_active Ceased
- 2001-04-13 JP JP2001581218A patent/JP4206213B2/en not_active Expired - Fee Related
- 2001-04-13 WO PCT/US2001/012107 patent/WO2001084479A1/en active Application Filing
-
2004
- 2004-12-16 JP JP2004364282A patent/JP5362166B2/en not_active Expired - Lifetime
- 2004-12-16 JP JP2004364269A patent/JP5325366B2/en not_active Expired - Lifetime
- 2004-12-16 JP JP2004364294A patent/JP4989848B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
AU2001251606A1 (en) | 2001-11-12 |
JP5362166B2 (en) | 2013-12-11 |
WO2001084479A1 (en) | 2001-11-08 |
JP2005214965A (en) | 2005-08-11 |
JP4989848B2 (en) | 2012-08-01 |
JP2003532125A (en) | 2003-10-28 |
JP4206213B2 (en) | 2009-01-07 |
JP2005230530A (en) | 2005-09-02 |
JP2005201896A (en) | 2005-07-28 |
EP1287482A1 (en) | 2003-03-05 |
EP1287482A4 (en) | 2007-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5325366B2 (en) | Method and system for scanning a surface and creating a three-dimensional object | |
US6532299B1 (en) | System and method for mapping a surface | |
US11672629B2 (en) | Photo realistic rendering of smile image after treatment | |
JP2008276743A (en) | Method and system for scanning surface and preparing three-dimensional object | |
US20190307531A1 (en) | Tooth movement measurement by automatic impression matching | |
US8135569B2 (en) | System and method for three-dimensional complete tooth modeling | |
US7027642B2 (en) | Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects | |
US20180263731A1 (en) | Generating a virtual depiction of an orthodontic treatment of a patient | |
EP2134290B1 (en) | Computer-assisted creation of a custom tooth set-up using facial analysis | |
US7068825B2 (en) | Scanning system and calibration method for capturing precise three-dimensional information of objects | |
US7740476B2 (en) | Method and workstation for generating virtual tooth models from three-dimensional tooth data | |
WO2006065955A2 (en) | Image based orthodontic treatment methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110630 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111025 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120227 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120305 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120413 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5325366 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |