EP1181814A1 - Method for detecting and representing one or more objects, for example teeth - Google Patents

Method for detecting and representing one or more objects, for example teeth

Info

Publication number
EP1181814A1
EP1181814A1 EP00943635A EP00943635A EP1181814A1 EP 1181814 A1 EP1181814 A1 EP 1181814A1 EP 00943635 A EP00943635 A EP 00943635A EP 00943635 A EP00943635 A EP 00943635A EP 1181814 A1 EP1181814 A1 EP 1181814A1
Authority
EP
European Patent Office
Prior art keywords
image
camera
displayed
search
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP00943635A
Other languages
German (de)
French (fr)
Other versions
EP1181814B1 (en
Inventor
Joachim Pfeiffer
Volker Wedler
Ulrich Orth
Reinhard Pieper
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sirona Dental Systems GmbH
Original Assignee
Sirona Dental Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sirona Dental Systems GmbH filed Critical Sirona Dental Systems GmbH
Publication of EP1181814A1 publication Critical patent/EP1181814A1/en
Application granted granted Critical
Publication of EP1181814B1 publication Critical patent/EP1181814B1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam

Abstract

A method for detecting and representing one or more objects, such as teeth, their preparations and their immediate environment, using a camera. A first recording is made wherein a still image is produced. The still image is blended into a current, mobile search image in at least one sub-area in the second step, so that both images are recognizable. In the third step, the camera is positioned in such a way that the search image overlaps the blended-in still image in at least one sub-area. The second recording process is initiated in a fourth step.

Claims

- 1 -BeschreibungVerfahren zur Erfassung und Darstellung eines oder mehrer Objekte, beispielsweise ZähneDie Erfindung betrifft ein Verfahren zur Erfassung und Darstellung eines oder mehrerer Objekte, beispielsweise von Zähnen bzw. deren Präparationen und deren unmittelbarer Nachbarschaft, mittels einer Kamera für die Ge- winnung von dreidimensionalen Daten. Diese Daten können zur Herstellung eines Passkörpers herangezogen werden. Aus der EP 0 250 993 Bl ist ein Verfahren zur räumlichen Aufnahme und Darstellung von Zähnen bzw. deren Präparationen und deren unmittelbaren Nachbarschaft mittels einer Kamera für die Gewinnung von dreidimensionalen Daten zur Herstellung eines Passkörpers bekannt, bei welcher zur Gewinnung von Tiefendaten ein Referenz- muster aufproj iziert wird, wobei zur Bestimmung der geeigneten Aufnahmestellung der Kamera zunächst ein be- wegtes Video-Suchbild erzeugt und auf einen Monitor angezeigt wird, auf dem das aufproj izierte Referenzmuster nicht in Erscheinung tritt. Befindet sich die Kamera in der gewünschten Aufnahmestellung, so wird auf einen Auslösebefehl hin eine Bildaufnahmesequenz zur Erzeu- gung und Speicherung eines Datensatzes, der einerseits Bildinformationen enthält, welche dem letzten Suchbild entsprechen und welcher in Form eines Kontrastbildes als Zeichenvorlage auf dem Monitor anzeigbar ist, und der andererseits zur Bildinformation deckungsgleiche - 2Tiefenwerte enthält, so daß eine auf der Zeichenvorlage ausgeführte Konstruktion zusammen mit den Tiefenwerten den Passkörper dreidimensional definiert abläuft. Zur Konstruktion des Passkörpers werden vom Zahnarzt Grenz- linien eingegeben, wobei eine Zeichenhilfe verwendet wird. Als Zeichenhilfe kommt hier eine Maus in Betracht .Die räumliche Aufnahme ist bei Verfahren zur Herstellung von Paßkörpern zur Zahnrekonstruktion in ein über- geordnetes, hier nicht näher erläutertes Verfahren eingebettet, das es erforderlich macht, verschiedene Aufnahmen, die aus unterschiedlichen Positionen der SD- Kamera zum Objekt generiert wurden, zueinander in Beziehung zu setzen, d.h. die Transformationsparameter zu ermitteln, die alle Aufnahmen in ein gemeinsames Bezugssystem transformieren (Translation, Rotation) . Diese Korrelation oder auch Registrierung der Aufnahmen zueinander wird prinzipiell dadurch erreicht, daß Software-Verfahren angewendet werden, die einen Bilddaten- satz solange rotieren und translatieren, bis er in den Bereichen, in denen er das gleiche Objekt repräsentiert wie ein anderer Bilddatensatz, zudem er korreliert werden soll, mit diesem anderen Bilddatensatz optimal übereinstimmt. Software-Verfahren dieser Art funktio- nieren allerdings nur, wenn durch vorherige Maßnahmen die relative Lage der Bilder zueinander hinreichend bekannt ist, d.h. die Bilder müssen grob zueinander korreliert sein. Die Herstellung einer solchen Grob- Korrelation wird im Stand der Technik erreicht, indem in einem ersten Bild durch Benutzung einer Zeichenhilfe - 3(Maus) markante Konturen des Objektes (z.B. Umfang) markiert werden. Bei Erstellung der zweiten 3D- Meßaufnahme werden diese Markierungen in das Video- Suchbild eingeblendet und die Meßkamera wird in eine Position gebracht, so daß die Markierungen mit den entsprechenden Strukturen auf dem Videosuchbild bestmöglich übereinstimmen; in dieser Position wird dann die zweite Vermessung durchgeführt. Diese interaktive Festlegung der Kontur-Linien macht es erforderlich, daß der Bediener bei der Abfolge mehrerer Aufnahmen ständig zwischen der Kamera und der Zeichenhilfe wechseln muß. Dies ist insbesondere dann von Nachteil, wenn verschiedene Aufnahmen desselben Zahns und seiner Umgebung miteinander korreliert werden müs- sen bzw. wenn Zahnreihen über mehrere Aufnahmen aufgenommen werden müssen.Die Aufgabe besteht daher darin, ein Verfahren zur Erfassung und Darstellung eines oder mehrerer Objekte zu schaffen, bei dem verschiedene Einzelbilder desselben Objekts oder benachbarter Objekte zueinander in Beziehung gesetzt werden, ohne dabei mechanische Vorrichtungen, wie Zeichenhilfen, zu verwenden.Diese Aufgabe wird durch das Verfahren gemäß Anspruch 1 gelöst. Gemäß der Erfindung wird nach dem Erzeugen der ersten Aufnahme in einem zweiten Schritt das Standbild in ein aktuelles, bewegtes Suchbild zumindest in einem Teilbereich eingeblendet, so daß beide Bilder erkennbar sind, und in einem dritten Schritt wird die Kamera derart positioniert, daß das Suchbild mit dem eingeblende- ten Standbild zumindest in einem Teilbereich zur De- ckung kommt, wobei in einem vierten Schritt die zweite Aufnahme ausgelöst wird.Das Verfahren ermöglicht im Zusammenspiel der die Kamera ausrichtenden Hand und der die Bilder verarbeitenden Software die manuelle Grob-Korrelation von zwei oder mehreren Bild-Datensätzen, die in Teilbereichen das gleiche Objekt repräsentieren.Vorteilhafterweise liefert die Aufnahme einen 3D- Datensatz, d.h. der Bilddatensatz beinhaltet auch Tie- fenwerte. Die grobkorrelierten 3D-Datensätze können nun durch automatische Rechenverfahren wie im Stand der Technik genau korreliert werden, d.h. die Transformati- onsparameter zwischen den Bezugssystemen der beiden Einzelaufnahmen rechnerisch automatisch ermittelt wer- den.Die Anforderungen an die Grobkorrelation hängen dabei von der Gestaltung des rechnerischen Korrelationsver- fahrens und der verfügbaren Rechenleistung und Zeit ab; generell gilt, daß je besser die Grobkorrelation ist, um so schneller und treffsicherer funktionieren die rechnerischen Methoden zu genauen Korrelation. Im Rahmen des übergeordneten Verfahrens zur Zahnersatzher- stellung ergibt sich die Notwendigkeit, mehrere Aufnahmen zueinander zu korrelieren, und zwar in drei Varian- ten.Um ein Objekt aus unterschiedlichen Richtungen oder Entfernungen zu vermessen, beispielsweise um auch Hin- terschneidungen erfassen zu können und/oder den Tiefenmeßbereich zu erweitern und/oder die Genauigkeit durch 5 -Mittelung zu erhöhen, wird die erste Aufnahme durchgeführt und durch Anwendung des erfindungsgemäßen Verfahrens erreicht, daß bei der zweiten und gegebenenfalls weiteren Aufnahme nur der Blickwinkel und der Abstand zum Objekt variiert wird, das Objekt aber stets in der annähernd gleichen Lage auf dem Bild erscheint. Dies ergibt eine vorteilhafte Ausgangsposition für die automatische, genau berechnete Korrelation.Um ein Objekt im Urzustand zu vermessen und nachdem es in Teilbereichen verändert wurde, z.B. eine Zahnreihe vor bzw. nach der Präparation eines einzelnen Zahnes, wird die erste Vermessung des Objektes im Urzustand durchgeführt und durch Anwendung des erfindungsgemäßen Verfahrens erreicht, daß die zweite Aufnahme (des geän- derten Objektes) aus möglichst gleicher Position der Kamera erfolgt wie die erste, eine grobe Korrelation somit erreicht ist. Die nachfolgende automatische genaue Korrelation erfolgt hier anhand der Objektbereiche, die nicht verändert wurden. Diese Vorgehensweise kann auch zur Verlaufsdokumentation benutzt werden.Dadurch, daß das in dem zweiten Bild aufzunehmende Objekt gegenüber dem im ersten Bild aufgenommenen Objekt verändert worden ist, wobei die Umgebung des veränderten Objekts im wesentlichen unverändert geblieben ist, ist es möglich, Restaurationen zu dokumentieren und Änderungen an den Restaurationen zu erfassen.Sollen Objekte vermessen werden, die ausgedehnter sind als das Meßfeld der Kamera, kann ein Teil des Objektes in einer ersten Position der Kamera vermessen werden. Danach wird eine zweite Meßaufnahme erstellt, die einen Teil des Bereiches der ersten Meßaufnahme abdeckt, aber auch einen neuen Teil des Objektes erfaßt. Dabei wird das Standbild um eine vorgegebene Strecke und/oder ei- nem vorgegebenen Winkel verschoben und somit nur in einem Teilbereich dem bewegten Suchbild überlagert. Anhand des Überlappungsbereiches werden die beiden Meßaufnahmen nach dem erfindungsgemäßen Verfahren grob- korreliert und nach an sich bekannten automatischen Verfahren genau korreliert.Dadurch ist es möglich, nacheinander aufgenommene Teilbilder eines kompletten Kiefers exakt aneinander zu reihen und so einen Zahnbogen als Ganzes zu erfassen und zu vermessen. Dadurch, daß das erste Bild und das zweite Bild gegeneinander verschoben sind, wobei die Verschiebung wenigstens 1/10 und vorteilhafterweise 1/4 der Erstrek- kung des Bildes in Richtung der Verschiebung beträgt, ist es möglich, ein oder mehrere Objekte zu erfassen, die die Größe des eigentlichen Bildfeldes übertreffen. Die Korrelation erfolgt über die Feststellung gleicher Bereiche und die Transformation der gewonnenen dreidimensionalen Daten in ein einziges Vermessungsmodell .Vorteilhafterweise erfolgt die Verschiebung und/oder Drehung in Abhängigkeit des aufzunehmenden Bereichs anhand von Kenntnissen über die vom aufzunehmenden Objekt zu erwartende Bildinformation für das zweite Bild. Diese Kenntnisse können aus statistischen Auswertungen ermittelte Informationen sein bzw. anhand individueller, für das Objekt typischer Besonderheiten ermittelt wer- - 7 -den. Dadurch erübrigt sich ein manuelles Verschieben, wodurch die Bedienbarkeit verbessert wird.Die erfindungswesentliche, oben beschriebene Einblendung des ersten Bildes kann vorteilhafterweise dadurch geschehen, daß das erste Bild dem Video-Suchbild bei der zweiten Aufnahme halbtransparent überlagert wird. Halbtransparent bedeutet hier, daß beide Bildinformationen so überlagert werden, daß sie beide überlagert auf dem Bildschirm erscheinen und vom Auge erkannt werden können.Die Darstellung der Bildinformationen des ersten Bildes und des bewegten Video-Suchbildes kann auch durch additive Mischung entstehen.Es ist ebenfalls möglich, daß das erste Bild und das bewegte Video-Suchbild so dargestellt sind, daß sich die Bildinformationen zeilen- oder spaltenweise abwechseln, oder daß die Bilder schachbrettartig verwoben werden, d.h. auf den "weißen Feldern" wird das erste Bild dargestellt, auf den "schwarzen Feldern" das be- wegte Videosuchbild.Vorteilhafterweise findet die Kombination von Bildinformationen nur in den Bereichen statt, wo beide Bilder Informationen liefern, wobei an den Stellen, wo nur ein Bild Informationen liefert, ausschließlich dieses dar- gestellt wird. Hierdurch werden nur die für die Beurteilung der Positionierung maßgeblichen Bereiche dargestellt, ohne daß störende Überlagerungen stattfinden.Eine weitere Verbesserung der manuellen Ausrichtung des Video-Suchbilds auf das erste Bild wird dadurch er- 8 -zeugt, daß das erste Bild in einem Farbton, insbesondere in Rot, dargestellt wird, wohingegen das Suchbild schwarz-weiss oder in einer anderen Farbe dargestellt ist . Es kann von Vorteil sein, wenn das erste Bild nicht direkt überlagert wird, sondern mit bildverarbeiterischen Mitteln erzeugte Abwandlungen davon, da hier die Erkennungsgenauigkeit gegebenenfalls verbessert werden kann.Das erfindungsgemäße Verfahren wird anhand der Zeich- nung erläutert. Es zeigen:Fig. 1 ein Flußdiagramm des verfahrensmäßigen Ablaufs zur Vermessung eines Zahnbogens einer ersten und einer zweiten Aufnahme,Fig. 2 die bereits erstellte erste Aufnahme eines Ob- jekts,Fig. 3 die längsverschobene erste Aufnahme vor dem Einblenden des Video-Suchbilds,Fig. 4 das Video-Suchbild mit der überlappten ersten Aufnahme , Fig. 5 schematisch eine additive Mischung des Standbildes mit dem Suchbild,Fig. 6 schematisch die zeilenweise Verkämmung des Standbildes mit dem Suchbild undFig. 7 die Verkämmung des Standbildes mit dem Suchbild punktweise wie in einem Schachbrett. Die bereits in der EP 0 250 993 Bl beschriebene erste Aufnahme wird gemäß dem Flußdiagramm aus Fig. 1 zunächst durch eine dem eigentlichen Vermessungsvorgang vorangehende Suchphase eingeleitet. In dieser Suchphase 1 arbeitet eine Vermessungskamera zunächst im wesentlichen wie ein herkömmliches Videosystem. Die Zahnpartie, welche im Aufnahmefenster erscheint, wird durch Abbildungsoptik und Sensor registriert und auf einem Monitor als Standard-Fernsehbild 2 dargestellt. Der beobachtete Zahn wird durch die Kamera zum Zweck der räumlichen Vermessung beleuchtet und zwar mit einem gitterartigen Referenzmuster. Dieses Referenzmuster sollte jedoch nicht auch auf dem Suchbild erscheinen, da hierdurch der eigentliche Bildinhalt überlagert wird. Daher wird das Muster eliminiert. Die Kamera wird anhand des Video-Suchbilds so ausgerichtet, daß die für die Vermessung erforderlichen Messungen erfolgreich durchgeführt werden können. Handelt es sich um die Herstellung eines Passkörpers für eine Zahnrekonstruktion, so ist die Po- sitionierung der Kamera in der Suchphase so zu wählen daß sie mit der späteren Einschußachse des Passkörpers übereinstimmt .Im nächsten Schritt 3 erfolgt die Auslösung der Aufnahme nachdem die geeignete Position gefunden wurde. Wäh- rend des Vermessungsvorgangs wird das Referenzmuster in verschiedenen räumlichen Lagen auf die Zahnoberfläche projiziert. Die dabei entstehenden Bilder werden in einem Speicher festgehalten. Dies dauert insgesamt weniger als 1/5 Sekunde. Danach wird die abgespeicherte In- formation transformiert und als Relief 4 in Form von - 10Tiefendaten zu jedem Bildpunkt abgespeichert. Zusätzlich wird ein Kontrastbild 5 erzeugt, das unmittelbar zur Darstellung auf dem Monitor gelangen kann. Dieses Bild gleicht in seiner pseudo-plastischen Art dem Vi- deo-Suchbild und gestattet dadurch dem Zahnarzt eine sofortige Kontrolle 6 der Aufnahme.Gemäß der Erfindung wird nun eine zweite Aufnahme 7 vorbereitet. Nach dem Erzeugen der ersten Aufnahme wird das Kontrastbild 5 als Standbild auf dem Monitor im Be- reich des aktuellen Video-Suchbilds eingeblendet. Beim Ausrichten der Kamera werden auf dem Monitor im selben Fenster sowohl zumindest ein Teil 5' des ersten Kontrastbilds sowie das aktuelle Video-Suchbild 8 angezeigt. Anhand der in dem ersten Kontrastbild 5' darge- stellten Strukturen ist es möglich, das aktuelle Video- Suchbild 8 so auszurichten, daß Teilbereiche des Bildes zur Deckung gebracht werden .In dieser Position wird die zweite Aufnahme 9 ausgelöst und die Aufnahme wird in demselben Fenster 9.1 des Mo- nitors ohne das erste Kontrastbild dargestellt.Ist die Kontrolle 15 der Aufnahme zufriedenstellend, so wird in einem weiteren Schritt 16 eine rechnerische, automatische Korrelation der Tiefenwerte für die sich überdeckenden Bereiche vorgenommen, anhand welcher die Daten der ersten und der zweiten Aufnahme zueinander in Beziehung gesetzt werden. Das überlagerte korrelierte Relief ist im Speicher abgelegt.In Fig. 1 ist ein Verfahrensablauf dargestellt, bei dem die zweite Aufnahme gegenüber der ersten Aufnahme mit - 11 -einem um etwa die Hälfte des ersten Bildes verschobenen Objekt durchgeführt wird. Dies wird in den Figuren 2 bis 4 näher erläutert.In Fig. 2 sind als zu vermessende Objekte Zähne, 10, 11, 12, einer Zahnreihe dargestellt, wobei der Zahn 10 und etwa der halbe Zahn 11 mittels einer Kamera als Video-Suchbild innerhalb eines Fensters 13 auf einem nicht wiedergegebenen Monitor dargestellt sind. Der in dem Fenster 13 dargestellte Bereich wird mittels der Kamera in einer ersten Aufnahme vermessen, nachdem diese anhand des Video-Suchbilds entsprechend der Anforderungen für die Vermessung ausgerichtet wurde. Aus dem von der Kamera erzeugten Datensatz wird einerseits ein Kontrastbild hergestellt, andererseits werden Tiefenda- ten erzeugt. Das Kontrastbild entspricht in seinem Aussagegehalt in etwa dem Video-Suchbild, so daß der Bediener die Qualität der Aufnahme überprüfen kann. Dieses Kontrastbild wird nach der Aufnahme in dem Fenster 13 dargestellt. Zur Vermessung des Zahns 11 wird nun die zweite Aufnahme dadurch vorbereitet, daß das Kontrastbild aus Fig. 2 innerhalb des Fensters 13 um etwa die halbe Bildlänge vom zu vermessenden Objekt 11 weg verschoben wird, wodurch sich ein Bereich 21 ergibt, in dem zunächst keine Bildinformationen vorhanden sind, dargestellt in Fig. 3.Wird die Kamera auf den nun zu vermessenden Zahn 11 ausgerichtet, so wird in dem oberen Bereich 22 des Fensters 13 in ein Teil des Kontrastbilds der ersten 12 -Aufnahme sowie das Video-Suchbild der vorzubereitenden zweiten Aufnahme angezeigt. Im Bereich 21 des Fensters 13 ist hingegen ausschließlich das aktuelle, bewegte Video-Suchbild dargestellt. Durch die Anzeige des ersten Kontrastbilds im Bereich 22 ist es möglich, das aktuelle Video-Suchbild so auszurichten, daß sich in dem Kontrastbild und in dem Suchbild dargestellte Teile des Zahns 10 und 11 überlappen und dabei so zur Deckung gebracht werden, daß das Aneinanderfügen der nachträg- lieh erstellten zweiten Aufnahme möglich ist.Um das bewegte Video-Suchbild zur Deckung mit dem ersten Kontrastbild bringen zu können, wird eine halbtransparente Darstellung des ersten Bildes bevorzugt, die auf unterschiedliche Weise realisiert werden kann, z.B. können die Bildinformationen beider Aufnahmen additiv gemischt werden. Dies ist in Fig. 5 dargestellt. Ausgehend von dem Standbild 31, welches in einem Speicher abgelegt ist, und dem von der Kamera aktuell aufgenommenen Suchbild 32 werden die Bildinformationen über einen Summierer 33 punktweise addiert und zur Anzeige als Bild 34 gebracht. Eine weitere Möglichkeit besteht darin, die Darstellung 34 der Bildinformationen zeilen- oder spaltenweise abzuwechseln, so daß die Zeile 1, 3, 5, 7, ... die Bildinformationen des Standbil- des 31 darstellt, die Zeile 2, 4, 6, 8,. ... die Bildinformationen des Suchbildes 32. Die derartige Darstellung 34 wird als Verkämmen bezeichnet und findet nur dort statt, wo beide Bilder Information liefern, also im Bereich 22 des Fensters 13. (Fig. 3) Im Bereich 21, 13wo nur ein Bild, nämlich das aktuelle Video-Suchbild, Information liefert, wird diese exklusiv dargestellt. Anstelle einer zeilenweise Verkämmung kann auch eine punktweise Verkämmung erfolgen, in dem gemäß Fig. 7 einzelne Punkte der Bilder 31, 32 jeweils abwechselnd in der Darstellung 34 enthalten sind, wodurch eine Art Schachbrettmuster entsteht.Durch die Möglichkeit der Aneinanderreihung von mehreren Aufnahmen und die Übertragung der gemessenen Tie- fendaten ist es möglich, über das von der Kamera zu vermessende Bildfeld hinaus wesentlich größere Bereiche zu vermessen und als unter den einzelnen Aufnahmen abgestimmte Modell des Gesamtobjektes zu verwenden. 14 -PATENTANSPRÜCHE The invention relates to a method for recording and displaying one or more objects, for example teeth or their preparations and their immediate vicinity, by means of a camera for the extraction of three-dimensional ones Data. This data can be used to manufacture a fitting body. EP 0 250 993 B1 discloses a method for the spatial recording and representation of teeth or their preparations and their immediate vicinity by means of a camera for the acquisition of three-dimensional data for the production of a fitting body, in which a reference pattern is used to obtain depth data is projected, in order to determine the suitable recording position of the camera, a moving video search image is first generated and displayed on a monitor on which the projected reference pattern does not appear. If the camera is in the desired recording position, an image acquisition sequence for generating and storing a data record, which on the one hand contains image information which corresponds to the last search image and which can be displayed in the form of a contrast image as a character template on the monitor, is triggered upon a trigger command. and which, on the other hand, contains congruent - 2 depth values for image information, so that a construction carried out on the drawing template runs in three dimensions together with the depth values in a defined manner. Border lines are entered by the dentist to construct the fitting body, using a drawing aid. A mouse can be used here as a drawing aid. The spatial image is embedded in a superordinate method (not explained in more detail here) in the case of methods for producing fitting bodies for tooth reconstruction, which requires different images that are taken from different positions of the SD camera were generated to relate to the object, ie to determine the transformation parameters that transform all images into a common reference system (translation, rotation). This correlation or registration of the recordings with respect to one another is achieved in principle by using software methods which rotate and translate an image data set until it also in the areas in which it represents the same object as another image data set should be correlated, optimally matches this other image data set. Software methods of this type only work, however, if the relative position of the images to one another is sufficiently known by previous measures, ie the images must be roughly correlated to one another. Such a rough correlation is achieved in the prior art by using a drawing aid 3 (mouse) to mark striking contours of the object (eg circumference) in a first image. When the second 3D measurement is taken, these markings are superimposed on the video search image and the measurement camera is brought into a position so that the markings match the corresponding structures on the video search image as best as possible; the second measurement is then carried out in this position. This interactive definition of the contour lines makes it necessary for the operator to have to constantly switch between the camera and the drawing aid when several shots are being taken. This is particularly disadvantageous if different recordings of the same tooth and its surroundings have to be correlated with one another or if rows of teeth have to be recorded over several recordings. The task therefore is to create a method for recording and displaying one or more objects , in which different individual images of the same object or neighboring objects are related to one another without using mechanical devices such as drawing aids. This object is achieved by the method according to claim 1. According to the invention, after the first picture has been taken in a second step, the still picture is faded into a current, moving search picture at least in a partial area so that both pictures are recognizable, and in a third step the camera is positioned in such a way that the search picture is included the displayed still image is covered at least in a partial area, with the second image being triggered in a fourth step. The process, in conjunction with the hand that aligns the camera and the software that processes the images, enables the manual rough correlation of two or several image data sets, which represent the same object in partial areas. Advantageously, the image provides a 3D data set, ie the image data set also contains depth values. The coarsely correlated 3D data sets can now be correlated exactly by automatic calculation methods as in the prior art, ie the transformation parameters between the reference systems of the two individual images can be determined automatically. The requirements for the coarse correlation depend on the design of the computational correlation ver - driving and the available computing power and time; in general, the better the coarse correlation, the faster and more accurate the computational methods for accurate correlation. As part of the higher-level process for the production of dentures, there is a need to correlate several images with each other, in three different ways. To measure an object from different directions or distances, for example to be able to detect undercuts and / or to expand the depth measurement range and / or to increase the accuracy by 5 averaging, the first exposure is carried out and, by using the method according to the invention, only the viewing angle and the distance to the object are varied in the second and possibly further exposure, that However, the object always appears in approximately the same position on the picture. This results in an advantageous starting position for the automatic, precisely calculated correlation. To measure an object in its original state and after it has been changed in some areas, e.g. a row of teeth before or after the preparation of a single tooth, the first measurement of the object is carried out in the original state and by using the method according to the invention, the second picture (of the modified object) is taken from the same position of the camera as possible as the first, thus achieving a rough correlation. The subsequent automatic exact correlation is based on the object areas that have not been changed. This procedure can also be used for the course documentation. Because the object to be recorded in the second image has been changed compared to the object recorded in the first image, the surroundings of the changed object remaining essentially unchanged, it is possible to document restorations and To record changes to the restorations. If objects that are longer than the measuring field of the camera are to be measured, part of the object can be measured in a first position of the camera. Then a second measurement is taken, which covers part of the area of the first measurement, but also covers a new part of the object. The still image is shifted by a predetermined distance and / or a predetermined angle and is therefore only superimposed on the moving search image in a partial area. On the basis of the overlap area, the two measurement recordings are roughly correlated according to the method according to the invention and exactly correlated according to automatic methods known per se. This makes it possible to line up successively recorded partial images of a complete jaw and thus to record and measure a dental arch as a whole . Because the first image and the second image are displaced relative to one another, the displacement being at least 1/10 and advantageously 1/4 of the extension of the image in the direction of the displacement, it is possible to detect one or more objects which exceed the size of the actual image field. The correlation is carried out by identifying the same areas and transforming the three-dimensional data obtained into a single measurement model. Advantageously, the displacement and / or rotation depending on the area to be recorded is based on knowledge of the image information to be expected from the object to be recorded for the second image. This knowledge can be information determined from statistical evaluations or can be determined on the basis of individual characteristics that are typical of the object. This eliminates the need for manual shifting, which improves operability. The fade-in of the first image described above, which is essential to the invention, can advantageously take place in that the first image is superimposed semi-transparently on the video search image during the second recording. Semitransparent here means that both image information are superimposed in such a way that they both appear superimposed on the screen and can be recognized by the eye. The image information of the first image and the moving video search image can also be produced by additive mixing. It is also possible that the first image and the moving video search image are displayed in such a way that the image information alternates in rows or columns, or that the images are woven like a checkerboard, ie the "white fields" show the first image on the "black" Fields "the moving video search image. Advantageously, the combination of image information only takes place in the areas where both images provide information, where only that one image provides information, only this is displayed. As a result, only the areas relevant for the assessment of the positioning are displayed, without interfering overlaps taking place. A further improvement in the manual alignment of the video search image to the first image is produced by the first image being in a color tone, in particular is displayed in red, whereas the search image is shown in black and white or in another color. It may be of advantage if the first image is not superimposed directly, but rather modifications of it generated with image processing means, since the accuracy of recognition can be improved here if necessary. The method according to the invention is explained on the basis of the drawing. It shows: Fig. 1 shows a flowchart of the procedural sequence for measuring a dental arch of a first and a second image, 2 the first picture of an object that has already been created, FIG. 3 the longitudinally shifted first picture before the video search image is shown, 4 the video search image with the overlapped first image, FIG. 5 schematically an additive mixture of the still image with the search image, FIG. 6 schematically combs the still image line by line with the search image and FIG. 7 combing the still image with the search image point by point like in a chessboard. The first recording already described in EP 0 250 993 B1 is initially initiated according to the flow diagram from FIG. 1 by a search phase preceding the actual measurement process. In this search phase 1, a surveying camera initially works essentially like a conventional video system. The tooth area that appears in the recording window is registered by imaging optics and sensor and displayed on a monitor as a standard television picture 2. The observed tooth is illuminated by the camera for the purpose of spatial measurement using a grid-like reference pattern. However, this reference pattern should not also appear on the search image, since this overlays the actual image content. Therefore the pattern is eliminated. The camera is aligned on the basis of the video search image so that the measurements required for the measurement can be carried out successfully. If the manufacture of a fitting body for a tooth reconstruction is concerned, the positioning of the camera in the search phase must be selected so that it coincides with the later insertion axis of the fitting body. In the next step 3, the exposure is triggered after the suitable position has been found has been. During the measurement process, the reference pattern is projected onto the tooth surface in different spatial positions. The resulting images are saved in a memory. This takes less than 1/5 second in total. The stored information is then transformed and saved as relief 4 in the form of -10 depth data for each pixel. In addition, a contrast image 5 is generated, which can be displayed directly on the monitor. This image is similar in its pseudo-plastic nature to the video search image and thereby allows the dentist to immediately check 6 the recording. According to the invention, a second recording 7 is now being prepared. After the first image has been generated, the contrast image 5 is displayed as a still image on the monitor in the area of the current video search image. When the camera is aligned, at least a part 5 'of the first contrast image and the current video search image 8 are displayed on the monitor in the same window. On the basis of the structures shown in the first contrast image 5 ', it is possible to align the current video search image 8 in such a way that partial areas of the image are brought into line. In this position, the second image 9 is triggered and the image is taken in the same window 9.1 of the monitor without the first contrast image. If the control 15 of the image is satisfactory, then in a further step 16 a computational, automatic correlation of the depth values for the overlapping areas is carried out, on the basis of which the data of the first and the second image to be related to each other. The superimposed correlated relief is stored in the memory. FIG. 1 shows a process sequence in which the second image compared to the first image is taken with an object shifted by approximately half of the first image. This is explained in more detail in FIGS. 2 to 4. In FIG. 2, teeth, 10, 11, 12, of a row of teeth are shown as objects to be measured, tooth 10 and approximately half tooth 11 using a camera as a video search image within a window 13 are shown on a monitor not shown. The area shown in the window 13 is measured by the camera in a first image after it has been aligned on the basis of the video search image in accordance with the requirements for the measurement. On the one hand, a contrast image is produced from the data set generated by the camera, and on the other hand, depth data are generated. The content of the contrast image corresponds approximately to the video search image, so that the operator can check the quality of the image. This contrast image is displayed in the window 13 after the recording. To measure the tooth 11, the second image is now prepared by shifting the contrast image from FIG. 2 within the window 13 by approximately half the image length from the object 11 to be measured, which results in an area 21 in which no image information is initially present If the camera is aligned with the tooth 11 now to be measured, part of the contrast image of the first 12 image and the video search image of the second image to be prepared are displayed in the upper region 22 of the window 13 displayed. In the area 21 of the window 13, however, only the current, moving video search image is shown. By displaying the first contrast image in the area 22, it is possible to align the current video search image so that parts of the tooth 10 and 11 shown in the contrast image and in the search image overlap and are brought to coincide so that the joining of the Subsequent loaned second shot is possible. In order to be able to match the moving video search image with the first contrast image, a semi-transparent representation of the first image is preferred, which can be realized in different ways, for example, the image information of both recordings can be mixed additively become. This is shown in FIG. 5. Starting from the still image 31, which is stored in a memory, and the search image 32 currently recorded by the camera, the image information is added point by point via a summer 33 and displayed as image 34. Another possibility is to alternate the display 34 of the image information line by line or column, so that line 1, 3, 5, 7, ... represents the image information of still image 31, line 2, 4, 6, 8 ,. ... the image information of the search image 32. The representation 34 of this type is referred to as combing and takes place only where both images provide information, that is to say in the area 22 of the window 13 (FIG. 3) in the area 21, 13 where only one image , namely the current video search image, provides information, this is displayed exclusively. Instead of a line-by-line combing, a point-by-point combing can also be carried out, in which, according to FIG. 7, individual points of the pictures 31, 32 are alternately contained in the representation 34, which creates a kind of checkerboard pattern the measured depth data, it is possible to measure much larger areas beyond the image field to be measured by the camera and to use it as a model of the overall object coordinated with the individual images. 14 - PATENT CLAIMS
1. Verfahren zur Erfassung und Darstellung eines oder mehrerer Objekte, beispielsweise von Zähnen bzw. deren1. Method for detecting and displaying one or more objects, for example teeth or their
Präparationen und deren unmittelbarer Nachbarschaft, mittels einer Kamera, bei dem in einem ersten Schritt eine erste Aufnahme durchgeführt und ein Standbild dargestellt wird, dadurch gekennzeichnet, daß in einem zweiten Schritt das Standbild in ein aktuelles, bewegtes Suchbild zumindest in einem Teilbereich eingeblendet wird, so daß beide Bilder erkennbar sind, daß in einem dritten Schritt die Kamera derart positioniert wird, daß das Suchbild mit dem eingeblendeten Standbild zumindest in einem Teilbereich zur Deckung kommt und daß in einem vierten Schritt die zweite Aufnahme ausgelöst wird.Preparations and their immediate vicinity, by means of a camera in which, in a first step, a first picture is taken and a still picture is displayed, characterized in that in a second step the still picture is faded into a current, moving search picture at least in a partial area, so that both images are recognizable, that in a third step the camera is positioned in such a way that the search image with the overlaid still image is covered at least in a partial area and that in a fourth step the second picture is triggered.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Aufnahme einen dreidimensionalen Datensatz lie- fert, der Tiefenwerte enthält, und daß die erste und die zweite Aufnahme anhand der Tiefenwerte des gemeinsamen Bereichs rechnerisch zueinander in Korrelation gesetzt werden.2. The method according to claim 1, characterized in that the recording delivers a three-dimensional data set containing depth values, and that the first and the second recording are arithmetically correlated with one another on the basis of the depth values of the common area.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die erste und die zweite Aufnahme im wesentlichen dasselbe Objekt betreffen, wobei die Aufnahmen aus unterschiedlichen Richtungen erfolgen. 15 -3. The method according to claim 2, characterized in that the first and the second image relate essentially to the same object, the images being taken from different directions. 15 -
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß das in der zweiten Aufnahme aufzunehmende Objekt verändert worden ist, wobei die Umgebung des veränderten Objekts im wesentlichen unverändert ist. 4. The method according to claim 2, characterized in that the object to be recorded in the second image has been changed, the surroundings of the changed object being essentially unchanged.
5. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß das Standbild um eine vorgegebene Strecke und/oder einen vorgegebenen Winkel verschoben wird und somit nur in einem Teilbereich dem bewegten Suchbild überlagert ist . 5. The method according to claim 2, characterized in that the still image is shifted by a predetermined distance and / or a predetermined angle and is therefore only superimposed on the moving search image in a partial area.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die erste und die zweite Aufnahme um wenigstens 1/10 der Erstreckung der Aufnahme in einer Richtung gegeneinander verschoben sind.6. The method according to claim 5, characterized in that the first and the second receptacle are shifted against each other in at least 1/10 of the extent of the receptacle.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Verschiebung und die Drehung in Abhängigkeit des auszunehmenden Bereichs anhand von anatomischen Kenntnisse über die zu erwartende Bildinformation über die zweite Aufnahme erfolgt.7. The method according to claim 6, characterized in that the displacement and rotation depending on the area to be excluded based on anatomical knowledge of the expected image information on the second shot.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die erste Aufnahme halbtransparent in das Suchbild eingeblendet ist.8. The method according to any one of claims 1 to 7, characterized in that the first picture is shown semi-transparent in the search image.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die halbtransparente Überlagerung des Standbildes und des bewegten Suchbildes durch addi- tive Mischung entsteht.9. The method according to any one of claims 1 to 8, characterized in that the semi-transparent superimposition of the still image and the moving search image is created by additive mixing.
10. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Standbild und das bewegte Suchbild so dargestellt sind, daß sich die Bildinforma- - 16 -10. The method according to any one of claims 1 to 8, characterized in that the still image and the moving search image are shown so that the image information - 16 -
tionen Zeilen- oder spaltenweise abwechseln oder punktweise wie in einem Schachbrett.alternate rows or columns or point by point like in a chessboard.
11. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, daß die Überlagerung der Bildin- formationen nur in den Bereichen stattfindet, wo beide Bilder Informationen liefern, wobei an den Stellen, wo nur ein Bild Information liefert, dieses ausschließlich dargestellt wird.11. The method according to any one of claims 8 to 10, characterized in that the superimposition of the image information takes place only in the areas where both images provide information, where only one image provides information, this is only displayed.
12. Verfahren nach einem der Ansprüche 8 bis 11, da- durch gekennzeichnet, daß in der Überlagerung das12. The method according to any one of claims 8 to 11, characterized in that in the superposition
Standbild in einem Farbton, insbesondere Rot, dargestellt wird, wohingegen das Suchbild in einem anderen Farbton oder schwarz-weiss dargestellt wird.Still image is displayed in one color, in particular red, whereas the search image is displayed in another color or black and white.
13. Verfahren nach einem der Ansprüche 8 bis 12, da- durch gekennzeichnet, daß das Standbild nicht direkt überlagert wird, sondern mit bildverarbeiterischen Mitteln automatisch erzeugte Abwandlungen davon. 13. The method according to any one of claims 8 to 12, characterized in that the still image is not directly superimposed, but rather variations thereof generated automatically with image processing means.
EP00943635A 1999-05-27 2000-05-25 Method for detecting and representing one or more objects, for example teeth Expired - Lifetime EP1181814B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19924291A DE19924291C1 (en) 1999-05-27 1999-05-27 Method for detecting and representing objects, e.g. teeth; involves moving camera to align search image with previously acquired and merged freeze frame image, then acquiring second image
DE19924291 1999-05-27
PCT/DE2000/001668 WO2000074374A1 (en) 1999-05-27 2000-05-25 Method for detecting and representing one or more objects, for example teeth

Publications (2)

Publication Number Publication Date
EP1181814A1 true EP1181814A1 (en) 2002-02-27
EP1181814B1 EP1181814B1 (en) 2003-07-23

Family

ID=7909349

Family Applications (1)

Application Number Title Priority Date Filing Date
EP00943635A Expired - Lifetime EP1181814B1 (en) 1999-05-27 2000-05-25 Method for detecting and representing one or more objects, for example teeth

Country Status (7)

Country Link
US (1) US7010150B1 (en)
EP (1) EP1181814B1 (en)
JP (1) JP4567258B2 (en)
AT (1) ATE245879T1 (en)
AU (1) AU5804000A (en)
DE (2) DE19924291C1 (en)
WO (1) WO2000074374A1 (en)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6767208B2 (en) 2002-01-10 2004-07-27 Align Technology, Inc. System and method for positioning teeth
US9642685B2 (en) * 2003-07-17 2017-05-09 Pentron Clinical Technologies, Llc Digital technologies for planning and carrying out dental restorative procedures
DE102004054876B3 (en) * 2004-11-12 2006-07-27 Sirona Dental Systems Gmbh Measuring device for 3D measurement of tooth models, sliding plate and method
SI2921131T1 (en) 2005-06-30 2021-07-30 Biomet 3I, Llc Method for manufacturing dental implant components
US11219511B2 (en) 2005-10-24 2022-01-11 Biomet 3I, Llc Methods for placing an implant analog in a physical model of the patient's mouth
US8257083B2 (en) * 2005-10-24 2012-09-04 Biomet 3I, Llc Methods for placing an implant analog in a physical model of the patient's mouth
US8035637B2 (en) * 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
US7813591B2 (en) 2006-01-20 2010-10-12 3M Innovative Properties Company Visual feedback of 3D scan parameters
US7698014B2 (en) * 2006-01-20 2010-04-13 3M Innovative Properties Company Local enforcement of accuracy in fabricated models
EP1820470B2 (en) * 2006-02-16 2012-06-13 Institut Straumann AG Device for scanning a tooth model
US20080050692A1 (en) * 2006-08-22 2008-02-28 Jack Keith Hilliard System and method for fabricating orthodontic aligners
EP2101677A2 (en) * 2006-11-28 2009-09-23 Sensable Technologies, Inc. Systems for haptic design of dental restorations
US8206153B2 (en) 2007-05-18 2012-06-26 Biomet 3I, Inc. Method for selecting implant components
EP2060240A3 (en) 2007-11-16 2009-08-12 Biomet 3i, LLC Components for use with a surgical guide for dental implant placement
AU2009206331A1 (en) 2008-01-23 2009-07-30 Sensable Technologies, Inc. Haptically enabled dental modeling system
JP2011517612A (en) 2008-04-15 2011-06-16 バイオメット・3アイ・エルエルシー Method for generating accurate bone and soft tissue digital dental models
WO2009146195A1 (en) 2008-04-16 2009-12-03 Biomet 3I, Llc Method for pre-operative visualization of instrumentation used with a surgical guide for dental implant placement
US20100291505A1 (en) * 2009-01-23 2010-11-18 Curt Rawley Haptically Enabled Coterminous Production of Prosthetics and Patient Preparations in Medical and Dental Applications
US10603008B2 (en) * 2009-02-19 2020-03-31 Tessonics Corporation Ultrasonic device for assessment of internal tooth structure
US8366445B2 (en) * 2010-02-26 2013-02-05 Vuillemot William C Method for dental restoration and related kit
US8753114B2 (en) 2010-02-26 2014-06-17 William C. Vuillemot Method for dental restoration and related kit
DK2462893T3 (en) 2010-12-07 2014-06-30 Biomet 3I Llc Universal scanning part for use on dental implant and dental implant analogs
US9037439B2 (en) * 2011-05-13 2015-05-19 Align Technology, Inc. Prioritization of three dimensional dental elements
ES2747818T3 (en) 2011-05-16 2020-03-11 Biomet 3I Llc Temporal abutment with combination of scanning characteristics and provisionalization characteristics
DE102011080700A1 (en) 2011-08-09 2013-02-14 Sirona Dental Systems Gmbh Database and method for generating a virtual dental object representation from a recording
US9452032B2 (en) 2012-01-23 2016-09-27 Biomet 3I, Llc Soft tissue preservation temporary (shell) immediate-implant abutment with biological active surface
US9089382B2 (en) 2012-01-23 2015-07-28 Biomet 3I, Llc Method and apparatus for recording spatial gingival soft tissue relationship to implant placement within alveolar bone for immediate-implant placement
US10813729B2 (en) 2012-09-14 2020-10-27 Biomet 3I, Llc Temporary dental prosthesis for use in developing final dental prosthesis
US8926328B2 (en) 2012-12-27 2015-01-06 Biomet 3I, Llc Jigs for placing dental implant analogs in models and methods of doing the same
WO2015094700A1 (en) 2013-12-20 2015-06-25 Biomet 3I, Llc Dental system for developing custom prostheses through scanning of coded members
US9700390B2 (en) 2014-08-22 2017-07-11 Biomet 3I, Llc Soft-tissue preservation arrangement and method
EP3267936A4 (en) 2015-03-09 2018-12-26 Stephen J. Chu Gingival ovate pontic and methods of using the same
DE102016213399A1 (en) * 2016-07-21 2018-01-25 Sirona Dental Systems Gmbh Surveying system and method for measuring an implant-implant situation
US10217237B1 (en) 2018-06-21 2019-02-26 3D Med Ag Systems and methods for forming a desired bend angle in an orthodontic appliance
WO2022093467A1 (en) * 2020-10-27 2022-05-05 Marc Lemchen Methods for direct printing of orthodontic and dental appliances onto the teeth of a patient

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4575805A (en) * 1980-12-24 1986-03-11 Moermann Werner H Method and apparatus for the fabrication of custom-shaped implants
CH672722A5 (en) * 1986-06-24 1989-12-29 Marco Brandestini
JP2744265B2 (en) * 1988-12-29 1998-04-28 キヤノン株式会社 Display device for panoramic photography
AU4950290A (en) * 1989-01-24 1990-08-24 Dolphin Imaging Systems Inc. Method and apparatus for generating cephalometric images
JP3332942B2 (en) * 1991-05-24 2002-10-07 オリンパス光学工業株式会社 Electronic still camera
JPH05142682A (en) * 1991-11-20 1993-06-11 Asahi Optical Co Ltd Panoramic shot controller for camera
DE4229466C2 (en) * 1992-09-03 2001-04-26 Kaltenbach & Voigt Tooth measurement without calibration body
JPH07508449A (en) * 1993-04-20 1995-09-21 ゼネラル・エレクトリック・カンパニイ Computer graphics and live video systems to better visualize body structures during surgical procedures
JPH0997148A (en) * 1995-09-28 1997-04-08 Fujitsu Ltd Image generation device
JP3576671B2 (en) * 1995-12-22 2004-10-13 キヤノン株式会社 Ophthalmic imaging equipment
AUPO280996A0 (en) * 1996-10-04 1996-10-31 Dentech Investments Pty Ltd Creation and utilization of 3D teeth models
US6093019A (en) * 1997-12-23 2000-07-25 Integra Medical Dental imaging system with digital motion video
JP3668019B2 (en) * 1998-10-27 2005-07-06 株式会社ソニー・コンピュータエンタテインメント Recording medium, image processing apparatus, and image processing method
US6245017B1 (en) * 1998-10-30 2001-06-12 Kabushiki Kaisha Toshiba 3D ultrasonic diagnostic apparatus
US6369830B1 (en) * 1999-05-10 2002-04-09 Apple Computer, Inc. Rendering translucent layers in a display system
US6747665B1 (en) * 1999-05-10 2004-06-08 Ge Medical Systems Global Technology Company, Llc Semi-transparent medical image overlays
US6486888B1 (en) * 1999-08-24 2002-11-26 Microsoft Corporation Alpha regions
AU2607301A (en) * 1999-12-29 2001-07-09 Ormco Corporation Custom orthodontic appliance forming method and apparatus
US6845157B1 (en) * 2000-02-14 2005-01-18 Paradyne Corporation Linear polarity guard and method for DSL-ready pots devices
JP4234311B2 (en) * 2000-09-19 2009-03-04 富士フイルム株式会社 Image alignment method
US7065243B2 (en) * 2001-06-28 2006-06-20 Eastman Kodak Company Method and system for creating dental models from imagery
US6694212B1 (en) * 2002-03-27 2004-02-17 James P. Kennedy Computer-aided design of a pontic with retainers
US20040218792A1 (en) * 2003-04-29 2004-11-04 Eastman Kodak Company Probe position measurement to facilitate image registration and image manipulation in a medical application

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0074374A1 *

Also Published As

Publication number Publication date
JP2003501118A (en) 2003-01-14
DE19924291C1 (en) 2000-06-08
AU5804000A (en) 2000-12-18
JP4567258B2 (en) 2010-10-20
EP1181814B1 (en) 2003-07-23
US7010150B1 (en) 2006-03-07
ATE245879T1 (en) 2003-08-15
DE50003011D1 (en) 2003-08-28
WO2000074374A1 (en) 2000-12-07

Similar Documents

Publication Publication Date Title
DE19924291C1 (en) Method for detecting and representing objects, e.g. teeth; involves moving camera to align search image with previously acquired and merged freeze frame image, then acquiring second image
DE60218386T2 (en) Method and system for creating a dental model by means of imaging
EP2079981B1 (en) Device and method for the contactless detection of a three-dimensional contour
EP0299490B2 (en) Method for producing dental prosthesis
DE10137241A1 (en) Arrangement, for detecting and measuring objects, optically projects markers onto object, records partial views of object in global coordinate system using information re-detected markers
DE3920160A1 (en) ARRANGEMENT FOR IMAGE PROCESSING
AT507887B1 (en) DEVICE FOR SCANNING A DENTAL MODEL IMAGE WITH ARTICULATOR
EP2082687A1 (en) Overlaid presentation of exposures
EP0741994A1 (en) Method for presentation of the jaw
DE69837353T2 (en) System for applying a device to a tooth surface
EP1560537B1 (en) Method for precisely-positioned production of a cavity, especially a bone cavity and instrument therefor
DE4417944A1 (en) Process for correlating different coordinate systems in computer-assisted, stereotactic surgery
DE102007060263A1 (en) Scanner for scanning e.g. teeth, in mouth of patient, has image optics arranged at distance to each other, where distance of optics and directions of optical axes are selected such that optics and axes are oriented to common area of tooth
WO2011020471A1 (en) Image processing system having an additional piece of scale information to be processed together with the image information
EP0250993A2 (en) Method and apparatus for the three-dimensional representation and determination of prepared teeth
EP2212646A2 (en) Method for optical measurement of objects using a triangulation method
DE102008031942A1 (en) Method and device for 3D digitizing an object
EP1322911A1 (en) Arrangement and method for producing photogrammetric image records
EP2026034B1 (en) Device for determining the 3D coordinates of an object, in particular a tooth
EP2846729B1 (en) Method for measuring a dental situation
EP2594227A2 (en) Impression device and method for three-dimensional detection of intra-oral structures, and a corresponding scanning device
DE10359104B3 (en) Method for dynamic, three-dimensional acquisition and display of a surface
EP3984492B1 (en) Comparison of colour images of three-dimensional dental structures
EP3309507B1 (en) Method for detecting and optimization of three-dimensional surface geometries
DE19956646C1 (en) Colored surface spatial coordinates measuring device uses computer-controlled topometric surface measurement via phase measuring profilometry

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20011201

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

17Q First examination report despatched

Effective date: 20020415

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT;WARNING: LAPSES OF ITALIAN PATENTS WITH EFFECTIVE DATE BEFORE 2007 MAY HAVE OCCURRED AT ANY TIME BEFORE 2007. THE CORRECT EFFECTIVE DATE MAY BE DIFFERENT FROM THE ONE RECORDED.

Effective date: 20030723

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

Ref country code: GB

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

Ref country code: FR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20030723

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: GERMAN

REF Corresponds to:

Ref document number: 50003011

Country of ref document: DE

Date of ref document: 20030828

Kind code of ref document: P

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20031023

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20031023

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20031023

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20031103

NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20031223

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20030723

GBV Gb: ep patent (uk) treated as always having been void in accordance with gb section 77(7)/1977 [no translation filed]

Effective date: 20030723

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040525

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040525

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040531

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040531

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040531

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20040531

26N No opposition filed

Effective date: 20040426

EN Fr: translation not filed
BERE Be: lapsed

Owner name: *SIRONA DENTAL SYSTEMS G.M.B.H.

Effective date: 20040531

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20110601

Year of fee payment: 12

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 50003011

Country of ref document: DE

Effective date: 20121201

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20121201