DE112009000099T5 - Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion - Google Patents
Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion Download PDFInfo
- Publication number
- DE112009000099T5 DE112009000099T5 DE112009000099T DE112009000099T DE112009000099T5 DE 112009000099 T5 DE112009000099 T5 DE 112009000099T5 DE 112009000099 T DE112009000099 T DE 112009000099T DE 112009000099 T DE112009000099 T DE 112009000099T DE 112009000099 T5 DE112009000099 T5 DE 112009000099T5
- Authority
- DE
- Germany
- Prior art keywords
- image
- signature
- dimensional
- images
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C13/00—Dental prostheses; Making same
- A61C13/0003—Making bridge-work, inlays, implants or the like
- A61C13/0004—Computer-assisted sizing or machining of dental prostheses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
Abstract
Bereitstellen eines mehrere Pixel aufweisenden Bildes;
Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine erste Signatur gespeichert wird;
Drehen des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines gedrehten Mittenbildes;
Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im gedrehten Mittenbild, um eine lineare Matrix gedrehter Reihenmittelwerte zu erzeugen, die als eine zweite Signatur gespeichert wird;
Translatieren des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines translatierten Mittenbildes;
Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im translatierten Mittenbild, um eine lineare Matrix translatierter Reihenmittelwerte zu erzeugen, die als eine dritte Signatur gespeichert wird; und
Bestimmen eines elementweisen Reihenmittelwertes für jede Signatur des Bildes, die mindestens die erste Signatur, die zweite Signatur und die dritte Signatur aufweist, und...
Description
- Die vorliegende Anmeldung beansprucht Priorität gegenüber der am 4. Januar 2008 eingereichten vorläufigen US-Patentanmeldung Nr. 61/019159, auf die hierin in ihrer Gesamtheit durch Verweis Bezug genommen wird.
- Bereich der Erfindung
- Die vorliegende Erfindung betrifft allgemein dreidimensionale Abbildungen bzw. dreidimensionales Abbilden und insbesondere Bildsignaturen zum Verbessern des Abgleichs oder der Passung in einer bewegungsbasierten dreidimensionalen Rekonstruktion.
- Hintergrund der Erfindung
- Gemäß einer Technik für eine dreidimensionale Bildrekonstruktion werden mehrere Bilder oder Bildsätze eines Objekts durch eine Kamera aufgenommen, die sich entlang einer Bahn über der Oberfläche des Objekts bewegt. Wenn die Kamerabahn unterbrochen wird, entweder aufgrund einer absichtlichen Unterbrechung durch einen Benutzer oder weil es nicht möglich ist, neue ankommende Daten mit einem vorhandenen dreidimensionalen Modell zu verbinden, kann es wünschenswert sein, einen Abtastvorgang für eine Rekonstruktion durch eine erneute Anbindung an die vorhandene Kamerabahn fortzusetzen. Obwohl eine allgemeine dreidimensionale Registrierung konzeptionell möglich ist, um eine aktuelle Ansicht von einer Kamera mit einem oder mehreren Bilddatenrahmen in einer für eine Rekonstruktion verwendeten vorhandenen Kamerabahn in Beziehung zu setzen, wird diese Vorgehensweise unpraktisch, wenn das dreidimensionale Modell aus hunderten oder tausenden Bilddatenrahmen gebildet wird, die Millionen Oberflächen oder dreidimensionale Punkte enthalten.
- Es besteht daher ein Bedarf für verbesserte Techniken zum Auffinden einer guten Übereinstimmung für eine aktuelle Kameraansicht mit einem von mehreren vorhandenen Bilddatenrahmen.
- Kurze Beschreibung der Erfindung
- Es wird eine Familie eindimensionaler Bildsignaturen bereitgestellt, um jedes einzelne einer Folge von Bildern in mehreren Translations- und Rotationsausrichtungen darzustellen. Durch Berechnen dieser Bildsignaturen während der Aufnahme von Bildern kann eine neue aktuelle Ansicht auf eine Weise, die in geringerem Maße von der relativen Ausrichtung zwischen einem Sollbild und einem Suchbild abhängig ist, schnell mit früheren Ansichten verglichen werden. Diese und andere Techniken können in einem dreidimensionalen Rekonstruktionsverfahren verwendet werden, um eine Liste von Kandidatenbildern zu erzeugen, unter denen eine vollständige dreidimensionale Registrierung als Test für einen geeigneten dreidimensionalen Abgleich ausgeführt werden kann. Gemäß einem anderen Aspekt kann dieses Verfahren durch eine Methode auf Fourierbasis ergänzt werden, die selektiv auf einen Teilsatz der früheren Bilder angewendet wird. Durch Wechseln zwischen räumlichen Signaturen für einen Satz früherer Ansichten und Ortsfrequenzsignaturen für einen anderen Satz früherer Ansichten kann in verschiedenen praktischen Anwendungen ein Musterabgleichsystem implementiert werden, das schneller mit einem dreidimensionalen Modell verknüpfbar ist.
- Gemäß einem Aspekt weist ein hierin beschriebenes Verfahren zum Erzeugen einer Signatur für einen Bildabgleich die Schritte auf: Bereitstellen eines mehrere Pixel enthaltenden Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine erste Signatur gespeichert wird; Drehen des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines gedrehten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im gedrehten Mittenbild, um eine lineare Matrix gedrehter Reihenmittelwerte zu erzeugen, die als eine zweite Signatur gespeichert wird; Translatieren des Mittenbereichs bezüglich des Bildes, um ein translatiertes Mittenbild bereitzustellen; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im translatierten Mittenbild, um eine lineare Matrix translatierter Reihenmittelwerte zu erzeugen, die als eine dritte Signatur gespeichert wird; und Bestimmen eines elementweisen Reihenmittelwertes für jede Signatur des Bildes, die mindestens die erste Signatur, die zweite Signatur und die dritte Signatur aufweist, und Speichern des elementweisen Reihenmittelwertes als eine das Bild beschreibende summarische Bildsignatur.
- Das Bild kann eine komprimierte Version eines Quellenbildes mit einer größeren Pixelzahl sein. Das Verfahren kann das Translatieren des Mittenbereichs zu mehreren Versatzpositionen bezüglich des Bildes und das Bestimmen einer anderen linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren Versatzpositionen aufweisen. Das Verfahren kann das Drehen des Mittenbereichs in mehrere versetzte Ausrichtungen bezüglich des Bildes und das Bestimmen einer anderen linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren versetzten Ausrichtungen aufweisen. Das Verfahren kann das Empfangen eines zweiten Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des zweiten Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine Suchsignatur gespeichert wird; und das Vergleichen der summarischen Bildsignatur mit der Suchsignatur zum Identifizieren einer möglichen Übereinstimmung aufweisen.
- Gemäß einem anderen Aspekt weist ein hierin beschriebenes Computerprogrammprodukt zum Erzeugen einer Signatur für einen Bildabgleich einen in einem computerlesbaren Medium gespeicherten, auf einem Computer ausführbaren Code auf, der, wenn er auf einem oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Bereitstellen eines mehrere Pixel enthaltenden Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine erste Signatur gespeichert wird; Drehen des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines gedrehten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im gedrehten Mittenbild, um eine lineare Matrix gedrehtes Reihenmittelwerte zu erzeugen, die als eine zweite Signatur gespeichert wird; Translatieren des Mittenbereichs bezüglich des Bildes, um ein translatiertes Mittenbild bereitzustellen; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im translatierten Mittenbild, um eine lineare Matrix translatierter Reihenmittelwerte zu erzeugen, die als eine dritte Signatur gespeichert wird; und Bestimmen eines elementweisen Reihenmittelwertes für jede Signatur des Bildes, die mindestens die erste Signatur, die zweite Signatur und die dritte Signatur aufweist, und Speichern des elementweisen Reihenmittelwertes als eine das Bild darstellende summarische Bildsignatur.
- Gemäß einem anderen Aspekt weist ein hierin beschriebenes Verfahren zum Verwenden von Bildsignaturen für einen Bildabgleich in einem dreidimensionalen Rekonstruktionsverfahren die Schritte auf: Erzeugen einer Bildsignatur für jedes von mehreren Bildern, die in einer dreidimensionalen Rekonstruktion verwendet werden, wobei jede Bildsignatur eine erste Signatur und mehrere Ausrichtungssignaturen aufweist, wobei jede der Ausrichtungssignaturen auf die gleiche Weise berechnet wird wie die erste Signatur, wobei das Bild mindestens einer versetzten Rotation- und einer versetzten Translationsposition entspricht, und wobei jede Bildsignatur eine summarische Bildsignatur enthält, die als ein Mittelwert der ersten Signatur und jeder der Ausrichtungssignaturen berechnet wird; Bestimmen einer zweiten Signatur für ein Suchbild, das der dreidimensionalen Rekonstruktion hinzugefügt werden soll, wobei die zweite Signatur auf die gleiche Weise berechnet wird wie die erste Signatur; Auswählen mehrerer Kandidatenbilder aus den mehreren Bildern basierend auf einem Vergleich zwischen der zweiten Signatur des Suchbildes und der summarischen Bildsignatur jedes der mehreren Bilder; Auswählen mehrerer Kandidatenregistrierungen von den Kandidatenbildern basierend auf einem Vergleich zwischen der zweiten Signatur und der Bildsignatur sowie den mehreren Ausrichtungssignaturen für jedes der Kandidatenbilder; sequenzielles probeweises Registrieren eines dem Suchbild zugeordneten dreidimensionalen Datensatzes mit einem jedem der Kandidatenbilder zugeordneten dreidimensionalen Datensatzes, bis eine resultierende Registrierung einen Restfehler aufweist, der kleiner ist als ein vorgegebener Schwellenwert; und Hinzufügen des Suchbildes zu den mehreren Bildern, was das Hinzufügen des dem Suchbild zugeordneten dreidimensionalen Datensatzes zur dreidimensionalen Rekonstruktion beinhaltet.
- Jede Bildsignatur kann eine Ortsfrequenzbereichdarstellung bzw. Ortsfrequenzdomaindarstellung des Bildes enthalten, und die zweite Bildsignatur kann eine Ortsfrequenzbereichdarstellung bzw. Ortsfrequenzdomaindarstellung des Suchbildes aufweisen. Jede Bildsignatur kann auf einem heruntergetakteten der mehreren Bilder basieren. Jede Bildsignatur kann auf einem Mittenbereich eines der mehreren Bilder basieren. Jedes der mehreren Bilder kann ein Schlüsselbild (Key Frame) in einer Kamerabahn sein, das zum Bestimmen der dreidimensionalen Rekonstruktion verwendet wird. Das Verfahren kann das Verwerfen des Suchbildes, wenn keine der resultierenden Registrierungen einen Restfehler aufweist, der kleiner ist als der vorgegebene Schwellenwert, und das Abrufen eines neuen Suchbildes aufweisen. Das Verfahren kann das Skalieren des Suchbildes derart aufweisen, dass der dem Suchbild zugeordnete dreidimensionale Datensatz und der mindestens einem der mehreren Bilder zugeordnete dreidimensionale Datensatz einen im Wesentlichen ähnlichen Schwerpunktabstand haben.
- Gemäß einem anderen Aspekt weist ein hierin beschriebenes Computerprogrammprodukt zum Verwenden von Bildsignaturen für einen Bildabgleich in einem dreidimensionalen Rekonstruktionsverfahren einen in einem computerlesbaren Medium gespeicherten, auf einem Computer ausführbaren Code auf, der, wenn er auf einer oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Erzeugen einer Bildsignatur für jedes von mehreren Bildern, die in einer dreidimensionalen Rekonstruktion verwendet werden, wobei jede Bildsignatur eine erste Signatur und mehrere Ausrichtungssignaturen aufweist, wobei jede der Ausrichtungssignaturen auf die gleiche Weise berechnet wird wie die erste Signatur, wobei das Bild mindestens einer versetzten Rotations- und einer versetzten Translationsposition entspricht, und wobei jede Bildsignatur eine summarischen Bildsignatur aufweist, die als ein Mittelwert der ersten Signatur und jeder der Ausrichtungssignaturen berechnet wird; Bestimmen einer zweiten Signatur für ein Suchbild, das der dreidimensionalen Rekonstruktion hinzugefügt werden soll, wobei die zweite Signatur auf die gleiche Weise berechnet wird wie die erste Signatur; Auswählen mehrerer Kandidatenbilder aus den mehreren Bildern basierend auf einem Vergleich zwischen der zweiten Signatur des Suchbildes und der summarischen Bildsignatur jedes der mehreren Bilder; Auswählen mehrerer Kandidatenregistrierungen von den Kandidatenbildern basierend auf einem Vergleich zwischen der zweiten Signatur und der Bildsignatur sowie den mehreren Ausrichtungssignaturen für jedes der Kandidatenbilder; sequenzielles probeweises Registrieren eines dem Suchbild zugeordneten dreidimensionalen Datensatzes mit einem jedem der Kandidatenbilder zugeordneten dreidimensionalen Datensatz, bis eine resultierende Registrierung einen Restfehler aufweist, der kleiner ist als ein vorgegebener Schwellenwert; und Hinzufügen des Suchbildes zu den mehreren Bildern, was das Hinzufügen des dem Suchbild zugeordneten dreidimensionalen Datensatzes zur dreidimensionalen Rekonstruktion beinhaltet.
- Gemäß einem anderen Aspekt weist das hierin beschriebene Verfahren zum Verwenden von Bildsignaturen für einen Bildabgleich die Schritte auf: Erzeugen mindestens einer räumlichen Signatur oder mindestens einer Ortsfrequenzsignatur für jedes von mehreren Bildern; Prüfen eines ersten Suchbildes hinsichtlich einer Übereinstimung mit einem ersten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das erste Suchbild; und Prüfen eines zweiten Suchbildes hinsichtlich einer Übereinstimung mit einem zweiten Teilsatz der mehreren Bilder basierend auf der Ortsfrequenzsignatur für das zweite Suchbild.
- Der erste Teilsatz kann sich vom zweiten Teilsatz unterscheiden bzw. gegenüber dem zweiten Teilsatz einzigartig sein. Das Prüfen des zweiten Suchbildes kann das sequenzielle Prüfen des zweiten Suchbildes beinhalten, wenn bei der Prüfung des ersten Suchbildes keine geeignete Übereinstimmung gefunden wird. Die mehreren Bilder können Bilder aufweisen, die in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden. Der erste Teilsatz kann mehrere Schlüsselbilder aufweisen, die zum Definieren einer Kamerabahn in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden. Der erste Teilsatz kann alle Schlüsselbilder für eine dreidimensionale Abtastung aufweisen. Für jedes Schlüsselbild können mehrere räumliche Signaturen berechnet werden, die das Schlüsselbild für mehrere versetzte Rotations- und Translationspositionen darstellen. Der zweite Teilsatz kann ein oder mehrere unmittelbar vorangehende Bilder in einer Folge von Bildern aufweisen, die während einer bewegungsbasierten dreidimensionalen Rekonstruktion erhalten werden. Das erste Suchbild und das zweite Suchbild können sequenzielle aktuelle Ansichten sein, die durch eine dreidimensionale Kamera erhalten werden. Das Verfahren kann das Prüfen des zweiten Suchbildes hinsichtlich einer Übereinstimmung mit dem zweiten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das zweite Suchbild aufweisen. Das Verfahren kann das alternierende Wiederholen einer auf einer räumlichen Signatur basierenden Prüfung und einer auf einer Ortsfrequenzsignatur basierenden Prüfung für jede neue aktuelle Ansicht aufweisen, die von einer dreidimensionalen Kamera erhalten wird, bis eine Überseinstimmung gemäß einem vorgegebenen Kriterium gefunden wird. Das Verfahren kann das Verwenden der Übereinstimmung zum Registrieren einer dreidimensionalen Rekonstruktion für eine aktuelle Ansicht bezüglich eines dreidimensionalen Mo dells aufweisen, das von dreidimensionalen Daten erhalten wird, die den mehreren Bildern zugeordnet sind. Das Verfahren kann das Verwerfen jeder neuen aktuellen Ansicht aufweisen, bis die Übereinstimmung gefunden wird.
- Gemäß einem anderen Aspekt weist ein hierin beschriebenes Computerprogrammprodukt zum Verwenden von Bildsignaturen für einen Bildabgleich einen in einem computerlesbaren Medium gespeicherten, auf einem Computer ausführbaren Code auf, der, wenn er auf einer oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Erzeugen mindestens einer räumlichen Signatur oder mindestens einer Ortsfrequenzsignatur für jedes von mehreren Bildern; Prüfen eines ersten Suchbildes hinsichtlich einer Übereinstimung mit einem ersten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das erste Suchbild; und Prüfen eines zweiten Suchbildes hinsichtlich einer Übereinstimung mit einem zweiten Teilsatz der mehreren Bilder basierend auf der Ortsfrequenzsignatur für das zweite Suchbild.
- Kurze Beschreibung der Zeichnungen
- Die Erfindung und die folgende ausführliche Beschreibung spezifischer Ausführungsformen der Erfindung werden nachstehend anhand der folgenden Figuren verdeutlicht.
-
1 zeigt ein dreidimensionales Abtastsystem. -
2 zeigt ein schematisches Diagramm eines optischen Systems für eine dreidimensionale Kamera. -
3 zeigt eine Verarbeitungs-Pipeline zum Erhalten dreidimensionaler Daten von einer Videokamera. -
4 zeigt eine Folge von Bildern, die durch eine bewegliche Kamera aufgenommen werden. -
5 zeigt eine Reihe von Bilddatenrahmen. -
6 zeigt eine Bildsignatur für ein zweidimensionales Bild. -
7 zeigt eine Bildsignatur mit einem Rotationsversatz. -
8 zeigt eine Bildsignatur mit einem Translationsversatz. -
9 zeigt ein Fenster für eine Ortsfrequenzsignatur. -
10 zeigt eine Verarbeitung für die Verwendung von Bildsignaturen für eine erneute Verknüpfung mit einer vorhandenen dreidimensionalen Abtastung. - Ausführliche Beschreibung der Erfindung
- Im folgenden Text sollten Verweise auf Elemente im Singular so verstanden werden, dass diese auch Elemente im Plural beinhalten und umgekehrt, insofern nichts anderes ausdrücklich erklärt ist oder aus dem Text hervorgeht. Grammatikalische Konjunktionen sollen jede und alle disjunktiven und konjunktiven Kombinationen verknüpfter Satzteile, Sätze, Wörter, usw. ausdrücken, insofern nichts anderes ausdrücklich erklärt ist oder aus dem Kontext hervorgeht.
- In der folgenden Beschreibung werden spezifische Abtasttechniken ausführlich beschrieben, wobei besonderes Augenmerk auf dentale Anwendungen dreidimensionaler Abbildungen gerichtet wird, es wird jedoch darauf hingewiesen, dass die hierin beschriebenen Verfahren und Systeme ganz allgemein in einer beliebigen Umgebung anwendbar sind, in der ein Suchbild in mehreren verschiedenen Zielbildern angeordnet sein kann, insbesondere wenn das Suchbild eine unbekannte dreidimensionale Position und Ausrichtung bezüglich des Zielbildes (der Zielbilder) hat. All diese Variationen, Anpassungen und Kombinationen, die für Fachleute offensichtlich sind, sollen innerhalb des Schutzumfangs der vorliegenden Erfindung enthalten sein.
- In der folgenden Beschreibung bezeichnet der Ausdruck ”Bild” ganz allgemein einen zweidimensionalen Satz von Pi xeln, die eine zweidimensionale Ansicht eines Objekts in einer Bildebene bilden. Der Ausdruck ”Bildsatz” bezeichnet allgemein einen Satz von miteinander in Beziehung stehenden zweidimensionalen Bildern, die in dreidimensionale Daten aufgelöst werden können. Der Ausdruck ”Punktwolke” bezeichnet allgemein einen dreidimensionalen Satz von Punkten, die eine dreidimensionale Ansicht des Objekts bilden, die von mehreren zweidimensionalen Bildern rekonstruiert wird. In einem dreidimensionalen Bildaufnahmesystem können mehrere solche Punktwolken auch registriert und zu einer Gesamtpunktwolke kombiniert werden, die aus Bildern konstruiert wird, die durch eine bewegliche Kamera aufgenommen werden. Daher ist klar, dass Pixel im Allgemeinen zweidimensionale Daten darstellen und Punkte im Allgemeinen dreidimensionale Daten bezeichnen, insofern keine andere Bedeutung spezifisch angegeben oder anhand des Kontexts deutlich ist.
- Die hierin verwendeten Ausdrücke ”dreidimensionales Modell”, ”dreidimensionale Oberflächendarstellung”, ”digitale Oberflächendarstellung”, ”dreidimensionale Oberflächenkarte”, usw. sollen eine beliebige dreidimensionale Rekonstruktion eines Objekts bezeichnen, wie beispielsweise eine Punktwolke von Oberflächendaten, einen Satz zweidimensionaler Polygone oder beliebige andere Daten, die die gesamte oder einen Teil der Oberfläche eines Objekts darstellen, die beispielsweise durch Erfassen und/oder Verarbeiten dreidimensionaler Abtastdaten erhalten werden kann, insofern nicht ausdrücklich eine andere Bedeutung angegeben ist oder aus dem Kontext hervorgeht. Eine ”dreidimensionale Darstellung” kann eine beliebige der vorstehend beschriebenen dreidimensionalen Oberflächendarstellungen sein, sowie eine volumetrische oder eine andere Darstellung, insofern nicht ausdrücklich eine andere Bedeutung angegeben ist oder aus dem Kontext hervorgeht.
- Im Allgemeinen bezeichnen die Ausdrücke ”Rendern” oder ”Rendering” eine zweidimensionale Visualisierung eines dreidimensionalen Objekts, z. B. für eine Darstellung auf einem Monitor. Es wird jedoch darauf hingewiesen, dass verschiedene dreidimensionale Rendertechniken bekannt und zur Verwendung mit den hierin beschriebenen Systemen und Verfahren geeignet sind. Beispielsweise können die hierin beschriebenen Systeme und Verfahren geeignet ein holografisches Display, ein autostereoskopisches Display, ein Anaglyphendisplay, ein am Kopf montiertes Stereodisplay oder eine beliebige andere zweidimensionale und/oder dreidimensionale Darstellung verwenden. Daher sollte Rendering in der vorliegenden Beschreibung weitgefasst interpretiert werden, insofern nicht ausdrücklich eine engere Bedeutung angegeben ist oder aus dem Kontext hervorgeht.
- Der hierin beschriebene Ausdruck ”Dentalobjekt” soll im weitesten Sinne Gegenstände oder Objekte bezeichnen, die mit Zahnmedizin in Beziehung stehen. Diese können intraorale Strukturen, wie beispielsweise ein Gebiss und insbesondere ein menschliches Gebiss, z. B. einzelne Zähne, Quadranten, Vollbögen, Bogenpaare (die getrennt oder in verschiedenartigen Gebisslagen angeordnet sein können), Weichteile oder Weichgewebe, usw., sowie Knochen und alle andere stützenden oder umgebenden Strukturen beinhalten. Der hierin verwendete Ausdruck ”intraorale Strukturen” bezeichnet sowohl natürliche Strukturen innerhalb eines Mundes gemäß der vorstehenden Beschreibung, als auch künstliche Strukturen, wie beispielsweise beliebige Dentalobjekte, die nachstehend beschrieben werden und innerhalb des Mundes angeordnet sein können. Dentalobjekte sind beispielsweise ”Restaurationen”, die allgemein als Komponenten verstanden werden, die die Struktur oder die Funktion des vorhandenen Gebisses wiederherstellen, wie beispielsweise Kronen, Brücken, Verblendschalen, Plomben oder Inlays, Onlays, Amalgame, Komposite und verschiedene Unterstrukturen, wie beispielsweise Kronenkappen, sowie provisorische Restaurationen, die während der Fertigung einer dauerhaften Restauration verwendet werden. Dentalobjekte können auch eine ”Prothese” aufweisen, die das Gebiss durch entfernbare oder permanente Strukturen ersetzt, wie beispielsweise ein Zahnersatz oder künstliches Gebiss, ein Teil-Zahnersatz, Implantate, retinierte Prothesen, usw. Dentalobjekte können auch ”Apparaturen” sein, die zum Korrigieren, Ausrichten oder anderweitig vorübergehenden oder dauerhaften Einstellen des Gebisses verwendet werden, wie beispielsweise entfernbare kieferorthopädische Apparaturen, chirurgische Gefäßprothesen oder Stents, Bruxismusapparaturen, Anti-Schnarch-Vorrichtungen oder Schnarchschienen (Snore Guards), Apparaturen zur indirekten Klammerplatzierung, usw. Dentalobjekte können außerdem ”Kleinteile” beinhalten, die für eine längere Zeitdauer am Gebiss befestigt werden, wie beispielsweise Implantathalterungen, Implantatverankerungen, kieferorthopädische Klammern und andere kieferorthopädische Komponenten. Dentalobjekte können außerdem ”Interimskomponenten” für die dentaltechnische Fertigung sein, wie beispielsweise Zahnmodelle (Voll- und/oder Teilmodelle), Wachsmodelle, Ausschmelzformen, usw. sowie Schalen, Unterlagen, Formen und andere Komponenten, die bei der Herstellung von Restaurationen, Prothesen, usw. verwendet werden. Dentalobjekte können außerdem in natürliche Dentalobjekte, wie beispielsweise Zähne, Knochen und andere vorstehend beschriebene intraorale Strukturen oder künstliche Dentalobjekte kategorisiert werden, wie beispielsweise Restaurationen, Prothesen, Apparaturen, Kleinteile und Interimskomponenten für die dentaltechnische Fertigung, wie vorstehend beschrieben wurde.
- Ausdrücke, wie beispielsweise ”digitales Zahnmodell”, ”digitaler Zahnabdruck”, usw. sollen dreidimensionale Darstellungen von Dentalobjekten bezeichnen, die in verschiedenen Aspekten der Erfassung, Analyse, Verordnung und Fertigung verwendet werden können, insofern nicht ausdrücklich eine andere Bedeutung angegeben ist oder aus dem Kontext hervorgeht. Ausdrücke wie beispielsweise ”Zahnmodell” oder ”Zahnabdruck” sollen ein physisches Modell bezeichnen, z. B. ein gegossenes, gedrucktes oder anderweitig gefertigtes physisches Exemplar eines Dentalobjektes. Insofern dies nicht ausdrücklich anders angegeben ist, kann der Ausdruck ”Modell” eigenständig verwendet sowohl ein physisches als auch ein digitales Modell bezeichnen.
- Es wird außerdem darauf hingewiesen, dass Ausdrücke, wie beispielsweise ”Tool” oder ”Steuerelement”, insofern sie zum Beschreiben von Aspekten einer Benutzerschnittstelle verwendet werden, allgemein verschiedenartige Techniken bezeichnen sollen, die in Verbindung mit einer grafischen Benutzerschnittstelle oder einer anderen Benutzerschnittstelle verwendbar sind, um Benutzereingaben zu empfangen, die eine Verarbeitung auslöst oder steuert, wie beispielsweise Drop-Down-Listen, Funktasten-, Cursor- und/oder Mausbetätigungen (eine Auswahl nach Punkten, eine Auswahl nach Bereichen, Drag-and-Drop-Operationen, usw.), Kontrollkästchen, Befehlszeilen, Texteingabefelder, Meldungen und Warnungen, Status- oder Fortschrittsbalken, usw. Ein Tool oder ein Steuerelement kann auch eine beliebige physische Hardwarekomponente sein, die mit der Benutzereingabe in Beziehung steht, wie beispielsweise eine Maus, eine Tastatur, ein Display, ein Tastenfeld, einen Trackball und/oder eine beliebige andere Einrichtung, die eine physische Eingabe von einem Benutzer empfängt und die physische Eingabe in eine Eingabe zur Verwendung in einem computergesteuerten System umwandelt. Daher sollen in der folgenden Beschreibung die Ausdrücke ”Tool” und ”Steuerelement”, usw. weitgefasst verstanden werden, insofern keine spezifischere Bedeutung angegeben ist oder aus dem Kontext hervorgeht.
-
1 zeigt ein dreidimensionales Abtastsystem, das mit den hierin beschriebenen Systemen und Verfahren verwendbar ist. Das System100 kann allgemein eine Kamera102 aufweisen, die Bilder von einer Oberfläche106 eines Objekts104 erfaßt, z. B. eines Zahnpatienten, und die Bilder zu einem Computer108 weiterleitet, der ein Display110 sowie ein oder mehrere Benutzereingabegeräte112 ,114 aufweisen kann, z. B. eine Maus112 oder eine Tastatur114 . Die Kamera102 kann außerdem ein integriertes Ein- oder Ausgabegerät116 aufweisen, z. B. ein Steuereingabeelement (z. B. eine Taste, ein Touchpad, ein Daumenrad) oder ein Display (z. B. ein LCD- oder LED-Display), um Statusinformationen bereitzustellen. - Die Kamera
102 kann eine beliebige Kamera oder ein Kamerasystem sein, die oder das zum Erfassen von Bildern geeignet ist, aus denen eine dreidimensionale Punktwolke oder andere dreidimensionale Daten wiedergewonnen werden können. Beispielsweise kann die Kamera102 ein Mehrblendensystem verwenden, das imUS-Patent Nr. 7372642 von Rohely et al. beschrieben ist, auf das in seiner Gesamtheit hierin durch Verweis Bezug genommen wird. Obgleich Rohály ein Mehrblendensystem beschreibt, wird darauf hingewiesen, dass ähnlicherweise ein beliebiges Mehrblendensystem verwendbar ist, das zum Rekonstruieren einer dreidimensionalen Punktwolke aus einer Anzahl zweidimensionaler Bilder geeignet ist. Gemäß einer Mehrblendenausführungsform kann die Kamera102 mehrere Blenden, darunter eine Mittelblende, die entlang einer optischen Mittelachse einer Linse positioniert ist, die einen Mittelkanal für die Kamera102 bildet, in Kombination mit einer beliebigen zugeordneten Abbildungshardware aufweisen. - In solchen Ausführungsformen kann der Mittelkanal ein herkömmliches Videobild des abgetasteten Objekts bereitstellen, während mehrere axial versetzte Kanäle Bildsätze liefern, die Disparitätsinformation enthalten, die für eine dreidimensionale Rekonstruktion einer Oberfläche verwendet werden können. In anderen Ausführungsformen können eine separate Videokamera und/oder ein separater Kanal vorgesehen sein, um das gleiche Ergebnis zu erzielen, d. h. ein Video eines Objekts, das einer dreidimensionalen Abtastung des Objekts zeitlich entspricht, vorzugsweise aus der gleichen Perspektive oder aus einer Perspektive mit einer festen, bekannten Beziehung zur Perspektive der Kamera
102 . Die Kamera102 kann außerdem oder stattdessen eine stereoskopische, trioskopische oder eine andere Mehrfachkamera oder eine andere Konfiguration aufweisen, bei der mehrere Kameras oder optische Bahnen in einer festen Beziehung zueinander gehalten werden, um zweidimensionale Bilder eines Objekts aus mehreren unterschiedlichen Perspektiven zu erhalten. Die Kamera102 kann eine geeignete Verarbeitung zum Herleiten einer dreidimensionalen Punktwolke aus einem Bildsatz oder mehreren Bildsätzen aufweisen, oder jeder zweidimensionale Bildsatz kann zu einem externen Prozessor übertragen werden, der z. B. im später beschriebenen Computer108 enthalten ist. In anderen Ausführungsformen kann die Kamera102 strukturiertes Licht, Laserabtastung, tachymetrische Streckenmessung oder eine beliebige andere Technik nutzen, die zum Erfassen dreidimensionaler Daten oder zweidimensionaler Daten geeignet ist, die in dreidimensionalen Daten aufgelöst werden können. Obwohl die später beschriebenen Techniken Videodaten geeignet verwenden können, die durch ein videobasiertes dreidimensionales Abtastsystem erfaßt werden, ist klar, dass jedes andere dreidimensionale Abtastsystem mit einem Videoerfassungssystem ergänzt werden kann, das geeignete Videodaten oder Bilddaten zeitgleich oder anderweitig synchronisiert mit der Erfassung dreidimensionaler Daten erfaßt. - Gemäß einer Ausführungsform ist die Kamera
102 eine frei positionierbare Handsonde mit mindestens einem Benutzereingabegerät116 , z. B. einer Taste, einem Hebel, einer Wählscheibe, einem Daumenrad, einem Schalter, usw. zur Steuerung des Bilderfassungssystems100 durch einen Benutzer, z. B. zum Starten und Stoppen von Abtastvorgängen. Gemäß einer Ausführungsform kann die Kamera102 für eine Zahnabtastung geformt und bemessen sein. Insbesondere kann die Kamera102 für eine intraorale Abtastung und Datenerfassung geformt und bemessen sein, z. B. durch Einführen in einen Mund eines abzubildenden Patienten und Führen über eine intraorale Oberfläche106 in einem geeigneten Abstand, um Oberflächendaten von Zähnen, Zahnfleisch usw. zu erfassen. Durch ein solches kontinuierliches Datenerfassungsverfahren kann die Kamera102 eine Punktwolke von Oberflächendaten mit einer ausreichenden räumlichen Auflösung und Genauigkeit erfassen, um davon Dentalobjekte, z. B. Prothetik, Kleinteile, Apparaturen, usw. entweder direkt oder über verschiedene Zwischenverarbeitungsschritte herzustellen. In anderen Ausführungsformen können Oberflächendaten von einem Dentalmodell, z. B. einer Dentalprothese, erfaßt werden, um eine geeignete Anpassung mit Hilfe einer früheren Abtastung des entsprechenden Gebisses, z. B. einer für die Prothese präparierten Zahnoberfläche, zu gewährleisten. - Obwohl in
1 nicht gezeigt, ist klar, dass während der Bilderfassung mehrere ergänzende Beleuchtungssysteme geeignet verwendbar sind. Beispielsweise kann die Umgebungsbeleuchtung durch ein oder mehrere Scheinwerfer verstärkt werden, die das Objekt104 beleuchten, um die Bilderfassung zu beschleunigen und die Schärfentiefe (oder Tiefe der räumlichen Auflösung) zu verbessern. Die Kamera102 kann außerdem oder stattdessen ein Stroboskoplicht, ein Blitzlicht oder eine andere Lichtquelle zum Ergänzen der Beleuchtung des Objekts104 während der Bilderfassung aufweisen. - Das Objekt
104 kann ein beliebiges Objekt, eine Gruppe von Objekten, ein Teil eines Objektes oder ein anderer Gegenstand sein. Insbesondere kann das Objekt104 bezüglich der hierin diskutierten Dentaltechniken ein menschliches Gebiss sein, das vom Mund eines Zahnpatienten intraoral aufgenommen wird. Durch einen Abtastvorgang kann gemäß dem spezifischen Zweck der Abtastung eine dreidimensionale Darstellung eines Teils oder des gesamten Gebisses erfasst werden. Daher kann durch die Abtastung ein digitales Modell eines Zahnes, eines Zahnquadranten oder einer vollständigen Zahngruppe einschließlich zweier gegenüberliegender Bögen sowie von Weichteilen oder beliebigen anderen relevanten intraoralen Strukturen erfasst werden. Durch die Abtastung können mehrere Darstellungen erfasst werden, z. B. eine Zahnoberfläche vor und nach der Präparation für eine Restauration. Wie nachstehend erwähnt wird, können diese Daten für eine nachfolgende Modellierung, z. B. zum Gestalten einer Restauration oder zum Bestimmen einer Grenzlinie dafür, verwendet werden. Während des Abtastvorgangs kann ein Mittenkanal der Kamera102 oder ein separates Videosystem ein Video des Gebisses vom Standpunkt der Kamera102 erfassen. In anderen Ausführungsformen kann, wenn beispielsweise ein fertiggestelltes Produkt einem Oberflächenpräparat probeweise angepasst wird, die Abtastung eine Dentalprothese aufweisen, wie beispielsweise ein Inlay bzw. eine Plombe, eine Krone oder eine beliebige andere Dentalprothese, dentale Kleinteile, eine Dentalapparatur, usw. Das Objekt104 kann außerdem oder stattdessen ein Dentalmodell, wie beispielsweise ein Gipsabdruck, ein Wachsmodell, ein Abdruck oder ein Negativabdruck eines Zahns, von Zähnen, von Weichteilen oder beliebige Kombinationen davon sein. - Der Computer
108 kann beispielsweise ein Personalcomputer oder ein anderes Verarbeitungsgerät sein. Gemäß einer Ausführungsform ist der Computer108 ein Personalcomputer mit einer 2.8 GHz Dual-Opteron-Zentraleinheit (CPU), 2 Gigabyte RAM, einem TYAN Thunder K8WE Motherboard und einer 250 Gigabyte Festplatte mit 10000 Umdrehungen pro Minute. Gemäß einer Ausführungsform kann das System derart betrieben werden, dass mehr als 5000 Punkte pro Bildsatz in Echtzeit unter Verwendung der hierin beschriebenen Techniken erfasst und eine angesammelte Punktwolke aus mehreren Millionen Punkten erfasst werden können. Natürlich kann diese Punktwolke weiterverarbeitet werden, um eine nachfolgende Datenhandhabung zu ermöglichen, indem die Punktwolkedaten beispielsweise dezimiert werden oder ein entsprechendes Gitter von Oberflächendaten erzeugt wird. Der hierin verwendete Ausdruck ”Echtzeit” bedeutet allgemein, dass zwischen Verarbeitung und Darstellung keine wahrnehmbare Verzögerungszeit auftritt. In einem videobasierten Abtastsystem bezeichnet Echtzeit insbesondere eine Verarbeitung innerhalb der Zeit zwischen Bildern/Rahmen von Videodaten, die gemäß spezifischen Videotechniken zwischen etwa fünfzehn Bildern/Rahmen pro Sekunde und etwa dreißig Bildern/Rahmen pro Sekunde schwanken kann. Insbesondere können die Verarbeitungsleistungen des Computers108 gemäß der Größe des Objektes104 , der Geschwindigkeit der Bilderfassung und der gewünschten räumlichen Auflösung dreidimensionaler Punkte schwanken. Der Computer108 kann außerdem Peripheriegeräte aufweisen, wie beispielsweise eine Tastatur114 , ein Display110 und eine Maus112 , die einem Benutzer eine Wechselwirkung mit dem Kamerasystem100 ermöglichen. Das Display110 kann ein Touchscreen-Display sein, das dazu geeignet ist, Benutzereingaben durch eine direkte physische Wechselwirkung mit dem Display110 zu empfangen. Gemäß einem anderen Aspekt kann das Display ein autostereoskopisches Display oder ein ähnliches Display sein, das dazu geeignet ist, Stereobilder darzustellen. - Kommunikationen zwischen dem Computer
108 und der Kamera102 können über eine beliebige geeignete Kommunikationsverbindung, beispielsweise über eine verdrahtete Verbindung oder eine drahtlose Verbindung auf der Basis beispielsweise des IEEE 802.11 Standards (auch als drahtloses Ethernet bekannt), BlueTooth oder einen beliebigen anderen geeigneten drahtlosen Standard unter Verwendung einer Funkfrequenz, eines Infrarot- oder eines anderen drahtlosen Kommunikationsmediums erfolgen. Bei einer medizinischen Abbildung oder in anderen sensitiven Anwendungen kann die drahtlose Bildübertragung von der Kamera102 zum Computer108 abgesichert werden. Der Computer108 kann Steuersignale erzeugen und an die Kamera102 übertragen, die zusätzlich zu Bilderfassungsbefehlen herkömmliche Kamerasteuerbefehle enthalten können, wie beispielsweise Fokussierungs- und Zoomsteuerungsbefehle. - In einem Beispiel des allgemeinen Betriebs eines dreidimensionalen Bilderfassungssystems
100 kann die Kamera102 zweidimensionale Bildsätze mit einer Videorate erfassen, während die Kamera102 über eine Oberfläche eines Objekt bewegt wird. Die zweidimensionalen Bildsätze können an den Computer108 weitergeleitet werden, um dreidimensionale Punktwolken herzuleiten. Die dreidimensionalen Daten für jeden neu erfassten zweidimensionalen Bildsatz können unter Verwendung verschiedener Techniken hergeleitet und an die vorhandenen dreidimensionalen Daten angepasst oder damit ”verknüpft” werden. Ein derartiges System kann eine Kamerabewegungsabschätzung verwenden, um das Erfordernis für eine unabhängige Nachführung der Position der Kamera102 zu ver meiden. Ein nützliches Beispiel einer derartigen Technik ist in der am 9. November 2005 eingereichten US-Patentanmeldung Nr. 11/270135 beschrieben, auf die hierin in ihrer Gesamtheit durch Verweis Bezug genommen wird. Es wird jedoch darauf hingewiesen, dass dieses Beispiel nicht als Einschränkung verstanden werden soll, und dass die hierin beschriebenen Prinzipien auf einen breiten Bereich dreidimensionaler Bilderfassungssysteme anwendbar sind. - Das Display
110 kann ein beliebiges Display sein, das für Wiedergabe mit einer Videorate oder einer anderen Rate mit einer Detailtreue geeignet ist, die den erfassten Daten entspricht. Geeignete Displays sind Kathodenstrahlröhrendisplays, Flüssigkristalldisplays, LED-Displays, usw. Das Display110 kann im Allgemeinen mit dem Computer108 betrieblich verbunden und dazu geeignet sein, Displaysignale vom Computer zu empfangen. Das Display kann ein CRT-Display oder ein Flachbildschirm, ein dreidimensionales Display (z. B. ein Anaglyphendisplay), ein autostereoskopisches dreidimensionales Display oder ein beliebiges anderes zweidimensionales oder dreidimensionales Wiedergabegerät. In einigen Ausführungsformen kann das Display eine Touchscreen-Schnittstelle aufweisen, die beispielsweise kapazitive oder resistive Touchscreen-Techniken oder Tochscreen-Techniken unter Verwendung oberflächenakustischer Wellen (die auch als dispersives Signal bezeichnet werden) oder eine beliebige andere Technik zum Erfassen einer physischen Wechselwirkung mit dem Bildschirm110 verwendet. - Das System
100 kann ein auf einem Computer verwendbares oder computerlesbares Medium aufweisen. Das auf einem Computer verwendbare Medium118 kann einen oder mehrere Speicherchips (oder andere Chips, wie beispielsweise einen Prozessor, die einen Speicher aufweisen), optische Platten, magnetische Platten oder andere magnetische Medien, usw. aufwei sen. Das auf einem Computer verwendbare Medium118 kann in verschiedenen Ausführungsformen einen entfernbaren Speicher (z. B. ein USB-Gerät, ein Bandlaufwerk, eine externe Festplatte, usw.), einen abgesetzten Speicher (z. B. einen in einem Netzwerk verbundenen Speicher), einen flüchtigen oder nichtflüchtigen Computerspeicher, usw. aufweisen. Das auf einem Computer verwendbare Medium118 kann computerlesbare Befehle enthalten, die durch den Computer108 ausgeführt werden sollen, um die hierin beschriebenen verschiedenen Prozesse und Verfahren auszuführen. Das auf einem Computer verwendbare Medium118 kann außerdem oder stattdessen von der Kamera102 empfangene Daten, ein dreidimensionales Modell des Objekts104 , einen Computercode für eine Rendering-Verarbeitung und zur Darstellung, usw. speichern -
2 zeigt ein optisches System200 für eine dreidimensionale Kamera, die in Verbindung mit den hierin beschriebenen Systemen und Verfahren verwendbar ist, z. B. für die vorstehend unter Bezug auf1 beschriebene Kamera102 . - Das optische System
200 kann eine primäre optische Einrichtung202 aufweisen, die in einem beliebigen Typ eines Bildverarbeitungssystems verwendbar ist. Im Allgemeinen bezeichnet eine primäre optische Einrichtung hierin ein optisches System mit einem optischen Kanal. Typischerweise nutzt dieser optische Kanal mindestens eine Linse mit und weist eine gemeinsam genutzte Bildebene innerhalb des optischen Systems auf, obwohl in der folgenden Beschreibung Modifikationen hiervon ausdrücklich beschrieben sein können oder anderweitig aus dem Kontexte hervorgehen. Das optische System200 kann eine einzelne Hauptlinse, eine Gruppe von Linsen, eine Objektlinse, Spiegelsysteme (z. B. herkömmliche Spiegel, digitale Spiegelsysteme, digitale Lichtprozessoren, usw.) Konfokalspiegel und andere optische Einrichtungen aufweisen, die für eine Verwendung mit den hierin beschriebenen Systemen zweckdienlich sind. Das optische System200 kann beispielsweise in einem stereoskopischen oder anderen Mehrbild-Kamerasystem verwendet werden. Andere optische Einrichtungen sind beispielsweise holografische optische Elemente oder ähnliche. In verschiedenen Konfigurationen kann die primäre optische Einrichtung202 eine oder mehrere Linsen aufweisen, wie beispielsweise eine Objektlinse (oder eine Gruppe von Linsen)202b , eine Feldlinse202d , eine Relaislinse202f , usw. Die Objektlinse202b kann an oder in der Nähe der Eintrittspupille202a des optischen Systems200 angeordnet sein. Die Feldlinse202d kann an oder in der Nähe einer ersten Bildebene202c des optischen Systems200 angeordnet sein. Die Relaislinse202f kann Bündel von Lichtstrahlen im optischen System200 verstärken. Das optische System200 kann ferner Komponenten, wie beispielsweise Blendenelemente208 mit einer oder mehreren Blenden212 , eine Fokussierungsnachstelleinrichtung210 mit einem oder mehreren Fokussierungsnachstellelementen204 , eine oder mehrere Abtasteinrichtungen218 und/oder mehrere Sensoren214a ,214b ,214c aufweisen. - Das optische System
200 kann für eine aktive Wellenfrontabtastung konstruiert sein, worunter eine beliebige Technik verstanden werden soll, die dazu verwendet wird, eine Folge oder Gruppe optischer Daten von einem Objekt220 oder Objekten abzutasten, einschließlich optischer Daten, die dazu beitragen, zweidimensionale oder dreidimensionale Eigenschaften des Objekts anzutasten, wobei optische Daten zum Erfassen einer Bewegung, für eine Geschwindigkeitsmessung oder Objektnachführung, usw. verwendet werden. Weitere Details eines optischen Systems, das als das optische System200 von2 verwendbar ist, sind imUS-Patent Nr. 7372642 beschrieben, auf das hierin in seiner Gesamtheit Bezug ge nommen wird. Ganz allgemein ist zu erkennen, dass, obwohl2 eine Ausführungsform eines optischen Systems200 darstellt, verschiedene Modifikationen möglich sind. -
3 zeigt ein dreidimensionales Rekonstruktionssystem300 , das eine Hochgeschwindigkeitsverarbeitungs-Pipeline und eine Hochpräzisionsverarbeitungs-Pipeline verwendet. Im Allgemeinen sollen über die Hochgeschwindigkeitsverarbeitungs-Pipeline330 dreidimensionale Daten in Echtzeit bereitgestellt werden, wie beispielsweise mit einer Videobildgeschwindigkeit bzw. Videorahmenrate, die durch ein zugeordnetes Display verwendet werden, während über die Hochpräzisionsverarbeitungs-Pipeline350 die gemäß Kameramessungen höchste Präzision bereitgestellt werden soll, die einer beliebigen externen Rechenverarbeitung unterzogen werden oder Zeiteinschränkungen unterliegen, die durch Systemhardware oder eine beabsichtigte Verwendung der Ergebnisse auferlegt werden. Eine Datenquelle310 , wie beispielsweise die vorstehend beschriebene Kamera102 , führt dem System300 Bilddaten oder ähnliche Daten zu. Die Datenquelle310 kann beispielsweise Hardwarekomponenten, z. B. LED-Ringlichter, Stabsensoren, einen Framegrabber, einen Computer, ein Betriebssystem und beliebige andere Hardware- und/oder Softwarekomponenten zum Erhalten von Daten aufweisen, die für eine dreidimensionale Rekonstruktion verwendet werden. Bilder von der Datenquelle310 , z. B. Mittenkanalbilder, die herkömmliche Videobilder enthalten, und Seitenkanalbilder, die Disparitätsdaten enthalten, die zum Wiedergewinnen von Tiefeninformation verwendet werden, können dem Echtzeitverarbeitungscontroller316 zugeführt werden. Der Echtzeitverarbeitungscontroller316 kann außerdem Kamerasteuerinformation oder andere Rückkopplungsinformation für die Datenquelle310 bereitstellen, die für einen nachfolgenden Datenabruf oder zum Spezifizieren von Daten verwendet werden, die in der Datenquelle310 bereits erhalten wurden, und die der Echtzeitverarbeitungscontroller316 benötigt. Bilder mit voller Auflösung und damit in Beziehung stehende Bilddaten können in einem Vollauflösungsbildspeicher322 gespeichert werden. Die gespeicherten Bilder können beispielsweise während der Verarbeitung dem Hochpräzisionsverarbeitungscontroller324 zugeführt werden oder können während nachfolgender Verarbeitungsschritte für eine Bildansicht durch einen Benutzer verwendet werden. - Der Echtzeitverabeitungscontroller
316 kann der Hochgeschwindigkeits (Videoraten) verarbeitungs-Pipeline330 Bilder oder Rahmen für eine Rekonstruktion dreidimensionaler Oberflächen von den zweidimensionalen Quellendaten in Echtzeit zuführen. In einer exemplarischen Ausführungsform können zweidimensionale Bilder von einem Bildsatz, wie beispielsweise der Seitenkanalbilder, durch ein zweidimensionales Bildregistrierungsmodul332 registriert werden. Basierend auf den Ergebnissen der zweidimensionalen Bildregistrierung kann ein Modul334 zum Erzeugen einer dreidimenionalen Punktwolke eine dreidimensionale Punktwolke oder eine andere dreidimensionale Darstellung erzeugen. Die dreidimensionalen Punktwolken von individuellen Bildsätzen können durch ein Modul336 für eine dreidimensionale Verknüpfung kombiniert werden. Schließlich können die verknüpften Messungen durch ein Modul338 zum Erzeugen eines dreidimensionalen Modells zu einem integrierten dreidimensionalen Modell kombiniert werden. Das erhaltene Modell kann als dreidimensionales Hochgeschwindigkeitsmodell340 gespeichert werden. - Der Hochpräzisionsverarbeitungscontroller
324 kann der Hochpräzisionsverarbeitungs-Pipeline350 Bilder oder Rahmen zuführen. Für separate Bildsätze kann eine zweidimensionale Bildregistrierung durch ein Modul352 für eine zweidimensionale Bildregistrierung ausgeführt werden. Basierend auf den Ergebnissen der zweidimensionalen Bildregistrierung kann durch ein Modul354 zum Erzeugen einer dreidimensionalen Punktwolke eine dreidimensionale Punktwolke oder eine andere dreidimensionale Darstellung erzeugt werden. Die dreidimensionalen Punktwolken von den einzelnen Bildsätzen können unter Verwendung eines Moduls356 für eine dreidimensionale Verknüpfung verbunden werden. Eine globale Bewegungsoptimierung, die hierin auch als globale Bahnoptimierung oder globale Kamerabahnoptimierung bezeichnet wird, kann durch ein Modul357 für eine globale Bewegungsoptimierung (GMO-Modul) ausgeführt werden, um Fehler im erhaltenen dreidimensionalen Modell358 zu verringern. Im Allgemeinen kann die Bahn der Kamera während sie die Bildrahmen erfasst, als Teil des dreidimensionalen Rekonstruktionsprozesses berechnet werden. In einem Nachbearbeitungsverfeinerungverfahren kann die Berechnung der Kamerabahn optimiert werden – d. h. die Akkumulierung von Fehlern entlang der Länge der Kamerabahn kann durch zusätzliche Rahmen-Rahmen-Bewegungsabschätzung durch einen Teil oder die gesamte globale Bahninformation minimiert werden. Basierend auf globaler Information, wie beispielsweise einzelnen Datenrahmen im Bildspeicher322 , dem dreidimensionalen Hochgeschwindigkeitsmodell340 und den Zwischenergebnissen in der Hochpräzisionsverarbeitungs-Pipeline350 , kann das Hochpräzisionsmodell370 verarbeitet werden, um Fehler in der Kamerabahn und Fehler im rekonstruierten Modell zu vermindern. Als weitere Verfeinerung kann durch ein Gitterprojektionsmodul360 ein Gitter auf das Hochgeschwindigkeitsmodell projiziert werden. Die erhaltenen Bilder können durch ein Verdrehmodul362 verdreht oder verformt werden. Verdrehte Bilder können verwendet werden, um die Ausrichtung und die Verknüpfung zwischen Bildern zu erleichtern, beispielsweise durch Vermindern des Anfangsfehlers bei der Bewegungsschätzung. Die verdrehten Bilder kön nen dem Modul352 für eine zweidimensionale Registrierung zugeführt werden. Die Rückkopplung des dreidimensionalen Hochpräzisionsmodells370 in die Pipeline kann wiederholt werden, bis irgendeine Metrik erhalten wird, zum Beispiel eine Verknüpfungsgenauigkeit oder ein minimaler Fehlerschwellenwert. -
4 zeigt ein Koordinatensystem für dreidimensionale Messungen unter Verwendung eines Systems, wie beispielsweise des vorstehend beschriebenen optischen Systems200 . Die folgende Beschreibung soll zweckdienlichen Kontext bereitstellen und sollte nicht im einschränkenden Sinne verstanden werden. Im Allgemeinen hat ein Objekt408 innerhalb einer Bildebene402 einer Kamera die Weltkoordinaten {Xw, Yw, Zw} in einem Weltkoordinatensystem410 , Kamerakoordinaten {Xc, Yc, Zc} in einem Kamerakoordinatensystem406 und Bildsatzkoordinaten {xi, yi, di (xi, yi)} für i = 1 bis N Punkte oder Pixel innerhalb eines Verarbeitungsgitters des Sichtfeldes402 , wobei d i einen Disparitätsvektor412 bezeichnet, der einen oder mehrere Disparitätswerte enthält, die den z-Achsen-Versatz (Zc) oder die Tiefe404 eines Punktes in der Bildebene402 basierend auf einer x-Achsen- und/oder y-Achsen-Verschiebung in der Bildebene402 zwischen mehreren physisch versetzten Blenden oder anderen Abbildungskanälen charakterisieren. Das Verarbeitungsgitter kann als eine beliebige Überlagerung oder Raster für ein Bild oder andere zweidimensionale Daten verstanden werden, die Positionen identifizieren, an denen die Verarbeitung stattfinden wird. Obwohl ein Verarbeitungsgitter ein regelmäßiges Raster von Positionen in einem quadratischen, rechteckigen, dreieckigen oder anderen Muster sein kann, kann das Verarbeitungsgitter auch oder stattdessen unregelmäßige Muster aufweisen, die zufällig oder gemäß dem spezifischen verarbeiteten Gegenstand ausgewählt wird. Der Disparitätsvektor412 kann z. B. hinsichtlich einer Verschiebung bezüglich eines gegebenenfalls vorhandenen Mittenkanals für die Kamera dargestellt werden. Im Allgemeinen codiert der Disparitätsvektor412 die Tiefe, und in verschiedenen anderen dreidimensionalen Abbildungssystemen kann dieser Disparitätsvektor412 durch eine oder mehrere andere gemessenen Größen ersetzt werden, die die Tiefe codieren. Daher sollten Ausdrücke wie Disparitätsvektor, Disparitätswert und Disparitätsdaten und ähnliche allgemein so verstanden werden, dass sie eine oder mehrere beliebige Skalar- und/oder Vektorgrößen einschließen, die durch ein System zum Erfassen von Tiefeninformation gemessen werden. Außerdem kann der hierin verwendete Ausdruck dreidimensionale Messung oder Messwerte im Allgemeinen eine beliebige Form von Daten bezeichnen, die dreidimensionale Daten codieren, wie beispielsweise Gruppen dreidimensionaler Bilder, von denen Disparitätsvektoren erhalten werden können, das Disparitätsfeld (von Disparitätsvektoren) selbst, oder eine vom Disparitätsfeld hergeleitete dreidimensionale Oberflächenrekonstruktion. Bei einer bildbasierten dreidimensionalen Rekonstruktion kann ein Kameramodell verwendet werden, um Disparitätsvektoren innerhalb eines Sichtfeldes der Kamera mit der Tiefe in Beziehung zu setzen. Das Kameramodell kann dann basierend auf einer optischen Modellierung oder einer anderen physikalischen Basis theoretisch oder durch Beobachtung empirisch oder durch eine Kombination dieser Techniken bestimmt werden, und kann kalibriert werden, um optische Aberrationen, Linsenfehler und jegliche anderen physikalischen Änderungen oder Merkmale eines bestimmten physikalischen Systems zu korrigieren. - Obwohl zur Erläuterung eine einzelne Bildebene
402 dargestellt ist, ist zu erkennen, dass eine Mehrblendenkamera (oder ein anderes Mehrkanalsystem) mehrere physisch versetzte optische Kanäle aufweisen kann, die für jeden Kanal eine andere Bildebene bereitstellen, wobei die Unterschiede von Merkmalpositionen (x-y-Versatz) zwischen den Bildern für jeden optischen Kanal als das Disparitätsfeld dargestellt werden können. In verschiedenen spezifischen Verarbeitungsschritten können die Disparitätsdaten eine einzelne Bildebene als Bezugsebene verwenden, z. B. die Mittelkanal-Bildebene der Kamera. -
5 zeigt eine Folge von Bilddatenrahmen. Wie vorstehend beschrieben wurde, kann jeder der Bilddatenrahmen500 Bildsätze enthalten, wie beispielsweise zweidimensionale Bilder von einem Mittenkanal und von einem oder mehreren Seitenkanälen einer dreidimensionalen Kamera. In einer Ausführungsform können die Seitenkanäle relativ zueinander oder zum Mittelkanal Disparitäten aufweisen, die Tiefeninformation codieren, die zum Wiedergewinnen von Punkten in drei Dimensionen verwendet werden, obgleich die hierin beschriebenen Verfahren und Systeme geeignet an verschiedene andere Techniken zum Erfassen von Rahmen dreidimensionaler Information für eine bewegungsbasierte dreidimensionale Rekonstruktion angepasst werden können. Die Rahmen500 können einige Schlüsselbilder502 und mehrere andere, Nicht-Schlüsselbilder508 aufweisen. Zum Auswählen von Schlüsselbildern und Speichern verschiedenartiger vollständigerer Daten mit von den Rahmen508 verschiedenen Schlüsselbildern502 sind verschiedene Techniken möglich. Gemäß einem Aspekt können die Schlüsselbilder502 derart ausgewählt werden, dass sie ausreichend überlappende Daten enthalten, um eine Kamerabahn unter Verwendung ausschließlich von Schlüsselbildern zu rekonstruieren. Die Schlüsselbilder502 können außerdem oder stattdessen basierend auf einer sequenziellen Rahmentrennung, einer physischen Nähe oder einer anderen geeigneten Metrik zum Erzeugen eines Teilsatzes der vollen Rahmenfolge500 für eine verbesserte Verarbeitung ausgewählt werden. - Verarbeitungseinschränkungen oder Designvorlieben können die Schlüsselbildauswahl ebenfalls beeinflussen. Beispielsweise kann die Gesamtzahl von Schlüsselbildern begrenzt sein, oder die Anzahl von Rahmen zwischen Schlüsselbildern kann begrenzt sein. Gemäß einem anderen Beispiel kann für Schlüsselbilder ein minimales und/oder maximales Bewegungsmaß zwischen Kamerapositionen (und/oder -ausrichtungen) erwünscht sein. Gemäß einem Aspekt können Bildsätze für Rahmen
508 zwischen den Schlüsselbildern verworfen werden, so dass nur die dreidimensionalen Daten und die Kameratranslation/-rotation für jedes Nicht-Schlüsselbild508 verbleibt. Gleichzeitig können vollständigere Daten für Schlüsselbilder502 gespeichert werden, wie beispielsweise Vollauflösungs-Bildsätze, Folgennummern, Verknüpfungen mit anderen Schlüsselbildern502 , nachstehend beschriebene Bildsignaturdaten (z. B. komprimierte Bilder, Bildsignaturen mit Rotations- und Translationsversatz, usw.), usw. Während einer dreidimensionalen Abtastung kann eine Kamerabahn erzeugt werden, wobei jeder Rahmen500 gemeinsame überlappende Inhalte mit jedem vorangehenden Rahmen und jedem nachfolgenden Rahmen aufweist. Wenn dieser Abtastvorgang entweder absichtlich durch einen Benutzer oder aufgrund von Rekonstruktionsfehlern unterbrochen wird (d. h., ein Objekt bewegt sich außerhalb des Abtastvolumens der Kamera, ein übermäßiger Versatz führt dazu, dass ein neuer Rahmen nicht mit einem vorangehenden Rahmen verbunden werden kann, oder irgendein Ereignis führt zu einem Verlust von Bilddaten oder der Kamerabahn), kann eine Verarbeitung zum erneuten Verknüpfen eines neuen Rahmens520 für eine aktuelle Kameraansicht mit einem durch das System gespeicherten beliebigen anderen Rahmen500 aktiviert werden. Techniken zum Erzeugen von Bildsignaturen zur Verwendung in dieser Verarbeitung werden unter Bezug auf die6 bis9 beschrieben. Eine Verarbeitung zum Verwenden dieser Bildsignaturen wird unter Bezug auf10 beschrieben. - Gemäß einem Aspekt können für eine Signatur verwendete Bilder, wie beispielsweise das Bild
500 in5 , an einen im Wesentlichen üblichen Maßstab oder Schwerpunktabstand angepasst werden, um eine Vergrößerung für Anpassungszwecke zu normieren. Dies kann beispielsweise durch Bestimmen eines Schwerpunkts der von einem Datenrahmen wiedergewonnenen dreidimensionalen Rekonstruktion und Schätzen oder Berechnen einer Tiefe oder eines Abstands von der Kameraposition für diesen einzelnen Punkt implementiert werden. Durch Skalieren verschiedener Zielbilder (Schlüsselbilder und/oder andere Rahmen) und/oder Suchbilder (z. B. der aktuellen Kameraansicht) auf eine gemeinsame Tiefe können die Vergrößerungseffekte vermindert werden. -
6 zeigt eine Bildsignatur für ein zweidimensionales Bild. Ein Bild600 , das beispielsweise ein Bild von einem beliebigen der vorstehend beschriebenen Bilddatenrahmen sein kann, kann mehrere Pixel enthalten, die zweidimensionale Bilddaten codieren. Das Bild600 kann beispielsweise ein Bild mit voller Auflösung oder ein komprimiertes Bild, z. B. ein Bild mit halber Auflösung, ein Bild mit einer Viertelauflösung oder ein beliebiges Bild mit einer beliebigen anderen Größe sein. Es wird darauf hingewiesen, dass die hierin beschriebenen Techniken geeignet auf heruntergetaktete Bilder oder Bilder mit niedrigerer Auflösung anwendbar sind, um Verarbeitungsressourcen einzusparen. Beispielsweise kann ein Bild mit voller Auflösung mit 1024×768 Pixeln in ein Bild mit 64×48 Pixeln konvertiert und als Bild600 verwendet werden, bezüglich dem Bildsignaturberechnungen ausgeführt werden. Um eine Bildsignatur zu erhalten, kann der Mittenbereich602 des Bildes600 identifiziert werden, der mehrere Pixel604 enthält. Es wird darauf hingewiesen, dass, obwohl in6 eine spezifische Anzahl von Pixeln dargestellt sind, diese Anzahl von Pixeln lediglich zur Erläuterung dient und den Schutzumfang der Erfindung nicht einschränken soll. Es kann eine beliebige geeignete Pixelzahl verwendet werden, z. B. quadratische Matrizen, wie beispielsweise 8×8- 16×16-, 32×32-Matrizen, oder ein beliebiges anderes geeignetes quadratisches oder rechteckiges Pixelfenster des Bildes600 oder ein Pixelfenster mit einer beliebigen anderen Form und Größe. Von jeder Reihe von Pixelwerten im Mittenbereich kann ein Mittelwert gebildet werden, um einen Reihenmittelwert606 für diese Reihe bereitzustellen, und die Reihenmittelwerte606 können in einer linearen Matrix608 gespeichert werden, die eine Signatur für das Bild600 darstellt. In einer Ausführungsform wird diese Bildsignatur für jedes aktuelle Bild berechnet, wenn versucht wird, nach einer Unterbrechung eine Verknüpfung mit einer Rahmenfolge herzustellen, wie weiter unten beschrieben wird. -
7 zeigt eine Bildsignatur mit einem Rotationsversatz. Das Bild700 kann gedreht werden (oder der Mittenbereich702 kann gedreht werden), und Reihen von Pixelwerten im Mittenbereich702 können gemittelt werden, um einen Reihenmittelwert zu erhalten, und die Reihenmittelwerte für den Mittenbereich702 können in einer linearen Matrix704 gespeichert werden, die eine Bildsignatur mit einem Rotationsversatz706 darstellt. Es kann eine beliebige Anzahl von Rotationsversatzsignaturen erzeugt werden. Beispielsweise kann das Bild700 in Schritten von z. B. 10 Grad über einen vollen Kreis oder über einen Kreisabschnitt, z. B. von –40 Grad bis +40 Grad, um eine ursprüngliche Ausrichtung gedreht werden (wodurch neun Rotationsversatzbildsignaturen erhalten werden). Es wird darauf hingewiesen, dass eine hierin erwähnte Rotation oder Drehung eine relative Rotation des Bildes700 bezüglich des Mittenbereichs702 bezeichnet. Analytisch be trachtet sollte es egal sein, ob das Bild700 oder der Mittenbereich702 gedreht wird, obwohl es rechentechnisch betrachtet effizient sein kann, eine dieser Optionen zu verwenden. Beispielsweise kann, wenn der Mittenbereich702 gedreht wird, eine geringere Anzahl von Rechenschritten erforderlich sein, um Werte innerhalb des gedrehten Fensters des Mittenbereichs702 zu bestimmen. In diesem Zusammenhang soll eine Rotation insbesondere die relative Rotation dieser Bilder ohne Bezug darauf bezeichnen, welches der beiden Bilder in das Koordinatensystem des anderen gedreht wird. In Ausführungsformen der vorstehend beschriebenen Handkamera können Drehinkremente während eines Abtastvorgangs um erwartete manuelle Ausrichtungen eines Abtastvorgangs zentriert sein. -
8 zeigt eine Bildsignatur mit einem Translationseffekt. Das Bild800 kann translatiert werden (oder der Mittenbereich802 kann translatiert werden), und Reihen von Pixelwerten im Mittenbereich802 können gemittelt werden, um einen Reihenmittelwert zu erhalten, und die Reihenmittelwerte für den Mittenbereich802 können in einer linearen Matrix804 gespeichert werden, die eine Bildsignatur mit einem Translationsversatz806 darstellt. Es kann eine beliebige Anzahl von Translationsversatzsignaturen erzeugt werden. Beispielsweise kann das Bild800 in Schritten von z. B. einem Pixel in der x- und y-Achse, oder entlang einer einzelnen Achse translatiert werden (wobei eine Rotation möglicherweise Translationsinformation entlang der orthogonalen Achse enthält). Es ist zu erkennen, dass eine hierin erwähnte Translation eine relative Translation des Bildes800 bezüglich des Mittenbereichs802 bezeichnet. Analytisch betrachtet sollte es egal sein, ob das Bild800 oder der Mittenbereich802 translatiert wird, obwohl es rechentechnisch betrachtet effizient sein kann, eine dieser Optionen zu verwenden. Beispielsweise kann, wenn der Mittenbereich802 translatiert wird, eine geringere Anzahl von Rechenschritten erforderlich sein, um Werte innerhalb des Translationsfensters des Mittenbereichs802 zu bestimmen. In diesem Zusammenhang soll eine Translation insbesondere die relative Translation dieser Bilder ohne Bezug darauf bezeichnen, welches der beiden Bilder in das Koordinatensystem des anderen translatiert wird. - Gemäß einer Ausführungsform können neun Rotationen verwendet werden, wobei für jede Rotation neun Translationen bereitgestellt werden, wodurch 81 Bildsignaturen erhalten werden, die verschiedene Ausrichtungen eines Bildes für jedes Schlüsselbild von Daten abdecken. Wenn Rotationen und Translationen um die ursprüngliche Bildausrichtung zentriert sind, kann eine der Bildsignaturen eine Nullrotation-Nulltranslation-Signatur für die ursprüngliche Bildausrichtung enthalten. Um die Verarbeitungsgeschwindigkeit bei der Suche nach einem aktuellen Bild im Bilddatenkatalog zu verbessern, können diese mehreren Bildsignaturen auf einer elementweisen Basis gemittelt werden, um eine einzelne lineare Matrix zu erhalten, die die mittlere Signatur für ein Bild darstellt. Es ist zu erkennen, dass, obwohl bestimmte bewegungsbasierte Systeme für jeden Datenrahmen mehrere zweidimensionale Bilder aufweisen, ein einzelnes Bild von jedem Bildsatz, z. B. ein herkömmliches Standbild von einem Mittenkanal oder einer ähnlichen Kamera, geeignet verwendet werden kann, um die Übereinstimmung zwischen Signaturen für ein Suchbild und die Zielbilder im vorstehend beschriebenen Rahmenkatalog
500 zu verbessern. -
9 zeigt ein Fenster für eine Ortsfrequenzsignatur. Außer den vorstehend beschriebenen Rotationen und Translationen eines Bildes kann eine Ortsfrequenzsignatur für ein Bild900 unter Verwendung eines Fensters902 zum Auswählen von Pixeln904 im Bild900 und zum Ausführen einer zweidi mensionalen Transformation, z. B. einer schnellen Fouriertransformation (”FFT”), erhalten werden, um die gefensterten Pixelwerte in einer Ortsfrequenzbereichdarstellung anzuordnen. Wie nachstehend ausführlicher beschrieben wird, kann diese Ortsfrequenzsignatur in Kombination mit den vorstehend beschriebenen räumlichen Signaturen verwendet werden, um eine Suche nach Bildern, die mit einer aktuellen Ansicht übereinstimmen, im Rahmendatenkatalog500 für eine vorhandene Abtastung zu verbessern. -
10 zeigt eine Verarbeitung zum Verwenden von Bildsignaturen für eine erneute Verknüpfung mit einer vorhandenen dreidimensionalen Abtastung. Die Verarbeitung1000 kann mit dem Empfang eines Live-Rahmens beginnen, wie in Schritt1002 dargestellt ist. Dieser Live-Rahmen (der auch als die aktuelle Ansicht bezeichnet wird) stellt einen aktuellen Bilddatenrahmen von einer dreidimensionalen Kamera, die z. B. eine beliebige der vorstehend beschriebenen Kameras sein kann, von einer aktuellen Position (und Ausrichtung) der Kamera dar. In einer Ausführungsform kann der Live-Rahmen einen Bildsatz mit einem Mittenkanalbild, das ein herkömmliches zweidimensionales Bild eines abgetasteten Gegenstandes enthält, zusammen mit zwei Seitenkanalbildern von versetzten optischen Achsen enthalten. - Wie in Schritt
1004 dargestellt ist, kann der Live-Rahmen mit einem vorangehenden Rahmen verknüpft werden (der ein Schlüsselbild oder ein Nicht-Schlüsselbild sein kann), um eine Kameratranslation oder -rotation für den Live-Rahmen wiederzugewinnen und wiedergewonnene dreidimensionale Daten zu einem dreidimensionalen Modell hinzuzufügen. Wenn die Verknüpfung erfolgreich ist, so dass beispielsweise die dreidimensionalen Daten aufeinanderfolgender Datenrahmen mit einer ausreichenden Genauigkeit miteinander registriert sind, kann die Verarbeitung1000 zu Schritt1006 fortschrei ten. Wenn die Verknüpfung nicht erfolgreich ist, kann die Verarbeitung1000 optional zu Schritt1008 oder1010 fortschreiten, wie nachstehend allgemein diskutiert wird. - Wie in Schritt
1006 dargestellt ist, kann, wenn ein aktueller oder Live-Rahmen mit dem vorhandenen Datenrahmenkatalog verknüpft worden ist, bestimmt werden, ob der Rahmen ein Schlüsselbild ist. Diese Bestimmung kann auf beliebigen der vorstehend diskutierten Kriterien basieren, wie beispielsweise auf einer relativen Überlappung mit anderen Schlüsselbildern, einer sequenziellen Trennung von einem vorangehenden Schlüsselbild, einer räumlichen Trennung (der wiedergewonnenen Kameraposition) von anderen Schlüsselbilder, usw.. - Wenn der Rahmen kein Schlüsselbild ist, kann die Verarbeitung
1000 zu Schritt1012 fortschreiten, wo das Nicht-Schlüsselbild gespeichert wird. Dieser Schritt kann beispielsweise das Speichern wiedergewonnener Daten, z. B. der Kameraposition, der Kameraausrichtung, einer dreidimensionalen Punktwolke, usw. und das Verwerfen von Quellendaten aufweisen, wie beispielsweise des Vollauflösungs-Bildsatzes für den Rahmen. In einer Ausführungsform kann der Vollauflösungs-Bildsatz für jeden Rahmen nach dem aktuellsten Schlüsselbild oder für ein unmittelbar vorangehendes Nicht-Schlüsselbild vorübergehend gespeichert werden. In einer derartigen Ausführungsform können, wenn ein neues Schlüsselbild erzeugt wird, die Nicht-Schlüsselbilder zwischen dem neuen Schlüsselbild und dem vorangehenden Schlüsselbild insgesamt oder teilweise gelöscht werden. - Wenn der in Schritt
1006 bewertete Rahmen als Schlüsselbild ausgewählt wird, kann der Rahmen dem Abtastdatenkatalog als ein Schlüsselbild hinzugefügt werden. Außer dass die Vollauflösungsdaten für das Schlüsselbild (in Schritt1012 ) gespeichert werden, kann eine zusätzliche Verarbeitung für Schlüsselbilder ausgeführt werden. Beispielsweise können für jedes Schlüsselbild beliebige der vorstehend beschriebenen Signaturen berechnet werden. In einer Ausführungsform beinhaltet dies mehrere lineare Matrizen für mehrere versetzte Rotations- und Translationspositionen, wie vorstehend allgemein beschrieben wurde. Dies kann außerdem einen Mittelwert dieser linearen Matrizen zur Verwendung in signaturbasierten Suchen zum Anpassen von Rahmeninhalt beinhalten. - In einer Ausführungsform kann ein Schlüsselbild (oder eine reduzierte Version eines Schlüsselbildes) verarbeitet werden, um einen Mittelwert für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes zu erhalten und eine lineare Matrix von Reihenmittelwerten bereitzustellen, die als eine erste Signatur gespeichert wird. Der Mittenbereich kann dann bezüglich des Bildes durch eine beliebige Anzahl von Permutationen gedreht und translatiert werden, wobei für jede Permutation eine lineare Matrix gedrehter und/oder translatierter Reihenmittelwerte berechnet wird. Die erhaltenen Matrizen können als Bildsignaturen für das Schlüsselbild gespeichert werden. Außerdem kann ein elementweiser Mittelwert dieser Matrizen berechnet und als summarische Bildsignatur für das Bild gespeichert werden. Nachdem das Schlüsselbild verarbeitet worden ist, kann die Verarbeitung
1000 zu Schritt1012 fortschreiten, wo Schlüsselbilderdaten gespeichert werden, und die Verarbeitung1000 kann dann zu Schritt1002 zurückspringen, wo ein nächster Live-Datenrahmen von einer Kamera erhalten wird. - Wenn nach Rücksprung zu Schritt
1002 eine Verknüpfung aus irgendeinem Grund (entweder durch einen Kamera- oder einen Bedienungsfehler oder durch einen spezifischen Benutzerbefehl) versagt, kann die Verarbeitung1000 optional zu Schritt1008 fortschreiten, wo eine räumliche Signatur für einen Bildabgleich verwendet wird, oder zu Schritt1010 , wo eine Ortsfrequenzsignatur für einen Bildabgleich verwendet wird. Diese Verfahren können beispielsweise basierend darauf, ob der Live-Rahmen eine geradzahlige oder ungeradzahlige Sequenzrahmennummer hat, oder unter Verwendung einer anderen geeigneten Wichtungstechnik oder Technik ohne Gewichtung alternierend verwendet werden. - Wie in Schritt
1008 dargestellt ist, kann eine räumliche Signatur verwendet werden, um zweidimensionale Daten vom Live-Rahmen mit Schlüsselbildern oder anderen Rahmen zu vergleichen, die im Rahmenkatalog gespeichert sind. In einer Ausführungsform wird eine räumliche Signatur für den Live-Rahmen unter Verwendung der vorstehend unter Bezug auf6 beschriebenen Technik berechnet. Obwohl für diese Signatur eine beliebige Translation oder Rotation verwendet werden kann, kann die Signatur vorteilhaft bezüglich eines mittigen, ungedrehten Fensters für eine komprimierte Version des Mittenkanalbildes vom Live-Rahmen angewendet werden. - Es können verschiedenartige Techniken verwendet werden, um die räumliche Signaturinformation für einen Bildabgleich zu verwenden. Ein Verfahren kann folgendermaßen implementiert werden, um den Suchbereich über mehrere Schritte zu verfeinern, bevor eine volle dreidimensionale Registrierung wiedergewonnener dreidimensionaler Daten versucht wird. Die Live-Rahmensignatur kann basierend auf der summarischen Bildsignatur (einer einzelnen linearen Matrix des elementweisen Mittelwertes von Signaturen von verschiedenen Ausrichtungen für den Rahmen, wie vorstehend beschrieben wurde), die für jedes der Schlüsselbilder berechnet wird, mit Schlüsselbildern in einem Rahmenkatalog verglichen werden. Der Vergleich kann beispielsweise als normierte Kreuzkorrelation der summarischen Bildsignatur und der Live-Rahmensignatur oder unter Verwendung eines beliebigen anderen geeigneten Ähnlichkeitsmaßes berechnet werden. Der re chentechnisch ziemlich einfache Vergleich kann beispielsweise für alle Schlüsselbilder im Katalog für eine Abtastung oder alle Schlüsselbilder für einen spezifischen Bereich von Interesse im rekonstruierten dreidimensionalen Modell ausgeführt werden. Die auf der summarischen Bildsignatur basierenden erhaltenen Schlüsselbildervergleiche können unter Verwendung eines beliebigen geeigneten Verfahrens zum Identifizieren mehrerer Kandidatenbilder, z. B. der n besten Kandidatenbilder auf einer quantitativen Basis, oder aller Schlüsselbilder mit einer übereinstimmenden Bewertung, die oberhalb eines vorgegebenen Schwellenwertes liegt, geordnet oder bewertet werden.
- Für jedes der Kandidatenbilder kann ein Vergleich zwischen der Bildsignatur für den Live-Rahmen und jeder gedrehten oder translatierten Signatur für jedes (Schlüsselbild) Kandidatenbild ausgeführt werden. In einer beispielhaften Ausführungsform, in der für jedes Schlüsselbild
81 Signaturen verwendet werden, können für jedes der Kandidatenbilder81 Vergleiche ausgeführt werden. Die erhaltenen Vergleichsergebnisse können wiederum unter Verwendung eines beliebigen geeigneten Ähnlichkeitsmaßes geordnet oder bewertet werden, um Schlüsselbilder zu identifizieren, die gute Kandidaten für eine Registrierung darstellen. Diese können eine absolute Zahl (z. B. die Schlüsselbilder mit den fünf besten Einzelergebnissen, oder die fünf besten Schlüsselbilder basierend auf Einzelergebnissen) oder eine variable Zahl darstellen, die auf einem vorgegebenen Schwellenwert basiert. - Wie in Schritt
1016 dargestellt ist, können diese Registrierungskandidaten – z. B. die Schlüsselbilder, die fünf (oder weniger oder mehr) beste individuelle Übereinstimmungen mit der Live-Bildsignatur aufweisen – in einer Vollverknüpfungsoperation, wie beispielsweise der vorstehend unter Bezug auf Schritt1004 beschriebenen Operation, mit dem Li ve-Rahmen probeweise registriert werden. Für jede Verknüpfung kann basierend z. B. auf dem Fehler in der Verknüpfung oder einer anderen Rest- oder Aufwandfunktion für die Verknüpfung eine Qualitätsbewertung bestimmt werden. In einer Ausführungsform kann die erste Verknüpfung mit einem Schlüsselbild, das ein vorgegebenes Schwellen-Qualitätskriterium erfüllt, als ein nächstes Schlüsselbild für den Katalog ausgewählt werden. In einer anderen Ausführungsform kann eine Verknüpfung mit jedem Schlüsselbild eine volle Auflösung haben und die beste Verknüpfung basierend auf einer Qualitätsbewertung ausgewählt werden. Wenn mindestens eine Verknüpfung mit einem Registrierungskandidaten erfolgreich ist, kann der Live-Rahmen dem Katalog als ein Schlüsselbild hinzugefügt werden, wie in Schritt1014 dargestellt ist. Wenn keine Verknüpfung mit einem Registrierungskandidaten erfolgreich ist, kann die Verarbeitung1000 zu Schritt1002 zurückspringen, wo ein neuer Live-Rahmen erfasst wird. - Wie in Schritt
1010 dargestellt ist, kann an Stelle von (oder in bestimmten Ausführungsformen zusätzlich zu) einer räumlichen Signatur eine Ortsfrequenzsignatur verwendet werden, um einen Live-Rahmen mit anderen Datenrahmen zu vergleichen. Dies kann im Allgemeinen einen Frequenzbereichvergleich des Live-Rahmens mit anderen Rahmen unter Verwendung beispielsweise einer gefensterten schnellen Fouriertransformation (FFT) eines komprimierten Bildes oder einer beliebigen anderen Frequenzbereichdarstellung beinhalten. In einer Ausführungsform kann die Ortsfrequenzsignatur mit einem oder mehreren aktuellen Nicht-Schlüsselbildern nach dem letzten Schlüsselbild verglichen werden. In einer anderen Ausführungsform kann die Ortsfrequenzsignatur ausschließlich mit dem einzigen aktuellsten Datenrahmen verglichen werden, der erfolgreich mit dem vorhandenen dreidimensionalen Modell verknüpft wurde. Es ist klar, dass in diesem Zusammenhang ein Vergleich eine geschätzte Rotation und Translation basierend auf Ortsfrequenzspektren beinhalten kann, wobei eine Verknüpfung basierend auf diesen Parametern versucht wird. Es ist klar, dass in anderen Fällen, z. B. wenn versucht wird, eine Abtastung mit einem in der Rotationsrichtung anders ausgerichteten Scanner fortzusetzen, Rotationsinformation von der Ortsfrequenzsignatur eines Live-Rahmens und eines Registrierungskandidaten verwendet werden kann. Diese Bewegung wird beispielsweise erwartet, wenn eine Handkamera, z. B. die unter Bezug auf1 beschriebene Kamera, von einer Hand eines Benutzer auf die andere Hand gewechselt wird und ein Benutzer versucht, eine Abtastung an der gleichen physischen Stelle fortzusetzen, an der der Abtastvorgang unterbrochen wurde. In diesen Fällen kann die Ortsfrequenzsignatur geeignet auf aktuelle Schlüsselbilder angewendet werden, bei denen geeignete übereinstimmende Kamerapositionen gefunden werden können. - In einer Ausführungsform kann die Verarbeitung
1000 auf einer regelmäßigen Basis (z. B. geradzahlige und ungeradzahlige Rahmen) zwischen einem Vergleich unter Verwendung einer räumlichen Signatur (Schritt1008 ) und einem Vergleich unter Verwendung einer Ortsfrequenzsignatur (Schritt1010 ) wechseln. Bei diesem alternierenden Vergleich können die unter Verwendung einer räumlichen Signatur verarbeiteten Rahmen sich von den unter Verwendung einer Ortsfrequenzsignatur verarbeiteten Rahmen unterschieden werden, z. B. unter Verwendung einer räumlichen Signatur für alle Rahmen in einer Iteration und unter Verwendung einer Ortsfrequenzsignatur für einen oder mehrere aktuelle sequenzielle Nicht-Schlüsselbilder in einer nächsten Iteration. Allgemein sollte zu erkennen sein, dass verschiedene andere Protokolle geeignet verwendet werden können, um zwischen diesen beiden Verfahren zu wechseln, um kombinierte Vorteile jeder Ab gleichtechnik zu erhalten, während die Rechenlast vermindert wird. In anderen Ausführungsformen können beide Techniken für jeden neuen Live-Datenrahmen gleichzeitig verwendet werden, oder die Verarbeitung1000 kann gewisse Kombinationen dieser Verfahren verwenden. Wie in Schritt1016 dargestellt ist, können die Ergebnisse einer probeweisen Registrierung, insofern diese erfolgreich ist, dem Abtastkatalog als Schlüsselbild1014 hinzugefügt werden. Wenn die probeweise Registrierung nicht versucht wird oder nicht erfolgreich ist, kann die Verarbeitung1000 zu Schritt1002 zurückspringen, wo der nächste Live-Rahmen von der Kamera empfangen wird. - Es ist verständlich, dass ein beliebiges der vorstehend beschriebenen Systeme und/oder Verfahren in Hardware und/oder Software realisiert werden kann, die für die hierin beschriebenen Datenerfassungs- und Modellierungstechniken geeignet ist. Dies beinhaltet eine Realisierung unter Verwendung von einem oder mehreren Mikroprozessoren, Mikrocontrollern, eingebetteten Mikrocontrollern, programmierbaren digitalen Signalprozessoren oder anderen programmierbaren Vorrichtungen in Verbindung mit einem internen und/oder externen Speicher. Zusätzlich oder stattdessen können eine oder mehrere anwendungsspezifische integrierte Schaltungen, programmierbare Gate Arrays, programmierbare Array-Logikkomponenten oder eine oder mehrere beliebige andere Vorrichtungen vorgesehen sein, die dafür konfiguriert sein können, elektronische Signale zu verarbeiten. Es ist außerdem verständlich, dass eine Realisierung einen auf einem Computer ausführbaren Code aufweisen kann, der unter Verwendung einer strukturierten Programmiersprache, wie beispielsweise C, einer objektorientierten Programmiersprache, wie beispielsweise C++, oder einer beliebigen anderen High-Level- oder Low-Level-Programmiersprache (einschließlich Assemblersprachen, Hardware-Beschreibungssprachen und Datenbankprogrammiersprachen und -techniken) erzeugt wird, die gespeichert und kompiliert oder interpretiert werden kann, so dass sie auf den vorstehend erwähnten Vorrichtungen läuft, sowie heterogene Kombinationen von Prozessoren, Prozessorarchitekturen oder Kombinationen verschiedener Hardware und Software. Daher wird gemäß einem Aspekt ein Computerprogrammprodukt bereitgestellt, das einen auf einem Computer ausführbaren Code aufweist, der, wenn er auf einem oder mehreren Rechnereinrichtungen ausgeführt wird, beliebige der vorstehend beschriebenen Schritte und/oder alle vorstehend beschriebenen Schritte ausführt. Gleichzeitig kann die Verarbeitung auf mehrere Weisen auf Einrichtungen verteilt werden, z. B. auf eine Kamera und/oder einen Computer und/oder eine Fertigungseinrichtung und/oder ein Dentallabor und/oder einen Server, oder die gesamte Funktionalität kann in eine dedizierte eigenständige Vorrichtung integriert werden. Alle derartigen Permutationen und Kombinationen sollen innerhalb des Schutzumfangs der vorliegenden Erfindung fallen.
- Obwohl die Erfindung in Verbindung mit den dargestellten und ausführlich beschriebenen bevorzugten Ausführungsformen erläutert worden ist, sind für Fachleute verschiedene Modifikationen und Verbesserungen ersichtlich. Daher soll die vorliegende Erfindung nicht durch die vorstehend dargestellten Beispiele eingeschränkt, sondern in dem gemäß dem Gesetz zulässigen weitesten Sinne aufgefasst werden.
- Zusammenfassung
- Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion
- Es wird eine Familie eindimensionaler Bildsignaturen erhalten, die jedes von einer Folge von Bildern in mehreren Translations- und Rotationsausrichtungen darstellen. Durch Berechnen dieser Bildsignaturen während der Erfassung von Bildern kann eine neue aktuelle Ansicht auf eine Weise, die in geringerem Maße von einer relativen Ausrichtung zwischen einem Ziel- und einem Suchbild abhängig ist, schnell mit früheren Ansichten verglichen werden. Diese und andere Techniken können in einer dreidimensionalen Rekonstruktionsverarbeitung verwendet werden, um eine Liste von Kandidatenbildern zu erzeugen, von denen eine volle dreidimensionale Registrierung als Test für einen geeigneten dreidimensionalen Abgleich ausgeführt werden kann. Gemäß einem anderen Aspekt kann dieses Verfahren durch ein Verfahren auf Fourierbasis ergänzt werden, das selektiv auf einen Teilsatz der früheren Bilder angewendet werden kann. Durch Wechseln zwischen räumlichen Signaturen für einen Satz früherer Ansichten und Ortsfrequenzsignaturen für einen anderen Satz früherer Ansichten kann ein Musterabgleichsystem implementiert werden, das in verschiedenen praktischen Anwendungen eine schnellere Verknüpfung mit einem dreidimensionalen Modell ermöglicht.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- - US 7372642 [0035, 0047]
Claims (50)
- Verfahren zum Erzeugen einer Signatur für einen Bildabgleich, mit den Schritten: Bereitstellen eines mehrere Pixel aufweisenden Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine erste Signatur gespeichert wird; Drehen des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines gedrehten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im gedrehten Mittenbild, um eine lineare Matrix gedrehter Reihenmittelwerte zu erzeugen, die als eine zweite Signatur gespeichert wird; Translatieren des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines translatierten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im translatierten Mittenbild, um eine lineare Matrix translatierter Reihenmittelwerte zu erzeugen, die als eine dritte Signatur gespeichert wird; und Bestimmen eines elementweisen Reihenmittelwertes für jede Signatur des Bildes, die mindestens die erste Signatur, die zweite Signatur und die dritte Signatur aufweist, und Speichern des elementweisen Reihenmittelwertes als eine das Bild beschreibende summarische Bildsignatur.
- Verfahren nach Anspruch 1, wobei das Bild eine komprimierte Version eines Quellenbildes mit einer größeren Pixelzahl ist.
- Verfahren nach Anspruch 1, ferner mit dem Schritt: Translatieren des Mittenbereichs zu mehreren Versatzpositionen bezüglich des Bildes und Bestimmen einer weiteren linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren Versatzpositionen.
- Verfahren nach Anspruch 1, ferner mit dem Schritt: Drehen des Mittenbereichs in mehrere versetzte Ausrichtungen bezüglich des Bildes und Bestimmen einer weiteren linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren versetzten Ausrichtungen.
- Verfahren nach Anspruch 1, ferner mit den Schritten: Empfangen eines zweiten Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des zweiten Bildes zum Bereitstellen einer linearen Matrix von Reihenmittelwerten, die als eine Suchsignatur gespeichert wird; und Vergleichen der summarischen Bildsignatur mit der Suchsignatur zum Identifizieren einer möglichen Übereinstimmung.
- Computerprogrammprodukt zum Erzeugen einer Signatur für einen Bildabgleich, mit einem auf einem Computer ausführbaren Code, der auf einem computerlesbaren Medium gespeichert ist, und der, wenn er auf einem oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Bereitstellen eines mehrere Pixel aufweisenden Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des Bildes, um eine lineare Matrix von Reihenmittelwerten zu erzeugen, die als eine erste Signatur gespeichert wird; Drehen des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines gedrehten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im gedrehten Mittenbild, um eine lineare Matrix gedrehter Reihenmittelwerte zu erzeugen, die als eine zweite Signatur gespeichert wird; Translatieren des Mittenbereichs bezüglich des Bildes zum Bereitstellen eines translatierten Mittenbildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen im translatierten Mittenbild, um eine lineare Matrix translatierter Reihenmittelwerte zu erzeugen, die als eine dritte Signatur gespeichert wird; und Bestimmen eines elementweisen Reihenmittelwertes für jede Signatur des Bildes, die mindestens die erste Signatur, die zweite Signatur und die dritte Signatur aufweist, und Speichern des elementweisen Reihenmittelwertes als eine das Bild beschreibende summarische Bildsignatur.
- Computerprogrammprodukt nach Anspruch 6, wobei das Bild eine komprimierte Version eines Quellenbildes mit einer größeren Pixelzahl ist.
- Computerprogrammprodukt nach Anspruch 6, ferner mit einem Code, der den Schritt zum Translatieren des Mittenbereichs zu mehreren Versatzpositionen bezüglich des Bildes und Bestimmen einer weiteren linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren Versatzpositionen ausführt.
- Computerprogrammprodukt nach Anspruch 6, ferner mit einem Code, der den Schritt zum Drehen des Mittenbereichs in mehrere versetzte Ausrichtungen bezüglich des Bildes und Bestimmen einer weiteren linearen Matrix von Reihenmittelwerten vom Mittenbereich für jede der mehreren versetzten Ausrichtungen ausführt.
- Computerprogrammprodukt nach Anspruch 6, ferner mit einem Code, der die Schritte ausführt: Empfangen eines zweiten Bildes; Erzeugen eines Mittelwertes für jede von mehreren Pixelreihen in einem Mittenbereich des zweiten Bildes zum Bereitstellen einer linearen Matrix von Reihenmittelwerten, die als eine Suchsignatur gespeichert wird; und Vergleichen der summarischen Bildsignatur mit der Suchsignatur zum Identifizieren einer möglichen Übereinstimmung.
- Verfahren zum Verwenden von Bildsignaturen für einen Bildabgleich in einer dreidimensionalen Rekonstruktionsverarbeitung, mit den Schritten: Erzeugen einer Bildsignatur für jedes von mehreren Bildern, die in einer dreidimensionalen Rekonstruktion verwendet werden, wobei die Bildsignatur eine erste Signatur und mehrere Ausrichtungssignaturen aufweist, wobei jede Ausrichtungssignatur auf die gleiche Weise berechnet wird wie die erste Signatur, wobei das Bild einer versetzten Rotations- und/oder Translationsposition entspricht, und wobei jede Bildsignatur eine summarische Signatur aufweist, die als ein Mittelwert der ersten Signatur und jeder der Ausrichtungssignaturen berechnet wird; Bestimmen einer zweiten Signatur für ein Suchbild, das der dreidimensionalen Rekonstruktion hinzugefügt werden soll, wobei die zweite Signatur auf die gleiche Weise berechnet wird wie die erste Signatur; Auswählen mehrerer Kandidatenbilder von den mehreren Bildern basierend auf einem Vergleich zwischen der zweiten Signatur des Suchbildes und der summarischen Signatur jedes der mehreren Bilder; Auswählen mehrerer Kandidatenregistrierungen von den Kandidatenbildern basierend auf einem Vergleich zwischen der zweiten Signatur und der Bildsignatur und basierend auf den mehreren Ausrichtungssignaturen für jedes der Kandidatenbilder; sequenzielles probeweises Registrieren eines dem Suchbild zugeordneten dreidimensionalen Datensatzes mit einem dreidimensionalen Datensatz, der jedem der Kandidatenbilder zugeordnet ist, bis eine erhaltene Registrierung einen Restfehler aufweist, der kleiner ist als ein vorgegebener Schwellenwert; und Hinzufügen des Suchbildes zu den mehreren Bildern, was das Hinzufügen des dem Suchbild zugeordneten dreidimensionalen Datensatzes zur dreidimensionalen Rekonstruktion beinhaltet.
- Verfahren nach Anspruch 11, wobei jede Bildsignatur eine Ortsfrequenzbereichdarstellung des Bildes aufweist und die zweite Bildsignatur eine Ortsfrequenzbereichdarstellung des Suchbildes aufweist.
- Verfahren nach Anspruch 11, wobei jede Bildsignatur auf einem heruntergetakteten der mehreren Bilder basiert.
- Verfahren nach Anspruch 11, wobei jede Bildsignatur auf einem Mittenbereich der mehreren Bilder basiert.
- Verfahren nach Anspruch 11, wobei jedes der mehreren Bilder ein Schlüsselbild in einer Kamerabahn ist, das zum Erhalten der dreidimensionalen Rekonstruktion verwendet wird.
- Verfahren nach Anspruch 11, ferner mit den Schritten: Verwerfen des Suchbildes, wenn keine der erhaltenen Registrierungen einen Restfehler aufweist, der kleiner ist als der vorgegebene Schwellenwert; und Erfassen eines neuen Suchbildes.
- Verfahren nach Anspruch 11, ferner mit dem Schritt zum Skalieren des Suchbildes derart, dass der dem Suchbild zugeordnete dreidimensionale Datensatz und der dreidimensionale Datensatz, der mindestens einem der mehreren Bilder zugeordnet ist, einen im Wesentlichen gleichen Schwerpunktabstand haben.
- Computerprogrammprodukt zum Verwenden von Bildsignaturen für einen Bildabgleich in einer dreidimensionalen Rekonstruktionsverarbeitung, mit einem auf einem Computer ausführbaren Code, der auf einem computerlesbaren Medium gespeichert ist, und der, wenn er auf einer oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Erzeugen einer Bildsignatur für jedes von mehreren Bildern, die in einer dreidimensionalen Rekonstruktion verwendet werden, wobei jede Bildsignatur eine erste Signatur und mehrere Ausrichtungssignaturen aufweist, wobei jede Ausrichtungssignatur auf die gleiche Weise berechnet wird wie die erste Signatur, wobei das Bild einer versetzten Rotations- und/oder Translationsposition entspricht, und wobei jede Bildsignatur eine summarische Signatur aufweist, die als ein Mittelwert der ersten Signatur und jeder der Ausrichtungssignaturen berechnet wird; Bestimmen einer zweiten Signatur für ein Suchbild, das der dreidimensionalen Rekonstruktion hinzugefügt werden soll, wobei die zweite Signatur auf die gleiche Weise berechnet wird wie die erste Signatur; Auswählen mehrerer Kandidatenbilder von den mehreren Bildern basierend auf einem Vergleich zwischen der zweiten Signatur des Suchbildes und der summarischen Signatur jedes der mehreren Bilder; Auswählen mehrerer Kandidatenregistrierungen von den Kandidatenbildern basierend auf einem Vergleich zwischen der zweiten Signatur und der Bildsignatur und basierend auf den mehreren Ausrichtungssignaturen für jedes der Kandidatenbilder; sequenzielles probeweises Registrieren eines dem Suchbild zugeordneten dreidimensionalen Datensatzes mit einem dreidimensionalen Datensatz, der jedem der Kandidatenbilder zugeordnet ist, bis eine erhaltene Registrierung einen Restfehler aufweist, der kleiner ist als ein vorgegebener Schwellenwert; und Hinzufügen des Suchbildes zu den mehreren Bildern, was das Hinzufügen des dem Suchbild zugeordneten dreidimensionalen Datensatzes zur dreidimensionalen Rekonstruktion beinhaltet.
- Computerprogrammprodukt nach Anspruch 18, wobei jede Bildsignatur eine Ortsfrequenzbereichdarstellung des Bildes enthält und die zweite Bildsignatur eine Ortsfrequenzbereichdarstellung des Suchbildes aufweist.
- Computerprogrammprodukt nach Anspruch 18, wobei jede Bildsignatur auf einem heruntergetakteten der mehreren Bilder basiert.
- Computerprogrammprodukt nach Anspruch 18, wobei jede Bildsignatur auf einem Mittenbereich der mehreren Bilder basiert.
- Computerprogrammprodukt nach Anspruch 18, wobei jedes der mehreren Bilder ein Schlüsselbild in einer Kamerabahn ist, das zum Erhalten der dreidimensionalen Rekonstruktion verwendet wird.
- Computerprogrammprodukt nach Anspruch 18, ferner mit einem Code, der die Schritte ausführt: Verwerfen des Suchbildes, wenn keine der erhaltenen Registrierungen einen Restfehler aufweist, der kleiner ist als der vorgegebene Schwellenwert; und Erfassen eines neuen Suchbildes.
- Computerprogrammprodukt nach Anspruch 18, ferner mit einem Code, der den Schritt zum Skalieren des Suchbildes derart ausführt, dass der dem Suchbild zugeordnete dreidimensionale Datensatz und der dreidimensionale Datensatz, der mindestens einem der mehreren Bilder zugeordnet ist, einen im Wesentlichen gleichen Schwerpunktabstand haben.
- Verfahren zum Verwenden von Bildsignaturen für einen Bildabgleich, mit den Schritten: Erzeugen mindestens einer räumlichen Signatur oder mindestens einer Ortsfrequenzsignatur für jedes von mehreren Bildern; Prüfen eines ersten Suchbildes hinsichtlich einer Übereinstimmung mit einem ersten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das erste Suchbild; und Prüfen eines zweiten Suchbildes hinsichtlich einer Übereinstimmung mit einem zweiten Teilsatz der mehreren Bilder basierend auf einer Ortsfrequenzsignatur für das zweite Suchbild.
- Verfahren nach Anspruch 25, wobei der erste Teilsatz sich vom zweiten Teilsatz unterscheidet.
- Verfahren nach Anspruch 25, wobei das Prüfen des zweiten Suchbildes das sequenzielle Prüfen des zweiten Suchbildes aufweist, wenn beim Prüfen des ersten Suchbildes keine geeignete Übereinstimmung erhalten wurde.
- Verfahren nach Anspruch 25, wobei die mehreren Bilder Bilder enthalten, die in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden.
- Verfahren nach Anspruch 25, wobei der erste Teilsatz mehrere Schlüsselbilder aufweist, die zum Definieren einer Kamerabahn in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden.
- Verfahren nach Anspruch 25, wobei der erste Teilsatz alle Schlüsselbilder für eine dreidimensionale Abtastung aufweist.
- Verfahren nach Anspruch 25, wobei für jeden Rahmen mehrere räumliche Signaturen berechnet werden, die das Schlüsselbild für mehrere versetzte Rotations- und Translationspositionen darstellen.
- Verfahren nach Anspruch 25, wobei der zweite Teilsatz ein oder mehrere unmittelbar vorangehende Bilder in einer Folge von Bildern aufweist, die während einer bewegungsbasierten dreidimensionalen Rekonstruktion erhalten werden.
- Verfahren nach Anspruch 25, wobei das erste Suchbild und das zweite Suchbild sequenzielle aktuelle Ansichten sind, die von einer dreidimensionalen Kamera erhalten werden.
- Verfahren nach Anspruch 33, ferner mit dem Schritt zum Prüfen des zweiten Suchbildes hinsichtlich einer Übereinstimmung mit dem zweiten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das zweite Suchbild.
- Verfahren nach Anspruch 25, ferner mit dem Schritt zum alternierenden Wiederholen eines auf einer räumlichen Signatur basierenden Prüfvorgangs und eines auf einer Ortsfrequenzsignatur basierenden Prüfvorgangs für eine neue aktuelle Ansicht, die von einer dreidimensionalen Kamera erhalten wird, bis eine Übereinstimmung gemäß einem vorgegebenen Kriterium gefunden wird.
- Verfahren nach Anspruch 35, ferner mit dem Schritt zum Verwenden der Übereinstimmung für eine Registrierung einer dreidimensionalen Rekonstruktion für eine aktuelle Ansicht bezüglich eines dreidimensionalen Modells, das von dreidimensionalen Daten erhalten wird, die jedem der mehreren Bilder zugeordnet sind.
- Verfahren nach Anspruch 35, ferner mit dem Schritt zum Verwerfen jeder neuen aktuellen Ansicht, bis eine Übereinstimmung gefunden wurde.
- Computerprogrammprodukt zum Verwenden von Bildsignaturen für einen Bildabgleich mit einem auf einem Computer ausführbaren Code, der auf einem computerlesbaren Medium gespeichert ist, und der, wenn er auf einer oder mehreren Rechnereinrichtungen ausgeführt wird, die Schritte ausführt: Erzeugen mindestens einer räumlichen Signatur oder mindestens einer Ortsfrequenzsignatur für jedes von mehreren Bildern; Prüfen eines ersten Suchbildes hinsichtlich einer Übereinstimmung mit einem ersten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das erste Suchbild; und Prüfen eines zweiten Suchbildes hinsichtlich einer Übereinstimmung mit einem zweiten Teilsatz der mehreren Bilder basierend auf einer Ortsfrequenzsignatur für das zweite Suchbild.
- Computerprogrammprodukt nach Anspruch 38, wobei der erste Teilsatz sich vom zweiten Teilsatz unterscheidet.
- Computerprogrammprodukt nach Anspruch 38, wobei das Prüfen des zweiten Suchbildes das sequenzielle Prüfen des zweiten Suchbildes aufweist, wenn beim Prüfen des ersten Suchbildes keine geeignete Übereinstimmung erhalten wurde.
- Computerprogrammprodukt nach Anspruch 38, wobei die mehreren Bilder Bilder enthalten, die in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden.
- Computerprogrammprodukt nach Anspruch 38, wobei der erste Teilsatz mehrere Schlüsselbilder aufweist, die zum Definieren einer Kamerabahn in einer bewegungsbasierten dreidimensionalen Rekonstruktion verwendet werden.
- Computerprogrammprodukt nach Anspruch 38, wobei der erste Teilsatz alle Schlüsselbilder für eine dreidimensionale Abtastung aufweist.
- Computerprogrammprodukt nach Anspruch 38, wobei für jedes Schlüsselbild mehrere räumliche Signaturen berechnet werden, die das Schlüsselbild für mehrere versetzte Rotations- und Translationspositionen darstellen.
- Computerprogrammprodukt nach Anspruch 38, wobei der zweite Teilsatz ein oder mehrere unmittelbar vorangehende Bilder in einer Folge von Bildern aufweist, die während einer bewegungsbasierten dreidimensionalen Rekonstruktion erhalten werden.
- Computerprogrammprodukt nach Anspruch 38, wobei das erste Suchbild und das zweite Suchbild sequenzielle aktu elle Ansichten sind, die von einer dreidimensionalen Kamera erhalten werden.
- Computerprogrammprodukt nach Anspruch 46, ferner mit dem Schritt zum Prüfen des zweiten Suchbildes hinsichtlich einer Übereinstimmung mit dem zweiten Teilsatz der mehreren Bilder basierend auf einer räumlichen Signatur für das zweite Suchbild.
- Computerprogrammprodukt nach Anspruch 38, ferner mit einem Code, der den Schritt zum alternierenden Wiederholen eines auf einer räumlichen Signatur basierenden Prüfvorgangs und eines auf einer Ortsfrequenzsignatur basierenden Prüfvorgangs für eine neue aktuelle Ansicht ausführt, die von einer dreidimensionalen Kamera erhalten wird, bis eine Übereinstimmung gemäß einem vorgegebenen Kriterium gefunden wird.
- Computerprogrammprodukt nach Anspruch 48, ferner mit einem Code, der den Schritt zum Verwenden der Übereinstimmung für eine Registrierung einer dreidimensionalen Rekonstruktion für eine aktuelle Ansicht bezüglich eines dreidimensionalen Modells ausführt, das von dreidimensionalen Daten erhalten wird, die jedem der mehreren Bilder zugeordnet sind.
- Computerprogrammprodukt nach Anspruch 48, ferner mit einem Code, der den Schritt zum Verwerfen jeder neuen aktuellen Ansicht ausführt, bis eine Übereinstimmung gefunden wurde.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US1915908P | 2008-01-04 | 2008-01-04 | |
US61/019,159 | 2008-01-04 | ||
PCT/US2009/030066 WO2009089127A1 (en) | 2008-01-04 | 2009-01-04 | Image signatures for use in motion-based three-dimensional reconstruction |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112009000099T5 true DE112009000099T5 (de) | 2010-11-11 |
Family
ID=40853423
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000100T Pending DE112009000100T5 (de) | 2008-01-04 | 2009-01-04 | Navigieren zwischen Bildern eines Objekts im 3D-Raum |
DE112009000099T Pending DE112009000099T5 (de) | 2008-01-04 | 2009-01-04 | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion |
DE112009000101T Pending DE112009000101T5 (de) | 2008-01-04 | 2009-01-04 | Globale Kamerawegoptimierung |
DE112009000094T Pending DE112009000094T5 (de) | 2008-01-04 | 2009-01-04 | Verfeinerung dreidimensionaler Modelle |
DE112009000093T Pending DE112009000093T5 (de) | 2008-01-04 | 2009-01-04 | Hierarchische Verarbeitung unter Nutzung von Bildverformung |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000100T Pending DE112009000100T5 (de) | 2008-01-04 | 2009-01-04 | Navigieren zwischen Bildern eines Objekts im 3D-Raum |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000101T Pending DE112009000101T5 (de) | 2008-01-04 | 2009-01-04 | Globale Kamerawegoptimierung |
DE112009000094T Pending DE112009000094T5 (de) | 2008-01-04 | 2009-01-04 | Verfeinerung dreidimensionaler Modelle |
DE112009000093T Pending DE112009000093T5 (de) | 2008-01-04 | 2009-01-04 | Hierarchische Verarbeitung unter Nutzung von Bildverformung |
Country Status (3)
Country | Link |
---|---|
US (7) | US8803958B2 (de) |
DE (5) | DE112009000100T5 (de) |
WO (5) | WO2009089129A1 (de) |
Families Citing this family (257)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11026768B2 (en) | 1998-10-08 | 2021-06-08 | Align Technology, Inc. | Dental appliance reinforcement |
EP1869403B1 (de) * | 2005-03-03 | 2017-06-14 | Align Technology, Inc. | System und verfahren zum scannen eines intraoralen hohlraums |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US20160321253A1 (en) | 2005-10-26 | 2016-11-03 | Cortica, Ltd. | System and method for providing recommendations based on user profiles |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US11216498B2 (en) * | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
WO2009089129A1 (en) | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Global camera path optimization |
US9094675B2 (en) * | 2008-02-29 | 2015-07-28 | Disney Enterprises Inc. | Processing image data from multiple cameras for motion pictures |
US8108189B2 (en) | 2008-03-25 | 2012-01-31 | Align Technologies, Inc. | Reconstruction of non-visible part of tooth |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8092215B2 (en) | 2008-05-23 | 2012-01-10 | Align Technology, Inc. | Smile designer |
US9492243B2 (en) | 2008-05-23 | 2016-11-15 | Align Technology, Inc. | Dental implant positioning |
US8172569B2 (en) | 2008-06-12 | 2012-05-08 | Align Technology, Inc. | Dental appliance |
US8152518B2 (en) | 2008-10-08 | 2012-04-10 | Align Technology, Inc. | Dental positioning appliance having metallic portion |
US8640338B2 (en) | 2009-02-02 | 2014-02-04 | Viax Dental Technologies, LLC | Method of preparation for restoring tooth structure |
US20100192375A1 (en) | 2009-02-02 | 2010-08-05 | Remedent Nv | Method for producing a dentist tool |
US8292617B2 (en) | 2009-03-19 | 2012-10-23 | Align Technology, Inc. | Dental wire attachment |
CA2763826C (en) | 2009-06-17 | 2020-04-07 | 3Shape A/S | Focus scanning apparatus |
US8765031B2 (en) | 2009-08-13 | 2014-07-01 | Align Technology, Inc. | Method of forming a dental appliance |
WO2011034781A2 (en) | 2009-09-15 | 2011-03-24 | 3M Innovative Properties Company | Method of making dental implant model and articles |
WO2011034780A1 (en) | 2009-09-15 | 2011-03-24 | 3M Innovative Properties Company | Dental implant abutments and methods of use |
AT508563B1 (de) | 2009-10-07 | 2011-02-15 | Ait Austrian Inst Technology | Verfahren zur aufnahme dreidimensionaler abbilder |
DE102009048834A1 (de) * | 2009-10-09 | 2011-04-14 | Volkswagen Ag | Verfahren und Anzeigeeinrichtung zum Anzeigen von Informationen |
US8566020B2 (en) * | 2009-12-01 | 2013-10-22 | Nokia Corporation | Method and apparatus for transforming three-dimensional map objects to present navigation information |
US8624902B2 (en) | 2010-02-04 | 2014-01-07 | Microsoft Corporation | Transitioning between top-down maps and local navigation of reconstructed 3-D scenes |
US8773424B2 (en) | 2010-02-04 | 2014-07-08 | Microsoft Corporation | User interfaces for interacting with top-down maps of reconstructed 3-D scences |
US9241774B2 (en) | 2010-04-30 | 2016-01-26 | Align Technology, Inc. | Patterned dental positioning appliance |
US9211166B2 (en) | 2010-04-30 | 2015-12-15 | Align Technology, Inc. | Individualized orthodontic treatment index |
US8295589B2 (en) | 2010-05-20 | 2012-10-23 | Microsoft Corporation | Spatially registering user photographs |
JP2012053268A (ja) * | 2010-09-01 | 2012-03-15 | Canon Inc | レンチキュラーレンズ、画像生成装置および画像生成方法 |
WO2012061549A2 (en) * | 2010-11-03 | 2012-05-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
KR101791590B1 (ko) * | 2010-11-05 | 2017-10-30 | 삼성전자주식회사 | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 |
ES2788853T3 (es) | 2010-12-06 | 2020-10-23 | 3Shape As | Sistema con integración de interfaz de usuario 3D |
EP3431921B1 (de) | 2010-12-06 | 2020-02-05 | 3Shape A/S | System mit 3d-benutzeroberflächenintegration |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
WO2012083968A1 (en) * | 2010-12-21 | 2012-06-28 | 3Shape A/S | Motion blur compensation |
US20120162394A1 (en) * | 2010-12-23 | 2012-06-28 | Tektronix, Inc. | Displays for easy visualizing of 3d disparity data |
WO2012115863A2 (en) * | 2011-02-22 | 2012-08-30 | 3M Innovative Properties Company | Hybrid stitching |
US9443298B2 (en) | 2012-03-02 | 2016-09-13 | Authentect, Inc. | Digital fingerprinting object authentication and anti-counterfeiting system |
US8774455B2 (en) | 2011-03-02 | 2014-07-08 | Raf Technology, Inc. | Document fingerprinting |
JP5144784B2 (ja) * | 2011-04-11 | 2013-02-13 | ファナック株式会社 | 工作機械の工具軌跡表示装置 |
US9433795B2 (en) | 2011-04-13 | 2016-09-06 | Boston Scientific Neuromodulation Corporation | User interface with view finder for localizing anatomical region |
US8963998B2 (en) * | 2011-04-15 | 2015-02-24 | Tektronix, Inc. | Full reference system for predicting subjective quality of three-dimensional video |
RU2745030C2 (ru) | 2011-05-26 | 2021-03-18 | Вайэкс Дентал Текнолоджиз, Ллк | Стоматологический инструмент и направляющие устройства |
US8648919B2 (en) * | 2011-06-06 | 2014-02-11 | Apple Inc. | Methods and systems for image stabilization |
US8823813B2 (en) | 2011-06-06 | 2014-09-02 | Apple Inc. | Correcting rolling shutter using image stabilization |
WO2012168322A2 (en) * | 2011-06-06 | 2012-12-13 | 3Shape A/S | Dual-resolution 3d scanner |
US20120329008A1 (en) * | 2011-06-22 | 2012-12-27 | Trident Labs, Inc. d/b/a Trident Dental Laboratories | Process for making a dental restoration model |
US9486141B2 (en) * | 2011-08-09 | 2016-11-08 | Carestream Health, Inc. | Identification of dental caries in live video images |
US9403238B2 (en) | 2011-09-21 | 2016-08-02 | Align Technology, Inc. | Laser cutting |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
GB2497517B (en) * | 2011-12-06 | 2016-05-25 | Toshiba Res Europe Ltd | A reconstruction system and method |
US8767040B2 (en) | 2012-01-11 | 2014-07-01 | Google Inc. | Method and system for displaying panoramic imagery |
US9375300B2 (en) | 2012-02-02 | 2016-06-28 | Align Technology, Inc. | Identifying forces on a tooth |
US9220580B2 (en) | 2012-03-01 | 2015-12-29 | Align Technology, Inc. | Determining a dental treatment difficulty |
US10346852B2 (en) | 2016-02-19 | 2019-07-09 | Alitheon, Inc. | Preserving authentication under item change |
US9083945B2 (en) | 2012-04-06 | 2015-07-14 | Adobe Systems Incorporated | Keyframe selection for robust video-based structure from motion |
US9317928B2 (en) | 2012-04-06 | 2016-04-19 | Adobe Systems Incorporated | Detecting and tracking point features with primary colors |
US9414897B2 (en) | 2012-05-22 | 2016-08-16 | Align Technology, Inc. | Adjustment of tooth position in a virtual dental model |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
US10163261B2 (en) * | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
EP3869797B1 (de) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Verfahren zur tiefenerkennung in mit array-kameras aufgenommenen bildern |
US9154805B2 (en) * | 2012-09-12 | 2015-10-06 | Advanced Micro Devices, Inc. | Video and image compression based on position of the image generating device |
US20140100995A1 (en) * | 2012-10-05 | 2014-04-10 | Sanu Koshy | Collection and Use of Consumer Data Associated with Augmented-Reality Window Shopping |
US8948482B2 (en) | 2012-11-01 | 2015-02-03 | Align Technology, Inc. | Motion compensation in a three dimensional scan |
KR102307530B1 (ko) * | 2012-11-23 | 2021-09-30 | 카덴스 메디컬 이미징 아이엔씨 | 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 |
US20140172392A1 (en) * | 2012-12-18 | 2014-06-19 | Palo Alto Research Center Incorporated | Simultaneous mapping and registering thermal images |
AU2012268846A1 (en) * | 2012-12-21 | 2014-07-10 | Canon Kabushiki Kaisha | Optimal patch ranking for coordinate transform estimation of microscope images from sparse patch shift estimates |
AU2014204252B2 (en) | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US9224368B2 (en) * | 2013-02-20 | 2015-12-29 | Google Inc. | Merging three-dimensional models of varying resolution |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9445003B1 (en) * | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9196084B2 (en) * | 2013-03-15 | 2015-11-24 | Urc Ventures Inc. | Determining object volume from mobile device images |
AU2014239979B2 (en) * | 2013-03-15 | 2017-06-22 | Aurora Operations, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
WO2014162852A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6551392B2 (ja) * | 2013-04-05 | 2019-07-31 | アンドラ モーション テクノロジーズ インク. | 画像キャプチャに関する装置を制御するシステムおよび方法 |
US9479709B2 (en) | 2013-10-10 | 2016-10-25 | Nvidia Corporation | Method and apparatus for long term image exposure with image stabilization on a mobile device |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US9426361B2 (en) | 2013-11-26 | 2016-08-23 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
EP2884364B1 (de) * | 2013-12-12 | 2018-09-26 | Hexagon Technology Center GmbH | Autonomes Gartenarbeitsfahrzeug mit Kamera |
WO2015109387A1 (en) * | 2014-01-21 | 2015-07-30 | Vorum Research Corporation | Method and system for generating a three-dimensional scan of an object |
WO2015118120A1 (en) | 2014-02-07 | 2015-08-13 | 3Shape A/S | Detecting tooth shade |
CN103796004B (zh) * | 2014-02-13 | 2015-09-30 | 西安交通大学 | 一种主动结构光的双目深度感知方法 |
CN104065954B (zh) * | 2014-07-03 | 2016-05-18 | 中国传媒大学 | 一种高清立体视频的视差范围快速检测方法 |
US10772506B2 (en) | 2014-07-07 | 2020-09-15 | Align Technology, Inc. | Apparatus for dental confocal imaging |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
US9724177B2 (en) | 2014-08-19 | 2017-08-08 | Align Technology, Inc. | Viewfinder with real-time tracking for intraoral scanning |
US9610141B2 (en) | 2014-09-19 | 2017-04-04 | Align Technology, Inc. | Arch expanding appliance |
US10449016B2 (en) | 2014-09-19 | 2019-10-22 | Align Technology, Inc. | Arch adjustment appliance |
US10547825B2 (en) | 2014-09-22 | 2020-01-28 | Samsung Electronics Company, Ltd. | Transmission of three-dimensional video |
US11205305B2 (en) | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
CN107077743B (zh) | 2014-09-29 | 2021-03-23 | 快图有限公司 | 用于阵列相机的动态校准的系统和方法 |
US9744001B2 (en) | 2014-11-13 | 2017-08-29 | Align Technology, Inc. | Dental appliance with cavity for an unerupted or erupting tooth |
US10504386B2 (en) | 2015-01-27 | 2019-12-10 | Align Technology, Inc. | Training method and system for oral-cavity-imaging-and-modeling equipment |
KR102264591B1 (ko) * | 2015-02-27 | 2021-06-15 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
US10586385B2 (en) | 2015-03-05 | 2020-03-10 | Commonwealth Scientific And Industrial Research Organisation | Structure modelling |
EP3317852B1 (de) | 2015-06-30 | 2021-05-12 | Mapillary AB | Verfahren zur konstruktion eines modells einer szene und vorrichtung dafür |
US10248883B2 (en) | 2015-08-20 | 2019-04-02 | Align Technology, Inc. | Photograph-based assessment of dental treatments and procedures |
TWI567364B (zh) | 2015-09-08 | 2017-01-21 | 財團法人工業技術研究院 | 結構光產生裝置、量測系統及其方法 |
US11554000B2 (en) | 2015-11-12 | 2023-01-17 | Align Technology, Inc. | Dental attachment formation structure |
US11931222B2 (en) | 2015-11-12 | 2024-03-19 | Align Technology, Inc. | Dental attachment formation structures |
US11596502B2 (en) | 2015-12-09 | 2023-03-07 | Align Technology, Inc. | Dental attachment placement structure |
US11103330B2 (en) | 2015-12-09 | 2021-08-31 | Align Technology, Inc. | Dental attachment placement structure |
US20170171525A1 (en) * | 2015-12-14 | 2017-06-15 | Sony Corporation | Electronic system including image processing unit for reconstructing 3d surfaces and iterative triangulation method |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
WO2017105641A1 (en) | 2015-12-15 | 2017-06-22 | Cortica, Ltd. | Identification of key points in multimedia data elements |
US10621433B1 (en) | 2015-12-18 | 2020-04-14 | EControls Holdings, KKC | Multiscopic whitetail scoring game camera systems and methods |
US10867301B2 (en) | 2016-04-18 | 2020-12-15 | Alitheon, Inc. | Authentication-triggered processes |
WO2017205144A1 (en) | 2016-05-27 | 2017-11-30 | 3M Innovative Properties Company | Coating compositions having particles with differing refractive indices for use in intraoral scanning methods |
US20190201296A1 (en) | 2016-05-27 | 2019-07-04 | 3M Innovative Properties Company | Coating compositions having hydrophilic and hydrophobic particles for use in intraoral scanning methods |
EP3988048B1 (de) | 2016-06-17 | 2024-01-17 | Align Technology, Inc. | Leistungsüberwachung einer kieferorthopädischen vorrichtung |
US10470847B2 (en) | 2016-06-17 | 2019-11-12 | Align Technology, Inc. | Intraoral appliances with sensing |
US10740767B2 (en) | 2016-06-28 | 2020-08-11 | Alitheon, Inc. | Centralized databases storing digital fingerprints of objects for collaborative authentication |
US10915612B2 (en) | 2016-07-05 | 2021-02-09 | Alitheon, Inc. | Authenticated production |
US10416836B2 (en) * | 2016-07-11 | 2019-09-17 | The Boeing Company | Viewpoint navigation control for three-dimensional visualization using two-dimensional layouts |
US10507087B2 (en) | 2016-07-27 | 2019-12-17 | Align Technology, Inc. | Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth |
JP2019523064A (ja) | 2016-07-27 | 2019-08-22 | アライン テクノロジー, インコーポレイテッド | 歯科診断機能を有する口腔内スキャナ |
US10902540B2 (en) | 2016-08-12 | 2021-01-26 | Alitheon, Inc. | Event-driven authentication of physical objects |
US10839528B2 (en) | 2016-08-19 | 2020-11-17 | Alitheon, Inc. | Authentication-based tracking |
GB2553148A (en) | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
CN117257492A (zh) | 2016-11-04 | 2023-12-22 | 阿莱恩技术有限公司 | 用于牙齿图像的方法和装置 |
TWI651513B (zh) | 2016-11-15 | 2019-02-21 | 財團法人工業技術研究院 | 三維量測系統及其方法 |
US11003305B2 (en) * | 2016-11-18 | 2021-05-11 | Zspace, Inc. | 3D user interface |
EP3547952B1 (de) | 2016-12-02 | 2020-11-04 | Align Technology, Inc. | Palatalexpander |
CN106776996B (zh) * | 2016-12-02 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 用于测试高精度地图的准确性的方法和装置 |
WO2018102770A1 (en) | 2016-12-02 | 2018-06-07 | Align Technology, Inc. | Force control, stop mechanism, regulating structure of removable arch adjustment appliance |
US11026831B2 (en) | 2016-12-02 | 2021-06-08 | Align Technology, Inc. | Dental appliance features for speech enhancement |
CN113440273A (zh) | 2016-12-02 | 2021-09-28 | 阿莱恩技术有限公司 | 一系列腭扩张器及其形成方法和形成设备 |
KR102534875B1 (ko) * | 2016-12-08 | 2023-05-22 | 한국전자통신연구원 | 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치 |
US10548700B2 (en) | 2016-12-16 | 2020-02-04 | Align Technology, Inc. | Dental appliance etch template |
EP3340023B1 (de) * | 2016-12-22 | 2020-02-12 | Dassault Systèmes | Schnelle manipulation von objekten in einer dreidimensionalen szene |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
US10456043B2 (en) | 2017-01-12 | 2019-10-29 | Align Technology, Inc. | Compact confocal dental scanning apparatus |
US10779718B2 (en) | 2017-02-13 | 2020-09-22 | Align Technology, Inc. | Cheek retractor and mobile device holder |
US11007035B2 (en) | 2017-03-16 | 2021-05-18 | Viax Dental Technologies Llc | System for preparing teeth for the placement of veneers |
US12090020B2 (en) | 2017-03-27 | 2024-09-17 | Align Technology, Inc. | Apparatuses and methods assisting in dental therapies |
US10613515B2 (en) | 2017-03-31 | 2020-04-07 | Align Technology, Inc. | Orthodontic appliances including at least partially un-erupted teeth and method of forming them |
GB2546459B (en) * | 2017-05-10 | 2018-02-28 | Tomlinson Martin | Data verification |
GB201708520D0 (en) * | 2017-05-27 | 2017-07-12 | Dawood Andrew | A method for reducing artefact in intra oral scans |
US11045283B2 (en) | 2017-06-09 | 2021-06-29 | Align Technology, Inc. | Palatal expander with skeletal anchorage devices |
WO2018232299A1 (en) | 2017-06-16 | 2018-12-20 | Align Technology, Inc. | Automatic detection of tooth type and eruption status |
US10639134B2 (en) | 2017-06-26 | 2020-05-05 | Align Technology, Inc. | Biosensor performance indicator for intraoral appliances |
WO2019008581A1 (en) | 2017-07-05 | 2019-01-10 | Cortica Ltd. | DETERMINATION OF DRIVING POLICIES |
US11899707B2 (en) | 2017-07-09 | 2024-02-13 | Cortica Ltd. | Driving policies determination |
US10885521B2 (en) | 2017-07-17 | 2021-01-05 | Align Technology, Inc. | Method and apparatuses for interactive ordering of dental aligners |
US10431000B2 (en) * | 2017-07-18 | 2019-10-01 | Sony Corporation | Robust mesh tracking and fusion by using part-based key frames and priori model |
WO2019018784A1 (en) | 2017-07-21 | 2019-01-24 | Align Technology, Inc. | ANCHOR OF CONTOUR PALATIN |
EP3435287A3 (de) * | 2017-07-25 | 2019-05-01 | Alitheon, Inc. | Modellbasierte digitale fingerabdrucknahme |
CN110996842B (zh) | 2017-07-27 | 2022-10-14 | 阿莱恩技术有限公司 | 牙齿着色、透明度和上釉 |
EP3658067B1 (de) | 2017-07-27 | 2023-10-25 | Align Technology, Inc. | System und verfahren zur verarbeitung eines orthodontischen ausrichters mittels optischer kohärenztomographie |
WO2019032923A2 (en) | 2017-08-10 | 2019-02-14 | D4D Technologies, Llc | INTRAORAL SCANNING DEVICE |
US20190046297A1 (en) * | 2017-08-11 | 2019-02-14 | Align Technology, Inc. | Devices and systems for creation of attachments for use with dental appliances and changeable shaped attachments |
US11116605B2 (en) | 2017-08-15 | 2021-09-14 | Align Technology, Inc. | Buccal corridor assessment and computation |
WO2019036677A1 (en) | 2017-08-17 | 2019-02-21 | Align Technology, Inc. | SURVEILLANCE OF CONFORMITY OF DENTAL DEVICE |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
JP6822929B2 (ja) * | 2017-09-19 | 2021-01-27 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
US10813720B2 (en) | 2017-10-05 | 2020-10-27 | Align Technology, Inc. | Interproximal reduction templates |
WO2019079093A1 (en) * | 2017-10-19 | 2019-04-25 | Interdigital Vc Holdings, Inc. | METHOD AND DEVICE FOR PREDICTIVE CODING / DECODING OF A POINT CLOUD |
WO2019084326A1 (en) | 2017-10-27 | 2019-05-02 | Align Technology, Inc. | OTHER BORE ADJUSTMENT STRUCTURES |
CN111295153B (zh) | 2017-10-31 | 2023-06-16 | 阿莱恩技术有限公司 | 具有选择性牙合负荷和受控牙尖交错的牙科器具 |
EP3703607A2 (de) | 2017-11-01 | 2020-09-09 | Align Technology, Inc. | Automatische behandlungsplanung |
US11534974B2 (en) | 2017-11-17 | 2022-12-27 | Align Technology, Inc. | Customized fabrication of orthodontic retainers based on patient anatomy |
US11219506B2 (en) | 2017-11-30 | 2022-01-11 | Align Technology, Inc. | Sensors for monitoring oral appliances |
US11403816B2 (en) * | 2017-11-30 | 2022-08-02 | Mitsubishi Electric Corporation | Three-dimensional map generation system, three-dimensional map generation method, and computer readable medium |
WO2019118876A1 (en) | 2017-12-15 | 2019-06-20 | Align Technology, Inc. | Closed loop adaptive orthodontic treatment methods and apparatuses |
US10469250B2 (en) * | 2017-12-22 | 2019-11-05 | Max Adel Rady | Physical item mapping to blockchain framework |
US10980613B2 (en) | 2017-12-29 | 2021-04-20 | Align Technology, Inc. | Augmented reality enhancements for dental practitioners |
US11087013B2 (en) | 2018-01-22 | 2021-08-10 | Alitheon, Inc. | Secure digital fingerprint key object database |
KR20200115580A (ko) | 2018-01-26 | 2020-10-07 | 얼라인 테크널러지, 인크. | 구강 내 진단 스캔 및 추적 |
US10521970B2 (en) * | 2018-02-21 | 2019-12-31 | Adobe Inc. | Refining local parameterizations for applying two-dimensional images to three-dimensional models |
US11937991B2 (en) | 2018-03-27 | 2024-03-26 | Align Technology, Inc. | Dental attachment placement structure |
KR102068489B1 (ko) * | 2018-03-30 | 2020-01-22 | (주)온넷시스템즈코리아 | 3차원 객체 생성 장치 |
EP3773320B1 (de) | 2018-04-11 | 2024-05-15 | Align Technology, Inc. | Lösbarer palatalexpander |
US11127203B2 (en) * | 2018-05-16 | 2021-09-21 | Samsung Electronics Co., Ltd. | Leveraging crowdsourced data for localization and mapping within an environment |
WO2019243202A1 (en) * | 2018-06-21 | 2019-12-26 | 3Shape A/S | Method, device and system for correlating at least one additional 2d-image to a 3d-representation of at least a part of tooth |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US11997275B2 (en) * | 2018-08-27 | 2024-05-28 | AT Technologies ULC | Benefit-based bitrate distribution for video encoding |
US11689707B2 (en) * | 2018-09-20 | 2023-06-27 | Shoppertrak Rct Llc | Techniques for calibrating a stereoscopic camera in a device |
US11551428B2 (en) * | 2018-09-28 | 2023-01-10 | Intel Corporation | Methods and apparatus to generate photo-realistic three-dimensional models of a photographed environment |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US11270132B2 (en) | 2018-10-26 | 2022-03-08 | Cartica Ai Ltd | Vehicle to vehicle communication and signatures |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US10963670B2 (en) | 2019-02-06 | 2021-03-30 | Alitheon, Inc. | Object change detection and measurement using digital fingerprints |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
JP6936826B2 (ja) * | 2019-03-18 | 2021-09-22 | 株式会社モリタ製作所 | 画像処理装置、表示システム、画像処理方法、および画像処理プログラム |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US12055408B2 (en) | 2019-03-28 | 2024-08-06 | Autobrains Technologies Ltd | Estimating a movement of a hybrid-behavior vehicle |
US11488290B2 (en) | 2019-03-31 | 2022-11-01 | Cortica Ltd. | Hybrid representation of a media unit |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
EP3734506A1 (de) | 2019-05-02 | 2020-11-04 | Alitheon, Inc. | Automatisierte lokalisierung und erfassung von authentifizierungsbereichen |
EP3736717A1 (de) | 2019-05-10 | 2020-11-11 | Alitheon, Inc. | Verfahren und system für digitale fingerabdrücke in einer schleifenkette |
WO2021055585A1 (en) | 2019-09-17 | 2021-03-25 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
US11410275B2 (en) * | 2019-09-23 | 2022-08-09 | Tencent America LLC | Video coding for machine (VCM) based system and method for video super resolution (SR) |
MX2022004162A (es) | 2019-10-07 | 2022-07-12 | Boston Polarimetrics Inc | Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion. |
US11238146B2 (en) | 2019-10-17 | 2022-02-01 | Alitheon, Inc. | Securing composite objects using digital fingerprints |
KR20230116068A (ko) | 2019-11-30 | 2023-08-03 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법 |
GB201918006D0 (en) * | 2019-12-09 | 2020-01-22 | Univ Leeds Innovations Ltd | Determining spatial relationship between upper and lower teeth |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
EP3859603A1 (de) | 2020-01-28 | 2021-08-04 | Alitheon, Inc. | Tiefenbasierte digitale fingerabdruckerstellung |
CN115552486A (zh) | 2020-01-29 | 2022-12-30 | 因思创新有限责任公司 | 用于表征物体姿态检测和测量系统的系统和方法 |
WO2021154459A1 (en) | 2020-01-30 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
EP3885982A3 (de) | 2020-03-23 | 2021-12-22 | Alitheon, Inc. | Handbiometriksystem und verfahren unter verwendung von digitalen fingerabdrücken |
EP3885984A1 (de) | 2020-03-23 | 2021-09-29 | Alitheon, Inc. | Gesichtsbiometriesystem und verfahren zur verwendung von digitalen fingerabdrücken |
US11538573B2 (en) * | 2020-03-30 | 2022-12-27 | James R. Glidewell Dental Ceramics, Inc. | Virtual dental restoration insertion verification |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
EP3929806A3 (de) | 2020-04-06 | 2022-03-09 | Alitheon, Inc. | Lokale codierung von intrinsischen authentifizierungsdaten |
US11663849B1 (en) | 2020-04-23 | 2023-05-30 | Alitheon, Inc. | Transform pyramiding for fingerprint matching system and method |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
US11983957B2 (en) | 2020-05-28 | 2024-05-14 | Alitheon, Inc. | Irreversible digital fingerprints for preserving object security |
US11700123B2 (en) | 2020-06-17 | 2023-07-11 | Alitheon, Inc. | Asset-backed digital security tokens |
CN111862305B (zh) | 2020-06-30 | 2024-06-18 | 阿波罗智能技术(北京)有限公司 | 处理图像的方法、装置、电子设备、存储介质和程序产品 |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
US12049116B2 (en) | 2020-09-30 | 2024-07-30 | Autobrains Technologies Ltd | Configuring an active suspension |
US11445165B1 (en) * | 2021-02-19 | 2022-09-13 | Dentsply Sirona Inc. | Method, system and computer readable storage media for visualizing a magnified dental treatment site |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
EP4194300A1 (de) | 2021-08-05 | 2023-06-14 | Autobrains Technologies LTD. | Vorhersage eines radius eines motorrads |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7372642B2 (en) | 2006-02-13 | 2008-05-13 | 3M Innovative Properties Company | Three-channel camera systems with non-collinear apertures |
Family Cites Families (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5359703A (en) * | 1990-08-02 | 1994-10-25 | Xerox Corporation | Moving an object in a three-dimensional workspace |
US5276785A (en) * | 1990-08-02 | 1994-01-04 | Xerox Corporation | Moving viewpoint with respect to a target in a three-dimensional workspace |
US5390108A (en) * | 1991-05-24 | 1995-02-14 | Forensic Technology Wai Inc. | Computer automated bullet analysis apparatus |
FR2700654B1 (fr) * | 1993-01-19 | 1995-02-17 | Thomson Csf | Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques. |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US7819807B2 (en) * | 1996-06-28 | 2010-10-26 | Sonosite, Inc. | Balance body ultrasound system |
US6396941B1 (en) * | 1996-08-23 | 2002-05-28 | Bacus Research Laboratories, Inc. | Method and apparatus for internet, intranet, and local viewing of virtual microscope slides |
US6272235B1 (en) * | 1997-03-03 | 2001-08-07 | Bacus Research Laboratories, Inc. | Method and apparatus for creating a virtual microscope slide |
IL119831A (en) | 1996-12-15 | 2002-12-01 | Cognitens Ltd | A device and method for three-dimensional reconstruction of the surface geometry of an object |
US6346940B1 (en) * | 1997-02-27 | 2002-02-12 | Kabushiki Kaisha Toshiba | Virtualized endoscope system |
US6208347B1 (en) * | 1997-06-23 | 2001-03-27 | Real-Time Geometry Corporation | System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US6477268B1 (en) * | 1998-11-17 | 2002-11-05 | Industrial Technology Research Institute | Producing transitions between vistas |
US8248457B2 (en) * | 1999-02-25 | 2012-08-21 | Visionsense, Ltd. | Optical device |
US7068825B2 (en) * | 1999-03-08 | 2006-06-27 | Orametrix, Inc. | Scanning system and calibration method for capturing precise three-dimensional information of objects |
US6614452B1 (en) * | 1999-11-15 | 2003-09-02 | Xenogen Corporation | Graphical user interface for in-vivo imaging |
US7234937B2 (en) * | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
US6525732B1 (en) * | 2000-02-17 | 2003-02-25 | Wisconsin Alumni Research Foundation | Network-based viewing of images of three-dimensional objects |
US6826299B2 (en) * | 2000-07-31 | 2004-11-30 | Geodetic Services, Inc. | Photogrammetric image correlation and measurement system and method |
ATE552572T1 (de) * | 2000-12-01 | 2012-04-15 | Imax Corp | Verfahren und vorrichtung zum erzeugen hochauflösender bilder |
US6633317B2 (en) * | 2001-01-02 | 2003-10-14 | Microsoft Corporation | Image-based walkthrough system and process employing spatial video streaming |
US6987512B2 (en) * | 2001-03-29 | 2006-01-17 | Microsoft Corporation | 3D navigation techniques |
JP3842080B2 (ja) * | 2001-07-06 | 2006-11-08 | グローリー工業株式会社 | 署名照合装置、署名照合方法および署名照合プログラム |
FR2831014B1 (fr) * | 2001-10-16 | 2004-02-13 | Oreal | Procede et dispositif pour determiner le degre souhaite et/ou effectif d'au moins une caracteristique d'un produit |
US7046840B2 (en) * | 2001-11-09 | 2006-05-16 | Arcsoft, Inc. | 3-D reconstruction engine |
CA2467646A1 (en) * | 2001-11-21 | 2003-06-05 | Viatronix Incorporated | Registration of scanning data acquired from different patient positions |
US7085323B2 (en) * | 2002-04-03 | 2006-08-01 | Stmicroelectronics, Inc. | Enhanced resolution video construction method and apparatus |
US7184071B2 (en) | 2002-08-23 | 2007-02-27 | University Of Maryland | Method of three-dimensional object reconstruction from a video sequence using a generic model |
US20040197728A1 (en) * | 2002-09-10 | 2004-10-07 | Amir Abolfathi | Architecture for treating teeth |
US7589732B2 (en) * | 2002-11-05 | 2009-09-15 | Autodesk, Inc. | System and method of integrated spatial and temporal navigation |
EP1890261B1 (de) * | 2006-08-14 | 2009-02-18 | BrainLAB AG | Registrierung von MR-Daten anhand generischer Modelle |
US7695278B2 (en) * | 2005-05-20 | 2010-04-13 | Orametrix, Inc. | Method and system for finding tooth features on a virtual three-dimensional model |
US6968973B2 (en) * | 2003-05-31 | 2005-11-29 | Microsoft Corporation | System and process for viewing and navigating through an interactive video tour |
US7349563B2 (en) * | 2003-06-25 | 2008-03-25 | Siemens Medical Solutions Usa, Inc. | System and method for polyp visualization |
US7990384B2 (en) * | 2003-09-15 | 2011-08-02 | At&T Intellectual Property Ii, L.P. | Audio-visual selection process for the synthesis of photo-realistic talking-head animations |
US7474932B2 (en) * | 2003-10-23 | 2009-01-06 | Technest Holdings, Inc. | Dental computer-aided design (CAD) methods and systems |
US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
EP1691666B1 (de) * | 2003-12-12 | 2012-05-30 | University of Washington | Katheterskop-3d-führung und schnittstellensystem |
EP1706871B1 (de) * | 2003-12-18 | 2008-10-08 | Matsushita Electric Industries Co., Ltd. | Aufzeichnungsvorrichtung, integrierte schaltung für eine aufzeichnungsvorrichtung, aufzeichnungsverfahren, computerprogramm und computeraufzeichnungsmedium zur ermöglichung der inhaltsaufzeichnung |
US7693325B2 (en) * | 2004-01-14 | 2010-04-06 | Hexagon Metrology, Inc. | Transprojection of geometry data |
KR100519782B1 (ko) | 2004-03-04 | 2005-10-07 | 삼성전자주식회사 | 스테레오 카메라를 이용한 사람 검출 방법 및 장치 |
US7502505B2 (en) * | 2004-03-15 | 2009-03-10 | Microsoft Corporation | High-quality gradient-corrected linear interpolation for demosaicing of color images |
US7187809B2 (en) * | 2004-06-10 | 2007-03-06 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
US7015926B2 (en) * | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
US7230620B2 (en) * | 2004-08-05 | 2007-06-12 | Mitsubishi Electric Research Laboratories, Inc. | Rendering deformable and animated surface reflectance fields |
CA2511040A1 (en) | 2004-09-23 | 2006-03-23 | The Governors Of The University Of Alberta | Method and system for real time image rendering |
KR20070086037A (ko) * | 2004-11-12 | 2007-08-27 | 목3, 인크. | 장면 간 전환 방법 |
US7831532B2 (en) * | 2004-11-16 | 2010-11-09 | Microsoft Corporation | Precomputation and transmission of time-dependent information for varying or uncertain receipt times |
US20060103678A1 (en) * | 2004-11-18 | 2006-05-18 | Pascal Cathier | Method and system for interactive visualization of locally oriented structures |
US7365747B2 (en) * | 2004-12-07 | 2008-04-29 | The Boeing Company | Methods and systems for controlling an image generator to define, generate, and view geometric images of an object |
US20060127852A1 (en) * | 2004-12-14 | 2006-06-15 | Huafeng Wen | Image based orthodontic treatment viewing system |
US7494338B2 (en) * | 2005-01-11 | 2009-02-24 | Duane Durbin | 3D dental scanner |
EP1851725A1 (de) * | 2005-02-08 | 2007-11-07 | Philips Intellectual Property & Standards GmbH | Ansichtsprotokolle medizinischer bilder |
US7508430B1 (en) * | 2005-02-18 | 2009-03-24 | Magnachip Semiconductor, Ltd. | Method for locally reducing row noise |
US7522755B2 (en) * | 2005-03-01 | 2009-04-21 | General Electric Company | Systems, methods and apparatus for filtered back-projection reconstruction in digital tomosynthesis |
US7495582B2 (en) * | 2005-03-08 | 2009-02-24 | Northrop Grumman Corporation | Geographic information storage, transmission and display system |
US8228994B2 (en) * | 2005-05-20 | 2012-07-24 | Microsoft Corporation | Multi-view video coding based on temporal and view decomposition |
TW200708091A (en) * | 2005-08-03 | 2007-02-16 | Coretronic Corp | Projection display apparatus and method thereof |
US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
US7978192B2 (en) * | 2005-10-04 | 2011-07-12 | Rdv Systems Ltd. | Method and apparatus for evaluating sight distance |
KR20070039641A (ko) | 2005-10-10 | 2007-04-13 | 주식회사 팬택 | 하나의 카메라를 이용하여 3차원 이미지를 생성하는 방법및 그 장치 |
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
US7860308B2 (en) * | 2005-12-01 | 2010-12-28 | Yahoo! Inc. | Approach for near duplicate image detection |
US7840042B2 (en) * | 2006-01-20 | 2010-11-23 | 3M Innovative Properties Company | Superposition for visualization of three-dimensional data acquisition |
US7819591B2 (en) | 2006-02-13 | 2010-10-26 | 3M Innovative Properties Company | Monocular three-dimensional imaging |
KR101195942B1 (ko) * | 2006-03-20 | 2012-10-29 | 삼성전자주식회사 | 카메라 보정 방법 및 이를 이용한 3차원 물체 재구성 방법 |
US20070247454A1 (en) * | 2006-04-19 | 2007-10-25 | Norbert Rahn | 3D visualization with synchronous X-ray image display |
US7764849B2 (en) * | 2006-07-31 | 2010-07-27 | Microsoft Corporation | User interface for navigating through images |
ATE504898T1 (de) * | 2006-08-11 | 2011-04-15 | Koninkl Philips Electronics Nv | Auswahl von datensätzen aus 3d-darstellungen zur ansicht |
US7581186B2 (en) * | 2006-09-11 | 2009-08-25 | Apple Inc. | Media manager with integrated browsers |
US20080165195A1 (en) * | 2007-01-06 | 2008-07-10 | Outland Research, Llc | Method, apparatus, and software for animated self-portraits |
US9037215B2 (en) * | 2007-01-31 | 2015-05-19 | The Penn State Research Foundation | Methods and apparatus for 3D route planning through hollow organs |
GB0704319D0 (en) * | 2007-03-06 | 2007-04-11 | Areograph Ltd | Image capture and playback |
US7782319B2 (en) * | 2007-03-28 | 2010-08-24 | Autodesk, Inc. | Three-dimensional orientation indicator and controller |
WO2009023044A2 (en) * | 2007-04-24 | 2009-02-19 | 21 Ct, Inc. | Method and system for fast dense stereoscopic ranging |
US7843454B1 (en) * | 2007-04-25 | 2010-11-30 | Adobe Systems Incorporated | Animated preview of images |
US8699787B2 (en) * | 2007-06-29 | 2014-04-15 | Three Pixels Wide Pty Ltd. | Method and system for generating a 3D model from images |
US8803881B2 (en) * | 2007-09-26 | 2014-08-12 | Autodesk, Inc. | Navigation system for a 3D virtual scene |
US8451265B2 (en) * | 2007-11-16 | 2013-05-28 | Sportvision, Inc. | Virtual viewpoint animation |
US8073190B2 (en) * | 2007-11-16 | 2011-12-06 | Sportvision, Inc. | 3D textured objects for virtual viewpoint animations |
US8503744B2 (en) * | 2007-11-19 | 2013-08-06 | Dekel Shlomi | Dynamic method and system for representing a three dimensional object navigated from within |
US8531449B2 (en) * | 2007-12-18 | 2013-09-10 | Navteq B.V. | System and method for producing multi-angle views of an object-of-interest from images in an image dataset |
WO2009089129A1 (en) | 2008-01-04 | 2009-07-16 | 3M Innovative Properties Company | Global camera path optimization |
US8072448B2 (en) * | 2008-01-15 | 2011-12-06 | Google Inc. | Three-dimensional annotations for street view data |
IL202460A (en) * | 2009-12-01 | 2013-08-29 | Rafael Advanced Defense Sys | Method and system for creating a 3D view of real arena for military planning and operations |
US20110310088A1 (en) * | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
-
2009
- 2009-01-04 WO PCT/US2009/030068 patent/WO2009089129A1/en active Application Filing
- 2009-01-04 DE DE112009000100T patent/DE112009000100T5/de active Pending
- 2009-01-04 WO PCT/US2009/030066 patent/WO2009089127A1/en active Application Filing
- 2009-01-04 US US12/811,239 patent/US8803958B2/en active Active
- 2009-01-04 DE DE112009000099T patent/DE112009000099T5/de active Pending
- 2009-01-04 DE DE112009000101T patent/DE112009000101T5/de active Pending
- 2009-01-04 US US12/811,236 patent/US8830309B2/en active Active
- 2009-01-04 US US12/811,268 patent/US9937022B2/en active Active
- 2009-01-04 DE DE112009000094T patent/DE112009000094T5/de active Pending
- 2009-01-04 WO PCT/US2009/030065 patent/WO2009089126A1/en active Application Filing
- 2009-01-04 WO PCT/US2009/030067 patent/WO2009089128A1/en active Application Filing
- 2009-01-04 US US12/811,237 patent/US9418474B2/en active Active
- 2009-01-04 US US12/811,242 patent/US8503763B2/en active Active
- 2009-01-04 WO PCT/US2009/030064 patent/WO2009089125A2/en active Application Filing
- 2009-01-04 DE DE112009000093T patent/DE112009000093T5/de active Pending
-
2018
- 2018-03-02 US US15/910,124 patent/US10503962B2/en active Active
-
2019
- 2019-11-01 US US16/671,753 patent/US11163976B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7372642B2 (en) | 2006-02-13 | 2008-05-13 | 3M Innovative Properties Company | Three-channel camera systems with non-collinear apertures |
Also Published As
Publication number | Publication date |
---|---|
US20110164810A1 (en) | 2011-07-07 |
US20180196995A1 (en) | 2018-07-12 |
US8803958B2 (en) | 2014-08-12 |
WO2009089125A3 (en) | 2009-09-24 |
DE112009000101T5 (de) | 2010-11-11 |
US20200065558A1 (en) | 2020-02-27 |
US9418474B2 (en) | 2016-08-16 |
US10503962B2 (en) | 2019-12-10 |
US20110007137A1 (en) | 2011-01-13 |
WO2009089125A2 (en) | 2009-07-16 |
US20110007138A1 (en) | 2011-01-13 |
DE112009000093T5 (de) | 2010-12-09 |
US11163976B2 (en) | 2021-11-02 |
WO2009089128A1 (en) | 2009-07-16 |
WO2009089126A1 (en) | 2009-07-16 |
WO2009089127A1 (en) | 2009-07-16 |
US8503763B2 (en) | 2013-08-06 |
US20100283781A1 (en) | 2010-11-11 |
US8830309B2 (en) | 2014-09-09 |
DE112009000100T5 (de) | 2010-11-11 |
US9937022B2 (en) | 2018-04-10 |
US20110043613A1 (en) | 2011-02-24 |
WO2009089129A1 (en) | 2009-07-16 |
DE112009000094T5 (de) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112009000099T5 (de) | Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion | |
US9191648B2 (en) | Hybrid stitching | |
DE102019106666A1 (de) | Dentale CAD-Automatisierung unter Verwendung von tiefem Lernen | |
DE112009004276T5 (de) | Globale Kamerawegoptimierung | |
EP2661732B1 (de) | Verfahren und zahnrestaurationsermittlungssystem zur ermittlung von zahnrestaurationen | |
WO2015117906A1 (de) | 2d-bildanalysator | |
EP2886043A1 (de) | Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten | |
DE102017208951A1 (de) | Zahnachsen-Abschätzungsprogramm, Zahnachsen-Abschätzungsvorrichtung und Verfahren dazu, Zahnprofildaten-Erzeugungsprogramm, Zahnprofildaten-Erzeugungsvorrichtung und Verfahren dazu | |
DE102011010975A1 (de) | Verfahren und Analysesystem zur geometrischen Analyse von Scandaten oraler Strukturen | |
US20230252748A1 (en) | System and Method for a Patch-Loaded Multi-Planar Reconstruction (MPR) | |
RU2610911C1 (ru) | Система и способ виртуального прототипирования улыбки на базе тактильного компьютерного устройства | |
DE102014107185A1 (de) | Verfahren zur Bereitstellung eines dreidimensionalen Topographiemodells, Verfahren zur Betrachtung einer Topographiedarstellung eines Topographiemodells, Visualisierungsvorrichtung und Mikroskopiersystem | |
US20240161317A1 (en) | Enhancing dental video to ct model registration and augmented reality aided dental treatment | |
CN118334043A (zh) | 一种基于深度学习的口腔内扫描图像分割方法 | |
DE102012205800A1 (de) | Vorrichtung und verfahren zum kombinieren eines ersten und zweiten modells |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: MEDIT CORP., KR Free format text: FORMER OWNER: 3M INNOVATIVE PROPERTIES CO., ST. PAUL, MINN., US Owner name: MIDMARK CORP., VERSAILLES, US Free format text: FORMER OWNER: 3M INNOVATIVE PROPERTIES CO., ST. PAUL, MINN., US |
|
R082 | Change of representative |
Representative=s name: VOSSIUS & PARTNER PATENTANWAELTE RECHTSANWAELT, DE |
|
R081 | Change of applicant/patentee |
Owner name: MEDIT CORP., KR Free format text: FORMER OWNER: MIDMARK CORP., VERSAILLES, OHIO, US |
|
R082 | Change of representative |
Representative=s name: MAIWALD GMBH, DE Representative=s name: MAIWALD PATENTANWALTS- UND RECHTSANWALTSGESELL, DE |
|
R016 | Response to examination communication |