DE102006049695A1 - Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur - Google Patents
Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur Download PDFInfo
- Publication number
- DE102006049695A1 DE102006049695A1 DE102006049695A DE102006049695A DE102006049695A1 DE 102006049695 A1 DE102006049695 A1 DE 102006049695A1 DE 102006049695 A DE102006049695 A DE 102006049695A DE 102006049695 A DE102006049695 A DE 102006049695A DE 102006049695 A1 DE102006049695 A1 DE 102006049695A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- images
- pixels
- phase values
- epipolar lines
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft eine Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur, umfassend einen Projektor mit einem bildgebenden Element (1) und einem Projektionsobjektiv (2) zum Abbilden eines auf dem bildgebenden Element (1) generierbaren Streifenmusters in einen Objektraum (3) sowie eine zwei Kameraobjektive (4) umfassende Kameraanordnung zur Beobachtung des Objektraums (3) aus zwei unterschiedlichen Richtungen, wobei der Projektor und die Kameraanordnung gemeinsam in einem als Handgerät verwendbaren Messkopf untergebracht sind. Die Erfindung betrifft ferner ein mit einer solchen Vorrichtung durchführbares Verfahren zum Erfassen einer dreidimensionalen Kontur.
Description
- Die vorliegende Erfindung betrifft eine Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur mit einem Projektor und einer zwei Kameraobjektive umfassenden Kameraanordnung. Die Erfindung betrifft ferner ein entsprechendes Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, bei dem mindestens ein Streifenmuster auf ein Objekt projiziert wird.
- Aus dem Stand der Technik ist es bekannt, bei vergleichbaren Verfahren zusammen mit dem Streifenmuster einen sog. Graycode auf das Objekt zu projizieren, der es ermöglicht, in Abbildungen des auf dem Objekt aufgenommenen Streifenmusters einzelne Linienpaare des Streifenmusters zu identifizieren und so zu bestimmten Objektpunkten gehörige Bildpunkte zu identi fizieren, was ein Triangulieren zum Erfassen einer dreidimensionalen Kontur des Objekts ermöglicht. Ein Nachteil derartiger Verfahren nach dem Stand der Technik ist darin zu sehen, dass wegen der Projektion einer verhältnismäßig reichhaltigen Information auf das Objekt eine hohe Anzahl von Aufnahmen erforderlich ist. Das steht insbesondere einer Anwendung derartiger Verfahren in Handgeräten entgegen. Der vorliegenden Erfindung liegt also die Aufgabe zugrunde, eine Vorrichtung und ein entsprechendes Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur vorzuschlagen, die die genannten Nachteile vermeiden und, insbesondere im Hinblick auf eine intraorale oder extraorale Erfassung von Zahnoberflächen oder Oberflächen von Zahnmodellen oder Zahnersatz, eine manuelle Handhabe zumindest eines verwendeten Messkopfs erlauben.
- Diese Aufgabe wird erfindungsgemäß gelöst durch eine Vorrichtung mit den Merkmalen des Anspruchs 1 sowie durch ein Verfahren mit den Merkmalen des Anspruchs 9. Vorteilhafte Ausgestaltungen und Weiterentwicklungen der Erfindung ergeben sich mit den Merkmalen der Unteransprüche. Insbesondere kann eine vorgeschlagene Vorrichtung oder eine gegebenenfalls von der Vorrichtung umfasste Steuer- und Auswerteeinheit programmtechnisch zur Durchführung des Verfahrens nach einem der Verfahrensansprüche eingerichtet sein.
- Eine Konturerfassung im Handbetrieb wird durch die vorgeschlagene Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur dadurch ermöglicht, dass diese einen Projektor mit einem bildgebenden Element und einem Projektionsobjektiv zum Abbilden eines auf dem bildgebenden Element generierbaren Streifenmusters in einen Objektraum sowie eine zwei Kameraobjektive umfassende Kameraanordnung zur Beobachtung des Objektraums aus zwei unterschiedlichen Richtungen umfasst, wobei der Projektor und die Kameraanordnung gemeinsam in einem als Handgerät verwendbaren Messkopf untergebracht sind.
- Eine besonders handliche Ausführung kann dabei realisiert werden, wenn die Kameraanordnung einen gemeinsamen Kamerachip für beide Kameraobjektive aufweist, wobei jedes der Kameraobjektive ein Bild auf jeweils einer Hälfte des Kamerachips erzeugt. Das wiederum kann durch einen gefalteten Strahlengang erreicht werden, beispielsweise dadurch, dass für jedes Kameraobjektiv zwei Umlenkspiegel vorgesehen werden. Bei dem Kamerachip kann es sich z.B. um einen CCD handeln. Dementsprechend können bei Ausführungen bei zwei Kamerachips auch zwei CCDs Anwendung finden.
- Durch die Verwendung zweier Kameraobjektive wird ein Triangulieren eines Punktes im Objektraum auch dann möglich, wenn eine Projektionsrichtung einzelner Linienpaare des Streifenmusters a priori nicht genau bekannt ist. Es genügt vielmehr eine Identifizierung von Bildpunkten gleicher absoluter Phase. Um einerseits hinreichend präzise triangulieren zu können und andererseits auch steile Flanken vermessen zu können, können die Kameraobjektive vorteilhafterweise so angeordnet sein, dass sie optische Achsen haben, die einen Winkel von zwischen 5° und 20° einschließen. Mit Blick auf einen möglichst kompakten Aufbau und eine möglichst übersichtliche Triangulationsgeometrie ist es vorteilhaft, wenn die optischen Achsen der zwei Kameraobjektive spiegelsymmetrisch zu einer Ebene angeordnet sind, in der die optische Achse des Projektionsobjektivs liegt. Vorteilhafterweise können alle drei optischen Achsen in einer Ebene liegen. Es ist jedoch auch möglich, dass die optische Achse des Projektionsobjektivs um einen Winkel von 5° und 8° aus einer durch die optischen Achsen der Kameraobjektive aufgespannten Ebene herausgekippt ist.
- Damit die Vorrichtung einerseits angenehm auch eine intraorale Vermessung erlaubt und andererseits sowohl hinreichend kompakt ist als auch ein hinreichend präzises Triangulieren ermöglicht, können die Kameraobjektive und/oder das Projektionsobjektiv eine objektseitige Schnittweite von zwischen 7 cm und 13 cm haben. Dabei kann vorgesehen sein, dass ein Strahlengang zwischen dem Objekt und den Kameraobjektiven oder dem Projektorobjektiv gefaltet ist, beispielsweise mit einem Umlenkspiegel oder zwei Umlenkspiegeln. Zumindest ein vorteilhafterweise mindestens 7 cm langes Gehäuseende des Messkopfs kann mit einer Höhe von weniger als 2,5 cm ausgelegt werden, um eine intraorale Messung zu erlauben.
- Die Vorrichtung kann ferner eine Lichtquelle für den Projektor aufweisen, die in dem Messkopf untergebracht oder über einen Lichtleiter mit dem Messkopf verbunden sein kann. Das bildgebende Element kann dabei so ausgeführt sein, dass es von dieser Lichtquelle ausgehendes Licht reflexiv oder transmissiv in seiner Intensität moduliert. Insbesondere kann es sich bei dem bildgebenden Element um einen LCoS-Chip oder einen üblichen LCD oder um ein anderes pixelweise ansteuerbares bildgebendes Element handeln. Die Vorrichtung kann schließlich ferner eine Steuer- und Auswerteeinheit zum Ansteuern des bildgebenden Elements und zum Auswerten von von der Kameraanordnung erzeugten Bilddaten umfassen. Die Steuer- und Auswerteeinheit kann dabei programmtechnisch eingerichtet sein zum Generieren mindestens eines Streifenmusters auf dem bildgebenden Element sowie zum Bewerten von mit der Kameraanordnung ermittelten Phasenwerten längs von einander entsprechenden Epipolarlinien in Bildebenen beider Kameraobjektive auf Stetigkeit ihres Verlaufs, zum Einteilen der Epipolarlinien in Intervalle stetigen Phasenverlaufs, zum Identifizieren einander entsprechender Intervalle in den einander entsprechenden Epipolarlinien, zum Identifizieren von einander entsprechenden Bildpunkten gleicher Phasenwerte innerhalb der miteinander korrespondierenden Intervalle und zum Triangulieren eines Objektpunkts auf Basis der diesem Objektpunkt entsprechenden, miteinander korrespondieren Bildpunkte. Die Steuer- und Auswerteeinheit ist dabei vorzugsweise ferner so auszubilden, dass eine Sequenz mehrerer zueinander phasenverschobener Streifenmuster und/oder zusätzlich mindestens ein Streifenmuster mit in eine andere Richtung orientierten Streifen generiert werden kann.
- Das vorgeschlagene Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, das beispielsweise mit einer Vorrichtung zuvor beschriebener Art durchgeführt werden kann, sieht vor, dass mindestens ein Streifenmuster auf ein Objekt projiziert wird und mittels zweier in einem definierten Abstand zueinander angeordneter Kameraobjektive aus zwei verschiedenen Richtungen zwei Bilder des Objekts mit dem aufprojizierten Streifenmuster aufgenommen und für Bildpunkte in beiden Bildern Phasenwerte des Streifenmusters ermittelt werden, wonach durch Triangulieren auf Basis jeweils einander entsprechender Bildpunkte in den beiden Bildern eine Tiefeninformation für einen diesen Bildpunkten entsprechenden Objektpunkt ermittelt wird. Zur Ermittlung der einander entsprechenden Bildpunkte in den beiden Bildern werden dabei einander jeweils entsprechende Epipolarlinien in den beiden Bildern ausgewählt, und längs dieser Epipolarlinien werden die ermittelten Phasenwerte auf Stetigkeit bewertet und die Epipolarlinien damit in Intervalle stetigen Phasenverlaufs eingeteilt. Das kann beispielsweise durch an sich bekannte Verstetigungsalgorithmen geschehen, z.B. indem Phasenwerte, die mit zueinander benachbarten Pixeln aufgenommen wurden, daraufhin überprüft werden – ggf. bei einer Betrachtung der Phasenwerte modulo 2π –, ob sie um nicht mehr als einen definierten kleinen Wert differieren. Schließlich werden die einander entsprechenden Intervalle in den einander entsprechenden Epipolarlinien identifiziert, was beispielsweise durch Vergleich der Anzahl von in den verschiedenen Intervallen enthaltenen Perioden geschehen kann, und innerhalb der einander entsprechenden Intervalle Punkte gleicher Phasenwerte einander zugeordnet. Das wiederum ist jetzt problemlos möglich, weil die Phasenwerte innerhalb der genannten Intervalle verstetigt sind. So können auch die Phasenwerte vor deren Bewertung auf Stetigkeit als Rohphasenwerte bezeichnet werden, die – bei einer Parametrisierung einer Periode von 0 bis 2π – nur einen Aussagegehalt modulo 2π haben, während die Phasenwerte nach der Einteilung der Epipolarlinien in Intervalle stetigen Phasenverlaufs, also nach der Verstetigung, als Feinphasen bezeichnet werden können. Die genannten Paare einander entsprechender Epipolarlinien können jeweils definiert werden als Abbildungen aller Punkte aus einer Ebene, die durch die Projektionszentren beider Kameraobjektive verläuft. Diese Projektionszentren können auch zur Definition der Parallaxe beim Triangulieren dienen. Sowohl die genannten Projektionszentren als auch die Elipolarlinien ergeben sich eindeutig aus einer für die verwendete Vorrichtung gewählten Geometrie.
- Das Verfahren kann dadurch wesentlich vereinfacht werden, dass eine Folge mehrerer gegeneinander phasenverschobener Streifenmuster nacheinander auf das Objekt projiziert und zur Ermittlung der Phasenwerte aufgenommen wird. Vorzugsweise werden mindestens drei, besser mindestens vier gegeneinander phasenverschobene Streifenmuster zur Ermittlung eines Satzes von Phasenwerten auf das Objekt projiziert. Um einerseits eine möglichst gute Auflösung zu erlauben und andererseits das Identifizieren der einzelnen Linienpaare bzw. der Feinphasen nicht unnötig zu erschweren, kann vorgesehen sein, dass das verwendete Streifenmuster zwischen 10 und 80 Linienpaare, also Intensitätsperioden, aufweist. Es ist vorteilhaft, ein Streifenmuster zu verwenden, das senkrecht zu einer Verbindung der Projektionszentren der beiden Kameraobjektive orientierte Streifen hat. Das Identifizieren einander entsprechender Bildpunkte kann ferner dadurch vereinfacht werden, dass zusätzlich zeitlich versetzt mindestens ein weiteres Streifenmuster mit anders orientierten Streifen auf das Objekt projiziert wird, wobei Phasenwerte auch dieses weiteren Streifenmusters ausgewertet werden. Dieses weitere Streifenmuster hat dann also gegenüber den Streifen des zuerst genannten Streifenmusters oder der entsprechenden Streifenmustersequenz gedrehte Streifen. Ggf. kann auch wieder jeweils eine ganze Sequenz derart gedrehter weiterer Streifenmuster, die gegeneinander phasenverschoben sind, auf das Objekt projiziert und aufgenommen werden. Im Hinblick auf eine möglichst einfache Identifizierung einander entsprechender Bildpunkte einerseits und eine insgesamt möglichst kurze Aufnahmezeit andererseits ist es vorteilhaft, insgesamt zwischen fünf und elf Bilder mit Streifenmustern aufzunehmen.
- Schließlich kann zusätzlich zu den Aufnahmen mit Streifenmustern oder besser noch gleichzeitig mit einer Streifenmusteraufnahme (durch Einbetten in das bzw. die Streifenmuster) eine Aufnahme oder mehrere Aufnahmen des Objekts mittels der beiden Kameraobjektive vorgesehen werden, bei der oder bei denen mindestens eine relativ zum zuvor, gleichzeitig oder anschließend aufgenommenen Streifenmuster definiert lokalisierte Markierungen auf das Objekt projiziert wird, wobei ein so markierter Objektpunkt trianguliert werden kann. Eine zusätzliche Aufnahme solcher lokalisierbarer Markierungen kann zu einer eindeutigen Identifikation zweier entsprechender Bildpunkte dienen, um das Verfahren zu stützen. Die Markierungen können also als separate Bilder aufgenommen oder mit den Streifenbildern vermischt und simultan aufgenommen werden.
- Alternativ oder zusätzlich kann ein solches Projizieren und Triangulieren einer Markierung oder mehrerer Markierungen auch zum Kalibrieren einer für das Verfahren verwendeten Vorrichtung dienen. Ein solches Kalibrieren kann – zur Bestimmung sowohl innerer Parameter der Vorrichtung als auch der relativen Orientierung der beiden Kameraobjektive – während des Vermessens des Objekts selbst oder auch vorher anhand eines anderen Objekts (eines Prüfkörpers) erfolgen. Eine Kalibrierung kann aber – insbesondere bei Verwendung eines Prüfkörpers – auch mit einem oder mehreren Streifenbildaufnahmen und, da eine Kalibriermessung länger dauern darf, ggf. auch unter Verwendung einer Graycode-Projektion oder mit vergleichbaren Methoden erfolgen.
- Die bei dem Verfahren ausgewählten und bezüglich des Phasenverlaufs ausgewerteten Epipolarlinien sollten vorzugsweise in den beiden von den zwei Kameraobjektiven erzeugten Bildern dicht liegen. Damit ist gemeint, dass schmale Umgebungsstreifen dieser Epipolarlinien die beiden Bilder abdecken sollten, um eine flächendeckende 3D-Erfassung zu ermöglichen.
- In einer vorteilhaften Ausgestaltung des Verfahrens kann vorgesehen sein, dass durch eine Interpolation erfasster Phasenwerte eine bezüglich des Bildgebers und/oder der Kamerachips bzw. des Kamerachips subpixelgenaue Zuordnung von Bildpunkten zu Phasenwerten erfolgt.
- Um eine Messung mit einem von Hand geführten Messkopf ohne verwacklungsbedingte Messfehler zu ermöglichen, kann vorgesehen sein, dass alle für das Erfassen einer Kontur verwendeten Streifenmuster und ggf. zusätzlich oder gleichzeitig projizierte Markierungen innerhalb eines Zeitintervalls von zwischen 100 ms und 500 ms und/oder mit einer Bildwiederholrate von zwischen 15 Hz und 60 Hz aufgenommen werden.
- Ausführungsbeispiele der Erfindung werden nachfolgend anhand der
1 bis6 erläutert. Es zeigt -
1 in Aufsicht einen Strahlengang einer erfindungsgemäßen Vorrichtung, -
2 in entsprechender Darstellung einen Strahlengang zweier Kameraobjektive einer vergleichbaren Vorrichtung in einer anderen Ausführung der Erfindung, -
3 in vergleichbarer Darstellung einen Strahlengang eines dritten Ausfüh rungsbeispiels für eine erfindungsgemäße Vorrichtung, -
4 eine Seitenansicht des Strahlengangs der Vorrichtung aus3 , -
5 eine mit einem geöffneten Gehäuse dargestellte erfindungsgemäße Vorrichtung mit einem dem Ausführungsbeispiel aus1 vergleichbaren Strahlengang und -
6 ein Ablaufdiagramm zur Darstellung eines Ausführungsbeispiels für ein erfindungsgemäßes Verfahren. - In
1 zu erkennen sind optische Komponenten einer Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur, insbesondere zur intraoralen oder extraoralen Erfassung von Zahnkonturen. Die abgebildete Vorrichtung umfasst einen Projektor mit einem bildgebenden Element1 und einem Projektionsobjektiv2 zum Abbilden eines auf dem bildgebenden Element1 generierbaren Streifenmusters in einen Objektraum3 . Die Vorrichtung umfasst ferner zwei Kameraobjektive4 , die zu einer Kameraanordnung gehören, mit der der Objektraum3 aus zwei um einen Winkel von etwa 12° gegeneinander gekippten Richtungen beobachtet werden kann. Der Projektor und die Kameraanordnung, die hier für jedes der Kameraobjektive4 jeweils einen als monochromen CCD-Chip ausgeführten Kamerachip5 aufweist, sind dabei in einem gemeinsamen Messkopf untergebracht, der als Handgerät verwendbar ist. - Der Projektor ist bei der abgebildeten Vorrichtung so angeordnet, dass er eine optische Achse hat, die mit einer Winkelhalbierenden zwischen zwei durch die Kameraobjektive
4 definierten optischen Achsen in Deckung liegt. Sowohl die Kameraobjektive4 als auch das Projektionsobjektiv2 haben eine Objektschnittweite von etwa 10 cm. Der Objektraum3 , in den scharf projiziert werden kann und der von einem Tiefenschärfenbereich der Kameraanordnung umfasst ist, hat laterale Dimensionen von etwa 25 mm × 15 mm und eine Tiefe in Richtung der optischen Achse des Projektors von etwa 13 mm. - Das bildgebende Element
1 , bei dem es sich hier um einen LCoS-Chip handelt, hat laterale Abmessungen von etwa 6 mm × 4 mm bis zu 16 mm × 12 mm. Das bildgebende Element1 dient hier zum reflexiven Intensitätsmodulieren von Licht, das von einer in der1 selbst nicht abgebildeten Lichtquelle ausgeht. Alternativ könnte auch ein üblicher LCD-Chip vorgesehen sein, der Licht einer Lichtquelle transmissiv moduliert. - In
2 ist eine andere Ausführung der Erfindung dargestellt, wobei hier nur die Kameraanordnung der entsprechenden Vorrichtung abgebildet ist. Wiederkehrende Merkmale sind hier, wie auch in den folgenden Figuren, wieder mit den selben Bezugszeichen versehen. Abweichend von dem zuvor beschriebenen Ausführungsbeispiel weist diese Kameraanordnung nur einen einzigen Kamerachip5 auf, bei dem es sich wieder um einen monochromen CCD-Chip handelt, wobei die Strahlengänge beider Kameraobjektive4 bildseitig durch jeweils zwei Umlenkspiegel6 so gefaltet sind, dass jedes der Kameraobjektive4 ein Bild auf jeweils einer Hälfte des Kamerachips5 erzeugt. Es kann vorgesehen sein, dass der Strahlengang des Projektors bei dem in2 dargestellten Ausführungsbeispiel um einen Winkel von etwa 5° aus einer durch die optischen Achsen der Kameraobjektive4 definierten Ebene herausgekippt ist. Abgesehen davon ist auch hier eine möglichst symmetrische Anordnung des Projektionsstrahlengangs vorgesehen. - Ein drittes Ausführungsbeispiel ist schließlich in den
3 und4 dargestellt. Auch hier weist die Kameraanordnung für beide Strahlengänge nur einen einzigen Kamerachip5 auf, dessen zwei Hälften durch jeweils eines der Kameraobjektive4 belichtet werden können. Der Kamerachip5 ist hier parallel zu einer durch die optischen Achsen der Kameraobjektive4 definierten Ebene angeordnet. Wie in4 zu erkennen ist, weist auch der Projektor bei diesem Ausführungsbeispiel einen durch zwei Umlenkspiegel6' gefalteten Strahlengang auf. - In
5 ist eine Ausführung der Erfindung abgebildet, die sich von der in1 dargestellten Ausführung lediglich dadurch unterscheidet, dass objektseitig ein Umlenkspiegel vorgesehen ist, um insbesondere intraorale Messungen zu erleichtern. Dargestellt ist in5 auch ein Gehäuse des Messkopfs der Vorrichtung mit einen verhältnismäßig schmalen Gehäuseende9 , das den Umlenkspiegel7 trägt. In der5 eingefügte Zahlenangaben bezeichnen Abmessungen des Gehäuses8 in mm. Die abgebildete Vorrichtung weist eine außerhalb des Gehäuses8 angeordnete und in der5 nicht abgebildete Lichtquelle auf, die über einen Lichtleiter10 eines Durchmessers von etwa 5 mm mit dem Messkopf verbunden ist. Bei einer Abwandlung der Erfindung kann vorgesehen sein, dass statt dessen eine Lichtquelle in den Messkopf selbst untergebracht ist. - In den
1 bis5 nicht dargestellt ist eine zur jeweiligen Vorrichtung gehörende Steuer- und Auswerteeinheit, die programmtechnisch so eingerichtet ist, dass die Vorrichtung zur Durchführung eines Verfahrens geeignet ist, das nachfolgend anhand der6 beschrieben wird. - Dieses Verfahren dient zum berührungslosen Erfassen einer dreidimensionalen Kontur, insbesondere einer intraoral oder extraoral abgetasteten Oberflächen von Zähnen, Zahnmodellen oder Zahnersatz. Bei dem Verfahren wird zunächst mit dem Projektor eine Sequenz von Streifenmustern auf das Objekt projiziert, dessen dreidimensionale Kontur erfasst werden soll, wobei mit den Kameraobjektiven
4 zwei Bilder dieses Objekts mit dem jeweils aufprojizierten Streifenmuster aufgenommen werden. Dabei werden zunächst zum Beispiel vier Streifenmuster, die sich lediglich durch eine verschobene Phase im Ortsraum voneinander unterscheiden, projiziert und aufgenommen, so dass mit einem sog. 4-Phasen-Algorithmus (selbstverständlich kann bei anderen Ausgestaltungen des Verfahrens auch ein anderer geeigneter Phasen-Algorithmus verwendet werden) für jedes der zwei Bilder Phasenwerte des Streifenmusters bzw. der Streifenmustersequenz ermittelt werden, wodurch also Rohphasenbilden erzeugt werden. Das ist problemlos möglich, indem für die Aufnahme jedes der Streifenmuster aus der Sequenz Intensitäten auf jedem Pixel des jeweiligen Kamerachips5 gemessen werden. Als Rohphasen seien dabei Intensitätsphasen bezeichnet, die – bei einer Parametrisierung einer Intensitätsperiode von 0 bis 2π – nur modulo 2π verwertbar sind. - In einem weiteren Schritt, der in
6 als Raute dargestellt ist, werden nun einander entsprechende Bildpunkte in den beiden durch die Kameraobjektive4 aufgenommenen Bildern ermittelt, indem einander jeweils entsprechende Epipolarlinien in den beiden Bildern ausgewählt werden, die ermittelten Phasenwerte längs der Epipolarlinien auf Stetigkeit hin geprüft werden und die Epipolarlinien damit in Intervalle stetigen Phasenverlaufs eingeteilt werden, wonach einander entsprechende Intervalle in den einander entsprechenden Epipolarlinien identifiziert und innerhalb der einander entsprechenden Intervalle Punkte gleicher Phasenwerte einander zugeordnet werden. Dabei können die Phasenwerte innerhalb der genannten Intervalle als Feinphasen bezeichnet werden, denen durch eine vorgenommene Phasenverstetigung ein Informationsgehalt zukommt, der zur eindeutigen Identifikation jedes Punktes in diesem Intervall genügt. Die Phasenverstetigung, d.h. das Bewerten der Phasenwerte längs der Epipolarlinien auf Stetigkeit hin und das Einteilen der Epipolarlinien in Intervalle stetigen Phasenverlaufs, kann dabei mittels an sich bekannter Verstetigungsalgorithmen geschehen. Vorzugsweise werden die Paare von Epipolarlinien so ausgewählt, dass sie beide Bilder möglichst dicht abdecken. Die Ermittlung einander korrespondierender Epipolarlinien ist dabei problemlos möglich, weil sich die Epipolarlinien für jeden Bildpunkt in jedem der Bilder eindeutig ergeben. - Schließlich wird auf Basis jeweils einander entsprechender Bildpunkte in den beiden Bildern, die durch die beiden Kameraobjektive
4 erzeugt werden, durch Triangulieren eine Tiefeninformation für einen diesen Bildpunkten entsprechenden Objektpunkt ermittelt. In der6 sind technische oder rechnerische Vorgänge durch entsprechend beschriftete rechteckige Fel der, eingegebene oder ausgegebene Daten durch entsprechend beschrifte ovale Felder veranschaulicht. - Die verwendeten Streifenmuster sind so dimensioniert, dass etwa 50 äquidistante Perioden den in
1 eingezeichneten Objektraum3 überdecken. Es ist vorgesehen, dass eine Sequenz von Streifenmustern mit Streifen erzeugt wird, die senkrecht zur Zeichenebene in den1 bis3 orientiert sind. Zusätzlich sollen zwischen einem und sieben weiteren Streifenmustern mit anderen Orientierungen auf das Objekt projiziert und entsprechend ausgewertet werden, um das Verfahren zu stützen. Es kann vorgesehen sein, dass zusätzlich oder gleichzeitig mindestens eine Aufnahme gemacht wird, bei der eindeutig lokalisierte Markierungen auf das Objekt projiziert sind, was bei dem Verfahren ebenfalls in stützender Weise beim Identifizieren einander entsprechender Bildpunkte helfen kann. - In beschriebener Weise sollten so viele Epipolarlinien untersucht werden, dass Umgebungsstreifen dieser Epipolarlinien, die eine Breite von bis zu einem vierfachen Pixelabstand haben, die Bilder vollständig abdecken. Durch Interpolation gemessener Intensitäten kann dabei sogar eine mehr als pixelgenaue Zuordnung von Bildpunkten zu Phasenwerten und dementsprechend eine sehr genaue Triangulierung der Kontur erfolgen. Durch Verwendung eines schnell arbeitenden Vier-Phasen-Algorithmus zur Phasenberechnung wird die Aufnahmezeit der Bildsequenz mit den Streifenmustern gering gehalten. Für die Aufnahme von Sequenzen von beispielsweise 8 bis 10 Bildern bei einer Dauer von 20 ms bis 40 ms pro Bild können sich z.B. Aufnahmezeiten von zwischen 160 ms und 400 ms pro Messposition ergeben. Mit Blick auf eine intraorale Anwendung kann es schließlich vorteilhaft sein, wenn die verwendete Vorrichtung einen modularen Messkopf oder Sensorkopf mit einem abnehmbaren Mundstück hat.
- Wesentliche Merkmale der hier vorgeschlagenen Erfindung sind nach alledem insbesondere eine Rohphasenbestimmung aus Intensitätsbildern, die mit zwei Kameras aus zwei verschiedenen Richtungen aufgenommen werden, sowie eine Berechnung dreidimensionaler Daten unter Rückgriff auf Epipolargeometrie, Verstetigung von Rohphasen, Bestimmung korrespondierender Pixel über Phasenkorrelation und Berechnung von Tiefenwerten durch Triangulation auf Basis korrespondierender Pixel.
- Eine bevorzugte Ausführung der vorgeschlagenen Erfindung wird nachfolgend noch einmal zusammenfassend beschrieben.
- Die als Handscanner zu bezeichnende Vorrichtung ist ein Gerät zum Scannen von Zähnen im Mundinnenraum. Er besteht aus einem Teil, der in den Mund eingeführt wird und einem Handteil mit den optischen, elektronischen und mechanischen Komponenten, die die Übertragung der Beleuchtungsstrahlen von der Beleuchtungsquelle über die Beleuchtungsoptik auf den Zahn und die Übertragung der Belobachtungsstrahlen vom Zahn zur Beobachtungsoptik bis zum Sensor (CCD) realisieren.
- Das Gerät enthält als bildgebendes Element
1 einen Projektionschip, der eine Sequenz von Streifenmustern auf das Messobjekt (Zahn) projiziert. Diese Streifenmustersequenz wird aus zwei Beobachtungsrichtungen beobachtet und aufgenommen. Aus den aufgenommenen Intensitätsbildern werden Phasenwerte berechnet. Die 3D-Messdaten werden mit phasogrammetrischen Methoden über eine Phasenkorrelation mittels Triangulation zwischen den beiden Kanälen der Beobachtung gewonnen, s. z.B.1 . - Das Prinzip, das simultan zwei Beobachtungsrichtungen und eine Beleuchtungsrichtung realisiert, beinhaltet zwei separate optische Kanäle zur Beobachtung, deren Achsen links und rechts typischerweise annähernd symmetrisch zur Beleuchtungsrichtung angeordnet werden.
- Ein eventuell vorhandener Off-Plan-Winkel zwischen der optischen Achse der Projektion und der Ebene, die durch die beiden optischen Achsen der Kameras definiert wird, ist vorzugsweise kleiner 5°.
- Durch Beleuchtung und Beobachtung wird ein Messfeld von lateral ca. 25 mm × 15 mm realisiert. Die Ausdehnung des Objektraums
3 oder des Messvolumens in Richtung der optischen Achse (Schärfentiefebereich) beträgt ca. ±6,5 mm = 13 mm. - Als Beleuchtungsquelle dient eine abgesetzte Kaltlichtquelle. Das Licht der (abgesetzten) Quelle wird über einen Flüssiglichtleiter eines Durchmessers von etwa 5 mm in den intraoral arbeitenden Sensorkopf oder Messkopf eingekoppelt.
- Die Beleuchtungsoptik ist so entworfen, dass sie verzeichnungsarm arbeitet. Für die Beobachtung werden CCD-Kameratechnik und fast verzeichnungsfreie Objektive verwendet. Es ist möglich, die zwei Beobachtungsrichtungen derart zu vereinen, dass nur ein Kamerachip
5 zur Beobachtung verwendet wird (siehe2 bis4 ). Alternativ können auch zwei Kamerachips5 verwendet werden (s.1 ). - Zur Gewinnung der Messwerte kommt als Verfahren die Phasogrammetrie als grundlegendes Messprinzip zur Anwendung. Die Methode der Phasogrammetrie stellt die mathematisch geschlossene Verschmelzung der Methodik der Photogrammetrie mit der aktiven Musterprojektion dar.
- Es werden Mustersequenzen verschiedener Orientierung auf das zu vermessende Objekt projiziert und durch die beobachtenden Kameras aufgenommen, wobei durch entsprechende Algorithmen Feinphasenwerte bestimmt werden. Aus korrelierenden Feinphasenwerten zweier Beobachtungsrichtungen, den Parametern der inneren Orientierung der Vorrichtung und der relativen Orientierung zwischen den Beobachtungsrichtungen werden die 3D-Messwerte generiert.
- Die Parameter der inneren Orientierung und die relative Orientierung zwischen den Beobachtungsrichtungen werden im Rahmen einer Kalibriermessung bestimmt. Dies kann entweder aus den Daten der Messung selbst oder aber a priori durch eine separate Kalibriermessung mit höherer Genauigkeit bestimmt werden. Dazu werden eine oder mehrere extraorale Messungen eines Kalibrierkörpers mit höchster Genauigkeit durchgeführt. Zur Erzeugung der Rohphasenbilder (= Phase modulo 2π) bei der Kalibrierung wird z.B. ein 4- oder 16-Phasen-Algorithmus verwendet. Die Bestimmung der inneren Orientierung der Kameras und ggf. des Projektors erfolgt mit photogrammetrischen Methoden. Weiterhin kann die relative Orientierung zwischen den beiden Beobachtungsrichtungen aus der Kalibriermessung bestimmt werden.
- Zur Berechnung der 3D-Messdaten werden die durch die Beobachtungsrichtungen definierten Strahlenbündel verwendet und eine Phasenkorrelation im Kamerabild durchgeführt. Im ersten Schritt erfolgt die Aufnahme der Bildsequenz.
- Durch die Projektionseinheit werden zwei gekreuzte Sequenzen von insgesamt fünf bis elf Bildern von Streifenmustern projiziert und aus beiden Beobachtungsrichtungen aufgenommen Die Bildaufnahme benötigt bei einer Bildwiederholrate von 30 Hz zwischen 160 und 370 ms.
- Mittels eines Phasen-Algorithmus werden für jede Beobachtungsrichtung Rohphasenbilder berechnet. In einem oder mehreren der Bilder können ein oder mehrere Bildpunkte als Markierungen oder Marker verwendet werden. Marker sind eindeutig identifizierbare Punkte im Bild, deren Ursprung auf dem Projektionschip bekannt ist. Sie dienen der Realisierung der absoluten Phasenbestimmung.
- Im zweiten Schritt erfolgt die Zuordnung der Punkte zwischen den Kamerabildern.
- Für die 3D-Punktberechnung müssen die Rohphasenbilder in Feinphasenbilder umgewandelt werden, um eine eindeutige Punktzuordnung zwischen den Bildern der beiden Kameras zu erzielen. Die Zuordnung der Bildpunkte beider Beobachtungsrichtungen erfolgt mit Hilfe der Rohphaseninformation und der Epipolargeometrie.
- Hierzu werden nur Bildpunkte betrachtet, die auf korrespondierenden Epipolarlinien in den Bildern der beiden Beobachtungsrichtungen liegen. Diese Linien sind durch die Auswahl bestimmter Punkte in einem Bild und den Daten der inneren und der relativen Ori entierung eindeutig bestimmt.
- Zur Realisierung einer ausreichenden Auswahl von Messpunkten werden die Bilder entsprechend dicht mit korrespondierenden Epipolarlinienscharen abgedeckt. Epipolarlinien sind Bilder von Ebenen im Raum, die durch die Projektionszentren der beiden Beobachtungsrichtungen und einen diese Raumebene charakterisierenden Punkt im Objektraum verlaufen. Damit werden sie in den Bildern als korrespondierende Geraden abgebildet.
- Alle Punkte auf der Epipolarlinie eines Bildes haben ihre korrespondierenden Punkte auf der entsprechenden Epipolarlinie im zweiten Bild. Die Aufgabe des Findens von Punktkorrespondenzen reduziert sich hiermit auf den eindimensionalen Fall.
- Das Finden der Korrespondenzen erfolgt über die Korrelation der Phasenwerte auf den Epipolarlinien. Dazu ist noch eine Verstetigung der Rohphasenwerte auf den Epipolarlinien erforderlich. Dies wird durch eine Analyse der Periodenübergänge, die Detektion von Unstetigkeitsstellen, die Betrachtung benachbarter Bildpunkte und die Verfolgung von Periodenübergängen im Bild realisiert. Die detektierten Marker dienen hierbei als Ausgangspunkte für eine Verfolgung im Bild und als Kontrollpunkte.
- Im dritten Schritt erfolgt die Berechnung der 3D-Messdaten.
- Dazu werden die subpixelgenau bestimmten Koordinaten korrespondierender Bildpunkte zusammen mit der relativen Orientierung und den Parametern der inneren Orientierung mittels Triangulation zu einer 3D- Punktewolke verrechnet, die das Endergebnis des Scannprozesses darstellt.
- Für das skizzierte Verfahren ist also eine Verstetigung der Rohphase erforderlich. Diese Rohphasenverstetigung muss bei Verwendung der Epipolargeometrie nicht mehr in einer zweidimensionalen Fläche erfolgen, sondern reduziert sich auf ein eindimensionales Problem, indem korrespondierende Geraden in beiden Bildern betrachtet werden.
- Eine eindeutige Rohphasenzuordnung kann jedenfalls dann erreicht werden, wenn korrespondierende Startpunkte auf zwei Abschnitten der Geraden in beiden Bildern gefunden werden und solange die Funktion der Phasenwerte auf den Geradenabschnitten stetig bleibt. Unstetigkeitsstellen definieren neue Geradenabschnitte. Für jedes Paar korrespondierender Geradenabschnitte auf korrespondierenden Epipolarlinien muss also ein korrespondierender Punkt gefunden werden. (Dabei kann auch wieder auf Stetigkeitsanalysen von Phasenwerten zwischen benachbarten Epiplarlinien zurückgegriffen werden.) Der Algorithmus zur Punktzuordnung (Verstetigung der Rohphase) zerlegt korrespondierende Epipolarlinien in stetige Abschnitte und findet in jeweils korrespondierenden Abschnitten korrespondierende Startpunkte.
- Bei Verwendung einer 1-Chip-Lösung für die Kameraanordnung (siehe
2 –4 )) wird die Epipolargeometrie entsprechend zwischen den beiden Teilkanälen der Kamera berechnet werden. So kann nicht nur ein kompakter Aufbau realisiert werden, sondern auch eine einfachere Auswerteelektronik verwendet werden.
Claims (17)
- Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur, umfassend einen Projektor mit einem bildgebenden Element (
1 ) und einem Projektionsobjektiv (2 ) zum Abbilden eines auf dem bildgebenden Element (1 ) generierbaren Streifenmusters in einen Objektraum (3 ) sowie eine zwei Kameraobjektive (4 ) umfassende Kameraanordnung zur Beobachtung des Objektraums (3 ) aus zwei unterschiedlichen Richtungen, wobei der Projektor und die Kameraanordnung gemeinsam in einem als Handgerät verwendbaren Messkopf untergebracht sind. - Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Kameraanordnung einen gemeinsamen Kamerachip (
5 ) für beide Kameraobjektive (4 ) aufweist, wobei jedes der Kameraobjektive (4 ) ein Bild auf jeweils einer Hälfte des Kamerachips (5 ) erzeugt. - Vorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die zwei Kameraobjektive (
4 ) einen Winkel von zwischen 5° und 20° einschließende optische Achsen haben. - Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die zwei Kameraobjektive (
4 ) optische Achsen haben, die spiegelsymmetrisch zu einer Ebene angeordnet sind, in der die optische Achse des Projektionsobjektivs (2 ) liegt. - Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Kameraobjektive (
4 ) und/oder das Projektionsobjektiv (2 ) für eine objektseitige Schnittweite von zwischen 7 cm und 13 cm ausgelegt ist. - Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass eine Lichtquelle für den Projektor vorgesehen ist, wobei von dieser Lichtquelle ausgehendes Licht durch das transmissiv oder reflektierend ausgeführte bildgebende Element (
1 ) intensitätsmodulierbar ist. - Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Lichtquelle in dem Messkopf untergebracht oder über einen Lichtleiter (
10 ) mit dem Messkopf verbunden ist. - Vorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Vorrichtung ferner eine Steuer- und Auswerteeinheit zum Ansteuern des bildgebenden Elements (
1 ) und zum Auswerten von der Kameraanordnung erzeugter Bilddaten umfasst, wobei die Steuer- und Auswerteeinheit programmtechnisch eingerichtet ist – zum Generieren mindestens eines Streifenmusters auf dem bildgebenden Element (1 ) sowie – zum Bewerten eines Verlaufs von mit der Kameraanordnung ermittelten Phasenwerten längs von einander entsprechenden Epipolarlinien in Bildebenen beider Kameraobjektive (4 ) auf Stetigkeit, – zum Einteilen der Epipolarlinien in Intervalle stetigen Phasenverlaufs, – zum Identifizieren einander entsprechender Intervalle in den einander entsprechenden Epipo larlinien, – zum Identifizieren von einander entsprechenden Bildpunkten gleicher Phasenwerte innerhalb der als miteinander korrelierend identifizierten Intervalle und – zum Triangulieren eines Objektpunkts auf Basis der diesem Objektpunkt entsprechenden, als miteinander korrelierend identifizierten Bildpunkte. - Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, bei dem mindestens ein Streifenmuster auf ein Objekt projiziert wird und mittels zweier in einem definierten Abstand zueinander angeordneter Kameraobjektive (
4 ) aus zwei verschiedenen Richtungen zwei Bilder des Objekts mit dem aufprojizierten Streifenmuster aufgenommen und für Bildpunkte in beiden Bildern Phasenwerte des Streifenmusters ermittelt werden, wonach durch Triangulieren auf Basis jeweils einander entsprechender Bildpunkte in den beiden Bildern eine Tiefeninformation für einen diesen Bildpunkten entsprechenden Objektpunkt ermittelt wird, wobei zur Ermittlung der einander entsprechenden Bildpunkte in den beiden Bildern – Paare einander jeweils entsprechender Epipolarlinien in den beiden Bildern ausgewählt werden, – die ermittelten Phasenwerte längs der Epipolarlinien auf Stetigkeit bewertet werden und – die Epipolarlinien damit in Intervalle stetigen Phasenverlaufs eingeteilt werden, – wonach einander entsprechende Intervalle in den einander entsprechenden Epipolarlinien iden tifiziert und innerhalb der einander entsprechenden Intervalle Punkte gleicher Phasenwerte einander zugeordnet werden. - Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass eine Folge mehrerer gegeneinander phasenverschobener Streifenmuster nacheinander auf das Objekt projiziert und zur Ermittlung der Phasenwerte aufgenommen wird.
- Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass zeitlich versetzt mindestens ein weiteres Streifenmuster mit anders orientierten Streifen auf das Objekt projiziert wird, wobei Phasenwerte auch dieses weiteren Streifenmusters zum Identifizieren einander entsprechender Bildpunkte in den beiden Bildern ausgewertet werden.
- Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass mindestens eine Aufnahme des Objekts mittels der beiden Kameraobjektive gemacht wird, bei der mindestens eine relativ zum gleichzeitig, zuvor oder anschließend aufgenommenen Streifenmuster definiert lokalisierte Markierung auf das Objekt projiziert wird zur das Verfahren stützenden Identifikation zweier entsprechender Bildpunkte und/oder zum Kalibrieren einer für das Verfahren verwendeten Vorrichtung.
- Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die ausgewerteten Epipolarlinien in den beiden Bildern dicht liegen.
- Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass durch Interpolation eine subpixelgenaue Zuordnung von Bildpunkten zu Phasenwerten erfolgt.
- Verfahren nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass für das Erfassen einer Kontur alle verwendeten Streifenmuster und gegebenenfalls zusätzlich projizierte Markierungen innerhalb von zwischen 100 ms und 500 ms und/oder mit einer Bildwiederholrate von zwischen 15 Hz und 60 Hz aufgenommen werden.
- Verfahren nach einem der Ansprüche 9 bis 15, dadurch gekennzeichnet, dass es sich bei dem Objekt um Zähne, Zahnmodelle oder Zahnersatz handelt.
- Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 8 zur Durchführung eines Verfahrens nach einem der Ansprüche 9 bis 16.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006049695A DE102006049695A1 (de) | 2006-10-16 | 2006-10-16 | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
CN2007800463637A CN101558283B (zh) | 2006-10-16 | 2007-10-16 | 用于三维轮廓的非接触检测装置及方法 |
US12/445,798 US8243286B2 (en) | 2006-10-16 | 2007-10-16 | Device and method for the contactless detection of a three-dimensional contour |
PCT/EP2007/009164 WO2008046663A2 (de) | 2006-10-16 | 2007-10-16 | Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur |
JP2009532738A JP2010507079A (ja) | 2006-10-16 | 2007-10-16 | 三次元輪郭の非接触検出のための装置および方法 |
EP07819227.5A EP2079981B1 (de) | 2006-10-16 | 2007-10-16 | Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur |
HK10103531.8A HK1138638A1 (en) | 2006-10-16 | 2010-04-09 | Device and method for the contactless detection of a three-dimensional contour |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006049695A DE102006049695A1 (de) | 2006-10-16 | 2006-10-16 | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102006049695A1 true DE102006049695A1 (de) | 2008-04-24 |
Family
ID=39052402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102006049695A Ceased DE102006049695A1 (de) | 2006-10-16 | 2006-10-16 | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
Country Status (7)
Country | Link |
---|---|
US (1) | US8243286B2 (de) |
EP (1) | EP2079981B1 (de) |
JP (1) | JP2010507079A (de) |
CN (1) | CN101558283B (de) |
DE (1) | DE102006049695A1 (de) |
HK (1) | HK1138638A1 (de) |
WO (1) | WO2008046663A2 (de) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102405394A (zh) * | 2009-02-27 | 2012-04-04 | 体表翻译有限公司 | 使用三维表示估计物理参数 |
DE102012013079A1 (de) | 2012-06-25 | 2014-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur |
DE102012022952A1 (de) | 2012-11-16 | 2014-05-22 | Friedrich-Schiller-Universität Jena | Verfahren und System zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts |
WO2014091306A1 (en) * | 2012-12-14 | 2014-06-19 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
DE102014104993A1 (de) | 2013-06-24 | 2014-12-24 | Qioptiq Photonics Gmbh & Co. Kg | Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen |
DE102013012939A1 (de) | 2013-07-26 | 2015-01-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aufsatz und Vorrichtung zum berührungslosen Vermessen einer Oberfläche |
US8970823B2 (en) | 2012-12-14 | 2015-03-03 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
DE102013013791A1 (de) | 2013-08-14 | 2015-03-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen |
US9217637B2 (en) | 2012-12-14 | 2015-12-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
DE102015208285A1 (de) | 2015-05-05 | 2016-11-10 | Friedrich-Schiller-Universität Jena | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen |
DE102015211954A1 (de) | 2015-06-26 | 2016-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche |
US9772394B2 (en) | 2010-04-21 | 2017-09-26 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US9964402B2 (en) | 2015-04-24 | 2018-05-08 | Faro Technologies, Inc. | Two-camera triangulation scanner with detachable coupling mechanism |
US9967545B2 (en) | 2011-04-15 | 2018-05-08 | Faro Technologies, Inc. | System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices |
US10119805B2 (en) | 2011-04-15 | 2018-11-06 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US10267619B2 (en) | 2011-04-15 | 2019-04-23 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
DE102017220720A1 (de) | 2017-11-20 | 2019-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen dreidimensionaler Oberflächenkonturen |
US10302413B2 (en) | 2011-04-15 | 2019-05-28 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote sensor |
WO2021156492A1 (de) | 2020-02-07 | 2021-08-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und vorrichtung zum berührungslosen vermessen einer objektoberfläche |
WO2024032971A1 (de) | 2022-08-09 | 2024-02-15 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2977719A1 (de) | 2007-08-17 | 2016-01-27 | Renishaw plc | Berührungslose messvorrichtung und -methode |
DE102007058590B4 (de) * | 2007-12-04 | 2010-09-16 | Sirona Dental Systems Gmbh | Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts und Aufnahmevorrichtung |
GB0915904D0 (en) | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
US8503539B2 (en) | 2010-02-26 | 2013-08-06 | Bao Tran | High definition personal computer (PC) cam |
EP2400261A1 (de) | 2010-06-21 | 2011-12-28 | Leica Geosystems AG | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
EP2511656A1 (de) | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche |
EP2527784A1 (de) | 2011-05-19 | 2012-11-28 | Hexagon Technology Center GmbH | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche |
KR101854188B1 (ko) * | 2011-10-25 | 2018-05-08 | 삼성전자주식회사 | 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법 |
DE102012207499B3 (de) | 2012-05-07 | 2013-09-05 | Sirona Dental Systems Gmbh | Verfahren zur Vermessung einer Zahnsituation |
US9325966B2 (en) | 2012-07-30 | 2016-04-26 | Canon Kabushiki Kaisha | Depth measurement using multispectral binary coded projection and multispectral image capture |
TWI472711B (zh) * | 2012-10-30 | 2015-02-11 | Ind Tech Res Inst | 非接觸式三維物件量測方法與裝置 |
EP2728305B1 (de) * | 2012-10-31 | 2016-06-29 | VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH | Verfahren und Lichtmuster zum Messen der Höhe oder des Höhenverlaufs eines Objekts |
EP2728306A1 (de) | 2012-11-05 | 2014-05-07 | Hexagon Technology Center GmbH | Verfahren und Vorrichtung zur Bestimmung dreidimensionaler Koordinaten eines Objekts |
EP2772795A1 (de) * | 2013-02-28 | 2014-09-03 | Shamir Optical Industry Ltd | Verfahren, System und Vorrichtung zum Verbessern der optischen Messung von Brillen |
DE102013111761B4 (de) * | 2013-10-25 | 2018-02-15 | Gerhard Schubert Gmbh | Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche |
US10643343B2 (en) | 2014-02-05 | 2020-05-05 | Creaform Inc. | Structured light matching of a set of curves from three cameras |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
US9759547B2 (en) * | 2014-08-19 | 2017-09-12 | The Boeing Company | Systems and methods for fiber placement inspection during fabrication of fiber-reinforced composite components |
CN105930750B (zh) * | 2015-04-28 | 2018-12-04 | 陆劲鸿 | 一种识别物理物件及其朝向的方法及系统 |
EP3133369B1 (de) * | 2015-08-19 | 2017-12-20 | Mitutoyo Corporation | Verfahren zur messung einer höhenkarte von mehreren sichtfeldern und kombination davon zur ermittlung einer zusammengesetzten höhenkarte mit verminderter empfindlichkeit gegenüber instrumentendrift |
US11105607B2 (en) | 2016-07-28 | 2021-08-31 | Renishaw Plc | Non-contact probe and method of operation |
CN106580506B (zh) * | 2016-10-25 | 2018-11-23 | 成都频泰医疗设备有限公司 | 分时三维扫描系统和方法 |
US10883823B2 (en) * | 2018-10-18 | 2021-01-05 | Cyberoptics Corporation | Three-dimensional sensor with counterposed channels |
CN113066164A (zh) * | 2021-03-19 | 2021-07-02 | 河南工业大学 | 一种基于相移轮廓术的单条纹运动物体三维重建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257184A (en) * | 1990-04-10 | 1993-10-26 | Mushabac David R | Method and apparatus with multiple data input stylii for collecting curvilinear contour data |
US5561526A (en) * | 1994-05-26 | 1996-10-01 | Lockheed Missiles & Space Company, Inc. | Three-dimensional measurement device and system |
DE10149750A1 (de) * | 2001-03-09 | 2002-09-19 | Tecmath Ag | Handgeführter 3D-Scanner |
EP1431803A2 (de) * | 2002-12-19 | 2004-06-23 | Olympus Corporation | Bildaufnahemegerät zur dreidimensionalen Formvermessung und entsprechende Methode |
US6996339B2 (en) * | 2002-10-10 | 2006-02-07 | Olympus Corporation | Three-dimensional photographing apparatus and three-dimensional photographing method, and stereo adapter |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5793208A (en) * | 1980-12-01 | 1982-06-10 | Nippon Kogaku Kk <Nikon> | Optical system of distance measuring apparatus |
US4842411A (en) * | 1986-02-06 | 1989-06-27 | Vectron, Inc. | Method of automatically measuring the shape of a continuous surface |
JPH0726828B2 (ja) * | 1986-04-18 | 1995-03-29 | 株式会社トプコン | 形状測定装置 |
US5104216A (en) * | 1988-12-05 | 1992-04-14 | Igm Industriegerate- Und Maschinenfabriksgesellschaft Mbh | Process for determining the position and the geometry of workpiece surfaces |
DE4130237A1 (de) | 1991-09-11 | 1993-03-18 | Zeiss Carl Fa | Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen |
JPH05288532A (ja) * | 1992-04-06 | 1993-11-02 | Ricoh Co Ltd | 立体画像入力装置 |
JP3152795B2 (ja) * | 1993-05-27 | 2001-04-03 | 京セラ株式会社 | カメラの測距装置 |
JP2996067B2 (ja) * | 1993-08-06 | 1999-12-27 | 村田機械株式会社 | 三次元計測装置 |
JPH07151522A (ja) * | 1993-11-29 | 1995-06-16 | Sanyo Electric Co Ltd | 電子部品検査装置 |
JP3438937B2 (ja) * | 1994-03-25 | 2003-08-18 | オリンパス光学工業株式会社 | 画像処理装置 |
JPH09287943A (ja) * | 1996-04-18 | 1997-11-04 | Omron Corp | 距離測定装置及び安全走行システム |
JPH10104527A (ja) * | 1996-09-30 | 1998-04-24 | Toyota Central Res & Dev Lab Inc | 双眼光学装置 |
US6956963B2 (en) * | 1998-07-08 | 2005-10-18 | Ismeca Europe Semiconductor Sa | Imaging for a machine-vision system |
WO2000003198A1 (en) * | 1998-07-08 | 2000-01-20 | Ppt Vision, Inc. | Machine vision and semiconductor handling |
JP2000056412A (ja) * | 1998-08-05 | 2000-02-25 | Jiro Sekine | 立体画像撮影用アタッチメント |
JP2000092517A (ja) * | 1998-09-08 | 2000-03-31 | Sanyu Seni:Kk | 2、3次元映像取り込み装置 |
JP3417377B2 (ja) * | 1999-04-30 | 2003-06-16 | 日本電気株式会社 | 三次元形状計測方法及び装置並びに記録媒体 |
CA2306515A1 (en) * | 2000-04-25 | 2001-10-25 | Inspeck Inc. | Internet stereo vision, 3d digitizing, and motion capture camera |
US7106885B2 (en) * | 2000-09-08 | 2006-09-12 | Carecord Technologies, Inc. | Method and apparatus for subject physical position and security determination |
JP2002366931A (ja) * | 2001-06-08 | 2002-12-20 | Nec Corp | 形状計測装置およびその方法 |
WO2003032252A2 (en) * | 2001-10-09 | 2003-04-17 | Dimensional Photonics, Inc. | Device for imaging a three-dimensional object |
JP3984018B2 (ja) * | 2001-10-15 | 2007-09-26 | ペンタックス株式会社 | 3次元画像検出装置及び3次元画像検出用アダプタ |
JP4414661B2 (ja) * | 2003-02-25 | 2010-02-10 | オリンパス株式会社 | ステレオアダプタ及びそれを用いた距離画像入力装置 |
WO2004106857A1 (ja) * | 2003-05-29 | 2004-12-09 | Olympus Corporation | ステレオ光学モジュール及びステレオカメラ |
ATE404952T1 (de) * | 2003-07-24 | 2008-08-15 | Cognitens Ltd | Verfahren und system zur dreidimensionalen oberflächenrekonstruktion eines objekts |
JP4402400B2 (ja) * | 2003-08-28 | 2010-01-20 | オリンパス株式会社 | 物体認識装置 |
DE10344051B4 (de) * | 2003-09-23 | 2008-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten eines Gegenstandes |
JP2005173091A (ja) * | 2003-12-10 | 2005-06-30 | Yasushi Haruta | ステレオビュア及びステレオマウントフレーム |
JP2005338977A (ja) * | 2004-05-25 | 2005-12-08 | Aichi Gakuin | 立体画像処理システム |
DE102004052199A1 (de) | 2004-10-20 | 2006-04-27 | Universität Stuttgart | Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen |
JP4670341B2 (ja) * | 2004-12-22 | 2011-04-13 | パナソニック電工株式会社 | 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム |
CN101189487B (zh) | 2005-03-11 | 2010-08-11 | 形创有限公司 | 三维扫描自动参考系统和设备 |
-
2006
- 2006-10-16 DE DE102006049695A patent/DE102006049695A1/de not_active Ceased
-
2007
- 2007-10-16 CN CN2007800463637A patent/CN101558283B/zh not_active Expired - Fee Related
- 2007-10-16 US US12/445,798 patent/US8243286B2/en active Active
- 2007-10-16 JP JP2009532738A patent/JP2010507079A/ja active Pending
- 2007-10-16 WO PCT/EP2007/009164 patent/WO2008046663A2/de active Application Filing
- 2007-10-16 EP EP07819227.5A patent/EP2079981B1/de active Active
-
2010
- 2010-04-09 HK HK10103531.8A patent/HK1138638A1/xx not_active IP Right Cessation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5257184A (en) * | 1990-04-10 | 1993-10-26 | Mushabac David R | Method and apparatus with multiple data input stylii for collecting curvilinear contour data |
US5561526A (en) * | 1994-05-26 | 1996-10-01 | Lockheed Missiles & Space Company, Inc. | Three-dimensional measurement device and system |
DE10149750A1 (de) * | 2001-03-09 | 2002-09-19 | Tecmath Ag | Handgeführter 3D-Scanner |
US6996339B2 (en) * | 2002-10-10 | 2006-02-07 | Olympus Corporation | Three-dimensional photographing apparatus and three-dimensional photographing method, and stereo adapter |
EP1431803A2 (de) * | 2002-12-19 | 2004-06-23 | Olympus Corporation | Bildaufnahemegerät zur dreidimensionalen Formvermessung und entsprechende Methode |
Non-Patent Citations (1)
Title |
---|
S.Zhang, S.-T.Yau: High-resolution, real-time 3D absolute coordinate measurement based on a phase-shifting method, in: Optics Express, Vol. 14, No. 7, April 2006, S. 2644-2649 * |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102405394A (zh) * | 2009-02-27 | 2012-04-04 | 体表翻译有限公司 | 使用三维表示估计物理参数 |
US8659764B2 (en) | 2009-02-27 | 2014-02-25 | Body Surface Translations, Inc. | Estimating physical parameters using three dimensional representations |
US10209059B2 (en) | 2010-04-21 | 2019-02-19 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US10480929B2 (en) | 2010-04-21 | 2019-11-19 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US9772394B2 (en) | 2010-04-21 | 2017-09-26 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US9885771B2 (en) | 2010-04-21 | 2018-02-06 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US9885559B2 (en) | 2010-04-21 | 2018-02-06 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US10578423B2 (en) | 2011-04-15 | 2020-03-03 | Faro Technologies, Inc. | Diagnosing multipath interference and eliminating multipath interference in 3D scanners using projection patterns |
US10302413B2 (en) | 2011-04-15 | 2019-05-28 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote sensor |
US10267619B2 (en) | 2011-04-15 | 2019-04-23 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US10119805B2 (en) | 2011-04-15 | 2018-11-06 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US9967545B2 (en) | 2011-04-15 | 2018-05-08 | Faro Technologies, Inc. | System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices |
DE102012013079B4 (de) | 2012-06-25 | 2023-06-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur |
DE102012013079A1 (de) | 2012-06-25 | 2014-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur |
DE102012022952A1 (de) | 2012-11-16 | 2014-05-22 | Friedrich-Schiller-Universität Jena | Verfahren und System zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts |
US9858682B2 (en) | 2012-12-14 | 2018-01-02 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US8970823B2 (en) | 2012-12-14 | 2015-03-03 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
GB2523714A (en) * | 2012-12-14 | 2015-09-02 | Faro Tech Inc | Device for optically scanning and measuring an environment |
US9599455B2 (en) | 2012-12-14 | 2017-03-21 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
GB2523714B (en) * | 2012-12-14 | 2018-08-08 | Faro Tech Inc | Device for optically scanning and measuring an environment |
WO2014091306A1 (en) * | 2012-12-14 | 2014-06-19 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9217637B2 (en) | 2012-12-14 | 2015-12-22 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US9687330B2 (en) | 2013-06-24 | 2017-06-27 | Qioptiq Photonics Gmbh & Co. Kg | Dental measuring device for three dimensional measurement of teeth |
EP2818136A1 (de) | 2013-06-24 | 2014-12-31 | Qioptiq Photonics GmbH & Co. KG | Zahnärztliche Messvorrichtung zur dreidimensionalen Messung von Zähnen |
DE102014104993A1 (de) | 2013-06-24 | 2014-12-24 | Qioptiq Photonics Gmbh & Co. Kg | Dentalmessvorrichtung zur dreidimensionalen Vermessung von Zähnen |
DE102013012939A1 (de) | 2013-07-26 | 2015-01-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aufsatz und Vorrichtung zum berührungslosen Vermessen einer Oberfläche |
DE102013012939B4 (de) * | 2013-07-26 | 2016-12-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aufsatz und Vorrichtung zum berührungslosen Vermessen einer Oberfläche |
DE202013012494U1 (de) | 2013-07-26 | 2017-01-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aufsatz und Vorrichtung zum berührungslosen Vermessen einer Oberfläche |
DE102013013791A1 (de) | 2013-08-14 | 2015-03-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen |
US10866089B2 (en) | 2015-04-24 | 2020-12-15 | Faro Technologies, Inc. | Two-camera triangulation scanner with detachable coupling mechanism |
US9964402B2 (en) | 2015-04-24 | 2018-05-08 | Faro Technologies, Inc. | Two-camera triangulation scanner with detachable coupling mechanism |
US11262194B2 (en) | 2015-04-24 | 2022-03-01 | Faro Technologies, Inc. | Triangulation scanner with blue-light projector |
US10444009B2 (en) | 2015-04-24 | 2019-10-15 | Faro Technologies, Inc. | Two-camera triangulation scanner with detachable coupling mechanism |
DE102015208285A1 (de) | 2015-05-05 | 2016-11-10 | Friedrich-Schiller-Universität Jena | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen |
US10378888B2 (en) | 2015-05-05 | 2019-08-13 | Friedrich-Schiller-Universitaet Jena | Device and method for spatially measuring surfaces |
WO2016177820A1 (de) | 2015-05-05 | 2016-11-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen |
DE102015211954B4 (de) * | 2015-06-26 | 2017-12-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche |
WO2016207442A1 (de) | 2015-06-26 | 2016-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und vorrichtung zum berührungslosen vermessen einer objektoberfläche |
DE102015211954A1 (de) | 2015-06-26 | 2016-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche |
DE102017220720A1 (de) | 2017-11-20 | 2019-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen dreidimensionaler Oberflächenkonturen |
DE102017220720B4 (de) | 2017-11-20 | 2024-05-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum berührungslosen Vermessen dreidimensionaler Oberflächenkonturen |
WO2021156492A1 (de) | 2020-02-07 | 2021-08-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und vorrichtung zum berührungslosen vermessen einer objektoberfläche |
DE102020201536A1 (de) | 2020-02-07 | 2021-08-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Verfahren und Vorrichtung zum berührungslosen Vermessen einer Objektoberfläche |
WO2024032971A1 (de) | 2022-08-09 | 2024-02-15 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und verfahren zur vermessung dreidimensionaler virtueller bilder und objekte eines head-up-displays |
DE102022120088A1 (de) | 2022-08-09 | 2024-02-15 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zur Vermessung dreidimensionaler virtueller Bilder und Objekte eines Head-Up-Displays |
Also Published As
Publication number | Publication date |
---|---|
EP2079981A2 (de) | 2009-07-22 |
US20100046005A1 (en) | 2010-02-25 |
CN101558283B (zh) | 2012-01-11 |
EP2079981B1 (de) | 2016-03-23 |
HK1138638A1 (en) | 2010-08-27 |
CN101558283A (zh) | 2009-10-14 |
WO2008046663A2 (de) | 2008-04-24 |
WO2008046663A3 (de) | 2008-12-11 |
JP2010507079A (ja) | 2010-03-04 |
US8243286B2 (en) | 2012-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2079981B1 (de) | Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur | |
DE19536297C2 (de) | Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu | |
DE102011114674B4 (de) | Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts | |
AT506110B1 (de) | Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten | |
EP2710331B1 (de) | Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche | |
EP0897524B1 (de) | Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche | |
DE19502459A1 (de) | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten | |
CH692873A5 (de) | Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras. | |
EP2400261A1 (de) | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche | |
DE102008048963B4 (de) | 3D-Geometrie-Erfassungsverfahren und -vorrichtung | |
DE102009032262A1 (de) | Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts | |
DE102009032771B4 (de) | Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten | |
DE102008002725B4 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
EP3195256B1 (de) | Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern | |
DE19637682B4 (de) | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens | |
DE102008002730A1 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
DE10149750A1 (de) | Handgeführter 3D-Scanner | |
DE102006042311A1 (de) | Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten in einem erweiterten Winkelbereich | |
DE102004058655A1 (de) | Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes | |
EP0867689B1 (de) | Mikrofotogrammatische Messeinrichtung | |
DE102020132179A1 (de) | Verfahren und Vorrrichtung zur photogrammetrischen Vermessung | |
WO2014114663A1 (de) | Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras | |
EP3172528B1 (de) | Verfahren zur kalibrierung eines lichtprojektors mit einer optischen korrektur | |
EP3798570B1 (de) | Verfahren zur kalibrierung eines optischen messsystems, optisches messsystem und kalibrierobjekt für ein optisches messsystem | |
DE102019111499A1 (de) | Messeinrichtung und Verfahren zum dreidimensionalen Vermessen von Objekten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |