DE19755667A1 - Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte - Google Patents

Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte

Info

Publication number
DE19755667A1
DE19755667A1 DE1997155667 DE19755667A DE19755667A1 DE 19755667 A1 DE19755667 A1 DE 19755667A1 DE 1997155667 DE1997155667 DE 1997155667 DE 19755667 A DE19755667 A DE 19755667A DE 19755667 A1 DE19755667 A1 DE 19755667A1
Authority
DE
Germany
Prior art keywords
image
information
recording system
image recording
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE1997155667
Other languages
English (en)
Inventor
Peter Dipl Ing Wlczek
Johannes Dipl Ing Waldinger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WLCZEK, PETER, DIPL.-ING., 85375 NEUFAHRN, DE WALD
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1997155667 priority Critical patent/DE19755667A1/de
Publication of DE19755667A1 publication Critical patent/DE19755667A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers

Description

Die Erfindung betrifft ein Verfahren zur Bestimmung der geometrischen Oberflächendaten und der optischen Oberflächen­ eigenschaften realer Objekte nach dem Oberbegriff des Patentanspruchs 1.
In der virtuellen Welt (Erfassen von dreidimensionalen Objekten zur Bearbeitung in rechnergestützten Systemen) besteht das Problem, reale Objekte in Ihren Dimensionen und Eigenschaften automatisch zu erfassen. Insbesondere komplizierte geometrische Objekte sind für heutige Verfahren nur äußerst aufwendig oder gar nicht erfaßbar.
Die bisher bekannten Verfahren verwenden zunächst Bildauf­ nahmegeräte zur zweidimensionalen Aufnahme realer Objekte. Zur Bestimmung der geometrischen Oberflächendaten und der Ober­ flächeneigenschaften realer Objekte, d. h. zur Bestimmung der Dreidimensionalität und der Oberflächenbeschaffenheit dieser Objekte sind zusätzliche Informationen notwendig, um die dritte Dimension der Objekte zu erfassen, d. h. zur normalen zweidimensionalen Bildaufnahme sind dabei noch zusätzliche 3D-Tiefen-Informationen notwendig.
Diese 3D-Tiefen-Information erhält man beispielsweise durch aktive Methoden zur Entfernungsbestimmung (taktile Verfahren mit Meßspitzen, Laserstrahlen, Ultraschall und Radar). Dabei benötigen diese Verfahren neben den Bildaufnahmegeräten zusätzliche Geräte zur Entfernungsmessung, d. h. zur Bestimmung der jeweiligen dritten (Tiefen-) Information, die den jeweiligen zweidimensionalen Pixelpunkten der Bildaufnahme zugeordnet werden. So lassen sich die dreidimensionalen Eigenschaften der untersuchten Objekte bestimmen.
Der Nachteil dieser aktiven Meßverfahren liegt in der Möglich­ keit der gegenseitigen Störung der Meßeinrichtungen. Auch ist die Verwendung zusätzlicher Geräte kostenaufwendig und die Informationen der Geräte müssen entsprechend zugeordnet werden, welches aufwendige Rechenverfahren notwendig macht. Auch ist eine Beeinflussung des Objekts durch taktile Verfahren nicht zu vermeiden.
Weiterhin sind Verfahren bekannt, die die 3D-Tiefen-In­ formation durch passive Meßmethoden ermitteln: Dabei existieren monokulare Techniken zur Rückgewinnung der 3D-Information aus zweidimensionalen Vorlagen sowie die Stereo­ bildauswertung. Beide Methoden kommen mit natürlichem Tages­ licht oder Fremdlicht aus. Auch der Einsatz von Restlicht­ verstärkern und Infrarotkameras ist möglich.
Die monokularen Verfahren zur Rückgewinnung der dreidimen­ sionalen Information einer zweidimensionalen Vorlage sind als "Shape From . . ."-Methoden bekannt:
Beim Shape From Shading - Verfahren verwendet man den Schattenwurf von Gegenständen als zusätzliche Information. Beispielsweise kann die Mondoberfläche anhand der Schattenwürfe von Mondkratern rekonstruiert werden.
Beim Shape From Texture - Shape From Contour - Verfahren werden als zusätzliche Wissensbasis (d. h. zur Bestimmung der 3D-Information) Texturen oder Konturen auf Oberflächen verwendet. Fehlen Schatten oder Texturen auf der Oberfläche des betrach­ teten Objekts, so kann man Muster auf die Oberfläche projizieren. Solche Meßverfahren mit Spaltlicht nennt man Grid Coding-Verfahren. (Streifenprojektion zur Oberflächenerken­ nung aus Wirtschaftswoche Nr. 20/8.5. 1997).
Bei diesen Verfahren ist es jedoch nicht möglich, Hinterschnei­ dungen zu erfassen. Außerdem muß sichergestellt werden, daß die Umgebungsbeleuchtung so ist, daß die projizierten Muster bzw. der Schattenwurf der Objekte erkennbar ist.
Eine weitere Möglichkeit der Berechnung von 3D-Informationen ist die Auswertung von Bilderfolgen. Aus zwei aufeinander­ folgenden Bildern kann man ein Vektorfeld ("Optical Flow Field") erzeugen, das die Veränderungen in einem Bildausschnitt wiedergibt. Es handelt sich hierbei um die zweidimensionale Abbildung des dreidimensionalen Geschwindigkeitsfeldes ("Velocity Field") einer bewegten Szene. Bei Kenntnis der Eigenbewegung der Kamera bzw. des Objektes kann hieraus die Tiefeninformation berechnet werden.
Die Auswertung der Bilderfolgen wird jedoch sehr schwierig, wenn zusätzliche Relativbewegungen zu erwarten sind. Außerdem muß die relative Position und Geschwindigkeit des Bildaufnahme­ geräts zum Objekt gemessen und dem zweidimensionalen Datensatz zugeordnet werden.
Die Aufgabe der Erfindung besteht darin, ein reales Objekt in seiner gesamten Ausdehnung im Raum dreidimensional zu erfassen. Die dreidimensionale Gestaltung, Hinterschneidungen und Ober­ flächeneigenschaften des Objekts sollen dabei schnell und ohne großen Rechenaufwand ermittelbar sein.
Das erfindungsgemäße Verfahren ist durch die Merkmale des Anspruches 1 gekennzeichnet. Weitere vorteilhafte Ausführungs­ formen sind in den Unteransprüchen beansprucht.
Mit der Erfindung werden teilweise schon bekannte Methoden der Stereobildauswertung wesentlich erweitert. Bei der Entfernungs­ messung mittels Stereobildauswertung (gleichzeitig aufgenommene Bilder zweier oder mehrerer Kameras) werden die in den Bildern enthaltenen identischen Objekte einander zugeordnet. Die Zuordnung erfolgt entweder durch Korrelationsmethoden (sehr rechenzeitintensiv) oder durch Kantenextraktion. Bei dem neuen Verfahren sollen die Tiefen-Informationen aus einer oder mehreren Stereobildauswertungen über die Positionskontrolle einer oder mehrerer Bildaufnahmegeräte in einem Datensatz gesammelt werden. Der Datensatz mit den Tiefeninformationen ergibt dann das virtuelle Abbild des realen Objekts. Somit lassen sich sowohl Hinterschneidungen als auch Oberflächen­ eigenschaften mit einer ausreichenden Anzahl von Bildern erfassen. Dabei können die Bilder auch von einer Kamera stammen, wenn sichergestellt ist, daß die jeweilige Position der Kamera erfaßt wurde (z. B. mit Positionssensoren oder über Stativgeometrien).
Ist zusätzlich die Position der Beleuchtungsquelle in der realen Szene bekannt, und wird die Bildinformation mit der zugehörigen Lageinformation verwendet, kann daraus die BDRF (Bidirectional Reflectance Distribution Function) berechnet werden. Diese Funktion lautet wie folgt:
Dadurch kann das optische Erscheinungsbild einer Oberfläche bestimmt werden, welches auf dem Verhältnis zwischen dem einfallenden Licht E und dem reflektierten Licht L in Abhängigkeit von den entsprechenden Richtungen (Θi, Φi, Θe, Φe Einfallswinkel und Ausfallswinkel in der x-y Ebene und zur x-y Ebene) beruht.
Somit ist auch der optische Oberflächeneindruck mit diesem Verfahren erfaßbar.
Das erfindungsgemäße Verfahren kann für beliebig geformte Objekte die geometrischen Oberflächendaten bestimmen. Zusätzlich zu den Oberflächendaten lassen sich mittels des Verfahrens gewonnener Daten die optischen Oberflächen­ eigenschaften mit Hilfe der BRDF (Bidirectional Reflectance Distribution Function) berechnen.
Für ein billiges und leistungsfähiges Verfahren zur Erfassung der Oberflächendaten bieten sich vielfältige Anwendungsmög­ lichkeiten wie z. B.: bei der Formoptimierung von Modellen, die Übernahme von Modellen in computergestützte CAD/CAM Systeme, Qualitätskontrolle- Erzeugung von Modellen für die Herstellung Computer animierter Filme, Virtual Reality Techniken und in der 3D Meßtechnik.
Bei dem beschriebenen Verfahren kann auf herkömmliche bildge­ bende Systeme zurückgegriffen werden, die eine kostengünstige Realisierung ermöglichen. Weiterhin bietet dieses Verfahren eine Vielzahl von Vorteilen gegenüber etablierten Techniken. Es besteht die Möglichkeit, berührungslos zu messen, Hinter­ schneidungen können ohne Probleme erfaßt werden, durch unterschiedliche Aufnahmeverfahren kann die Genauigkeit beliebig variiert werden und mit Hilfe der erhaltenen geometrischen Information und einer externen Beleuchtungsquelle lassen sich zusätzlich die optischen Oberflächeneigenschaften eines Materials bestimmen.
Erfindungsgemäß benutzt das beschriebene Verfahren bekannte bildgebende Systeme wie z. B. CCD-Kameras, um daraus drei­ dimensionale geometrische Objekte zu erzeugen. Ein oder mehrere dieser bildgebenden Systeme werden jeweils mit einem Positions­ sensor (z. B.: basierend auf Ultraschall oder elektroma­ gnetischem Prinzip) ausgerüstet. Zur Bestimmung der Oberflächendaten wird das entsprechende Objekt unter verschiedenen Blickrichtungen abgebildet. Die Anzahl der aufgenommen Objektansichten richtet sich dabei nach der Komplexität des Objekts, der gewünschten Genauigkeit und dem Auftreten von Hinterschneidungen. Die aufgenommen Bilder werden mit den korrespondierenden Positionsdaten, die das Positionssystem liefert, gespeichert. Aus der Menge der gespeicherten Bildern werden mit Hilfe der Positionsdaten Stereopaare gebildet. Unter Verwendung von etablierten Standard-Verfahren werden aus den Stereopaaren Tiefenbilder berechnet. Unter einem Tiefenbild versteht man hierbei eine 2-dimensionale Matrix die den Abstand von jedem Bildpixel zum bildgebenden System wiedergibt. Die Pixel repräsentieren hierbei entweder ein Element der Objektoberfläche oder des Hintergrundes. Da die Lage (Position) des bildgebenden Systems für jede Aufnahme bekannt ist und ebenfalls für jedes Bildpaar der Abstand des bildgebenden Systems zum Element der Objekt­ oberfläche, wie oben beschrieben, berechnet werden kann, ist somit auch die Lage der Elemente der Objektoberfläche im Weltkoordinatensystem bekannt (siehe auch Fig. 2).
Im nächsten Schritt werden die Elemente der Objektoberfläche entsprechend ihren Positionsdaten in einen 3-dimensionalen Datenwürfel einsortiert. Die Kantenlänge des Datenwürfels wird durch den jeweils minimalen und maximalen Wert der x, y, z-Koor­ dinaten aller Elemente der Objektoberfläche bestimmt. Die kleinsten Volumenelemente des Datenwürfels werden als Voxel bezeichnet. Die Anzahl der Voxel im Datenwürfel richtet sich nach der erzielten Auflösung, die wiederum von der Anzahl und dem Abstand der Stereopaare abhängig ist. Der entstandene isotrope Datensatz kann entweder direkt in weiteren Applikationen verwendet werden oder ist in einem weiteren Schritt Grundlage, um mittels 3-dimensionaler Triangulation die Oberflächendaten mit Polygonzügen zu approximieren.
Ein Element der Objektoberfläche ist in der Regel in mehreren Stereopaaren sichtbar. Die Positionsdaten eines Elements der Objektoberfläche können somit durch mehrere Stereopaare bestimmt werden. Diese redundante Information erhöht nicht nur die Genauigkeit des beschriebenen Verfahrens sondern kann auch, wie im folgenden aufgezeigt, für die Berechnung der BRDF (Bidirectional Reflectance Distribution Function) herangezogen werden. Die BRDF spielt eine grundlegende Rolle in der Computeranimation und der optischen Modellierung von Materialien. Grundlage für die Messung der BRDF ist das Verhältnis des reflektierten Lichts zum einfallenden Licht. Dieses Verhältnis ist abhängig von der Position der Lichtquelle und der Position des Betrachters.
Wird die Anordnung um eine statische Lichtquelle (d. h. die Lichtquelle wird nicht bewegt) erweitert, kann die BDRF bestimmt werden. Hierzu wird für jedes Element der Objekt­ oberfläche die relative Lage zur statischen Beleuchtungsquelle bestimmt. Da in der Regel jedes Element der Objektoberfläche von mehreren Stereopaaren sichtbar ist, werden gleichfalls verschiedene Betrachterpositionen simuliert. Wird nun die Information von sämtlichen Elementen der Objektoberfläche kombiniert, läßt sich hinreichend genau das Verhältnis des reflektierten Lichts zum einfallenden Licht in Abhängigkeit von der Position der Beleuchtungsquelle und der Position des Betrachters messen. Sollten dennoch Lücken in der BDRF entstehen, können diese durch geeignete Interpolations- und Extrapolationsverfahren angenähert werden.
Ein besonderes Ausführungsbeispiel des erfindungsgemäßen Verfahrens wird anhand der folgenden Zeichnungen näher erläutert. Dabei zeigen:
Fig. 1 Eine Aufsicht auf ein Objekt mit bildgebendem System;
Fig. 2 Die Anordnung des bildgebenden Systems während des Aufnahmeverfahrens; und
Fig. 3 die Anordnung nach Fig. 2 bei höherer Auflösung.
Fig. 1 zeigt die Aufsicht auf ein Objekt (1) mit beliebiger Komplexität und ein bildgebendes System (2) mit Positionssensor (3).
Das bildgebende System (2) kann frei im Raum um das Objekt (1) bewegt werden. Die Bewegung des bildgebenden Systems (2) wird mit allen Freiheitsgraden (3 translatorische und 3 rotatorische) in allen Positionen über einen Positionssensor (3) erfaßt. Wird das bildgebende System auf Schlitten oder andere geeignete, auch mechanische Mittel bewegt, wird die Bewegung des bildgebenden Systems (2) um das Objekt (1) über diese - durch die schlitten oder anderen geeigneten Mitteln vorgegebenen Bahnen - erfaßt.
Fig. 2 zeigt die Anordnung des bildgebenden Systems (2), welches an drei verschiedenen Positionen (Pos. 1, Pos. 2, Pos. 3), zweidimensionale Aufnahmen des Objekts (1) aufnimmt. Jedes Oberflächenelement (4) wird dabei aus mindestens zwei verschiedenen Positionen bzw. von an diesen Positionen befindlichen bildgebenden Systemen (2) (z. B. 2 CCD-Kameras) aufgenommen. Statt der Verwendung von Positionssensoren (3) können auch Schlitten oder andere geeignete Mittel verwendet werden, mittels derer sich die genaue Position des bildgebenden Systems (2) zum Objekt (1) feststellen läßt. Diese Position wird durch x, y und z-Koordinaten im Weltkoordinatensystem, d. h. das der Anordnung zugrundeliegende Koordinatensystem, definiert.
Aus mindestens zwei Positionen (Pos. 1, Pos. 2) oder aus einem Stereopaar (Stereopaar 1) gewonnenen Bildern und der jeweils zugehörigen Positionsinformation wird die Tiefeninformation für charakteristische Punkte berechnet. Charakteristische Punkte können Kanten, Farbänderungen, Hell-/Dunkel-Übergänge, Muster oder andere Merkmale in der gewonnenen Bildinformation sein. Beispielsweise wäre der charakteristische "Punkt" eines menschlichen Gesichts die Nase, die Augen oder die Kante des unteren Kiefernknochens (charakteristische "Kante"). Diese Tiefeninformation führt zu einem Oberflächenelement (4), das in einem Volumendatensatz einsortiert wird. Aus mehreren stereopaaren (Stereopaar 1, Stereopaar 2) läßt sich das Objekt in seiner dreidimensionalen Ganzheit beschreiben und als Volumendatensatz speichern und abbilden.
Fig. 3 zeigt die Anordnung nach Fig. 2 mit einer besseren Auflösung. Zu jedem Oberflächenelement (4) werden mehrere Stereobildpaare durch die bildgebenden Systeme (2), bzw. durch verschiedene Positionen des bildgebenden Systems (2), aufgenommen.
Durch die Verwendung mehrerer Stereopaare für die Tiefeninformationsberechnung wird die Auflösung der Oberflächenelemente (4) im Volumendatensatz erhöht. Die Erhöhung der Auflösung läßt sich auch durch eine Verringerung des Abstandes zwischen dem bildgebenden System (2) (z. B. CCD-Kamera) und dem Objekt (1) erzielen.

Claims (8)

  1. l. Verfahren zur dreidimensionalen Erfassung von Objekten, bei dem mit einem Bildaufnahmesystem zweidimensionale Bilder des Objekts aufgenommen werden, wobei die zweidimensionalen Bilder aus einer Vielzahl von einzelnen Bildelementen (Pixel) bestehen, dadurch gekennzeichnet,
    daß das Objekt (1) aus mindestens zwei Positionen des Bildauf­ nahmesystems (2) aufgenommen wird und die entsprechenden Bildelemente (4) eines Bildes als Bildinformationen erfaßt werden,
    daß die entsprechenden Positionen des Bildaufnahmesystems (2) erfaßt werden,
    daß die Entfernungsinformation eines jeden Bildelements (4) durch Verknüpfung der Positionsinformationen mit den zugehörigen Bildinformationen berechnet werden, und
    daß die daraus gewonnenen Entfernungsinformationen in einem Datensatz abgespeichert werden.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die entsprechenden Entfernungsinformationen der Bild­ elemente (4) mittels charakteristischer Punkte auf der Objektoberfläche ermittelt werden.
  3. 3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die entsprechenden Positionen des Bildaufnahmesystems (2) über Positionssensoren (3) in allen Raumrichtungen und Winkelrichtungen erfaßt werden.
  4. 4. Verfahren nach einem der vorhergehenden Ansprüchen, dadurch gekennzeichnet, daß die Oberflächeneigenschaften des Objekts (1) mittels der Bildinformationen und der Positionsinformationen und der entsprechenden Entfernungsinformation eines jeden Bildelements (4) mittels der BDRF-Funktion bestimmt werden.
  5. 5. Verfahren nach einem der vorhergehenden Ansprüchen, dadurch gekennzeichnet, daß jedes Bildelement (4) aus mehr als zwei Positionen des Bildaufnahmesystems (2) erfaßt wird und damit die Genauigkeit der Entfernungsinformation erhöht wird.
  6. 6. Verfahren nach einem der vorhergehenden Ansprüchen, dadurch gekennzeichnet, daß ein elektromagnetischer und/oder optischer und/oder mechanischer Positionssensor (3) verwendet wird.
  7. 7. Verfahren nach einem der vorhergehenden Ansprüchen, dadurch gekennzeichnet, daß als Bildaufnahmesystem (2) eine CCD-Kamera verwendet wird, die an verschiedene Positionen bewegbar ist.
  8. 8. Verfahren nach einem der vorhergehenden Ansprüchen, dadurch gekennzeichnet, daß die Oberfläche des Objekts (1) mit unterschiedlichen Abständen zwischen dem Bildaufnahmesystem (2) und dem Objekt (1) erfaßt wird, so daß unterschiedliche Auflösungen erzielt werden.
DE1997155667 1997-12-15 1997-12-15 Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte Ceased DE19755667A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1997155667 DE19755667A1 (de) 1997-12-15 1997-12-15 Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997155667 DE19755667A1 (de) 1997-12-15 1997-12-15 Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte

Publications (1)

Publication Number Publication Date
DE19755667A1 true DE19755667A1 (de) 1999-06-24

Family

ID=7851952

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997155667 Ceased DE19755667A1 (de) 1997-12-15 1997-12-15 Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte

Country Status (1)

Country Link
DE (1) DE19755667A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006074026A1 (en) * 2004-12-30 2006-07-13 Snap-On Incorporated Non-contact vehicle measurement method and system
DE102009000321A1 (de) 2009-01-20 2010-07-22 Robert Bosch Gmbh Verfahren sowie System zum dreidimensionalen Bearbeiten eines Werkstücks
CN103900520A (zh) * 2014-03-28 2014-07-02 西北工业大学 一种整体壁板板坯模型几何尺寸检测方法
DE102012101927B4 (de) 2011-03-14 2022-06-02 Caterpillar Trimble Control Technologies Llc System für Maschinensteuerung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0256968A1 (de) * 1986-07-23 1988-02-24 MANNESMANN Aktiengesellschaft Automatisches Verfahren zur berührungslosen dreidimensionalen Vermessung von Objekten grosser Ausdehnung
DE3941144A1 (de) * 1989-12-13 1991-06-20 Zeiss Carl Fa Koordinatenmessgeraet zur beruehrungslosen vermessung von objekten
EP0473010A2 (de) * 1990-08-25 1992-03-04 Firma Carl Zeiss Verfahren zur berührungslosen Vermessung von Objektoberflächen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0256968A1 (de) * 1986-07-23 1988-02-24 MANNESMANN Aktiengesellschaft Automatisches Verfahren zur berührungslosen dreidimensionalen Vermessung von Objekten grosser Ausdehnung
DE3941144A1 (de) * 1989-12-13 1991-06-20 Zeiss Carl Fa Koordinatenmessgeraet zur beruehrungslosen vermessung von objekten
EP0473010A2 (de) * 1990-08-25 1992-03-04 Firma Carl Zeiss Verfahren zur berührungslosen Vermessung von Objektoberflächen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006074026A1 (en) * 2004-12-30 2006-07-13 Snap-On Incorporated Non-contact vehicle measurement method and system
DE102009000321A1 (de) 2009-01-20 2010-07-22 Robert Bosch Gmbh Verfahren sowie System zum dreidimensionalen Bearbeiten eines Werkstücks
DE102012101927B4 (de) 2011-03-14 2022-06-02 Caterpillar Trimble Control Technologies Llc System für Maschinensteuerung
CN103900520A (zh) * 2014-03-28 2014-07-02 西北工业大学 一种整体壁板板坯模型几何尺寸检测方法
CN103900520B (zh) * 2014-03-28 2016-07-06 西北工业大学 一种整体壁板板坯模型几何尺寸检测方法

Similar Documents

Publication Publication Date Title
WO2022121645A1 (zh) 一种教学场景中虚拟对象的真实感生成方法
DE102007045835B4 (de) Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
EP2206089B1 (de) Verfahren und vorrichtung zum darstellen eines virtuellen objekts in einer realen umgebung
Zheng Acquiring 3-D models from sequences of contours
EP2791903B1 (de) Verfahren und vorrichtung zur schätzung einer pose
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
JP3148045B2 (ja) 三次元物体cg作成装置
CN108256504A (zh) 一种基于深度学习的三维动态手势识别方法
CN112258658B (zh) 一种基于深度相机的增强现实可视化方法及应用
KR20010053347A (ko) 이미지 센서를 이용하여 입체 이미지를 포착하기 위한방법 및 장치
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP3789962B1 (de) Verfahren und vorrichtung zum erzeugen von daten für eine zwei- oder dreidimen-sionale darstellung zumindest eines teils eines objekts und zum erzeugen der zwei- oder dreidimensionalen darstellung zumindest des teils des objekts
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN101650834A (zh) 复杂场景下人体表面三维重建方法
DE602004012341T2 (de) Verfahren und System zur Bereitstellung einer Volumendarstellung eines dreidimensionalen Objektes
WO2017045981A1 (de) Vorrichtung und verfahren zur erzeugung eines modells von einem objekt mit überlagerungsbilddaten in einer virtuellen umgebung
CN108629828B (zh) 三维大场景的移动过程中的场景渲染过渡方法
DE102009036029A1 (de) Darstellung komplexer und/oder deformierbarer Objekte sowie virtuelle Anprobe von anziehbaren Objekten
Ypsilos et al. Video-rate capture of dynamic face shape and appearance
DE102004061841B4 (de) Markerloses Tracking System für Augmented Reality Anwendungen
Takemura et al. Diminishing head-mounted display for shared mixed reality
DE19755667A1 (de) Verfahren zur Bestimmung der geometrischen Oberflächendaten und der Oberflächeneigenschaften realer Objekte
DE19746639A1 (de) Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte
DE60030401T2 (de) Anzeigetechniken für dreidimensionale virtuelle Realität
CN107103620B (zh) 一种基于独立相机视角下空间采样的多光编码相机的深度提取方法

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
8127 New person/name/address of the applicant

Owner name: WLCZEK, PETER, DIPL.-ING., 85375 NEUFAHRN, DE WALD

8131 Rejection