DE112017003143T5 - Tiefenbildbereitstellungsvorrichtung und -verfahren - Google Patents

Tiefenbildbereitstellungsvorrichtung und -verfahren Download PDF

Info

Publication number
DE112017003143T5
DE112017003143T5 DE112017003143.5T DE112017003143T DE112017003143T5 DE 112017003143 T5 DE112017003143 T5 DE 112017003143T5 DE 112017003143 T DE112017003143 T DE 112017003143T DE 112017003143 T5 DE112017003143 T5 DE 112017003143T5
Authority
DE
Germany
Prior art keywords
scene
image
pixel
computing device
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017003143.5T
Other languages
English (en)
Inventor
Nizan Horesh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112017003143T5 publication Critical patent/DE112017003143T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Vorrichtungen, Verfahren und Speichermedien zur Bereitstellung eines Tiefenbilds eines Objekts sind beschrieben. In einigen Ausführungsformen kann die Vorrichtung einen Projektor zum Projizieren eines Lichtmusters auf unterschiedliche Abschnitte einer Szene zu unterschiedlichen Zeitinstanzen umfassen, und eine Bildgebungsvorrichtung, die mit dem Projektor verbunden ist, um Bildpaare zu erzeugen (ein erstes Bild eines Paars aus einer ersten Perspektive und ein zweites Bild des Paars aus einer zweiten Perspektive), unterschiedlicher Abschnitte der Szene als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte. Die Vorrichtung kann einen Prozessor enthalten, der mit dem Projektor und der Bildgebungsvorrichtung verbunden ist, um die Bewegung des Projektors zu steuern und das Tiefenbild des Objekts in der Szene zu erzeugen, basierend auf der Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene. Andere Ausführungsformen können beschrieben und beansprucht sein.

Description

  • Querverweis auf verwandte Anmeldung
  • Diese Anmeldung beansprucht Priorität über die U.S.-Anmeldung Nr. 15/190,031 , mit dem Titel „DEPTH IMAGE PROVISION APPARATUS AND METHOD“ vom 22. Juni 2016.
  • Technischer Bereich
  • Diese Offenbarung bezieht sich auf die Felder der Berechnung und Bildgebung, insbesondere auf Vorrichtungen, Verfahren und Speichermedien, die mit der Bereitstellung von Tiefenbildern assoziiert sind.
  • Allgemeiner Stand der Technik
  • Aktuelle dreidimensionale (3D) Tiefenkameras enthalten eine konventionelle Kamera, einen Infrarotlaserprojektor und eine Infrarotkamera (und manchmal ein Mikrofonarray) zum Messen der Tiefe eines Bilds, um gestenbasierte Interaktion, Gesichtserkennung, immersive Videokonferenzen und Kollaboration, Gaming und 3D-Scannen zu ermöglichen. Der Infrarotprojektor kann ein Gitter (in Infrarotlicht, das für das menschliche Auge unsichtbar ist) auf die Szene projizieren und die Infrarotkamera kann es aufnehmen, um Tiefeninformationen zu berechnen. 3D-Kameras können eigenständig sein oder in Computer integriert sein, wie etwa in Desktops, Laptops, Tablets, 2-in-1-Computer, Spielekonsolen und ähnliches. Aktuelle Tiefenkameras können bei der Verwendung einen wesentlichen Energieverbrauch von einem Bildgeber und Verarbeitungseinheiten verlangen. Ferner können aktuelle Tiefenkameras unter Einschränkungen der räumlichen Auflösung und der minimalen Objektgröße leiden, die aus Bildern identifiziert werden können, die durch die Kameras erfasst werden.
  • Figurenliste
  • Ausführungsformen sind leicht durch folgende ausführliche Beschreibung in Zusammenhang mit den beiliegenden Zeichnungen zu verstehen. Um diese Beschreibung zu vereinfachen, bezeichnen gleiche Referenzziffern gleiche strukturelle Elemente. Ausführungsformen werden beispielhaft und nicht einschränkend in den Figuren der beiliegenden Zeichnungen illustriert.
    • 1 ist ein Blockdiagramm, das nach einigen Ausführungsformen eine beispielhafte Vorrichtung illustriert, um ein Tiefenbild eines Objekts bereitzustellen.
    • 2 ist ein beispielhaftes schematisches Diagramm, das einige Aspekte der Vorrichtung aus 1 illustriert, nach einigen Ausführungsformen.
    • 3 illustriert ein Beispielfragment eines Bilds eines Paars Bilder, erfasst durch eine Vorrichtung aus 1, nach einigen Ausführungsformen.
    • 4 ist ein Beispielbild eines Objekts in einer Szene, das unter Verwendung der Techniken der vorliegenden Offenbarung erzeugt wurde, nach einigen Ausführungsformen.
    • 5 illustriert nach einigen Ausführungsformen ein beispielhaftes Verfahren, um ein Tiefenbild eines Objekts bereitzustellen.
    • 6 illustriert ein beispielhaftes Verfahren zur Verarbeitung von Paaren von Bildern, die wie mit Verweis auf 1 bis 5 erfasst wurden, um ein Tiefenbild eines Objekts zu erzeugen, nach einigen Ausführungsformen.
    • 7 illustriert ein weiteres beispielhaftes Verfahren zur Verarbeitung von Paaren von Bildern, die wie mit Verweis auf 1 bis 5 erfasst wurden, um ein Tiefenbild eines Objekts zu erzeugen, nach einigen Ausführungsformen.
    • 8 illustriert eine beispielhafte Rechnervorrichtung, die sich zur Verwendung zur Ausführung von Aspekten der vorliegenden Offenbarung eignet, wie etwa mit einer Vorrichtung zum Bereitstellen eines Tiefenbilds, nach verschiedenen Ausführungsformen.
  • Ausführliche Beschreibung
  • Ausführungsformen der vorliegenden Erfindung enthalten Techniken und Konfigurationen für eine Vorrichtung und ein Verfahren für die Bereitstellung eines Tiefenbilds eines Objekts. In einigen Ausführungsformen kann die Vorrichtung einen Projektor zum Projizieren eines Lichtmusters auf unterschiedliche Abschnitte einer Szene zu unterschiedlichen Zeitinstanzen umfassen. Die Vorrichtung kann ferner eine Bildgebungsvorrichtung umfassen, die mit dem Projektor verbunden ist, um Bildpaare der verschiedenen Abschnitte der Szene als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte zu erzeugen. Die Erzeugung von Bildpaaren kann die Aufnahme eines ersten Bilds eines Paars aus einer ersten Perspektive, und die Aufnahme eines zweiten Bilds des Paars aus einer zweiten Perspektive umfassen, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sein können. Die Vorrichtung kann ferner einen Prozessor enthalten, der mit dem Projektor und der Bildgebungsvorrichtung verbunden ist, um die Bewegung des Projektors zu steuern und das Tiefenbild des Objekts in der Szene zu erzeugen, basierend mindestens teilweise auf der Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene.
  • In der folgenden detaillierten Beschreibung wird auf die beiliegenden Zeichnungen verwiesen, die einen Teil hiervon bilden, wobei gleiche Ziffern durchgehend gleiche Teile bezeichnen, und die durch Illustrationsausführungsformen dargestellt werden, die ausgeführt werden können. Es versteht sich, dass andere Ausführungsformen genutzt werden können und dass strukturelle oder Logikänderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Daher ist die folgende ausführliche Beschreibung nicht in einschränkendem Sinn zu verstehen, und der Umfang der Ausführungsformen ist durch die beiliegenden Ansprüche und ihre Äquivalente definiert.
  • Zum Zweck der vorliegenden Offenbarung bedeutet die Bezeichnung „A und/oder B“ (A), (B), (A) oder (B) oder (A und B). Zum Zweck der vorliegenden Offenbarung bedeutet die Bezeichnung „A, B und/oder C“, (A), (B), (C), (A und B), (A und C), (B und C) oder (A, B, und C).
  • Die Beschreibung kann die Bezeichnungen „in einer Ausführungsform“ oder „in Ausführungsformen“ enthalten, was sich jeweils auf eine oder mehrere gleiche oder unterschiedliche Ausführungsformen beziehen kann. Weiter sind die Begriffe „umfassend“, „einschließlich“, „aufweisend“ und ähnliches in der Verwendung bezüglich der Ausführungsformen der vorliegenden Offenbarung synonym.
  • Der Begriff „verknüpft mit“, sowie seine Ableitungen, kann hierin verwendet werden. „Verknüpft“ kann eines oder mehrere der folgenden bedeuten. „Verknüpft“ kann bedeuten, dass zwei oder mehrere Elemente in direktem physischen, elektrische oder optischen Kontakt stehen. „Verknüpft“ bedeutet jedoch auch, dass zwei oder mehr Elemente indirekt miteinander in Kontakt stehen, jedoch noch immer miteinander kooperieren oder interagieren, und kann bedeuten, dass ein oder mehrere Elemente zwischen den Elementen verknüpft oder verbunden sind, die als miteinander verknüpft bezeichnet werden.
  • 1 ist ein Blockdiagramm, das eine beispielhafte Vorrichtung für die Bereitstellung eines Tiefenbilds eines Objekts nach einigen Ausführungsformen illustriert. In Ausführungsformen kann die Vorrichtung 100 eine Bildgebungsvorrichtung 102 enthalten, die mit einem Projektor 104 verbunden ist. Der Projektor 104 kann konfiguriert sein zur Ausführung einer kontrollierten Bewegung zum Projizieren eines Lichtmusters 124 auf unterschiedliche Abschnitte einer Szene 120 zu unterschiedlichen Zeitinstanzen. Die kontrollierte Bewegung kann eine Strahlsteuerung eines Strahls umfassen, der das Lichtmuster bildet, um das Muster in kontrollierter Weise zu bewegen. Das Lichtmuster 124 kann beispielsweise einen Lichtpunkt enthalten, der unterschiedliche Größen und Formen annehmen kann (z. B. rechteckig wie dargestellt, rund oder andere), und einen gewünschten Kontrastwert bereitstellen. Es gibt viele verschiedene Projektormuster, die verwendet werden können. In Ausführungsformen kann die Projektorbewegung im Wesentlichen fortlaufend sein, um eine Region (einen Abschnitt) des Bilds abzudecken. Wenn eine Reihe von Bildern für ein Pixel während der Bewegung des Projektors erfasst werden soll (wie nachfolgend ausführlicher beschrieben), kann diese Reihe einzigartig unter den anderen Reihen sein, die zusammen entlang derselben epipolaren Linie (d. h. Bildlinie in dem berichtigten Bild) mit dem Disparitätsbereich aufgenommen werden. Wie dargestellt, kann die Szene 120 ein oder mehrere Objekte 122 enthalten, die in diesem illustrativen Beispiel stille und/oder sich bewegende Objekte enthalten können, wie etwa eine Person. Mehrere Bildpaare der Abschnitte der Szene 120 können als Reaktion auf die Projektion des Lichtmusters erfasst werden. Die Bildpaare der Abschnitte der Szene 120, die beschafft wurden, können nach verschiedenen Ausführungsformen verarbeitet werden, die hierin beschrieben sind, und ein entsprechendes Tiefenbild des Objekts 122 in der Szene 120 kann basierend auf den Ergebnissen der Verarbeitung erzeugt werden.
  • Allgemein kann der Projektor 104 jeden Projektor enthalten, der veranlasst werden kann, das Lichtmuster in kontrollierter Weise über die Szene 120 zu bewegen, z. B. ständig oder periodisch. Beispielsweise kann der Projektor 104 veranlasst werden, das Lichtmuster 124, 126, 128 in einer Richtung, z. B. in horizontaler oder vertikaler Richtung, über die Szene 120 zu projizieren, mit einem Schritt (Abstand zwischen Lichtpunkten) einer bestimmten Größe (z. B. Größe eines Lichtflecks in einer Ausführungsform oder einer Pixel größe in einer anderen Ausführungsform), zwischen aufeinanderfolgenden Bildaufnahmen. Allgemein kann der Projektor 104 veranlasst werden, das Lichtmuster auf Abschnitte der Szene 120 in zufälliger Weise zu projizieren. In Ausführungsformen kann der Projektor 104 mit einem Stellmotor 110 verbunden sein und durch diesen bedient werden, um die Bewegung des Projektors 104 zu steuern, wie mit Verweis auf 2 genauer beschrieben.
  • Die Bildgebungsvorrichtung 102 kann konfiguriert sein, Bildpaare der verschiedenen Abschnitte der Szene 120 zu erzeugen, um einen Abschnitt der Szene abzubilden, der durch den Projektor 104 beleuchtet wird, als Reaktion auf die Projektion des Lichtmusters durch den Projektor 104 auf die Abschnitte der Szene 120. Die Bildgebungsvorrichtung 102 kann eine Infrarot- (IR) Kamera oder eine reguläre Kamera umfassen. In Ausführungsformen kann die Bildgebungsvorrichtung 102 eine erste (z. B. linke) Kamera 106 und eine zweite (z. B. rechte) Kamera 108 umfassen, die in einem Abstand B von der ersten Kamera 106 angeordnet sind. Die Kameras 106 und 108 können Bildpaare der Abschnitte der Szene 120 erzeugen, die aus unterschiedlichen Perspektiven aufgenommen wurden. Die Perspektiven können teilweise durch einen Abstand B zwischen den Kameras 106 und 108 und/oder durch jeweilige Abstände D1, D2 von den Kameras 106, 108 zu einem bestimmten Punkt (z. B. 150) in der Szene 120 definiert sein. Dementsprechend kann die Kamera 106 zuerst ein erstes Bild eines Bildpaars aus einer ersten Perspektive erfassen, und die Kamera 108 kann ein zweites Bild des Bildpaars aus einer zweiten Perspektive erfassen, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sein können, wie dargestellt in 1.
  • In Ausführungsformen kann die Bildgebungsvorrichtung 102 eine Kamera (z. B. 106 oder 108) enthalten, die mit dem Projektor 104 verbunden ist. Die Kamera kann ein Bild des Bildpaars erfassen. Da die Geometrie des Projektors bekannt ist, kann die Tiefenkarte aus einer einzigen Ansicht berechnet werden, etwa durch Verwendung eines synthetischen Bilds des projizierten Musters als zweites Bild des Stereopaars. Mit anderen Worten, der Projektor 104 kann so kalibriert sein, dass seine Position zu jeder Zeitinstanz der Bilderfassung durch die Kamera 106 oder 108 bekannt sein kann, und daher ein entsprechendes Bild des Musters synthetisiert und eine genaue Tiefe aus einem einzigen Bild geschlossen werden kann, wie es beispielsweise in einem strukturierten Lichtverfahren der Fall ist.
  • Die Vorrichtung 100 kann ferner einen Prozessor 130 enthalten, der mit dem Projektor 104 (z. B. über den Stellmotor 110) verbunden ist, und die Bildgebungsvorrichtung 102. Der Prozessor 130 kann konfiguriert sein, die Bewegung des Projektors 104 mit dem Stellmotor 110 zu steuern. Der Prozessor 130 kann ferner konfiguriert sein, die Bildpaare zu verarbeiten, die durch die Bildgebungsvorrichtung 102 erfasst wurden, und das Tiefenbild des Objekts 122 in der Szene 120 mindestens teilweise basierend auf der Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene 120 zu erzeugen. Die Bildverarbeitung und Erzeugung des Tiefenbilds des Objekts werden nachfolgend ausführlich beschrieben.
  • Das entstehende Tiefenbild des Objekts 122 kann einer Anzeige 132 zur Verfügung gestellt und/oder in einem Speicher 134 der Vorrichtung 100 gespeichert werden, abhängig von einer Konfiguration der Vorrichtung 100. Der Speicher 134 kann Anweisungen (z. B. in einem Steuermodul 140) speichern, um den Prozessor 130 zu bedienen, um die Bewegungssteuerung des Projektors 104 auszuführen und die erfassten Bildpaare der Abschnitte der Szene 120 zu verarbeiten, um ein Tiefenbild des Objekts 122 in der Szene 120 zu erzeugen.
  • 1 stellt einen koplanaren Aufbau des Projektors und der Kamera dar. Dies kann ohne Verlust der Allgemeingültigkeit erfolgen, da das Bild berichtigt und koplanar gemacht werden kann. Die Prozesse der Berichtigung können eine geometrische Transformation des Bilds enthalten, der Geometrie des Kamera-Projektorsystems entsprechend. Das Ergebnis dieses Prozesses kann eine virtuelle Kamera sein, die koplanar und verzerrungsfrei ist. In Ausführungsformen können die Tiefendaten jedes bereitgestellten Pixels (z. B. ein Abstand von der Kamera 106 (108) zu einem Punkt auf dem Objekt 122 der dem bereitgestellten Pixel entspricht) basierend auf dem Grundlinienabstand B zwischen den Kameras 106, 108 trianguliert werden und das Tiefenbild kann entsprechend erstellt werden.
  • Die Vorrichtung 100 kann als jede externe periphere Vorrichtung verkörpert sein (z. B. kommunikativ verbunden mit einer Rechnervorrichtung) oder eine integrierte Vorrichtung, die sich für die Bilderzeugung und -bereitstellung eignet. Die Beispiele der Rechnervorrichtungen, die die Vorrichtung 100 enthalten können, können Tabletcomputer, Smartphones, Laptops, Gaming- und Medienvorrichtungen, mobile Workstations, All-in-One-Vorrichtungen, 2-in-1-Vorrichtungen oder Desktopcomputer enthalten, sind jedoch nicht darauf beschränkt. In Ausführungsformen kann die Vorrichtung 100 eine Standalone-Vorrichtung umfassen, wie etwa eine 3D-Standbildkamera, eine Videokamera, eine Webcam, eine Infrarot- (IR) Kamera oder eine andere Vorrichtung, die in der Lage ist, Videos und/oder Bilder zu erzeugen.
  • Allgemein können beliebige oder alle der illustrierten Bauteile der Vorrichtung 100 getrennt und extern von, aber kommunikativ verbunden mit, einer Rechnervorrichtung vorliegen. Ferner können einige oder alle der Funktionen der Vorrichtung 100, wie etwa die Verarbeitungsleistung und/oder Speicherkapazität, verwendet oder mit einer assoziierten Rechnervorrichtung verwendet werden.
  • 2 ist ein beispielhaftes schematisches Diagramm, das einige Aspekte der Vorrichtung aus 1 nach einigen Ausführungsformen illustriert. Zum einfacheren Verständnis sind gleiche Bauteile aus 1 und 2 mit gleichen Ziffern angegeben.
  • Wie dargestellt, kann der Projektor 104 einen Musterlichtemitter 202 enthalten, der konfiguriert ist, das Lichtmuster 124 (Lichtpunkt) abzugeben, das durch die Linse 204 auf einem Abschnitt einer Szene abgebildet werden soll (nicht dargestellt). Ein Controller (z. B. Prozessor 130) kann mit dem Stellmotor 110 verbunden sein, um die Bewegung des Lichtemitters 202 entlang einer Ebene 206 zu bedienen, um die Projektion des Lichtmusters 124 auf den Abschnitt der Szene zu steuern. In einigen Ausführungsformen kann der Controller die Bewegung der Linse 204 steuern (z. B. einige der Linsenelemente bestätigen), neben oder anstatt der Steuerung der Bewegung des Lichtemitters 202, um die Strahlsteuerung zu steuern, um das projizierte Muster auf den Abschnitt der Szene zu übertragen.
  • Allgemein kann der Projektor 104 eine Musterprojektorarray umfassen, angeordnet an einer x-y mechanischen Übertragungsbefestigung. Das Muster kann durch eine Vertical-Cavity Surface-Emitting Laser (VCSEL) Array erzeugt werden. Diese Array kann aus einem einzigen Halbleiterchip bestehen und Laserquellen erzeugen. Das Arraylayout kann eine pseudozufällige Anordnung sein. Die Laserzellen können in rechtwinkliger Richtung von der Oberfläche verlaufen. Ein optisches Element (z. B. eine Linse) kann verwendet werden, um das Licht in die Szene zu projizieren („invertierte Bildgebung“). Der Stellmotor 110 kann einen mechanischen Stellmotor umfassen, wie etwa einen Sensorverschiebungsaufbau, um die Laserarray parallel zu ihrer Position zu bewegen. Die gesteuerte Bewegung (Strahlsteuerung) des Projektors kann wie folgt sein: der Projektor kann ein Muster (einen Lichtfleck) auf eine Szene projizieren, und ein Paar Bilder kann aufgenommen werden; der Projektor kann veranlasst werden, das Muster an einen anderen Ort in der Szene zu bewegen und anzuhalten, und ein anderes Bildpaar kann aufgenommen werden; und so weiter. Der Controller kann die Lichtquelle deaktivieren und nur für einen vorgegebenen Zeitraum aktivieren, wenn der Projektor die gewünschte Position erreicht hat. Typischerweise kann in Stereokamerabildverarbeitung ein Templatebildpatch (z. B. ein Abschnitt eines Bilds, wie etwa eine Pixelnachbarschaft oder ein Fenster einer bestimmten Größe) von einem des Bildpaars eines Abschnitts der Szene genommen werden (z. B. von dem linken Bild). Der Bildpatch kann den Bildpatches entlang derselben imaginären Linie des anderen (z. B. rechten) Bilds. Diese entsprechende Linie ist auch als epipolare Linie bekannt. Die Kamerageometrie kann bekannt sein, sodass die Bilder berichtigt werden können. Nachfolgend wird angenommen, dass die Bilder berichtigt werden.
  • Es gibt verschiedene Metriken für den Abgleich von Bildpatches, wie etwa normalisierte Querkorrelation, Summe absoluter Unterschiede, Summe von Quadraten und anderen. Wenn eine gute Übereinstimmung gefunden wird, wird der Abstand zwischen dem Templatepatch und dem abgeglichenen Patch (Disparität) in der richtigen Bildebene gemessen. Der Abstand von der Kamera zu dem Patch kann dann unter Verwendung der folgenden Gleichung berechnet werden: z=f * B/d, wobei z der Abstand von der Kamera ist, f die Brennlänge der Kamera, B die Grundlinie (Abstand zwischen den beiden Kameras wie in 1 dargestellt), und d die Disparität (für einen planaren Aufbau). Allgemein kann B der Abstand zwischen virtuellen Kameras sein, nachdem das Bild berichtigt wurde. Das Hauptproblem bei diesem Ansatz bezieht sich auf die Informationsmenge in dem Bildpatch. Wenn sich der Bildpatch in einer Region mit geringem Kontrast befindet (z. B. einer einheitlichen Region), kann es sein, dass nicht ausreichende Informationen zur Verfügung stehen, um einen abgeglichenen Bildpatch in dem andren Bild zu finden. Um dieses Problem zu lösen, können aktive Stereokameras verwendet werden, die ein IR-Muster auf eine Szene projizieren können, um einen Kontrast (oder eine Textur) in dem gesamten Bild zu schaffen.
  • Aktive Tiefenkameras könne jedoch unter Einschränkungen der räumlichen Auflösung und der minimalen Objektgröße leiden, die durch die Kamera identifiziert werden können. Wenn der Bildpatch zu klein ist, kann er möglicherweise nicht ausreichend viele Informationen enthalten, um eine klare Abgleichung zu erlauben. Andererseits kann der Bildpatch, wenn er zu groß ist, Informationen aus Bildregionen enthalten, die verschiedene Tiefenwerte und daher verschiedene Disparitätswerte aufweisen können. Eine große Patchgröße kann zu einer ungenauen Berechnung eines Disparitätswerts oder zu gar keinem Abgleich führen. Weiterhin kann die Größe des Patches auch die minimale Objektgröße bestimmen, die die Kamera auflösen kann, sowie die effektive Auflösung. Beispielsweise kann eine Stereokamera mit einer 640 × 480 Video Graphics Array (VGA) Auflösung und einer 8 × 8 Fenstergröße in der Lage sein, Bilder mit einer Mindestgröße von weniger als 8 × 8, aufzulösen, und die effektive Auflösung (die Anzahl unabhängiger Tiefenmessungen) kann 80 × 60 betragen. Mit anderen Worten, bekannte Lösungen müssen möglicherweise sowohl einen größeren Projektor als auch eine größere Bildgebungsvorrichtung verwenden, um eine gewünschte Genauigkeit eines Tiefenbilds bereitzustellen, was die Größe, Kosten und den Leistungsverbrauch der Vorrichtung erhöhen kann.
  • Um die Patchgröße zu verringern (und damit die Tiefenkartenauflösung zu erhöhen), ohne die Tiefenqualität zu kompromittieren, muss möglicherweise ein projiziertes Muster erstellt werden, das so dicht sein kann, wie ein optisches System auflösen kann. Die beschriebenen Ausführungsformen können die Verbesserung der Bildtiefengenauigkeit durch Steuerung der Bewegung des Projektors vorsehen, der ein zeitabhängiges projiziertes Muster erstellen kann. Das daraus folgende Muster kann eine höhere Dichte aufweisen, als die Muster, die durch konventionelle Lösungen angeboten werden. Die Verarbeitung des Bilds, das unter Verwendung der gesteuerten Bewegung des hierin beschriebenen Projektors erfasst wurde, kann ein im Vergleich mit konventionellen Verfahren hochauflösendes dreidimensionales Tiefenbild eines Objekts in einer Szene vorsehen. In einigen Ausführungsformen kann die Verarbeitung der Bildpaare, die als Reaktion auf eine Projektion des Lichtmusters eines Abschnitts einer Szene erzeugt wurden, die folgenden Techniken enthalten. Der Projektor kann das projizierte Muster mit einem bestimmten Schritt in einem bestimmten Abstand zwischen aufeinander folgenden Bilderfassungen bewegen), und Bildpaare können erfasst werden, die dasselbe Bildelement eines Abschnitts einer Szene enthalten können (z. B. ein Patch oder ein Pixel). Beispielsweise kann mit Verweis auf 1 das Bildelement, das einem Szenenabschnitt entspricht, wie etwa der Punkt 150, in Bildpaaren gefunden werden, die den Lichtpunkten 124 und 126 entsprechend, die zu den jeweiligen Zeitinstanzen aufgenommen wurden.
  • 3 illustriert ein Beispielfragment eines Bilds eines Paars Bilder, erfasst durch eine Vorrichtung aus 1, nach einigen Ausführungsformen. Die X- und Y-Achsen sind in Ordinalpositionen der Pixel bezeichnet. Wie dargestellt können für ein einzelnes Bildelement (z. B. ein Pixel, das beispielsweise durch Ziffer 302 angegeben ist) mehrere Bilder (z. B. 304, 306) in derselben Pixel-„Nachbarschaft“ (räumliche Anordnung) zu unterschiedlichen (z. B. sukzessiven) Zeitinstanzen erzeugt werden, die mindestens Abschnitte des Bildelements 302 enthalten können. Beispielsweise kann ein Projektor ein Muster (Lichtpunkt) auf eine Szene zu einem Zeitpunkt t1 projizieren, und ein Bildpaar des Patchs, das dem Punkt entspricht, kann erzeugt werden. Der Projektor kann dann den Lichtpunkt (z. B. in einem Abstand, der weniger ist, als eine Größe des Musterpunkts) bewegen, und ein anderes (sukzessives) Bildpaar kann zum Zeitpunkt t2 aufgenommen werden. Diese Funktion kann eine Anzahl von Malen zu den Zeitinstanzen t1, t2, t3,... tN wiederholt werden.
  • So kann ein Bildelement (oder ein Abschnitt davon) in jedem der Bilder vorhanden sein, die in der räumlichen Nachbarschaft dieses Elements und zu unterschiedlichen Zeitinstanzen aufgenommen wurden. Jedes Bild kann einen Lichtintensitätswert aufweisen, der mit dem Bildelement assoziiert ist, der in dem Bild vorhanden ist.
  • Dementsprechend kann aus einer Reihe von Bildpaaren, die zu unterschiedlichen (z. B. sukzessiven) Zeiten t1, t2, t3... tN und an aneinander angrenzenden (oder überlappenden) Räumen, die den Lichtmustern entsprechen, die durch den Projektor projiziert werden, aufgenommen wurden, eine Bildpatchreihe aus der „Nachbarschaft“ des Bildelements (z. B. Pixel 302) sowohl in Raum als auch in Zeit aufgebaut werden. Mit anderen Worten kann aus mehreren Bildern und für jeden Bildpatch eine Zeitreihe, z. B. ein Vektor der verschiedenen Lichtintensitätswerte zu unterschiedlichen Zeitinstanzen, erstellt werden. Ein Standardstereoabgleich zu diesen Zeitreihen durchgeführt werden (statt auf einem einzelnen Patch oder einem räumlichen Fenster nach konventionellen Verfahren), durch Identifizierung von Disparitäten für entsprechende Bildpaare in einer Reihe, wie oben beschrieben. Auf Grundlage des Ergebnisses des Abgleichs kann ein hochauflösendes Tiefenbild eines Objekts erzeugt werden.
  • In anderen Ausführungsformen kann die Verarbeitung der Bildpaare, die als Reaktion auf eine Projektion des Lichtmusters eines Abschnitts einer Szene erzeugt wurden, wie folgt ausgeführt werden. Ein Merkmal eines Bilds kann vorgegeben und im Speicher 134 gespeichert werden, auf den der Prozessor 130 der Vorrichtung 100 zugreifen kann. Ein Merkmal kann einen Abschnitt eines Bilds mit vorgegebene Eigenschaften umfassen (z. B. Lichtintensitätswerte). Beispielsweise kann ein Merkmal ein Satz Lichtintensitätswerte sein, der einen Bildpatch definiert (z. B. entsprechend einem Punkt 304 oder 306 in 3). Beispielsweise kann ein Merkmal ein Muster umfassen, das aus mehreren Punkten besteht, wobei jeder Punkt einen entsprechenden Lichtintensitätswert aufweist. Zu Verarbeitungszwecken können ein oder mehrere Merkmale eines Bilds vorgegeben und gespeichert werden.
  • Ein Merkmal (oder Merkmale) kann/können entlang mehreren Rahmen verfolgt werden, die von der Szene erfasst werden. Bildpaare können als [L1, R1], [L2, R2], ..., [[IN, RN] definiert sein, wobei L and R Bildern entsprechen können, die durch die linke und rechte Kamera der Bildgebungsvorrichtung erfasst wurden. Wenn ein Merkmal in einem der Bilder identifiziert wurde, z. B. L1, kann ein entsprechendes Merkmal in dem entsprechenden Bild R1 identifiziert werden. Dies kann beispielsweise durch den oben beschriebenen Standardstereoabgleich erfolgen. Weiter kann ein Disparitätswert für das Merkmal an jeder der Zeitinstanzen t festgelegt werden, wo die Disparität (bezeichnet durch d(t)), der Unterschied der x-Koordinate des Merkmals sein kann.
  • Ferner kann eine Diskontinuität der Disparitäten d(t) erkannt werden. Die Diskontinuität ist ein mathematisches Prinzip. Namentlich kann eine kleine Änderung (infinitesimal) der Bewegung des Musters zu einer großen (nicht infinitesimalen) Änderung der Disparität führen. Die Diskontinuität kann eine Grenze eines Objekts in der Szene, Grenzen zwischen Objekten und so weiter definieren. Eine Grenze zwischen Objekten (oder eine Grenze zwischen einem Objekt und dem Hintergrund der Szene) kann durch Erkennung der Diskontinuität in dem Tiefenbild identifiziert werden. In den hierin beschriebenen Ausführungsformen kann eine Diskontinuität in mehreren Bildern erkannt werden, die eine bessere Auflösung des Tiefenbilds bereitstellen können. Da die Verfolgung des Merkmals in einer Subpixelweise mit Standardmerkmalsverfolgungstechniken (z. B. Lucas-Kanade) erfolgen kann, kann der Diskontinuitätsort x,y-Koordinaten) leicht in Subpixelgenauigkeit vorliegen.
  • Mit anderen Worten, der Ort der Grenze kann in einer fraktionalen Pixelauflösung erkannt werden, z. B. kann die Grenze zwischen Objekt und dem Hintergrund an Pixelkoordinaten bestimmt werden (z. B. x = 100,25 pix, y = 75,1 pix). Die Subpixel-Genauigkeit kann erreicht werden, wenn der Projektor zwischen der Aufnahme von zwei sukzessiven Bildpaaren bewegt werden kann, um das Muster (Lichtpunkt) für einen Abstand zu projizieren, der geringer ist, als die Größe des Pixels. 4 ist ein Beispielbild eines Objekts in einer Szene, die unter Verwendung der Techniken der vorliegenden Offenbarung erzeugt wurde, nach einigen Ausführungsformen. Das Objekt kann einem Objekt 122 (einer Person) in der Szene 120 von 1 entsprechen. Das Tiefenbild aus 4, das nach den Ausführungsformen dieser Offenbarung erzeugt wird, kann Tiefeninformationen in einer viel höheren räumlichen (x-y) Auflösung bereitstellen, als das Bild, das durch konventionelle Verfahren erfasst wurde. Im konventionellen Stereoabgleich kann ein Bildpatch einer bestimmten Größe, z. B. 8 × 8 Pixel, abgeglichen werden, was bedeutet, dass Objekte, die im Wesentlichen kleiner sind als diese Größe, nicht identifiziert werden können. Ferner kann die Tiefeninformation auf diese Größe gemittelt werden, z. B. 8 × 8 Fenster. Beispielsweise können für ein 640 × 480-Passungsbild, 80 × 60 nicht überlappende Patches erfasst werden und daher 80 × 60 unabhängige Tiefenmessungen ausgeführt werden. Die beschriebenen Ausführungsformen können auf einem einzigen Pixel (über einige Bildrahmen hinweg) funktionieren, sodass es keine Mittelung über x-y, sondern nur über den Zeitraum gibt, wenn angenommen wird, dass Objekt und Kamera statisch sind. Daher ist die x-y Auflösung viel höher. Mit anderen Worten können unabhängige Tiefenmessungen für jedes Pixel erfasst werden. 5 illustriert nach einigen Ausführungsformen ein beispielhaftes Verfahren, um ein Tiefenbild eines Objekts bereitzustellen. Der Ablauf 500 kann beispielsweise durch die Vorrichtung 100 ausgeführt werden, die mit Verweis auf 1 beschrieben ist. Genauer gesagt, kann der Ablauf 500 durch den Prozessor 130 als Reaktion auf die Ausführung der Anweisungen ausgeführt werden, um das Tiefenbild bereitzustellen, das in Speicher 134 gespeichert werden kann.
  • Der Ablauf 500 kann in Block 502 beginnen und enthalten, dass ein Projektor (z. B. Projektor 104) veranlasst wird, eine kontrollierte Bewegung zum Projizieren eines Lichtmusters (z. B. 124) auf unterschiedliche Abschnitte einer Szene (z. B. 120) zu unterschiedlichen Zeitinstanzen auszuführen.
  • In Block 504 kann der Ablauf 500 enthalten, Bildpaare unterschiedlicher Abschnitte der Szene 120 zu empfangen, die durch eine Bildgebungsvorrichtung 102 erzeugt wurden, die mit dem Projektor 104 verbunden ist, als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte. Dies kann den Empfang eines ersten Bilds eines Paars, das aus einer ersten Perspektive erfasst wurde, und den Empfang eines zweiten Bilds des Paars, das aus einer zweiten Perspektive erfasst wurde, umfassen, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sein können.
  • In Block 506 kann der Ablauf 500 die Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene enthalten. Die Verarbeitung kann in verschiedener Weise wie oben beschrieben erfolgen. Beispielsweise kann die Verarbeitung durch Stereoabgleich der Zeitreihen der Bildpaare erfolgen, wie ferner mit Verweis auf 6 beschrieben. In einem anderen Beispiel kann die Verarbeitung durch Verfolgung von Bildmerkmalen in Bildpaaren erfolgen, wie ferner mit Verweis auf 7 beschrieben.
  • In Block 508 kann der Ablauf 500 das Erzeugen des Tiefenbilds des Objekts in der Szene, basierend mindestens teilweise auf einem Ergebnis der Verarbeitung.
  • 6 illustriert ein beispielhaftes Verfahren zur Verarbeitung von Paaren von Bildern, die wie mit Verweis auf 1 bis 5 erfasst wurden, um ein Tiefenbild eines Objekts zu erzeugen, nach einigen Ausführungsformen. Der Ablauf 600 kann beispielsweise durch die Vorrichtung 100 ausgeführt werden, die mit Verweis auf 1 beschrieben ist. Genauer gesagt, kann der Ablauf 600 durch den Prozessor 130 als Reaktion auf die Ausführung der Anweisungen ausgeführt werden, um das Tiefenbild bereitzustellen, das in Speicher 134 gespeichert werden kann.
  • Der Ablauf 600 kann in Block 602 beginnen und die Bestimmung mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene enthalten, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten.
  • In Block 604 kann der Ablauf 600 die Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare enthalten.
  • In Block 606 kann der Ablauf 600 das Erzeugen von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements enthalten.
  • 7 illustriert ein weiteres beispielhaftes Verfahren zur Verarbeitung von Paaren von Bildern, die wie mit Verweis auf 1 bis 5 erfasst wurden, um ein Tiefenbild eines Objekts zu erzeugen, nach einigen Ausführungsformen. Der Ablauf 700 kann beispielsweise durch die Vorrichtung 100 ausgeführt werden, die mit Verweis auf 1 beschrieben ist. Genauer gesagt, kann der Ablauf 700 durch den Prozessor 130 als Reaktion auf die Ausführung der Anweisungen ausgeführt werden, um das Tiefenbild bereitzustellen, das in Speicher 134 gespeichert werden kann.
  • Der Ablauf 700 kann in Block 702 beginnen und die Identifizierung eines Merkmals eines Abschnitts der Szene in mindestens einigen ersten und zweiten Bildern von mindestens einigen Bildpaaren enthalten. Das Merkmal kann einen Satz vorgegebener Lichtintensitätswerte enthalten, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
  • In Block 704 kann der Prozess 700 die Bestimmung von Disparitätswerten für das Merkmal für jedes der ersten und zweiten Bilder enthalten.
  • In Block 706 kann der Ablauf 700 das Erzeugen von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals enthalten.
  • 8 illustriert eine beispielhafte Rechnervorrichtung 800, die sich zur Verwendung zur Ausführung von Aspekten der vorliegenden Offenbarung eignet, wie etwa mit einer Vorrichtung zum Bereitstellen eines Tiefenbilds, nach verschiedenen Ausführungsformen. Wie dargestellt, kann die Rechnervorrichtung 800 einen oder mehrere Prozessoren 802, die jeweils einen oder mehrere Prozessorkerne aufweisen, und Systemspeicher 804 enthalten. Der Prozessor 802 kann umgesetzt werden als integrierter Schaltkreis, der einen oder mehrere Kerne aufweist, z. B. einen Multicore-Mikroprozessor.
  • Die Rechnervorrichtung 800 kann Massenspeichervorrichtungen 806 enthalten (wie etwa Solid State Drives, flüchtige Speicher (z. B. dynamischen Random-Access Memory (DRAM)), und so weiter). Allgemein können der Systemspeicher 804 und/oder die Massenspeichervorrichtungen 806 temporal und/oder persistente Spicher jeder Art sein, einschließlich, aber nicht beschränkt auf flüchtigen oder nichtflüchtigen Speicher, optischen, magnetischen und/oder Solid-State-Massenspeicher und so weiter. Flüchtiger Speicher kann statischen und/oder dynamischen Random-Access Memory enthalten, ist jedoch nicht darauf beschränkt. Nichtflüchtiger Speicher kann elektrisch löschbaren programmierbaren Read-Only Memory, Phasenwechselspeicher, resistiven Speicher und so weiter enthalten, ist jedoch nicht darauf beschränkt. Systemspeicher 804 und/oder Massenspeichervorrichtungen 806 können jeweilige Kopien von Programmieranweisungen umfassen, die konfiguriert sind, Funktionen auszuführen, die sich beispielsweise auf Vorrichtung 1_00 beziehen, kollektiv bezeichnet als Rechnerlogik 822.
  • Die Rechnervorrichtung 800 kann ferner Ein-/Ausgabe- (E/A) Vorrichtungen 808 enthalten (wie etwa eine Anzeige (z. B. Anzeige 132 aus 1), Softkeyboard, berührungsempfindliche Anzeige, Bilderfassungsvorrichtung und so weiter) und Kommunikationsschnittstellen 810 (wie etwa Netzwerkschnittstellenkarten, Modems, Infrarotempfänger, Funkempfänger (z. B. Nahfeldkommunikation (NFC), Bluetooth, WiFi, 4G/8G Long-Term Evolution (LTE)), und so weiter). In Ausführungsformen kann die Rechnervorrichtung 800 die Bauteile der Vorrichtung 100 aus 1 umfassen oder enthalten. In einigen Ausführungsformen können die E/A-Vorrichtungen eine Bildgebungsvorrichtung 102 (die Kameras 106 und 108 enthalten kann) und Projektor 104 enthalten, wie mit Verweis auf 1 beschrieben.
  • Die Kommunikationsschnittstellen 810 könne Kommunikationschips enthalten (nicht dargestellt), die konfiguriert werden können, die Vorrichtung 800 nach einem Global System for Mobile Communication (GSM), General Packet Radio Service (GPRS), Universal Mobile Telecommunications System (UNITS), High Speed Packet Access (HS.PA), Evolved HSPA (E-HSPA) oder LTE-Netz zu bedienen. Die Kommunikationschips können außerdem konfiguriert sein, nach Enhanced Data for GSM Evolution (EDGE), GSM EDGE Radio Access Network. (GERAN), Universal Terrestrial Radio Access Network (UTRAN) oder Evolved UTRAN (E-UTRAN) zu funktionieren. Die Kommunikationschips können konfiguriert sein, nach Code Division Multiple Access (C.DMA), Time Division Multiple Access (TDMA), Digital Enhanced Cordless Telecommunications (DECT), Evolution-Data Optimized (EV-DO), Ableitungen davon sowie nach beliebigen Drahtlosprotokollen zu funktionieren, die als 3G, 4G, 5G und darüber hinaus bezeichnet sind. Die Kommunikationsschnittstellen 810 können in anderen Ausführungsformen nach anderen Drahtlosprotokollen funktionieren.
  • Die Elemente der oben beschriebenen Rechnervorrichtung 800 können miteinander über Systembus 812 verbunden sein, der einen oder mehrere Busse darstellen kann. Im Fall mehrerer Busse können diese durch eine oder mehrerer Busbrücken überbrückt werden (nicht dargestellt). Jedes dieser Elemente kann seine konventionellen Funktionen, die auf dem Stand der Technik bekannt sind, durchführen. Insbesondere können Systemspeicher 804 und Massenspeichervorrichtungen 806 eingesetzt werden, um eine Arbeitskopie und eine permanente Kopie der Programmieranweisungen zu speichern, die die Funktionen umsetzen, die mit der Vorrichtung 100 aus 1 assoziiert sind. Die verschiedenen Elemente können durch Assembleranweisungen umgesetzt werden, die durch einen oder mehrere Prozessor(en) 802 oder High-Level-Sprachen unterstützt werden, die in solche Anweisungen kompiliert werden können.
  • Die permanente Kopie der Programmieranweisungen der Rechnerlogik 822 kann in der Fabrik oder im Feld in permanenten Speichervorrichtungen 806 platziert werden, beispielsweise durch ein Verteilermedium (nicht dargestellt, wie eine Compact Disc (CD), oder durch Kommunikationsschnittstellen 810 (von einem Verteilerserver (nicht dargestellt)). D. h. eine oder mehrere nichttransitorische Verteilermeldungen die eine Umsetzung eines Agentenprogramms aufweisen, können eingesetzt werden, um den Agenten zu verteilen und verschiedene Rechnervorrichtungen zu programmieren. In Ausführungsformen können die Verteilermedien transitorisch sein, z. B. Signale, die mit den Anweisungen codiert sind.
  • Die Anzahl, Fähigkeit und/oder Kapazität der Elemente 808, 810, 812 kann variieren, je nachdem, ob die Rechnervorrichtung 800 als stationäre Rechnervorrichtung verwendet wird, wie etwa eine Set-Top-Box oder ein Desktopcomputer, oder eine mobile Rechnervorrichtung, wie etwa eine Tabletcomputervorrichtung, ein Laptopcomputer, eine Spielekonsole oder ein Smartphone. Ihre Konstitutionen sind anderweitig bekannt und werden entsprechend nicht weiter beschrieben.
  • Mindestens einer der Prozessoren 802 kann zusammen mit Speicher gepackt werden, der eine Rechnerlogik 822 aufweist, die konfiguriert ist, Aspekte von Ausführungsformen zu praktizieren, die mit Verweis auf 1 bis 7 beschrieben sind. Für eine Ausführungsform kann mindestens einer der Prozessoren 802 mit Speicher zusammengepackt werden, der eine Rechnerlogik 822 aufweist, um ein System-in-Package (SiP) oder ein System-on-Chip (SoC) zu bilden. Für mindestens eine Ausführungsform kann das SoC eingesetzt werden, um das Steuermodul 140 aus 1 zu bilden.
  • In verschiedenen Umsetzungen kann die Rechnervorrichtung 800 einen Laptop, ein Netbook, ein Notebook, ein Ultrabook, ein Smartphone, ein Tablet, einen Personal Digital Assistant (PDA), einen ultramobilen PC, ein Mobiltelefon, einen Desktopcomputer, einen Server, einen Drucker, einen Scanner, einen Monitor, eine Set-Top Box, eine Spielekonsole, eine Unterhaltungssteuereinheit, eine Digitalkamera, einen tragbaren Musikplayer oder einen digitalen Videorecorder umfassen. In weiteren Ausführungsformen kann die Rechnervorrichtung 800 jede andere elektronische Vorrichtung sein, die Daten verarbeitet und die Tiefenbilder von Objekten nutzt, die durch die Vorrichtung 100 aus 1 bereitgestellt wurden.
  • Die folgenden Absätze beschreiben Beispiele verschiedener Ausführungsformen.
    • Beispiel 1 kann eine Vorrichtung zur Bereitstellung eines Tiefenbilds eines Objekts in einer Szene sein, umfassend: einen Projektor zur Durchführung einer kontrollierten Steuerung eines Lichtmusters auf unterschiedlichen Abschnitten der Szene zu unterschiedlichen Zeitinstanzen; eine Bildgebungsvorrichtung, verbunden mit dem Projektor, zum Erzeugen von Bildpaaren der unterschiedlichen Abschnitte der Szene als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte, wobei das Erzeugen der Bildpaare für einen Abschnitt der Szene enthält, ein erstes Bild eines Paar aus einer ersten Perspektive zu erfassen und ein zweites Bild des Paars aus einer zweiten Perspektive zu erfassen, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; und einen Prozessor, der mit dem Projektor und der Bildgebungsvorrichtung verbunden ist, um die Steuerung des Lichtmusters zu steuern, und das Tiefenbild des Objekts in der Szene zu erzeugen, basierend mindestens teilweise auf der Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene.
    • Beispiel 2 kann den Inhalt von Beispiel 1 enthalten, wobei die Vorrichtung ferner einen Stellmotor umfasst, der mit dem Projektor verbunden ist, wobei der Prozessor den Stellmotor bedienen soll, die Bewegung des Projektors zu steuern, um das Lichtmuster um die Szene zu projizieren.
    • Beispiel 3 kann den Inhalt von Beispiel 1 enthalten, wobei die Bildgebungsvorrichtung eine erste Kamera und eine zweite Kamera umfasst, die in einem Abstand von und in einer Ebene mit der ersten Kamera angeordnet sind, wobei die erste und zweite Perspektive mindestens teilweise durch den Abstand zwischen den ersten und zweiten Kameras definiert sind.
    • Beispiel 4 kann den Inhalt von Beispiel 1 enthalten, wobei die Bildgebungsvorrichtung eine Kamera umfasst, wobei die Kamera eines der ersten oder zweiten Bilder des Paars erfassen soll, und der Prozessor ein anderes der ersten oder zweiten Bilder des Paars erzeugen soll, basierend mindestens teilweise auf einer Position eines Projektors relativ zu der Szene, zu einer Zeitinstanz einer Projektion des Lichtmusters auf einen jeweiligen Abschnitt der Szene.
    • Beispiel 5 kann den Inhalt von Beispiel 4 enthalten, wobei die Kamera eine Infrarot- (IR) Kamera enthält.
    • Beispiel 6 kann den Inhalt von Beispiel 1 enthalten, wobei das Lichtmuster einen oder mehrere Lichtpunkte umfasst.
    • Beispiel 7 kann den Inhalt von Beispiel 1 enthalten, wobei das Projizieren eines Lichtmusters auf unterschiedliche Abschnitte einer Szene durch den Projektor zu unterschiedlichen Zeitinstanzen enthält, den Projektor zu bewegen, um das Lichtmuster in zufälliger Weise über die Szene zu projizieren.
    • Beispiel 8 kann den Inhalt von Beispiel 1 enthalten, wobei der Prozessor die erzeugten Bildpaare verarbeiten soll, wobei die Verarbeitung enthält: Bestimmung mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars von mindestens einigen erzeugten Bildpaaren; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements.
    • Beispiel 9 kann den Inhalt von Beispiel 8 enthalten, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält.
    • Beispiel 10 kann den Inhalt von Beispiel 8 enthalten, wobei der Projektor zur Durchführung einer kontrollierten Steuerung enthält, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist als die Größe des Bildelements.
    • Beispiel 11 kann den Inhalt von Beispiel 1 enthalten, wobei der Prozessor die erzeugten Bildpaare verarbeiten soll, wobei die Verarbeitung enthält: Identifizierung eines Merkmals eines Abschnitts der Szene in mindestens einigen ersten und zweiten Bildern von mindestens einigen Bildpaaren; Bestimmung des Disparitätswerts für das Merkmal für jedes der mindestens einigen Bildpaare; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte enthält, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
    • Beispiel 12 kann den Inhalt von Beispiel 11 enthalten, wobei die Identifizierung eines Merkmals enthält: Abrufen eines Datensatzes, der das Merkmal angibt, von einem Speicher, auf den der Prozessor zugreifen kann; und Vergleich des abgerufenen Merkmalsdatensatzes mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
    • Beispiel 13 kann den Inhalt von Beispiel 11 enthalten, wobei das Bildelement ein Pixel umfasst, wobei der Projektor zur Durchführung einer kontrollierten Steuerung enthält, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist, als die Größe des Pixels.
    • Beispiel 14 kann den Inhalt von Beispiel 11 enthalten, wobei die Verarbeitung ferner umfasst, eine Diskontinuität für das Merkmal, basierend mindestens teilweise auf den Disparitätswerten zu erkennen.
    • Beispiel 15 kann ein rechnervorrichtungsumgesetztes Verfahren sein, um ein Tiefenbild eines Objekts in einer Szene bereitzustellen, umfassend: Veranlassen eines Projektors durch eine Rechnervorrichtung, eine kontrollierte Steuerung auszuführen, ein Lichtmuster auf unterschiedliche Abschnitte der Szene zu unterschiedlichen Zeitinstanzen zu projizieren; Empfang von Bildpaaren der verschiedenen Abschnitte der Szene, die durch eine Bildgebungsvorrichtung, die mit dem Projektor verbunden ist, erzeugt wurden, durch die Rechnervorrichtung als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte, einschließlich, für einen Abschnitt der Szene, Empfang eines ersten Bilds eines Paars, das aus einer ersten Perspektive aufgenommen wurde, und Empfang eines zweiten Bilds des Paars, das aus einer zweiten Perspektive aufgenommen wurde, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene durch die Rechnervorrichtung; und Erzeugung durch die Rechnervorrichtung des Tiefenbilds des Objekts in der Szene, basierend mindestens teilweise auf einem Ergebnis der Verarbeitung.
    • Beispiel 16 kann den Inhalt von Beispiel 15 enthalten, wobei die Verarbeitung enthält: Bestimmung mehrerer Lichtintensitätswerte durch die Rechnervorrichtung für ein Bildelement eines Abschnitts der Szene, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Identifizierung jeweiliger Orte für das Bildelement in den jeweiligen Bildern jedes Bildpaars von der mindestens einigen erzeugten Bildpaare durch die Rechnervorrichtung; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und den entsprechenden Orten des Bildelements durch die Rechnervorrichtung.
    • Beispiel 17 kann den Inhalt von Beispiel 16 enthalten, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält, wobei die Veranlassung eines Projektors, eine kontrollierte Steuerung auszuführen, umfasst, das Lichtmuster durch die Rechnervorrichtung zu veranlassen, sich um einen Abstand, der geringer ist, als die Größe des Bildelements, zwischen der Erfassung von zwei aufeinanderfolgenden Bildpaaren zu bewegen.
    • Beispiel 18 kann den Inhalt von Beispiel 15 enthalten, wobei die Verarbeitung enthält: Identifizierung durch die Rechnervorrichtung eines Merkmals eines Abschnitts der Szene in mindestens einigen ersten und zweiten Bildern von mindestens einigen Bildpaaren; Bestimmung von Disparitätswerten für das Merkmal für jedes der mindestens einigen Bildpaare durch die Rechnervorrichtung; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, durch die Rechnervorrichtung, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte umfasst, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
    • Beispiel 19 kann den Inhalt von Beispiel 18 enthalten, wobei die Identifizierung eines Merkmals eines Abschnitts der Szene enthält: Abrufen eines Datensatzes durch die Rechnervorrichtung, der das Merkmal von einem Speicher angibt, auf den der Prozessor zugreifen kann; und Vergleich des abgerufenen Merkmalsdatensatzes durch die Rechnervorrichtung mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
    • Beispiel 20 kann den Inhalt von Beispiel 18 enthalten, wobei das Bildelement ein Pixel enthält, wobei das Veranlassen des Projektors, eine kontrollierte Steuerung auszuführen, die Veranlassung durch die Rechnervorrichtung umfasst, das Lichtmuster zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist, als die Größe des Pixels.
    • Beispiel 21 kann ein oder mehrere nicht transitorische, durch eine Computervorrichtung lesbare Medien sein, die Anweisungen aufweisen, um ein Tiefenbild eines Objekts in einer Szene bereitzustellen, die darauf gespeichert ist, die als Reaktion auf die Ausführung auf einer Rechnervorrichtung die Rechnervorrichtung veranlasst: einen Projektor zu veranlassen, eine kontrollierte Steuerung auszuführen, um ein Lichtmuster zu unterschiedlichen Zeitinstanzen auf unterschiedliche Abschnitte der Szene zu projizieren; Bildpaare der unterschiedlichen Abschnitte der Szene zu empfangen, die von einer Bildgebungsvorrichtung erfasst wurden, die mit dem Projektor verbunden ist, als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte, einschließlich, für einen Abschnitt der Szene, den Empfang eines ersten Bilds eines Paars, das aus einer ersten Perspektive erfasst wurde, und dem Empfang eines zweiten Bilds des Paars das aus einer zweiten Perspektive erfasst wurde, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene; und Erzeugung des Tiefenbilds des Objekts in der Szene, basierend mindestens teilweise auf einem Ergebnis der Verarbeitung.
    • Beispiel 22 kann den Inhalt von Beispiel 21 enthalten, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, die erzeugten Bildpaare der Abschnitte der Szene zu verarbeiten, ferner die Rechnervorrichtung veranlassen: mehrere Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene zu bestimmen, for mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements.
    • Beispiel 23 kann den Inhalt von Beispiel 22 enthalten, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält, wobei die Anweisungen, einen Projektor zu veranlassen, eine kontrollierte Steuerung auszuführen, enthalten, ferner die Rechnervorrichtung zu veranlassen, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist, als eine Größe des Bildelements.
    • Beispiel 24 kann den Inhalt von 21 enthalten, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, die erzeugten Bildpaare der Abschnitte der Szene zu verarbeiten, ferner die Rechnervorrichtung veranlassen: ein Merkmal eines Abschnitts der Szene in mindestens einigen der ersten und zweiten Bilder von mindestens einigen Bildpaaren zu erzeugen; Disparitätswerte für das Merkmal für jedes der mindestens einigen Bildpaare zu bestimmen; und mindestens einen Abschnitt des Tiefenbilds des Objekts zu erzeugen, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte umfasst, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
    • Beispiel 25 kann den Inhalt von Beispiel 24 enthalten, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, ein Merkmal eines Abschnitts der Szene zu identifizieren, ferner die Rechnervorrichtung veranlassen: einen Datensatz, der ein Merkmal angibt, von einem Speicher abzurufen, auf den ein Prozessor zugreifen kann; und den abgerufenen Merkmalsdatensatz mit entsprechenden Datensätzen zu vergleichen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
    • Beispiel 26 kann eine Vorrichtung sei, um ein Tiefenbild eines Objekts in einer Szene bereitzustellen, umfassend: Mittel, einen Projektor zu veranlassen, eine kontrollierte Steuerung auszuführen, um ein Lichtmuster auf unterschiedliche Abschnitte der Szene zu unterschiedlichen Zeitinstanzen zu projizieren; Mittel zum Empfang von Bildpaaren der verschiedenen Abschnitte der Szene, die durch eine Bildgebungsvorrichtung erzeugt wurden, die mit dem Projektor gekoppelt ist, als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte, einschließlich, für einen Abschnitt der Szene, Empfang eines ersten Bilds eines Paars, das aus einer ersten Perspektive aufgenommen wurde und Empfang eines zweiten Bilds des Paars, das aus einer zweiten Perspektive aufgenommen wurde, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; Mittel zur Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene; und Mittel zur Erzeugung des Tiefenbilds des Objekts in der Szene, mindestens teilweise basierend auf einem Ergebnis der Verarbeitung.
    • Beispiel 27 kann den Inhalt von Beispiel 26 enthalten, wobei das Mittel zur Verarbeitung enthält: Mittel zur Bestimmung mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Mittel zur Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare; und Mittel zur Erzeugen von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements.
    • Beispiel 28 kann den Inhalt von 27 enthalten, wobei das Bildelement einen oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält, wobei das Mittel, einen Projektor zu veranlassen, eine kontrollierte Steuerung auszuführen, Mittel enthält, um das Lichtmuster zu veranlassen, sich zwischen Aufnahmen von zwei sukzessiven Bildpaaren um einen Abstand, der geringer ist, als eine Größe des Bildelements, zu bewegen.
    • Beispiel 29 kann den Inhalt von Beispiel 26 enthalten, wobei das Mittel zur Verarbeitung enthält: Mittel zur Identifizierung eines Merkmals eines Abschnitts der Szene in mindestens einigen der ersten und zweiten Bilder von mindestens einigen Bildpaaren; Mittel zur Bestimmung von Disparitätswerten für das Merkmal für jedes der mindestens einigen Bildpaare; und Mittel zur Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte enthält, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
    • Beispiel 30 kann den Inhalt von Beispiel 29 enthalten, wobei das Mittel zur Identifizierung eines Merkmals eines Abschnitts der Szene enthält: Mittel zum Abrufen eines Datensatzes, der das Merkmal angibt, von einem Speicher, auf den ein Prozessor zugreifen kann; und Mittel zum Vergleich des abgerufenen Merkmalsdatensatzes mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
    • Beispiel 31 kann den Inhalt von Beispiel 29 enthalten, wobei das Bildelement ein Pixel umfasst, wobei das Mittel, um den Projektor zu veranlassen, eine kontrollierte Steuerung durchzuführen, ein Mittel umfasst, das Lichtmuster zu veranlassen, sich zwischen Aufnahmen von zwei sukzessiven Bildpaaren um einen Abstand, der geringer ist als eine Größe des Pixels, zu bewegen.
  • Auch, wenn bestimmte Ausführungsformen hierin zum Zweck der Beschreibung illustriert und beschrieben wurden, kann eine große Vielzahl von alternativen und/oder entsprechenden Ausführungsformen oder Umsetzungen, die berechnet sind, dieselben Zwecke zu erreichen, anstelle der darstellten und beschriebenen Ausführungsformen verwendet werden, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Diese Anweisung soll alle Anpassungen oder Variationen der Ausführungsformen abdecken, die hierin besprochen wurden. Daher ist es im Wesentlichen vorgesehen, dass die hierin beschriebenen Ausführungsformen nur durch die Ansprüche beschränkt sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15190031 [0001]

Claims (25)

  1. Vorrichtung zur Bereitstellung eines Tiefenbilds eines Objekts in einer Szene, umfassend: einen Projektor, um eine kontrollierte Steuerung eines Lichtmusters auf unterschiedliche Abschnitte der Szene zu unterschiedlichen Zeitinstanzen auszuführen; eine Bildgebungsvorrichtung, verbunden mit dem Projektor, um Bildpaare der unterschiedlichen Abschnitte der Szene als Reaktion auf die Projektion des Lichtmusters auf jeweiligen Abschnitten zu erzeugen, wobei das Erzeugen von Bildpaaren für einen Abschnitt der Szene enthält, ein erstes Bild eines Paars aus einer ersten Perspektive aufzunehmen und ein zweites Bild des Paars aus einer zweiten Perspektive aufzunehmen, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; und einen Prozessor, der mit dem Projektor und der Bildgebungsvorrichtung verbunden ist, um das Lichtmuster zu steuern und das Tiefenbild des Objekts in der Szene zu erzeugen, basierend mindestens teilweise auf der Verarbeitung der erzeugten Bildpaare der Abschnitte der Szene.
  2. Vorrichtung nach Anspruch 1, wobei die Vorrichtung ferner einen Stellmotor umfasst, der mit dem Projektor verbunden ist, wobei der Prozessor den Stellmotor bedienen soll, um die Bewegung des Projektors zu steuern, um das Lichtmuster um die Szene zu projizieren.
  3. Vorrichtung nach Anspruch 1, wobei die Bildgebungsvorrichtung eine erste Kamera und eine zweite Kamera umfasst, die in einem Abstand von und in einer Ebene mit der ersten Kamera angeordnet ist, wobei die erste und zweite Perspektive mindestens teilweise durch den Abstand zwischen der ersten und zweiten Kamera definiert sind.
  4. Vorrichtung nach Anspruch 1, wobei die Bildgebungsvorrichtung eine Kamera umfasst, wobei die Kamera eines der ersten oder zweiten Bilder des Paars erfassen soll, und der Prozessor ein anderes der ersten oder zweiten Bilder des Paars erzeugen soll, basierend mindestens teilweise auf einer Position des Projektors relativ zu der Szene, zu einer Zeitinstanz einer Projektion des Lichtmusters auf einen jeweiligen Abschnitt der Szene.
  5. Vorrichtung nach Anspruch 4, wobei die Kamera eine Infrarot- (IR) Kamera enthält.
  6. Vorrichtung nach Anspruch 1, wobei das Lichtmuster einen oder mehrere Lichtpunkte umfasst.
  7. Vorrichtung nach Anspruch 1, wobei das Projizieren eines Lichtmusters auf unterschiedliche Abschnitte einer Szene durch den Projektor zu unterschiedlichen Zeitinstanzen enthält, den Projektor zu bewegen, um das Lichtmuster in zufälliger Weise um die Szene zu projizieren.
  8. Vorrichtung nach Anspruch 1, wobei der Prozessor die erzeugten Bildpaare verarbeiten soll, wobei die Verarbeitung enthält: Bestimmung mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements.
  9. Vorrichtung nach Anspruch 8, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält.
  10. Vorrichtung nach Anspruch 8, wobei der Projektor zur Durchführung einer kontrollierten Steuerung enthält, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist, als die Größe des Bildelements.
  11. Vorrichtung nach Anspruch 1, wobei der Prozessor die erzeugten Bildpaare verarbeiten soll, wobei die Verarbeitung enthält: Identifizierung eines Merkmals eines Abschnitts der Szene in mindestens einigen ersten und zweiten Bildern von mindestens einigen Bildpaaren; Bestimmung des Disparitätswerts für das Merkmal für jedes der mindestens einigen Bildpaare; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte umfasst, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
  12. Vorrichtung nach Anspruch 11, wobei die Identifizierung eines Merkmals enthält: Abruf eines Datensatzes, der das Merkmal angibt, von einem Speicher, auf den der Prozessor zugreifen kann; und Vergleich des abgerufenen Merkmaldatensatzes mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
  13. Vorrichtung nach Anspruch 11, wobei das Bildelement ein Pixel umfasst, wobei der Projektor zur Durchführung einer kontrollierten Steuerung enthält, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist als die Größe des Pixels.
  14. Vorrichtung nach Anspruch 11, wobei die Verarbeitung ferner umfasst, eine Diskontinuität für das Merkmal, basierend mindestens teilweise auf den Disparitätswerten, zu erkennen.
  15. Rechnervorrichtungsumgesetztes Verfahren zur Bereitstellung eines Tiefenbilds eines Objekts in einer Szene, umfassend: Veranlassen der Ausführung einer kontrollierten Steuerung durch einen Projektor zum Projizieren eines Lichtmusters auf unterschiedliche Abschnitte der Szene zu unterschiedlichen Zeitinstanzen durch eine Rechnervorrichtung; Empfangen von Bildpaaren verschiedener Abschnitte einer Szene, die durch eine Bildgebungsvorrichtung erzeugt wurde, die mit dem Projektor verbunden ist, durch die Rechnervorrichtung als Reaktion auf das Projizieren des Lichtmusters auf jeweilige Abschnitte, einschließlich, für einen Abschnitt der Szene, des Empfangens eines ersten Bilds eines Paars, das aus einer ersten Perspektive aufgenommen wurde, und Empfangen eines zweiten Bilds des Paars, das aus einer zweiten Perspektive aufgenommen wurde, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; Verarbeiten der erzeugten Bildpaare der Abschnitte der Szene durch die Rechnervorrichtung; und Erzeugen des Tiefenbilds des Objekts in der Szene, basierend mindestens teilweise auf einem Ergebnis der Verarbeitung durch die Rechnervorrichtung.
  16. Rechnervorrichtungsumgesetztes Verfahren nach Anspruch 15, wobei die Verarbeitung enthält: Bestimmung mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten, durch die Rechnervorrichtung; Identifizierung entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare, durch die Rechnervorrichtung; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements, durch die Rechnervorrichtung.
  17. Rechnervorrichtungsumgesetztes Verfahren nach Anspruch 16, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält, wobei das Veranlassen eines Projektors, eine kontrollierte Steuerung auszuführen, umfasst, das Lichtmuster durch die Rechnervorrichtung zu veranlassen, sich um einen Abstand, der geringer ist als eine Größe des Bildelements, zwischen der Erfassung von zwei sukzessiven Bildpaaren zu bewegen.
  18. Rechnervorrichtungsumgesetztes Verfahren nach Anspruch 15, wobei die Verarbeitung enthält: Identifizierung eines Merkmals eines Abschnitts der Szene in mindestens einigen Bildern von mindestens einigen Bildpaaren durch die Rechnervorrichtung; Bestimmung von Disparitätswerten für das Merkmal für jedes der mindestens einigenen Bildpaare durch die Rechnervorrichtung; und Erzeugung von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, durch die Rechnervorrichtung, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte umfasst, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
  19. Rechnervorrichtungsumgesetztes Verfahren nach Anspruch 18, wobei die Identifizierung eines Merkmals eines Abschnitts der Szene enthält: Abruf eines Datensatzes, der das Merkmal angibt, von einem Speicher, auf den der Prozessor zugreifen kann, durch die Rechnervorrichtung; und Vergleich des abgerufenen Merkmaldatensatzes mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind, durch die Rechnervorrichtung.
  20. Rechnervorrichtungsumgesetztes Verfahren nach Anspruch 18, wobei das Bildelement ein Pixel enthält, wobei das Veranlassen des Projektors, eine kontrollierte Steuerung auszuführen, das Veranlassen durch die Rechnervorrichtung umfasst, das Lichtmuster zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist, als die Größe des Pixels.
  21. Ein oder mehrere nicht transitorische durch die Rechnervorrichtung lesbare Medien, auf denen Anweisungen zum Bereitstellen eines Tiefenbilds eines Objekts in einer Szene gespeichert sind, die, als Reaktion auf die Ausführung durch eine Rechnervorrichtung, die Rechnervorrichtung veranlassen zum: Veranlassen der Ausführung einer kontrollierten Steuerung durch einen Projektor zum Projizieren eines Lichtmusters auf unterschiedliche Abschnitte der Szene zu unterschiedlichen Zeitinstanzen; Empfangen von Bildpaaren der verschiedene Abschnitte der Szene, die durch eine Bildgebungsvorrichtung erzeugt wurde, die mit dem Projektor verbunden ist, als Reaktion auf die Projektion des Lichtmusters auf jeweilige Abschnitte, einschließlich, für einen Abschnitt der Szene, des Empfangens eines ersten Bilds eines Paars, das aus einer ersten Perspektive aufgenommen wurde, und Empfangens eines zweiten Bilds des Paars, das aus einer zweiten Perspektive aufgenommen wurde, wobei die erste und zweite Perspektive unterschiedliche Perspektiven sind; Verarbeiten der erzeugten Bildpaare der Abschnitte der Szene; und Erzeugen des Tiefenbilds des Objekts in der Szene, basierend mindestens teilweise auf einem Ergebnis der Verarbeitung.
  22. Ein oder mehrere nicht transitorische durch die Rechnervorrichtung lesbare Medien nach Anspruch 21, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, die erzeugten Bildpaare der Abschnitte der Szene zu verarbeiten, ferner die Rechnervorrichtung veranlassen zum: Bestimmen mehrerer Lichtintensitätswerte für ein Bildelement eines Abschnitts der Szene, für mindestens einige erzeugte Bildpaare, die das Bildelement enthalten; Identifizieren entsprechender Orte für das Bildelement in jeweiligen Bildern jedes Bildpaars der mindestens einigen erzeugten Bildpaare; und Erzeugen von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten mehreren Intensitätswerten und entsprechenden Orten des Bildelements.
  23. Ein oder mehrere nicht transitorische von der Rechnervorrichtung lesbare Medien nach Anspruch 22, wobei das Bildelement ein oder mehrere Pixel eines Bilds des Abschnitts der Szene enthält, wobei die Anweisungen, einen Projektor zu veranlassen, eine kontrollierte Steuerung auszuführen, enthalten, ferner die Rechnervorrichtung zu veranlassen, das Lichtmuster zu veranlassen, sich zwischen der Erfassung von zwei sukzessiven Bildpaaren um einen Abstand zu bewegen, der geringer ist als eine Größe des Bildelements.
  24. Ein oder mehrere nicht transitorische durch die Rechnervorrichtung lesbare Medien nach Anspruch 21, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, die erzeugten Bildpaare der Abschnitte der Szene zu verarbeiten, ferner die Rechnervorrichtung veranlassen zum: Identifizieren eines Merkmals eines Abschnitts der Szene in mindestens einigen ersten und zweiten Bildern von mindestens einigen Bildpaaren; Bestimmen von Disparitätswerten für das Merkmal für jedes der mindestens einigen Bildpaare; und Erzeugen von mindestens einem Abschnitt des Tiefenbilds des Objekts, basierend mindestens teilweise auf den bestimmten Disparitätswerten des Merkmals, wobei das Merkmal einen Satz vorgegebener Lichtintensitätswerte umfasst, die mit einem Bildelement des ersten oder zweiten Bilds assoziiert sind.
  25. Ein oder mehrere nicht transitorische durch die Rechnervorrichtung lesbare Medien nach Anspruch 24, wobei die Anweisungen, die die Rechnervorrichtung veranlassen, ein Merkmal eines Abschnitts der Szene zu identifizieren, ferner die Rechnervorrichtung veranlassen zum: Abruf eines Datensatzes, der das Merkmal angibt, von einem Speicher, auf den der Prozessor zugreifen kann; und Vergleich des abgerufenen Merkmaldatensatzes mit entsprechenden Datensätzen, die mit den ersten und zweiten Bildern des Abschnitts der Szene assoziiert sind.
DE112017003143.5T 2016-06-22 2017-05-16 Tiefenbildbereitstellungsvorrichtung und -verfahren Pending DE112017003143T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/190,031 2016-06-22
US15/190,031 US10609359B2 (en) 2016-06-22 2016-06-22 Depth image provision apparatus and method
PCT/US2017/032982 WO2017222677A1 (en) 2016-06-22 2017-05-16 Depth image provision apparatus and method

Publications (1)

Publication Number Publication Date
DE112017003143T5 true DE112017003143T5 (de) 2019-04-04

Family

ID=60675680

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017003143.5T Pending DE112017003143T5 (de) 2016-06-22 2017-05-16 Tiefenbildbereitstellungsvorrichtung und -verfahren

Country Status (5)

Country Link
US (1) US10609359B2 (de)
KR (1) KR102461093B1 (de)
CN (1) CN110140347B (de)
DE (1) DE112017003143T5 (de)
WO (1) WO2017222677A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI626423B (zh) * 2016-09-12 2018-06-11 財團法人工業技術研究院 手觸偵測裝置、手觸偵測方法及應用其之智慧投影系統
CN111316138B (zh) 2017-05-24 2022-05-17 纽约市哥伦比亚大学理事会 色散工程化介电超表面的宽带消色差平坦光学部件
SG11202001717VA (en) 2017-08-31 2020-03-30 Metalenz Inc Transmissive metasurface lens integration
US20190310373A1 (en) * 2018-04-10 2019-10-10 Rosemount Aerospace Inc. Object ranging by coordination of light projection with active pixel rows of multiple cameras
US11069074B2 (en) 2018-04-23 2021-07-20 Cognex Corporation Systems and methods for improved 3-D data reconstruction from stereo-temporal image sequences
US10922986B2 (en) 2018-07-18 2021-02-16 Simmons Precision Products, Inc. Taxi strike alert system
US11181368B2 (en) 2018-08-20 2021-11-23 Simmonds Precision Products, Inc. Visibility range sensing
US11589031B2 (en) * 2018-09-26 2023-02-21 Google Llc Active stereo depth prediction based on coarse matching
KR20200068924A (ko) * 2018-12-06 2020-06-16 삼성전자주식회사 렌즈 어셈블리 및 그를 포함하는 전자 장치
CN109640066B (zh) * 2018-12-12 2020-05-22 深圳先进技术研究院 高精度稠密深度图像的生成方法和装置
CN109934866B (zh) * 2019-03-07 2020-12-08 武大吉奥信息技术有限公司 一种图斑划分模式的提取方法、拷贝方法及装置
EP4290878A3 (de) * 2019-07-23 2024-03-06 R-Go Robotics Ltd Verfahren zur kooptimierung von bewegung und sensorischer steuerung
KR20220035971A (ko) 2019-07-26 2022-03-22 메탈렌츠 인코포레이티드 개구-메타 표면 및 하이브리드 굴절-메타 표면 이미징 시스템
US11763433B2 (en) * 2019-11-14 2023-09-19 Samsung Electronics Co., Ltd. Depth image generation method and device
US11132804B2 (en) * 2020-01-07 2021-09-28 Himax Technologies Limited Hybrid depth estimation system
US20230262311A1 (en) * 2020-06-04 2023-08-17 Lg Electronics Inc. Camera apparatus and electronic device including the same
KR20220133518A (ko) * 2021-03-25 2022-10-05 삼성전자주식회사 전자 장치 및 카메라의 원거리 성능 향상 방법
KR102559105B1 (ko) 2021-10-20 2023-07-26 한국과학기술원 로봇 손 시스템 및 로봇 손 제어 방법
US11927769B2 (en) 2022-03-31 2024-03-12 Metalenz, Inc. Polarization sorting metasurface microlens array device

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1259777A (en) 1917-10-11 1918-03-19 August Rahnn Tool-stock.
DE19829986C1 (de) 1998-07-04 2000-03-30 Lis Laser Imaging Systems Gmbh Verfahren zur Direktbelichtung von Leiterplattensubstraten
DE10038622A1 (de) 2000-08-03 2002-02-21 Leica Microsystems Scan-Mikroskop,optische Anordnung und Verfahren zur Bildaufnahme in der Scan-Mikroskopie
JP4761670B2 (ja) 2001-08-27 2011-08-31 三洋電機株式会社 動立体モデル生成装置及び方法
DE10219054B4 (de) 2002-04-24 2004-08-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
JP4203260B2 (ja) 2002-05-13 2008-12-24 日本信号株式会社 揺動型走査装置
US7103212B2 (en) 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
JP5356650B2 (ja) 2004-01-15 2013-12-04 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 三次元ビデオスキャナ
JP4743598B2 (ja) 2005-06-28 2011-08-10 株式会社オプセル 物体の表面形状を観察測定する装置
US7573022B2 (en) 2005-07-27 2009-08-11 The Regents Of The University Of California Method for fabricating vertically-offset interdigitated comb actuator device
US20070115484A1 (en) 2005-10-24 2007-05-24 Peisen Huang 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration
US8928720B2 (en) 2005-10-27 2015-01-06 Hewlett-Packard Development Company, L.P. Apparatus and method of scanning light using an array of light sources
US20110057930A1 (en) 2006-07-26 2011-03-10 Inneroptic Technology Inc. System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
US7869474B2 (en) 2008-01-10 2011-01-11 William Marsh Rice University Fast wavelength tuning techniques for external cavity lasers
US8014002B2 (en) 2008-04-01 2011-09-06 Perceptron, Inc. Contour sensor incorporating MEMS mirrors
CN102132191B (zh) 2008-08-21 2012-10-17 柯尼卡美能达精密光学株式会社 激光投射装置
US7920262B2 (en) 2008-09-17 2011-04-05 The United States Of America As Represented By The Secretary Of The Army Systems for measuring backscattered light using rotating mirror
KR101001853B1 (ko) 2008-11-07 2010-12-17 고려대학교 산학협력단 병렬 3차원 공초점 표면형상 측정기 및 이를 이용한 표면형상 측정방법
US8861833B2 (en) 2009-02-18 2014-10-14 International Press Of Boston, Inc. Simultaneous three-dimensional geometry and color texture acquisition using single color camera
JP5218186B2 (ja) 2009-03-18 2013-06-26 ブラザー工業株式会社 画像表示装置
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction
JP4772894B2 (ja) 2009-08-03 2011-09-14 シャープ株式会社 画像出力装置、携帯端末装置、撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
EP2400261A1 (de) 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
CN101995657A (zh) 2010-09-15 2011-03-30 华为技术有限公司 一种光开关的方法及一种光开关
US20120200829A1 (en) 2011-02-09 2012-08-09 Alexander Bronstein Imaging and projecting devices and methods
JP2012202803A (ja) 2011-03-25 2012-10-22 Space Vision:Kk パターン光投影装置及び方法
JP5869281B2 (ja) 2011-04-11 2016-02-24 株式会社ミツトヨ 光学式プローブ
CN102760234B (zh) 2011-04-14 2014-08-20 财团法人工业技术研究院 深度图像采集装置、系统及其方法
EP2786859B1 (de) 2011-06-28 2019-08-07 Global Filtration Systems, A DBA of Gulf Filtration Systems Inc. Vorrichtung zur Bildung dreidimensionaler Gegenstände mittels linearer Erstarrung
EP2574877B1 (de) 2011-09-30 2017-11-08 Mitutoyo Corporation Optische Sonde
EP2770295B1 (de) 2011-10-11 2019-11-27 Nikon Corporation Formmessvorrichtung, system zur herstellung von strukturen, formmessverfahren, verfahren zur herstellung von strukturen und formmessprogramm
US9098908B2 (en) * 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US10341627B2 (en) 2012-06-28 2019-07-02 Intermec Ip Corp. Single-handed floating display with selectable content
WO2014014838A2 (en) 2012-07-15 2014-01-23 2R1Y Interactive illumination for gesture and/or object recognition
EP2880635B1 (de) 2012-07-30 2018-10-10 Zinemath Zrt. System und verfahren zur erzeugung eines dynamischen dreidimensionalen modells
KR20140056986A (ko) 2012-11-02 2014-05-12 삼성전자주식회사 모션 센서 어레이 장치, 상기 모선 센서 어레이를 이용한 거리 센싱 시스템, 및 거리 센싱 방법
CN103066487A (zh) 2012-12-25 2013-04-24 中国科学院长春光学精密机械与物理研究所 一种生成高功率光学外差激光干涉模式的装置及方法
US9407837B2 (en) 2013-02-28 2016-08-02 Google Inc. Depth sensor using modulated light projector and image sensor with color and IR sensing
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
GB2529730B (en) 2013-06-28 2020-04-15 Intel Corp MEMS scanning mirror light pattern generation
US9467680B2 (en) 2013-12-12 2016-10-11 Intel Corporation Calibration of a three-dimensional acquisition system
KR102209814B1 (ko) 2013-12-13 2021-02-01 삼성전자주식회사 데이터 처리 방법 및 이를 지원하는 전자 장치
CN103796004B (zh) * 2014-02-13 2015-09-30 西安交通大学 一种主动结构光的双目深度感知方法
JP6363863B2 (ja) 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
WO2015184308A1 (en) 2014-05-29 2015-12-03 Northwestern University Motion contrast depth scanning
US9582888B2 (en) 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
KR101541805B1 (ko) 2014-07-01 2015-08-05 경북대학교 산학협력단 구조조명 방식의 깊이 절단 방법 및 카메라 구조
US9800795B2 (en) * 2015-12-21 2017-10-24 Intel Corporation Auto range control for active illumination depth camera

Also Published As

Publication number Publication date
CN110140347A (zh) 2019-08-16
KR102461093B1 (ko) 2022-10-31
CN110140347B (zh) 2022-06-14
WO2017222677A1 (en) 2017-12-28
US20170374352A1 (en) 2017-12-28
KR20190039667A (ko) 2019-04-15
US10609359B2 (en) 2020-03-31

Similar Documents

Publication Publication Date Title
DE112017003143T5 (de) Tiefenbildbereitstellungsvorrichtung und -verfahren
US10194138B2 (en) Structured light encoding-based vertical depth perception apparatus
DE112020003794T5 (de) Tiefenbewusste Fotobearbeitung
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE112016006069T5 (de) Stereotiefenkamera mit vcsel-projektor mit gesteuerten projektionslinsen
EP3005292B1 (de) 3d-aufnahmevorrichtung, verfahren zur erstellung eines 3d-bildes und verfahren zur einrichtung einer 3d-aufnahmevorrichtung
DE112016005865T5 (de) Automatische Bereichssteuerung für Tiefenkamera mit aktiver Beleuchtung
DE102015005267A1 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112016004114T5 (de) Stereorenderingsystem
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE112014006439B4 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE112016006262T5 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
KR102387891B1 (ko) 화상 처리장치, 화상 처리장치의 제어방법, 및 컴퓨터 판독가능한 기억매체
DE102014222617A1 (de) Fahrzeugerfassungsverfahren und Fahrzeugerfassungssytem
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
DE112018006130T5 (de) Codierungsvorrichtung, codierungsverfahren, decodierungsvorrichtung und decodierungsverfahren
DE112018007171T5 (de) Abnormalitätsinspektionsvorrichtung und abnormalitätsinspektionsverfahren
DE202016008530U1 (de) Vereinheitlichte Bildbearbeitung für zusammengesetzte Bilder auf Basis räumlich nebeneinander angeordneter Bereiche
DE102019205783A1 (de) Systeme und Verfahren für verbesserte 3D-Daten-Rekonstruktion aus stereo-temporalen Bildsequenzen
DE102015110955A1 (de) Informationsverarbeitungsvorrichtung zum Erfassen eines Objekts von einem Bild, Verfahren zum Steuern der Vorrichtung und Speichermedien
DE102016100132A1 (de) Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen
TWI716874B (zh) 影像處理裝置、影像處理方法、及影像處理程式
DE102020207974B4 (de) Systeme und verfahren zum nachweis von bewegung während 3d-datenrekonstruktion

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013040000

Ipc: H04N0013128000

R081 Change of applicant/patentee

Owner name: SONY CORPORATION, JP

Free format text: FORMER OWNER: INTEL CORPORATION, SANTA CLARA, CALIF., US

R082 Change of representative

Representative=s name: MUELLER HOFFMANN & PARTNER PATENTANWAELTE MBB, DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013128000

Ipc: G01C0011140000