DE112015005711T5 - Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse - Google Patents

Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse Download PDF

Info

Publication number
DE112015005711T5
DE112015005711T5 DE112015005711.0T DE112015005711T DE112015005711T5 DE 112015005711 T5 DE112015005711 T5 DE 112015005711T5 DE 112015005711 T DE112015005711 T DE 112015005711T DE 112015005711 T5 DE112015005711 T5 DE 112015005711T5
Authority
DE
Germany
Prior art keywords
light
interest
lens
illuminator
illuminated region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112015005711.0T
Other languages
English (en)
Inventor
Jamyuen Ko
Chung Chun Wan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112015005711T5 publication Critical patent/DE112015005711T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Es wird eine Vorrichtung mit einem integrierten zweidimensionalen Bilderfassungs- und dreidimensionalen Laufzeittiefenerfassungssystem beschrieben. Das integrierte zweidimensionale Bilderfassungs- und dreidimensionale Laufzeittiefenerfassungssystem umfasst einen Beleuchter, um Licht für das Laufzeittiefenerfassungssystem zu erzeugen. Der Beleuchter umfasst eine Anordnung von Lichtquellen und eine bewegliche Linsenbaugruppe. Die bewegliche Linsenbaugruppe dient dazu, einen emittierten Strahl des Lichts auf einen von irgendwelchen von mehreren Orten innerhalb des Sichtfelds des Beleuchters beweglich zu richten, um eine beleuchtete Region von Interesse innerhalb des Sichtfelds des Beleuchters zu bilden. Die beleuchtete Region von Interesse weist eine Größe auf, die kleiner ist als das Sichtfeld des Beleuchters.

Description

  • Gebiet der Erfindung
  • Das Gebiet der Erfindung betrifft generell Computersystemperipherievorrichtungen und insbesondere ein integriertes Kamerasystem mit zweidimensionaler Bilderfassung und dreidimensionaler Laufzeiterfassung mit beweglicher beleuchteter Region von Interesse.
  • Allgemeiner Stand der Technik
  • Viele vorhandene Computersysteme umfassen eine herkömmliche Kamera als eine integrierte Peripherievorrichtung. Ein gegenwärtiger Trend besteht daraus, Computersystembildgebungsvermögen durch Integrieren von Tiefenerfassung in die Bildgebungskomponenten zu verbessern. Tiefenerfassung kann beispielsweise verwendet werden, um verschiedene intelligente Objekterkennungsfunktionen wie Gesichtserkennung (z. B. zur sicheren Systementsperrung) oder Handgestenerkennung (z. B. für berührungslose Benutzerschnittstellenfunktionen) auszuführen.
  • Eine Herangehensweise zur Tiefeninformationserfassung, die als „Laufzeit-“Bildgebung bezeichnet wird, emittiert Licht von einem System auf ein Objekt und misst für jedes von mehreren Pixeln eines Bildsensors, die Zeit zwischen der Emission des Lichts und dem Empfangen seines Spiegelbildes am Sensor. Das von den Laufzeitpixeln erzeugte Bild entspricht einem dreidimensionalen Profil des Objekts, wie gekennzeichnet, durch eine einzigartige Tiefenmessung (z) an jeder von den unterschiedlichen (x, y) Pixelpositionen.
  • Da viele Computersysteme mit Bildgebungsvermögen in der Art mobil sind (z. B. Laptops, Tabletcomputer, Smartphones usw.), stellt die Integration einer Lichtquelle („Beleuchter“) in das System, um einen Laufzeitbetrieb zu erreichen, eine Anzahl von Designherausforderungen wie beispielsweise Herausforderungen bezüglich Kosten, Packaging und/oder Energieverbrauch.
  • Kurzdarstellung
  • Es wird eine Vorrichtung mit einem integrierten zweidimensionalen Bilderfassungs- und dreidimensionalen Laufzeittiefenerfassungssystem beschrieben. Das integrierte System umfasst einen Beleuchter zum Erzeugen von Licht für das Laufzeittiefenerfassungssystem. Der Beleuchter umfasst eine Anordnung (Array) von Lichtquellen und eine bewegliche Linsenbaugruppe. Die bewegliche Linsenbaugruppe dient dazu, einen emittierten Strahl des Lichts auf einen von irgendwelchen von mehreren Orten innerhalb des Sichtfelds des Beleuchters beweglich zu richten, um eine beleuchtete Region von Interesse innerhalb des Sichtfelds des Beleuchters zu bilden. Die beleuchtete Region von Interesse weist eine Größe auf, die kleiner ist als das Sichtfeld des Beleuchters.
  • Figuren
  • Die folgende Beschreibung und die begleitenden Zeichnungen werden verwendet, um Ausführungsformen der Erfindung zu veranschaulichen. In den Zeichnungen:
  • 1a zeigt einen Beleuchter und sein Sichtfeld;
  • 1b zeigt eine erste beleuchtete Region von Interesse;
  • 1c zeigt eine zweite beleuchtete Region von Interesse;
  • 1d zeigt Scannen einer beleuchteten Region von Interesse;
  • 1e zeigt unterschiedlich dimensionierte beleuchtete Regionen von Interesse;
  • 2a zeigt eine Seitenansicht eines Beleuchters, der fähig ist, eine Region von Interesse zu beleuchten und die beleuchtete Region von Interesse zu scannen.
  • 2b zeigt eine Draufsicht des Beleuchters von 2a;
  • 3a veranschaulicht das Ändern der Größe der beleuchteten Region von Interesse durch Anpassen des Abstandes zwischen einer Linse und einer Lichtquellenanordnung;
  • 3b veranschaulicht, dass die Richtung eines emittierten Strahls durch Anpassen des seitlichen Versatzes einer Linse in Bezug auf eine Lichtquellenanordnung bestimmt werden kann;
  • 3c veranschaulicht, dass die Richtung eines emittierten Strahls durch Neigen des Winkels einer Linse bestimmt werden kann;
  • 4a zeigt eine bewegliche Linsenbaugruppe, um eine Linse vertikal in Bezug auf eine Lichtquellenanordnung zu bewegen;
  • 4b zeigt eine bewegliche Linsenbaugruppe, um eine Linse vertikal und seitlich in Bezug auf eine Lichtquellenanordnung zu bewegen;
  • 4c zeigt eine bewegliche Linsenbaugruppe, um eine Linse relativ zu einer Lichtquellenanordnung zu neigen;
  • 5a zeigt eine Ausführungsform einer integrierten Kamera, die herkömmliche 2D-Bilderfassungs- als auch 3D-Laufzeitbilderfassungsfunktionen aufweist.
  • 5b zeigt ein Verfahren, das durch das System von 5a ausgeführt wird;
  • 6 zeigt eine Ausführungsform eines Computersystems.
  • Ausführliche Beschreibung
  • Ein „intelligente Beleuchtung“-Laufzeitsystem adressiert einige der vorstehend angegebenen Designherausforderungen. In der folgenden Beschreibung wird verdeutlicht, dass ein „intelligente Beleuchtung“-Laufzeitsystem Licht nur auf eine „Region von Interesse“ innerhalb des Sichtfelds des Beleuchters emittieren kann. Infolgedessen ist die Intensität des emittierten optischen Signals stark genug, um ein detektierbares Signal am Bildsensor zu erzeugen, während zur gleichen Zeit der Stromverbrauch des Beleuchters von der Stromversorgung des Computersystems nicht beträchtlich ist.
  • Eine Herangehensweise für eine intelligente Beleuchtung ist, eine bewegliche Objektivlinse zu verwenden, um divergierendes Licht von einer Anordnung (Array) von Lichtquellen in einen intensiveren Lichtstrahl, der auf verschiedene Regionen von Interesse innerhalb des Sichtfelds des Beleuchters gerichtet werden kann, zu sammeln und zu konzentrieren. Eine Übersicht von einigen Merkmalen dieser bestimmten Herangehensweise wird unmittelbar nachfolgend in Bezug auf die 1a bis 1d beschrieben.
  • Unter Bezugnahme auf 1a besitzt ein Beleuchter 101 ein Sichtfeld 102, über das er Licht scheinen lassen kann. In bestimmten Situationen und/oder wenn er zur Unterstützung bestimmter Anwendungen betrieben wird, kann der Beleuchter 101 Licht nur auf eine kleinere Region innerhalb des Sichtfelds 102 richten. Als ein Beispiel wird unter Bezugnahme auf 1b nur die Region 103 innerhalb des Sichtfelds 102 beleuchtet. Zum Vergleich wird, wie in 1c ersichtlich, nur die Region 104 innerhalb des Sichtfelds beleuchtet. Bei verschiedenen Ausführungsformen kann wie nachfolgend ausführlicher beschrieben die beleuchtete Region auf im Wesentlichen jeden Ort innerhalb des Sichtfelds 102 gerichtet werden.
  • Eine Herausforderung, welche die „intelligente Beleuchtung“ adressiert, ist der Wunsch, ein optisches Signal mit ausreichender Stärke zu emittieren, um ein detektierbares Signal am Bildsensor zu erzeugen, während gleichzeitig übermäßiger Energieverbrauch durch die Lichtquelle, die das emittierte Licht erzeugt, vermieden wird. Eine Herangehensweise besteht daher daraus, den natürlichen Emissionswinkel der physikalischen Lichtquelle(n) (z. B. LED(s) oder Laser) durch Sammeln und Konzentrieren ihres divergierenden Lichts durch eine Objektivlinse effektiv zu reduzieren, um weniger divergierendes Licht (wie kollimiertes oder fokussierteres Licht) zu erzeugen. Das absichtliche Formen eines weniger divergierenden emittierten Strahls in einen schmaleren Strahl konzentriert effektiv größere optische Signalleistung auf eine kleinere Region von Interesse 103, 104 innerhalb des Sichtfelds des Beleuchters.
  • Zusätzlich kann in Fällen, in denen eine größere Größe der beleuchteten Region gewünscht wird, intelligente Beleuchtungstechnik den größeren Bereich mit einer kleineren beleuchteten Region „scannen“. Wenn beispielsweise wie in 1d ersichtlich eine Anwendung wünscht, einen größeren Bereich 105 innerhalb des Sichtfelds 102 zu beleuchten, kann der Beleuchter die Region 105 durch Scannen einer kleiner dimensionierten beleuchteten Region über den Bereich 105 effektiv beleuchten. Wie in 1d dargestellt ist zur Zeit t1 die beleuchtete Region am Ort 106 zentriert, zur Zeit t2 ist die beleuchtete Region am Ort 107 zentriert, zur Zeit t3 ist die beleuchtete Region am Ort 108 zentriert und zur Zeit t4 ist die beleuchtete Region am Ort 109 zentriert. Solange die vom Sensor aufgenommenen Informationen als sich über einen Zeitraum erstreckend verstanden werden, der sich annähernd von der Zeit t1 zur Zeit t4 erstreckt, kann die Beleuchtung der größer dimensionierten Region 105 eingeschlossen werden, obwohl eine kleiner dimensionierte Beleuchtungsregion verwendet wurde.
  • Weiter noch kann wie in 1e ersichtlich bei verschiedenen Ausführungsformen die Größe der beleuchteten Region 110, 111 selbst variiert werden. Generell kann eine größere beleuchtete Region-Größe proportional in dem Ausmaß toleriert werden, in dem eine schwächere Empfangssignalstärke am Sensor toleriert werden kann (z. B. befindet sich das Objekt von Interesse näher am Beleuchter, es gibt weniger in Konflikt stehendes Umgebungslicht usw.), und/oder in dem das Ausmaß, in dem der höhere Systemstromverbrauch von der Stromversorgung toleriert werden kann. Je größer die beleuchtete Region ist, desto geringer wäre natürlich die Scanaktivität, die durch den Beleuchter ausgeführt werden muss, um eine größere Region von Interesse effektiv zu beleuchten. Denkbar ist, dass einige Situationen ermöglichen können, dass eine einzelne beleuchtete Region ausreichend groß ist, um das gesamte Sichtfeld 102 auszufüllen.
  • Daher konzentriert zusammenfassend der Beleuchter 101 von 1a die Lichtleistung seiner Lichtquelle(n) über einer kleineren Beleuchtungsregion, um die Empfangssignalstärke am Empfänger zu verstärken. Da der Beleuchter 101 eine kleinere Region beleuchtet, ist der Beleuchter mit der Fähigkeit konzipiert, die kleinere beleuchtete Region zu verschiedenen Orten innerhalb des Sichtfelds 102 zu bewegen. Unter gewissen Umständen kann der Beleuchter 101 die kleinere beleuchtete Region über einen größeren Flächenbereich scannen, um den größeren Flächenbereich effektiv zu beleuchten. Zusätzlich kann der Beleuchter 101 konzipiert sein, die Größe der beleuchteten Region anzupassen.
  • Welche Region des Sichtfelds zu beleuchten ist, welche Größe die beleuchtete Region haben muss, und ob irgendein Scannen auszuführen ist oder nicht, ist eine Funktion des bestimmten Zustands/ der Situation des Computersystems und/oder der bestimmten Anwendung, die es ausführt. Beispiele von einigen Situationen/Zuständen/Anwendungen umfassen, um nur einige zu nennen, intelligentes Erkennen des Gesichts einer Person (z. B. für den sicheren Zugang zum Computersystem) oder intelligentes Erkennen die Formation der Hand einer Person (z. B. für eine Benutzerschnittstelle des Computersystems, das Handbewegungserkennung unterstützt). Hier ist das Gesicht oder die Hand der Person („das Objekt von Interesse“) geeignet, nur einen Abschnitt des Sichtfelds 102 zu verbrauchen.
  • Die 2a und 2b zeigen unterschiedliche perspektivische Ansichten einer Ausführungsform eines Beleuchters 201 mit einer Objektivlinse 202, deren mechanische Vorrichtung einen oder mehrere elektromechanische Motoren 203 umfasst, welche die Objektivlinse 202 in verschiedenen Freiheitsgraden (abhängig von der Implementierung) mit Bewegung versehen. Eine Lichtquellenanordnung 204 (Lichtquellenarray) befindet sich unter der Objektivlinse 202. Wenn die Lichtquellen der Lichtquellenanordnung 204 im Betrieb „ein“ sind, wird das durch die Lichtquellenanordnung 204 emittierte Licht von der Linse 202 als eine Funktion des Positionierens der Linse 202 relativ zur Lichtquellenanordnung 204 gesammelt, geformt und gelenkt.
  • Die Lichtquellenanordnung 204 kann beispielsweise als eine Anordnung (Array) von Licht emittierenden Dioden (LEDs) oder Lasern wie Vertical Cavity Surface Emitting Laser (VCSELs) implementiert sein. Bei einer Ausführungsform sind die verschiedenen Lichtquellen der Anordnung auf einem gleichen Halbleiterchipsubstrat integriert. Bei einer typischen Implementierung emittieren die Lichtquellen der Anordnung nicht sichtbares (z. B. Infrarot-(IR))-Licht, sodass das reflektierte Laufzeitsignal die herkömmliche Bilderfassung mit sichtbarem Licht des Computersystems nicht stört. Zusätzlich kann bei verschiedenen Ausführungsformen jede der Lichtquellen innerhalb der Anordnung mit der gleichen Anode und der gleichen Kathode verbunden sein, sodass alle Lichtquellen innerhalb der Anordnung entweder alle ein oder alle aus sind (alternative Ausführungsformen könnten konzipiert sein, zu ermöglichen, dass Untergruppen von Lichtquellen innerhalb einer Anordnung zusammen ein-/ausgeschaltet werden).
  • Eine Anordnung (Array) von Lichtquellen tendiert dazu, gleichförmigeres Licht zu emittieren als eine einzelne Lichtquelle. Hier tendiert jede Lichtquelle (wie eine einzelne LED oder ein VCSEL) selbst dazu, nicht gleichförmiges Licht zu emittieren. D. h., dass der Flächenbereich einer Region, die durch eine einzelne LED oder ein VCSEL beleuchtet wird, dazu tendiert, hellere Stellen und dunklere Stellen aufzuweisen. Durch das Integrieren einer Anzahl von Lichtquellen in einer Anordnung (Array) tendiert von unterschiedlichen Vorrichtungen emittiertes Licht dazu, sich zu überlappen, was in dunklen Stellen von einigen Lichtquellen resultiert, die durch die hellen Stellen von anderen bestrahlt werden. Als solches tendiert das gesamte von der Anordnung emittierte Licht dazu, ein gleichförmigeres Intensitätsprofil aufzuweisen.
  • Um die Emission von gleichförmigem Licht weiter zu fördern, kann der Beleuchter optional einen Diffusor 205 umfassen. Licht wird gestreut, während es sich durch den Diffusor 205 ausbreitet, was in gleichförmigerem Licht resultiert, das den Diffusor 205 verlässt, als Licht, das in den Diffusor 205 eintritt. Obwohl der Diffusor 205 in 2 als zwischen der Objektivlinse 202 und der Austrittsöffnung des Beleuchters 201 befindlich dargestellt ist, ist es denkbar, dass sich der Diffusor 205 irgendwo entlang dem optischen Weg des Beleuchters 201 befinden kann.
  • Zusätzlich ist, wie vorstehend in Bezug auf die 1a bis 1e beschrieben, zu beachten, dass die individuellen Lichtquellen typischerweise einen weiten emittierten Lichtdivergenzwinkel 206 aufweisen. Der weite Divergenzwinkel 206 der individuellen Lichtquellen resultiert in einem weiten Divergenzwinkel der Lichtquellenanordnung 204 als Ganzes. Wie in 2a ersichtlich, sammelt die Objektivlinse 202 das divergierende Licht der Lichtquellenanordnung 204 und bildet einen Strahl aus emittiertem Licht 207, der kollimiert ist oder konvergiert oder mindestens einen kleineren Divergenzwinkel aufweist.
  • Das Sammeln von divergierendem Licht der Lichtquellenanordnung 204 und das Bilden eines Strahls von stärker gebündeltem Licht erhöht die optische Intensität pro Flächeneinheit des emittierten Strahls, was wiederum in einem stärkeren Empfangssignal am Sensor resultiert. Gemäß einer Berechnung wird das Reduzieren des Divergenzwinkels des emittierten Strahls auf 30° die Signalstärke am Sensor um einen Faktor von 4,6 erhöhen, wenn der Divergenzwinkel 206 von der Lichtquellenanordnung 60° beträgt. Das Reduzieren des Divergenzwinkels des emittierten Strahls auf 20° wird die Signalstärke am Sensor um einen Faktor von 10,7 erhöhen.
  • Das Verstärken der empfangenen Signalstärke am Sensor durch optische Konzentration des von der Lichtquellenanordnung 204 emittierten Lichts (im Gegensatz dazu, einfach Licht mit höherer Intensität von der Lichtquellenanordnung 204 zu emittieren) konserviert Batterielebensdauer, da die Lichtquellenanordnung 204 fähig sein wird, ein Objekt von Interesse ausreichend zu beleuchten, ohne signifikante Mengen an Strom zu verbrauchen.
  • Die 3a bis 3c stellen einige grundlegende Beispiele/Ausführungsformen dessen bereit, wie die Größe und der Ort der beleuchteten Region durch die Manipulation des Positionierens der Objektivlinse 202 beeinflusst werden können.
  • Wie in 3a ersichtlich, kann die Größe der beleuchteten Region 310 durch Variieren des vertikalen Abstandes 312 zwischen der Objektivlinse und der Lichtquellenanordnung angepasst werden. Wie vorstehend beschrieben, bildet die Objektivlinse einen kollimierteren Strahl von einer divergierenden Lichtquelle. Da sich die Linse von der Anordnung (3a(i)) weiter wegbewegt, wird ein breiterer Radius des divergierenden Lichts der Lichtquellenanordnung durch die Linse gesammelt, was in einer emittierten Strahlform mit einer weiteren Breite 310 resultiert. Während die Linse sich näher an die Anordnung (3a(ii)) heranbewegt, wird im umgekehrten Fall ein kleinerer Radius des divergierenden Lichts von der Lichtquellenanordnung durch die Linse gesammelt, was in einer emittierten Strahlform mit einer schmaleren Breite resultiert. Mechanische Konstruktionen mit elektromechanischer Motorisierung für eine vertikale Linsenbewegung, wie direkt zuvor in Bezug auf 3a beschrieben, werden nachfolgend bereitgestellt. Bei einer Ausführungsform ist die Linse am nahesten an der Lichtquellenanordnung angeordnet, wenn das gesamte Sichtfeld zu beleuchten ist.
  • Wie in 3b ersichtlich, kann der Ort der beleuchteten Region innerhalb des Sichtfelds durch Variieren des horizontalen Orts der Objektivlinse relativ zur Lichtquellenanordnung angepasst werden. Bei der spezifischen Herangehensweise von 3b ist die Position der Lichtquellenanordnung feststehend und die Objektivlinse wird steuerbar entlang einer Ebene 320 bewegt, die sich parallel zu und über die Fläche der Lichtquellenanordnung befindet. Generell gilt, dass der Zeigewinkel des vom Beleuchter emittierten Strahls umso größer ist, je größer der Ausrichtungsfehler zwischen der Linse und der Lichtquellenanordnung ist (wie gemessen entlang der Ebene 320). Des Weiteren bestimmt die Richtung des Ausrichtungsfehlers die Zeigerichtung des emittierten Strahls. Der Ausrichtungsfehler erzeugt beispielsweise wie in 3b(i) ersichtlich in einer ersten Richtung einen Strahl, der entlang einer ersten Strahlrichtung zeigt. Zum Vergleich erzeugt der Ausrichtungsfehler in einer zweiten entgegengesetzten Richtung, wie in 3b(ii) ersichtlich, einen Strahl, der entlang einer zweiten Strahlrichtung zeigt, die der ersten Strahlrichtung entgegengesetzt ist. Mechanische Konstruktionen mit elektromechanischer Motorisierung für die horizontale Linsenbewegung, wie gerade vorstehend in Bezug auf 3b beschrieben, werden nachfolgend bereitgestellt.
  • Alternativ oder in Kombination mit der Herangehensweise von 3b kann wie in 3c ersichtlich der Ort der beleuchteten Region innerhalb des Sichtfelds auch durch Variieren des Neigungswinkels der Objektivlinse angepasst werden. D. h., ein Neigen der Linse veranlasst den Strahl, in eine Richtung zu zeigen, die sich nach außen entlang der Senkrechten 330 von der Außenfläche der Linse erstreckt. Mechanische Konstruktionen mit elektromechanischer Motorisierung zum Induzieren von Linsenneigung, wie direkt zuvor in Bezug auf 3c beschrieben, werden ebenfalls nachfolgend bereitgestellt.
  • 4a zeigt eine detailliertere bewegliche Linsenbaugruppe zum Anpassen des vertikalen Abstands der Objektivlinse 402 von der Lichtquellenanordnung 404 (Lichtquellenarray). Wie in 4a ersichtlich, kann ein Schwingspulenmotor bestehend aus einem höhenbeweglichen Innenelement 410 mit einer Federrückholung 411 und einem hohlen Außenelement 412 verwendet werden, wenn die Objektivlinse 402 innerhalb des höhenbeweglichen Innenelements 410 aufgenommen ist. Die Objektivlinse 402, die am Innenelement 410 befestigt ist, bewegt sich vertikal mit dem Innenelement 410, dessen senkrechte Lage entlang der z-Achse durch die Motorkraft definiert ist, die durch das Innenelement 410 gegen die Rückholfedern 411 ausgeübt wird. Die Motorkraft ist durch eine an der Spule des Motors angelegte Spannung definiert. Bei einer typischen Implementierung ist die Spule in das Innenelement 410 integriert und das Außenelement 412 umfasst einen Dauermagneten. Ein Magnetfeld, das auf einen durch die Spule getriebenen Strom anspricht, interagiert mit dem Magnetfeld des Dauermagneten, das die auf das Innenelement angewandte Kraft bestimmt.
  • Hier weisen Schwingspulenmotoren mit Federrückholung typischerweise eine direkte Strom-Position-Beziehung auf und erfordern daher keinen Positionssensor für eine Regelung. Zur Zeichnungsvereinfachung umgibt ein Gehäuse den Schwingspulenmotor, gegen das die Rückholfedern 411 pressen, wenn sich das Innenelement 410 entlang der z-Achse höher erstreckt. Bei einer alternativen Ausführungsform können sich die Rückholfedern unter dem Motor befinden und gegen das Substrat pressen, an dem der Lichtquellenanordnungschip (Lichtquellenarraychip) befestigt ist. In diesem Fall sollte der Durchmesser des Innenelementes größer als die Breite des Lichtquellenanordnungshalbleiterchips (Lichtquellenarrayhalbleiterchip) sein.
  • 4b zeigt eine bewegliche Linsenbaugruppe zum Anpassen der seitlichen Position der Objektivlinse 402 relativ zur Lichtquellenanordnung 404. Wie in 4b ersichtlich, wird ein Paar von Stellgliedschwingspulenmotoren 421, 422 jedes mit einer Federrückholung 423, 424 verwendet, um die Position der Objektivlinse 402 in jeder der x- und y-Dimensionen entsprechend zu definieren. D. h., ein Schwingspulenmotor 421 und eine Rückholfeder 423 stellen die x-Position der Linse 402 her und der andere Schwingspulenmotor 422 und die andere Rückholfeder 424 stellen die y-Position der Linse 402 her. Die Kräfte der Federn und Motoren werden physikalisch gegen das Außenelement 412 des vertikalen Elements ausgeübt. Obwohl zur Zeichnungsvereinfachung das Außenelement 412 wie in 4b dargestellt eine zylindrische äußere Form aufweist, kann es in Wirklichkeit quadratisch/rechteckig sein, sodass die Stellglieder 421, 422 eine bündige Kraft gegen das Außenelement an achsenentfernten Positionen der Linse 402 ausüben können.
  • 4c zeigt eine bewegliche Linsenbaugruppe zum Anpassen des Neigungswinkels der Linse. Hier wird ein Paar von Schwingspulenmotoren 431, 432 bei dem jeder mit einer Federrückholung 433, 434 versehen ist, als Stellglied verwendet, um die vertikale Position von jedem von zwei Punkten entlang der Außenkante der Linse 402 zu definieren. Der Neigungswinkel der Linse 402 über die y-Achse ist im Wesentlichen durch die Kraft eines ersten Motors 431 definiert, wie sie gegen seine Rückholfeder 433 ausgeübt wird. Der Neigungswinkel der Linse 402 über die x-Achse wird im Wesentlichen durch die Kraft eines ersten Motors 432 definiert, wie sie gegen seine Rückholfeder 434 ausgeübt wird. Aus diesen grundlegenden Szenarien kann jeder Neigungswinkel für die Linse als eine Funktion der entsprechenden Kräfte, die durch die Motoren ausgeübt werden, und die entgegenwirkenden Kräfte, die durch die Federn ausgeübt werden, festgestellt werden.
  • Zusätzlich kann die Vertikalpositionierung der Linse 402 durch gleichmäßiges Betätigen der zwei Motoren 431, 432 hergestellt werden. D. h., wenn sich beide Motoren 431, 432 um ein gleiches Maß nach außen erstrecken, wird die Linse in der +z-Richtung angehoben. Wenn beide Motoren 431, 432 um ein gleiches Maß nach innen einfahren, wird die Linse in z-Richtung abgesenkt. Ein oder mehrere zusätzliche Schwingspulenmotorstellglieder können entlang dem Umfang der Linsenfassung angeordnet sein, um sowohl den Neigungswinkel als auch die Vertikalpositionierung der Linse (z. B. drei um 120° beabstandete Stellglieder, vier um 90° beabstandete Stellglieder usw.) weiter zu stabilisieren.
  • Obwohl die vorstehende Erörterung die Verwendung von Schwingspulenmotoren hervorgehoben hat, können andere Ausführungsformen andere Vorrichtungen wie piezoelektrische Stellglieder oder Schrittmotoren verwenden.
  • 5 zeigt eine integrierte herkömmliche Kamera und ein Laufzeitbildgebungssystem 500. Das System weist einen Anschluss 501 auf, um elektrischen Kontakt, z. B. mit einer größeren System-/Hauptplatine herzustellen, wie beispielsweise der System-/Hauptplatine eines Laptopcomputers, Tabletcomputers oder Smartphones. Abhängig vom Layout und der Implementierung kann der Anschluss 501 mit einem flexiblen Kabel verbinden, das z. B. eine tatsächliche Verbindung mit der System-/Hauptplatine herstellt, oder der Anschluss 501 kann direkten Kontakt mit der System-/Hauptplatine herstellen.
  • Der Anschluss 501 ist an einer Grundplatine 502 angebracht, die als eine mehrschichtige Struktur von abwechselnden leitenden und isolierenden Schichten implementiert sein kann, wobei die leitenden Schichten strukturiert sind, elektronische Spuren zu bilden, welche die internen elektrischen Verbindungen des Systems 500 unterstützen.
  • Ein integrierter „RGBZ“-Bildsensor 503 ist an der Grundplatine 502 befestigt. Der integrierte RGBZ-Sensor umfasst unterschiedliche Arten von Pixeln, von denen einige für sichtbares Licht empfindlich sind (z. B. eine Untergruppe von R-Pixeln, die für rotes sichtbares blaues Licht empfindlich sind, eine Untergruppe von G-Pixeln, die für sichtbares grünes Licht empfindlich sind, und eine Untergruppe von B-Pixeln, die für blaues Licht empfindlich sind) und andere, die für IR-Licht empfindlich sind. Die RGB-Pixel werden verwendet, um herkömmliche Erfassungsfunktionen eines sichtbaren „2D“-Bildes (herkömmliche Bildaufnahme) zu unterstützen. Die IR-empfindlichen Pixel werden verwendet, um IR-2D-Bilderfassung und 3D-Tiefenprofilbildgebung unter Verwendung von Laufzeitmethoden zu unterstützen. Obwohl eine grundlegende Ausführungsform RGB-Pixel für die Aufnahme eines sichtbaren Bildes umfasst, können andere Ausführungsformen unterschiedliche gefärbte Pixelschemen (z. B. Cyan, Purpur und Gelb) verwenden.
  • Der integrierte Bildsensor 503 kann auch für die IR-empfindlichen Pixel spezielle Signalleitungen oder andere Schaltungen umfassen, um Laufzeitdetektierung zu unterstützen einschließlich z. B. Taktungssignalleitungen und/oder andere Signalleitungen, die das Timing des Empfangs von IR-Licht anzeigen (im Hinblick auf das Timing der Emission des IR-Lichts von der Lichtquellenanordnung 505).
  • Der integrierte Bildsensor 503 kann auch eine Anzahl von Analog-Digital-Wandlern (ADCs) umfassen, um die analogen Signale, die von den RGB-Pixeln des Sensors empfangen werden, in digitale Daten umzuwandeln, die für das sichtbare Bildmaterial vor dem Kameralinsenmodul 504 repräsentativ sind. Die Grundplatine 502 kann Signalspuren umfassen, um digitale Informationen zu transportieren, die durch die ADC-Schaltungen an den Anschluss 501 zum Verarbeiten durch eine höhere Endkomponente des Computersystems wie eine Bildsignalverarbeitungspipeline (die z. B. in einem Anwendungsprozessor integriert ist) bereitgestellt werden.
  • Ein Kameralinsenmodul 504 ist über dem integrierten RGBZ-Bildsensor 503 integriert. Das Kameralinsenmodul 504 enthält ein System von einer oder mehreren Linsen, um durch eine Öffnung empfangenes Licht auf den Bildsensor 503 zu fokussieren. Da der Empfang des Kameralinsenmoduls von sichtbarem Licht den Empfang von IR-Licht durch die Laufzeitpixel des Bildsensors stören kann und umgekehrt, da der Empfang des Kameramoduls von IR-Licht den Empfang von sichtbarem Licht durch die RGB-Pixel des Bildsensors stören kann, kann eines oder beide von der Pixelmatrix des Bildsensors 503 und dem Linsenmodul 504 ein System von Filtern (z. B. Filter 510) enthalten, die angeordnet sind, um im Wesentlichen IR-Licht zu blockieren, das durch RGB-Pixel empfangen werden soll, und im Wesentlichen sichtbares Licht zu blockieren, das durch Laufzeitpixel empfangen werden soll.
  • Ein Beleuchter 507, der aus einer Lichtquellenanordnung 505 unterhalb einer beweglichen Objektivlinsen-506-Baugruppe besteht, ist auch auf der Grundplatine 501 befestigt. Die Lichtquellenanordnung 505 kann auf einem Halbleiterchip implementiert sein, der an Grundplatine 501 befestigt ist. Ausführungsformen der Lichtquellenanordnung 505 und der beweglichen Linsenbaugruppe 506 wurden in Bezug auf die 1 bis 4 vorstehend beschrieben.
  • Insbesondere können eine oder mehrere unterstützende integrierte Schaltungen für die Lichtquellenanordnung (nicht gezeigt in 5a) auf der Grundplatine 502 befestigt sein. Die eine oder die mehreren integrierten Schaltungen können LED- oder Lasertreiberschaltungen umfassen, um entsprechende Ströme durch die Lichtquellen der Lichtquellenanordnung zu treiben, und Spulentreiberschaltungen, um jede der mit den Schwingspulenmotoren der beweglichen Linsenbaugruppe verbundenen Spulen anzusteuern. Sowohl die LED- oder Lasertreiberschaltungen als auch die Spulentreiberschaltungen können entsprechende Digital-zu-analog-Schaltungen umfassen, um digitale Informationen, die durch den Anschluss 501 empangen werden, in eine spezifische Steuerungsstromstärke für die Lichtquellen oder eine Schwingspule umzuwandeln. Der Lasertreiber kann zusätzlich Taktungsschaltungen zum Erzeugen eines Taktsignals oder eines anderen Signals mit einer Sequenz von 1 s und 0 s einschließen, die, wenn sie durch die Lichtquellen angesteuert werden, bewirken, dass die Lichtquellen wiederholt ein- und ausgeschaltet werden, sodass die Tiefenmessungen wiederholt erfolgen können.
  • Bei einer Ausführungsform unterstützt das integrierte System 500 von 5 drei Betriebsarten: 1) 2D-Modus; 3) 3D-Modus; und, 3) 2D/3D-Modus. Im Fall von 2D-Modus verhält sich das System wie eine herkömmliche Kamera. Als solches ist der Beleuchter 507 deaktiviert und der Bildsensor wird verwendet, um sichtbare Bilder durch seine RGB-Pixel zu empfangen. Im Fall des 3D-Modus erfasst das System Laufzeittiefeninformationen eines Objekts im Sichtfeld des Beleuchters 507 und des Kameralinsenmoduls 504. Als solches ist der Beleuchter aktiviert und emittiert IR-Licht (z. B. in einer Ein-Aus-Ein-Aus-...Sequenz) auf das Objekt. Das IR-Licht wird vom Objekt reflektiert, durch das Kameralinsenmodul 504 empfangen und durch die Laufzeitpixel des Bildsensors erfasst. Im Fall des 2D/3D-Modus sind die vorstehend beschriebenen 2D- und 3D-Modi gleichzeitig aktiv.
  • 5b zeigt ein Verfahren 500, das durch das System von 5a ausgeführt werden kann. Wie in 5b ersichtlich treibt das System Strom durch eine Lichtquellenanordnung, um zu bewirken, dass Licht von der Lichtquellenanordnung 551 emittiert wird. Das System sammelt und konzentriert das Licht mit einer Linse, um einen emittierten Lichtstrahl 552 zu bilden. Das System bewegt die Linse, um den Lichtstrahl auf eine Region von Interesse zu richten und eine beleuchtete Region von Interesse innerhalb eines Sichtfelds zu bilden, wobei die Größe der beleuchteten Region von Interesse kleiner ist als das Sichtfeld 553. Das System detektiert mindestens einen Teil des Lichts, nachdem es von einem Objekt von Interesse innerhalb des Sichtfelds reflektiert wurde, und vergleicht entsprechende Ankunftszeiten des Lichts mit Emissionszeiten des Lichts, um Tiefeninformationen des Objekts von Interesse zu erzeugen.
  • 6 zeigt eine Darstellung eines beispielhaften Computersystems 600 wie ein Personalcomputersystem (z. B. Desktop oder Laptop) oder ein mobiles oder handgehaltenes Computersystem wie eine Tabletvorrichtung oder ein Smartphone. Wie in 6 ersichtlich kann das grundlegende Computersystem eine Zentraleinheit 601 (die z. B. mehrere Universalprozessorkerne 615_1 bis 615_N und einen Hauptspeichercontroller 617, der auf einem Anwendungsprozessor angeordnet ist, umfassen kann), Systemspeicher 602, ein Display 603 (z. B. Touchscreen, Flachpanel), eine lokale verdrahtete Punkt-zu-Punkt-Verbindung 604 (z. B. USB), verschiedene Netzwerk-I/O-Funktionen 605 (wie eine Ethernetschnittstelle und/oder ein Mobilfunkmodemsubsystem), eine drahtlose lokale Netzwerkverbindung 606 (z. B. WiFi), eine drahtlose Punkt-zu-Punkt-Verbindung 607 (z. B. Bluetooth) und eine globale Positionsbestimmungssystemverbindung 608, verschiedene Sensoren 609_1 bis 609_N, eine oder mehrere Kameras 610, eine Batterie 611, eine Leistungsmanagementsteuereinheit 612, einen Lautsprecher und ein Mikrofon 613 und einen Audiocodierer/-decodierer 614 umfassen.
  • Ein Anwendungsprozessor oder ein Mehrkernprozessor 650 kann einen oder mehrere Universalprozessorkerne 615 innerhalb ihrer CPU 601, eine oder mehrere Grafikprozessoreinheiten 616, eine Speicherverwaltungsfunktion 617 (z. B. einen Speichercontroller), eine I/O-Steuerungsfunktion 618 und eine oder mehrere Bildsignalverarbeitungspipelines 619 umfassen. Die Universalprozessorkerne 615 führen typischerweise das Betriebssystem und die Anwendungssoftware des Computersystems aus. Die Grafikprozessoren 616 führen typischerweise intensive Grafikfunktionen aus, um z. B. Grafikinformationen, die auf dem Display 603 dargestellt werden, zu erzeugen. Die Speichersteuerungsfunktion 617 verbindet mit dem Systemspeicher 602, um Daten in den Systemspeicher 602 zu schreiben bzw. davon lesen. Die Bildsignalverarbeitungspipelines 619 empfangen Bildinformationen von der Kamera 610 und verarbeiten die Rohbildinformationen für nachgeordnete Verwendungen. Die Leistungsmanagementsteuereinheit 612 steuert generell die Leistungsaufnahme des Systems 600.
  • Die Touchscreendisplays 603, die Kommunikationsschnittstellen 604 bis 607, die GPS-Schnittstelle 608, die Sensoren 609, die Kamera 610 und die Lautsprecher/Mikrofon-Codecs 613, 614 können jeweils als verschiedene I/O-Formen (Eingabe und/oder Ausgabe) relativ zu dem gesamten Computersystem betrachtet werden einschließlich gegebenenfalls einer integrierten Peripherievorrichtung (wie z. B. die eine oder die mehreren Kameras 610). Abhängig von der Implementierung können verschiedene dieser I/O-Komponenten im Anwendungsprozessor/Mehrkernprozessor 650 integriert sein oder können sich außerhalb des Chips oder Pakets des Anwendungsprozessors/Mehrkernprozessors 650 befinden.
  • Bei einer Ausführungsform umfassen eine oder mehrere Kameras 610 eine integrierte herkömmliche sichtbare Bilderfassung und ein Laufzeittiefenmessungssystem wie das vorstehend in Bezug auf 5 beschriebene System 500. Anwendungssoftware, Betriebssystemsoftware, Gerätetreibersoftware und/oder Firmware, die auf einem Universal-CPU-Kern (oder einem anderen Funktionsblock, der eine Befehlsausführungspipeline aufweist, um Programmcode auszuführen) von einem Anwendungsprozessor oder einem anderen Prozessor ausgeführt wird, kann Befehle an das Kamerasystem richten und Bilddaten davon empfangen.
  • Im Fall von Befehlen können die Befehle den Eintritt in oder das Verlassen von jedem der vorstehend in Bezug auf 5 beschriebenen 2D-, 3D- oder 2D/3D-Systemzustände umfassen. Zusätzlich können Befehle an die bewegliche Linsenunterbaugruppe des Beleuchters gerichtet werden, um spezifische Zeigerichtungen der beweglichen Linse, den Abstand der Linse von der Lichtquellenanordnung (um die Größe der beleuchteten Region zu spezifizieren) und eine Reihe von Zeigerichtungen der beweglichen Linse zu spezifizieren, um das vorstehend erwähnte Scannen der vorstehend erwähnten Linse zu bewirken.
  • Ausführungsformen der Erfindung können wie vorstehend beschrieben verschiedene Prozesse umfassen. Die Prozesse können in maschinenausführbaren Befehlen verkörpert sein. Die Befehle können verwendet werden, um einen Allzweck- oder Spezialprozessor zu veranlassen, bestimmte Prozesse auszuführen. Alternativ können diese Prozesse durch spezifische Hardwarekomponenten ausgeführt werden, die festverdrahtete Logik enthalten, um die Prozesse auszuführen, oder durch jede Kombination von programmierten Computerkomponenten und benutzerdefinierten Hardwarekomponenten.
  • Elemente der vorliegenden Erfindung können ebenfalls als ein maschinenlesbares Medium zum Speichern der maschinenausführbaren Befehle bereitgestellt werden. Das maschinenlesbare Medium kann umfassen, ist aber nicht beschränkt auf, Disketten, optische Disks, CD-ROMs und magnetooptische Disks, FLASH-Speicher, ROMs, RAMs, EPROMs, EEPROMs, magnetische oder optische Karten, Ausbreitungsmedien oder andere Arten von Medien/maschinenlesbaren Medien, die zum Speichern elektronischer Befehle geeignet sind. Die vorliegende Erfindung kann beispielsweise als ein Computerprogramm heruntergeladen werden, das von einem entfernten Computer (z. B. einem Server) an einen anfragenden Computer (z. B. einem Client) mittels Datensignalen übertragen werden kann, die in einem Trägersignal oder anderem Ausbreitungsmedium über einen Kommunikationslink (z. B. ein Modem oder eine Netzwerkverbindung) ausgeführt werden.
  • In der vorstehenden Beschreibung wurde die Erfindung unter Bezugnahme auf spezifische beispielhafte Ausführungsformen davon beschrieben. Es ist jedoch offensichtlich, dass verschiedene Modifizierungen und Änderungen daran vorgenommen werden können, ohne vom weiteren Sinn und Umfang der Erfindung, wie in den angehängten Ansprüchen angeführt, abzuweichen. Die Beschreibung und Zeichnungen sollen dementsprechend in einem veranschaulichenden anstatt in einschränkendem Sinne betrachtet werden.

Claims (22)

  1. Vorrichtung, umfassend: ein integriertes zweidimensionales Bilderfassungs- und dreidimensionales Laufzeittiefenerfassungssystem, das umfasst: einen Beleuchter zum Erzeugen von Licht für das Laufzeittiefenerfassungssystem, der eine Anordnung von Lichtquellen und eine bewegliche Linsenbaugruppe umfasst, wobei die bewegliche Linsenbaugruppe dazu dient, einen emittierten Strahl des Lichts auf einen von irgendwelchen von mehreren Orten innerhalb des Sichtfelds des Beleuchters beweglich zu richten, um eine beleuchtete Region von Interesse innerhalb des Sichtfelds des Beleuchters zu bilden, wobei die beleuchtete Region von Interesse eine Größe aufweist, die kleiner ist als das Sichtfeld des Beleuchters.
  2. Vorrichtung nach Anspruch 1, wobei das integrierte herkömmliche zweidimensionale Bilderfassungs- und dreidimensionale Laufzeitsystem weiter einen integrierten Bildsensor mit einem ersten Satz von Pixeln umfasst, um herkömmliche Bilder zu detektieren, und einen zweiten Satz von Pixeln, um Licht von dem Beleuchter zu detektieren, das von einem Objekt von Interesse reflektiert wurde.
  3. Vorrichtung nach Anspruch 2, wobei die Anordnung von Lichtquellen weiter eine Anordnung von VCSEL-Lasern umfasst, die auf einem gleichen Halbleiter-Chip integriert sind.
  4. Vorrichtung nach Anspruch 1, wobei die bewegliche Linsenbaugruppe zwei oder mehr Schwingspulenmotoren umfasst, um die bewegliche Linse in Bezug auf die Lichtquellenanordnung seitlich zu bewegen.
  5. Vorrichtung nach Anspruch 1, wobei die bewegliche Linsenbaugruppe zwei oder mehr Schwingspulenmotoren umfasst, um die bewegliche Linse in Bezug auf die Lichtquellenanordnung zu neigen.
  6. Vorrichtung nach Anspruch 5, wobei die bewegliche Linsenbaugruppe dazu dient, die beleuchtete Region von Interesse über einen Abschnitt des Sichtfelds zu scannen, um eine effektiv größere beleuchtete Region von Interesse zu erzeugen.
  7. Vorrichtung nach Anspruch 1, wobei die bewegliche Linsenbaugruppe mindestens einen Schwingspulenmotor umfasst, um die bewegliche Linse vertikal über der Lichtquellenanordnung zu bewegen.
  8. Vorrichtung nach Anspruch 7, wobei die bewegliche Linsenbaugruppe dazu dient, die beleuchtete Region von Interesse über einen Abschnitt des Sichtfelds zu scannen, um eine effektiv größere beleuchtete Region von Interesse zu erzeugen.
  9. Vorrichtung nach Anspruch 1, wobei der emittierte Strahl des Lichts weniger Divergenz aufweist als von der Lichtquellenanordnung emittiertes Licht.
  10. Verfahren, umfassend: Treiben von Strom durch eine Lichtquellenanordnung, um zu bewirken, dass Licht von der Lichtquellenanordnung emittiert wird; Sammeln und Konzentrieren des Lichts mit einer Linse, um einen emittierten Lichtstrahl zu bilden; und, Bewegen der Linse, um den Lichtstrahl auf eine Region von Interesse zu richten, um eine beleuchtete Region von Interesse innerhalb eines Sichtfelds zu bilden, wobei die Größe der beleuchteten Region von Interesse kleiner ist als das Sichtfeld; Detektieren von mindestens einem Teil des Lichts, nachdem es von einem Objekt von Interesse innerhalb des Sichtfelds reflektiert wurde, und Vergleichen von entsprechenden Ankunftszeiten des Lichts mit Emissionszeiten des Lichts, um Tiefeninformationen des Objekts von Interesse zu erzeugen.
  11. Verfahren nach Anspruch 10, wobei das Bewegen der Linse weiter das Scannen des Lichtstrahls über einen Abschnitt des Sichtfelds umfasst, um eine effektiv größere beleuchtete Region von Interesse zu erzeugen.
  12. Verfahren nach Anspruch 10, wobei das Bewegen der Linse weiter das seitliche Bewegen der Linse über die Lichtquellenanordnung umfasst.
  13. Verfahren nach Anspruch 10, wobei das Bewegen der Linse weiter das Neigen der Linse umfasst.
  14. Verfahren nach Anspruch 10, wobei das Bewegen der Linse weiter das Bewegen der Linse näher zur Lichtquellenanordnung oder weiter davon weg umfasst, um eine Größe der beleuchteten Region von Interesse anzupassen.
  15. Verfahren nach Anspruch 10, wobei das Bewegen der Linse weiter das Treiben eines Stroms durch mindestens eine Schwingspule umfasst.
  16. Computersystem, umfassend: mehrere Universalprozessorkerne; einen Speichercontroller, der mit einem Systemspeicher gekoppelt ist; einen Bildsignalprozessor, der mit einem integrierten zweidimensionalen Bilderfassungs- und dreidimensionalen Laufzeittiefenerfassungssystem gekoppelt ist, umfassend: einen Beleuchter zum Erzeugen von Licht für das Laufzeittiefenerfassungssystem, der eine Anordnung von Lichtquellen und eine bewegliche Linsenbaugruppe umfasst, wobei die bewegliche Linsenbaugruppe dazu dient, einen emittierten Strahl des Lichts auf einen von irgendwelchen von mehreren Orten innerhalb des Sichtfelds des Beleuchters beweglich zu richten, um eine beleuchtete Region von Interesse innerhalb des Sichtfelds des Beleuchters zu bilden, wobei die beleuchtete Region von Interesse eine Größe aufweist, die kleiner ist als das Sichtfeld des Beleuchters.
  17. Computersystem nach Anspruch 16, wobei das Computersystem ein tragbarer Computer mit einem Anwendungsprozessor ist und die mehreren Mehrzweckprozessorkerne und der Speichercontroller im Anwendungsprozessor integriert sind.
  18. Computersystem nach Anspruch 17, wobei der Bildsignalprozessor im Anwendungsprozessor integriert ist.
  19. Computersystem nach Anspruch 17, wobei der tragbare Computer einer ist von: einem Tabletcomputer; einem Smartphone.
  20. Computersystem nach Anspruch 16, wobei das integrierte herkömmliche zweidimensionale Bilderfassungs- und dreidimensionale Laufzeitsystem weiter einen integrierten Bildsensor mit einem ersten Satz von Pixeln umfasst, um herkömmliche Bilder zu detektieren, und einen zweiten Satz von Pixeln, um Licht von dem Beleuchter zu detektieren, das von einem Objekt von Interesse reflektiert wurde.
  21. Vorrichtung nach Anspruch 16, wobei die bewegliche Linsenbaugruppe zwei oder mehr Schwingspulenmotoren umfasst, um die bewegliche Linse in Bezug auf die Lichtquellenanordnung seitlich zu bewegen.
  22. Vorrichtung nach Anspruch 16, wobei die bewegliche Linsenbaugruppe zwei oder mehr Schwingspulenmotoren umfasst, um die bewegliche Linse in Bezug auf die Lichtquellenanordnung zu neigen.
DE112015005711.0T 2014-12-22 2015-11-17 Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse Ceased DE112015005711T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/579,587 US9918073B2 (en) 2014-12-22 2014-12-22 Integrated camera system having two dimensional image capture and three dimensional time-of-flight capture with movable illuminated region of interest
US14/579,587 2014-12-22
PCT/US2015/061060 WO2016105700A1 (en) 2014-12-22 2015-11-17 Integrated camera system having two dimensional image capture and three dimensional time-of-flight capture with movable illuminated region of interest

Publications (1)

Publication Number Publication Date
DE112015005711T5 true DE112015005711T5 (de) 2017-11-02

Family

ID=56131029

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015005711.0T Ceased DE112015005711T5 (de) 2014-12-22 2015-11-17 Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse

Country Status (6)

Country Link
US (1) US9918073B2 (de)
EP (1) EP3238432B1 (de)
CN (1) CN106489265B (de)
DE (1) DE112015005711T5 (de)
GB (1) GB2548666B (de)
WO (1) WO2016105700A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992396B1 (en) * 2015-02-02 2018-06-05 Apple Inc. Focusing lighting module
JP6960915B2 (ja) * 2015-11-10 2021-11-05 ルミレッズ ホールディング ベーフェー 適応光源
CN106534831A (zh) * 2016-11-15 2017-03-22 上海传英信息技术有限公司 立体视频拍摄方法及用户终端
US10917626B2 (en) 2016-11-23 2021-02-09 Microsoft Technology Licensing, Llc Active illumination 3D imaging system
US10598771B2 (en) * 2017-01-18 2020-03-24 Analog Devices Global Unlimited Company Depth sensing with multiple light sources
US10542245B2 (en) * 2017-05-24 2020-01-21 Lg Electronics Inc. Mobile terminal and method for controlling the same
US10430958B2 (en) 2017-07-11 2019-10-01 Microsoft Technology Licensing, Llc Active illumination 3D zonal imaging system
US10901073B2 (en) 2017-07-11 2021-01-26 Microsoft Technology Licensing, Llc Illumination for zoned time-of-flight imaging
CN107706703B (zh) * 2017-09-30 2019-07-26 维沃移动通信有限公司 一种激光光路控制方法、装置和移动终端
GB2579689A (en) * 2018-08-07 2020-07-01 Cambridge Mechatronics Ltd Improved 3D sensing
US10942362B2 (en) * 2018-10-02 2021-03-09 Himax Technologies Limited Projector, electronic device having projector, and method for obtaining depth information of image data
CN109120758A (zh) * 2018-10-09 2019-01-01 Oppo广东移动通信有限公司 光线发射器、飞行时间模组以及电子设备
EP3914927A1 (de) * 2019-01-23 2021-12-01 Microsoft Technology Licensing, LLC Beleuchtung für gezonte flugzeitbildgebung
US20200344405A1 (en) * 2019-04-25 2020-10-29 Canon Kabushiki Kaisha Image pickup apparatus of measuring distance from subject to image pickup surface of image pickup device and method for controlling the same
US20220229189A1 (en) * 2019-07-05 2022-07-21 Sony Semiconductor Solutions Corporation Time-of-flight sensor and system
GB2588678A (en) * 2019-11-01 2021-05-05 Cambridge Mechatronics Ltd A time-of-flight sensor system
US11843221B2 (en) * 2020-03-30 2023-12-12 Namuga, Co., Ltd. Light source module for emitting high density beam and method for controlling the same
CN115380238A (zh) * 2020-04-16 2022-11-22 华为技术有限公司 一种光发射组件、飞行时间摄像模组及移动终端
WO2021248427A1 (zh) * 2020-06-12 2021-12-16 深圳市汇顶科技股份有限公司 深度传感装置以及相关电子装置及深度传感装置的操作方法
CN115542287A (zh) * 2021-06-29 2022-12-30 北京小米移动软件有限公司 激光发射模块、深度相机及电子设备
CN117321443A (zh) * 2021-07-06 2023-12-29 索尼半导体解决方案公司 光接收装置、测距装置和光接收装置的控制方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445884B1 (en) * 1995-06-22 2002-09-03 3Dv Systems, Ltd. Camera with through-the-lens lighting
CA2239279C (en) 1997-06-02 2002-04-23 Nippon Telegraph And Telephone Corporation Image generating apparatus and method
KR100519777B1 (ko) 2003-12-15 2005-10-07 삼성전자주식회사 반도체 소자의 캐패시터 및 그 제조 방법
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7560679B1 (en) 2005-05-10 2009-07-14 Siimpel, Inc. 3D camera
JP4712480B2 (ja) * 2005-08-10 2011-06-29 オリンパスイメージング株式会社 レンズ駆動装置
WO2007067296A2 (en) * 2005-12-02 2007-06-14 Alis Corporation Ion sources, systems and methods
US20070236582A1 (en) 2006-03-29 2007-10-11 Imaging Solutions Group Of Ny, Inc. Video camera with multiple independent outputs
WO2009040745A1 (en) * 2007-09-26 2009-04-02 Koninklijke Philips Electronics N.V. Objective driving unit for an optical device
US8081797B2 (en) 2008-10-10 2011-12-20 Institut National D'optique Selective and adaptive illumination of a target
KR20100107995A (ko) 2009-03-27 2010-10-06 삼성전기주식회사 광 픽업용 광 검출기 집적회로의 포토 다이오드 셀 구조 및그 제조방법
KR101044109B1 (ko) 2009-08-18 2011-06-28 삼성전기주식회사 렌즈 구동 모듈
KR101044140B1 (ko) 2009-09-11 2011-06-24 삼성전기주식회사 렌즈 구동 모듈
KR101044219B1 (ko) 2009-10-19 2011-06-29 삼성전기주식회사 렌즈 구동 모듈
KR101022938B1 (ko) 2009-11-10 2011-03-16 삼성전기주식회사 카메라모듈의 손떨림 보정기구
KR20110064622A (ko) 2009-12-08 2011-06-15 삼성전자주식회사 티오에프 카메라를 이용한 3차원 에지 추출 방법 및 장치
KR101156872B1 (ko) 2009-12-18 2012-06-20 삼성전기주식회사 렌즈 구동 모듈
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
KR101077408B1 (ko) 2010-02-05 2011-10-26 서강대학교산학협력단 Cmos 이미지 센서
US20110242115A1 (en) 2010-03-30 2011-10-06 You-Ming Tsao Method for performing image signal processing with aid of a graphics processing unit, and associated apparatus
EP2558886B1 (de) 2010-04-16 2014-03-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US8553126B2 (en) 2010-12-14 2013-10-08 Truesense Imaging, Inc. Image sensor with charge multiplication
US8553109B2 (en) 2011-07-20 2013-10-08 Broadcom Corporation Concurrent image processing for generating an output image
KR101289094B1 (ko) 2011-07-29 2013-07-23 삼성전기주식회사 선형 모터
DE102011081561A1 (de) 2011-08-25 2013-02-28 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem mit Signalpfadüberwachung
WO2013049635A1 (en) 2011-09-29 2013-04-04 Cegnar Erik J Light apparatuses and lighting systems
US9628843B2 (en) 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
KR101289142B1 (ko) 2011-11-28 2013-07-23 삼성전기주식회사 발광다이오드 패키지 모듈
US20130163627A1 (en) 2011-12-24 2013-06-27 Princeton Optronics Laser Illuminator System
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
JP6309459B2 (ja) * 2012-02-15 2018-04-11 ヘプタゴン・マイクロ・オプティクス・ピーティーイー・エルティーディーHeptagon Micro Optics Pte.Ltd. ストライプ照明の飛行時間型カメラ
US8569700B2 (en) 2012-03-06 2013-10-29 Omnivision Technologies, Inc. Image sensor for two-dimensional and three-dimensional image capture
US9462234B2 (en) 2012-07-26 2016-10-04 DePuy Synthes Products, Inc. Camera system with minimal area monolithic CMOS image sensor
US9297889B2 (en) 2012-08-14 2016-03-29 Microsoft Technology Licensing, Llc Illumination light projection for a depth camera
KR101925028B1 (ko) 2012-08-29 2018-12-04 엘지전자 주식회사 깊이 영상 생성 장치 및 방법
US20140085426A1 (en) 2012-09-24 2014-03-27 Alces Technology, Inc. Structured light systems with static spatial light modulators
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
GB2515447B (en) 2013-02-13 2021-01-20 Light Blue Optics Ltd Touch sensing systems
US8761594B1 (en) * 2013-02-28 2014-06-24 Apple Inc. Spatially dynamic illumination for camera systems
US20150260830A1 (en) 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging

Also Published As

Publication number Publication date
GB201621167D0 (en) 2017-01-25
US20160182895A1 (en) 2016-06-23
EP3238432A1 (de) 2017-11-01
GB2548666A (en) 2017-09-27
EP3238432A4 (de) 2018-08-01
CN106489265B (zh) 2019-07-05
CN106489265A (zh) 2017-03-08
GB2548666B (en) 2021-06-23
US9918073B2 (en) 2018-03-13
WO2016105700A1 (en) 2016-06-30
EP3238432B1 (de) 2023-04-19

Similar Documents

Publication Publication Date Title
DE112015005711T5 (de) Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse
DE112015005725T5 (de) Beleuchter für ein kamerasystem mit dreidimensionaler laufzeiterfassung mit beweglichem spiegelelement
DE112015004335T5 (de) Laufzeitkamerasystem mit scanbeleuchter
DE112015005706T5 (de) Laufzeitkamerasystem und verfahren zum verbessern der messqualität von schwachen sichtfeldsignalregionen
DE102014101354B4 (de) Raumintensitätsverteilungsgesteuerter blitz
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE112016006069T5 (de) Stereotiefenkamera mit vcsel-projektor mit gesteuerten projektionslinsen
DE112015002231T5 (de) Metrologievorrichtung und Verfahren zur Kommunikation mit tragbaren Vorrichtungen
DE212007000046U1 (de) Betriebssteuerung und Datenverarbeitung in einem elektronischen Stift
DE112015005095T5 (de) Menschenorientierter Roboter mit Vorrichtung zur kontaktlosen Messung
DE102017008638A1 (de) Berührungsfreier sicherheitssensor und arbeitsweise
EP2569757B1 (de) Bewegungsanalyse- und/oder -verfolgungssystem
EP3467432A1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
DE102017106509A1 (de) Abbildungsmodul und Lesegerät und Verfahren zum zügigen Einstellen von Abbildungsparameters von Abbilden zum Abbilden von über einem Bereich von Arbeitsabständen zu lesenden Zielen
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE102010055666A1 (de) Medizinische Beleuchtungsvorrichtung und Verfahren zum Betrieb einer medizinischen Beleuchtungsvorrichtung
DE112005000701T5 (de) Mehrlichtquellen-Beleuchtungssystem für optische Zeigegeräte
DE102019120799A1 (de) Lichtdetektions- und Entfernungsmessungssystem und Verfahren zum Betreiben eines Lichtdetektions- und Entfernungsmessungssystems
CN206235296U (zh) 五金件视觉检测设备
DE112015003527T5 (de) System und Verfahren zum Steuern einer Zielbeleuchtung für ein Abbildungs-Lesegerät
DE102014019688A1 (de) Elektronische Vorrichtung
DE102013206832A1 (de) Bilddarstellungsvorrichtung, mobiltelefon und verfahren
DE102019217878A1 (de) VERGRÖßERNDE BEOBACHTUNGSVORRICHTUNG
DE102019133753A1 (de) Werkzeuge für augmentierte realität in der lichtgestaltung
WO2018197078A1 (de) Prüfvorrichtung zur optischen prüfung eines objektes, produktionsanlage mit der prüfvorrichtung und verfahren zur optischen prüfung des objektes mit der prüfvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005225000

Ipc: H04N0023000000

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final