DE102013211373A1 - Dynamische adaptierung von bildgebungsparametern - Google Patents

Dynamische adaptierung von bildgebungsparametern Download PDF

Info

Publication number
DE102013211373A1
DE102013211373A1 DE102013211373A DE102013211373A DE102013211373A1 DE 102013211373 A1 DE102013211373 A1 DE 102013211373A1 DE 102013211373 A DE102013211373 A DE 102013211373A DE 102013211373 A DE102013211373 A DE 102013211373A DE 102013211373 A1 DE102013211373 A1 DE 102013211373A1
Authority
DE
Germany
Prior art keywords
radiation
operating mode
light
detected
electromagnetic radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013211373A
Other languages
English (en)
Inventor
Martin GOTSCHLICH
Michael Mark
Josef Prainsack
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of DE102013211373A1 publication Critical patent/DE102013211373A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Repräsentative Implementierungen von Vorrichtungen und Techniken stellen anpassbare Einstellungen für Bildgebungsvorrichtungen und -systeme bereit. Die Betriebsmodi können auf der Grundlage davon definiert werden, ob ein Objekt innerhalb eines vorausgewählten Bereichs detektiert wird oder nicht. Ein oder mehrere Parameter der emittierten elektromagnetischen Strahlung können dynamisch auf der Grundlage des aktuellen Betriebsmodus angepasst werden.

Description

  • HINTERGRUND
  • Bildgebungssysteme auf der Grundlage von Lichtwellen werden immer häufiger für die Objektdetektion verwendet, da Halbleiterprozesse zur Unterstützung solcher Systeme immer schneller werden. Solche Bildgebungssysteme sind in der Lage, Dutzende von Bildern pro Sekunde bereitzustellen, wodurch solche Systeme auch für die Objekt-Verfolgung (Tracking) nützlich werden. Während die Auflösung solcher Bildgebungssysteme relativ niedrig sein kann, sind Anwendungen, die diese Systeme verwenden, in der Lage, die Geschwindigkeit ihrer Verarbeitung vorteilhaft zu nutzen.
  • Mobile Vorrichtungen wie Notebook-Computer oder Smartphones sind aufgrund des Energiebedarfs der Bildgebungssysteme und der begrenzten Energiespeicherfähigkeit der mobilen Vorrichtungen nicht leicht an die Verwendung solcher Bildgebungssysteme anzupassen. Den größten Beitrag zum hohen Energiebedarf von lichtbasierten Bildgebungssystemen leistet die Beleuchtungsquelle, die in Betrieb auf konstantem Leistungspegel und/oder konstanter Frequenz gehalten werden kann. Des Weiteren können solche Systeme mit einer konstanten seitlichen Maximalauflösung (d. h. die Anzahl an Pixel) für das beste Leistungsverhalten im anzunehmenden ungünstigsten Fall angewendet werden. Dieser Energiebedarf überschreitet oftmals die Energiespeicherfähigkeiten von mobilen Vorrichtungen, wodurch die Nützlichkeit der Bildgebungssysteme reduziert wird, die auf die mobilen Vorrichtungen angewendet werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die detaillierte Beschreibung ist in Bezug auf die begleitenden Figuren ausgeführt. In den Figuren identifiziert/en die linksten Stelle(n) eines Bezugszeichens die Figur, in welcher das Bezugszeichen erstmals aufscheint. Die Verwendung derselben Bezugszeichen in verschiedenen Figuren zeigt ähnliche oder identische Punkte an.
  • Für diese Diskussion sind die in den Figuren dargestellten Vorrichtungen und Systeme als eine Vielzahl von Komponenten aufweisend dargestellt. Verschiedene Implementierungen von Vorrichtungen und/oder Systemen, wie sie hierin beschrieben sind, können weniger Komponenten umfassen und innerhalb des Umfangs der Offenbarung bleiben. Alternativ dazu können andere Implementierungen von Vorrichtungen und/oder Systemen zusätzliche Komponenten, oder verschiedene Kombinationen aus den beschriebenen Komponenten, umfassen und dennoch innerhalb des Umfangs der Offenbarung bleiben.
  • 1 ist eine Darstellung einer beispielhaften Anwendungsumgebung, in welcher die beschriebenen Vorrichtungen und Techniken, gemäß einer Implementierung, angewendet werden können.
  • 2 ist ein Blockdiagramm von beispielhaften Bildgebungssystemkomponenten, gemäß einer Implementierung.
  • 3 ist ein Zustandsdiagramm von beispielhaften Betriebsmodi und zusammenhängenden Bildgebungsparametern, gemäß einer Implementierung. Das Zustandsdiagramm zeigt auch beispielhafte Auslöser für das Umschalten zwischen den Betriebsmodi.
  • 4 ist ein Flussdiagramm, das einen beispielhaften Prozess zur Anpassung der Parameter eines Bildgebungssystems, gemäß einer Implementierung, veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG
  • Überblick
  • Diese Offenbarung bezieht sich auf Bildgebungssysteme (Bildgebungssysteme, die z. B. emittierte elektromagnetische (EM) Strahlung verwenden), die angeordnet sind, um Objekte in einem vorausgewählten Bereich in Bezug auf die Bildgebungssysteme zu detektieren, zu erkennen und/oder zu verfolgen (tracken). So kann ein Bildgebungssystem z. B. verwendet werden, um eine menschliche Hand in einem Bereich nahe einer Rechnervorrichtung zu detektieren und zu erkennen. Das Bildgebungssystem kann erkennen, wenn die Hand eine Geste macht, und die Kombination aus Hand und Geste als Ersatz für eine Maus oder eine andere Eingabe in die Rechnervorrichtung tracken.
  • In einer Implementierung verwendet das Bildgebungssystem Abstandsberechnungen, um Objekte wie z. B. eine menschliche Hand zu detektieren, zu erkennen und/oder zu tracken. Die Abstandsberechnungen können auf dem Empfang von Reflexionen der emittierten EM-Strahlung basieren, da die EM-Strahlung im vorausgewählten Bereich von den Objekten reflektiert wird. So können die Abstandsberechnungen z. B. auf der Geschwindigkeit des Lichts und der Zeit der Bewegung der reflektierten EM-Strahlung basieren.
  • Repräsentative Implementierungen von Vorrichtungen und Techniken liefern anpassbare Einstellungen für z. B. Bildgebungsvorrichtungen und -systeme. Die anpassbaren Einstellungen können verschiedenen Betriebsmodi der Bildgebungsvorrichtungen und -systeme zugeordnet werden, und sie werden verwendet, um Energie zu sparen. Betriebsmodi können auf der Grundlage davon definiert werden, ob z. B. ein Objekt innerhalb eines vorausgewählten Bereichs detektiert wird oder nicht. In einer Implementierung werden Betriebsmodi auf der Grundlage davon definiert, ob eine menschliche Hand innerhalb des vorausgewählten Bereichs detektiert wird oder nicht.
  • Betriebsmodi können Parametern wie Energieleistung, Modulationsfrequenzen, Arbeitszyklen und dergleichen der emittierten EM-Strahlung zugeordnet werden. Ein oder mehrere Parameter der emittierten EM-Strahlung können dynamisch und automatisch auf Basis eines gegenwärtigen Betriebsmodus und nachfolgender Betriebsmodi eingestellt werden. So kann z. B. ein höherer Energiemodus von einem Bildgebungssystem verwendet werden, wenn ein erwünschtes Objekt detektiert wird, und ein niedrigerer Energiemodus kann verwendet werden, wenn kein Objekt detektiert wird. In einer Implementierung kann eine Auflösung einer Sensorkomponente auf der Grundlage der Betriebsmodi angepasst werden.
  • Verschiedene Implementierungen und Anordnungen für Bildgebungssysteme, – vorrichtungen und -techniken sind in dieser Offenbarung erläutert. Techniken und Vorrichtungen werden mit Bezug auf beispielhafte Bildgebungssysteme und – Vorrichtungen auf der Grundlage von Licht, die in den Figuren dargestellt sind, erläutert. Dies soll aber keineswegs einschränkend sein und dient nur zur Vereinfachung der Erläuterung und Veranschaulichung. Die erläuterten Techniken und Vorrichtungen können auf verschiedene beliebige Bildgebungsvorrichtungsdesigns, -strukturen und dergleichen (z. B. auf der Grundlage von Strahlung, auf der Grundlage von Schallemission, auf der Grundlage von Teilchenemission etc.) angewendet werden und verbleiben innerhalb des Umfangs der Offenbarung.
  • Implementierungen sind nachfolgend im Detail unter Verwendung zahlreicher Beispiele erklärt. Obwohl verschiedene Implementierungen und Beispiele hierin und nachfolgend erläutert sind, sind auch weitere Implementierungen und Beispiele möglich, indem die Merkmale und Elemente der einzelnen Implementierungen und Beispiele kombiniert werden.
  • Beispiel Bildgebungssystemumgebung
  • 1 ist eine Darstellung einer beispielhaften Anwendungsumgebung 100, in welcher die beschriebenen Vorrichtungen und Techniken, gemäß einer Implementierung, angewendet werden können. Wie in der Darstellung gezeigt ist, kann ein Bildgebungssystem 102 mit z. B. einer Rechnervorrichtung („mobile Vorrichtung”) 104 angewendet werden. Das Bildgebungssystem 102 kann verwendet werden, um ein Objekt 106 wie eine menschliche Hand z. B. in einem vorausgewählten Bereich 108 zu detektieren. In einer Implementierung ist das Bildgebungssystem 102 angeordnet, um eine Geste der menschlichen Hand 106 zu detektieren und/oder zu erkennen, und es kann angeordnet sein, um die Bewegung und/oder Geste der menschlichen Hand 106 als ein Ersatz für eine Maus oder eine andere Eingabevorrichtung für die mobile Vorrichtung 104 zu tracken. In einer Implementierung kann eine Ausgabe des Bildgebungssystems 102 z. B. auf einer Anzeigevorrichtung 110 (z. B. ein Mauszeiger oder Cursor) präsentiert oder dargestellt werden.
  • In verschiedenen Implementierungen kann das Bildgebungssystem 102 in der mobilen Vorrichtung 104 integriert sein, oder es kann einige Komponenten aufweisen, die von der mobilen Vorrichtung 104 getrennt oder entfernt sind. So kann z. B. ein Teil der Verarbeitung für das Bildgebungssystem 102 entfernt davon angeordnet sein (z. B. Cloud, Netzwerk etc.). In einem anderen Beispiel können einige Ausgaben vom Bildgebungssystem auf einer davon entfernten Vorrichtung oder an einem entfernten Ort übertragen, dargestellt oder präsentiert werden.
  • Wie hierin erläutert ist, bezieht sich eine mobile Vorrichtung 104 auf eine mobile Rechnervorrichtung wie einen Laptop Computer, ein Smartphone oder dergleichen.
  • Beispiele für eine mobile Vorrichtung 104 können ohne Einschränkung mobile Rechnervorrichtungen, Laptop- oder Notebook-Computer, tragbare Rechnervorrichtungen, Tablet-Rechnervorrichtungen, Netzwerkrechnervorrichtungen, PDA-Vorrichtungen (personal digital assistant), Leservorrichtungen, Smartphones, Mobiltelefone, Mediaplayer, tragbare Rechnervorrichtungen und so weiter umfassen. Die Implementierungen sind in diesem Zusammenhang nicht begrenzt. Des Weiteren sind auch stationäre Rechnervorrichtungen im Schutzumfang der Offenbarung als eine Rechnervorrichtung 104 umfasst, in Bezug auf Implementierungen eines Bildgebungssystems 102. Stationäre Rechnervorrichtungen können ohne Einschränkung stationäre Computer, Personal- oder Desktop-Computer, Fernseher, Set-Top-Boxen, Spielkonsolen, Audio-/Videosysteme, Anwendungen und dergleichen umfassen.
  • Ein beispielhaftes Objekt 106 kann jedes beliebige Teil umfassen, für das ein Bildgebungssystem 102 zum Detektieren, Erkennen, Tracken und/oder dergleichen angeordnet ist. Solche Teile können menschliche Körperteile wie z. B. die gesamte oder einen Teil der menschlichen Hand umfassen. Andere Beispiele eines Objekts 106 können eine Maus, einen Puck, einen Lesestift, einen Controller, einen Spielstein, Sportausrüstung und dergleichen umfassen. In verschiedenen Implementierungen kann das Bildgebungssystem 102 auch angeordnet werden, um eine Geste des Objekts 106 zu detektieren, zu erkennen und/oder zu tracken. Eine Geste kann jegliche Bewegung oder Position oder Konfiguration des Objekts 106 umfassen, die eine Idee ausdrückt. So kann z. B. eine Geste das Positionieren einer menschlichen Hand in einer Ausrichtung oder das Konfigurieren (z. B. Zeigen mit einem oder mehreren Fingern, eine geschlossene Form mit einem oder mehreren Abschnitten der Hand bilden etc.) und/oder das Bewegen der Hand in einem Muster (z. B. in einer ellipsenförmigen Bewegung, in einer im Wesentlichen linearen Bewegung etc.) umfassen. Gesten können auch mit anderen Objekten 106 gemacht werden, wenn diese positioniert, konfiguriert, bewegt und dergleichen werden.
  • Das Bildgebungssystem 102 kann angeordnet sein, um ein Objekt 106, das innerhalb eines vorausgewählten Bereichs 108 in Bezug auf die mobile Vorrichtung 104 ist, zu detektieren, zu erkennen und/oder zu tracken. Ein vorausgewählter Bereich 108 kann so gewählt werden, so dass z. B. ein Bereich, innerhalb welchen die menschlichen Hände oder anderen Objekte 106 liegen können, umfasst ist. In einem Fall kann der vorausgewählte Bereich 108 einen Bereich umfassen, in welchem Hände als Ersatz für eine Maus oder eine andere Eingabevorrichtung vorhanden sein können, um Gesten auszuführen. Dieser Bereich kann z. B. zur Vorderseite hin und um die mobile Vorrichtung 104 herum befindlich sein.
  • Die Darstellung der 1 zeigt einen vorausgewählten Bereich 108 als einen würfelförmigen Bereich vor der mobilen Vorrichtung 104. Dies dient der Veranschaulichung und Erläuterung und soll nicht einschränkend sein. Ein vorausgewählter Bereich 108 kann jegliche beliebige Form oder Größe aufweisen, und er kann so gewählt werden, dass er im Allgemeinen die erwünschten Objekte umfasst, wenn diese vorhanden sind, aber nicht die unerwünschten Objekte umfasst (z. B. andere Elemente, die nicht detektiert, erkannt, getrackt oder dergleichen werden sollen). In einer Implementierung kann der vorausgewählte Bereich 108 einen Würfel von 12 × 12 Zoll umfassen. In anderen Implementierungen kann der vorausgewählte Bereich 108 andere Formen und Größen umfassen.
  • Wie obig ausgeführt wurde, sind die hierin in Bezug auf ein Bildgebungssystem 102 beschriebenen Techniken, Komponenten und Vorrichtungen nicht auf die Darstellung in 1 beschränkt und können auch auf andere Bildgebungssystem- und vorrichtungsdesigns und/oder Anwendungen angewendet werden, ohne dabei vom Umfang der Offenbarung abzuweichen. In einigen Fällen können zusätzliche oder alternative Komponenten verwendet werden, um die hierin beschriebenen Techniken zu implementieren. Es ist zu verstehen, dass ein Bildgebungssystem 102 als freistehendes System oder freistehende Vorrichtung oder als Teil eines anderen Systems (z. B. in anderen Komponenten, Systemen etc. integriert) implementiert werden kann.
  • Beispiel Bildgebungssystem
  • 2 ist ein Blockdiagramm, das beispielhafte Komponenten eines Bildgebungssystems 102, gemäß einer Implementierung, zeigt. Wie in 2 dargestellt ist, kann ein Bildgebungssystem 102 ein Beleuchtungsmodul 202, ein optisches Modul 204, ein Sensormodul 206 und ein Steuermodul 208 umfassen. In verschiedenen Implementierungen kann ein Bildgebungssystem 102 weniger, zusätzliche oder wechselnde Komponenten umfassen und innerhalb des Umfangs der Offenbarung bleiben. Mit einer oder mehreren Komponenten eines Bildgebungssystems 102 kann mit anderen Komponenten des Bildgebungssystems 102 eine Kollokation oder eine Kombination vorgenommen werden, oder diese können auf andere Weise in eine andere Komponente des Bildgebungssystems 102 integriert werden. So kann z. B. in einer Implementierung das Bildgebungssystem 102 eine Bildgebungsvorrichtung oder ein Bildgebungsgerät umfassen. Des Weiteren können eine oder mehrere Komponenten des Bildgebungssystems 102 entfernt von der/den anderen Komponente/n angeordnet sein.
  • Umfasst in einer Implementierung ist das Beleuchtungsmodul 202 angeordnet, um elektromagnetische Strahlung (EM-Strahlung, z. B. Lichtstrahlung) zur Beleuchtung des vorausgewählten Bereichs 108 zu emittieren. In einer Implementierung ist das Beleuchtungsmodul 202 z. B. ein Licht-Emitter. In einer Implementierung umfasst der Licht-Emitter eine lichtemittierende Diode (LED). In einer anderen Implementierung umfasst der Licht-Emitter einen Laser-Emitter. In einer Implementierung beleuchtet das Beleuchtungsmodul 202 die gesamte Umgebung (z. B. den vorausgewählten Bereich 108) mit jedem emittierten Lichtimpuls. In einer anderen Implementierung beleuchtet das Beleuchtungsmodul 202 die Umgebung in Stufen oder Scans.
  • In verschiedenen Implementierungen können verschiedene Formen von EM-Strahlung von dem Beleuchtungsmodul 202 emittiert werden. In einer Implementierung wird Infrarot-Licht emittiert. Die Lichtstrahlung kann z. B. einen oder mehrere modulierte Infrarot-Lichtimpulse umfassen. Das Beleuchtungsmodul 202 kann für eine kurze Zeitdauer angeschaltet werden, wodurch der emittierte Lichtimpuls den vorausgewählten Bereich 108 beleuchten kann, einschließend dabei alle Objekte 106 innerhalb des vorausgewählten Bereichs. Infrarot-Licht stellt Beleuchtung für den vorausgewählten Bereich 108 bereit, das für das menschliche Auge nicht sichtbar ist und somit nicht ablenkt. In anderen Implementierungen können andere Arten oder Frequenzen von EM-Strahlung emittiert werden, die eine visuelle Rückkopplung oder dergleichen liefern. Wie zuvor angesprochen wurde, können in anderen Implementierungen andere Energieformen (z. B. auf der Grundlage von Strahlung, auf der Grundlage von Schallemission, auf der Grundlage von Teilchenemission etc.) vom Beleuchtungsmodul 202 emittiert werden, um die Objekte 106 zu detektieren.
  • In einer Implementierung ist das Beleuchtungsmodul 202 angeordnet, um ein oder mehrere Objekte 106 zu beleuchten, die im vorausgewählten Bereich 108 vorhanden sein können, um die Objekte 106 zu detektieren. In einer Implementierung ist ein Parameter oder eine Eigenschaft der Ausgabe des Beleuchtungsmoduls 202 (z. B. ein Lichtimpuls) angeordnet, um automatisch und dynamisch auf der Grundlage davon angepasst zu werden, ob ein Objekt 106 im vorausgewählten Bereich 108 detektiert wird oder nicht. Aus Energiesparzwecken kann die Energieausgabe oder Integrationszeit des Beleuchtungsmoduls 202 z. B. reduziert werden, wenn kein Objekt 106 im vorausgewählten Bereich 108 detektiert wird, und erhöht, wenn ein Objekt 106 im vorausgewählten Bereich 108 detektiert wird. In einer Implementierung wird zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz des Lichtimpulses auf der Grundlage davon angepasst, ob ein Objekt 106 innerhalb des vorausgewählten Bereichs 108 detektiert wird oder nicht. In einer anderen Implementierung wird zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz des Lichtimpulses weiter auf der Grundlage davon angepasst, ob eine menschliche Hand innerhalb des vorausgewählten Bereichs 108 detektiert wird oder nicht.
  • In einer Implementierung werden die Betriebsmodi für das Bildgebungssystem 102 definiert, die mit den Parametern, Eigenschaften und dergleichen (z. B. Energieleistung, Modulationsfrequenzen etc.) für die Ausgabe des Beleuchtungsmoduls 202 auf der Grundlage davon, ob ein Objekt 106 im vorausgewählten Bereich 108 detektiert wird oder nicht, in Zusammenhang gebracht. 3 ist ein Zustandsdiagramm 300, das die drei beispielhaften Betriebsmodi und die damit zusammenhängende Parameter des Bildgebungssystems 102, gemäß einer Implementierung, veranschaulicht. Die drei Betriebsmodi werden als „Ruhemodus” (d. h. erster Betriebsmodus), was bedeutet, dass kein Objekt im vorausgewählten Bereich 108 detektiert wird; „betriebsbereiter Modus” (d. h. zweiter Betriebsmodus), was bedeutet, dass ein Objekt im vorausgewählten Bereich 108 detektiert wird; und „Aktivmodus” (d. h. dritter Betriebsmodus), was bedeutet, dass eine menschliche Hand im vorausgewählten Bereich 108 detektiert wird, bezeichnet. In anderen Implementierungen können weniger, zusätzliche oder abwechselnde Betriebsmodi von einem Bildgebungssystem 102 in ähnlicher Weise definiert und/oder verwendet werden.
  • Wie in 3 dargestellt ist, wird der erste Betriebsmodus mit einer niedrigen Modulationsfrequenz (z. B. 10 MHz) und einer geringen oder minimalen Systemenergie zum Energiesparen, wenn kein Objekt 106 detektiert wird, in Zusammenhang gebracht. Der zweite Betriebsmodus wird mit einer mittleren Modulationsfrequenz (z. B. 30 MHz) und einer mittleren Systemenergie zum moderaten Energiesparen, wenn zumindest ein Objekt 106 detektiert wird, in Zusammenhang gebracht. Der dritte Betriebsmodus wird mit einer höheren Modulationsfrequenz (z. B. 80 MHz) und einer höheren oder maximalen Systemenergie für die beste Leistung, wenn zumindest eine menschliche Hand detektiert wird, in Zusammenhang gebracht. In anderen Implementierungen können andere Energiewerte mit den Betriebsmodi in Zusammenhang gebracht werden. Systemenergie kann Beleuchtungszeit (Zeit, während welcher der EM-Impuls auf „an” ist, Arbeitszyklus etc.), Peak-Energieleistung und dergleichen umfassen.
  • In einer Implementierung, wie sie im Zustandsdiagramm 300 der 3 dargestellt ist, wird zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz der EM-Strahlung erhöht, wenn das System vom ersten Betriebsmodus in den zweiten Betriebsmodus oder vom zweiten Betriebsmodus in den ersten Betriebsmodus geschaltet wird; und zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz der Lichtstrahlung wird verringert, wenn das System vom dritten Betriebsmodus in den zweiten Betriebsmodus oder vom zweiten Betriebsmodus in den ersten Betriebsmodus geschaltet wird.
  • Wenn es in einer Implementierung umfasst ist, ist das optische Modul 204 angeordnet, um die EM-Strahlung zu empfangen, wenn die EM-Strahlung von einem Objekt 106 reflektiert wird. In einigen Implementierungen kann das optische Modul 204 eine oder mehrere Optiken, Linsen oder andere Komponenten umfassen, um die reflektierten EM-Wellen zu bündeln oder zu richten. In anderen Implementierungen kann das optische Modul 204 z. B. einen Empfänger umfassen, einen Wellenleiter, eine Antenne und dergleichen.
  • Wie in 2 dargestellt ist, ist in einer Implementierung das Sensormodul 206 angeordnet, um die reflektierte EM-Strahlung von dem optischen Modul 204 zu empfangen. In einer Implementierung besteht das Sensormodul 206 aus zahlreichen Pixeln. In einem Beispiel ist jedes der zahlreichen Pixel ein individueller Bildsensor (z. B. lichtempfindliche Pixel, etc.). In einem solchen Beispiel kann ein resultierendes Bild vom Sensormodul 206 eine Kombination der Sensorbilder der einzelnen Pixel sein. In einer Implementierung ist jedes der zahlreichen lichtempfindlichen Pixel angeordnet, um die Reflexion des EM-Strahlungsimpulses in ein elektrisches Stromsignal umzuwandeln. In verschiedenen Implementierungen können die Stromsignale von den Pixel durch eine oder mehrere Verarbeitungskomponenten (z. B. dem Steuermodul 208) in ein Bild verarbeitet werden.
  • In einer Implementierung liefert das Sensormodul 206 (oder die einzelnen Pixel des Sensormoduls 206) ein Zeitmaß für die EM-Strahlung, um sich vom Beleuchtungsmodul 202 zum Objekt 106 und zurück zum Sensormodul 206 zu bewegen. Demgemäß umfasst das Bildgebungssystem 102 in einer solchen Implementierung eine Bildgebungsvorrichtung im dreidimensionalen Bereich, die angeordnet ist, um ein Objekt 106 innerhalb des vorausgewählten Bereichs 108 auf der Grundlage von Time-of-Flight-Prinzipien zu detektieren.
  • So ist z. B. in einer Implementierung das Sensormodul 206 ein Bildsensor, der angeordnet ist, um ein Objekt 106 innerhalb des vorausgewählten Bereichs 108 auf der Grundlage des Empfangs der reflektierten EM-Strahlung zu detektieren. Das Sensormodul 206 kann detektieren, ob ein Objekt im vorausgewählten Bereich 108 liegt, basierend auf der Zeit, die die emittierte EM-Strahlung braucht, um vom Beleuchtungsmodul 202 zum Sensormodul 206 zurück reflektiert zu werden. Dies kann mit der Zeit verglichen werden, die die EM-Strahlung braucht, um zum Sensormodul 206 zurückzukehren, wenn sich kein Objekt im vorausgewählten Bereich 108 befindet.
  • In einer Implementierung ist das Sensormodul 206 angeordnet, um eine Geste zumindest einer menschlichen Hand oder eines Objekts 106 innerhalb des vorausgewählten Bereichs 108 auf der Grundlage des Empfangs der Reflexion des EM-Impulses zu erkennen. So kann z. B. das Sensormodul 206 eine menschliche Hand, ein Objekt 106 und/oder eine Geste auf der Grundlage der Bildgebung jedes einzelnen Pixels des Sensormoduls 206 erkennen. Die Kombination jedes Pixels als einem einzelnen Bildgebungssensor kann in einem Bild einer Hand, einer Geste und dergleichen resultieren, basierend auf den Reflexionszeiten von Abschnitten der EM-Strahlung, die von den einzelnen Pixeln empfangen werden. In Kombination mit der Bildfrequenz des Sensormoduls 206 ermöglicht dies das Tracken des Bildes einer Hand, eines Objekts, einer Geste und dergleichen. In anderen Implementierungen kann das Sensormodul 206 zahlreiche Objekte, Hände und/oder Gesten durch Bildgebung von den zahlreichen einzelnen Pixel erkennen.
  • Des Weiteren ist in einer Implementierung das Sensormodul 206 angeordnet, um Gesten einer oder mehrerer menschlicher Hände von anderen Objekten 106 innerhalb des vorausgewählten Bereichs 108 zu unterscheiden und um die anderen Objekte 106 auszuschließen, wenn die Gesten der menschlichen Hände erkannt werden. In anderen Implementierungen kann das Sensormodul 206 angeordnet sein, um andere Objekte 106 im vorausgewählten Bereich 108 zu unterscheiden und andere detektierte Elemente auszuschließen.
  • In einer Implementierung ist das Sensormodul 206 angeordnet, um einen Abstand eines detektierten Objekts 106 vom Bildgebungssystem 102, auf der Grundlage des Empfangs der reflektierten EM-Strahlung, zu bestimmen. So kann das Sensormodul 206 z. B. den Abstand eines detektierten Objekts 106 bestimmen, indem die Lichtgeschwindigkeit mit der Zeit, die die EM-Strahlung zur Bewegung vom Beleuchtungsmodul 202 zum Objekt 106 und zurück zum Sensormodul 206 braucht, multipliziert wird. In einer Implementierung ist jedes Pixel des Sensormoduls 206 angeordnet, um die Zeit zu messen, die ein Abschnitt der EM-Strahlung braucht, um sich vom Beleuchtungsmodul 202 zum Objekt 106 und zurück zum Pixel zu bewegen.
  • In einer Implementierung ist eine seitliche Auflösung des Sensormoduls 206 auf Grundlage des Betriebsmodus des Bildgebungssystems 102 anpassbar. Wie im Zustandsdiagramm 300 der 3 dargestellt ist, wird der erste Betriebsmodus mit einer niedrigen Auflösung (z. B. 10 × 10 Pixel, 5 cm Tiefenauflösung) in Zusammenhang gebracht, um Energie zu sparen, wenn kein Objekt 106 detektiert wird. Der zweite Betriebsmodus wird mit einer mittleren Auflösung (z. B. 30 × 30 Pixel, 1 cm Tiefenauflösung) für moderaten Stromverbrauch, wenn zumindest ein Objekt 106 detektiert wurde, in Zusammenhang gebracht. Der dritte Betriebsmodus wird mit einer höheren Auflösung (z. B. 160 × 160 Pixel, 5 mm Tiefenauflösung) für die beste Leistung, wenn zumindest eine menschliche Hand detektiert wird, in Zusammenhang gebracht. In anderen Implementierungen können andere Auflösungswerte mit dem Betriebsmodus in Zusammenhang stehen. In einigen Ausführungsformen können Pixel gesteuert werden, so dass sie gleichzeitig unterschiedliche Auflösungen zeigen. So können in der Gegenwart eines Objekts und/oder einer Hand Pixel z. B. auf der Grundlage der Bildverarbeitung einer vorherigen Tiefe oder 3D-Messung bestimmt werden, um somit keinem Objekt, dem Objekt oder der Hand des Objekts zu entsprechen. Unterschiedliche Pixel-Auflösungen können somit für jene Pixel erhalten werden, die keinem Objekt, dem Objekt und der Hand entsprechen. Die Pixel mit unterschiedlichen Pixel-Auflösungen können des Weiteren angepasst oder getrackt werden, wenn sich z. B. das gesamte Objekt bewegt, z. B. in eine seitliche Richtung.
  • In einer zusätzlichen Implementierung kann aus Energiesparzwecken die Bildfrequenz in Bildern pro Sekunde und/oder Latenz des Sensormoduls 206 z. B. auch auf der Grundlage des Betriebsmodus des Bildgebungssystems 102 angepasst werden. Wie in 3 dargestellt ist, können die Bilder pro Sekunde des Sensormoduls 206 Beispielwerte von 2 fps, 10 fps und 60 fps für den ersten, zweiten bzw. dritten Betriebsmodus sein. Ein Betrieb mit reduzierter Bildfrequenz spart Energie im ersten und zweiten Betriebsmodus, wenn die Leistung nicht von so großer Bedeutung ist. In anderen Implementierungen können andere Bildfrequenzen mit den Betriebsmodi in Zusammenhang gebracht werden.
  • In einer anderen Implementierung kann die Leistung zu den Modulationsantrieben für die Pixel (und/oder für die Beleuchtungsquelle/-emitter) in ähnlicher Weise auf der Grundlage des Betriebsmodus des Bildgebungssystems 102 angepasst werden. So kann die Energie z. B. im ersten Betriebsmodus reduziert sein (z. B. Minimalenergie), im zweiten Betriebsmodus erhöht und im dritten Betriebsmodus weiter erhöht (z. B. Maximalenergie).
  • In einer weiteren Implementierung kann das Sensormodul 206 das Binning bzw. die Kategorieeinstufung der Pixel durchführen, die so konfiguriert sind, dass sie die Reflexion der EM-Strahlung empfangen. So kann das Binning z. B. das Kombinieren einer Gruppe von benachbarten Pixel und das Verarbeiten der Gruppe von Pixel als einzelner Verbundpixel umfassen. Eine erhöhte Pixelfläche kann in höherer Sensorempfindlichkeit resultieren und somit den Beleuchtungsbedarf reduzieren, wodurch eine Reduzierung der Energie in der emittierten EM-Strahlung zugelassen wird. Diese Energiereduzierung kann in der Form von reduzierter Spitzenleistung, reduzierter Integrationszeit oder dergleichen ablaufen.
  • Wenn es in einer Implementierung umfasst ist, kann das Steuermodul 208 angeordnet sein, um dem Bildgebungssystem 102 Steuerung und/oder Verarbeitung bereitzustellen. So kann das Steuermodul 208 z. B. die Betriebsmodi des Bildgebungssystems 102 steuern, den Betrieb der anderen Module (202, 204, 206) steuern und/oder die Signale und Informationsausgabe durch die anderen Module (202, 204, 206) verarbeiten. In verschiedenen Implementierungen ist das Steuermodul 208 angeordnet, um mit einem oder mehreren von Beleuchtungsmodul 202, optischem Modul 204 und Sensormodul 206 zu kommunizieren. In einigen Implementierungen kann das Steuermodul 208 in eines oder mehrere der anderen Module (202, 204, 206), integriert sein, oder von den Modulen (202, 204, 206) entfernt angeordnet sein.
  • In einer Implementierung ist das Steuermodul 208 angeordnet, um den Betriebsmodus des Bildgebungssystems 102 auf der Grundlage davon, ob die EM-Strahlung von einem Objekt 106 reflektiert wird oder nicht, zu bestimmen. Des Weiteren kann das Steuermodul 208 angeordnet sein, um den Betriebsmodus des Bildgebungssystems 102 auf der Grundlage davon, ob das Objekt 106 eine menschliche Hand ist oder nicht, zu bestimmen. Wie in Bezug auf das Zustandsdiagramm 300 in 3 erläutert, schaltet das Steuermodul 208 das Bildgebungssystem 102 in den ersten Betriebsmodus, wenn kein Objekt 106 innerhalb des vorausgewählten Bereichs 108 detektiert wird, schaltet das Steuermodul 208 das Bildgebungssystem 102 in den zweiten Betriebsmodus, wenn ein Objekt 106 innerhalb des vorausgewählten Bereichs 108 detektiert wird, und schaltet das Steuermodul 208 das Bildgebungssystem 102 in einen dritten Betriebsmodus, wenn zumindest eine menschliche Hand innerhalb des vorausgewählten Bereichs 108 detektiert wird. In anderen Implementierungen kann das Steuermodul 208 angeordnet sein, um automatisch das Bildgebungssystem 102 zwischen Betriebsmodi auf der Grundlage von anderen Auslösern (z. B. Wärmewerte, Energieleistung, Lichtzustände etc.) zu schalten.
  • In einer Implementierung ist das Steuermodul 208 angeordnet, um eine von einer oder mehreren Händen oder durch ein Objekt 106 bewirkte Geste zu detektieren, zu erkennen und/oder zu tracken. In verschiedenen Implementierungen kann das Steuermodul 208 so programmiert sein, dass es einige Objekte 106 erkennt und andere ausschließt. So kann das Steuermodul 208 z. B. programmiert sein, alle anderen Objekte auszuschließen, wenn zumindest eine menschliche Hand detektiert wird. Das Steuermodul 208 kann auch so programmiert sein, dass es gewisse Gesten erkennt und trackt, die mit Eingaben oder Befehlen an die mobile Vorrichtung 104 oder dergleichen in Zusammenhang stehen. In einem Beispiel kann das Steuermodul 208 das Bildgebungssystem 102 in den dritten Betriebsmodus versetzen, wenn eine Geste getrackt wird, um das beste Leistungsverhalten sicherzustellen und die genaueste Ablesung der Geste bereitzustellen.
  • In einer Implementierung ist das Steuermodul 208 angeordnet, um einen Abstand des Objekts 106 vom Bildgebungssystem 102 zu berechnen, basierend auf der gemessenen Zeit der reflektierten EM-Strahlung. Demgemäß kann das Steuermodul 208 angeordnet sein, um die Stromsignalausgabe vom Sensormodul 206 (oder von den Pixel des Sensormoduls 206) in den Abstand des Objekts 106 vom Bildgebungssystem 102 umzuwandeln. Des Weiteren kann in einer Implementierung das Steuermodul 208 angeordnet sein, um das Stromsignal in ein dreidimensionales Bild des Objekts 106 umzuwandeln. In einer Implementierung ist das Steuermodul 208 angeordnet, um den berechneten Abstand und/oder das dreidimensionale Bild des Objekts 106 auszugeben. Das Bildgebungssystem 102 kann z. B. angeordnet sein, um einen Abstand auszugeben, ein dreidimensionales Bild des detektierten Objekts 106, wobei Koordinaten des Objekts 106 getrackt werden, und so weiter, zu einer Anzeigevorrichtung, zu einem anderen System, das angeordnet ist, die Information oder dergleichen zu verarbeiten.
  • In verschiedenen Implementierungen können zusätzliche oder alternative Komponenten verwendet werden, um die geoffenbarten Techniken und Anordnungen zu erzielen.
  • Repräsentatives Verfahren
  • 4 veranschaulicht ein repräsentatives Verfahren 400 zum Anpassen von Parametern eines Bildgebungssystems (wie dem Bildgebungssystem 102). Das Verfahren 400 beschreibt das Detektieren eines oder mehrerer Objekte (wie ein Objekt 106) in einem vorausgewählten Bereich (wie einem vorausgewählten Bereich 108). Ein oder mehrere Parameter von emittierter elektromagnetischer Strahlung (EM-Strahlung) kann/können auf der Grundlage davon, ob ein Objekt in dem vorausgewählten Bereich detektiert wird oder nicht, angepasst werden. Der Prozess 400 ist mit Bezug auf die 13 beschrieben.
  • Die Reihenfolge, in welcher das Verfahren beschrieben ist, soll nicht als Einschränkung gedacht sein, und es kann jede beliebige Anzahl der beschriebenen Prozessblöcke kombiniert werden, um das Verfahren oder abwechselnde Verfahren zu implementieren. Zusätzlich dazu können einzelne Blöcke aus dem Verfahren gelöscht werden, ohne dabei vom Geist und Umfang des hierin beschriebenen Gegenstands abzuweichen. Darüber hinaus kann das Verfahren in allen geeigneten Materialen oder Kombinationen davon implementiert werden, ohne dabei vom Umfang des hierin beschriebenen Gegenstands abzuweichen.
  • Bei Block 402 umfasst das Verfahren das Emittieren elektromagnetischer Strahlung (EM-Strahlung) zur Beleuchtung eines vorausgewählten Bereichs. In einem Beispiel kann die EM-Strahlung durch einen Emitter (wie einem Beleuchtungsmodul 202) emittiert werden, der z. B. einen LED- oder Laser-Emitter umfasst. In verschiedenen Implementierungen umfasst die EM-Strahlung einen modulierten Infrarot-Lichtimpuls. In verschiedenen Implementierungen kann der vorausgewählte Bereich sich auf eine Rechnervorrichtung (wie eine mobile Vorrichtung 104) beziehen, um somit z. B. eine Eingabe in die Rechnervorrichtung bereitzustellen.
  • Bei Block 404 umfasst das Verfahren das Empfangen einer Reflexion der EM-Strahlung. So kann die Reflexion der EM-Strahlung z. B. von einem Bildgebungssensor (wie einem Sensormodul 206) empfangen werden. Die EM-Reflexion kann z. B. vom Bildgebungssensor über Optik, einen Empfänger, eine Antenne oder dergleichen empfangen werden.
  • In verschiedenen Implementierungen kann das Verfahren das Detektieren, Erkennen und/oder Tracken eines Objekts, einer menschlichen Hand und/oder einer Geste des Objekts oder der menschlichen Hand umfassen.
  • Bei Block 406 umfasst das Verfahren das Anpassen eines oder mehrerer Parameter der EM-Strahlung auf der Grundlage davon, ob die Reflexion der EM-Strahlung von einem Objekt innerhalb des vorausgewählten Bereichs reflektiert wird oder nicht. in verschiedenen Implementierungen können der eine oder mehrere Parameter der EM-Strahlung eine Beleuchtungszeit, einen Arbeitszyklus, eine Spitzenleistung und eine Modulationsfrequenz der elektromagnetischen Strahlung umfassen. Ein oder mehrere Parameter können z. B. erhöht werden, wenn ein Objekt detektiert wird, und reduziert, wenn kein Objekt detektiert wird.
  • In einer weiteren Implementierung umfasst das Verfahren das Anpassen des einen oder der mehreren Parameter der EM-Strahlung auf der Grundlage davon, ob die Reflexion der EM-Strahlung von einer menschlichen Hand innerhalb des vorausgewählten Bereichs reflektiert wird oder nicht. Ein oder mehrere Parameter können weiter erhöht werden, wenn eine Hand detektiert wird, und gesenkt, wenn z. B. keine Hand detektiert wird.
  • In einer Implementierung umfasst das Verfahren das Anpassen eines oder mehrerer Parameter des Bildgebungssensors auf der Grundlage davon, ob die Reflexion der EM-Strahlung von einem Objekt innerhalb des vorausgewählten Bereichs reflektiert wird oder nicht. In verschiedenen Implementierungen können der eine oder die mehreren Parameter des Bildgebungssensors eine seitliche Auflösung (in Anzahl an Pixel), eine Tiefenauflösung (z. B. in die Entfernung) und eine Bildfrequenz (z. B. Rahmen pro Sekunde) umfassen.
  • In einer anderen Implementierung umfasst der Prozess das Binning von Pixel, die so konfiguriert sind, so dass die Reflexion der EM-Strahlung empfangen wird. So kann Binning z. B. das Kombinieren der Signale von einer Gruppe benachbarter Pixel und das Verarbeiten des kombinierten Signals der Gruppe von Pixel als einziges Verbundpixel umfassen.
  • In einer Implementierung umfasst das Verfahren des Weiteren das Messen einer Zeit vom Emittieren der EM-Strahlung zum Empfang der Reflexion der EM-Strahlung und das Berechnen eines Abstands eines Objekts auf der Grundlage der gemessenen Zeit. In einer weiteren Implementierung umfasst der Prozess das Ausgeben der Signalgebungsinformation wie Abstand, ein dreidimensionales Bild des detektierten Objekts, Tracking-Koordinaten des Objekts und so weiter, an eine Anzeigevorrichtung, an ein anderes System, das angeordnet ist, die Information zu verarbeiten, oder dergleichen.
  • In anderen Implementierungen können andere Techniken im Verfahren 400 in verschiedenen Kombinationen umfasst sein und innerhalb des Umfangs der Offenbarung bleiben.
  • Schlussfolgerung
  • Obwohl die Implementierungen der Offenbarung in einer Sprache beschrieben wurden, die für die Struktureigenschaften und/oder methodischen Aktionen spezifisch ist, ist zu verstehen, dass die Implementierungen nicht notwendigerweise auf die beschriebenen spezifischen Merkmale oder Aktionen beschränkt sind. Die spezifischen Merkmale und Aktionen sind vielmehr als repräsentative Formen der Implementierung von beispielhaften Vorrichtungen und Techniken geoffenbart. Es ist anzumerken, dass jeder Anspruch für eine eigenständige Ausführungsform stehen kann. Es werden aber auch andere Ausführungsformen durch die Kombination eines oder mehrerer Merkmale eines unabhängigen oder abhängigen Anspruchs mit Merkmalen eines anderen Anspruchs bereitgestellt, selbst wenn auf diesen Anspruch kein Rückbezug hergestellt wurde.

Claims (26)

  1. Vorrichtung, umfassend: einen Emitter, der angeordnet ist, um einen modulierten Lichtimpuls zu emittieren, wobei eine Eigenschaft des Lichtimpulses auf der Grundlage davon, ob ein Objekt innerhalb eines vorausgewählten Bereichs in Bezug auf das Gerät detektiert wird oder nicht, anpassbar ist; und einen Bildsensor, der angeordnet ist, um das Objekt innerhalb des vorausgewählten Bereichs auf der Grundlage des Empfangs einer Reflexion des Lichtimpulses zu detektieren.
  2. Vorrichtung nach Anspruch 1, wobei der Bildsensor mehrere lichtempfindliche Pixel umfasst, die angeordnet sind, um die Reflexion des Lichtimpulses in ein Stromsignal umzuwandeln.
  3. Vorrichtung nach Anspruch 2, des Weiteren umfassend ein Steuermodul, das angeordnet ist, um zumindest eines von das Stromsignal in einen Abstand des Objekts von der Vorrichtung umzuwandeln und das Stromsignal in ein dreidimensionales Bild des Objekts umzuwandeln.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, wobei der Emitter eines von einer lichtemittierenden Diode (LED) oder einem Laser-Emitter umfasst.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, wobei zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz des Lichtimpulses auf der Grundlage davon angepasst ist, ob ein Objekt innerhalb des vorausgewählten Bereichs detektiert wird oder nicht.
  6. Vorrichtung nach Anspruch 5, wobei das zumindest eine von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz des Lichtimpulses des Weiteren auf der Grundlage davon angepasst wird, ob eine menschliche Hand innerhalb des vorausgewählten Bereichs detektiert wird.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, wobei der Bildsensor so angeordnet ist, dass er eine Geste zumindest einer menschlichen Hand innerhalb des vorausgewählten Bereichs auf der Grundlage des Empfangs der Reflexion des Lichtimpulses erkennt.
  8. Vorrichtung nach Anspruch 7, wobei der Bildsensor angeordnet ist, um die Geste der zumindest einen menschlichen Hand von anderen Objekten innerhalb des vorausgewählten Bereichs zu unterscheiden und die anderen Objekte auszuschließen, wenn die Geste der zumindest einen menschlichen Hand erkannt wird.
  9. Vorrichtung nach einem der Ansprüche 1 bis 8, wobei die Vorrichtung eine dreidimensionale Bildgebungsvorrichtung umfasst, die angeordnet ist, um ein Objekt innerhalb des vorausgewählten Bereichs auf den Grundlagen der Laufzeit-Prinzipien zu detektieren.
  10. System, umfassend: ein Beleuchtungsmodul, das angeordnet ist, um Lichtstrahlung zu emittieren, wobei ein oder mehrere Parameter der Lichtstrahlung auf der Grundlage eines Betriebsmodus des Systems anpassbar sind; ein optisches Modul, das angeordnet ist, um die Lichtstrahlung zu empfangen, wenn die Lichtstrahlung von einem Objekt reflektiert wird; ein Sensormodul, das angeordnet ist, um die Lichtstrahlung vom optischen Modul zu empfangen und eine Zeit zu messen, die die Lichtstrahlung braucht, um sich vom Beleuchtungsmodul zum Objekt und zum Sensormodul zu bewegen; und ein Steuermodul, das angeordnet ist, um einen Abstand des Objekts vom System auf der Grundlage der gemessenen Zeit zu berechnen, wobei das Steuermodul des Weiteren angeordnet ist, um den Betriebsmodus des Systems auf der Grundlage davon zu bestimmen, ob die Lichtstrahlung vom Objekt reflektiert wird.
  11. System nach Anspruch 10, wobei das Sensormodul mehrere Pixel umfasst, wobei jedes Pixel des Sensormoduls angeordnet ist, um die Zeit zu messen, die ein Teil der Lichtstrahlung braucht, um sich vom Beleuchtungsmodul zum Objekt und zum Pixel zu bewegen.
  12. System nach Anspruch 11, wobei eine Auflösung des Sensormoduls auf der Grundlage einer vorherigen Bildverarbeitung anpassbar ist, die vom Sensormodul durchgeführt wird.
  13. System nach Anspruch 11 oder 12, wobei eine seitliche Auflösung des Sensormoduls auf der Grundlage des Betriebsmodus des Systems anpassbar ist.
  14. System nach einem der Ansprüche 10 bis 13, wobei das Steuermodul des Weiteren angeordnet ist, um den Betriebsmodus des Systems auf der Grundlage davon zu bestimmen, ob das Objekt eine menschliche Hand ist.
  15. System nach einem der Ansprüche 10 bis 14, wobei die Lichtstrahlung einen oder mehrere modulierte Infrarot-Lichtimpulse umfasst.
  16. System nach einem der Ansprüche 10 bis 15, wobei das Steuermodul das System in einen ersten Betriebsmodus schaltet, wenn kein Objekt innerhalb eines vorausgewählten Bereichs detektiert wird, das Steuermodul das System in einen zweiten Betriebsmodus schaltet, wenn ein Objekt innerhalb des vorausgewählten Bereichs detektiert wird, und das Steuermodul das System in einen dritten Betriebsmodus schaltet, wenn zumindest eine menschliche Hand innerhalb des vorausgewählten Bereichs detektiert wird.
  17. System nach Anspruch 16, wobei zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz der Lichtstrahlung erhöht wird, wenn das System vom ersten Betriebsmodus in den zweiten Betriebsmodus oder vom zweiten Betriebsmodus in den dritten Betriebsmodus geschaltet wird, und wobei das zumindest eine von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz der Lichtstrahlung verringert wird, wenn das System vom dritten Betriebsmodus in den zweiten Betriebsmodus oder vom zweiten Betriebsmodus in den ersten Betriebsmodus geschaltet wird.
  18. System nach einem der Ansprüche 10 bis 17, wobei das Steuermodul des Weiteren angeordnet ist, um zumindest einen von dem berechneten Abstand und einem dreidimensionalen Bild des Objekts auszugeben.
  19. Verfahren, umfassend: das Emittieren von elektromagnetischer Strahlung zur Beleuchtung eines vorausgewählten Bereichs; das Empfangen einer Reflexion der elektromagnetischen Strahlung; und das Anpassen eines oder mehrerer Parameter der elektromagnetischen Strahlung auf der Grundlage davon, ob die Reflexion der elektromagnetischen Strahlung von einem Objekt innerhalb des vorausgewählten Bereichs reflektiert wird.
  20. Verfahren nach Anspruch 19, des Weiteren umfassend das Anpassen des einen oder der mehreren Parameter der elektromagnetischen Strahlung auf der Grundlage davon, ob die Reflexion der elektromagnetischen Strahlung von einer menschlichen Hand innerhalb des vorausgewählten Bereichs reflektiert wird.
  21. Verfahren nach Anspruch 20, des Weiteren umfassend das Erkennen einer Geste der zumindest einen menschlichen Hand.
  22. Verfahren nach einem der Ansprüche 19 bis 21, des Weiteren umfassend das Messen einer Zeit vom Emittierender elektromagnetischen Strahlung bis zum Empfangen der Reflexion der elektromagnetischen Strahlung und das Berechnen eines Abstands eines Objekts auf der Grundlage der gemessenen Zeit.
  23. Verfahren nach einem der Ansprüche 19 bis 22, des Weiteren umfassend die Kategorieeinstufung von Pixeln, die so konfiguriert sind, die Reflexion der elektromagnetischen Strahlung zu empfangen, wobei die Kategorieeinstufung das Kombinieren einer Gruppe von benachbarten Pixel und das Verarbeiten der Gruppe als einzelnes Verbundpixel umfasst.
  24. Verfahren nach einem der Ansprüche 19 bis 23, wobei der eine oder mehrere der Parameter der elektromagnetischen Strahlung zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz der elektromagnetischen Strahlung umfassen.
  25. Verfahren nach einem der Ansprüche 19 bis 24, wobei die elektromagnetische Strahlung einen modulierten Infrarot-Lichtimpuls umfasst.
  26. Bereichbildgebungsvorrichtung, umfassend: einen Lichtemitter, der angeordnet ist, um einen modulierten Lichtimpuls zu emittieren, wobei zumindest eines von Beleuchtungszeit, Arbeitszyklus, Spitzenleistung und Modulationsfrequenz des Lichtimpulses automatisch auf der Grundlage davon angepasst werden kann, ob ein Objekt in einem vorausgewählten Bereich in Bezug auf die Bereichbildgebungsvorrichtung detektiert wird; und einen Bildsensor, der angeordnet ist, um einen Abstand eines Objekts von der Bereichbildgebungsvorrichtung auf der Grundlage des Empfangs einer Reflexion des Lichtimpulses zu bestimmen.
DE102013211373A 2012-06-19 2013-06-18 Dynamische adaptierung von bildgebungsparametern Pending DE102013211373A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/526,705 2012-06-19
US13/526,705 US20130335576A1 (en) 2012-06-19 2012-06-19 Dynamic adaptation of imaging parameters

Publications (1)

Publication Number Publication Date
DE102013211373A1 true DE102013211373A1 (de) 2013-12-19

Family

ID=49668223

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013211373A Pending DE102013211373A1 (de) 2012-06-19 2013-06-18 Dynamische adaptierung von bildgebungsparametern

Country Status (3)

Country Link
US (1) US20130335576A1 (de)
CN (1) CN103809742A (de)
DE (1) DE102013211373A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810613B1 (en) 2011-04-18 2020-10-20 Oracle America, Inc. Ad search engine
US11023933B2 (en) 2012-06-30 2021-06-01 Oracle America, Inc. System and methods for discovering advertising traffic flow and impinging entities
US10467652B2 (en) 2012-07-11 2019-11-05 Oracle America, Inc. System and methods for determining consumer brand awareness of online advertising using recognition
US20140062864A1 (en) * 2012-09-03 2014-03-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting three-dimensional distance information from recognition target
US10600089B2 (en) 2013-03-14 2020-03-24 Oracle America, Inc. System and method to measure effectiveness and consumption of editorial content
US9282048B1 (en) 2013-03-14 2016-03-08 Moat, Inc. System and method for dynamically controlling sample rates and data flow in a networked measurement system by dynamic determination of statistical significance
US10068250B2 (en) 2013-03-14 2018-09-04 Oracle America, Inc. System and method for measuring mobile advertising and content by simulating mobile-device usage
US10715864B2 (en) 2013-03-14 2020-07-14 Oracle America, Inc. System and method for universal, player-independent measurement of consumer-online-video consumption behaviors
US9900581B2 (en) * 2015-04-21 2018-02-20 Infineon Technologies Ag Parametric online calibration and compensation in ToF imaging
US11516277B2 (en) 2019-09-14 2022-11-29 Oracle International Corporation Script-based techniques for coordinating content selection across devices

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411372B1 (ko) * 1995-04-11 2004-05-06 마츠시타 덴끼 산교 가부시키가이샤 비디오정보조정장치,비디오정보송신장치및비디오정보수신장치
US5821922A (en) * 1997-05-27 1998-10-13 Compaq Computer Corporation Computer having video controlled cursor system
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
CA2273113A1 (en) * 1999-05-26 2000-11-26 Tactex Controls Inc. Touch pad using a non-electrical deformable pressure sensor
US7904139B2 (en) * 1999-08-26 2011-03-08 Non-Invasive Technology Inc. Optical examination of biological tissue using non-contact irradiation and detection
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US7541588B2 (en) * 2005-07-12 2009-06-02 Northrop Grumman Corporation Infrared laser illuminated imaging systems and methods
US8031175B2 (en) * 2008-04-21 2011-10-04 Panasonic Corporation Touch sensitive remote control system that detects hand size characteristics of user and adapts mapping to screen display
US9019237B2 (en) * 2008-04-06 2015-04-28 Lester F. Ludwig Multitouch parameter and gesture user interface employing an LED-array tactile sensor that can also operate as a display
WO2010078456A2 (en) * 2008-12-30 2010-07-08 Sj Technologies, Llc Illuminated optical apparatus
US8681124B2 (en) * 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US8907894B2 (en) * 2009-10-20 2014-12-09 Northridge Associates Llc Touchless pointing device
EP2314427B8 (de) * 2009-10-23 2016-08-31 First Sensor Mobility GmbH Verfahren und Vorrichtung zur Steuerung von elektrischen Geräten mittels Bewegungsdetektion
CN101790048B (zh) * 2010-02-10 2013-03-20 深圳先进技术研究院 智能摄像系统及方法
CN101866056A (zh) * 2010-05-28 2010-10-20 中国科学院合肥物质科学研究院 基于led阵列共透镜tof深度测量的三维成像方法和系统
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
CN202026403U (zh) * 2011-01-24 2011-11-02 南京壹进制信息技术有限公司 基于敏感信息的分辨率可动态调节的监控装置
KR20130034765A (ko) * 2011-09-29 2013-04-08 삼성전자주식회사 휴대 단말기의 펜 입력 방법 및 장치

Also Published As

Publication number Publication date
US20130335576A1 (en) 2013-12-19
CN103809742A (zh) 2014-05-21

Similar Documents

Publication Publication Date Title
DE102013211373A1 (de) Dynamische adaptierung von bildgebungsparametern
DE102013112798A1 (de) Dynamische Stromersparnis bei der Bilderfassung
DE112013005337T5 (de) Objekterfassung und Nachverfolgung mit veränderlichen Feldbeleuchtungsvorrichtungen
DE102014101354B4 (de) Raumintensitätsverteilungsgesteuerter blitz
DE112015004335T5 (de) Laufzeitkamerasystem mit scanbeleuchter
DE112015005711T5 (de) Integriertes kamerasystem mit zweidimensionaler bilderfassung und dreidimensionaler laufzeiterfassung mit beweglicher beleuchteter region von interesse
Clarke et al. Deriving an appropriate baseline for describing fixation behaviour
DE102018132428A1 (de) Photomosaische Bodenkartierung
DE112016005865T5 (de) Automatische Bereichssteuerung für Tiefenkamera mit aktiver Beleuchtung
DE112015002463T5 (de) Systeme und Verfahren zum gestischen Interagieren in einer im Umfeld vorhandenen Computerumgebung
DE112015005725T5 (de) Beleuchter für ein kamerasystem mit dreidimensionaler laufzeiterfassung mit beweglichem spiegelelement
DE102013111729A1 (de) Bewegungssensorarray-Vorrichtung sowie Tiefenerfassungssystem und Verfahren, die dieselbe verwenden
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
EP3103059A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE102016106511A1 (de) Parametrische Online-Kalibrierung und Kompensation bei der TOF-Bilderzeugung
DE102016105471A1 (de) Iriserfassung durch Bildgebung mit sichtbarem Licht
DE102014019688A1 (de) Elektronische Vorrichtung
DE102009043800A1 (de) Optische Fingernavigation unter Verwendung von quantisierter Bewegungsinformation
DE102016100363A1 (de) Tragbare elektronische Vorrichtung mit doppelten diagonalen Näherungssensoren und Modusschaltfunktionialität
DE112016006069T5 (de) Stereotiefenkamera mit vcsel-projektor mit gesteuerten projektionslinsen
DE112012000517T5 (de) Integrierte Belegungs- und Umgebungslichtsensoren
DE112008003993T5 (de) Bestimmen von Berührungsstellen unter Verwendung von gestörtem Licht
DE112008003896T5 (de) System und Verfahren für eine Fernsteuerung eines Computers
DE102016215746A1 (de) Projektor mit berührungsfreier Steuerung
DE102016100360A1 (de) Tragbare elektronische Vorrichtung mit doppelten diagonalen Näherungssensoren und Modusschaltfunktionialität

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication