DE102004038965A1 - Handbildschaltvorrichtung - Google Patents

Handbildschaltvorrichtung Download PDF

Info

Publication number
DE102004038965A1
DE102004038965A1 DE102004038965A DE102004038965A DE102004038965A1 DE 102004038965 A1 DE102004038965 A1 DE 102004038965A1 DE 102004038965 A DE102004038965 A DE 102004038965A DE 102004038965 A DE102004038965 A DE 102004038965A DE 102004038965 A1 DE102004038965 A1 DE 102004038965A1
Authority
DE
Germany
Prior art keywords
image
hand
switching device
finger
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102004038965A
Other languages
English (en)
Other versions
DE102004038965B4 (de
Inventor
Keiichi Minato Yamamoto
Hiromitsu Minato Sato
Shinji Yokohama Ozawa
Hideo Yokohama Saito
Hiroya Yokohama Igarashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Fuso Truck and Bus Corp
Keio University
Original Assignee
Mitsubishi Fuso Truck and Bus Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Fuso Truck and Bus Corp, Keio University filed Critical Mitsubishi Fuso Truck and Bus Corp
Publication of DE102004038965A1 publication Critical patent/DE102004038965A1/de
Application granted granted Critical
Publication of DE102004038965B4 publication Critical patent/DE102004038965B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/2045Means to switch the anti-theft system on or off by hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • B60K2360/21
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME RELATING TO HINGES OR OTHER SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS AND DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION, CHECKS FOR WINGS AND WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05Y2400/00Electronic control; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/852Sensors
    • E05Y2400/856Actuation thereof
    • E05Y2400/858Actuation thereof by body parts
    • E05Y2400/86Actuation thereof by body parts by hand

Abstract

Es wird eine Handbildschaltvorrichtung vorgeschlagen, mit der ein Handbild oder eine Handflächenbewegung eines Bedieners einfach und zuverlässig erfasst werden kann. Ausgehend von einem aufgenommenen Bild eines distalen Arms wird eine Achse bestimmt, die durch den Schwerpunkt einer Hand läuft und eine Mittelachse darstellt, die durch die Mitte des Arms läuft. Erste Scanpfade, die rechtwinklig zu der Mittelachse ausgerichtet sind, und/oder zweite Scanpfade, die sich längs der Mittelachse erstrecken, werden zwischen einer Fingerspitze und einer Handflächenmitte festgelegt. Beim Wechseln des zu untersuchenden Scanpfades von der Fingerspitzenseite in Richtung der Handflächenmitte wird bestimmt, wie viele Scanpfade vorliegen, für die jeweils eine Fingerbreite ermittelt wird, die gleich einer oder größer als eine festgelegte Breite ist, wobei ermittelt wird, ob der Finger von der Handfläche abgestreckt wird.

Description

  • Die vorliegende Erfindung betrifft eine Handbildschaltvorrichtung, mit der ein Fahrer Einrichtungen, mit denen ein Kraftfahrzeug ausgestattet ist, wie eine Klimaanlage, ein Audiosystem und/oder Hilfseinrichtungen des Kraftfahrzeugs, wie Seitenspiegel, einfach bedienen kann, ohne dass der Fahrprozess selbst beeinträchtigt wird und ohne dass ein Bedienfeld der Einrichtungen, mit denen das Kraftfahrzeug ausgestattet ist, berührt werden muss.
  • Es wurde vorgeschlagen, eine fahrzeuggestützte Einrichtung, wie eine Klimaanlage oder ein Audiosystem, ohne Berührung eines Bedienfelds der fahrzeuggestützten Einrichtung zu bedienen. Hierbei wird ein Erscheinungsbild eines Körperteils, beispielsweise der linken Hand, eines Fahrers mittels einer Kamera erfasst und einer Bilderkennung unterzogen, so dass eine Information gewonnen wird, die zur Bedienung der fahrzeuggestützten Einrichtung genutzt wird (siehe beispielsweise JP-A-11-134090). Alternativ wurde vorgeschlagen, eine Geste des Fahrers, wie ein Handbild und eine Handbewegung, zu erfassen. Aus der Geste wird eine Information ermittelt, die zur Bedienung der fahrzeuggestützten Einrichtung genutzt wird (siehe beispielsweise JP-A-2001-216069).
  • Derartige Vorrichtungen, bei denen ein Handbild ausgehend von einem aufgenommenen Bild einer Hand mittels einer Bilderkennung ausgewertet wird oder bei denen die Bewegung einer Hand durch Verfolgen einer Positionsänderung einer erkannten Hand erfasst wird, werden in der vorliegenden Beschreibung der Einfachheit halber als Handbildschaltvorrichtung bezeichnet.
  • Wenn die Handbildschaltvorrichtung zur Bedienung fahrzeuggestützter Einrichtungen genutzt wird, muss das Bild oder die Bewegung der Hand des Fahrers bzw. des Bedieners zuverlässig und genau detektiert werden. Hierzu muss genau erkannt werden, welcher Teil des aufgenommenen Bildes der Hand des Fahrers bzw. des Bedieners zuzuordnen ist. Es besteht das Problem, dass der Fahrer bzw. Bediener bisweilen ein langärmeliges Hemd, eine Armbanduhr oder dergleichen trägt. In diesem Fall wird ein dem Handgelenkt zuzuordnender Bereich in dem aufgenommenen Bild als außerordentlich groß erkannt oder infolge des Vorliegens eines Bildbestandteils, der mit der Armbanduhr oder dergleichen korrespondiert, als abgetrennt angesehen. Dies kann dazu führen, dass ein mit der Handfläche oder dem Handrücken des Fahrers korrespondierender Bereich, welche Bereiche nachfolgend jeweils als Handfläche bezeichnet werden, nicht mit Zuverlässigkeit erfasst werden kann. Ein solcher Bereich muss aber für die Bilderkennung erfasst werden. Zudem besteht beim Stand der Technik das Problem, dass der Verarbeitungsaufwand ansteigt, da grundsätzlich eine aufwendige Bildverarbeitungstechnik, wie eine Bereichssegmentierung oder eine Abgleichstechnik, eingesetzt wird, bei der auf ein vorher festgelegtes Standardhandbild Bezug genommen wird.
  • Der Erfindung liegt die Aufgabe zugrunde, eine Handbildschaltvorrichtung bereitzustellen, die ein Handbild oder eine Handbewegung eines Fahrers bzw. Bedieners einfach und zuverlässig erfasst, welches Handbild bzw. welche Handbewegung beobachtet wird, wenn der Fahrer verschiedenartige fahrzeuggestützte Einrichtungen oder Fahrzeughilfseinrichtungen bedient, wobei Informationen, die zur Bedienung der jeweiligen Einrichtung genutzt werden, korrekt aufgenommen werden.
  • Erfindungsgemäß wird eine Handbildschaltvorrichtung bereitgestellt, die Mittel zur Aufnahme eines Bildes eines distalen Armes umfasst, der in einer festgelegten Bildaufnahmezone angeordnet ist, in der ein Handbild und/oder eine Bewegung eines Fingers einer Hand ausgehend von dem Bild erfasst wird, das durch die Bildaufnahmemittel aufgenommen wurde, um Informationen hinsichtlich eines vorgegebenen Schaltvorgangs zu erhalten. Die Handbildschaltvorrichtung umfasst erste Bildverarbeitungsmittel zur Bestimmung einer durch eine Mitte des Armes laufende Mittelachse auf Basis des aufgenommenen Bildes, Scanpfadfestlegmittel zur Festlegung zumindest eines ersten Scanpfades, der rechtwinklig zu der Mittelachse verläuft, und/oder eines zweiten Scanpfades, der längs der Mittelachse verläuft, und Bestimmungsmittel, um auf Grundlage zumindest des ersten oder zweiten Scanpfades, der mittels der Scanpfadeinstellmittel festgelegt wurde, zu bestimmen, ob ein Finger der Hand ausgestreckt ist.
  • Die Vorrichtung nach der Erfindung ist in der Zeichung schematisch vereinfacht dargestellt und wird in der nachfolgenden Beschreibung beispielhaft erläutert. Es zeigen:
  • 1 eine Ansicht, in der der Aufbau einer Handbildschaltvorrichtung gemäß einer Ausführungsform der Vorrichtung nach der Erfindung dargestellt ist;
  • 2 eine Ansicht, in der eine Hand/Finger-Bildaufnahmezone der in 1 dargestellten Handbildschaltvorrichtung gezeigt ist;
  • 3 ein Flussdiagramm, in dem ein Beispiel von Verarbeitungsprozeduren zur Erkennung von Handbild und Handflächenmitte dargestellt ist;
  • 4 eine schematische Ansicht zur Erläuterung des in 3 dargestellten Vorgehens zur Erkennung von Handbild und Handflächenmitte;
  • 5A eine Ansicht zur Erläuterung von Nachteilen des herkömmlichen Vorgehens zur Handbilderkennung;
  • 5B eine Ansicht, die mit der nach 5A vergleichbar ist;
  • 6A eine Ansicht, in der ein Handbild 1 dargestellt ist, das bei der Ausführungsform der Vorrichtung nach der Erfindung genutzt wird;
  • 6B eine Ansicht, in der ein Handbild 2 dargestellt ist;
  • 6C eine Ansicht, in der ein Handbild 3 dargestellt ist;
  • 6D eine Ansicht, in der ein Handbild 4 dargestellt ist;
  • 7 ein Flussdiagramm, in dem ein Beispiel von Verarbeitungsprozeduren zur Erkennung eines Handbildes dargestellt ist, die mittels eines eine angewiesene Betätigung erkennenden Erkennungsabschnitts der Handbildschaltvorrichtung nach 1 durchgeführt werden;
  • 8 ein Flussdiagramm, in dem ein Beispiel von Verarbeitungsprozeduren zur Detektion des Betätigungsumfangs darge stellt ist;
  • 9 ein Flussdiagramm, in dem ein Beispiel von Verarbeitungsprozeduren zur Bestimmung eines Betätigungsumfangs in einem Zeitmodus dargestellt ist;
  • 10 ein Flussdiagramm, in dem ein Beispiel von Verarbeitungsprozeduren zur Bestimmung des Betätigungsumfangs in einem Abstand/Zeit-Modus dargestellt ist;
  • 11 eine Ansicht, in der Eingabearten zur Eingabe schaltrelevanter Informationen in die Handbildschaltvorrichtung unter Verwendung der Hand bzw. der Finger dargestellt sind; und
  • 12 eine Ansicht, in der ein Beispiel einer systematisierten Auswahl gesteuerter Objekte dargestellt ist.
  • Nachfolgend wird eine Ausführungsform einer Handbildschaltvorrichtung nach der Erfindung anhand der Zeichnung beschrieben.
  • 1 zeigt eine Ansicht eines grundsätzlichen Aufbaus der wesentlichen Bestandteile der Handbildschaltvorrichtung gemäß der vorliegenden Ausführungsform. Es sind die Umgebung eines Fahrersitzes eines Kraftfahrzeuges und Funktionalitäten der Handbildschaltvorrichtung dargestellt, die beispielsweise mittels eines Mikrocomputers (ECU) oder dergleichen realisiert sind. Vor dem Fahrersitz ist ein Lenkrad 1 zur Betätigung durch einen Fahrer, ein nicht dargestellter Kombinationsschalter und dergleichen angeordnet, wohingegen ein Bedienabschnitt 2 für ein Audiosystem, eine Klimaanlage und/oder dergleichen an einer Konsolenplatte angeordnet sind. An einem über dem Fahrersitz angeordneten Himmel ist eine Videokamera 3 angeordnet, mittels der ein Bild einer Hand des Fahrers aufgenommen werden kann, der seinen Arm in Rich tung einer Bildaufnahmezone streckt, die seitlich neben dem Lenkrad 1 angeordnet ist. Die Kamera 3 besteht aus einer kleinen CCD-Kamera oder dergleichen. Die Kamera 3 kann so ausgelegt sein, dass sie ein mit sichtbarem Licht aufgenommenes Bild bei einer bestimmten Beleuchtung, beispielsweise am Tag, aufnimmt. Natürlich kann auch eine sogenannte Infrarotkamera eingesetzt werden, die Strahlung im nahen Infrarotbereich in Richtung der Aufnahmezone abgibt, um ein Infrarotbild zu gewinnen, wenn, wie in der Nacht, die Ausleuchtung der Aufnahmezone unzureichend ist. Zur Bedienung der Handbildschaltvorrichtung wird das Handbild dadurch geändert, dass einer oder mehrere der Finger selektiv gebeugt werden, wobei die Handfläche in horizontaler Ausrichtung in der Aufnahmezone liegt und die Handflächenposition nach hinten, nach vorne, nach links und nach rechts verändert wird. Trotz der Tatsache, dass mittels der Kamera 3 eigentlich das Bild des Handrückens aufgenommen wird, wird in der vorliegenden Beschreibung der Begriff "Handfläche" verwendet, der nicht nur die Handfläche, sondern auch den Handrücken bezeichnet, dessen Bild aufgenommen wird.
  • Grundsätzlich führt die Handbildschaltvorrichtung die Verarbeitung zur Erkennung eines Handbildes des Fahrers oder einer Handbewegung auf Basis eines durch die Kamera 3 aufgenommenen Bildes durch. Auf Grundlage der Ergebnisse der Erkennung gewinnt sie entsprechende, vorbestimmte, mit einem Schaltvorgang korrelierte Informationen. Somit dient die Handbildschaltvorrichtung an Stelle des Bedienungsabschnitts 2 dazu, dem Audiosystem, der Klimaanlage und/oder dergleichen mit einem Schaltvorgang korrelierte Informationen bereitzustellen. Insbesondere umfasst die Handbildschaltvorrichtung einen Verarbeitungsabschnitt 11 zur Digitalisierung eines Eingangsbildes, das mittels der Kamera 3 aufgenommen wurde, so dass Bildhintergrundbestandteile entfernt werden, um Bildbestandteile, die mit dem distalen Arm und insbesondere mit der Handfläche und den Fingern der Hand korrespondieren, auszufiltern; einen Schwerpunkterkennungsabschnitt 12 zur Bestimmung einer Position eines Schwerpunkts der Hand auf Basis des Bildes der Handfläche und der Finger der Hand, das mittels der Digitalisierung gewonnen wurde; und einen Bilderkennungsabschnitt 13 zur Erkennung eines Hand/Finger-Bildes.
  • Die Handbildschaltvorrichtung umfasst des Weiteren einen eine angewiesene Betätigung erkennenden Erkennungsabschnitt 14 zur Erkennung eines Schaltvorgangs, der durch den Fahrer mittels des Handbildes oder der Handbewegung vorgegeben wurde, und zwar auf Basis von Erkennungsergebnissen, die mittels des Bilderkennungsabschnitts 13 gewonnen wurden, und der mittels des Schwerpunkterkennungsabschnitts 12 ermittelten Position des Schwerpunkts der Hand. Dieser eine angewiesene Betätigung erkennende Erkennungsabschnitt 14 umfasst grundsätzlich einen Funktionsbestimmungsabschnitt 16 zur Bestimmung bzw. Identifizierung eines Typs eines Schaltvorgangs, der durch das Handbild, das wie oben beschrieben erkannt wurde, beabsichtigt ist, wobei auf eine Beziehung zwischen in einem Speicher 15 abgespeicherten Handbildern und deren Funktionen Bezug genommen wird, einen Verlagerungserkennungsabschnitt 17 zur Verfolgung einer Bewegung der Position des Schwerpunkts der Handfläche mit einem speziellen Fingerbild oder einer Bewegung von Fingerkuppen, um dadurch eine Verlagerung derselben weg von deren Referenzposition zu erfassen, und einen Zeitgeber 18 zur Überwachung der Bewegung der Handfläche oder der Fingerspitze bezüglich der Zeitdauer, während der die Handfläche oder Fingerspitze bewegt wird. Auf Grundlage der Ergebnisse der Bestimmung und Überwachung bestimmt der befehlsgeführte Erkennungsabschnitt 14 vorbestimmte, mit einem Schaltvorgang korrelierte Informationen, die durch das Handbild des Fahrers oder die Handflächenbewegung spezifiziert sind, und gibt diese mit einem Schaltvorgang korrelierten Informationen beispielsweise an das Audiosystem, die Klimaanlage oder dergleichen aus.
  • Der eine angewiesene Betätigung erkennende Erkennungsabschnitt 14 ist des Weiteren mit einem Führungsabschnitt 19 versehen, der dem Fahrer gemäß der Ergebnisse der vorstehend genannten Bestimmung und dergleichen eine bestimmte Führungsfunktionalität bereitstellt. Der Fahrer wird über einen Lautsprecher 20 über die Führung in Form einer Sprachnachricht informiert, die beispielsweise das Audiosystem oder die Klimaanlage, d.h. das gesteuerte Objekt, oder eine Lautstärke/Kanal-Einstellung, eine Zuluftstärke/Temperatur oder dergleichen, d.h. die gesteuerte Funktionalität, spezifiziert. Auch kann die Benachrichtigung in Form eines Bestätigungstons, wie einem akustischem Signal bzw. einem Pieptons, erfolgen, der einen vorgenommenen Schaltvorgang bzw. Schaltumfang kennzeichnet. Spezielle Betriebsarten des befehlsgeführten Erkennungsabschnitts 14, d.h. die Steuerung der Ausgabe der mit einem Schaltvorgang korrelierten Informationen bezüglich gesteuerter Objekte, wie einem Audiosystem, einer Klimaanlage und dergleichen, werden weiter unten erläutert.
  • Wie 2 zu entnehmen ist, liegt die seitlich neben dem Lenkrad 1 angeordnete Bildaufnahmezone 3a der Kamera 3 mindestens 50 mm, vorzugsweise etwa 100 mm, von dem äußeren Umfang des Lenkrades entfernt. Insbesondere liegt die Bildaufnahmezone an einer Stelle, zu der der Fahrer den Arm ohne Änderung seiner Fahrhaltung strecken kann, wobei der Arm auf einer Armlehne 5 liegt, die seitlich neben dem Fahrersitz angeordnet ist und die entfernt von dem Bedienabschnitt 2 für das Audiosystem und/oder dergleichen angeordnet ist, so dass die in die Bildaufnahmezone ausgestreckte Hand den Betätigungsabschnitt 2 nicht berührt. Die Bildaufnahmezone 3a hat eine rechteckige Form und eine Größe von etwa 600 mm in Richtung der Fingerspitze und von etwa 350 mm in eine Richtung, die mit der Breite der Fahrerhand korreliert ist, die neben dem Lenkrad 1 ausgestreckt ist.
  • Insbesondere ist die Bildaufnahmezone 3a eine Zone, die so angeordnet ist, dass ein Bild der Hand des Fahrers nicht aufgenommen wird, wenn der Fahrer das Lenkrad 1 hält oder den nicht dargestellten Kombinationsschalter bedient, der an der Steuersäule angeordnet ist, und dass der Fahrer seine Hand in die Zone führen kann, ohne den Arm groß zu bewegen. Somit wird eine einem Fahrvorgang zugeordnete Handbewegung oder eine Hand/Fingerbewegung für eine direkte Bedienung des Bedienabschnitts 2 für das Audiosystem und/oder dergleichen nicht fehlerhafterweise als eine Bewegung zur Bereitstellung einer mit einem Schaltvorgang korrelierten Information erkannt.
  • Wenn ein nicht dargestellter Getriebeschalthebel in der wie oben beschrieben angeordneten Bildaufnahmezone 3a liegt, kann an dem Getriebeschalthebel beispielsweise ein drucksensitiver Sensor vorgesehen sein, um zu erkennen, ob der Schalthebel durch den Fahrer gegriffen wird. Durch einen solchen Sensor kann leicht erkannt werden, ob der Getriebeschalthebel oder die Handbildschaltvorrichtung durch die in die Bildaufnahmezone 3a ausgestreckte Fahrerhand betätigt wird, wobei ein fahrrelevanter Vorgang nicht fehlerhaft als Schaltvorgang erkannt wird. Alternativ kann eine Höhenlage der Fahrerhand, d.h. deren Abstand von der Kamera 3, unter Verwendung einer als Kamera 3 dienenden stereoskopischen Kamera erfasst werden, um zu ermitteln, ob die in die Bildaufnahmezone 3a ausgestreckte Fahrerhand den Getriebeschalthebel betätigt oder in einem Raum oberhalb des Getriebeschalthebels angeordnet ist.
  • Die Anordnung der Bildaufnahmezone 3a basiert auf einer Reichweite des Arms/der Hand, die dem Fahrer beim Ausstrecken des Arms ohne Änderung einer Fahrstellung zur Verfügung steht, wobei der Arm bzw. Ellbogen auf der Armstütze 5 ruht. Der Fahrer kann seinen Arm/seine Hand in komfortabler Weise bis zu der Bildaufnahmezone 3a ausstrecken, wenn er den imaginären Schaltvorgang durchführt. Unter Zugrundelegung eines typischen Abstands zwischen dem Handgelenk und der Fingerspitze von etwa 200 mm und einer typischen Handbreite von etwa 120 mm hat die Bildaufnahmezone 3a insbesondere eine rechteckige Form und, wie oben bereits erwähnt, eine Länge von 600 mm und eine Breite von 350 mm.
  • Durch die wie oben beschriebene Auslegung der Bildaufnahmezone 3a kann die Fahrerhand, die das Lenkrad 1 loslässt und dann in natürlicher Weise ohne einen Eindruck einer Inkompatibilität bewegt wird, fehlerfrei erfasst werden, ohne dass fehlerhafterweise eine fahrrelevante Hand/Arm-Bewegung detektiert wird. Es ist auch möglich, eine Änderung der Handposition oder eine einem Schaltvorgang dienende Handbewegung in der Bildaufnahmezone 3a zuverlässig zu erfassen, so dass die Handbilderkennung und die Bestimmung eines Umfangs einer Handbewegung (Abweichung) mit einer relativ vereinfachten Bildverarbeitung auf einfache Weise durchgeführt werden kann.
  • Der Fahrer kann einen gewünschten Schaltvorgang durchführen, indem er, nachdem er eines von festgelegten Handbildern gebildet hat, die Hand einfach bewegt, wobei sich der Arm seitlich neben dem Lenkrad 1 erstreckt, und zwar ohne dass er seine Fahrhaltung ändert und ohne dass er den Bedienabschnitt 2 für das Audiosystem oder dergleichen unmittelbar berührt. Dies verringert die Belastung des Fahrers, der den Schaltvorgang durchführt. Da eine Handbewegung und/oder eine Armbewegung für einen fahrrelevanten Vorgang nicht fehlerhaft als Anweisung für einen Schaltvorgang erkannt werden kann, besteht zudem der Vorteil, dass sich der Fahrer auf das Fahren konzentrieren kann, ohne seine Aufmerksamkeit auf die Handbildschaltvorrichtung richten zu müssen, und, wenn erforderlich, auf einfache Weise Anweisungen für Schaltvorgänge geben kann, indem er einfach seine Hand (Handfläche) in die Bildaufnahmezone 3a führt.
  • Nachfolgend wird die Verarbeitung bei der Handerkennung beschrieben. Diese Verarbeitung stellt eines der Merkmale der Erfindung dar und wird auf Grundlage des digitalisierten Bildes durchgeführt.
  • Bezug nehmend auf die in 3 dargestellten Verarbeitungsprozeduren wird zu Beginn der Erkennungsverarbeitung ein mittels der Kamera 3 in der Aufnahmezone 3a aufgenommenes Eingangsbild unter Verwendung eines festgelegten Grenzwertes einer Digitalisierung unterzogen, wobei der Hintergrund des Bildes als schwarzer Bereich von den anderen Bereichen des Bildes, wie weißen Bereichen, die mit dem Arm und der Handfläche korrespondieren, unterschieden wird (Schritt S1). Mittels der Digitalisierung wird ein digitalisiertes Bild der Aufnahmezone 3a gewonnen, wie beispielhaft in 4 dargestellt. Dann wird der Schwerpunkt G des weißen Bereichs des digitalisierten Bildes bestimmt, welcher mit den dem Arm und der Handfläche zuzuordnenden Bildbestandteilen korrespondiert. Anschließend wird ausgehend von dem Schwerpunkt G und einem in Längsrichtung gerichteten Moment, das durch Analyse der Richtung bestimmt wird, in welcher weiße Elemente vorliegen, die den Schwerpunkt G durchqueren, eine Mittelachse B festgelegt (Schritt S2). Durch Festlegung der Mittelachse B, die durch den Schwerpunkt G des weißen Bereichs läuft, kann auf diese Weise die Position der Mittelachse B genau festgelegt werden.
  • Anschließend wird eine Vielzahl erster Scanpfade S1, die bezüglich der Mittelachse B rechtwinklig verlaufen, gleichmäßig beabstandet zwischen einer Oberseite oder Fingerspitzenseite des digitalisierten Bildes und dem Schwerpunkt G festgelegt (Schritt S3). Dann wird die Breite W des weißen Bildes auf den zugeordneten Scanpfaden S1 nacheinander von der Oberseite des digitalisierten Bildes aus bestimmt, wobei der Scanpfad S1 bestimmt wird, auf dem das weiße Bild die größte Breite W hat (Schritt S4). Beim Bestimmen der Breite W des weißen Bildes auf jedem Scanpfad S1 wird vorzugsweise nur das weiße Bild, das beidseits der Mittelachse B kontinuierlich angeordnet ist, als das Erfassungsobjekt herangezogen. Bei der Bestimmung des Scanpfades S1, der der größten Breite W des weißen Bildes zugeordnet ist, wird eine Bestimmung dahingehend durchgeführt, ob die Breite des weißen Bildes, welche nacheinander ausgehend von der Oberseite des Bildes bestimmt wurde, größer ist als diejenige, die hinsichtlich dem unmittelbar zuvor betrachteten Scanpfad S1 bestimmt wurde. Wenn dann ein Maximum der ermittelten Breiten auftritt, wird der zugeordnete Scanpfad S1 als derjenige bestimmt, der der größten Breite des weißen Bildes zugeordnet ist.
  • Dann wird ein Schnittpunkt des so bestimmten Scanpfades S1, der der größten Breite W des weißen Bildes zugeordnet ist, und der Mittelachse B als Mittelposition C der Handfläche bestimmt (Schritt S5). Durch die so erfolgende Bestimmung der Mittelposition C der Handfläche kann die Mittelposition C der Handfläche genau bestimmt werden, da die Breite auf Seiten des Handgelenks grundsätzlich geringer ist als die Breite eines mittleren Bereichs der Handfläche, und zwar auch, wenn das digitalisierte Bild in einem Bereich (Handgelenksbereich) zwischen dem Arm und der Handfläche, wie in 5A gezeigt, infolge einer Armbanduhr oder eines an dem Handgelenk befestigten Armbandes abgeschnitten ist, oder auch, wenn die Größe (Breite) des Arms, insbesondere die Größe des Handgelenksbereichs, als außerordentlich groß bestimmt wurde, wie in 5B für den Fall dargestellt ist, dass das Handgelenk durch eine langärmelige Bekleidung verdeckt ist, die der Fahrer trägt.
  • Anschließend wird auf Grundlage der Mittelposition C der Handfläche und der Breite W der Handfläche, welche wie oben beschrieben bestimmt wurden, unter den Scanpfaden S1, die zwischen der Oberseite des digitalisierten Bildes und der Mittelposition C angeordnet sind, eine Anzahl von Scanpfaden S1 bestimmt, von denen für jeden eine Breite bestimmt wurde, die gleich der oder größer als die vorbestimmte Breite w ist (Schritt S3). Insbesondere wird geprüft, ob die für jeden der Scanpfade S 1 ermittelte Breite gleich der oder größer als die vorbestimmte Breite w ist, die auf einen Wert eingestellt ist, der 1/7 bis 1/4 der maximalen Breite W an der Mittelposition C der Handfläche beträgt. Dann wird bestimmt, ob die Anzahl an Scanpfaden S1, für die ein weißes Bild bestimmt wurde, dessen Breite gleich der oder größer als die vorbestimmte Breite w ist, gleich dem oder größer als der Wert ist, der im Voraus in Übereinstimmung mit dem Abstand zwischen benachbarten Scanpfaden S 1 festgelegt wird. Wenn ein Weißbildbereich vorliegt, der sich um eine festgelegte Länge oder mehr in Richtung der Mittelachse B erstreckt, wird dieser Weißbildbereich als Finger, beispielsweise als Zeigefinger, erkannt, der von der Handfläche absteht. Beispielsweise wird, wenn die gemessene Länge ausgehend von der an Hand der Anzahl an Scanpfaden S1 bestimmten Mittelposition C der Handfläche 10 cm oder mehr beträgt, erkannt, dass der Zeigefinger von der Handfläche absteht.
  • Der Daumen kann in ähnlicher Weise erfasst werden. Da das zu erfassende Objekt die linke Hand ist und der Daumen in einer anderen Richtung als der Zeigefinger absteht, werden zweite Scanpfade S2 zur Erkennung des Daumens rechts von der Mittelposition C der Handfläche festgelegt, so dass sie gegenüber der Mittelachse B in einem Winkel von etwa 10° geneigt sind (Schritt S7). Das Festlegen basiert auf der Tatsache, dass der Daumen, wenn er maximal gestreckt ist, gegenüber der Mittelachse B leicht angestellt ist. Durch das Festlegen der zweiten Scanpfade S2 in einer Weise, bei der sich der maximal gestreckte Daumen im Wesentlichen rechtwinklig zu den Scanpfaden S2 erstreckt, kann eine zuverlässige Erkennung des Daumens erfolgen.
  • In einem nächsten Schritt wird die Anzahl an Scanpfaden S2 unter den zwischen der rechten Seite des digitalisierten Bildes und der Mittelposition C angeordneten Scanpfaden S2 bestimmt, für die eine Breite ermittelt wurde, die gleich der oder größer als die vorbestimmte Breite w ist (Schritt S8). Zu diesem Zeitpunkt wird wie bei der Erkennung des Zeigefingers eine Bestimmung durchgeführt, ob die Anzahl an Scanpfa den S2, für die ein weißes Bild bestimmt wurde, dessen Breite gleich der oder größer als die Breite w ist, die auf 1/7 bis 1/4 der maximalen Breite W an der Mittelposition C der Handfläche festgesetzt ist, gleich einem oder größer als ein vorbestimmter Wert ist. Wenn mindestens die vorbestimmte Anzahl an Scanpfaden S2 ermittelt wird, wird erkannt, dass der Daumen von der Handfläche nach rechts absteht.
  • Mittels der oben genannten Erkennungsverarbeitung können Informationen ermittelt werden, die das Handbild in der Aufnahmezone 3a und die Mittelposition C der Handfläche darstellen. Dann werden Bestimmungen hinsichtlich dessen gemacht, ob der Zeigefinger erkannt ist und ob der Daumen erkannt ist, wobei bestimmt wird, welches der folgenden Bilder gebildet wird: ein Bild einer geballten Faust (Handbild 1), bei welchem alle Finger in die Handfläche gebeugt sind; ein Bild mit einem gestreckten Finger (Handbild 2), bei dem nur der Zeigefinger ausgestreckt ist; ein Zustimmungsbild (Handbild 3), bei dem nur der Daumen horizontal ausgestreckt ist; und ein L-förmiges Bild (Handbild 4), bei dem der Zeigefinger und der Daumen ausgestreckt sind. Diese Bilder sind in den 6A bis 6D dargestellt.
  • Bei dieser Ausführungsform wird das L-förmige Bild (Handbild 4) genutzt, um der Handbildschaltvorrichtung den Bedienungsstart anzuzeigen. Das Handbild 3 wird in Kombination mit dem Bild einer geballten Faust (Handbild 1) verwendet, um das Bild eines Niederdrückens eines Druckknopfs durch Ändern des Handbildes auszudrücken, wobei der Daumen ein- und ausgeschwenkt wird. Das Handbild 3 wird genutzt, um Informationen hinsichtlich der Auswahl zu steuernder Objekte einzugeben. Das Bild mit gestrecktem Finger (Handbild 2) dient dazu, ein Bild einer Anzeigenadel eines analogen Instrumentes auszudrücken und wird verwendet, um dem gesteuerten Objekt durch Änderung der Position der Fingerspitze (oder der Handfläche) einen Betätigungsumfang anzuzeigen. Das Bild einer geballten Faust (Handbild 1) wird auch verwen det, um das Betriebsende der Handbildschaltvorrichtung anzuweisen.
  • In dem eine angewiesene Betätigung erkennenden Erkennungsabschnitt 14 werden das Handbild und die Änderung der wie oben erkannten Position der Handfläche der Erkennungsverarbeitung unterzogen, die gemäß den beispielhaft in 7 dargestellten Prozeduren durchgeführt wird, wobei Schaltvorgänge, die mittels der Fahrerhand bzw. mittels der Hand des Bedieners angewiesen werden, interpretiert werden und mit einem Schaltvorgang korrelierte Informationen an die gesteuerten Objekte ausgegeben werden.
  • Insbesondere werden dem Erkennungsabschnitt 14 Daten übergeben, die Ergebnisse der Erkennung in dem Bilderkennungsabschnitt 13 und Informationen hinsichtlich der Mittelposition C der Handfläche wiedergeben (Schritt S11). Dann wird ein Flag F abgeprüft, das verwendet wird, um zu unterscheiden, ob eine Schalterbetätigung angewiesen ist (Schritt S12). Wenn das Flag F nicht gesetzt ist (F = 0), wird bestimmt, ob das Handbild das L-förmige Handbild (Handbild 4) ist, das den Bedienungsstart angibt (Schritt S13). Wenn das Handbild 4 erkannt wird, wird das Flag F gesetzt (Schritt S14), wobei die Eingabe von mit einem Schaltvorgang korrelierten Informationen gestartet wird. Wenn das Handbild 4 nicht erfasst wird, wird die vorgenannte Verarbeitung so lange wiederholt, bis das Handbild 4 ermittelt wird.
  • Wenn das Flag F gesetzt ist (F = 1), wird festgelegt, dass die Eingabe und die damit korrelierte Verarbeitung für die Schalterbetätigung schon gestartet ist (Schritt S12). So wird eine Bestimmung bezüglich eines Flag M durchgeführt, die verwendet wird, um zu unterscheiden, ob ein Funktionsauswahlmodus zur Spezifizierung eines gesteuerten Objekts gesetzt ist (Schritt S15). Wenn das Flag M nicht gesetzt ist (M = 0), wird bestimmt, ob das Handbild das Handbild 3 ist, das genutzt wird, um ein zu steuerndes Objekt auszuwählen (Schritt S16). Wenn das Handbild 3 ermittelt wird, wird das Flag M auf 1 gesetzt (M = 1), wobei der Modus zur Auswahl eines gesteuerten Objekts eingestellt wird (Schritt S 17). Wenn das Handbild 3 nicht ermittelt wird, wird die zuletzt genannte Verarbeitung zum Einlesen eines Schalterbetätigungsumfangs durchgeführt, wobei festgelegt wird, dass ein zu steuerndes Objekt schon spezifiziert ist.
  • Wenn das Handbild 3 ermittelt wird und der Modus zur Auswahl eines gesteuerten Objekts eingestellt ist, wird bestimmt, ob das Handbild dem Bild einer geballten Faust (Handbild 1) entspricht (Schritt S18). Wenn das Handbild 1 ermittelt wird, wird bestimmt, ob das unmittelbar zuvor ermittelte Handbild das Handbild 3 war (Schritt S19). Wenn der Wechsel von dem Handbild 3 zu dem Handbild 1 detektiert wird, wird das gesteuerte Objekt geändert, wobei berücksichtigt wird, dass die Änderung des Handbildes die Anweisung darstellt, die gesteuerten Objekte zu wechseln (Schritt S20). Es kann der Fall auftreten, dass drei Objekte zu steuern sind, zwischen denen gewechselt werden kann, von denen eines die Lautstärke eines Audiosystems, ein zweites die Temperatur einer Klimaanlage und ein drittes die Gebläsestärke einer Klimaanlage darstellt. In diesem Fall können die gesteuerten Objekte zyklisch durchgeschaltet werden, wie später erläutert werden wird.
  • Inzwischen wird, auch wenn das Handbild 1 in dem vorliegenden Zyklus detektiert wird und wenn das Handbild in dem unmittelbar vorausgehenden Zyklus nicht das Handbild 3 war (Schritt S19), die Verarbeitung von dem Schritt S11 aus fortgesetzt, wobei berücksichtigt wird, dass der Wechsel von dem Handbild 3 zu dem Handbild 1 nicht in dem Modus zur Auswahl eines gesteuerten Objekts durchgeführt wurde. Wenn das Handbild 1 nicht im Schritt S 18 ermittelt wird, wird dann bestimmt, ob das detektierte Handbild das Handbild 3 ist (Schritt S12). Wenn das detektierte Handbild das Handbild 3 ist, wird die Verarbeitung von Schritt S11 aus fortgesetzt, wobei berücksichtigt wird, dass das Handbild 3 in dem Modus zur Auswahl eines gesteuerten Objekts unverändert bleibt. Wenn das ermittelte Handbild weder das Handbild 1 noch das Handbild 3 ist (Schritte S18 und S21), wird das Flag M auf 0 zurückgesetzt (M = 0) und wird der wie oben gesetzte Modus zur Auswahl eines gesteuerten Objekts verlassen.
  • Wenn das Handbild 3 nicht in einem Zustand ermittelt wird, in dem der Modus zur Auswahl eines gesteuerten Objekts nicht gesetzt ist (Schritt S16) oder wenn der Modus zur Auswahl eines gesteuerten Objekts verlassen wurde (Schritt S22), wird bestimmt, ob das Handbild das Bild mit gestrecktem Finger (Handbild 2) ist, bei dem nur der Zeigefinger ausgestreckt ist (Schritt S23). Wenn das Handbild 2 ermittelt wird, wird die nachfolgend erläuterte Verarbeitung ausgeführt, um den Schalterbetätigungsumfang zu ermitteln (Schritt S24). Wenn das Handbild 2 im Schritt S23 nicht ermittelt wird, wird bestimmt, ob das Handbild das Handbild mit der geballten Faust (Handbild 1) ist (Schritt S25). Wenn das Handbild 1 vorliegt, wird ein Zeitnehmer t aktiviert (Schritt S26) und wird hinsichtlich des hochzählenden Zeitnehmers t bestimmt, ob eine vorbestimmte Zeit T abgelaufen ist. Wenn das Handbild 1 für die vorbestimmte Zeit T oder länger gehalten wird, werden die Flags F und M auf 0 zurückgesetzt (F = 0, M = 0) und werden die vorgenannten Verarbeitungsschritte beendet, wobei berücksichtigt wird, dass die Schalterbetätigungsbeendigung angewiesen ist (Schritt S28). Wenn das Handbild weder das Handbild 2 noch das Handbild 1 ist (Schritte S23 und S25), wird die Verarbeitung von Schritt S11 aus fortgesetzt, um die nächste eingegebene Anweisung abzuwarten. Wenn das Handbild 1 nicht für mindestens die vorbestimmte Zeit T gehalten wird, was vorliegt, wenn das Handbild innerhalb der vorbestimmten Zeit T wieder zu dem Handbild 2 geändert wird, wird die Verarbeitung von Schritt S11 aus fortgesetzt, was es ermöglicht, eine erneute Betätigung vorzunehmen.
  • Es folgt eine genaue Beschreibung der Verarbeitung zur Bestimmung des Schalterbetätigungsumfangs als Antwort auf das Bild mit gestrecktem Finger (Handbild 2). Eine solche Verarbeitung wird grundsätzlich gemäß den in 8 dargestellten Verarbeitungsprozeduren durchgeführt. Zu Beginn der Verarbeitung zur Bestimmung des Schalterbetätigungsumfangs wird bestimmt, ob ein Flag K gesetzt ist, das verwendet wird, um zu erkennen, ob der Modus zum Festsetzen des Betätigungsumfangs gesetzt ist (Schritt S31). Wenn der Modus zum Setzen des Betätigungsumfangs nicht gesetzt ist (K = 0), wird die wie oben beschrieben bestimmte Mittelposition C der Handfläche auf eine Referenzposition CO zur Bestimmung des Betätigungsumfangs gesetzt (Schritt S32). Dann wird das Flag K auf 1 gesetzt (K = 1), wodurch der Modus zum Setzen des Betätigungsumfangs gesetzt wird (S33), und ein Zeitnehmerwert t, der in dem Modus zum Setzen des Betätigungsumfangs genutzt wird, wird auf 0 zurückgesetzt (Schritt S34).
  • Was die nachfolgend eingelesenen Daten betrifft, wird bestimmt, dass das Flag K gesetzt wird (Schritt S31). Daher wird der Abstand der Abweichung zwischen der zu diesem Zeitpunkt bestimmten Mittelposition C der Handfläche und der Referenzposition Cp, d.h. eine von der Referenzposition CO aus zurückgelegte Strecke D, bestimmt (Schritt S35). Um die zurückgelegte Strecke D zu berechnen, ist es ausreichend, einen Abstand zwischen den Bestandteilen in dem eingelesenen Bild zu bestimmen. Gemäß der so bestimmten, zurückgelegten Strecke und festgelegter Modi zur Ermittlung des Betätigungsumfangs (S36) wird eine Verarbeitung zur Ermittlung des Betätigungsumfangs in einem Zeitmodus (Schritt S37) oder in einem Abstand/Zeit-Modus (Schritt S38) selektiv durchgeführt.
  • Der Zeitmodus ist ein Modus, in dem mit einem Schaltvorgang korrelierte Informationen in Übereinstimmung mit einer Haltezeit ausgegeben werden, für welche die von der Referenzposition CO verschobene Hand gehalten wird. Der Zeitmodus ist beispielsweise geeignet zur Einstellung der Lautstärke eines Audiosystems und zur Einstellung der Temperatur bei einer Klimaanlage. Der Abstand/Zeit-Modus ist ein Modus, in dem in Übereinstimmung mit einem Umfang einer Handbewegung die bestimmten, mit einem Schaltvorgang korrelierten Informationen ausgegeben werden, wenn die Hand geringfügig bewegt wird, wobei die Informationen, die gemäß einer Haltezeit der Hand an einer verschobenen Stelle ermittelt wurden, ausgegeben werden, wenn die Hand um eine vorbestimmte Strecke oder mehr zu der verschobenen Position bewegt wird. Der Abstands/Zeit-Modus ist beispielsweise für gesteuerte Objekte geeignet, die nach einer Grobeinstellung einer Feineinstellung unterzogen werden.
  • Bei dieser Ausführungsform wird die Anweisung zum Einlesen des Schalterbetätigungsumfangs mittels des Bildes mit gestrecktem Finger (Handbild 2) so durchgeführt, dass die Handfläche bezüglich des auf der Armlehne 5 liegenden Arms nach rechts und nach links bewegt wird oder dass die Hand bezüglich des als Drehachse dienenden Handgelenks bewegt wird. Eine solche Handflächen/Hand-Bewegung nach rechts und nach links wird innerhalb eines Bereiches durchgeführt, der nicht außerhalb der Aufnahmezone 3a liegt, und zwar beispielsweise innerhalb eines Winkelbereichs von ungefähr ± 45°. Bei dieser Ausführungsform wird der Umfang der Handbewegung mit dem Handbild 2 in n Schritten ermittelt.
  • 9 zeigt beispielhaft die Verarbeitungsprozeduren zur Bestimmung des Betätigungsumfangs in dem Zeitmodus. Hierbei wird zuerst eine Bestimmung durchgeführt, um zu ermitteln, ob ein Bewegungsumfang D, der ausgehend von der Handflächenreferenzposition CO gemessen wurde, einen voreingestellten Wert (Grenzwert) H oder -H überschreitet, der zur Bestimmung eines maximalen Bewegungsumfangs genutzt wird (Schritt S40). Wenn die zurückgelegte Strecke D den voreingestellten Wert (Grenzwert) H oder -H nicht erreicht, wird ein Zeitnehmerwert t auf 0 gesetzt (Schritt S41). Hierauf wird die Verarbeitung ausgehend von Schritt S11 fortgesetzt.
  • Wenn im Schritt S40 bestimmt wird, dass die zurückgelegte Strecke D den voreingestellten Wert (Grenzwert) H überschreitet, wird der Zeitnehmerwert t erhöht (Schritt S42). Wenn der aufwärts zählende Zeitnehmerwert t eine Referenzzeit T erreicht (schritt S43), wird die Einstellung (mit einer Schalterbetätigung korrelierte Informationen) zu diesem Zeitpunkt um eine Stufe erhöht (Schritt S44). Dann wird der Zeitnehmerwert t auf 0 zurückgesetzt (Schritt S45), und die Verarbeitung wird von Schritt S11 aus fortgesetzt.
  • Wenn in dem Schritt S40 bestimmt wird, dass die zurückgelegte Strecke den Grenzwert -H in der entgegengesetzten Richtung übersteigt, wird der Zeitnehmerwert t erhöht (Schritt S46). Wenn ermittelt wird, dass der aufwärts zählende Zeitnehmerwert t die Referenzzeit T erreicht (Schritt S47), wird die Festsetzung (mit einer Schalterbetätigung korrelierte Informationen) zu dieser Zeit um eine Stufe verringert (Schritt S48). Dann wird der Zeitnehmerwert t auf 0 zurückgesetzt (Schritt S49). Hierauf wird die Verarbeitung vom Schritt S11 aus fortgesetzt. Durch eine solche Reihe von Verarbeitungsschritten wird, wenn die Handfläche mit abgespreiztem Zeigefinger um die vorbestimmte Strecke nach links und nach rechts bewegt wurde und dort anhält, die Betätigungsinformation (Stellgröße) für das gesteuerte Objekt Stufe um Stufe in Übereinstimmung mit der Haltezeit vergrößert oder verringert und die mit einer Schalterbetätigung korrelierten Informationen werden ausgegeben.
  • In 10 sind die Verarbeitungsprozeduren zur Ermittlung des Betätigungsumfangs in dem Abstand/Zeit-Modus beispielhaft dargestellt. Hierbei wird zunächst bestimmt, ob ein Verschiebebetrag D, der ausgehend von der Handflächenreferenzposition CO gemessen wird, einen voreingestellten Wert (Grenzwert) H oder -H überschreitet, der zur Bestimmung eines maximalen Verschiebebetrags genutzt wird (Schritt S50). Wenn der zur Bestimmung genutzte Grenzwert H oder -H überschritten wird, wird die Betätigungsinformation (Stellgröße) für das gesteuerte Objekt, wie in dem Fall des Zeitmodus, in Übereinstimmung mit der Haltezeit der Handfläche mit ausgestrecktem Zeigefinger an der maximalen Verschiebeposition veränderlich gesetzt, wie in den Schritten S42a bis S45a und den Schritten S46a bis S49a gezeigt.
  • Wenn in dem Schritt S50 ermittelt wird, dass die zurückgelegte Strecke D der Handfläche ausgehend von der Referenzposition CO nicht den maximalen Verschiebebetrag erreicht, werden die derzeit und unmittelbar zuvor ermittelten, zurückgelegten Strecken D und D' miteinander verglichen, um dadurch die Bewegungsrichtung der Handfläche mit abgespreiztem Zeigefinger zu ermitteln (Schritt S51). Wenn die Bewegungsrichtung die aufsteigende Richtung ist, wird ermittelt, ob die Bedingung 1 erfüllt wird. Insbesondere wird ermittelt, ob die gemessene, gegenwärtig zurückgelegte Strecke D ausgehend von der Referenzposition CO größer als eine Detektionsstrecke [h·(n + 1)] ist, die als Mehrfachintegral einer vorbestimmten Einheitsstrecke h definiert ist, und ob zur gleichen Zeit die unmittelbar zuvor ermittelte, zurückgelegte Strecke D' gleich der oder geringer als die gerade genannte Detektionsstrecke ist (Schritt S52). n ist ein Parameter, der zur Festlegung der Detektionsstrecke genutzt wird. Wenn sich die Handfläche gegenwärtig in der aufsteigenden Richtung über die Detektionsstrecke [h·(n + 1)], die zur Bestimmung genutzt wird, hinausbewegt und wenn die zuvor zurückgelegte Strecke D' gleich der oder geringer als die Detektionsstrecke ist, heißt das, wenn sich die Handfläche um eine vorbestimmte Strecke oder mehr in der aufsteigenden Richtung von dem vorausgehenden Zyklus zu dem derzeitigen Zyklus bewegt, dass die Bedingung 1 D > h·(n + 1) und D' ≤ h· (n + 1) erfüllt ist. Der Parameter n wird dann erhöht, um die Detektionsstrecke für die nächste Bestimmung festzulegen (Schritt S54), wobei die Betätigungsinformation (Einstellung) für das gesteuerte Objekt um eine Stufe erhöht wird (Schritt S56).
  • Wenn die in Schritt S51 ermittelte Bewegungsrichtung die abfallende Richtung ist, wird bestimmt, ob Bedingung 2 erfüllt ist. Insbesondere wird bestimmt, ob die gegenwärtig ermittelte, zurückgelegte Strecke D ausgehend von der Referenzposition Cp kleiner als eine Detektionsstrecke (h·(n – 1)] ist, die als Mehrfachintegral der festgelegten Einheitsstrecke definiert ist, und ob die unmittelbar zuvor ermittelte, zurückgelegte Strecke D' gleich der oder größer als die Detektionsstrecke ist (Schritt S53). Wenn sich die Handfläche gegenwärtig in der abfallenden Richtung über die zur Bestimmung genutzte Detektionsstrecke [h·(n – 1)] bewegt und wenn die zuvor zurückgelegte Strecke D' gleich der oder größer als die Detektionsstrecke ist, heißt das, wenn die Handfläche sich um die vorbestimmte Strecke oder mehr in die abfallende Richtung von dem vorherigen Zyklus zu dem gegenwärtigen Zyklus bewegt, dass die Bedingung 2 D > h·(n – 1) und D' ≥ h·(n – 1) erfüllt ist, wobei der Parameter n verkleinert wird, um die Detektionsstrecke für die nächste Bestimmung festzulegen (Schritt S55), wobei die Betätigungsinformation (Einstellung) für das gesteuerte Objekt um eine Stufe verkleinert wird (Schritt S57).
  • Mit der gemäß dem Abstand/Zeit-Modus ausgeführten Bestimmung des Betätigungsumfangs ist es möglich, in Abhängigkeit von der zurückgelegten Strecke D der Handfläche mit dem abgespreizten Zeigefinger den Schalterbetätigungsumfang im Wesentlichen kontinuierlich zu liefern, wobei die zurückgelegte Strecke D ausgehend von der Referenzposition Cp gemessen wird. Wenn die Handfläche mit dem abgespreizten Zeigefinger in großem Maße bewegt wird, kann der Schalterbetätigungsumfang in Übereinstimmung mit einer Haltezeit der Handfläche an einer Halteposition kontinuierlich geändert werden. So kann der Schalterbetätigungsumfang in Übereinstimmung mit der Handflächen- oder Handbewegung unmittelbar festgelegt werden. Zudem kann der Schalterbetäti gungsumfang, wenn erforderlich, genau festgelegt werden.
  • Durch Verwendung des befehlsgeführten Erkennungsabschnitts 14, der das Hand/Finger-Bild und die Handflächenbewegung ermittelt, um daraus die von dem Fahrer bzw. dem Schalterbediener beabsichtigte Schalterbedienung zu erkennen, kann eine Schaltinformation für verschiedene gesteuerte Objekte dadurch eingelesen werden, dass einfach ein vorher festgelegtes Handbild erzeugt wird und die Hand und/oder Handfläche, wie beispielhaft in 11 dargestellt, bewegt wird, ohne dass der Bedienabschnitt 2 des Audiosystems, der Klimaanlage und/oder dergleichen berührt werden muss.
  • Insbesondere bewegen sich die Fahrerhände, wenn der Fahrer das Lenkrad 1 zum Fahren des Kraftfahrzeugs umgreift, außerhalb der Bildaufnahmezone 3a, wie durch den anfänglichen Zustand P1 dargestellt. Das eingelesene Bild zu diesem Zeitpunkt umfasst nur Bildbestandteile, die als den Hintergrund der Fahrgastzelle darstellende Bestandteile entfernt werden, so dass die Handbildschaltvorrichtung nicht arbeitet. Andererseits, wird, wenn eine Fahrerhand das Lenkrad 1 loslässt und dann zu einem L-förmigen Bild (Handbild 4) geformt in die Bildaufnahmezone 3a eintritt, wie durch den Betriebszustand P2 dargestellt, bestimmt, dass die Handbildschaltvorrichtung angewiesen ist, den Betrieb zu starten. Nach der Ausgabe eines Bestätigungstons, wie eines Pieptons, wird die Handbildschaltvorrichtung in einen Bereitschaftszustand versetzt.
  • Anschließend wird, wenn das Bild (Handbild 3), bei dem nur der Daumen horizontal ausgestreckt ist und das gemäß dem dargestellten Betriebszustand P3 gesetzt ist, ein solches Bild ermittelt und der Funktionswechselmodus (Modus zur Auswahl eines gesteuerten Obj ekts) eingestellt. Zu diesem Zeitpunkt wird, um den Fahrer über das Setzen des Funktionswechselmodus zu informieren, eine Klangmeldung abgegeben oder eine Musikbox betätigt. Während dieser Zeit wird, wenn der Daumen in die Handfläche gebeugt ist, um das Bild mit geschlossener Faust (Handbild 1) zu bilden, bestimmt, dass ein Druckschalterschaltvorgang angewiesen wird, und das gesteuerte Objekt wird gewechselt. Zum Zeitpunkt des Wechsels des gesteuerten Objektes kann eine Sprachführung (Sprachbotschaft) abgegeben werden. Diese kann beispielsweise lauten "Lautstärkeeinstellmodus ist eingestellt", "Temperatureinstellmodus ist eingestellt" oder "Gebläsestärkeeinstellmodus ist eingestellt". Dies kann zu jedem Zeitpunkt einer gemäß obigen Ausführungen ermittelten Schalterbetätigung erfolgen, die der Lautstärke, der Temperatur, der Gebläsestärke oder dergleichen zugeordnet sein kann. Vereinfacht kann auch ein Wort wie "Lautstärke", "Temperatur", "Gebläsestärke" als Sprachbotschaft wiedergegeben werden. Solch eine Führung ermöglicht es dem Fahrer, einen Zustand eines Schaltvorgangs zu erkennen, ohne dass der Schaltvorgang visuell bestätigt werden muss. Der Fahrer kann sich auf das Fahren konzentrieren.
  • Nachdem das gewünschte gesteuerte Objekt eingestellt ist, wird das Bild mit ausgestrecktem Finger (Handbild 2) gebildet, wie im Betriebszustand P4 dargestellt. Daraufhin wird das Handbild 2 erkannt und der Betätigungsumfangeinstellmodus wird eingestellt. Dadurch, dass die voreingestellten Betriebsmodi berücksichtigt werden, wird die Handfläche mit dem einen abgespreizten Finger aufweisenden Bild (Handbild 2) wie im Betriebszustand P5a oder P5b dargestellt nach links oder nach rechts bewegt, wobei die Information bezüglich des Schalterbetätigungsumfangs für das gesteuerte Objekt, das wie oben erläutert eingestellt ist, eingegeben wird. Wenn der gewünschte Schaltvorgang ausgeführt ist, wird das einer geschlossenen Faust entsprechende Bild (Handbild 1) gebildet, wie im Betriebszustand P6 dargestellt, wobei die Handbildschaltvorrichtung angewiesen wird, die Beendigung des Schaltvorgangs anzuzeigen.
  • Während die Handfläche mit abgespreiztem Finger (Handbild 2) nach rechts und nach links bewegt wird, um die Information hinsichtlich des Schalterbetätigungsumfangs einzugeben, wird, wenn das Bild gebildet ist, bei dem nur der Daumen horizontal abgespreizt ist (Handbild 3), die Bearbeitung zum Einlesen der Information bezüglich des Schalterbetätigungsumfangs zur gleichen Zeit beendet. In diesem Fall kann die Verarbeitung zur Auswahl/zum Wechsel des gesteuerten Objekts und die nachfolgende Verarbeitung erneut durchgeführt werden. Hierfür können, auch wenn eine Vielzahl gesteuerter Objekte nacheinander betätigt wird, kontinuierliche und wiederholte Betätigungen des gesteuerten Objekts durchgeführt werden, ohne dass die die Erkennung bewirkende Verarbeitung unterbrochen wird. Dies ermöglicht eine einfache Bedienung.
  • Mit der Handbildschaltvorrichtung, die wie oben beschrieben aufgebaut ist, können Schalterbetätigungsanweisungen, die auf vorbestimmten Handbildern basieren, und Bewegungen einfach und effektiv mit einer hohen Zuverlässigkeit und ohne Beeinträchtigung eines Fahrvorgangs durch Hand/Finger-Bewegungen und Armbewegungen ermittelt werden. In Übereinstimmung mit den gewonnenen Ergebnissen können mit einer Schalterbetätigung korrelierte Informationen der gewünschten fahrzeuggestützten Vorrichtung korrekt zur Verfügung gestellt werden. Die Belastung des Fahrers aufgrund der Bedienung der Handbildschaltvorrichtung ist verringert oder beseitigt, da der Bereich (Bildaufnahmezone 3a), in dem ein Hand/Finger-Bild aufgenommen wird, das zur Abgabe von mit einer Schalterbetätigung korrelierten Informationen dient, an einer Stelle seitlich neben dem Lenkrad angeordnet ist und so liegt, dass der Fahrer ohne Änderung einer Fahrhaltung den Arm auf natürliche Weise bis zu diesem Bereich strecken kann. Die Handbildschaltvorrichtung kann praktische Vorteile aufweisen, so wie beispielsweise, dass der Fahrer durch Verwendung der Handbildschaltvorrichtung auf einfache Weise Anweisungen oder mit einer Schalterbetätigung korrelierte Informationen eingeben kann, wobei er das Gefühl hat, dass er den Bedienabschnitt 2 des Audiosystems oder dergleichen direkt bedient.
  • Insbesondere wird bei der Handbildschaltvorrichtung die Mittelachse, die sich in Richtung der Fingerspitze erstreckt, aus einem digitalisierten Bild der Handfläche gewonnen, wobei die Fingerbreiten der Hand auf Scanpfaden, die sich rechtwinklig zu der Mittelachse erstrecken, nacheinander bestimmt werden und ein Schnittpunkt der Mittelachse und eines Scanpfades, der mit einer maximalen Fingerbreite korrespondiert, als Handflächenmitte festgelegt wird. Dies ermöglicht eine zuverlässige Erkennung eines Handflächenbereichs in dem digitalisierten Bild. Auch wenn der Bediener ein langärmeliges Hemd und/oder eine Armbanduhr oder dergleichen trägt, können die Handflächemitte und der Handflächenbereich zuverlässig detektiert werden, ohne dass eine Beeinträchtigung durch Bildbestandteile vorliegt, die dem Hemd oder dergleichen zuzuordnen sind.
  • Bei der Handbildschaltvorrichtung werden Scanpfade zur Fingerdetektion in der Richtung rechtwinklig zur Erstreckung eines zu detektierenden Fingers festgelegt, und ein Bildbestandteil, für den eine Breite, die gleich einer oder größer als eine vorbestimmte Breite ist, wird auf jedem Scanpfad ermittelt. Diese Breite wird als Fingerbreite festgelegt. Ob der Finger von der Handfläche abgestreckt ist, wird dann auf Grundlage der Anzahl an Scanpfaden bestimmt, auf denen eine Fingerbreite ermittelt wird, die mindestens dem vorbestimmten Wert entspricht. Daher kann ein Fingerbild leicht und zuverlässig erkannt bzw. detektiert werden. Insbesondere können durch Bestimmung ausgestreckter Zustände des Zeigefingers und des Daumens von der Handfläche durch positive Nutzung einer Differenz zwischen Richtungen, in denen diese Finger ausgestreckt werden können, individuelle Merkmale der Handbilder bei der Handbilderkennung zuverlässig herangezogen werden. Dies ermöglicht eine sichere Erkennung des Handbildes und der Handbewegung (Positionsänderung), und zwar selbst mittels vereinfachter, günstigerer Bildverarbeitungsverfahren, was unter anderem dazu führt, dass Bedienungen verein facht werden können.
  • Die vorliegende Erfindung ist nicht auf das vorstehende Ausführungsbeispiel beschränkt. Bei diesem Ausführungsbeispiel erfolgten die Erläuterungen unter der Annahme, dass die Erfindung bei einem Kraftfahrzeug mit rechts angeordnetem Lenkrad angewendet wird. Die Erfindung ist natürlich auch bei einem Kraftfahrzeug mit einem links angeordneten Lenkrad anwendbar. Die Erfindung ist bei herkömmlichen Personenkraftwagen und auch bei großen Kraftfahrzeugen, wie Lastwagen, anwendbar. Das gesteuerte Objekt kann außerdem die Betätigung einer Scheibenwischersteuerung, die Einstellung einer Intervallschaltung des Scheibenwischers, eine Seitenspiegel-Öffnungs/Schließ-Steuerung und/oder dergleichen sein, wie in 12 beispielhaft dargestellt. In dem dargestellten Fall sind die gesteuerten Objekte in Form einer sich zunehmend verzweigenden Baumstruktur klassifiziert, so dass ein gewünschtes Objekt schrittweise ausgewählt werden kann.
  • Insbesondere sind die gesteuerten Objekte allgemein in "Fahreinrichtungen" und "Komforteinrichtungen" klassifiziert. Die Fahreinrichtungen sind wiederum in "Richtungsanzeiger", "Wischer", "Licht" und "Spiegel" klassifiziert. Funktionalitäten jedes dieser gesteuerten Objekte, die zu der gleichen mittleren Klasse gehören, sind weiter in engere Klassen unterteilt. Entsprechend sind die Komforteinrichtungen in mittlere Klassen wie "Audio" und "Klimaanlage" unterteilt. Das Audiosystem ist in Einrichtungstypen, wie "Radio", "CD", "Tape" und "MD" unterteilt. Jeder Einrichtungstyp ist weiter in Funktionalitäten, wie Betriebsmodus und Lautstärke, klassifiziert. Unter dem Gesichtspunkt einer einfachen Bedienung wird die Einstellung so durchgeführt, dass nur das erforderliche Minimum gesteuerter Objekte auswählbar ist, da der Auswahlvorgang kompliziert wird, wenn die Einstellung mit einer großen Anzahl an Klassen durchgeführt werden muss.
  • Natürlich sind die Handbilder, die zur Eingabe von Informationen genutzt werden, nicht auf die oben beispielhaft beschriebenen beschränkt. Vielmehr kann die Erfindung auf verschiedene Weise modifiziert werden, ohne deren Umfang zu verlassen.
  • Bei der derartig aufgebauten Handbildschaltvorrichtung wird ein Finger einer Hand durch die Verwendung erster Scanpfade, die so festgelegt sind, dass sie sich rechtwinklig zu der Mittelachse erstrecken, die sich in einem digitalisierten Bild von einem Armbereich zu einer Fingerspitze erstrecken, und/oder zweiter Scanpfade detektiert, die so festgelegt sind, dass sie sich längs der Mittelachse erstrecken. Es ist daher möglich, zuverlässig zu detektieren, ob ein Finger der Hand ausgestreckt ist, ohne dass dabei Bildbestandteile, die einem langärmeligen Hemd, einer Armbanduhr oder dergleichen zuzuordnen sind, welche gelegentlich von dem Bediener getragen werden, beeinträchtigt werden. So kann das Handbild genau bestimmt werden. Insbesondere wird die Mittelachse bestimmt, wobei sie sich durch die Handflächenmitte erstreckt, und eine Fingerbreite wird ermittelt, die mindestens 1/7 bis 1/4 einer auf einem durch die Handflächenmitte laufenden Scanpfad ermittelten Breite entspricht, wodurch eine Bestimmung erfolgt, ob ein Zeigefinger oder ein Daumen ausgestreckt ist. Somit kann das Fingerbild leicht und zuverlässig erkannt bzw. detektiert werden.
  • Als Folge können das Handbild und die Handbewegung zuverlässig erkannt werden, wobei der Aufwand der Erkennungsverarbeitung reduziert wird, bei der das Handbild und/oder die Handflächen- bzw. Fingerspitzenbewegung detektiert wird, und werden mit einer Schalterbetätigung korrelierte Informationen an verschiedene gesteuerte Obj ekte übergeben.

Claims (15)

  1. Handbildschaltvorrichtung, umfassend Bildaufnahmemittel zur Aufnahme eines Bildes eines distalen Arms, der in einer festgelegten Bildaufnahmezone liegt, und zur Detektion eines Handbildes und/oder einer Bewegung eines Fingers einer Hand ausgehend von dem mittels der Bildaufnahmemittel aufgenommenen Bild, um festgelegte, mit einer Schalterbetätigung korrelierte Informationen zu erhalten, gekennzeichnet durch ein erstes Bildverarbeitungsmittel zur Bestimmung einer Mittelachse auf Grundlage des aufgenommenen Bildes, welche durch eine Mitte des Arms läuft; ein Scanpfadfestlegmittel zum Festlegen eines ersten Scanpfades, der sich rechtwinklig zu der Mittelachse erstreckt, und/oder eines zweiten Scanpfades, der sich längs der Mittelachse erstreckt; und ein Bestimmungsmittel zur Bestimmung, ob ein Finger der Hand ausgestreckt ist, auf Grundlage des ersten und/oder zweiten, durch das Scanpfadfestlegmittel festgelegten Scanpfades.
  2. Handbildschaltvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Bestimmungsmittel ein Funktionsauswahlmittel zur Detektion eines Ausstreckens und Entfernens eines bestimmten Fingers der Hand und zur zyklischen Auswahl und Spezifizierung eines der gesteuerten Objekte jedes Mal, wenn das Ausstrecken oder Entfernen des bestimmten Fingers detektiert wird, und ein Einrichtungsbetätigungsmittel zur Bereitstellung eines Betätigungsumfangs für das gesteuerte Objekt umfasst, das mittels des Funktionsauswahlmittels in Übereinstimmung mit einem festgelegten Handbild und/oder einer Bewegung der Hand mit einem solchen Handbild spezifiziert ist.
  3. Handbildschaltvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass das Einrichtungsbetätigungsmittel den dem gesteuerten Objekt zur Verfügung gestellten Betätigungsumfang in Übereinstimmung mit einem Umfang einer Handbewegung ausgehend von einer Referenzposition nach rechts oder nach links und/oder einer Haltezeit an einem Bewegungsziel ändert.
  4. Handbildschaltvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass das Funktionsauswahlmittel und das Einrichtungsbetätigungsmittel gestoppt werden, das bestimmte der gesteuerten Objekte auszuwählen und zu spezifizieren, und gestoppt werden, dem gesteuerten Objekt den Betätigungsumfang zu Verfügung zu stellen, wenn das Bestimmungsmittel detektiert, dass ein Bild einer geballten Faust, bei der alle Finger in eine Handfläche gebeugt sind, für eine festgelegte Zeit oder länger gehalten wird, und festlegt, dass ein Betriebsende angewiesen ist.
  5. Handbildschaltvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die festgelegten Handbilder ein Bild einer geballten Faust, bei dem alle Finger in eine Handfläche gebeugt sind, ein Bild mit abgespreiztem Finger, bei welchem nur ein Zeigefinger ausgestreckt ist, ein Bild, bei dem nur ein Daumen horizontal ausgestreckt ist, und ein L-förmiges Bild umfassen, bei dem der Zeigefinger und der Daumen ausgestreckt sind.
  6. Handbildschaltvorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass der bestimmte Finger ein Daumen ist, das festgelegte Bild ein Bild mit ausgestrecktem Finger ist, bei dem nur ein Zeigefinger ausgestreckt ist, und das Einrichtungsbetätigungsmittel eine Bewegung des Bildes mit ausgestrecktem Finger nach rechts und nach links detektiert.
  7. Handbildschaltvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Bildaufnahmemittel eine Kamera ist, die an einem Himmel oberhalb eines Fahrersitzes eines Kraftfahrzeugs installiert ist.
  8. Handbildschaltvorrichtung nach Anspruch 2, gekennzeichnet durch eine Führungs- bzw. Leitfunktionalität, um einen Bestätigungston zur Verfügung zu stellen, wenn eines der gesteuerten Objekte durch das Funktionsauswahlmittel ausgewählt ist.
  9. Handbildschaltvorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Bildaufnahmezone an einer Stelle angeordnet ist, zu der ein Fahrer seinen Arm ohne Änderung seiner Fahrhaltung ausstrecken kann, während der Arm auf einer Armlehne aufliegt, die seitlich neben dem Fahrersitz des Kraftfahrzeugs angeordnet ist, und ohne dass eine Fahrerhand einen Bedienabschnitt einer in dem Fahrzeug angeordneten Konsole berührt.
  10. Handbildschaltvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Bildverarbeitungsmittel ein Digitalisierungsmittel zur Digitalisierung des aufgenommenen Bildes und ein Schwerpunktermittlungsmittel zur Bestimmung eines Schwerpunkts des aufgenommenen, der Digitalisierung unterzogenen Bildes umfasst, wobei die Mittelachse, die in dem Bild durch die Mitte des Arms läuft, als Achse festgelegt wird, die durch den Schwerpunkt des Bildes läuft.
  11. Handbildschaltvorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass der erste Scanpfad mehrfach zwischen einer Seite des distalen Arms und dem Schwerpunkt festgelegt wird, und ein zweites Bildverarbeitungsmittel vorgesehen ist, das einen Scanpfad bestimmt, bei dem eine Breite des distalen Arms, hinsichtlich dessen die Digitalisierung vorgenommen wurde, maximal wird, und das einen als Handflächenmitte dienenden Schnittpunkt zwischen dem soeben genannten Scanpfad und der Mittelachse festlegt.
  12. Handbildschaltvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Scanpfadfestlegmittel sowohl den ersten als auch den zweiten Scanpfad festlegt und die Bestimmungsmittel durch Nutzen des ersten Scanpfades festlegen, ob ein Zeigefinger ausgestreckt ist, und durch Nutzen des zweiten Scanpfades festlegen, ob ein Daumen ausgestreckt ist.
  13. Handbildschaltvorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass das Scanpfadfestlegmittel den zweiten Scanpfad so festlegt, dass er gegenüber der Mittelachse um einen Winkel von etwa 10° geneigt ist.
  14. Handbildschaltvorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass das Bestimmungsmittel ermittelt, dass ein Finger der Hand von der Handfläche weggestreckt ist, wenn eine Anzahl an Scanpfaden ermittelt wird, für die eine Fingerbreite gleich einer oder größer als eine festgelegte Breite ist, welche Anzahl gleich oder größer einer festgelegten Zahl ist.
  15. Handbildschaltvorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die festgelegte Breite 1/7 bis 1/4 der oder breiter als die Breite ist, die bezüglich dem Scanpfad ermittelt wird, der durch die Handflächenmitte läuft.
DE200410038965 2003-08-11 2004-08-10 Handbildschaltvorrichtung Expired - Fee Related DE102004038965B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-291380 2003-08-11
JP2003291380A JP3752246B2 (ja) 2003-08-11 2003-08-11 ハンドパターンスイッチ装置

Publications (2)

Publication Number Publication Date
DE102004038965A1 true DE102004038965A1 (de) 2005-03-17
DE102004038965B4 DE102004038965B4 (de) 2009-04-02

Family

ID=34213317

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200410038965 Expired - Fee Related DE102004038965B4 (de) 2003-08-11 2004-08-10 Handbildschaltvorrichtung

Country Status (5)

Country Link
US (1) US20050063564A1 (de)
JP (1) JP3752246B2 (de)
KR (1) KR100575504B1 (de)
CN (1) CN1313905C (de)
DE (1) DE102004038965B4 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1830244A2 (de) 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
EP1947548A1 (de) 2006-12-27 2008-07-23 Takata Corporation Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug
WO2009040322A1 (de) * 2007-09-25 2009-04-02 Continental Automotive Gmbh Verfahren und vorrichtung zur berührungslosen eingabe von schriftzeichen
DE102008048325B4 (de) * 2007-10-22 2011-12-08 Mitsubishi Electric Corp. Betätigungseingabegerät
DE102011080592A1 (de) * 2011-08-08 2013-02-14 Siemens Aktiengesellschaft Einrichtung und Verfahren zum Steuern eines Schienenfahrzeugs
WO2013104390A1 (de) * 2012-01-09 2013-07-18 Daimler Ag Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
DE102012021220A1 (de) * 2012-10-27 2014-04-30 Volkswagen Aktiengesellschaft Bedienanordnung für ein Kraftfahrzeug
DE102012216181A1 (de) * 2012-09-12 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Gestenbasierte Einstellung eines Fahrzeugsitzes
DE102013001330A1 (de) 2013-01-26 2014-07-31 Audi Ag Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen
WO2015010829A1 (de) * 2013-07-23 2015-01-29 Robert Bosch Gmbh Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
WO2015090810A1 (de) * 2013-12-19 2015-06-25 Zf Friedrichshafen Ag Armbandsensor und verfahren zum betreiben eines armbandsensors
DE102014224618A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102015201901A1 (de) 2015-02-04 2016-08-04 Volkswagen Aktiengesellschaft Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
US9671867B2 (en) 2006-03-22 2017-06-06 Volkswagen Ag Interactive control device and method for operating the interactive control device
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
US11182601B2 (en) * 2019-03-29 2021-11-23 Deere & Company System for recognizing an operating intention at an operating unit that can be actuated manually

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
JP2005242694A (ja) * 2004-02-26 2005-09-08 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
US20090287361A1 (en) * 2005-04-05 2009-11-19 Nissan Motor Co., Ltd Command Input System
JP4389855B2 (ja) * 2005-09-05 2009-12-24 トヨタ自動車株式会社 車両用操作装置
CN100428123C (zh) * 2005-12-27 2008-10-22 联想(北京)有限公司 一种数字设备信息输入装置
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
CN100426200C (zh) * 2006-10-13 2008-10-15 广东威创视讯科技股份有限公司 基于交互式输入设备的智能输入编码方法
JP2010509651A (ja) * 2006-11-02 2010-03-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像認識装置及び方法
JP4670803B2 (ja) * 2006-12-04 2011-04-13 株式会社デンソー 操作推定装置およびプログラム
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8094189B2 (en) * 2007-01-30 2012-01-10 Toyota Jidosha Kabushiki Kaisha Operating device
DE102007034273A1 (de) * 2007-07-19 2009-01-22 Volkswagen Ag Verfahren zur Bestimmung der Position eines Fingers eines Nutzers in einem Kraftfahrzeug und Positionsbestimmungsvorrichtung
US9002119B2 (en) * 2008-06-04 2015-04-07 University Of Tsukuba, National University Corporation Device method and program for human hand posture estimation
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules
EP2304527A4 (de) * 2008-06-18 2013-03-27 Oblong Ind Inc Auf gestik basierendes steuersystem für fahrzeugschnittstellen
KR100977443B1 (ko) * 2008-10-01 2010-08-24 숭실대학교산학협력단 제스쳐 기반의 가전기기 제어장치 및 방법
JP2010258623A (ja) * 2009-04-22 2010-11-11 Yamaha Corp 操作検出装置
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP2010277197A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5416489B2 (ja) * 2009-06-17 2014-02-12 日本電信電話株式会社 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム
JP5648207B2 (ja) * 2009-09-04 2015-01-07 現代自動車株式会社 車両用操作装置
US20110063425A1 (en) * 2009-09-15 2011-03-17 Delphi Technologies, Inc. Vehicle Operator Control Input Assistance
DE102009058145A1 (de) * 2009-12-12 2011-06-16 Volkswagen Ag Bedienverfahren für eine Anzeigevorrichtung eines Fahrzeugs
JP5005758B2 (ja) * 2009-12-25 2012-08-22 株式会社ホンダアクセス 自動車における車載機器の操作装置
JP5521727B2 (ja) 2010-04-19 2014-06-18 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
US8396252B2 (en) * 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
EP2703950A4 (de) * 2011-04-28 2015-01-14 Nec Solution Innovators Ltd Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und aufzeichnungsmedium
JP5865615B2 (ja) * 2011-06-30 2016-02-17 株式会社東芝 電子機器および制御方法
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
US20140225826A1 (en) * 2011-09-07 2014-08-14 Nitto Denko Corporation Method for detecting motion of input body and input device using same
DE112012004785T5 (de) * 2011-11-16 2014-08-07 Flextronics Ap, Llc Merkmalerkennung zum Konfigurieren einer Fahrzeugkonsole und zugeordnete Vorrichtungen
KR101305669B1 (ko) * 2011-12-07 2013-09-09 현대자동차주식회사 차량용 입사광 차단조절장치 및 방법
DE102012000263A1 (de) * 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
US8942881B2 (en) 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
US9116666B2 (en) * 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
JP5944287B2 (ja) * 2012-09-19 2016-07-05 アルプス電気株式会社 動作予測装置及びそれを用いた入力装置
JP6202810B2 (ja) * 2012-12-04 2017-09-27 アルパイン株式会社 ジェスチャ認識装置および方法ならびにプログラム
CN103885572B (zh) * 2012-12-19 2018-03-09 原相科技股份有限公司 开关装置
CN103049111B (zh) * 2012-12-20 2015-08-12 广州视睿电子科技有限公司 一种触控笔及触控坐标计算方法
WO2014095069A2 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh System for a vehicle and communication method
JP5459385B2 (ja) * 2012-12-26 2014-04-02 株式会社デンソー 画像表示装置及び指示体画像の表示方法
KR101393570B1 (ko) 2012-12-28 2014-05-27 현대자동차 주식회사 선택적 조명을 이용한 손 제스처 인식 방법 및 시스템
DE102013000081B4 (de) * 2013-01-08 2018-11-15 Audi Ag Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion
US9158381B2 (en) * 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
DE102013010018B3 (de) * 2013-06-14 2014-12-04 Volkswagen Ag Kraftfahrzeug mit einem Fach zum Aufbewahren eines Gegenstands sowie Verfahren zum Betreiben eines Kraftfahrzeugs
KR101472455B1 (ko) * 2013-07-18 2014-12-16 전자부품연구원 손동작 기반 사용자 인터페이스장치 및 그 방법
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
KR101537936B1 (ko) * 2013-11-08 2015-07-21 현대자동차주식회사 차량 및 그 제어방법
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US10007329B1 (en) 2014-02-11 2018-06-26 Leap Motion, Inc. Drift cancelation for portable object detection and tracking
GB2525840B (en) * 2014-02-18 2016-09-07 Jaguar Land Rover Ltd Autonomous driving system and method for same
US9436872B2 (en) 2014-02-24 2016-09-06 Hong Kong Applied Science and Technology Research Institute Company Limited System and method for detecting and tracking multiple parts of an object
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9868449B1 (en) 2014-05-30 2018-01-16 Leap Motion, Inc. Recognizing in-air gestures of a control object to control a vehicular control system
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
JP6282188B2 (ja) * 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
JP3194297U (ja) 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
TWI552892B (zh) * 2015-04-14 2016-10-11 鴻海精密工業股份有限公司 車輛控制系統及其操作方法
KR101724108B1 (ko) * 2015-10-26 2017-04-06 재단법인대구경북과학기술원 손 모양 및 제스처에 의한 기기 제어 방법 및 그에 의한 제어 장치
JP6716897B2 (ja) * 2015-11-30 2020-07-01 富士通株式会社 操作検出方法、操作検出装置、及び操作検出プログラム
US10642356B1 (en) * 2016-06-26 2020-05-05 Apple Inc. Wearable interactive user interface
CZ2016617A3 (cs) * 2016-10-03 2018-04-18 Ĺ KODA AUTO a.s. Zařízení k interaktivnímu ovládání zobrazovacího zařízení a postup ovládání zařízení k interaktivnímu ovládání zobrazovacího zařízení
CN109634450A (zh) * 2017-10-09 2019-04-16 华为技术有限公司 防误触检测方法、装置及终端
JP2019139633A (ja) * 2018-02-14 2019-08-22 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
CN110333772B (zh) * 2018-03-31 2023-05-05 广州卓腾科技有限公司 一种控制对象移动的手势控制方法
US10895918B2 (en) * 2019-03-14 2021-01-19 Igt Gesture recognition system and method
JP7470069B2 (ja) 2021-02-17 2024-04-17 株式会社日立製作所 指示物体検出装置、指示物体検出方法及び指示物体検出システム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1984030A (en) * 1932-09-22 1934-12-11 John B Nixon Means for serving cocktails and the like
US1965944A (en) * 1933-03-13 1934-07-10 Dudley L Lea Truck construction
US5203704A (en) * 1990-12-21 1993-04-20 Mccloud Seth R Method of communication using pointing vector gestures and mnemonic devices to assist in learning point vector gestures
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH09102046A (ja) * 1995-08-01 1997-04-15 Matsushita Electric Ind Co Ltd 手形状認識方法および手形状認識装置
US5815147A (en) * 1996-06-07 1998-09-29 The Trustees Of The University Of Pennsylvania Virtual play environment for disabled children
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
EP0849697B1 (de) * 1996-12-20 2003-02-12 Hitachi Europe Limited Verfahren und System zur Erkennung von Handgesten
US6236736B1 (en) * 1997-02-07 2001-05-22 Ncr Corporation Method and apparatus for detecting movement patterns at a self-service checkout terminal
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
EP0905644A3 (de) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Handgebärden
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JPH11134090A (ja) * 1997-10-30 1999-05-21 Tokai Rika Co Ltd 操作信号出力装置
US6353764B1 (en) * 1997-11-27 2002-03-05 Matsushita Electric Industrial Co., Ltd. Control method
JPH11167455A (ja) 1997-12-05 1999-06-22 Fujitsu Ltd 手形状認識装置及び単色物体形状認識装置
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
DE69936620T2 (de) * 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
JP2000331170A (ja) 1999-05-21 2000-11-30 Atr Media Integration & Communications Res Lab 手振り認識装置
JP4332649B2 (ja) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6766036B1 (en) * 1999-07-08 2004-07-20 Timothy R. Pryor Camera based man machine interfaces
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
DE10039432C1 (de) * 2000-08-11 2001-12-06 Siemens Ag Bedieneinrichtung
US7095401B2 (en) * 2000-11-02 2006-08-22 Siemens Corporate Research, Inc. System and method for gesture interface
US6359512B1 (en) * 2001-01-18 2002-03-19 Texas Instruments Incorporated Slew rate boost circuitry and method
JP2002236534A (ja) 2001-02-13 2002-08-23 Mitsubishi Motors Corp 車載機器操作装置
JP2003141547A (ja) 2001-10-31 2003-05-16 Matsushita Electric Ind Co Ltd 手話翻訳装置および手話翻訳方法
US7006055B2 (en) * 2001-11-29 2006-02-28 Hewlett-Packard Development Company, L.P. Wireless multi-user multi-projector presentation system
US7362480B2 (en) * 2002-04-24 2008-04-22 Transpacific Ip, Ltd. Method and system for changing a scanning resolution
US6790181B2 (en) * 2002-09-13 2004-09-14 Acuson Corporation Overlapped scanning for multi-directional compounding of ultrasound images
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11153472B2 (en) 2005-10-17 2021-10-19 Cutting Edge Vision, LLC Automatic upload of pictures from a camera
US11818458B2 (en) 2005-10-17 2023-11-14 Cutting Edge Vision, LLC Camera touchpad
EP1830244A2 (de) 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
EP1830244A3 (de) * 2006-03-01 2009-10-21 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
US9671867B2 (en) 2006-03-22 2017-06-06 Volkswagen Ag Interactive control device and method for operating the interactive control device
US7983475B2 (en) 2006-12-27 2011-07-19 Takata Corporation Vehicular actuation system
EP1947548A1 (de) 2006-12-27 2008-07-23 Takata Corporation Bediensystem zum Bedienen von Funktionen in einem Fahrzeug und Fahrzeug
WO2009040322A1 (de) * 2007-09-25 2009-04-02 Continental Automotive Gmbh Verfahren und vorrichtung zur berührungslosen eingabe von schriftzeichen
US8378970B2 (en) 2007-10-22 2013-02-19 Mitsubishi Electric Corporation Manipulation input device which detects human hand manipulations from captured motion images
US8681099B2 (en) 2007-10-22 2014-03-25 Mitsubishi Electric Corporation Manipulation input device which detects human hand manipulations from captured motion images
DE102008048325B4 (de) * 2007-10-22 2011-12-08 Mitsubishi Electric Corp. Betätigungseingabegerät
DE102011080592A1 (de) * 2011-08-08 2013-02-14 Siemens Aktiengesellschaft Einrichtung und Verfahren zum Steuern eines Schienenfahrzeugs
WO2013104390A1 (de) * 2012-01-09 2013-07-18 Daimler Ag Verfahren und vorrichtung zum bedienen von auf einer anzeigeeinheit eines fahrzeugs angezeigten funktionen unter verwendung von im dreidimensionalen raum ausgeführten gesten sowie betreffendes computerprogrammprodukt
US9440537B2 (en) 2012-01-09 2016-09-13 Daimler Ag Method and device for operating functions displayed on a display unit of a vehicle using gestures which are carried out in a three-dimensional space, and corresponding computer program product
DE102012216181A1 (de) * 2012-09-12 2014-06-12 Bayerische Motoren Werke Aktiengesellschaft Gestenbasierte Einstellung eines Fahrzeugsitzes
DE102012021220A1 (de) * 2012-10-27 2014-04-30 Volkswagen Aktiengesellschaft Bedienanordnung für ein Kraftfahrzeug
DE102013001330A1 (de) 2013-01-26 2014-07-31 Audi Ag Verfahren zum Betreiben einer Lüftereinrichtung eines Kraftwagens sowie Kraftwagen
WO2015010829A1 (de) * 2013-07-23 2015-01-29 Robert Bosch Gmbh Verfahren zum betreiben einer eingabevorrichtung, sowie eingabevorrichtung
DE102013226682A1 (de) 2013-12-19 2015-06-25 Zf Friedrichshafen Ag Armbandsensor und Verfahren zum Betreiben eines Armbandsensors
US10162407B2 (en) 2013-12-19 2018-12-25 Zf Friedrichshafen Ag Arm band sensor and method for operating an arm band sensor
WO2015090810A1 (de) * 2013-12-19 2015-06-25 Zf Friedrichshafen Ag Armbandsensor und verfahren zum betreiben eines armbandsensors
DE102014224618A1 (de) * 2014-12-02 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102015201901A1 (de) 2015-02-04 2016-08-04 Volkswagen Aktiengesellschaft Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
WO2016124278A1 (de) 2015-02-04 2016-08-11 Volkswagen Aktiengesellschaft Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102015201901B4 (de) 2015-02-04 2021-07-22 Volkswagen Aktiengesellschaft Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
US11182601B2 (en) * 2019-03-29 2021-11-23 Deere & Company System for recognizing an operating intention at an operating unit that can be actuated manually

Also Published As

Publication number Publication date
CN1313905C (zh) 2007-05-02
KR100575504B1 (ko) 2006-05-03
CN1595336A (zh) 2005-03-16
JP2005063091A (ja) 2005-03-10
DE102004038965B4 (de) 2009-04-02
KR20050019036A (ko) 2005-02-28
US20050063564A1 (en) 2005-03-24
JP3752246B2 (ja) 2006-03-08

Similar Documents

Publication Publication Date Title
DE102004038965B4 (de) Handbildschaltvorrichtung
DE10349568A1 (de) Handzeichen-Schaltvorrichtung
DE60124539T2 (de) Auf einem head-up anzeigegerät basierende sicherheitseinrichtung für kraftfahrzeuge
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
DE102004022494A1 (de) Betätigungseingabevorrichtung
DE602004010585T2 (de) Fahrzeug-Rückwärtsfahrassistent und Fahrzeug-Parkassistent
DE102011083184B4 (de) Einparkunterstützungseinrichtung zum Zurücksetzen eines Fahrzeugs in eine Parklücke und Verfahren hierfür
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
EP0735757B1 (de) Verfahren und Vorrichtung zur automatischen Bildaufnahme des Gesichtes einer Person
DE102006019065A1 (de) Eingabeschnittstelle für ein Fahrzeugcockpit
DE19520368A1 (de) Vorrichtung und Verfahren zur automatischen Aktivierung eines Meßfühlers, insbesondere eines Ultraschall-Applikators
DE102005008221A1 (de) Handbildschaltvorrichtung
EP1998996A1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE102013108115A1 (de) Verfahren und Vorrichtung zum Festlegen eines Arbeitsbereichs eines Roboters
WO2014067626A1 (de) Verfahren zum eingeben eines steuerbefehls für eine komponente eines kraftwagens
DE4112594A1 (de) Schaltsystem fuer ein kraftfahrzeug
DE102012018685B4 (de) System und Verfahren zur Steuerung von zumindest einem Fahrzeugsystem mittels von einem Fahrer durchgeführter Gesten
WO2021023468A1 (de) Vorrichtung und verfahren zur steuerung eines beifahrersitzes in einem fahrzeug
EP3642695A1 (de) Verfahren zum betreiben einer anzeigevorrichtung für ein kraftfahrzeug sowie kraftfahrzeug
DE10257963A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Position von PKW-Insassen
DE10338248A1 (de) Kamerasystem und Fokusinformation-Anzeigeeinrichtung
DE112016006824B4 (de) Fahrzeugmontierte Informationsverarbeitungsvorrichtung, fahrzeugmontierte Vorrichtung, und fahrzeugmontiertes Informationsverarbeitungsverfahren
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
DE102012008986B4 (de) Kamerasystem mit angepasster ROI, Kraftfahrzeug und entsprechendes Verfahren
DE69630025T2 (de) Kontrolle eines Infrarotmikroskops

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee