DE102009025833A1 - Elektronisches Gerät mit virtuellem Dateneingabegerät - Google Patents

Elektronisches Gerät mit virtuellem Dateneingabegerät Download PDF

Info

Publication number
DE102009025833A1
DE102009025833A1 DE102009025833A DE102009025833A DE102009025833A1 DE 102009025833 A1 DE102009025833 A1 DE 102009025833A1 DE 102009025833 A DE102009025833 A DE 102009025833A DE 102009025833 A DE102009025833 A DE 102009025833A DE 102009025833 A1 DE102009025833 A1 DE 102009025833A1
Authority
DE
Germany
Prior art keywords
electronic device
housing part
light source
image
stylus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009025833A
Other languages
English (en)
Inventor
Chih-Hung Lu
Cheng-Nan Tsai
Cheng-Kuang Sun
Yao-Ching Hsu
Yi-Hsien Ko
Cho-Yi Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of DE102009025833A1 publication Critical patent/DE102009025833A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

Ein elektronisches Gerät mit einem virtuellen Dateneingabegerät umfasst ein erstes Gehäuseteil, ein zweites Gehäuseteil, eine Erkennungsebene, ein Bild erkennendes Modul und einen Prozessor. Auf dem zweiten Gehäuseteil ist ein Bildschirm angeordnet. Die Erkennungsebene ist auf dem ersten Gehäuseteil angeordnet und so konfiguriert, dass ein Eingangssignal generiert wird, wenn ein Benutzer die Erkennungsebene berührt. Das Bild erkennende Modul ist auf dem zweiten Gehäuseteil angeordnet und so konfiguriert, dass es die Druckausübung des Benutzers auf der Erkennungsfläche wahrnimmt und ein Bildsignal generiert, das die Information der gedrückten Position auf der Erkennungsebene darstellt. Der Prozessor ist mit der Erkennungsebene und dem Bild erkennenden Modul elektronisch verbunden und so konfiguriert, dass er nach der Generierung des Eingangssignals das Bildsignal verarbeitet, so dass die der Druckausübung des Benutzers entsprechenden Daten in das elektronische Gerät eingegeben werden.

Description

  • QUERVERWEIS ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung basiert auf der prioritätsälteren taiwanesischen Patentanmeldung Nr. 098100193 , eingereicht am 6. Jan. 2009, deren Priorität beansprucht wird, weiterhin wird deren gesamter Offenbarungsgehalt hiermit durch Verweis aufgenommen.
  • HINTERGRUND
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf den Elektronikbereich und insbesondere auf einen elektronischen Apparat mit einem virtuellen Dateneingabegerät.
  • 2. Beschreibung des verwandten Stand der Technik
  • In vielen in der Hand gehaltenen elektronischen Geräten wie beispielsweise Notebooks und PDAs (elektronische Kalender/elektronischen persönlichen Assistenten) wird eine Tastatur als allgemeines Eingabegerät verwendet. Eine Tastatur enthält im Allgemeinen eine Vielzahl von Tasten und eine mechanisch-elektronische Schnittstelle. Wenn der Benutzer eine Taste drückt, wird diese Bedienung mittels Druck durch die mechanisch elektrische Schnittstelle in ein entsprechendes elektrisches Signal umgewandelt, welches verwendet werden kann, um Daten in das elektronische Gerät einzugeben. Ein anderer Typ von elektronischem Dateneingabegerät betrifft die zeigenden Geräte wie Mäuse, Steuerkugeln und so weiter. Mit einem zeigenden Gerät kontrolliert der Benutzer die Position eines Zeigers oder eines Positionsanzeigers auf einem Bildschirm des elektronischen Geräts, um somit die entsprechende Funktion auszuwählen.
  • Der wachsenden Nachfrage nach geringeren Kosten und der Minimierung von den in der Hand gehaltenen elektronischen Geräten, werden konventionelle Tastaturen, Zeigegeräte und andere Dateneingabegeräte jedoch nicht ausreichend gerecht. Das zu lösende Problem besteht somit darin, die Kosten und den Umfang von in der Hand gehaltenen elektronischen Geräten zu reduzieren.
  • KURZE ZUSAMMENFASSUNG
  • Ein Ziel der vorliegenden Erfindung besteht darin, ein elektronisches Gerät mit einem virtuellen Dateneingabegerät bereit zustellen, das den Vorteil aufweist, dass Kosten und Platz gespart werden.
  • Eine bevorzugte Ausführungsform der vorliegenden Erfindung stellt ein elektronisches Gerät mit einem virtuellen Dateneingabegerät dar, das ein erstes Gehäuseteil, ein zweites Gehäuseteil, eine Erkennungsebene, ein Bild erkennendes Modul und einen Prozessor aufweist. Auf dem zweiten Gehäuseteil ist ein Bildschirm angeordnet. Die Erkennungsebene ist auf dem ersten Gehäuseteil angeordnet und so konfiguriert, dass ein Eingangssignal generiert wird, wenn der Benutzer auf die Erkennungsebene drückt. Das Bild erkennende Modul ist auf dem zweiten Gehäuseteil angeordnet und so konfiguriert, dass es den vom Benutzer ausgeführten Druck auf der Erkennungsebene spürt und ein Bildsignal generiert, dass die Information bezüglich der gedrückten Stelle auf der Erkennungsebene darstellt. Der Prozessor ist mit der Erkennungsebene und dem Bild erkennenden Modul elektronisch verbunden und so konfiguriert, dass das Bildsignal verarbeitet wird nachdem das Eingangssignal generiert wurde, so dass die Daten entsprechend der vom Benutzer ausgeführten Druckausübung in das elektronische Gerät eingegeben wird.
  • In einer anderen bevorzugten Ausführungsform der vorliegenden Erfindung weist die oben genannte Erkennungsebene ein spezifisch aufgedrucktes Muster, beispielsweise ein Tastatur-Muster auf. Zusätzlich ist das zweite Gehäuseteil schwenkbar auf dem ersten Gehäuseteil angeordnet.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung wird ein elektronisches Gerät mit einem virtuellen Dateneingabegerät bereit gestellt. Das elektronische Gerät beinhaltet ein erstes Gehäuseteil, ein zweites Gehäuseteil, ein gedrucktes Muster, ein erstes Bild erkennendes Modul, ein zweites Bild erkennendes Modul und einen Prozessor. Auf dem zweiten Gehäuseteil ist ein Bildschirm angeordnet und das zweite Gehäuseteil ist schwenkbar auf dem ersten Gehäuseteil angeordnet. Das gedruckte Muster/die gedruckte Muster ist auf dem ersten Gehäuseteil angeordnet und beinhaltet eine Tastatur-Muster und eine Zeigegerät-Muster (beispielsweise eine bemustertes Mausfeld). Das erste Bild erkennende Modul und das zweite Bild erkennende Modul sind auf dem zweiten Gehäuseteil angeordnet und befinden sich räumlich voneinander getrennt in einem Abstand, wobei sie sich ein überlappendes Bildfeld teilen und sie sind so konfiguriert, dass sie eine Handlung des Benutzers auf dem gedruckten Muster wahrnehmen und als Antwort auf diese Handlung ein Bildsignal generieren. Der Prozessor ist mit dem ersten Erkennungsmodul und dem zweiten Erkennungsmodul elektronisch verbunden und konfiguriert, um das Bildsignal zu verarbeiten und dabei ein Eingabesignal entsprechend der Handlung zu generieren. Das Eingangssignal ist ein Signal ausgewählt aus einem Positionssignal des Zeigers zur Kontrolle der Position des Zeigers auf dem Bildschirm und einem Dateneingangssignal zur Realisierung einer Tastaturfunktion.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung wird ein elektronisches Gerät mit einem virtuellen Dateneingabegerät bereit gestellt. Der elektronische Apparat beinhaltet ein erstes Gehäuseteil, ein zweites Gehäuseteil, ein erstes Bild erkennendes Modul, ein zweites Bild erkennendes Modul und einen Prozessor. Auf dem zweiten Gehäuseteil ist ein Bildschirm angeordnet. Das erste Bild erkennende Modul und das zweite Bild erkennende Modul sind auf einer Seite des ersten Gehäuseteils angeordnet und befinden sich räumlich voneinander getrennt in einem Abstand, wobei sie sich ein überlappendes Bildfeld teilen, in welchem eine zweidimensionale virtuelle Zeiger-Positionsregion (beispielsweise eine virtuelle Maus-Region) definiert ist und sind entsprechend konfiguriert, um eine Handlung des Benutzers in der virtuellen Zeiger-Positionierungsregion wahrzunehmen und als Antwort auf diese Handlung ein Bildsignal zu generieren. Der Prozessor ist mit dem ersten Erkennungsmodul und dem zweiten Erkennungsmodul elektronisch verbunden und konfiguriert, um das Bildsignal zu verarbeiten und dabei ein Signal der Zeigerposition zur Kontrolle der Zeigerposition auf dem Bildschirm zu generieren.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung ist das oben genannte erste Bild erkennende Modul und das zweite Bild erkennende Modul auf einem Untermodul angeordnet, das lösbar mit dem ersten Gehäuseteil verbunden ist. Das Untermodul ist mit dem ersten Gehäuseteil über einen Verbindungsanschluss, beispielsweise einen USB Anschluss oder einen Firewire Anschluss elektronisch verbunden.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung ist eine Tastatur, die eine mechanisch-elektronische Schnittstelle beinhaltet, auf dem oben genannten ersten Gehäuseteil angeordnet.
  • In noch einer weiteren Ausführungsform der vorliegenden Erfindung ist eine Erkennungsebene auf dem oben genannten ersten Gehäuseteil angeordnet. Die Erkennungsebene ist so konfiguriert, dass ein Eingangssignal generiert wird, wenn der Benutzer die Erkennungsebene berührt. Ein drittes Bild erkennendes Modul ist auf dem oben genannten zweiten Gehäuseteil angeordnet. Das dritte Bilderkennende Modul ist so konfiguriert, dass es die drückende Handlung des Benutzers auf der Erkennungsebene wahrnimmt und ein Bildsignal generiert, das die Information der gedrückten Stelle auf der Erkennungsebene trägt. Der Prozessor ist mit der Erkennungsebene und dem dritten Bild-Erkennungsmodul elektronisch verbunden und konfiguriert, um das durch das dritte Bild erkennende Modul generierte Bildsignal zu verarbeiten nachdem das Eingangssignal generiert worden ist, so dass die Daten entsprechend der drückenden Handlung des Benutzers in das elektronische Gerät eingegeben werden. Weiterhin ist für die Bequemlichkeit des Benutzers bei der Eingabe von Daten ein Tastatur-Muster auf die Erkennungsebene gedruckt.
  • Durch Ersetzen der konventionellen Dateneingabegeräte mit einer virtuellen Tastatur und/oder virtuellen Zeigegeräten beispielsweise einer virtuellen elektronischen Maus in einem elektronischen Gerät können in den Ausführungsformen der vorliegenden Erfindung die Muster des elektronischen Geräts vereinfacht werden und die Ausmaße des elektronischen Geräts reduziert werden, so dass Kosten des elektronischen Geräts und der eingenommene Platz eingespart werden können, und somit der steigenden Nachfrage an kostengünstigen, dünnen und leichten elektronischen Geräten begegnet werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese und andere Eigenschaften und Vorteile der verschiedenen hier offenbarten Ausführungsformen können anhand der nun folgenden Beschreibung und der Zeichnungen besser verstanden werden, wobei sich gleiche Bezugszeichen auf gleiche Teile beziehen und wobei:
  • 1 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend einer zweiten Ausführungsform der vorliegenden Erfindung zeigt.
  • 3 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend einer dritten Ausführungsform der vorliegenden Erfindung zeigt.
  • 4 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • 5 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend noch einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • 6 eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend noch einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • 6A eine teilweise perspektivische Ansicht eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend noch einer weiteren Ausführungsform der vorliegenden Erfindung zeigt g.
  • 7 eine perspektivische Ansicht eines Fühlerstiftes eines elektronischen Geräts mit einem virtuellen Dateneingabegerät entsprechend noch einer weiteren Ausführungsform der vorliegenden Erfindung zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden Beschreibung der Ausführungsformen der vorliegenden Erfindung beziehen sich anweisende Redewendungen wie beispielsweise „links”, „rechts” und „Vorderseite” nur auf die Anweisungen in den Zeichnungen und sollen den Anwendungsbereich der vorliegenden Erfindung nicht einschränken.
  • Wie in 1 dargestellt, zeigt eine erste Ausführungsform der vorliegenden Erfindung ein elektronisches Gerät 10 mit einem virtuellen Dateneingabegerät. In dieser Ausführungsform ist das elektronische Gerät 10 ein Notebook Computer. Das elektronische Gerät 10 beinhaltet ein erstes Gehäuseteil 11, ein zweites Gehäuseteil 13, eine Erkennungsebene 152, ein Bild erkennendes Modul 17 und einen Prozessor 19. Das zweite Gehäuseteil 13 ist schwenkbar auf dem ersten Gehäuseteil 11 angeordnet. Auf dem zweiten Gehäuseteil 13 ist ein Bildschirm 132 angeordnet.
  • Die Erkennungsebene 152 ist auf dem zweiten Gehäuseteil angeordnet und so konfiguriert, dass ein Eingabesignal generiert wird, wenn der Benutzer auf die Erkennungsebene 152 drückt. Die Erkennungsebene 152 kann aus einer dünnen Folie oder einem Glasstück bestehen, das in der Lage ist, Druck wahrzunehmen. Vorzugsweise kann die Erkennungsebene 152 weiterhin ein aufgedrucktes spezifisches Muster beispielsweise ein Tastatur-Muster 154 aufweisen. Das Tastatur-Muster 154 besitzt eine Vielzahl von Druck-Regionen (welche im Weiteren als „virtuelle Tasten” bezeichnet werden). Aufgrund der Konfiguration des Tastatur-Musters 154 ist dieses für den Benutzer geeignet um mit einem Finger 20 auf die Erkennungsebene 152 zu drücken und dadurch Daten in das elektronische Gerät 10 einzugeben. Andererseits kann die Dateneingabe auch realisiert werden, wenn kein Tastatur-Muster 154 auf die Erkennungsebene 152 aufgedruckt ist. Zusätzlich kann der Benutzer anstelle der Finger auch andere Instrumente, beispielsweise einen Eingabestift verwenden, um durch Druck auf die Erkennungsebene 152 Daten einzugeben.
  • Auf dem zweiten Gehäuseteil 13 ist ein Bild erkennendes Modul 17 angeordnet, das konfiguriert ist, um die Druckausübung durch den Finger 20 des Benutzers auf der Erkennungsebene 152 zu erkennen und ein Bildsignal zu generieren, das die Information bezüglich der gedrückten Position auf der Erkennungsebene 152 beinhaltet. Das Bild erkennende Modul 17 beinhaltet eine optische Linse und einen Bildsensor. Die optische Linse nimmt das Licht auf, das vom Finger 20 des Benutzers reflektiert wird und fokussiert das Licht auf dem Bildsensor, so dass der Bildsensor ein Bildsignal generiert, das die Information der gedrückten Position auf der Erkennungsebene 152 beinhaltet.
  • Der Prozessor 19 ist mit der Erkennungsebene 152 und dem Bild erkennenden Modul 17 elektronisch verbunden und konfiguriert, das Bildsignal zu prozessieren, nachdem das Eingabesignal generiert wurde, so dass die Daten entsprechend der ausgeführten Druckausübung des Benutzers in das elektronische Gerät 10 eingegeben werden. Die durch die drückende Handlung erfolgte Dateneingabe in das elektronische Gerät 10 kann nach der Verarbeitung durch die Schaltung des elektronischen Geräts auf dem Bildschirm 132 dargestellt werden. Spezieller ausgedrückt, nachdem das durch die Erkennungsebene 152 generierte Eingabesignal erhalten wurde, wird dem Prozessor 19 mitgeteilt, das eine Druckausübung ausgeführt wird, so dass dieser das durch das Bild erkennende Modul 17 entsprechend der Druckausübung generierte Bildsignal verarbeitet, die gedrückte Position auf der Erkennungsebene 152 ermittelt, die entsprechende Information darstellt und weiterhin die Dateneingabeoperation durchführt, die der gedrückten virtuellen Taste entspricht.
  • Im Folgenden wird ein Beispiel dargestellt, um den Prozess zu beschreiben, wie ein elektronisches Gerät 10 eine Dateneingabeoperation durchführt. Wenn der Finger des Benutzers die schraffierte virtuelle Taste in 1 drückt, spürt die Erkennungsebene 152 den Druck des Benutzerfingers 20 und generiert ein Eingabesignal, das die gedrückte virtuelle Taste repräsentiert. Das Bild erkennende Modul 17 spürt die Handlung des Drückens der virtuellen Taste durch den Finger 20 des Benutzers und generiert ein Bildsignal, das die Information der gedrückten Position beinhaltet. Nachdem der Prozessor 19 das Eingabesignal erhalten hat, verarbeitet dieser das Bildsignal um die Koordinaten der gedrückten Position zu ermitteln, beispielsweise die gedrückte virtuelle Taste, um die Koordinaten entsprechend der gedrückten Position zu den Daten zuzuordnen (beispielsweise ein Buchstabe oder eine Nummer) und dadurch die entsprechende Dateneingabe zu vervollständigen. Es sollte hierbei klar sein, dass das elektronische Gerät 10 nicht nur verwendet werden kann, wenn eine virtuelle Taste gedrückt wird, sondern auch in den Fällen, in denen eine Vielzahl von Tasten gleichzeitig gedrückt wird.
  • Bezug nehmen auf 2 stellt eine zweite Ausführungsform der vorliegenden Erfindung ein elektronisches Gerät 30 mit einem virtuellen Dateneingabegerät dar. In dieser Ausführungsform ist das elektronische Gerät 30 ein Notebook. Der elektronische Apparat 30 beinhaltet ein erstes Gehäuseteil 31, ein zweites Gehäuseteil 33, eine gedruckte Muster 35, ein erstes und ein zweites Bild erkennendes Modul 37a und 37b und einen Prozessor 39. Das zweite Gehäuseteil 33 ist schwenkbar auf dem ersten Gehäuseteil 31 angeordnet und ein Bildschirm 332 ist auf dem zweiten Gehäuseteil 33 angeordnet.
  • Das gedruckte Muster 35 wird auf dem ersten Gehäuseteil 31 gebildet und beinhaltet ein Tastatur-Muster 352 und ein Zeigegerät-Muster beispielsweise ein bemustertes Mausfeld 354. Verständlicherweise ist das Zeigegerät-Muster der gedruckten Muster 35 nicht auf die bemustertes Mausfeld 354 beschränkt, sondern kann auch andere Typen von Zeigegerät-Muster umfassen.
  • Das erste Bild erkennende Modul 37a und das zweite Bild erkennende Modul 37b sind auf dem zweiten Gehäuseteil 33 angeordnet und räumlich voneinander durch einen Abstand getrennt und entsprechend konfiguriert, um eine Handlung eines Benutzers auf der gedruckten Muster zu erkennen und als Antwort auf diese Handlung ein Bildsignal zu generieren. Das erste und das zweite Bild erkennende Modul 37a und 37b teilen sich ein überlappendes Bildfeld und beinhalten jeweils eine optische Linse und einen Bildsensor. Die optischen Linsen sind so konfiguriert, dass sie die Handlung des Benutzers wahrnehmen und Bilder auf den Bildsensoren bilden, so dass die Bildsensoren ein entsprechendes Bildsignal generieren.
  • Der Prozessor 39 ist mit dem ersten Erkennungsmodul 37a und dem zweiten Erkennungsmodul 37b elektronisch verbunden und konfiguriert, um das Bildsignal zu prozessieren, dass durch die Bild erkennenden Module 37a und 37b generiert wird, und dadurch ein der Handlung des Benutzers entsprechendes Eingangssignal zu generieren. Das Eingangssignal ist ein Signal ausgewählt aus einem Signal der Zeigerposition, um die Position eines Zeigers 3320 auf einem Bildschirm 332 zu kontrollieren, und aus einem Signal des Dateneingangs, um eine Tastaturfunktion zu realisieren. Wenn der Benutzer beispielsweise eine Handlung auf dem Tastatur-Muster 352 des gedruckten Musters 35, z. B. eine Berührungshandlung durchführt, generiert der Prozessor 39 ein der Handlung des Benutzers entsprechendes Eingangssignal. Wenn der Benutzer eine Handlung auf dem bemusterten Mausfeld 354 der gedruckten Muster 35 durchführt, generiert der Prozessor 39 ein der Handlung des Benutzers entsprechendes Zeiger- Positionssignal um die Position des Zeigers 3320 auf dem Bildschirm 332 zu kontrollieren. Die Koordinaten der Position, wo die Handlung auf dem gedruckten Muster 35 ausgeführt wird, können mittels der Triangulations-Methode oder einer ähnlichen Positionierungsmethode ermittelt werden.
  • Bezugnehmend auf 3 stellt eine dritte Ausführungsform der vorliegenden Erfindung ein elektronisches Gerät 50 mit einem virtuellen Dateneingabegerät dar. In dieser Ausführungsform ist das elektronische Gerät 50 ein Notebook. Der elektronische Apparat 50 beinhaltet ein erstes Gehäuseteil 51, ein zweites Gehäuseteil 53, eine Tastatur 56, ein erstes Bild erkennendes Modul 57a, ein zweites Bild erkennendes Modul 57b und einen Prozessor 59. Das zweite Gehäuseteil 53 weist einen Bildschirm 532 auf und ist schwenkbar auf dem ersten Gehäuseteil 51 angeordnet.
  • Die Tastatur 56 kann eine konventionelle Tastatur mit einer mechanisch-elektronischen Schnittstelle und einer Vielzahl von Tasten darstellen. Durch Drücken der Tasten auf der Tastatur 56 kann ein Benutzer Daten in das elektronische Gerät eingeben. Die Daten werden durch den Schaltkreis des elektronischen Geräts 50 verarbeitet und zur Darstellung auf den Bildschirm 532 geschickt.
  • Das erste Bild erkennende Modul 57a und das zweite Bild erkennende Modul 57b sind auf der linken Seite des ersten Gehäuseteils 51 angeordnet und räumlich voneinander durch einen Abstand getrennt und teilen sich ein überlappendes Bildfeld, in welchem eine zweidimensionale virtuelle Zeiger-Positionsregion definiert ist, beispielsweise eine virtuelle Mausregion 55. Das erste Bild erkennende Modul 57a und das zweite Bild erkennende Modul 57b sind entsprechend konfiguriert, um eine Handlung eines Benutzers auf der virtuellen Mausregion 55 zu erkennen und als Antwort auf diese Handlung ein Bildsignal zu generieren. Das erste Bild erkennende Modul 57a und das zweite Bild erkennende Modul 57b enthalten jeweils eine optische Linse und einen Bildsensor. Die optischen Linsen sind so konfiguriert, dass sie die Handlung des Benutzers erfassen und Bilder auf dem Bildsensor erstellen.
  • Der Prozessor 59 ist mit dem ersten Erkennungsmodul 57a und dem zweiten Erkennungsmodul 57b elektronisch verbunden und konfiguriert, um das Bildsignal zu verarbeiten, dass durch die Bild erkennenden Module 57a und 57b generiert wird, und dadurch ein Signal für die Position eines Zeigers zur Kontrolle der Position eines Zeigers 5320 auf einem Bildschirm 532 zu generieren. Die Koordinaten der Position, an der die Handlung auf der virtuellen Mausregion 55 durchgeführt wird, können mit Hilfe der Triangulations-Methode oder ähnlicher Positionierungsmethoden ermittelt werden.
  • Selbstverständlich ist die Anordnung des ersten Erkennungsmoduls 57a und des zweiten Erkennungsmoduls 57b nicht auf die linke Seite des ersten Gehäuseteils 51 beschränkt, sie können auch, wie in 4 dargestellt, an der Vorderseite des ersten Gehäuseteils 51 angeordnet sein, oder auf anderen Seiten, beispielsweise der rechten Seite.
  • Weiterhin ist die Anordnung des ersten Erkennungsmoduls 57a und des zweiten Erkennungsmoduls 57b nicht auf das erste Gehäuseteil 51 direkt beschränkt, die Anordnung kann an einem Untereinheit 57 erfolgen, das, wie in 5 dargestellt, lösbar mit dem ersten Gehäuseteil 51 verbunden ist. Das Untereinheit 57 ist mit dem ersten Gehäuseteil 51 über eine Anschlussstelle elektronisch verbunden, beispielsweise über einen USB-Anschluss oder über einen Firewire Anschluss.
  • Weiterhin ist das elektronische Gerät 50 gemäß der dritten Ausführungsform der Erfindung nicht auf die Verwendung einer konventionellen Tastatur 56 mit einer mechanisch-elektrischen Schnittstelle für den Dateneingang beschränkt. Im Besonderen beinhaltet ein in 6 dargestelltes elektronisches Gerät 50 ein erstes Gehäuseteil 51, ein zweites Gehäuseteil 53, ein virtuelles bemustertes Mausfeld 55, ein erstes Bild erkennendes Modul 57a, ein zweites Bild erkennendes Modul 57b, einen Prozessor 59a, eine Erkennungsebene 152, eine Tastatur-Muster 154 und ein drittes Bild erkennendes Modul 17. Die Erkennungsebene 152 ist mit dem Prozessor 59a elektronisch verbunden und so konfiguriert, dass ein Eingangssignal erzeugt wird, wenn ein Benutzer die Erkennungsebene 152 durch Druck berührt. Der Prozessor 59a ist mit dem dritten Bild erkennenden Modul 17 elektronisch verbunden und so konfiguriert, dass er die von dem dritten Bild erkennenden Modul 17 generierten Bildsignale erhält und verarbeitet nachdem das Eingangssignal erzeugt wurde, so dass die Daten entsprechend der Druckausübung des Benutzers in das elektronische Gerät 50 eingegeben werden und die Tastaturfunktion somit verwirklicht wird. Das erste und das zweite Erkennungsmodul 57a und 57b sind mit dem Prozessor 59a elektronisch verbunden und jeweils entsprechend konfiguriert, um eine Handlung des Benutzers auf der virtuellen Mausregion 55 wahrzunehmen und als Antwort auf diese Handlung ein Bildsignal zu generieren. Der Prozessor 59a ist so konfiguriert, dass er dann das Bildsignal verarbeitet und ein Signal entsprechend der Position des Zeigers erzeugt, um die Position eines Zeigers 5320 auf einem Bildschirm 532 zu kontrollieren. Um es einfacher zu beschreiben, der Prozessor 59a ist im Wesentlichen so konfiguriert, dass er die Funktion des Prozessors 19 der ersten Ausführungsform und die Funktion des Prozessors 59 der dritten Ausführungsform ausführt.
  • Wie in 6 dargestellt, kann auf dem zweiten Gehäuseteil 53 des elektronischen Geräts weiterhin eine Infrarot-Lichtquelle 60 zum Aussenden von infrarotem Licht angeordnet sein. Die Erkennungsebene 152 und die virtuelle Mausregion sind innerhalb des Leuchtbereiches der Infrarot-Lichtquelle 60 angeordnet. Das Tastatur-Muster 154 ist innerhalb des Leuchtbereiches der Infrarot-Lichtquelle 60 angeordnet. Die Bild erkennenden Module 17, 57a und 57b beinhalten weiterhin, zusätzlich zur optischen Linse und dem Bildsensor, jeweils einen Infrarot-Passfilter (nicht in 6 dargestellt). Der Infrarot-Passfilter kann in der optischen Linse oder an anderen geeigneten Stellen platziert werden, solange er sich dabei auf der Bild erkennenden Seite des Bildsensors befindet. Mit diesen Mitteln kann das Rauschen des Signals der Bild erkennenden Module 17, 57a und 57b reduziert werden und die Meßgenauigkeit verbessert werden.
  • Wie in 6 dargestellt, muss beachtet werden, dass die Anzahl an Infrarot-Lichtquellen 60 nicht auf eine beschränkt ist. Im Falle der Verwendung einer Mehrzahl von Infrarot-Lichtquellen 60, können zwei Infrarot-Lichtquellen 60 jeweils neben dem ersten Bild erkennenden Modul 57a und dem zweiten Bild erkennenden Modul 57b angeordnet sein, und wobei die virtuelle Mausregion 55 innerhalb des Leuchtbereiches dieser Infrarot-Lichtquellen 60 positioniert sind.
  • Um das Rauschen des Signals der Bild erkennenden Module 17, 57a und 57b zu verringern und die Meßgenauigkeit dieser zu verbessern, kann die Infrarot-Lichtquelle 60 von dem ersten Gehäuseteil 51 oder dem zweiten Gehäuseteil 53 entfernt werden und stattdessen kann, wie in 7 dargestellt, eine Infrarot-Lichtquelle 72 und eine Detektionseinheit (nicht in 7 dargestellt) auf einem Eingabestift 70 angeordnet sein, wenn der Benutzer einen Eingabestift zur Eingabe der Daten verwendet. Die Detektionseinheit kann ein Drucksensor sein. Wenn die Spitze 76 des Eingabestifts 70 die Erkennungsebene 152 oder die virtuelle Mausregion 55 berührt, wird die Infrarot-Lichtquelle 72 angeschaltet und emittiert infrarotes Licht. Wenn ein Eingabestift 70 verwendet wird, können verständlicherweise weiterhin Infrarot-Lichtquellen auf dem ersten Gehäuseteil 51 und/oder dem zweiten Gehäuseteil 53 angeordnet sein und die Infrarot-Lichtquelle 72 wird als Infrarot-Hilfslichtquelle verwendet. Vorzugsweise ist die Lichtstärke der Infrarot-Hilfslichtquelle 72 größer als die Lichtstärke der Infrarot-Lichtquellen 60 des elektronischen Geräts 50. Die Konfiguration bestehend aus den Infrarot-Lichtquellen 60 und 72 und den Infrarot-Passfiltern kann genauso gut zusätzlich in dem elektronischen Gerät 10 der ersten Ausführungsform und in dem elektronischen Gerät 30 der zweiten Ausführungsform eingesetzt werden.
  • Die elektronischen Geräte in den oben beschriebenen Ausführungsformen sind Notebooks, jedoch wird der Fachmann verstehen, dass die elektronischen Geräte entsprechend der vorliegenden Erfindung nicht auf Notebooks beschränkt sind, sondern auch andere in der Hand gehaltene Geräte umfassen können beispielsweise PDAs (persönliche digitale Assistenten), in der Hand gehaltene Spielkonsolen oder andere elektronische Geräte beispielsweise Schreibtisch Computer.
  • Zusammenfassen kann festgestellt werden, das durch das Ersetzen der konventionellen Dateneingabegeräte in einem elektronischen Gerät mit einer virtuellen Tastatur und/oder einem virtuellen Zeigegerät beispielsweise einer virtuellen Maus gemäß den Ausführungsformen der vorliegenden Erfindung, die Muster des elektronischen Geräts vereinfacht werden kann und die Ausmaße des elektronischen Gerätes reduziert werden können, so dass die Kosten des elektronischen Geräts und der Platz, der durch das elektronische Gerät eingenommen wird, eingespart werden können, wodurch die wachsende Nachfrage nach billigen, dünnen und leichten Geräten befriedigt werden kann.
  • Die obige Beschreibung stellt nur Beispiele dar und beschränkt die Erfindung nicht auf diese. Entsprechend der obigen Offenbarung kann ein Fachmann Variationen entwickeln, die dem Wesen der Erfindung entsprechen und in den Geltungsbereich der offenbarten Erfindung fallen, inklusive Wege der Konfiguration der ausgesparte Abschnitte und der Materialien und/oder der Gestaltung von befestigten Mustern. Weiterhin können die verschiedenen in den Ausführungsformen beschriebenen Merkmale allein oder in unterschiedlichen Kombinationen miteinander verwendet werden und sollen nicht auf die spezifische hier beschriebene Kombination beschränkt werden. Dementsprechend ist der Schutzbereich der Patentansprüche nicht auf die dargestellten Ausführungsformen beschränkt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - TW 098100193 [0001]

Claims (20)

  1. Elektronisches Gerät (10) mit einem virtuellen Dateneingabegerät umfassend: ein erstes Gehäuseteil (11); ein zweites Gehäuseteil (13) mit einem darauf angeordneten Bildschirm (132); eine auf dem ersten Gehäuseteil (11) angeordnete Erkennungsebene (152), die entsprechend konfiguriert ist, dass ein Eingangssignal generierbar ist, wenn ein Benutzer die Erkennungsebene (152) berührt; ein auf dem zweiten Gehäuseteil (13) angeordnetes Bild erkennendes Modul (17), das so konfiguriert ist, dass es eine Druckausübung des Benutzers auf der Erkennungsebene (152) wahrnimmt und ein Bildsignal generierbar ist, das die Information der gedrückten Position auf der Erkennungsebene (152) darstellt; und ein mit der Erkennungsebene (152) und dem Bild erkennenden Modul (17) elektronisch verbundener Prozessor (19), der so konfiguriert ist, dass er nach der Generierung des Eingangssignals das Bildsignal verarbeitet, so dass die der Druckausübung des Benutzers entsprechenden Daten in das elektronische Gerät (10) eingebbar sind.
  2. Elektronisches Gerät gemäß Anspruch 1, wobei die Erkennungsebene (152) ein spezifisches aufgedrucktes Muster aufweist.
  3. Elektronisches Gerät (10) gemäß Anspruch 2, wobei das spezifische Muster ein Tastatur-Muster (154) ist und wobei das Tastatur-Muster (154) eine Vielzahl von virtuellen Tasten aufweist.
  4. Elektronisches Gerät (10) gemäß Anspruch 1, wobei das zweite Gehäuseteil (13) schwenkbar auf dem ersten Gehäuseteil (11) angeordnet ist.
  5. Elektronisches Gerät (10) gemäß Anspruch 1, welches zusätzlich eine Infrarot-Lichtquelle (60) aufweist, wobei die Erkennungsebene (152) innerhalb des Beleuchtungsbereichs der Infrarot-Lichtquelle (60) angeordnet ist und wobei das Bild erkennende Modul (17) einen Infrarot-Passfilter umfasst.
  6. Elektronisches Gerät (10) gemäß Anspruch 1, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Lichtquelle (72) angeordnet ist, die Infrarot-Lichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die Erkennungsebene (152) berührt, wobei das Bild erkennende Modul (17) einen Infrarot-Passfilter umfasst.
  7. Elektronisches Gerät (10) gemäß Anspruch 5, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Hilfslichtquelle (72) angeordnet ist, wobei die Infrarot-Hilfslichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die Erkennungsebene (152) berührt, wobei die Lichtstärke der Infrarot- Hilfslichtquelle (72) größer ist als die Lichtstärke der Infrarot-Lichtquelle (60) des elektronischen Geräts (10).
  8. Elektronisches Gerät (30) mit einem virtuellen Dateneingabegerät umfassend: ein erstes Gehäuseteil (31); ein zweites Gehäuseteil (33) mit einem darauf angeordneten Bildschirm (332), wobei das zweite Gehäuseteil (33) schwenkbar auf dem ersten Gehäuseteil (31) angeordnet ist; ein auf dem ersten Gehäuseteil (31) angeordnetes gedrucktes Muster (35), wobei das gedruckte Muster (35) ein Tastatur-Muster (352) und ein Zeigegerät-Muster (354) umfasst; ein erstes Bild erkennendes Modul (37a) und ein zweites Bild erkennendes Modul (37b), die räumlich voneinander getrennt auf dem zweiten Gehäuseteil (33) angeordnet sind und sich ein überlappendes Bildfeld teilen und jeweils so konfiguriert sind, dass sie eine Handlung eines Benutzers auf dem gedruckten Muster (35) wahrnehmen und als Antwort auf die Handlung ein Bildsignal generieren; und ein mit dem ersten Erkennungsmodul (37a) und dem zweiten Erkennungsmodul (37b) elektronisch verbundener Prozessor, der so konfiguriert ist, dass er das Bildsignal verarbeitet und dadurch ein Eingangssignals entsprechend der Handlung generiert, wobei das Eingangssignal von einem Signal der Position des Zeigers zur Kontrolle der Zeigerposition auf dem Bildschirm (332) und einem Dateneingabesignal zur Realisierung der Tastatur Funktion auswählbar ist.
  9. Elektronisches Gerät (30) gemäß Anspruch 8, wobei das Zeigegerät-Muster (354) ein bemustertes Mausfeld ist.
  10. Elektronisches Gerät (30) gemäß Anspruch 8, welches zusätzlich eine Infrarot-Lichtquelle (60) aufweist, wobei sich das aufgedruckte Muster (35) innerhalb des Beleuchtungsbereichs der Infrarot-Lichtquelle (60) befindet, wobei das Bild erkennende Modul (37a, 37b) einen Infrarot-Passfilter umfasst.
  11. Elektronisches Gerät (30) gemäß Anspruch 8, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Lichtquelle (72) angeordnet ist, wobei die Infrarot-Lichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die Erkennungsebene (352) berührt, wobei das Bild erkennende Modul (37a, 37b) einen Infrarot-Passfilter umfasst.
  12. Elektronisches Gerät (30) gemäß Anspruch 10, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Hilfslichtquelle (72) angeordnet ist, wobei die Infrarot-Hilfslichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die Erkennungsebene (352) berührt, wobei die Lichtstärke der Infrarot-Hilfslichtquelle (72) größer ist als die Lichtquelle der Infrarot-Lichtquelle (60) des elektronischen Geräts (30).
  13. Elektronisches Gerät (50) mit einem virtuellen Dateneingabegerät umfassend: ein erstes Gehäuseteil (51); ein zweites Gehäuseteil (53) mit einem darauf angeordneten Bildschirm (532); ein erstes Bild erkennendes Modul (57a) und ein zweites Bild erkennendes Modul (57b), die räumlich voneinander getrennt auf einer Seite des ersten Gehäuseteils (51) angeordnet sind und sich ein überlappendes Bildfeld teilen, in dem eine zweidimensionale Zeigerpositionierungsregion definiert ist und die jeweils so konfiguriert sind, dass sie eine Handlung eines Benutzers in der virtuellen Zeigerpositionierungsregion wahrnehmen und als Antwort auf diese Handlung ein Bildsignal generieren; und ein mit dem ersten Erkennungsmodul (57a) und dem zweiten Erkennungsmodul (57b) elektronisch verbundener Prozessor (59), der so konfiguriert ist, dass er das Bildsignal verarbeitet und dadurch ein Signals entsprechend Position des Zeigers generiert, um die Zeigerposition auf dem Bildschirm (532) zu kontrollieren.
  14. Elektronisches Gerät (50) gemäß Anspruch 13, wobei das erste Bild erkennende Modul (57a) und das zweite Bild erkennende Modul (57b) auf einem Untereinheit (57) angeordnet sind, das mit dem ersten Gehäuseteil (51) lösbar verbunden ist, wobei das Untereinheit (57) mit dem ersten Gehäuseteil (51) elektronisch über einen Anschlussport verbunden ist.
  15. Elektronisches Gerät (50) gemäß Anspruch 13, wobei eine Tastatur (56), umfassend eine mechanisch-elektronische Schnittstelle, auf dem ersten Gehäuseteil (51) angeordnet ist.
  16. Elektronisches Gerät (50) gemäß Anspruch 13, welches weiterhin eine Infrarot-Lichtquelle (60) umfasst, wobei die virtuelle Zeigerpositionierungsregion innerhalb des Beleuchtungsbereichs der Infrarot-Lichtquelle (60) angeordnet ist, wobei die Bild erkennenden Module (57a, 57b) jeweils einen Infrarot-Passfilter umfassen.
  17. Elektronisches Gerät (50) gemäß Anspruch 13, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Lichtquelle (72) angeordnet ist, wobei die Infrarot-Lichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die virtuelle Zeigerpositionierungsregion berührt, wobei die Bild erkennenden Modul (57a, 57b) jeweils einen Infrarot-Passfilter umfassen.
  18. Elektronisches Gerät (50) gemäß Anspruch 16, welches weiterhin einen Eingabestift (70) umfasst, wobei auf dem Eingabestift (70) eine Infrarot-Hilfslichtquelle (72) angeordnet ist, wobei die Infrarot-Hilfslichtquelle (72) so konfiguriert ist, dass sie anschaltbar ist, wenn die Spitze (76) des Eingabestiftes (70) die virtuelle Zeigerpositionierungsregion berührt, wobei die Lichtstärke der Infrarot-Hilfslichtquelle (72) größer ist als die Lichtstärke der Infrarot-Lichtquelle (60) des elektronischen Geräts (50).
  19. Elektronisches Gerät (50) gemäß Anspruch 13, wobei eine Erkennungsebene (152) auf dem ersten Gehäuseteil (51) angeordnet ist, wobei die Erkennungsebene (152) so konfiguriert ist, dass ein Eingangssignal erzeugbar ist, wenn ein Benutzer die Erkennungsebene (152) drückt; ein drittes Bild erkennendes Modul (17) ist auf dem zweiten Gehäuseteil (53) angeordnet, wobei das dritte Bild erkennende Modul (17) so konfiguriert ist, dass es die Druckausübung auf der Erkennungsebene durch den Benutzer wahrnimmt und ein Bildsignal generiert, das die Information der gedrückten Position auf der Erkennungsebene (152) trägt; der Prozessor (59a) ist mit der Erkennungsebene (152) und dem dritten Bild erkennenden Modul (17) elektronisch verbunden und so konfiguriert, dass er nach Generierung des Eingangssignal, das durch das dritte Bild erkennende Modul (17) generierte Bildsignal verarbeitet, so dass die Daten entsprechend der Druckausübung des Benutzers in das elektronische Gerät (50) eingebbar sind.
  20. Elektronisches Gerät (50) gemäß Anspruch 19, wobei ein Tastatur-Muster (154) auf die Erkennungsebene (152) aufgedruckt ist.
DE102009025833A 2009-01-06 2009-05-19 Elektronisches Gerät mit virtuellem Dateneingabegerät Withdrawn DE102009025833A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW098100193 2009-01-06
TW098100193A TW201027393A (en) 2009-01-06 2009-01-06 Electronic apparatus with virtual data input device

Publications (1)

Publication Number Publication Date
DE102009025833A1 true DE102009025833A1 (de) 2010-09-23

Family

ID=42311361

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009025833A Withdrawn DE102009025833A1 (de) 2009-01-06 2009-05-19 Elektronisches Gerät mit virtuellem Dateneingabegerät

Country Status (4)

Country Link
US (1) US20100171694A1 (de)
JP (1) JP2010160772A (de)
DE (1) DE102009025833A1 (de)
TW (1) TW201027393A (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8610668B2 (en) * 2010-09-30 2013-12-17 Avago Technologies General Ip (Singapore) Pte. Ltd. Computer keyboard with input device
TW201305854A (zh) * 2011-07-26 2013-02-01 Chip Goal Electronics Corp 無線遙控影像顯示系統與用於其中的控制器及處理方法
US20130335377A1 (en) * 2012-06-15 2013-12-19 Tzyy-Pyng Lin Notebook touch input device
GB2506849A (en) * 2012-09-26 2014-04-16 Light Blue Optics Ltd A touch sensing system using a pen
TWI479363B (zh) * 2012-11-26 2015-04-01 Pixart Imaging Inc 具有指向功能的可攜式電腦及指向系統
KR101909540B1 (ko) 2014-10-23 2018-10-18 삼성전자주식회사 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법
JP6069288B2 (ja) * 2014-11-21 2017-02-01 レノボ・シンガポール・プライベート・リミテッド ポインティング・スティックとキーの入力方法、コンピュータおよびコンピュータ・プログラム
TWI570596B (zh) * 2015-06-22 2017-02-11 廣達電腦股份有限公司 光學輸入方法以及使用該方法之光學虛擬滑鼠

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998000193A1 (en) 1996-07-03 1998-01-08 Altea Technologies, Inc. Multiple mechanical microporation of skin or mucosa
WO2003046706A1 (en) * 2001-11-27 2003-06-05 Canesta, Inc. Detecting, classifying, and interpreting input events
DE20122526U1 (de) * 2000-09-07 2006-06-01 Canesta, Inc., San Jose Eine Vorrichtung zum Erfassen und Lokalisieren einer Interaktion eines Benutzerobjekts und virtuelle Übertragungsvorrichtung

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195169A (ja) * 1992-12-25 1994-07-15 Oki Electric Ind Co Ltd 電子計算機の入力装置
JP4484255B2 (ja) * 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
JPH11305895A (ja) * 1998-04-21 1999-11-05 Toshiba Corp 情報処理装置
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2001350591A (ja) * 2000-06-06 2001-12-21 Assist Computer Systems:Kk 撮影画像データ入力・解析システム
WO2004044664A1 (en) * 2002-11-06 2004-05-27 Julius Lin Virtual workstation
WO2006013783A1 (ja) * 2004-08-04 2006-02-09 Matsushita Electric Industrial Co., Ltd. 入力装置
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998000193A1 (en) 1996-07-03 1998-01-08 Altea Technologies, Inc. Multiple mechanical microporation of skin or mucosa
DE20122526U1 (de) * 2000-09-07 2006-06-01 Canesta, Inc., San Jose Eine Vorrichtung zum Erfassen und Lokalisieren einer Interaktion eines Benutzerobjekts und virtuelle Übertragungsvorrichtung
WO2003046706A1 (en) * 2001-11-27 2003-06-05 Canesta, Inc. Detecting, classifying, and interpreting input events

Also Published As

Publication number Publication date
JP2010160772A (ja) 2010-07-22
TW201027393A (en) 2010-07-16
US20100171694A1 (en) 2010-07-08

Similar Documents

Publication Publication Date Title
DE102009025833A1 (de) Elektronisches Gerät mit virtuellem Dateneingabegerät
DE102009025236B4 (de) Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm
DE69914659T2 (de) Eingabevorrichtung für Rechner in Form eines Stiftes
DE19525644C2 (de) Vorrichtung zur Eingabe von Daten in einen Computer
DE102011102341A1 (de) Integrierter Fingerabdrucksensor und Navigiereinrichtung
DE69425105T2 (de) Informationsverarbeitungsvorrichtung mit integriertem Anzeige/Eingabesystem
DE69430967T2 (de) Interaktives Kopiersystem
DE69535640T2 (de) Bestimmung der absoluten optischen position
DE102010018864A1 (de) Daumen-Touch Profilsensorvorrichtung
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
DE20221921U1 (de) Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten
DE112005002019T5 (de) Eingabegerät mit Dreherfassung auf der Basis eines Pucks
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE69919759T2 (de) Verfahren zum digitalisieren, schreiben und zeichnen mit möglichkeit zum löschen und/oder hinweisen
DE112017004107T5 (de) Umgekehrter Tastaturaufbau
DE202019005869U1 (de) Analoge Eingabe-Vorrichtung, Rechensystem und Computer-Analoge-Eingabe-Vorrichtung
DE69518884T2 (de) Druckempfindliche Dateneigabevorrichtung, die um einen menschlichen Finger getragen werden kann
EP1573502A2 (de) Schnell-eingabevorrichtung
DE102021100033A1 (de) Elektronischer schraubenschlüssel und aufforderungsverfahren davon
DE69507183T2 (de) Tragbares elektronisches Gerät
DE102012219129B4 (de) Verfahren zum Betreiben einer Vorrichtung, die eine Benutzerschnittstelle mit einem Berührungssensor aufweist, sowie entsprechende Vorrichtung
DE112017005980T5 (de) Anzeigesteuervorrichtung, anzeigesteuerverfahren und computerprogramm
DE102015103836A1 (de) Endgerät und Informationsverarbeitungsverfahren
DE102013007914A1 (de) Handgehaltene Vorrichtung und Entriegelungsverfahren von dieser

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R120 Application withdrawn or ip right abandoned

Effective date: 20110324