DE112012006627T5 - Tablet-Gerät mit dünnem Bildschirmrahmen - Google Patents

Tablet-Gerät mit dünnem Bildschirmrahmen Download PDF

Info

Publication number
DE112012006627T5
DE112012006627T5 DE112012006627.8T DE112012006627T DE112012006627T5 DE 112012006627 T5 DE112012006627 T5 DE 112012006627T5 DE 112012006627 T DE112012006627 T DE 112012006627T DE 112012006627 T5 DE112012006627 T5 DE 112012006627T5
Authority
DE
Germany
Prior art keywords
touch event
touch
event
user
front touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112012006627.8T
Other languages
English (en)
Inventor
wird später genannt werden Erfinder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112012006627T5 publication Critical patent/DE112012006627T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Systeme und Verfahren können die Identifizierung eines hinteren Berührungsereignisses in Bezug auf eine Rückseite eines Geräts und die Identifizierung eines vorderen Berührungsereignisses in Bezug auf eine Vorderseite des Geräts bereitstellen. Außerdem kann das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zugeordnet werden. In einem Beispiel ist das Gerät ein Smart-Tablet mit einem dünnen Bildchirmrahmen mit einem begrenzten Greifbereich.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Ausführungsformen beziehen sich allgemein auf die Behandlung mobiler Geräte. Insbesondere beziehen sich Ausführungsformen auf eine hardwarebasierte Methode der Identifizierung von Greifvorgängen von Benutzern von mobilen Geräten mit Touchscreen.
  • Erörterung
  • Smart-Tablet-Geräte können mit einem Touchscreen-Display ausgestattet sein, der es dem Benutzer ermöglicht, mit dem Gerät zu interagieren. Das Greifen des Geräts (z. B. Hochnehmen) kann jedoch unbeabsichtigte Interaktionen mit dem Bildschirm verursachen, wenn der Daumen des Benutzers den Touchscreen berührt. Während eine Lösung darin bestehen kann, die Breite des Gehäuserahmens rund um den Touchscreen zu vergrößern, kann eine solche Methode den Betrachtungsbereich verringern. Eine andere Lösung kann darin bestehen, eine Software zur „Greifunterdrückung” zu verwenden, um unbeabsichtigte Touchscreen-Interaktionen zu unterdrücken. Software zur „Greifunterdrückung” kann jedoch ineffektiv sein. Darüber hinaus kann die Kompatibilität zwischen der Software zur „Greifunterdrückung” und anderen Anwendungen, die auf dem Tablet-Gerät ausgeführt werden, Probleme darstellen, insbesondere wenn andere Anwendungen aktualisiert und neue Anwendungen auf dem Gerät installiert werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die verschiedenen Vorteile der erfindungsgemäßen Ausführungsformen sind für den Fachmann beim Durchlesen der folgenden Beschreibung und der anhängenden Ansprüche sowie unter Bezugnahme auf die folgenden Zeichnungen offensichtlich, in denen:
  • 1 ein Blockdiagramm eines Beispiels eines mobilen Geräts mit einem dünnen Rahmen gemäß einer Ausführungsform ist.
  • 2 ein Blockdiagramm eines Beispiels eines Satzes von Benutzereingabeaufforderungen auf einem vorderen Touchscreen gemäß einer Ausführungsform ist.
  • 3 ein Blockdiagramm eines Beispiels einer Logikarchitektur gemäß einer Ausführungsform ist
  • 4 ein Flussdiagramm eines beispielhaften Verfahrens der Bedienung eines mobilen Geräts gemäß einer Ausführungsform ist,
  • 5 eine Veranschaulichung eines Beispiels eines hinteren Berührungsereignisses mit zwei Händen ist und
  • 6 ein Blockdiagramm eines Beispiels eines mobilen Geräts gemäß einer Ausführungsform ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen können eine Methode für die Bedienung eines mobilen Geräts umfassen, bei dem ein hinteres Berührungsereignis in Bezug auf eine Rückseite des Geräts identifiziert wird. Das Verfahren kann auch die Identifizierung eines vorderen Berührungsereignisses in Bezug auf die Vorderseite des Geräts bereitstellen, wobei das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zugeordnet wird.
  • Ausführungsformen können außerdem ein nicht flüchtiges, computerlesbares Speichermedium mit einem Satz von Befehlen umfassen, die, wenn sie von einem Prozessor ausgeführt werden, das Gerät veranlassen, ein hinteres Berührungsereignis in Bezug auf die Rückseite des Geräts zu identifizieren. Die Befehle können bei Ausführung außerdem das mobile Gerät veranlassen, ein vorderes Berührungsereignis in Bezug auf die Vorderseite des Geräts zu identifizieren, und das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zuzuordnen.
  • Außerdem können Ausführungsformen ein mobiles Gerät mit einem hinteren Berührungssensor umfassen, der auf der Rückseite des Geräts angeordnet ist, und einen vorderen Touchscreen, der auf der Vorderseite des Geräts angeordnet ist. Das mobile Gerät kann außerdem ein Gehäuse mit Rahmen mit Rändern um den vorderen Touchscreen umfassen. Das mobile Gerät kann außerdem ein hinteres Logikmodul haben, um den hinteren Berührungssensor zu verwenden, um ein hinteres Berührungsereignis in Bezug auf die Rückseite des Geräts zu identifizieren, und ein vorderes Logikmodul, um den vorderen Touchscreen zu verwenden, um ein vorderes Berührungsereignis in Bezug auf die Vorderseite des Geräts zu identifizieren. Außerdem kann das mobile Gerät ein Klassifizierungsmodul haben, das das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zuordnet.
  • Unter jetziger Bezugnahme auf 1 wird ein mobiles Gerät 10 dargestellt, wobei das Gehäuse des mobilen Geräts 10 einen relativ dünnen Rahmen 12 mit Innenrändern um einen vorderen Touchscreen 14 des mobilen Geräts 10 hat. Während die Dünne des Rahmens 12 eine Vergrößerung des Betrachtungsbereichs des Touchpanels 14 ermöglicht, kann es sein, dass die Hand eines Benutzers 16 Touchpanel 14 berührt, auch wenn der Benutzer nicht mit Touchpanel 14 interagieren möchten (z. B. Greifbewegung des Benutzers statt Benutzeranforderung). Wie nachstehend ausführlicher erörtert, kann das mobile Gerät 10 einen hinteren Berührungssensor (nicht dargestellt) verwenden, um eine hardwarebasierte Lösung für das Identifizieren von Greifvorgängen von Benutzern bereitzustellen.
  • 2 zeigt ein Beispiel eines Satzes von Benutzereingabeaufforderungen, die verwendet werden können, um Greifvorgänge von Benutzern zu identifizieren. Im Allgemeinen kann, wenn ein hinteres Berührungsereignis in Bezug auf die Rückseite des mobilen Geräts 10 identifiziert wird, eine Zielgreifbereich 18 über den vorderen Touchscreen 14 angezeigt werden. Im veranschaulichten Beispiel zeigt der Zielgreifbereich 18 einen Fingerumriss des hinteren Berührungsereignisses, auch wenn andere Formen verwendet werden können. Zielgreifbereich 18 kann so den Benutzer informieren, dass ein potenzieller Greifvorgang des Benutzers erkannt wurde, und er kann dem Benutzer sagen, wo er seinen Daumen platzieren soll, um das mobile Gerät 10 zu greifen, ohne dass dies als Benutzeranforderung/Interaktion interpretiert wird. Wenn der Benutzer somit seinen Daumen in Zielgreifbereich 18 platziert, kann diese Aktion als vorderes Berührungsereignis interpretiert werden, das mit einem Greifvorgang des Benutzers statt einer Benutzeranforderung verbunden ist. Demgemäß kann das vordere Berührungsereignis von ein oder mehreren Anwendungen auf Gerät 10 ignoriert werden. Außerdem kann, als Reaktion auf ein solches vorderes Berührungsereignis, eine weitere Greifbestätigung 20 auf der Vorderseite des vorderen Touchscreens 14 angezeigt werden, wobei Greifbestätigung 20 dem Benutzer bestätigen kann, dass das aktuelle Anfassen des mobilen Geräts 10 als Greifvorgang des Benutzers behandelt wird. Im veranschaulichten Beispiel entspricht die Greifbestätigung 20 einem Daumenumriss des vorderen Berührungsereignisses.
  • Falls sich jedoch entweder das vordere Berührungsereignis außerhalb von Zielgreifbereich 18 befindet oder das vordere Berührungsereignis kein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist (z. B. berührt der Benutzer einen anderen Bereich, bevor er den Zielgreifbereich berührt), kann das vordere Berührungsereignis einer Benutzeranforderung zugeordnet und ein oder mehreren Anwendungen auf dem mobilen Gerät 10 bereitgestellt werden.
  • Unter jetziger Bezugnahme auf 3 ist eine Logikarchitektur 22 dargestellt, bei der ein hinterer Berührungssensor 24 und ein vorderer Touchscreen 26 verwendet werden können, um zu bestimmen, ob ein Benutzer ein mobiles Gerät greift, z. B. das mobile Gerät 10 (1 und 2), oder mit dem mobilen Gerät interagiert. Im veranschaulichten Beispiel kann ein hinteres Logikmodul 22a den hinteren Berührungssensor 24 verwenden, um ein hinteres Berührungsereignis in Bezug auf die Rückseite des Geräts zu identifizieren, wobei ein Eingabeaufforderungslogikmodul 22d eine Zielkomponente 30 haben kann, die einen Zielgreifbereich über den vorderen Touchscreen 26 als Reaktion auf das hintere Berührungsereignis anzeigt. Außerdem kann ein vorderes Logikmodul 22b so konfiguriert sein, dass es ein vorderes Berührungsereignis in Bezug auf die Vorderseite des Geräts identifiziert. Ein Klassifizierungsmodul 22e kann allgemein das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zuordnen.
  • Insbesondere kann das vordere Berührungsereignis einem Greifvorgang des Benutzers des Geräts zugeordnet werden (z. B. als solches klassifiziert werden), wenn das vordere Berührungsereignis eine Berührung im Zielgreifbereich identifiziert und das Berührungsereignis ein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist. In einem solchen Fall kann eine Bestätigungskomponente 32 von Eingabeaufforderungslogikmodul 22d eine Greifbestätigung auf dem vorderen Touchscreen 26 anzeigen, um den Benutzer zu informieren, dass das vordere Berührungsereignis als Greifvorgang des Benutzers identifiziert wurde. Besonders zu beachten ist, dass vordere Berührungsereignisse, die Greifvorgängen des Benutzers zugeordnet werden, von ein oder mehreren Anwendungen 28 ignoriert werden können, die auf dem mobilen Gerät ausgeführt werden.
  • Falls andererseits entweder das vordere Berührungsereignis eine Berührung außerhalb des Zielgreifbereichs identifiziert oder das vordere Berührungsereignis kein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist, kann das veranschaulichte Klassifizierungslogikmodul 22e das vordere Berührungsereignis ein oder mehreren Anwendungen 28 bereitstellen. Das Klassifizierungslogikmodul 22e und das vordere Logikmodul 22b können sich außerdem bei der Erkennung und Analyse nachfolgender Berührungsereignisse abstimmen, wie nachfolgend näher erörtert. Somit erfordern die veranschaulichten Anwendungen 28 keine Änderungen und haben keine Kompatibilitätsprobleme bei der Greiferkennung. Anwendungen 28 müssen die Funktionsweise der Logikarchitektur 22 in Verbindung mit der Touchpanel-Hardware überhaupt nicht kennen.
  • Der hintere Berührungssensor 24 und der vordere Touchscreen 26 können unterschiedlich konfiguriert sein, um Bedenken in Bezug auf die Kosten und das Benutzererlebnis zu berücksichtigen. Zum Beispiel kann der vordere Touchscreen 26 ein ITO(indium tin oxide)-Panel enthalten, das oben auf einem LCD(liquid crystal display)-Bildschirm angeordnet ist, wobei das Panel eine relativ schnelle Reaktion, hohe Auflösung und präzise Messfähigkeit aufweist. Der hintere Berührungssensor 24 könnte andererseits ein relativ kostengünstiges und unpräzises Panel mit geringer Auflösung sein, z. B. eine Folienleiterplatte mit vielen kapazitiven Berührungspunkten aus Kupfer. Der hintere Berührungssensor 24 kann außerdem so konfiguriert sein, dass er Berührungsereignisse durch Geräteabdeckungen wie Gummi- oder Kunststoffschutzhüllen erkennt.
  • 4 zeigt ein Verfahren 34 für die Bedienung eines mobilen Geräts. Verfahren 34 kann als ein Satz logischer Befehle implementiert werden, die in einem maschinen- oder computerlesbaren Speichermedium gespeichert sind, wie Random Access Memory (RAM), Read Only Memory (ROM), programmierbarem ROM (PROM), Firmware, Flash-Speicher usw., in konfigurierbarer Logik, wie z. B. programmierbare logische Anordnungen (PLAs), feldprogrammierbare Gate-Arrays (FPGAs), komplexe programmierbare Logikbaugruppen (CPLDs), in Logikhardware mit fester Funktionalität, die Schaltungstechnik verwendet, wie z. B. eine anwendungsspezifische integrierte Schaltung (ASIC), Complementary Metal Oxide Semiconductor-(CMOS) oder Transistor-Transistor-Logik-(TTL)-Technologie oder jede Kombination davon.
  • Der veranschaulichte Verarbeitungsblock 36 sorgt für die Feststellung, ob ein Berührungsereignis mit einer Hand erfolgt ist. In dieser Beziehung zeigt 5 ein hinteres Berührungsszenario mit zwei Händen, bei dem der Benutzer das Gerät in beiden Händen hält. Ein solches Ereignis würde keine positive Feststellung bei Block 36 (4) im veranschaulichten Beispiel auslösen. Unter erneuter Bezugnahme auf 4 kann, wenn bei Block 36 festgestellt wird, dass das hintere Berührungsereignis einer einzelnen Hand entspricht, ein Zielgreifbereich/eine Zielgreifzone bei Block 38 bestimmt werden, wobei eine visuelle Eingabeaufforderung des Zielgreifbereichs über einen vorderen Touchscreen des mobilen Geräts bei Block 40 angezeigt werden kann. Falls bei Block 42 festgestellt wird, dass ein vorderes Berührungsereignis außerhalb des Zielgreifbereichs erfolgt ist, ordnet der veranschaulichte Block 44 das vordere Berührungsereignis einer Benutzeranforderung zu und sendet das Berührungsereignis an ein oder mehrere Anwendungen auf dem Gerät. Falls jedoch das vordere Berührungsereignis eine Berührung im Zielgreifbereich angibt, kann bei Block 46 eine Bestimmung dahingehend erfolgen, ob das vordere Berührungsereignis ein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist. Falls nicht, kann das vordere Berührungsereignis an ein oder mehrere Anwendungen auf dem Gerät bei Block 44 gesendet werden. Anderenfalls kann eine visuelle Eingabeaufforderung einer Greifbestätigung über den vorderen Touchscreen bei Block 48 angezeigt werden.
  • Außerdem kann bei Block 50 eine Bestimmung dahingehend erfolgen, ob eine erhebliche Berührungsbewegung nachfolgend in Bezug auf den vorderen Touchscreen 26 erfolgt ist. Eine solche nachfolgende Berührungsbewegung kann als „erheblich” betrachtet werden, wenn sie einen bestimmten Abstandsschwellenwert und einen Geschwindigkeitsschwellenwert überschreitet. Zum Beispiel kann ein „Finger-Flick” über den Touchscreen als erhebliche Berührungsbewegung qualifiziert sein, wenn er einen ausreichend großen Abstand abdeckt und relativ rasch erfolgt. Wenn die nachfolgende Berührungsbewegung als erheblich betrachtet wird, können ein oder mehrere Berührungsereignisse, die der nachfolgenden Berührungsbewegung entsprechen, ein oder mehreren Anwendungen auf dem Gerät bei Block 44 bereitgestellt werden.
  • Unter jetziger Bezugnahme auf 6 wird ein mobiles Gerät 52 gezeigt, wobei Gerät 52 Computing-Funktionalität (z. B. Personal Digital Assistant/PDA, Laptop, Smart-Tablet), Kommunikationsfunktionalität (z. B. drahtloses Smartphone), Bildverarbeitungsfunktionalität, Medienabspielfunktionalität (z. B. Smart-TV/TV) oder jede Kombination davon (z. B. mobiles Internetgerät/MID) aufweisen kann. Im veranschaulichten Beispiel hat ein Prozessor 54 einen integrierten Speichercontroller (integrated memory controller, iMC) 56, der Zugriff zwischen Prozessor 54 und Systemspeicher 58 bereitstellt, wobei Systemspeicher 58 zum Beispiel DDR-(dual data rate)-SDRAM-(synchronous dynamic random access memory, z. B. DDR3 SDRAM JEDEC Standard JESD79, April 2008)-Module beinhalten kann. Die Module von Systemspeicher 58 können in ein SIMM (single inline memory module), DIMM (dual inline memory module), SODIMM (small outline DIMM) und so weiter aufgenommen werden.
  • Das veranschaulichte Gerät 52 beinhaltet außerdem ein EA-Modul 60, das die Kommunikation mit einem vorderen Touchscreen 62, einem hinteren Berührungssensor 64, einem Netzwerk-Controller 66, einem Massenspeicher 68 und zahlreichen anderen Controller, Bussen und/oder Modulen (nicht dargestellt) ermöglicht. EA-Modul 60 kann außerdem eine Logikarchitektur 70 umfassen, die so konfiguriert ist, dass sie den hinteren Berührungssensor 64 verwendet, um ein hinteres Berührungsereignis zu identifizieren, und den vorderen Touchscreen 62 verwendet, um ein vorderes Berührungsereignis zu identifizieren, wie bereits erörtert. Darüber hinaus kann Logikarchitektur 70 das vordere Berührungsereignis entweder mit einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsvorgang zuordnen, wobei Greifvorgänge des Benutzers von ein oder mehreren Anwendungen 72 ignoriert werden können, die auf Prozessor 54 ausgeführt werden.
  • Obwohl die veranschaulichte Logikarchitektur 70 in EA-Modul 60 implementiert ist, könnte Logikarchitektur 70 auch an einer anderen Stelle im mobilen Gerät 40 implementiert werden. Logikarchitektur 70 kann zum Beispiel auch in Prozessor 54 oder als eigenständiger Logikblock in einer System-on-Chip(SOC)-Konfiguration implementiert werden, die Prozessor 54, EA-Modul 60, Netzwerk-Controller 66 usw. auf einem einzigen Chip umfasst. Je nach den Umständen können auch andere Konfigurationen verwendet werden.
  • Hierin beschriebene Techniken können daher größere Bildschirmgrößen ermöglichen, indem sie die Dicke des Touchscreen-Rahmens verringern, ohne dass dies zu Problemen in Verbindung mit unbeabsichtigten Touchscreen-Interaktionen führt. Außerdem können hierin beschriebene Techniken Kompatibilitätsbedenken in Bezug auf Anwendungen beseitigen, die auf dem Gerät installiert sein und/oder aktualisiert werden können.
  • Ausführungsformen der vorliegenden Erfindung können bei allen Arten von Halbleiter-IC-(„Integrated Circuit”)-Chips angewendet werden. Beispiele dieser IC-Chips schließen ein, sind aber nicht beschränkt auf, Prozessoren, Controller, Chipsatz-Komponenten, programmierbare logische Anordnungen (PLAs), Speicherbausteine, Netzwerk-Chips, Systeme auf dem Chip (SoCs), SSD-Controller/NAND-Controller ASICs und dergleichen. Außerdem sind in einigen Zeichnungen Signalleiterleitungen mit Strichen dargestellt. Einige davon können unterschiedlich sein, um maßgeblichere Signalwege darzustellen, andere können eine Beschriftung enthalten, um eine Anzahl von dazugehörigen Signalwegen anzuzeigen, und/oder sie können Pfeile an einem oder an mehreren Enden enthalten, um die primäre Flussrichtung der Daten anzuzeigen. Dies soll jedoch in keiner Weise als eingrenzend ausgelegt werden. Solche zusätzlichen Details können in Verbindung mit einer oder mit mehreren beispielhaften Ausführungsformen verwendet werden, um ein besseres Verständnis einer Schaltung zu ermöglichen. Alle dargestellten Signalleitungen, ob mit oder ohne zusätzliche Informationen, können ein oder mehrere in mehrere Richtungen abgehende Signale umfassen und können mit jedem geeigneten Signalschema implementiert werden, z. B. können digitale oder analoge Leitungen mit Differenzialpaaren, Lichtwellenleitern und/oder referenzbezogenen Leitungen implementiert werden.
  • Größen/Modelle/Werte/Bereiche sind als Beispiele angegeben, obgleich Ausführungsformen der vorliegenden Erfindung nicht auf diese beschränkt sind. Mit der Ausreifung von Fertigungstechniken (z. B. Fotolithografie) im Laufe der Zeit ist zu erwarten, dass immer kleinere Geräte hergestellt werden können. Außerdem ist es möglich, dass wohlbekannte Strom-/Masseverbindungen mit den IC-Chips und anderen Komponenten in den Figuren gezeigt bzw. nicht gezeigt werden, was aus Gründen der Vereinfachung der Veranschaulichung und Erörterung geschieht, und um bestimmte Aspekte der erfindungsgemäßen Ausführungsformen nicht in den Hintergrund rücken zu lassen. Des Weiteren können Anordnungen im Blockdiagrammformat gezeigt werden, um Ausführungsformen der Erfindung nicht in den Hintergrund rücken zu lassen, und auch um aufzuzeigen, dass bestimmte Details in Bezug auf die Implementierung solcher Blockdiagrammanordnungen in hohem Maß von der Plattform abhängen, in die die Erfindung implementiert werden soll, d. h., dass der Fachmann mit solchen spezifischen Details vertraut sein sollte. Wo spezifische Details (z. B. Schaltungen) angeführt werden, um beispielhafte Ausführungsformen der Erfindung zu beschreiben, sollte der Fachmann erkennen, dass erfindungsgemäße Ausführungsformen mit oder ohne Variationen dieser spezifischen Details realisiert werden können. Die Beschreibung soll somit als veranschaulichend anstatt einschränkend angesehen werden.
  • Der Begriff „gekoppelt” kann hierin verwendet sein, um auf jede Art von Beziehung, direkt oder indirekt, zwischen den betreffenden Komponenten zu verweisen, und kann sich auf elektrische, mechanische, fluidtechnische, optische, elektromagnetische, elektromechanische oder andere Verbindungen beziehen. Außerdem können die Begriffe „erste/r/s”, „zweite/r/s”, etc. hierin nur verwendet sein, um die Erörterung zu vereinfachen, und tragen keine besondere temporäre oder chronologische Bedeutung, außer anderweitig angegeben. Außerdem beschränkt die Verwendung der Begriffe „erste/r/s”, „zweite/r/s”, etc. die erörterten Ausführungsformen nicht auf die Anzahl von aufgeführten Komponenten.
  • Für den Fachmann ist es anhand der vorstehenden Beschreibung selbstverständlich, dass die breit gefächerten Techniken der erfindungsgemäßen Ausführungsformen in einer Vielfalt von Formen implementiert werden können. Deshalb soll, während die erfindungsgemäßen Ausführungsformen in Verbindung mit besonderen Beispielen davon beschrieben worden sind, der wahre Umfang der erfindungsgemäßen Ausführungsformen nicht darauf beschränkt werden, da andere Modifikationen für den Fachmann auf diesem Gebiet bei Durchsicht der Zeichnungen, der Beschreibung und der folgenden Ansprüche offensichtlich sind.

Claims (27)

  1. Mobiles Gerät, umfassend: einen hinteren Berührungssensor, der an der Rückseite des Geräts bereitgestellt ist, einen vorderen Touchscreen, der an der Vorderseite des Geräts bereitgestellt ist, ein Gehäuse mit einem Rahmen, der über Ränder um den vorderen Touchscreen verfügt, ein hinteres Logikmodul für die Verwendung des hinteren Berührungssensors, um ein hinteres Berührungsereignis in Bezug auf die Rückseite des Geräts zu identifizieren, ein vorderes Logikmodul für die Verwendung des vorderen Touchscreens, um ein vorderes Berührungsereignis in Bezug auf die Vorderseite des Geräts zu identifizieren, ein Klassifizierungsmodul, das das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zuordnet.
  2. Gerät nach Anspruch 1, des Weiteren umfassend ein Eingabeaufforderungslogikmodul, um einen Zielgreifbereich über den vorderen Touchscreen des Geräts als Reaktion auf das hintere Berührungsereignis anzuzeigen, wenn das hintere Berührungsereignis einer einzelnen Hand entspricht, wobei das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet und von ein oder mehreren Anwendungen auf dem Gerät ignoriert werden soll, wenn das vordere Berührungsereignis eine Berührung innerhalb des Zielgreifbereichs identifiziert und das vordere Berührungsereignis ein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  3. Gerät nach Anspruch 2, wobei das vordere Berührungsereignis der Benutzeranforderung zugeordnet und ein oder mehreren Anwendungen auf dem Gerät bereitgestellt werden soll, wenn eines der vorderen Berührungsereignisse eine Berührung außerhalb des Zielgreifbereichs identifiziert oder das vordere Berührungsereignis kein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  4. Gerät nach Anspruch 2, wobei der Zielgreifbereich einen Fingerumriss des hintere Berührungsereignisses zeigen soll.
  5. Gerät nach Anspruch 1, des Weiteren umfassend ein Eingabeaufforderungslogikmodul, um eine Greifbestätigung auf dem vorderen Touchscreen des Geräts anzuzeigen, wenn das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet ist.
  6. Gerät nach Anspruch 5, wobei die Greifbestätigung einen Daumenumriss des vorderen Berührungsereignisses zeigen soll.
  7. Gerät nach Anspruch 1, wobei das vordere Logikmodul nachfolgende Berührungsbewegung in Bezug auf die Vorderseite des Geräts identifizieren und das Klassifizierungslogikmodul die nachfolgende Berührungsbewegung entweder dem Greifvorgang des Benutzers oder der Benutzeranforderung zuordnen soll.
  8. Gerät nach Anspruch 7, wobei die nachfolgende Berührungsbewegung der Benutzeranforderung zugeordnet werden soll, wenn die nachfolgende Berührungsbewegung einen Abstandsschwellenwert und einen Geschwindigkeitsschwellenwert übersteigt.
  9. Gerät nach einem der Ansprüche 1 bis 8, wobei der hintere Berührungssensor eine Auflösung hat, die geringer als die Auflösung des vorderen Berührungssensors ist.
  10. Nicht flüchtiges, computerlesbares Speichermedium, umfassend einen Satz an Befehlen, die, wenn sie von einem Prozessor ausgeführt werden, ein Gerät veranlassen: ein hinteres Berührungsereignis in Bezug auf die Rückseite des Geräts zu identifizieren, ein vorderes Berührungsereignis in Bezug auf eine Vorderseite des Geräts zu identifizieren und das vordere Berührungsereignis entweder einem Greifvorgang des Benutzers oder einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses zuzuordnen.
  11. Medium nach Anspruch 10, wobei die Befehle bei Ausführung das Gerät veranlassen, einen Zielgreifbereich über den vorderen Touchscreen des Geräts als Reaktion auf das hintere Berührungsereignis anzuzeigen, wenn das hintere Berührungsereignis einer einzelnen Hand entspricht, wobei das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet und von ein oder mehreren Anwendungen auf dem Gerät ignoriert werden soll, wenn das vordere Berührungsereignis eine Berührung innerhalb des Zielgreifbereichs identifiziert und das vordere Berührungsereignis ein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  12. Medium nach Anspruch 11, wobei das vordere Berührungsereignis der Benutzeranforderung zugeordnet und ein oder mehreren Anwendungen auf dem Gerät bereitgestellt werden soll, wenn eines der vorderen Berührungsereignisse eine Berührung außerhalb des Zielgreifbereichs identifiziert oder das vordere Berührungsereignis kein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  13. Medium nach Anspruch 11, wobei der Zielgreifbereich einen Fingerumriss des hintere Berührungsereignisses zeigen soll.
  14. Medium nach Anspruch 10, wobei die Befehle bei Ausführung das Gerät veranlassen, eine Greifbestätigung auf dem vorderen Touchscreen des Geräts anzuzeigen, wenn das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet ist.
  15. Medium nach Anspruch 14, wobei die Greifbestätigung einen Daumenumriss des vorderen Berührungsereignisses zeigen soll.
  16. Medium nach Anspruch 10, wobei die Anweisungen, falls ausgeführt, das Gerät veranlassen: eine nachfolgende Berührungsbewegung in Bezug auf die Vorderseite des Geräts zu identifizieren und die nachfolgende Berührungsbewegung entweder dem Greifvorgang des Benutzers oder der Benutzeranforderung zuzuordnen.
  17. Medium nach Anspruch 16, wobei die nachfolgende Berührungsbewegung nur dann der Benutzeranforderung zugeordnet und ein oder mehreren Anwendungen auf dem Gerät bereitgestellt werden soll, wenn die nachfolgende Berührungsbewegung einen Abstandsschwellenwert und einen Geschwindigkeitsschwellenwert übersteigt.
  18. Medium nach einem der Ansprüche 10 bis 17, wobei die Befehle bei Ausführung das Gerät veranlassen, einen Berührungssensor mit relativ geringer Auflösung zu verwenden, um ein hinteres Berührungsereignis zu identifizieren, und einen Touchscreen mit relativ hoher Auflösung, um das vordere Berührungsereignis zu identifizieren.
  19. Verfahren, umfassend: Identifizierung eines hinteren Berührungsereignisses in Bezug auf die Rückseite eines Geräts, Identifizierung eines vorderen Berührungsereignisses in Bezug auf eine Vorderseite des Geräts und Zuordnung des vorderen Berührungsereignisses entweder zu einem Greifvorgang des Benutzers oder zu einer Benutzeranforderung zumindest teilweise auf Basis des hinteren Berührungsereignisses.
  20. Verfahren nach Anspruch 19, des Weiteren umfassend die Anzeige eines Zielgreifbereichs über einen vorderen Touchscreen des Geräts als Reaktion auf das hintere Berührungsereignis, wenn das hintere Berührungsereignis einer einzelnen Hand entspricht, wobei das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet und von ein oder mehreren Anwendungen auf dem Gerät ignoriert wird, wenn das vordere Berührungsereignis eine Berührung innerhalb des Zielgreifbereichs identifiziert und das vordere Berührungsereignis ein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  21. Verfahren nach Anspruch 20, wobei das vordere Berührungsereignis der Benutzeranforderung zugeordnet und ein oder mehreren Anwendungen auf dem Gerät bereitgestellt wird, wenn eines der vorderen Berührungsereignisse eine Berührung außerhalb des Zielgreifbereichs ist oder das vordere Berührungsereignis kein anfängliches Berührungsereignis in Bezug auf das hintere Berührungsereignis ist.
  22. Verfahren nach Anspruch 20, wobei der Zielgreifbereich einen Fingerumriss des hintere Berührungsereignisses zeigt.
  23. Verfahren nach Anspruch 19, des Weiteren umfassend die Anzeige einer Greifbestätigung auf dem vorderen Touchscreen des Geräts, wenn das vordere Berührungsereignis dem Greifvorgang des Benutzers zugeordnet ist.
  24. Verfahren nach Anspruch 23, wobei die Greifbestätigung einem Daumenumriss des vorderen Berührungsereignisses entspricht.
  25. Verfahren nach Anspruch 19, des Weiteren umfassend: Identifizierung einer nachfolgenden Berührungsbewegung in Bezug auf die Vorderseite des Geräts und Zuordnung der nachfolgenden Berührungsbewegung entweder zum Greifvorgang des Benutzers oder zur Benutzeranforderung.
  26. Verfahren nach Anspruch 25, wobei die nachfolgende Berührungsbewegung nur dann der Benutzeranforderung zugeordnet und mit ein oder mehreren Anwendungen auf dem Gerät verbunden wird, wenn die nachfolgende Berührungsbewegung einen Abstandsschwellenwert und einen Geschwindigkeitsschwellenwert übersteigt.
  27. Verfahren nach einem der Ansprüche 19 bis 26, des Weiteren umfassend die Verwendung eines Berührungssensors mit relativ geringer Auflösung, um ein hinteres Berührungsereignis zu identifizieren, und die Verwendung eines Touchscreens mit relativ hoher Auflösung, um das vordere Berührungsereignis zu identifizieren.
DE112012006627.8T 2012-06-28 2012-06-28 Tablet-Gerät mit dünnem Bildschirmrahmen Withdrawn DE112012006627T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/077701 WO2014000203A1 (en) 2012-06-28 2012-06-28 Thin screen frame tablet device

Publications (1)

Publication Number Publication Date
DE112012006627T5 true DE112012006627T5 (de) 2015-05-07

Family

ID=49782061

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012006627.8T Withdrawn DE112012006627T5 (de) 2012-06-28 2012-06-28 Tablet-Gerät mit dünnem Bildschirmrahmen

Country Status (4)

Country Link
US (1) US10712857B2 (de)
CN (1) CN104321721B (de)
DE (1) DE112012006627T5 (de)
WO (1) WO2014000203A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015116131A1 (en) * 2014-01-31 2015-08-06 Hewlett-Packard Development Company, L.P. Touch sensor
CN105353838A (zh) * 2015-09-28 2016-02-24 淄博环能海臣环保技术服务有限公司 一种设有u面触控屏自设定握姿输入键盘笔记本电脑

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346244A (ja) * 2004-06-01 2005-12-15 Nec Corp 情報表示装置及びその操作方法
KR101345755B1 (ko) * 2007-09-11 2013-12-27 삼성전자주식회사 휴대용 단말기의 조작제어장치 및 그 방법
US20090256809A1 (en) 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
JP5066055B2 (ja) * 2008-10-28 2012-11-07 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
KR101021857B1 (ko) 2008-12-30 2011-03-17 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
US9524085B2 (en) * 2009-05-21 2016-12-20 Sony Interactive Entertainment Inc. Hand-held device with ancillary touch activated transformation of active element
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
US20110187647A1 (en) * 2010-02-04 2011-08-04 Charles Howard Woloszynski Method and apparatus for virtual keyboard interactions from secondary surfaces
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US20120086658A1 (en) * 2010-10-08 2012-04-12 Payam Moradian Tablet computer with option for one or two screens
JP5716502B2 (ja) * 2011-04-06 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8629849B2 (en) * 2011-09-23 2014-01-14 Ebay Inc. Spurious input detection system
US20130187894A1 (en) * 2012-01-25 2013-07-25 Research In Motion Limited Electronic device and method of facilitating input at the electronic device
US20130234929A1 (en) * 2012-03-07 2013-09-12 Evernote Corporation Adapting mobile user interface to unfavorable usage conditions

Also Published As

Publication number Publication date
US10712857B2 (en) 2020-07-14
CN104321721B (zh) 2018-01-19
CN104321721A (zh) 2015-01-28
WO2014000203A1 (en) 2014-01-03
US20150309642A1 (en) 2015-10-29

Similar Documents

Publication Publication Date Title
DE112010002760B4 (de) Benutzerschnittstelle
DE112011105171T5 (de) Blockieren von Benutzerinhalten basierend auf der Position
DE112018006617B4 (de) Berührungsfeldvorrichtung
DE112013004801T5 (de) Multimodaler Berührungsbildschirmemulator
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE102013227191A1 (de) Berührungssensorabtastung für anzeigeeingebettete Berührungssensoren
DE102013114078A1 (de) Anzeigevorrichtung mit integriertem berührungsempfindlichem Bildschirm
DE102014209839B4 (de) Tastfeld und Tasterfassungsverfahren für dieses
DE102013218379A1 (de) Erkennen und Verarbeiten einer unbeabsichtigten Berührung eines Touchscreens
DE102015112910A1 (de) Sichere Handschrifteingabe in Passwortfelder
DE102014212207A1 (de) Schnelle Abtastung für Gegenkapazitätsbildschirme
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
DE102013227090A1 (de) Kompensation der Verformung von Berührungsbedienfeldern
DE112012005875T5 (de) Automatische, fortwährende Qualitätsbeurteilung von Touchscreen-Geräten
DE102011056940A1 (de) Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
DE202016107235U1 (de) Kraftmessung mit kapazitiven Touch-Oberflächen
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
DE202016008159U1 (de) Multifunktionsschaltfläche für Computervorrichtungen
DE202013012771U1 (de) Berührungssensorsteuerungs-Sensorknotenpunkt
DE102013100163A1 (de) Techniken für Touchscreen-Input/Output-Vorrichtungen
DE102012222096A1 (de) Schaltersystem und Verfahren für ein Fahrzeug
DE112012006627T5 (de) Tablet-Gerät mit dünnem Bildschirmrahmen
DE102012222094A1 (de) Berührungserkennungssystem und verfahren fürberührungsbildschirm
DE102013007914A1 (de) Handgehaltene Vorrichtung und Entriegelungsverfahren von dieser
DE102018123925A1 (de) Finger Identification for new touch gestures using capacitance hover patterns

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee