DE102014006318A1 - Detektion eines physikalischen Gegenstands und Berührungsschirm-Interaktion - Google Patents

Detektion eines physikalischen Gegenstands und Berührungsschirm-Interaktion Download PDF

Info

Publication number
DE102014006318A1
DE102014006318A1 DE102014006318.6A DE102014006318A DE102014006318A1 DE 102014006318 A1 DE102014006318 A1 DE 102014006318A1 DE 102014006318 A DE102014006318 A DE 102014006318A DE 102014006318 A1 DE102014006318 A1 DE 102014006318A1
Authority
DE
Germany
Prior art keywords
touch screen
display surface
keyboard
screen display
straight bar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014006318.6A
Other languages
English (en)
Inventor
Tim Kukulski
Remon Tijssen
Michael Gough
Geoff Dowd
Greg Muscolino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of DE102014006318A1 publication Critical patent/DE102014006318A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

Eine Tastatur weist ein definiertes Muster von Kontaktpunkten auf, welche als die Tastatur erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird. Die Tastatur kommuniziert eine Identifikation zu einem Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Ein Textgegenstand wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt, wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Benutzertasteneingaben an die Tastatur werden dann für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand kommuniziert bzw. übertragen. Eine multifunktionelle gerade Leiste weist ein definiertes Muster von Kontaktpunkten auf, welche als die multifunktionelle gerade Leiste erkennbar sind, wenn sie auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Die multifunktionelle gerade Leiste kommuniziert mit einem Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Eine Benutzerformeingabe wird auf der multifunktionellen geraden Leiste erhalten bzw. empfangen, und ein Formgegenstand, welcher der Benutzerformeingabe entspricht, wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt.

Description

  • HINTERGRUND
  • Viele Tablet-Vorrichtungen, als auch größere an einer Wand montierte, Desktop- oder Tisch-Berührungsschirm-Anzeigeoberflächen sind für eine Benutzerinteraktion mit Berührungsgesten und Stifteingaben ausgebildet bzw. konstruiert. Selbst mit der Leichtigkeit einer Verwendung, welche ein Berührungsschirm bietet, kann es unverändert schwierig sein, einige Aufgaben auf einer Tablet- oder einer anderen Anzeigeoberfläche auszuführen, wie beispielsweise bei einem Erzeugen von Zeichnungen oder einem Durchführen von anderen Aufgaben, welche präzise Eingaben erfordern mögen. Darüber hinaus wird, obwohl eine Tastatur oder eine andere Eingabevorrichtung eine Benutzerinteraktion mit einer Computer- bzw. Rechenvorrichtung erleichtert, und Softwareanwendungen bzw. -applikationen, welche durch eine Rechenvorrichtung implementiert sind bzw. werden, ein Benutzer wahrscheinlich andere Berührungs- und Gesteneingaben auf einer Berührungsschirm-Anzeigeoberfläche zur Verfügung stellen müssen, um Aufgaben zu starten und durchzuführen, während die Vorrichtungen verwendet werden.
  • ZUSAMMENFASSUNG
  • Diese Zusammenfassung stellt Merkmale und Konzepte einer Detektion eines physikalischen Objekts bzw. Gegenstands und einer Berührungsschirm-Interaktion bereit, welche weiter unten in der detaillierten Beschreibung beschrieben und/oder in den Figuren gezeigt sind bzw. werden. Diese Zusammenfassung sollte nicht erachtet bzw. betrachtet werden, um wesentliche Merkmale des beanspruchten Gegenstands zu beschreiben, noch dazu verwendet werden, den Rahmen bzw. Geltungsbereich des beanspruchten Gegenstands zu bestimmen oder zu begrenzen.
  • Eine Detektion eines physikalischen Gegenstands und eine Berührungsschirm-Interaktion werden beschrieben. In Ausführungsformen weist eine Tastatur ein definiertes Muster von Kontaktpunkten auf, welche als die Tastatur erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche, wie beispielsweise einer unabhängigen Anzeigevorrichtung oder einer Berührungsschirm-Anzeigeoberfläche angeordnet wird, welche in einer Rechenvorrichtung integriert ist. Die Tastatur beinhaltet ein Interaktionsmodul (z. B. eine Softwarekomponente oder -anwendung), welches mit einem Companion Modul oder Begleitmodul kommuniziert bzw. in Verbindung steht, welches mit der Berührungsschirm-Anzeigeoberfläche betätigbar bzw. betreibbar ist. Das Interaktionsmodul kann eine Identifizierung bzw. Identifikation der Tastatur, ebenso wie Benutzereingaben zu dem Begleitmodul der Berührungsschirm-Anzeigeoberfläche kommunizieren bzw. übertragen. Ein Textobjekt bzw. -gegenstand kann auf der Berührungsschirm-Anzeigeoberfläche erzeugt und angezeigt bzw. dargestellt werden, wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Benutzertasteneingaben an die Tastatur werden dann für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand auf der Berührungsschirm-Anzeigeoberfläche kommuniziert. Alternativ kann der Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf die Benutzertasteneingaben auf der Tastatur initiiert bzw. eingeleitet werden.
  • Der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt wird, ist mit der Tastatur assoziiert und eine Anzeigeposition relativ zu der Tastatur wird bzw. ist beibehalten. Der Textgegenstand kann sich mit der Tastatur bewegen und/oder rotieren, um die Anzeigeposition relativ zu der Tastatur auf der Berührungsschirm-Anzeigeoberfläche beizubehalten. Ein Textgegenstand, welcher mit der Tastatur assoziiert ist, kann weg von der Tastatur bewegt werden, wenn beispielsweise ein Benutzer den Textgegenstand auswählt und zieht, um den Textgegenstand von der Tastatur zu lösen. Ein zusätzlicher Textgegenstand kann dann erzeugt und auf der Berührungsschirm-Anzeigeoberfläche angezeigt werden und mit der Tastatur assoziiert werden, wobei er für eine Benutzereingabe bereit ist.
  • Ein Textgegenstand, welcher mit der Tastatur assoziiert ist, muss bzw. kann nicht länger angezeigt werden, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche entfernt wird, und der Textgegenstand kann neuerlich in Antwort darauf angezeigt werden, dass die Tastatur wiederum zurück auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Textgegenstände können auch auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt werden, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet ist bzw. wird. Wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, kann ein ausgewählter Textgegenstand ausgewählt und mit der Tastatur basierend auf der Nähe der Tastatur zu dem dargestellten Textgegenstand assoziiert sein bzw. werden, um ein Editieren bzw. Bearbeiten des Texts zu ermöglichen.
  • Ein Benutzerinterfacepanel kann auch für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf initiiert bzw. veranlasst werden, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Das Benutzerinterfacepanel kann auswählbare Texteditieroptionen und/oder auswählbare Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl beinhalten, um einen vorher erzeugten Textgegenstand zu editieren. Das Benutzerinterfacepanel ist bzw. wird auch mit der Tastatur assoziiert und eine Anzeigeposition relativ zu der Tastatur ist bzw. wird beibehalten, so dass sich das Benutzerinterfacepanel mit der Tastatur bewegen und/oder drehen kann, um die Anzeigeposition relativ zu der Tastatur auf der Berührungsschirm-Anzeigeoberfläche beizubehalten.
  • In anderen Ausführungsformen einer Detektion eines physikalischen Objekts bzw. Gegenstands und einer Berührungsschirm-Interaktion weist eine multifunktionelle gerade Leiste ein vorbestimmtes Muster von Kontaktpunkten auf, welche als die multifunktionelle gerade Leiste erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche einer Rechenvorrichtung, wie beispielsweise einer Tablet-Vorrichtung oder einer unabhängigen Berührungsschirm-Anzeigeoberfläche angeordnet wird. Die multifunktionelle gerade Leiste beinhaltet ein Interaktionsmodul (z. B. eine Softwarekomponente oder -anwendung), welches mit einem Begleitmodul kommuniziert, welches durch die Rechenvorrichtung implementiert ist bzw. wird und mit der Berührungsschirm-Anzeigeoberfläche betätigbar ist. Beispielsweise kann das Interaktionsmodul der multifunktionellen geraden Leiste eine Identifizierung der multifunktionellen geraden Leiste, ebenso wie Benutzereingaben zu dem Begleitmodul der Rechenvorrichtung kommunizieren bzw. übertragen, welche die Berührungsschirm-Anzeigeoberfläche enthält. Ein Benutzerinterface von digitalen Zeichenwerkzeugen kann auch für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf initiiert bzw. veranlasst werden, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Die multifunktionelle gerade Leiste kann auswählbare Formen bzw. Gestalten und/oder andere Arten von Zeichenmusterführungen beinhalten. Eine Benutzerform- bzw. -gestalteingabe kann auf der multifunktionellen geraden Leiste empfangen bzw. erhalten werden, und ein Form- bzw. Gestaltobjekt, welches der Benutzerformeingabe entspricht, wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt. Das Formobjekt bzw. der Formgegenstand kann auf der Berührungsschirm-Anzeigeoberfläche als eine Zeichenformschablone und/oder als Stiftführungslinien für eine Stifteingabe angezeigt werden, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet. Der Formgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt wird, ist bzw. wird mit der multifunktionellen geraden Leiste assoziiert und eine Anzeigeposition relativ zu der multifunktionellen geraden Leiste wird beibehalten. Der Formgegenstand ist an die multifunktionelle gerade Leiste gebunden bzw. gefesselt, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten, und der Formgegenstand kann sich mit der multifunktionellen geraden Leiste auf der Berührungsschirm-Anzeigeoberfläche bewegen und/oder drehen. Wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird, kann bzw. muss der Formgegenstand dann nicht angezeigt bzw. dargestellt werden. Alternativ verbleibt der Formgegenstand als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche dargestellt, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird.
  • Gemäß einem Aspekt wird eine Tastatur geoffenbart, umfassend: ein definiertes Muster von Kontaktpunkten, welche als die Tastatur erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird; ein Be- bzw. Verarbeitungssystem, um ein Interaktionsmodul zu implementieren, welches konfiguriert ist, um: eine Identifizierung der Tastatur an ein Begleitmodul bzw. Companion Modul zu kommunizieren bzw. zu übertragen, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar bzw. betätigbar ist; einen Textgegenstand für eine Anzeige bzw. Darstellung auf die Berührungsschirm-Anzeigeoberfläche zu initiieren; Benutzertasteneingaben an die bzw. auf der Tastatur zu empfangen; und die Benutzertasteneingaben für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand bzw. -objekt zu kommunizieren bzw. zu übertragen.
  • Gemäß einer besonderen Ausführungsform umfasst die Tastatur darüber hinaus einen Speicher, welcher konfiguriert ist, um die Identifizierung der Tastatur zu enthalten.
  • Insbesondere ist bzw. wird der Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf die Benutzertasteneingaben auf der Tastatur initiiert bzw. veranlasst.
  • Darüber hinaus ist bzw. wird insbesondere der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt wird, mit der Tastatur assoziiert und konfiguriert, um eine Anzeigeposition relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist insbesondere der Textgegenstand für wenigstens eines eines Bewegens und Rotierens mit der Tastatur konfiguriert, um die Anzeigeposition relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist bzw. wird insbesondere ein angezeigter Textgegenstand basierend auf einer Nähe der Tastatur zu dem angezeigten Textgegenstand ausgewählt, um ein Editieren von Text zu ermöglichen, welcher angezeigt bzw. dargestellt ist bzw. wird, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Darüber hinaus ist das Interaktionsmodul insbesondere konfiguriert, um ein Benutzerinterfacepanel für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Darüber hinaus beinhaltet insbesondere das Benutzerinterfacepanel auswählbare Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl, um einen vorher erzeugten Textgegenstand zu editieren bzw. zu bearbeiten.
  • Darüber hinaus ist bzw. wird insbesondere das Benutzerinterfacepanel mit der Tastatur assoziiert und konfiguriert, um eine Anzeigeposition relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist insbesondere das Benutzerinterfacepanel für wenigstens eines eines Bewegens und Rotierens mit der Tastatur konfiguriert, um die Anzeigeposition relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist insbesondere das Interaktionsmodul konfiguriert, um einen zusätzlichen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiierten bzw. zu veranlassen, dass der Textgegenstand weg von der Tastatur bewegt wird.
  • Darüber hinaus ist bzw. wird insbesondere der Textgegenstand nicht angezeigt, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche entfernt wird; und der Textgegenstand wird neuerlich in Antwort darauf angezeigt, dass die Tastatur neuerlich auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Gemäß einem weiteren Aspekt wird ein Verfahren geoffenbart, umfassend: ein Erkennen einer Tastatur basierend auf einem definierten Muster von Kontaktpunkten, welche eine Berührungsschirm-Anzeigeoberfläche kontaktieren; ein Einleiten bzw. Initiieren eines Textgegenstands bzw. -objekts für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche; ein Empfangen von Benutzertasteneingaben an die Tastatur; und ein Kommunizieren der Benutzertasteneingaben für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand.
  • Gemäß einer besonderen Ausführungsform umfasst das Verfahren darüber hinaus ein Kommunizieren einer Identifizierung der Tastatur zu einem Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist.
  • Insbesondere erfolgt das Initiieren des Textgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf das Empfangen der Benutzertasteneingaben auf der Tastatur.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Assoziieren des Textgegenstands, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist bzw. wird, mit der Tastatur; und ein Beibehalten einer Anzeigeposition des Textgegenstands relativ zu der Tastatur.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Auswählen eines angezeigten Textgegenstands basierend auf einer Nähe der Tastatur zu dem angezeigten Textgegenstand, um ein Editieren von Text zu ermöglichen, welcher angezeigt wird, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Initiieren eines Benutzerinterfacepanels für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Anzeigen von auswählbaren Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl, um einen vorher erzeugten Textgegenstand zu editieren bzw. zu bearbeiten, wobei das Anzeigen der auswählbaren Links in dem Benutzerinterfacepanel erfolgt.
  • Darüber hinaus umfasst das Verfahren insbesondere ein Assoziieren des Benutzerinterfacepanels mit der Tastatur; und ein Beibehalten einer Anzeigeposition des Benutzerinterfacepanels relativ zu der Tastatur.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Erkennen, dass der Textgegenstand und die Tastatur voneinander gelöst bzw. entfernt wurden; und ein Initiieren bzw. Veranlassen eines zusätzlichen Textgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass der Textgegenstand von der Tastatur entfernt bzw. gelöst wurde.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Erkennen, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche entfernt wird, wobei dies effektiv bzw. wirksam ist, um nicht den Textgegenstand anzuzeigen; und ein neuerliches Anzeigen des Textgegenstands in Antwort auf ein Erkennen, dass die Tastatur neuerlich auf der Berührungsschirm-Anzeigeoberfläche angeordnet wurde.
  • Gemäß einem anderen Aspekt wird eine multifunktionelle gerade Leiste geoffenbart, umfassend: ein definiertes Muster von Kontaktpunkten, welche als die multifunktionelle gerade Leiste erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche einer Computer- bzw. Rechenvorrichtung angeordnet ist bzw. wird; ein Be- bzw. Verarbeitungssystem, um ein Interaktionsmodul zu implementieren, welches konfiguriert ist, um: mit einem Begleitmodul bzw. Companion Modul durch die Rechenvorrichtung zu kommunizieren und mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist; eine Benutzerformeingabe auf der multifunktionellen geraden Leiste zu empfangen; und einen Formgegenstand, welcher der Benutzerformeingabe entspricht, für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu initiieren.
  • Gemäß einer besonderen Ausführungsform umfasst die multifunktionelle gerade Leiste darüber hinaus einen Speicher, welcher konfiguriert ist, um eine Identifikation bzw. Identifizierung der multifunktionellen geraden Leiste beizubehalten.
  • Insbesondere ist das Interaktionsmodul konfiguriert, um die Identifikation der multifunktionellen geraden Leiste zu der Rechenvorrichtung zu kommunizieren bzw. zu übertragen.
  • Darüber hinaus ist insbesondere der Formgegenstand eine Zeichenformschablone, welche konfiguriert ist, um auf der Berührungsschirm-Anzeigeoberfläche angezeigt zu werden, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet.
  • Darüber hinaus ist insbesondere der Formgegenstand eine oder mehrere Stiftführungslinie(n), welche für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben konfiguriert ist bzw. sind.
  • Darüber hinaus ist bzw. wird insbesondere der Form- bzw. Gestaltgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist bzw. wird, mit der multifunktionellen geraden Leiste assoziiert und konfiguriert, um eine Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • Darüber hinaus ist insbesondere der Formgegenstand an die multifunktionelle gerade Leiste gebunden bzw. gefesselt, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • Darüber hinaus ist insbesondere der Formgegenstand für wenigstens eines eines Bewegens und Rotierens mit der multifunktionellen geraden Leiste konfiguriert, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • Darüber hinaus ist insbesondere das Interaktionsmodul konfiguriert, um ein Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren bzw. zu veranlassen, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet ist bzw. wird.
  • Darüber hinaus ist bzw. wird insbesondere der Formgegenstand nicht angezeigt bzw. dargestellt, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird.
  • Darüber hinaus verbleibt insbesondere der Formgegenstand als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird.
  • Gemäß einem anderen Aspekt wird ein Verfahren zur Verfügung gestellt, umfassend: ein Erkennen einer multifunktionellen geraden Leiste basierend auf einem definierten Muster von Kontaktpunkten, welche eine Berührungsschirm-Anzeigeoberfläche einer Rechen- bzw. Computervorrichtung kontaktieren; ein Kommunizieren mit einem Begleitmodul, welches durch die Rechenvorrichtung implementiert wird und mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist; ein Empfangen einer Benutzerformeingabe auf der multifunktionellen geraden Leiste; und ein Initiieren eines Form- bzw. Gestaltgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche.
  • Gemäß einer besonderen Ausführungsform umfasst das Verfahren darüber hinaus ein Kommunizieren einer Identifikation der multifunktionellen geraden Leiste zu dem Begleitmodul der Rechen- bzw. Computervorrichtung.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Anzeigen des Formgegenstands als ein Zeichenformmuster bzw. eine Zeichenformschablone auf der Berührungsschirm-Anzeigeoberfläche, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Anzeigen des Formgegenstands als eine oder mehrere Stiftführungslinie(n) auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Assoziieren des Formgegenstands, welcher auf der Berührungsschirm-Anzeigeoberfläche dargestellt ist bzw. wird, mit der multifunktionellen geraden Leiste; und ein Beibehalten einer Anzeigeposition des Formgegenstands relativ zu der multifunktionellen geraden Leiste.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Fesseln bzw. Binden des Formgegenstands an die multifunktionelle gerade Leiste, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Initiieren bzw. Veranlassen eines Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Erkennen, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird, wobei dies wirksam wird, um den Formgegenstand nicht anzuzeigen bzw. darzustellen.
  • Insbesondere umfasst das Verfahren darüber hinaus ein Erkennen, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird; und ein Anzeigen bzw. Darstellen des Formgegenstands als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche bei dem Erkennen, dass die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird.
  • Gemäß einem anderen Aspekt wird ein System zur Verfügung gestellt, umfassend: eine Eingabevorrichtung, welche ein definiertes Muster von Kontaktpunkten aufweist, welche als die Eingabevorrichtung erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird; eine Computer- bzw. Rechenvorrichtung, welche die Berührungsschirm-Anzeigeoberfläche beinhaltet, welche für kapazitive Berührungseingaben konfiguriert ist, wobei die Kontaktpunkte der Eingabevorrichtung durch ein Berührungsdetektionssystem detektiert werden; ein Be- bzw. Verarbeitungssystem der Computervorrichtung, um ein Begleitmodul bzw. Companion Modul zu implementieren, welches mit einem Interaktionsmodul der Eingabevorrichtung wechselwirkt, wobei das Begleitmodul der Rechenvorrichtung konfiguriert ist, um: die Eingabevorrichtung basierend auf dem definierten Muster der Kontaktpunkte zu erkennen; eine Objekt- bzw. Gegenstandsanzeige in Antwort auf die erkannte Eingabevorrichtung zu initiieren bzw. einzuleiten; und eine Eingabe von dem Interaktionsmodul der Eingabevorrichtung zu empfangen.
  • Gemäß einer besonderen Ausführungsform ist das Begleitmodul konfiguriert, um: die Eingabevorrichtung als eine Tastatur zu erkennen; Benutzertasteneingaben an die Tastatur als die Eingabe von dem Interaktionsmodul zu empfangen; und einen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren, um die Benutzertasteneingaben als alphanumerische Zeichen in dem Textgegenstand darzustellen.
  • Gemäß einer besonderen Ausführungsform ist das Begleitmodul konfiguriert, um: die Eingabevorrichtung als eine Tastatur zu erkennen; eine Vorrichtungsidentifikation der Tastatur als die Eingabe von dem Interaktionsmodul zu empfangen; und einen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren.
  • Insbesondere umfasst das System wenigstens eine zusätzliche Tastatur, welche auf der Berührungsschirm-Anzeigeoberfläche angeordnet ist bzw. wird; und das Begleitmodul ist konfiguriert, um die Tastatur und die zusätzliche Tastatur basierend darauf zu unterscheiden, dass jede der Tastaturen einen einzigartig positionierten Kontaktpunkt zusätzlich zu dem definierten Muster der Kontaktpunkte aufweist.
  • Darüber hinaus ist bzw. wird insbesondere der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist, mit der Tastatur assoziiert und konfiguriert, um eine Anzeigeposition relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist insbesondere das Begleitmodul konfiguriert, um: ein Benutzerinterfacepanel für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche erkannt wurde; und das Benutzerinterfacepanel mit der Tastatur zu assoziieren, um eine Anzeigeposition des Benutzerinterfacepanels relativ zu der Tastatur beizubehalten.
  • Darüber hinaus ist insbesondere das Begleitmodul konfiguriert, um: die Eingabevorrichtung als eine multifunktionelle gerade Leiste zu erkennen; eine Benutzerformeingabe auf der multifunktionellen geraden Leiste als die Eingabe von dem Interaktionsmodul zu erhalten; und einen Form- bzw. Gestaltgegenstand, welcher der Benutzerformeingabe entspricht, für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren.
  • Darüber hinaus ist insbesondere der Formgegenstand eine oder mehrere Stiftführungslinie(n), welche für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben konfiguriert ist bzw. sind.
  • Darüber hinaus ist insbesondere das Begleitmodul konfiguriert, um den Formgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist bzw. wird, mit der multifunktionellen geraden Leiste zu assoziieren, um eine Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • Darüber hinaus ist insbesondere das Begleitmodul konfiguriert, um ein Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche erkannt wird.
  • Gemäß einem anderen Aspekt der Erfindung wird ein Computerprogrammprodukt zur Verfügung gestellt, welches insbesondere auf einem computerlesbaren Speichermedium, als ein Signal und/oder als ein Datenstrom verkörpert ist, umfassend computerlesbare Instruktionen bzw. Anweisungen, welche, wenn auf ein geeignetes System geladen und auf diesem ausgeführt, die Schritte eines Verfahrens gemäß dem (den) obigen Aspekt(en) der Erfindung oder einer besonderen Ausführungsform davon ausführen können.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Ausführungsformen einer Detektion eines physikalischen Objekts bzw. Gegenstands und einer Berührungsschirm-Interaktion werden unter Bezugnahme auf die folgenden Figuren beschrieben. Es sollte verstanden werden, dass, obwohl Ausführungsformen getrennt beschrieben werden, einzelne Merkmale davon zu zusätzlichen Ausführungsformen kombiniert werden können. Dieselben Bezugszeichen können durchgehend für eine Bezugnahme auf gleiche bzw. ähnliche Merkmale und Komponenten verwendet werden, welche in den Figuren gezeigt sind:
  • 1 illustriert ein Beispiel einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion mit einer Tastatur auf einer Berührungsschirm-Anzeigeoberfläche in Übereinstimmung mit einer oder mehreren Ausführungsform(en).
  • 2 illustriert die Tastatur auf der Berührungsschirm-Anzeigeoberfläche in Übereinstimmung mit einer oder mehreren Ausführungsform(en).
  • 3 illustriert ein Beispiel einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion mit einer multifunktionellen geraden Leiste auf einer Berührungsschirm-Anzeigeoberfläche in Übereinstimmung mit einer oder mehreren Ausführungsform(en).
  • 4 illustriert ein beispielhaftes System, in welchem Ausführungsformen einer Detektion eines physikalischen Gegenstands bzw. Objekts und einer Berührungsschirm-Interaktion implementiert sein können.
  • 5, 6 und 7 illustrieren (ein) beispielhafte(s) Verfahren einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion unter Bezugnahme auf eine Tastatur auf einer Berührungsschirm-Anzeigeoberfläche in Übereinstimmung mit einer oder mehreren Ausführungsform(en).
  • 8 und 9 illustrieren (ein) beispielhafte(s) Verfahren einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion unter Bezugnahme auf eine multifunktionelle gerade Leiste auf einer Berührungsschirm-Anzeigeoberfläche in Übereinstimmung mit einer oder mehreren Ausführungsform(en).
  • 10 illustriert ein beispielhaftes System mit einer beispielhaften Vorrichtung, welche Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion implementieren kann.
  • DETAILLIERTE BESCHREIBUNG
  • Ausführungsformen einer Detektion eines physikalischen Objekts bzw. Gegenstands und einer Berührungsschirm-Interaktion werden beschrieben. Eine Eingabevorrichtung, wie beispielsweise eine Tastatur, eine multifunktionelle gerade Leiste oder ein Video Jog Shuttle bzw. Video-Bedienelement kann auf einer Berührungsschirm-Anzeigeoberfläche angeordnet werden, welche Benutzer interfaceelemente und/oder angezeigte bzw. dargestellte Objekte bzw. Gegenstände für eine Benutzerinteraktion bzw. -wechselwirkung, wie beispielsweise Textgegenstände bzw. -objekte und Form- bzw. Gestaltobjekte initiiert, welche auf der Berührungsschirm-Anzeigeoberfläche dargestellt bzw. angezeigt werden. Beispielsweise kann eine Tastatur auf einer Berührungsschirm-Anzeigeoberfläche angeordnet werden und ein Textgegenstand wird automatisch, bereit für eine Benutzereingabe, generiert bzw. erzeugt und angezeigt bzw. dargestellt. In ähnlicher Weise kann eine multifunktionelle gerade Leiste auf einer Berührungsschirm-Anzeigeoberfläche, wie beispielsweise integriert in eine Tablet-Computervorrichtung angeordnet werden, und ein Formgegenstand bzw. -objekt, welcher(s) einer Benutzerschablonen- bzw. -mustereingabe entspricht, wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt.
  • Während Merkmale und Konzepte einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion in einer beliebigen Anzahl von unterschiedlichen Vorrichtungen, Systemen, Netzwerken, Umgebungen und/oder Konfigurationen implementiert sein bzw. werden können, werden Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion in dem Kontext der folgenden beispielhaften Vorrichtungen, Systeme und Verfahren beschrieben.
  • 1 illustriert ein Beispiel 100 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion mit einer Tastatur 102 auf einer Berührungsschirm-Anzeigeoberfläche 104, wie beispielsweise einer kapazitiven Berührungsschirmanzeige, welche in eine Computer- bzw. Rechenvorrichtung integriert ist, oder jeglichen Art einer Anzeigeoberfläche eines digitalen Zeichentischs, eines freistehenden Desktops oder eines Tisch-Berührungsschirms. In diesem Beispiel ist die Tastatur 102 eine drahtlose Vorrichtung, welche mit der Berührungsschirm-Anzeigeoberfläche beispielsweise über BluetoothTM, Bluetooth Low Energy (BTLE), WiFiTM oder jegliche andere Art einer drahtlosen Kommunikation kommuniziert bzw. in Verbindung steht. Die Tastatur 102 weist ein definiertes Muster von Kontaktpunkten 106 (z. B. kapazitiven Berührungspunkten) auf dem Boden der Tastatur auf, wie dies bei 108 gezeigt ist, und das Muster der Kontaktpunkte ist als eine Tastatur erkennbar. Das Muster der Kontaktpunkte 106 wird auf der Berührungsschirm-Anzeigeoberfläche 104 erkannt, wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, wie dies bei 110 gezeigt ist. Alternativ oder zusätzlich kann jegliche Konfiguration, ein physikalisches Merkmal oder ein elektronisches Merkmal einer Eingabevorrichtung erkannt werden.
  • Die Tastatur 102 kann die Berührungsschirm-Anzeigeoberfläche 104 und Vorrichtungssoftware der Berührungsschirm-Anzeigeoberfläche (z. B. wenn sie als eine Rechen- bzw. Computervorrichtung implementiert ist) in jeglicher Weise erweitern bzw. anreichern, dass die Software Interaktionen mit der Tastatur verwenden bzw. nutzen kann. Wie dies unter Bezugnahme auf das beispielhafte System beschrieben ist, welches in 4 gezeigt ist, kann die Tastatur 102 ein Interaktionsmodul (z. B. eine Softwarekomponente oder -anwendung bzw. -applikation) beinhalten, welches mit einem Companion Modul bzw. Begleitmodul kommuniziert bzw. in Verbindung steht, welches implementiert ist und mit der Berührungsschirm-Anzeigeoberfläche betätigbar bzw. betreibbar ist. Beispielsweise kann das Interaktionsmodul der Tastatur eine Identifikation bzw. ein Identifikationselement der Tastatur, als auch Benutzer-Tastatureingaben zu dem Begleitmodul der Berührungsschirm-Anzeigeoberfläche oder zu der Rechenvorrichtung kommunizieren bzw. übermitteln, welche die Berührungsschirm-Anzeigeoberfläche enthält.
  • Ein Textgegenstand bzw. -objekt 112 kann auf der Berührungsschirm-Anzeigeoberfläche 104 angezeigt bzw. dargestellt werden, wenn die Tastatur 102 auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, wie dies bei 110 gezeigt ist. In Ausführungsformen initiiert bzw. veranlasst die Tastatur selbst den Textgegenstand, ohne dass ein Benutzer ein Menü navigieren und eine Option auswählen müsste, um den Textgegenstand zu erzeugen. Der Textgegenstand wird automatisch generiert bzw. erzeugt und auf der Berührungsschirm-Anzeigeoberfläche, bereit für eine Benutzereingabe, angezeigt, wobei dies eine oder mehrere Benutzereingabe(n) eliminiert. Benutzertasteneingaben auf der bzw. an die Tastatur werden dann für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand auf der Berührungsschirm-Anzeigeoberfläche kommuniziert bzw. übertragen. Alternativ kann der Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf die Benutzertasteneingaben an die Tastatur initiiert bzw. veranlasst werden. Ein Benutzerinterfacepanel 114 kann auch für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche 104 in Antwort darauf initiiert werden, dass die Tastatur 102 auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Das Benutzerinterfacepanel kann auswählbare Texteditieroptionen und/oder auswählbare Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl beinhalten, um einen vorher erzeugten Textgegenstand zu editieren bzw. zu bearbeiten.
  • Der Textgegenstand 112, welcher auf der Berührungsschirm-Anzeigeoberfläche 104 angezeigt wird, ist mit der Tastatur 102 assoziiert, und eine Anzeige- bzw. Darstellungsposition 116 relativ zu der Tastatur wird beibehalten. Der Textgegenstand kann sich mit der Tastatur bewegen und/oder drehen 118, um die Anzeigeposition relativ zu der Tastatur auf der Berührungsschirm-Anzeigeoberfläche beizubehalten. Das Benutzerinterfacepanel 114 ist auch mit der Tastatur assoziiert, und eine Anzeigeposition 120 relativ zu der Position wird beibehalten, so dass sich das Benutzerinterfacepanel auch mit der Tastatur bewegen und/oder drehen 118 kann, um die Anzeigeposition relativ zu der Tastatur auf der Berührungsschirm-Anzeigeoberfläche beizubehalten.
  • In Implementierungen kann ein Textgegenstand, welcher mit der Tastatur 102 assoziiert ist, von der Tastatur weg bewegt werden, wenn beispielsweise ein Benutzer den Textgegenstand 112 auswählt und zieht, um den Textgegenstand von der Tastatur zu lösen bzw. zu entfernen. Ein zusätzlicher Textgegenstand kann dann erzeugt und auf der Berührungsschirm-Anzeigeoberfläche angezeigt werden und mit der Tastatur bereit für eine Benutzereingabe assoziiert werden. Beispielsweise kann ein Benutzer eine Anmerkung oder ein Email tippen bzw. eingeben, welche(s) auch eine Berührungsauswahloption aufweist, die Anmerkung oder das Email weg von der Tastatur nach einem Beenden des Tippens ziehen und ein anderer Textgegenstand (z. B. eine Anmerkung oder ein Email in diesem Beispiel) wird automatisch erzeugt und ist bereit für eine Benutzertastatureingabe.
  • Ein Textgegenstand, welcher mit der Tastatur assoziiert ist, muss bzw. kann nicht länger angezeigt werden, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche entfernt wird, und der Textgegenstand kann dann wiederum in Antwort darauf angezeigt bzw. dargestellt werden, dass die Tastatur neuerlich auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Wie dies unter Bezugnahme auf 2 gezeigt und beschrieben ist, können Textgegenstände auch auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt werden, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, kann ein angezeigter Textgegenstand ausgewählt und mit der Tastatur basierend auf einer Nähe bzw. Nachbarschaft der Tastatur zu dem angezeigten Textgegenstand assoziiert werden, um ein Editieren bzw. Bearbeiten des Texts zu ermöglichen.
  • In Anwendungen bzw. Implementierungen kann eine größere Berührungsschirm-Anzeigeoberfläche mit mehr als einer Tastatur verwendet werden, wenn beispielsweise Benutzer gemeinsam an einem Layout eines Magazins oder einem anderen Projekt arbeiten. Jeder Benutzer kann eine Tastatur auf der Berührungsschirm-Anzeigeoberfläche 104 anordnen, und das Begleitmodul (z. B. eine Softwareanwendung oder ein Modul), welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar bzw. betätigbar ist, kann zwischen den Tastaturen unterscheiden. Die Tastaturen können basierend darauf unterschieden werden, dass jede der Tastaturen einen einzigartig positionierten Kontaktpunkt 122 zusätzlich zu dem definierten Muster der Kontaktpunkte 106 aufweist, wie dies bei 108 gezeigt ist. Jeder Benutzer kann zufällig bzw. willkürlich einen zusätzlichen Kontaktpunkt 122 auf dem Boden einer Tastatur anordnen, um einzigartig die Tastatur zu identifizieren.
  • In anderen Implementierungen kann ein physikalischer Gegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche 104 detektiert wird, eine multifunktionelle gerade Leiste beinhalten, wie dies unter Bezugnahme auf 3 gezeigt und beschrieben ist. Ein physikalischer Gegenstand kann auch einen Video Jog Shuttle bzw. ein Video-Bedienelement beinhalten, welcher(s) über einem Gitter von Videos angeordnet wird, welche auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt werden. Das Video-Bedienelement kann verwendet werden, um direkt das Video in der Zeit zu navigieren, neuerlich zu betrachten, aufzuteilen und anderweitig zu editieren bzw. zu bearbeiten. Ein Benutzerinterface auf dem Schirm kann auch um oder im Zusammenhang mit einem Video-Bedienelement angezeigt werden, um weiter eine Benutzerinteraktion mit einem Video zu erleichtern, wie beispielsweise unterschiedliche Sektionen bzw. Abschnitte des Videos auszuwählen, zu editieren und zu trimmen, um diese in einer neuen Zeitreihenfolge für ein weiteres Bearbeiten zu kombinieren.
  • 2 illustriert darüber hinaus ein Beispiel 200 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion mit der Tastatur 102 auf der Berührungsschirm-Anzeigeoberfläche 104, wie dies unter Bezugnahme auf 1 beschrieben ist. In diesem Beispiel wird ein Dokument 202 auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt und die Tastatur 102 wird auf der Berührungsschirm-Anzeigeoberfläche angeordnet, wie dies bei 204 gezeigt ist. Textgegenstände können auf der Berührungsschirm-Anzeigeoberfläche angezeigt werden, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Existierende Textgegenstände, beispielsweise in einem Seitenlayout, können basierend auf einer Nähe oder Nachbarschaft der Tastatur ausgewählt werden, indem entweder die Tastatur positioniert wird oder das Layout (z. B. Dokument 202) unter der physikalischen bzw. tatsächlichen Tastatur bewegt wird, wie dies mit einer Dokumentenauswahl- und -bewegungsgeste bei 206 gezeigt ist. Alternativ kann ein Benutzer unmittelbar den ausgewählten Text ziehen, wie beispielsweise wenn der Textgegenstand 208 nicht bereits Teil eines größeren, organisierten Layouts ist.
  • Wenn die Tastatur 102 auf der Berührungsschirm-Anzeigeoberfläche 104 angeordnet wird, kann ein angezeigter Textgegenstand 208 ausgewählt und mit der Tastatur basierend auf einer Nähe bzw. Nachbarschaft der Tastatur zu dem angezeigten Textgegenstand assoziiert werden, um ein Editieren des Texts zu ermöglichen. Die physikalische Anordnung der Tastatur kann anstelle eines Erzeugens eines neuen Textgegenstands einen gegenwärtigen Textgegenstand auswählen, welcher für eine Benutzertastatureingabe bereit ist, um den gegenwärtigen Text zu editieren. Der Text, welcher am nächsten zu der Tastatur liegt, kann automatisch ausgewählt werden.
  • 3 illustriert ein Beispiel 300 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion mit einer multifunktionellen geraden Leiste 302 auf einer Berührungsschirm-Anzeigeoberfläche 304, wie sie beispielsweise in eine Tablet-Vorrichtung 306 integriert ist. In diesem Beispiel ist die multifunktionelle gerade Leiste 302 eine drahtlose Vorrichtung, welche mit der Berührungsschirm-Anzeigeoberfläche beispielsweise über BluetoothTM, Bluetooth Low Energy (BTLE), WiFiTM oder jegliche andere Art einer drahtlosen Kommunikation kommuniziert. Die Berührungsschirm-Anzeigeoberfläche 304 ist ein Beispiel einer kapazitiven Berührungsschirmanzeige, welche in eine tragbare Computervorrichtung, wie beispielsweise die Tablet-Vorrichtung 306 integriert ist. Die multifunktionelle gerade Leiste 302 weist ein definiertes Muster von Kontaktpunkten 308 (z. B. kapazitiven Berührungspunkten) auf, wie dies in der Ansicht 310 gezeigt ist, und das Muster der Kontaktpunkte ist als eine multifunktionelle gerade Leiste erkennbar. Das Muster der Kontaktpunkte 308 wird auf der Berührungsschirm-Anzeigeoberfläche 304 erkannt, wenn die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, wie dies bei 312 gezeigt ist. Alternativ oder zusätzlich kann jegliche Konfiguration, ein physikalisches Merkmal oder ein elektronisches Merkmal einer Eingabevorrichtung erkannt werden.
  • In Implementierungen ist die multifunktionelle gerade Leiste 302 eine elektronische Vorrichtung eines Konsumenten, welche mit einer Tablet-Vorrichtung und der Berührungsschirm-Anzeigeoberfläche interagiert und/oder damit gekoppelt ist, um verschiedene Formen bzw. Gestalten als Muster bzw. Schablonen darzustellen bzw. darzulegen, um ein Zeichnen eines Benutzers mit einer Stift- oder Fingereingabe zu unterstützen. Ein Benutzerinterface 314 von digitalen Zeichenwerkzeugen kann auch für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche 304 in Antwort darauf initiiert bzw. veranlasst werden, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche der Tablet-Vorrichtung angeordnet wird. Die multifunktionelle gerade Leiste 302 beinhaltet auswählbare Formen bzw. Gestalten 316 und/oder andere Arten von Zeichenmusterführungen. Die multifunktionelle gerade Leiste kann auch implementiert sein bzw. werden, um auswählbare und/oder kundenspezifisch anpassbare Muster bzw. Schablonen zu beinhalten, um eine Applikation bzw. Anwendung betreffend ein Zeichnen, Entwerfen, eines Kurvenlineals, eine architektonische, elektrische, Zimmerei-, Bildbriefmarkenanwendung und/oder jegliche andere Art einer Muster- bzw. Schablonenanwendung auf einem Schirm zu beinhalten, jedoch nicht darauf beschränkt zu sein, welche durch die multifunktionelle gerade Leiste erweitert oder erleichtert wird.
  • Die multifunktionelle gerade Leiste 302 kann die Berührungsschirm-Anzeigeoberfläche 304 und Vorrichtungssoftware der Tablet-Vorrichtung 306 in jeglicher Weise erweitern bzw. vergrößern, in welcher die Software Interaktionen mit der multifunktionellen geraden Leiste nutzen kann. Wie dies unter Bezugnahme auf das beispielhafte System beschrieben ist bzw. wird, welches in 4 gezeigt ist, kann die multifunktionelle gerade Leiste 302 ein Interaktionsmodul (z. B. eine Softwarekomponente oder -anwendung) beinhalten, welches mit einem Begleitmodul kommuniziert, welches durch die Tablet-Vorrichtung implementiert ist und mit der Berührungsschirm-Anzeigeoberfläche betreibbar bzw. betätigbar ist. Beispielsweise kann das Interaktionsmodul der multifunktionellen geraden Leiste eine Identifikation der multifunktionellen geraden Leiste ebenso wie Benutzereingaben an das Begleitmodul der Rechenvorrichtung kommunizieren bzw. übertragen, welche die Berührungsschirm-Anzeigeoberfläche enthält.
  • Ein Benutzer kann eine Form bzw. Gestalt 316 (oder eine andere Art einer Zeichenmusterführung) als eine Benutzereingabe auf der multifunktionellen geraden Leiste 302 auswählen, und ein Formgegenstand, welcher der Benutzerformeingabe entspricht, wird auf der Berührungsschirm-Anzeigeoberfläche 304 der Tablet-Vorrichtung angezeigt bzw. dargestellt. Beispielsweise kann ein Benutzer die Linienform 316 auf der multifunktionellen geraden Leiste auswählen, und der Formgegenstand 318 wird auf der Berührungsschirm-Anzeigeoberfläche 304 als eine Zeichenformschablone und/oder Stiftführungslinien für Stifteingaben angezeigt bzw. dargestellt, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet. Der Benutzer kann dann den Stift 320, einen Finger oder ein anderes Zeichenwerkzeug verwenden, um eine Linie 322 über den Formgegenstand 318 (z. B. die Stiftführungslinie) zu zeichnen. In diesem Beispiel ist bzw. wird der Formgegenstand 318 als eine dünnere graue Linie gegenüber der dickeren schwarzen Linie 322 illustriert, welche durch einen Benutzer mit dem Stift gezogen bzw. gezeichnet wird.
  • Der Formgegenstand 318, welcher auf der Berührungsschirm-Anzeigeoberfläche 304 angezeigt ist bzw. wird, ist mit der multifunktionellen geraden Leiste 302 assoziiert und eine Anzeigeposition 324 relativ zu der multifunktionellen geraden Leiste wird beibehalten. Der Formgegenstand ist an die multifunktionelle gerade Leiste gebunden bzw. gefesselt, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten, und der Formgegenstand kann sich mit der multifunktionellen geraden Leiste auf der Berührungsschirm-Anzeigeoberfläche bewegen und/oder drehen. Zusätzlich kann jeglicher der dargestellten bzw. angezeigten Formgegenstände auswählbar sein und Ecken- und/oder Kantenhandgriffe beinhalten, um einen Formgegenstand auf der Berührungsschirm-Anzeigeoberfläche neu zu formen, in neuer Größe auszubilden und/oder neu zu positionieren.
  • In Implementierungen kann die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt werden, und der Formgegenstand wird dann nicht angezeigt (d. h. die Zeichenschablone oder Stiftführung verschwindet von der Berührungsschirm-Anzeigeoberfläche). Alternativ kann in anderen Implementierungen der Formgegenstand als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche dargestellt bzw. angezeigt verbleiben, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird. Beispielsweise kann der Formgegenstand zuerst als eine Zeichenschablone angezeigt werden und dann angezeigt verbleiben und als Teil einer Zeichnung auf der Berührungsschirm-Anzeigeoberfläche enthalten bleiben.
  • 4 illustriert ein beispielhaftes System 400 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion in Übereinstimmung mit einer oder mehreren Ausführungsform(en). Das beispielhafte System beinhaltet eine Eingabevorrichtung 402 und eine Computer- bzw. Rechenvorrichtung 404. Die Eingabevorrichtung 402 kann von jeglicher Art einer physikalischen Vorrichtung sein, welche durch einen Benutzer verwendet wird, um an eine Rechenvorrichtung und angezeigte Objekte bzw. Gegenstände anzukoppeln. Beispiele der Eingabevorrichtung 402 beinhalten die Tastatur 102 (1), die multifunktionelle gerade Leiste 302 (3) und einen Video Jog Shuttle bzw. ein Video-Bedienelement (nicht gezeigt). Die Rechenvorrichtung 404 kann jegliche oder eine Kombination einer verdrahteten oder drahtlosen Vorrichtung, wie beispielsweise ein Mobiltelefon, ein Tablet, eine Rechen-, Kommunikations-, Unterhaltungs-, Spiel-, Medienplayback- und/oder jegliche andere Art einer Vorrichtung sein. Die Rechenvorrichtung 404 beinhaltet eine Berührungsschirm-Anzeigeoberfläche 406, auf welcher die Eingabevorrichtung für eine Berührungsschirm-Interaktion angeordnet wird, wie dies bei 408 gezeigt ist. Wie dies hierin beschrieben ist, kann die Berührungsschirm-Anzeigeoberfläche irgendeine oder eine Kombination einer kapazitiven Berührungsschirmanzeige, welche in eine Rechenvorrichtung integriert ist, oder jegliche Art einer Anzeigeoberfläche eines digitalen Zeichentischs, eines freistehenden Desktops oder eines Tisch-Berührungsschirms sein.
  • Jegliche der Vorrichtungen kann mit verschiedenen Komponenten, wie beispielsweise einem Betriebssystem und einem Speicher, ebenso wie mit einer beliebigen Anzahl und Kombination von unterschiedlichen Komponenten implementiert sein bzw. werden, wie dies unter Bezugnahme auf die beispielhafte Vorrichtung weiter beschrieben wird, welche in 10 gezeigt ist. Beispielsweise beinhaltet die Eingabevorrichtung 402 einen Speicher 410, einen Prozessor 412 und eine Stromversorgung 414, wie beispielsweise jegliche Art einer Batterie- oder anderen Strom- bzw. Leistungsquelle, welche in einer Eingabevorrichtung implementiert sein kann. Der Speicher 410 der Eingabevorrichtung kann eine Vorrichtungsidentifikation 416 der Vorrichtung, ebenso wie Vorrichtungsdaten 418, wie beispielsweise konfigurierbare Einstellungen der Vorrichtung, ebenso wie Benutzerinterfacedaten und -einstellungen enthalten.
  • Die Eingabevorrichtung 402 beinhaltet ein Interaktionsmodul 420, welches als ausführbare Instruktionen bzw. Anweisungen (z. B. eine Softwareanwendung, -komponente oder -modul) enthalten bzw. beibehalten sein bzw. werden kann, welche auf computerlesbaren Speichermedien, wie beispielsweise jeglicher geeigneten Speichervorrichtung oder einem elektronischen Datenspeicher (z. B. dem Speicher 410) gespeichert sind. Zusätzlich kann das Interaktionsmodul mit dem Prozessor 412 der Eingabevorrichtung ausgeführt werden, um Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion zu implementieren. In ähnlicher Weise kann die Rechenvorrichtung 404 ein Interaktions-Begleitmodul 422 als ausführbare Instruktionen (z. B. eine Softwareanwendung, -komponente oder -modul) beinhalten, welches mit dem Interaktionsmodul 420 der Eingabevorrichtung 402 koppelt, wenn die Eingabevorrichtung für eine Berührungsschirm-Interaktion auf der Berührungsschirm-Anzeigeoberfläche 406 der Rechenvorrichtung 404 angeordnet wird.
  • In Ausführungsformen implementiert irgendeines oder eine Kombination des Interaktionsmoduls 420 und des Interaktions-Begleitmoduls 422 Ausführungsformen und Techniken einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion. In Implementierungen kann das Interaktions-Begleitmodul eine Softwareanwendung sein, welches mit dem Interaktionsmodul 420 über Application Programming Interfaces (APIs Anwenderprogramm-Interfaces) koppelt. Das Interaktionsmodul 420 der Eingabevorrichtung 402 und/oder das Interaktions-Begleitmodul 422 der Rechenvorrichtung 404 ist bzw. sind implementiert, um die verschiedenen Verfahrensvorgänge durchzuführen, welche unter Bezugnahme auf 59 beschrieben sind bzw. werden.
  • Die Rechenvorrichtung 404 kann auch ein Berührungsdetektionssystem 424 beinhalten, welches einen kapazitiven Kontakt einer Eingabevorrichtung 402 auf der Berührungsschirm-Anzeigeoberfläche 406 detektiert, wenn beispielsweise die Tastatur 102 oder die multifunktionelle gerade Leiste 302 auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Das Berührungsdetektionssystem kann auch mit dem Interaktions-Begleitmodul 422 an der Rechenvorrichtung 404 und/oder mit dem Interaktionsmodul 420 an der Eingabevorrichtung 402 koppeln bzw. zusammenwirken.
  • In Implementierungen kann die Eingabevorrichtung 402 auch kommunizieren, um die Vorrichtungsdaten 418, Benutzereinstellungen und/oder jegliche andere Art einer Konfigurationsinformation in einer Netzwerk-basierten Datenspeicherung (auch bezeichnet als Cloud-basierend oder ”in der Cloud”) zu speichern, welche als Cloud-Speicherung 426 gezeigt ist, welche Vorrichtungsdaten und -einstellungen 428 speichert. Beispielsweise können Benutzerinterfaceeinstellungen, welche mit der Tastatur 102 (1) assoziiert sind, in der Cloud-Speicherung 426 gespeichert und auf diese durch die Tastatur (z. B. eine Eingabevorrichtung 402) zugegriffen werden, wenn sie für eine Berührungsschirm-Interaktion auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird. In ähnlicher Weise können Benutzer- und Vorrichtungseinstellungen, welche mit der multifunktionellen geraden Leiste 302 (3) assoziiert sind, in der Cloud-Speicherung 426 gespeichert und auf diese durch die multifunktionelle gerade Leiste (z. B. eine Eingabevorrichtung 402) zugegriffen werden, wenn sie für eine Berührungsschirm-Interaktion auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  • Jegliche der hierin beschriebenen Vorrichtungen kann über ein Netzwerk 430 kommunizieren, welches implementiert sein bzw. werden kann, um ein verdrahtetes und/oder ein drahtloses Netzwerk zu beinhalten. Das Netzwerk kann auch unter Verwendung jeglicher Art einer Netzwerktopologie und/oder eines Kommunikationsprotokolls implementiert werden, und kann als eine Kombination von zwei oder mehreren Netzwerken repräsentiert oder anderweitig implementiert werden, um IP-basierende Netzwerke und/oder das Internet zu beinhalten. Das Netzwerk kann auch mobile Betreibernetzwerke beinhalten, welche durch einen Mobilnetzwerk-Betreiber und/oder andere Netzwerkbetreiber, wie beispielsweise Kommunikationsdienstprovider, Mobiltelefonprovider und/oder Internetserviceprovider gemanagt werden.
  • Beispielhafte Verfahren 500 bis 900 werden unter Bezugnahme auf die jeweiligen 59 im Zusammenhang mit einer oder mehreren Ausführungsform(en) einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion beschrieben. Im Allgemeinen kann jeglicher der Dienste, Komponenten, Module, Verfahren und Vorgänge, welche hierin beschrieben sind, unter Verwendung einer Software, Firmware, Hardware (z. B. feste logische Schaltung), ein manuelles Bearbeiten oder jegliche Kombination davon implementiert werden. Die beispielhaften Verfahren können in dem allgemeinen Kontext von ausführbaren Instruktionen beschrieben werden, welche auf einem computerlesbaren Speichermedium gespeichert sind, welches lokal und/oder entfernt von einem Computerbearbeitungssystem ist, und Implementierungen können Softwareanwendungen, Programme, Funktionen und dgl. beinhalten.
  • 5 illustriert (ein) beispielhafte(s) Verfahren 500 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion und wird allgemein unter Bezugnahme auf eine Tastatur-Interaktion auf einer Berührungsschirm-Anzeigeoberfläche beschrieben. Die Reihenfolge, in welcher das Verfahren beschrieben wird, soll nicht als eine Beschränkung erachtet werden, und jegliche Anzahl oder Kombination der Verfahrensvorgänge kann in einer beliebigen Reihenfolge kombiniert werden, um ein Verfahren oder ein alternatives bzw. abgewandeltes Verfahren zu implementieren.
  • Bei 502 wird eine Tastatur basierend auf einem definierten Muster von Kontaktpunkten erkannt, welche eine Berührungsschirm-Anzeigeoberfläche kontaktieren. Bei 504 wird eine Identifizierung bzw. Identifikation der Tastatur zu einem Begleitmodul kommuniziert bzw. übermittelt, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Bei 506 wird ein Textobjekt bzw. -gegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche initiiert. Bei 508 wird der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt wird, mit der Tastatur assoziiert. Bei 510 wird eine Anzeigeposition des Textgegenstands relativ zu der Tastatur beibehalten. Bei 512 werden Benutzertasteneingaben an bzw. bei der Tastatur erhalten. Bei 514 werden die Benutzertasteneingaben für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand auf der Berührungsschirm-Anzeigeoberfläche kommuniziert bzw. übertragen.
  • 6 illustriert (ein) beispielhafte(s) Verfahren 600 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion und wird allgemein unter Bezugnahme auf eine Tastatur-Interaktion auf einer Berührungsschirm-Anzeigeoberfläche beschrieben. Die Reihenfolge, in welcher das Verfahren beschrieben wird, soll nicht als eine Beschränkung erachtet werden, und jegliche Anzahl oder Kombination der Verfahrensvorgänge kann in einer beliebigen Reihenfolge kombiniert werden, um ein Verfahren oder ein abgewandeltes Verfahren zu implementieren.
  • Bei 602 wird ein angezeigter Text basierend auf der Nähe der Tastatur zu dem angezeigten Textgegenstand ausgewählt, um ein Editieren bzw. Bearbeiten von Text zu ermöglichen, welcher angezeigt wird, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Bei 604 wird für den Textgegenstand erkannt, dass er von der Tastatur gelöst wurde. Bei 606 wird ein zusätzlicher Textgegenstand zu einer Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf initiiert, dass der Textgegenstand von der Tastatur gelöst bzw. getrennt wurde. Bei 608 wird für die Tastatur erkannt, dass sie von der Berührungsschirm-Anzeigeoberfläche entfernt wurde, um effektiv zu sein, nicht den Textgegenstand anzuzeigen. Bei 610 wird der Textgegenstand neuerlich in Antwort darauf angezeigt, dass erkannt wird, dass die Tastatur wiederum auf der Berührungsschirm-Anzeigeoberfläche angeordnet wurde.
  • 7 illustriert (ein) beispielhafte(s) Verfahren 700 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion und wird allgemein unter Bezugnahme auf eine Tastatur-Interaktion auf einer Berührungsschirm-Anzeigeoberfläche beschrieben. Die Reihenfolge, in welcher das Verfahren beschrieben wird, soll nicht als eine Beschränkung erachtet werden, und jegliche Anzahl oder Kombination der Verfahrensvorgänge kann in einer beliebigen Reihenfolge kombiniert werden, um ein Verfahren oder ein abgewandeltes Verfahren zu implementieren.
  • Bei 702 wird ein Benutzerinterfacepanel zu einer Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf initiiert bzw. veranlasst, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wurde. Bei 704 wird das Benutzerinterfacepanel mit der Tastatur assoziiert. Bei 706 wird eine Anzeigeposition des Benutzerinterfacepanels relativ zu der Tastatur beibehalten. Bei 708 werden auswählbare Links in dem Benutzerinterfacepanel zu vorher erzeugten Textgegenständen für eine Benutzerauswahl angezeigt, um einen vorher erzeugten Textgegenstand zu editieren.
  • 8 illustriert (ein) beispielhafte(s) Verfahren 800 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion und wird allgemein unter Bezugnahme auf eine Interaktion einer multifunktionellen geraden Leiste auf einer Berührungsschirm-Anzeigeoberfläche beschrieben. Die Reihenfolge, in welcher das Verfahren beschrieben wird, soll nicht als eine Beschränkung erachtet werden, und jegliche Anzahl oder Kombination der Verfahrensvorgänge kann in einer beliebigen Reihenfolge kombiniert werden, um ein Verfahren oder ein abgewandeltes Verfahren zu implementieren.
  • Bei 802 wird eine multifunktionelle gerade Leiste basierend auf einem definierten Muster von Kontaktpunkten erkannt, welche eine Berührungsschirm-Anzeigeoberfläche einer Rechen- bzw. Computervorrichtung berühren. Bei 804 wird eine Benutzerformeingabe auf der multifunktionellen geraden Leiste erhalten. Bei 806 wird ein Formgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche initiiert. Dies kann ein Anzeigen des Formgegenstands als eine Zeichenformschablone auf der Berührungsschirm-Anzeigeoberfläche beinhalten, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet. Alternativ oder zusätzlich kann dies ein Anzeigen des Formgegenstands als eine oder mehrere Stiftführungslinie(n) auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben beinhalten.
  • Bei 808 wird der Formgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt wird, mit der multifunktionellen geraden Leiste assoziiert. Bei 810 wird eine Anzeigeposition des Formgegenstands relativ zu der multifunktionellen geraden Leiste beibehalten. Ein Assoziieren des Formgegenstands mit der multifunktionellen geraden Leiste (bei 808) und ein Beibehalten der Anzeigeposition des Formgegenstands relativ zu der multifunktionellen geraden Leiste (bei 810) beinhaltet ein Anketten bzw. Fesseln des Formgegenstands an die multifunktionelle gerade Leiste, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten.
  • 9 illustriert (ein) beispielhafte(s) Verfahren 900 einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion, und wird allgemein unter Bezugnahme auf eine Interaktion einer multifunktionellen geraden Leiste auf einer Berührungsschirm-Anzeigeoberfläche beschrieben. Die Reihenfolge, in welcher das Verfahren beschrieben wird, soll nicht als eine Beschränkung erachtet werden, und jegliche Anzahl oder Kombination der Verfahrensvorgänge kann in einer beliebigen Reihenfolge kombiniert werden, um ein Verfahren oder ein abgewandeltes Verfahren zu implementieren.
  • Bei 902 wird eine Identifikation der multifunktionellen geraden Leiste an das Begleitmodul kommuniziert bzw. übersandt, welches durch die Rechenvorrichtung implementiert ist und mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Bei 904 wird ein Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf initiiert, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Bei 906 wird die multifunktionelle gerade Leiste, welche von der Berührungsschirm-Anzeigeoberfläche entfernt wird, als effektiv bzw. wirksam erkannt, um nicht den Formgegenstand anzuzeigen. Als eine Alternative zu einem Nicht-Anzeigen des Formgegenstands, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird, wird für die multifunktionelle gerade Leiste erkannt, dass bzw. wenn sie von der Berührungsschirm-Anzeigeoberfläche bei 908 entfernt wurde, und bei 910 wird der Formgegenstand als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt.
  • 10 illustriert ein beispielhaftes System 1000, welches eine beispielhafte Vorrichtung 1002 beinhaltet, welche Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion implementieren kann. Die beispielhafte Vorrichtung 1002 kann als eine beliebige der Vorrichtungen und/oder Services bzw. Dienste (z. B. Servervorrichtungen) implementiert sein bzw. werden, welche unter Bezugnahme auf die vorangehenden 19 beschrieben wurden, wie beispielsweise irgendeine Art einer Eingabevorrichtung, Tablet-Vorrichtung, Rechen-, Kommunikations-, Unterhaltungs-, Spiel-, Medienplayback- und/oder einer anderen Art einer Rechenvorrichtung, welche als eine Berührungsschirm-Anzeigeoberfläche implementiert sein kann oder diese enthalten kann. Beispielsweise können die Tastatur 102, die Berührungsschirm-Anzeigeoberfläche 104, die multifunktionelle gerade Leiste 302 und/oder die Tablet-Vorrichtung 306, welche in 1 und 3 gezeigt sind, als die beispielhafte Vorrichtung 1002 implementiert sein bzw. werden.
  • Die Vorrichtung 1002 beinhaltet Kommunikationsvorrichtungen 1004, welche eine verdrahtete und/oder drahtlose Kommunikation von Vorrichtungsdaten 1006, wie beispielsweise Vorrichtungseinstellungen und -daten, Benutzerdaten und Benutzerinterface-Konfigurationseinstellungen ermöglichen, welche auf der Vorrichtung gespeichert sind. Die Vorrichtungsdaten können jegliche Art von Benutzer- und/oder Vorrichtungsdaten beinhalten. Die Kommunikationsvorrichtungen 1004 können auch Sende-Empfänger für eine Mobiltelefonkommunikation und/oder für eine Netzwerkdatenkommunikation beinhalten.
  • Die Vorrichtung 1002 beinhaltet auch Eingabe/Ausgabe (I/O) Interfaces 1008, wie beispielsweise Datennetzwerkinterfaces, welche Verbindungs- und/oder Kommunikationslinks zwischen der Vorrichtung, Datennetzwerken und anderen Vorrichtungen zur Verfügung stellen. Die I/O Interfaces können verwendet werden, um die Vorrichtung an irgendeine Art von Komponenten, Peripheriegeräten und/oder Zusatzgeräten, wie beispielsweise eine Berührungsschirm-Anzeigeoberfläche zu koppeln, welche mit der Vorrichtung 1002 integriert sein kann. Die I/O Interfaces beinhalten auch Dateneingabeports, über welche eine beliebige Art von Daten, Mediainhalt und/oder Eingaben empfangen werden können, wie beispielsweise Benutzereingaben an die Vorrichtung, als auch jegliche Art von Audio-, Video- und/oder Bilddaten, welche von irgendeinem Inhalt bzw. Content und/oder einer Datenquelle erhalten bzw. empfangen werden.
  • Die Vorrichtung 1002 beinhaltet ein Be- bzw. Verarbeitungssystem 1010, welches wenigstens teilweise in Hardware, wie beispielsweise mit einer beliebigen Art von Mikroprozessoren, Controllern und dgl. implementiert sein kann, welche ausführbare Instruktionen be- bzw. verarbeiten. Das Bearbeitungssystem kann Komponenten einer integrierten Schaltung, einer programmierbaren Logikvorrichtung, einer Logikvorrichtung, welche unter Verwendung von einem oder mehreren Halbleiter(n) ausgebildet ist bzw. wird, und andere Implementierungen in Silizium und/oder Hardware beinhalten, wie beispielsweise einen Prozessor und ein Speichersystem, welche als ein System-On-Chip (SoC) implementiert sind. Alternativ oder zusätzlich kann die Vorrichtung mit einer oder einer Kombination von Software, Hardware, Firmware oder einer festen logischen Verdrahtung bzw. Schaltung implementiert sein bzw. werden, welche mit Bearbeitungs- und Regel- bzw. Steuerungsschaltungen implementiert sein kann. Die Vorrichtung 1002 kann darüber hinaus jegliche Art eines Systembusses oder eines anderen Daten- und Befehlsübertragungssystems beinhalten, welches die verschiedenen Komponenten innerhalb der Vorrichtung koppelt. Ein Systembus kann eine oder eine Kombination von unterschiedlichen Busstrukturen und -architekturen, als auch Regel- bzw. Steuer- und Datenleitungen beinhalten.
  • Die Vorrichtung 1002 beinhaltet auch ein computerlesbares Speichermedium 1012, wie beispielsweise Datenspeichervorrichtungen, auf welche durch eine Rechenvorrichtung zugegriffen werden kann, und welche eine dauerhafte Speicherung von Daten und ausführbaren Instruktionen (z. B. Softwareanwendungen, Programmen, Funktionen und dgl.) zur Verfügung stellen. Beispiele eines computerlesbaren Speichermediums beinhalten flüchtige und nichtflüchtige Speicher, Media-Vorrichtungen mit fixem bzw. festgelegtem und entfernbarem Medium und jegliche geeignete Speichervorrichtung oder elektronische Datenspeicherung, welche Daten für einen Zugriff durch die Rechen- bzw. Computervorrichtung enthält. Das computerlesbare Speichermedium kann verschiedene Implementierungen von Direktzugriffsspeichern (RAM), Nur-Lesespeichern (ROM), Flash-Speichern und anderen Arten von Speichermedien in verschiedenen Speichervorrichtungskonfigurationen beinhalten.
  • Das computerlesbare Speichermedium 1012 stellt eine Speicherung der Vorrichtungsdaten 1006 und von verschiedenen Vorrichtungsapplikationen bzw. -anwendungen 1014 zur Verfügung, wie beispielsweise eines Betriebssystems, welches als eine Softwareanwendung mit dem computerlesbaren Speichermedium beibehalten und durch das Bearbeitungssystem 1010 ausgeführt wird. In diesem Beispiel beinhalten die Vorrichtungsapplikationen auch ein Interaktionsmodul 1016, welches Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion implementiert, wie beispielsweise wenn die beispielhafte Vorrichtung 1002 als die Tastatur 102, welche in 1 gezeigt ist, oder als die multifunktionelle gerade Leiste 302, wie sie in 3 gezeigt ist, implementiert ist. Beispiele des Interaktionsmoduls 1016 beinhalten das Interaktionsmodul 420, welches durch die Eingabevorrichtung 402 implementiert ist, und das Interaktions-Begleitmodul 422, welches durch die Rechenvorrichtung 404 implementiert ist, wie dies unter Bezugnahme auf 4 gezeigt und beschrieben ist.
  • Die Vorrichtung 1002 beinhaltet auch ein Audio- und/oder Videosystem 1018, welches Audiodaten für eine Audiovorrichtung 1020 generiert und/oder Anzeigedaten für eine Anzeigevorrichtung 1022 (z. B. eine Berührungsschirm-Anzeigeoberfläche) generiert bzw. erzeugt. Die Audiovorrichtung und/oder die Anzeigevorrichtung beinhaltet (beinhalten) jegliche Vorrichtungen, welche Audio-, Video-, Anzeige- und/oder Bilddaten, wie beispielsweise den Bildinhalt eines digitalen Fotos bearbeiten, anzeigen bzw. darstellen und/oder anderweitig rendern bzw. wiedergeben. In Implementierungen ist bzw. sind die Audiovorrichtung und/oder die Anzeigevorrichtung integrierte Komponenten der beispielhaften Vorrichtung 1002. Alternativ ist bzw. sind die Audiovorrichtung und/oder die Anzeigevorrichtung externe Peripheriekomponenten für die bzw. bei der beispielhaften Vorrichtung.
  • In Ausführungsformen kann wenigstens ein Teil der Techniken, welche für eine Detektion eines physikalischen Gegenstands und eine Berührungsschirm-Interaktion beschrieben sind, in einem verteilten System, wie beispielsweise über eine ”Cloud” bzw. ”Wolke” 1024 in einer Plattform 1026 implementiert sein bzw. werden. Die Cloud 1024 beinhaltet die Plattform 1026 für Services bzw. Dienste 1028 und/oder Ressourcen 1030 und/oder ist repräsentativ dafür. Die Plattform 1026 abstrahiert eine darunterliegende Funktionalität von Hardware, wie beispielsweise Servervorrichtungen (z. B. beinhaltet in den Diensten 1028) und/oder Softwareressourcen (z. B. beinhaltet als die Ressourcen 1030), und verbindet die beispielhafte Vorrichtung 1002 mit anderen Vorrichtungen, Servern, etc.
  • Die Ressourcen 1030 können Applikationen bzw. Anwendungen und/oder Daten beinhalten, welche verwendet werden können, während eine Computerbe- bzw. -verarbeitung auf Servern ausgeführt wird, welche von der beispielhaften Vorrichtung 1002 entfernt bzw. getrennt sind. Zusätzlich können die Dienste 1028 und/oder die Ressourcen 1030 Abonnenten-Netzwerkdienste, wie beispielsweise über das Internet, ein Mobiltelefonnetzwerk oder ein WiFi Netzwerk erleichtern. Die Plattform 1026 kann auch dazu dienen, um Ressourcen zu abstrahieren und zu skalieren, um einer Nachfrage nach den Ressourcen 1030 zu dienen, welche über die Plattform implementiert sind bzw. werden, wie beispielsweise in einer Ausführungsform einer miteinander bzw. untereinander verbundenen Vorrichtung mit einer Funktionalität, welche über das System 1000 verteilt ist. Beispielsweise kann die Funktionalität in einem Teil bei der beispielhaften Vorrichtung 1002 als auch über die Plattform 1026 implementiert sein bzw. werden, welche die Funktionalität der Cloud 1024 entnimmt.
  • Demgemäß wird eine Tastatur geoffenbart, welche ein vorbestimmtes Muster von Kontaktpunkten aufweist, welche als die Tastatur erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird. Die Tastatur kommuniziert bzw. überträgt eine Identifikation an ein Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Ein Textgegenstand wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt bzw. dargestellt, wenn die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Benutzertasteneingaben an die Tastatur werden dann für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand kommuniziert bzw. übertragen. Eine multifunktionelle gerade Leiste weist ein definiertes Muster von Kontaktpunkten auf, welche als die multifunktionelle gerade Leiste erkennbar sind, wenn sie auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird. Die multifunktionelle gerade Leiste kommuniziert mit einem Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist. Eine Benutzerformeingabe wird auf der multifunktionellen geraden Leiste erhalten und ein Formgegenstand, welcher der Benutzerformeingabe entspricht, wird auf der Berührungsschirm-Anzeigeoberfläche angezeigt.
  • Obwohl Ausführungsformen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion in einer Sprache bzw. Art beschrieben wurden, welche für Merkmale und/oder Verfahren spezifisch ist, sind bzw. werden die beigeschlossenen Ansprüche nicht notwendigerweise auf diese bestimmten Merkmale oder Verfahren beschränkt, welche beschrieben sind. Demgegenüber sind bzw. werden die spezifischen Merkmale und Verfahren als beispielhafte Implementierungen einer Detektion eines physikalischen Gegenstands und einer Berührungsschirm-Interaktion geoffenbart.

Claims (20)

  1. Tastatur, umfassend: ein definiertes Muster von Kontaktpunkten, welche als die Tastatur erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird; ein Be- bzw. Verarbeitungssystem, um ein Interaktionsmodul zu implementieren, welches konfiguriert ist, um: eine Identifizierung der Tastatur zu einem Begleitmodul bzw. Companion Modul zu kommunizieren, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar bzw. betätigbar ist; einen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu initiieren; Benutzertasteneingaben an die Tastatur zu empfangen; und die Benutzertasteneingaben für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand zu kommunizieren.
  2. Tastatur nach Anspruch 1, darüber hinaus umfassend einen Speicher, welcher konfiguriert ist, um die Identifizierung der Tastatur zu enthalten.
  3. Tastatur nach einem der vorangehenden Ansprüche, wobei der Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf die Benutzertasteneingaben an die Tastatur initiiert bzw. eingeleitet wird, und/oder wobei der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist, mit der Tastatur assoziiert und konfiguriert ist, um eine Anzeigeposition relativ zu der Tastatur beizubehalten, wobei der Textgegenstand vorzugsweise konfiguriert ist, um sich mit der Tastatur zu bewegen und/oder zu drehen, um die Anzeigeposition relativ zu der Tastatur beizubehalten.
  4. Tastatur nach einem der vorangehenden Ansprüche, wobei ein angezeigter Textgegenstand basierend auf einer Nähe der Tastatur zu dem angezeigten Textgegenstand ausgewählt wird, um ein Editieren von Text zu ermöglichen, welcher angezeigt wird, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  5. Tastatur nach einem der vorangehenden Ansprüche, wobei das Interaktionsmodul konfiguriert ist, um ein Benutzerinterfacepanel für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird, wobei das Benutzerinterfacepanel auswählbare bevorzugte Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl beinhaltet, um einen vorher erzeugten Textgegenstand zu editieren, und/oder wobei das Benutzerinterfacepanel vorzugsweise mit der Tastatur assoziiert und konfiguriert ist, um eine Anzeigeposition relativ zu der Tastatur beizubehalten, und/oder wobei das Benutzerinterfacepanel vorzugsweise für wenigstens eines eines Bewegens und Rotierens mit der Tastatur konfiguriert ist, um die Anzeigeposition relativ zu der Tastatur beizubehalten.
  6. Tastatur nach einem der vorangehenden Ansprüche, wobei das Interaktionsmodul konfiguriert ist, um einen zusätzlichen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass der Textgegenstand weg von der Tastatur bewegt wird, und/oder wobei der Textgegenstand nicht angezeigt wird, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche entfernt wird; und der Textgegenstand neuerlich in Antwort darauf angezeigt wird, dass die Tastatur wiederum auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird.
  7. Verfahren, umfassend: ein Erkennen einer Tastatur basierend auf einem definierten Muster von Kontaktpunkten, welche eine Berührungsschirm-Anzeigeoberfläche kontaktieren; ein Einleiten bzw. Initiieren eines Textgegenstands bzw. -objekts für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche; ein Empfangen von Benutzertasteneingaben an die Tastatur; und ein Kommunizieren der Benutzertasteneingaben für eine Anzeige als alphanumerische Zeichen in dem Textgegenstand.
  8. Verfahren nach Anspruch 7, wobei das Initiieren des Textgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort auf das Empfangen der Benutzertasteneingaben an die Tastatur erfolgt.
  9. Verfahren nach Anspruch 7 oder 8, darüber hinaus umfassend einen oder mehrere der folgenden Schritte: ein Kommunizieren einer Identifizierung der Tastatur zu einem Begleitmodul, welches mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist; ein Assoziieren des Textgegenstands, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt wird, mit der Tastatur; und ein Beibehalten einer Anzeigeposition des Textgegenstands relativ zu der Tastatur; ein Auswählen eines angezeigten Textgegenstands basierend auf einer Nähe der Tastatur zu dem angezeigten Textgegenstand, um ein Editieren von Text zu ermöglichen, welcher angezeigt wird, bevor die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird; ein Initiieren eines Benutzerinterfacepanels für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird; und vorzugsweise ein Anzeigen von auswählbaren Links zu vorher erzeugten Textgegenständen für eine Benutzerauswahl, um einen vorher erzeugten Textgegenstand zu editieren, wobei das Anzeigen der auswählbaren Links in dem Benutzerinterfacepanel erfolgt; und/oder vorzugsweise ein Assoziieren des Benutzerinterfacepanels mit der Tastatur; und vorzugsweise ein Beibehalten einer Anzeigeposition des Benutzerinterfacepanels relativ zu der Tastatur; ein Erkennen, dass der Textgegenstand und die Tastatur voneinander getrennt wurden; und ein Initiieren eines zusätzlichen Textgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass der Textgegenstand von der Tastatur getrennt bzw. gelöst wurde; und/oder ein Erkennen, wenn die Tastatur von der Berührungsschirm-Anzeigeoberfläche effektiv entfernt wird, um nicht den Textgegenstand anzuzeigen; und ein neuerliches Anzeigen des Textgegenstands in Antwort auf ein Erkennen, dass die Tastatur neuerlich auf der Berührungsschirm-Anzeigeoberfläche angeordnet wurde.
  10. Multifunktionelle gerade Leiste, umfassend: ein definiertes Muster von Kontaktpunkten, welche als die multifunktionelle gerade Leiste erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche einer Computer- bzw. Rechenvorrichtung angeordnet ist bzw. wird; ein Be- bzw. Verarbeitungssystem, um ein Interaktionsmodul zu implementieren, welches konfiguriert ist, um: mit einem Begleitmodul bzw. Companion Modul durch die Rechenvorrichtung zu kommunizieren und mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist; eine Benutzerformeingabe auf der multifunktionellen geraden Leiste zu empfangen; und einen Formgegenstand, welcher der Benutzerformeingabe entspricht, für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu initiieren.
  11. Multifunktionelle gerade Leiste nach Anspruch 10, darüber hinaus umfassend einen Speicher, welcher konfiguriert ist, um eine Identifikation der multifunktionellen geraden Leiste beizubehalten, und/oder wobei das Interaktionsmodul konfiguriert ist, um die Identifikation der multifunktionellen geraden Leiste zu der Rechenvorrichtung zu kommunizieren bzw. zu übertragen.
  12. Multifunktionelle gerade Leiste nach Anspruch 10 oder 11, wobei der Formgegenstand ein Zeichenformmuster ist, welches für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche konfiguriert ist, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet; und/oder wobei der Form- bzw. Gestaltgegenstand eine oder mehrere Stiftführungslinie(n) ist, welche für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben konfiguriert ist bzw. sind; und/oder wobei der Formgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist, mit der multifunktionellen geraden Leiste assoziiert und konfiguriert ist, um eine Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten, wobei der Formgegenstand vorzugsweise an die multifunktionelle gerade Leiste gebunden bzw. gefesselt ist, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten, und/oder wobei der Formgegenstand vorzugsweise für wenigstens eines eines Bewegens und Rotierens mit der multifunktionellen geraden Leiste konfiguriert ist, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten; und/oder wobei das Interaktionsmodul konfiguriert ist, um ein Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren bzw. einzuleiten, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet ist bzw. wird; und/oder wobei der Formgegenstand nicht angezeigt ist, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt ist bzw. wird; und/oder wobei der Formgegenstand als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche dargestellt bzw. angezeigt verbleibt, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt ist bzw. wird.
  13. Verfahren, umfassend: ein Erkennen einer multifunktionellen geraden Leiste basierend auf einem definierten Muster von Kontaktpunkten, welche eine Berührungsschirm-Anzeigeoberfläche einer Rechen- bzw. Computervorrichtung kontaktieren; ein Kommunizieren mit einem Begleitmodul, welches durch die Rechenvorrichtung implementiert wird und mit der Berührungsschirm-Anzeigeoberfläche betreibbar ist; ein Empfangen einer Benutzerformeingabe auf der multifunktionellen geraden Leiste; und ein Initiieren eines Form- bzw. Gestaltgegenstands für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche.
  14. Verfahren nach Anspruch 13, darüber hinaus umfassend einen oder mehrere der folgenden Schritte: ein Kommunizieren einer Identifikation der multifunktionellen geraden Leiste zu dem Begleitmodul der Rechenvorrichtung; ein Anzeigen des Formgegenstands als ein Zeichenformmuster auf der Berührungsschirm-Anzeigeoberfläche, während sich die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche befindet; ein Anzeigen des Formgegenstands als eine oder mehrere Stiftführungslinie(n) auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben; ein Assoziieren des Formgegenstands, welcher auf der Berührungsschirm-Anzeigeoberfläche dargestellt wird, mit der multifunktionellen geraden Leiste; und ein Beibehalten einer Anzeigeposition des Formgegenstands relativ zu der multifunktionellen geraden Leiste; wobei der Formgegenstand vorzugsweise an die multifunktionelle gerade Leiste gebunden bzw. gefesselt wird, um die Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten; ein Initiieren eines Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche angeordnet wird; ein Erkennen, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird, wobei dies wirksam wird, um nicht den Formgegenstand anzuzeigen; und/oder ein Erkennen, wenn die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird; und ein Anzeigen des Formgegenstands als ein Zeichenelement auf der Berührungsschirm-Anzeigeoberfläche, wenn erkannt wird, dass die multifunktionelle gerade Leiste von der Berührungsschirm-Anzeigeoberfläche entfernt wird.
  15. System, umfassend: eine Eingabevorrichtung, welche ein definiertes Muster von Kontaktpunkten aufweist, welche als die Eingabevorrichtung erkennbar sind, wenn sie auf einer Berührungsschirm-Anzeigeoberfläche angeordnet wird; eine Computer- bzw. Rechenvorrichtung, welche die Berührungsschirm-Anzeigeoberfläche beinhaltet, welche für kapazitive Berührungseingaben konfiguriert ist, wobei die Kontaktpunkte der Eingabevorrichtung durch ein Berührungsdetektionssystem detektiert werden; ein Be- bzw. Verarbeitungssystem der Rechenvorrichtung, um ein Begleitmodul bzw. Companion Modul zu implementieren, welches mit einem Interaktionsmodul der Eingabevorrichtung wechselwirkt, wobei das Begleitmodul der Rechenvorrichtung konfiguriert ist, um: die Eingabevorrichtung basierend auf dem definierten Muster der Kontaktpunkte zu erkennen; eine Objekt- bzw. Gegenstandsanzeige in Antwort auf die erkannte Eingabevorrichtung zu initiieren bzw. einzuleiten; und eine Eingabe von dem Interaktionsmodul der Eingabevorrichtung zu empfangen.
  16. System nach Anspruch 15, wobei das Begleitmodul konfiguriert ist, um: die Eingabevorrichtung als eine Tastatur zu erkennen; Benutzertasteneingaben an die Tastatur als die Eingabe von dem Interaktionsmodul zu empfangen; und einen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren, um die Benutzertasteneingaben als alphanumerische Zeichen in dem Textgegenstand darzustellen; und/oder die Eingabevorrichtung als eine Tastatur zu erkennen; eine Vorrichtungsidentifikation der Tastatur als die Eingabe von dem Interaktionsmodul zu empfangen; und einen Textgegenstand für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren.
  17. System nach Anspruch 15 oder 16, wobei das System wenigstens eine zusätzliche Tastatur umfasst, welche auf der Berührungsschirm-Anzeigeoberfläche angeordnet ist bzw. wird; und das Begleitmodul konfiguriert ist, um die Tastatur und die zusätzliche Tastatur basierend darauf zu unterscheiden, dass jede der Tastaturen einen einzigartig positionierten Kontaktpunkt zusätzlich zu dem definierten Muster der Kontaktpunkte aufweist; und/oder wobei der Textgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist, mit der Tastatur assoziiert und konfiguriert ist, um eine Anzeigeposition relativ zu der Tastatur beizubehalten.
  18. System nach Anspruch 15, 16 oder 17, wobei das Begleitmodul konfiguriert ist, um: ein Benutzerinterfacepanel für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die Tastatur auf der Berührungsschirm-Anzeigeoberfläche erkannt wurde; und das Benutzerinterfacepanel mit der Tastatur zu assoziieren, um eine Anzeigeposition des Benutzerinterfacepanels relativ zu der Tastatur beizubehalten.
  19. System nach einem der vorangehenden Ansprüche 15 bis 18, wobei das Begleitmodul konfiguriert ist, um: die Eingabevorrichtung als eine multifunktionelle gerade Leiste zu erkennen; eine Benutzerformeingabe auf der multifunktionellen geraden Leiste als die Eingabe von dem Interaktionsmodul zu erhalten; und einen Form- bzw. Gestaltgegenstand, welcher der Benutzerformeingabe entspricht, für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche zu generieren; wobei der Formgegenstand vorzugsweise eine oder mehrere Stiftführungslinie(n) ist, welche für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche als eine Führung für Stifteingaben konfiguriert ist bzw. sind, und/oder wobei das Begleitmodul vorzugsweise konfiguriert ist, um den Formgegenstand, welcher auf der Berührungsschirm-Anzeigeoberfläche angezeigt ist bzw. wird, mit der multifunktionellen geraden Leiste zu assoziieren, um eine Anzeigeposition relativ zu der multifunktionellen geraden Leiste beizubehalten, und/oder wobei das Begleitmodul vorzugsweise konfiguriert ist, um ein Benutzerinterface von digitalen Zeichenwerkzeugen für eine Anzeige auf der Berührungsschirm-Anzeigeoberfläche in Antwort darauf zu initiieren, dass die multifunktionelle gerade Leiste auf der Berührungsschirm-Anzeigeoberfläche erkannt wird.
  20. Computerprogrammprodukt, welches computerlesbare Instruktionen umfasst, welche, wenn auf ein geeignetes System geladen und auf diesem ausgeführt, die Schritte eines Verfahrens gemäß einem der vorangehenden Ansprüche 7 bis 9, 13 und 14 durchführen können.
DE102014006318.6A 2013-05-02 2014-04-30 Detektion eines physikalischen Gegenstands und Berührungsschirm-Interaktion Pending DE102014006318A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361818858P 2013-05-02 2013-05-02
US61/818,858 2013-05-02

Publications (1)

Publication Number Publication Date
DE102014006318A1 true DE102014006318A1 (de) 2014-11-06

Family

ID=51727549

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014006318.6A Pending DE102014006318A1 (de) 2013-05-02 2014-04-30 Detektion eines physikalischen Gegenstands und Berührungsschirm-Interaktion

Country Status (3)

Country Link
US (1) US10146407B2 (de)
CN (1) CN104133581B (de)
DE (1) DE102014006318A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10146407B2 (en) 2013-05-02 2018-12-04 Adobe Systems Incorporated Physical object detection and touchscreen interaction

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219565A1 (de) * 2012-10-25 2014-04-30 Krones Ag Vorrichtung zur Unterstützung von Datengewinnung und/oder Datenverarbeitung
EP2818985B1 (de) * 2013-06-28 2021-05-12 Nokia Technologies Oy Feld zur schwebende Eingabe
EP3191918B1 (de) * 2014-09-12 2020-03-18 Hewlett-Packard Development Company, L.P. Entwicklung kontextueller informationen aus einem bild
WO2016168788A2 (en) 2015-04-17 2016-10-20 Tulip Interfaces, Inc. Containerized communications gateway
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US9791979B2 (en) 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9753591B2 (en) * 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US10481645B2 (en) 2015-09-11 2019-11-19 Lucan Patent Holdco, LLC Secondary gesture input mechanism for touchscreen devices
US10365822B2 (en) 2016-06-20 2019-07-30 Dell Products L.P. Information handling system multi-handed hybrid interface devices
US10108337B2 (en) * 2016-06-20 2018-10-23 Dell Products L.P. Information handling system hybrid keyboard
US10795510B2 (en) 2016-10-25 2020-10-06 Microsoft Technology Licensing, Llc Detecting input based on a capacitive pattern
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139930B2 (en) * 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10139973B2 (en) * 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10386974B2 (en) 2017-02-07 2019-08-20 Microsoft Technology Licensing, Llc Detecting input based on a sensed capacitive input profile
US10613675B2 (en) * 2017-04-24 2020-04-07 Dell Products L.P. Information handling system totem pressure sensor
US10613649B2 (en) 2017-04-24 2020-04-07 Dell Products L.P. Information handling system totem holder
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
JP7181300B2 (ja) * 2018-08-30 2022-11-30 株式会社ワコム インタフェース装置及びオンパネルパッド
US11128538B2 (en) * 2019-07-16 2021-09-21 Mastercard International Incorporated Method and system for an interactive, tangible system for visualizing, designing and debugging distributed software applications

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092190B2 (en) * 2010-10-01 2015-07-28 Z124 Smartpad split screen
US20080042993A1 (en) * 2006-08-15 2008-02-21 Denny Jaeger Sensor pad using light pipe input devices
WO2009143086A2 (en) * 2008-05-17 2009-11-26 Qwizdom, Inc. Digitizing tablet devices, methods and systems
CN101730416B (zh) * 2008-10-31 2012-08-29 鸿富锦精密工业(深圳)有限公司 电子设备及其按键
US9207806B2 (en) * 2009-05-28 2015-12-08 Microsoft Technology Licensing, Llc Creating a virtual mouse input device
US8421761B2 (en) * 2009-08-26 2013-04-16 General Electric Company Imaging multi-modality touch pad interface systems, methods, articles of manufacture, and apparatus
US20110095994A1 (en) * 2009-10-26 2011-04-28 Immersion Corporation Systems And Methods For Using Static Surface Features On A Touch-Screen For Tactile Feedback
US20110095992A1 (en) 2009-10-26 2011-04-28 Aten International Co., Ltd. Tools with multiple contact points for use on touch panel
US20110117968A1 (en) * 2009-11-13 2011-05-19 Nokia Corporation Input device for a user interface
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US8599162B2 (en) * 2010-03-18 2013-12-03 Chris Argiro Actionable-object controller and data-entry attachment for touchscreen-based electronics
CN101976172B (zh) * 2010-11-13 2013-01-16 董浩亮 汉语拼音滑行输入键盘动态显示系统及其显示方法
US10120446B2 (en) * 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US20120194457A1 (en) 2011-01-28 2012-08-02 Bruce Cannon Identifiable Object and a System for Identifying an Object by an Electronic Device
US20120212422A1 (en) * 2011-02-21 2012-08-23 Iasolution Inc. Software Aided Physical Keyboard for a Touch-Screen
GB2493139A (en) 2011-07-15 2013-01-30 Blue Sky Designs Ltd A handheld device with contact member to contact a touch screen
US9369820B2 (en) * 2011-08-23 2016-06-14 Htc Corporation Mobile communication device and application interface switching method
EP2776912B1 (de) * 2011-11-11 2016-05-18 International Business Machines Corporation Mobile berührungserzeugungsvorrichtung als sichere lupe für berührungsvorrichtungen
US20130154947A1 (en) * 2011-12-14 2013-06-20 International Business Machines Corporation Determining a preferred screen orientation based on known hand positions
US8866769B2 (en) * 2012-03-13 2014-10-21 Blackberry Limited Device cover with drawing pad input device
US9494427B2 (en) * 2012-04-25 2016-11-15 Tyrell Gray System and method for providing a directional interface
US9250721B2 (en) * 2012-12-17 2016-02-02 Disney Enterprises, Inc. Wireless stylus device with interchangeable tips and eraser
US9448643B2 (en) * 2013-03-11 2016-09-20 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus angle detection functionality
US9632594B2 (en) * 2013-03-11 2017-04-25 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus idle functionality
GB2516345B (en) 2013-05-02 2015-07-15 Adobe Systems Inc Physical object detection and touchscreen interaction
US10146407B2 (en) 2013-05-02 2018-12-04 Adobe Systems Incorporated Physical object detection and touchscreen interaction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10146407B2 (en) 2013-05-02 2018-12-04 Adobe Systems Incorporated Physical object detection and touchscreen interaction

Also Published As

Publication number Publication date
CN104133581A (zh) 2014-11-05
US10146407B2 (en) 2018-12-04
CN104133581B (zh) 2019-05-21
US20140327628A1 (en) 2014-11-06

Similar Documents

Publication Publication Date Title
DE102014006318A1 (de) Detektion eines physikalischen Gegenstands und Berührungsschirm-Interaktion
US10474736B1 (en) Multiple display views for a notebook
US10008014B2 (en) Tool for creating and editing arcs
US20120185787A1 (en) User interface interaction behavior based on insertion point
KR101143191B1 (ko) 템플릿된 리스트들에서의 정렬된 행위
DE212015000213U1 (de) Multidimensionale Objektneuordnung
DE112013006621T5 (de) Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
DE202014004555U1 (de) Vorrichtung zur Erzeugung von Benutzerschnittstellen aus einer Vorlage
DE202008000269U1 (de) Tragbare elektronische Vorrichtung
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112013004619T5 (de) Texteintrag mit partieller Geste
CN107608668B (zh) H5页面制作兼容显示的方法、装置、终端设备及存储介质
DE112011105933T5 (de) Verfahren und Vorrichtungen zum dynamischen Anpassen einer virtuellen Tastatur
DE102013017195A1 (de) Löschung mit visueller Rückkopplung
DE112012006165T5 (de) Touchscreen-Anwenderschnittstelle mit Spracheingabe
DE102013103616A1 (de) Berührungsbildschirm Texteingabe
US11157586B2 (en) Scoping searches within websites
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE102014002984A1 (de) Gestenvollendungspfadanzeige für gestenbasierte Tastaturen
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
DE102014011901A1 (de) Auf einem Vorrichtungskontext basierende Benutzerschnittstelle
DE112014005034T5 (de) Elektronische Vorrichtung und Verfahren zum Ausführen einer Anwendung darauf
JP2017211494A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003041000

Ipc: G06F0003048900

R012 Request for examination validly filed

Effective date: 20150205

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003041000

Ipc: G06F0003048900

Effective date: 20150309

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ADOBE INC., SAN JOSE, US

Free format text: FORMER OWNER: ADOBE SYSTEMS INCORPORATED, SAN JOSE, CALIF., US

R082 Change of representative

Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE