DE112019000650T5 - Anzeige-benutzerschnittstelle und verwandte systeme, verfahren und vorrichtungen - Google Patents

Anzeige-benutzerschnittstelle und verwandte systeme, verfahren und vorrichtungen Download PDF

Info

Publication number
DE112019000650T5
DE112019000650T5 DE112019000650.9T DE112019000650T DE112019000650T5 DE 112019000650 T5 DE112019000650 T5 DE 112019000650T5 DE 112019000650 T DE112019000650 T DE 112019000650T DE 112019000650 T5 DE112019000650 T5 DE 112019000650T5
Authority
DE
Germany
Prior art keywords
display
display system
gui
tactile
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019000650.9T
Other languages
English (en)
Inventor
Lowry DuRant Lewis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microchip Technology Inc
Original Assignee
Microchip Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microchip Technology Inc filed Critical Microchip Technology Inc
Publication of DE112019000650T5 publication Critical patent/DE112019000650T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Circuits Of Receivers In General (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

Ausführungsformen, die in dieser Offenbarung beschrieben sind, beziehen sich im Allgemeinen auf eine tastempfindliche Benutzerschnittstelle (UI), die mit einer graphischen Benutzerschnittstelle (GUI) eines an einer graphischen Überlagerung präsentierten Anzeige-Dienstprogramms zusammenwirkt und dazu verwendet werden kann, diese zu manipulieren, und Systeme und Verfahren zur Implementierung derselben. Einige Ausführungsformen der Offenbarung können in Anzeigesysteme integriert sein, einschließlich Anzeigesystemen ohne Einfassung.

Description

  • PRIORITÄTSANSPRUCH
  • Diese Anmeldung beansprucht die Priorität des Anmeldedatums der vorläufigen US-Patentanmeldung Serien-Nr. 62/625.629, eingereicht am 2. Februar 2018, für „ANZEIGE-BENUTZERSCHNITTSTELLE UND VERWANDTE VERFAHREN UND SYSTEME“ und beansprucht die Priorität des Anmeldedatums der US-Patentanmeldung Serien-Nr. 16/001.689, eingereicht am 6. Juni 2018, für eine „ANZEIGE-BENUTZERSCHNITTSTELLE UND VERWANDTE SYSTEME, VERFAHREN UND VORRICHTUNGEN“, welche auch die Priorität der vorläufigen US-Patentanmeldung Serien-Nr. 62/625.629 beansprucht, deren Inhalte und Offenbarung jeweils hiermit in ihrer Gesamtheit durch Bezugnahme aufgenommen sind.
  • TECHNISCHES GEBIET
  • Ausführungsformen der vorliegenden Offenbarung beziehen sich im Allgemeinen auf Benutzerschnittstellen und in bestimmten Ausführungsformen auf Überlagerungen von Bildschirmanzeige-Dienstprogrammen, die Benutzerschnittstellen enthalten.
  • STAND DER TECHNIK
  • Herkömmliche Anzeigesysteme (z. B., Monitore, Fernseher, usw.) schließen oft physische Drucktasten ein (üblicherweise einen Schaltmechanismus, der durch Drücken darauf aktiviert wird - z. B. zum Vorspannen der Schalter - und eine Feder lässt den Mechanismus in eine inaktive Position zurückkehren) zum Einstellen des Leitungseingangs, Helligkeit/Kontrast, Videoeinstellungen, Audioeinstellungen usw. Ein herkömmliches Anzeigesystem kann Drucktasten auf der Seite der Anzeigeeinfassung einschließen, wie beispielsweise die in 1A dargestellten Drucktasten 102 oder auf der Oberseite der Einfassung der Anzeigevorrichtung, wie zum Beispiel die in 1B gezeigten Drucktasten 104. Ein Benutzer eines Anzeigesystems kann die Drucktasten verwenden, um mit der Dienstanwendung des Anzeigesystems zusammenzuwirken (hierin auch einfach als „Anzeige-Dienstprogramm“ bezeichnet). Ein Anzeige-Dienstprogramm ist üblicherweise eine Software- oder Firmwareanwendung, die bestimmte Charakteristiken eines Anzeigesystems verwaltet (z. B. Signaleingabeauswahl, Anzeigehelligkeit, Lautstärke, Auflösung usw.), üblicherweise durch Einstellen eines oder mehrerer Werte, die solchen Eigenschaften zugeordnet sind. Ein Benutzer kann mit einem Dienstprogramm durch eine Kombination der Drucktasten und einer graphischen Benutzerschnittstelle (engl. graphical user interface, GUI) interagieren, das auf der Anzeige eines Anzeigesystems präsentiert wird, wie beispielsweise der in 2A dargestellten Anzeige-Dienstprogramm-GUI.
  • Drucktasten an der Einfassung stellen eine untere Grenze für die Einfassungsabmessungen dar, das heißt, die Tasten sind das größte Element auf der Einfassung. Ferner nehmen die Schalter, die die Knöpfe umfassen, Raum innerhalb der Einfassung ein. Folglich beschränken die Tasten auf herkömmlichen Anzeigen die Möglichkeiten zur Herstellung von dünnen Anzeigen.
  • Andere Nachteile und Mängel bei Anzeigesystemen können bestehen. Die vorstehende Beschreibung ist der Stand der Technik, wie er dem Erfinder dieser Offenbarung bekannt ist, und ist nicht anerkannter Stand der Technik, und sollte auch nicht so aufgefasst werden.
  • Figurenliste
  • Die Zwecke und Vorteile der Ausführungsformen der Offenbarung werden Durchschnittsfachleuten auf dem Gebiet aus der detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen wie folgt ersichtlich:
    • 1A und 1B zeigen jeweils seitlich und an der Oberseite der Einfassung eines herkömmlichen Anzeigesystems angeordnete Drucktasten.
    • 2A zeigt eine grafischen Benutzerschnittstelle (GUI) eines Dienstprogramms gemäß dem Stand der Technik.
    • 2B zeigt ein funktionelles Blockdiagramm eines Anzeigesystems gemäß dem Stand der Technik.
    • 3A und 3B zeigen ein Anzeigesystem einschließlich einer tastempfindlichen Benutzerschnittstelle und einer GUI mit einem Anzeige-Dienstprogramm gemäß Ausführungsformen der Offenbarung.
    • 3C zeigt ein Beispiel eines Benutzers, der mit einem Anzeigesystem der 3A und 3B interagiert, gemäß Ausführungsformen der Offenbarung.
    • 4 zeigt ein funktionales Blockdiagramm eines Anzeigesystems gemäß einer oder mehreren Ausführungsformen der Offenbarung.
    • 5 zeigt ein funktionelles Blockdiagramm einer tastempfindlichen Dienstprogramm-GUI gemäß einer oder mehreren Ausführungsformen der Offenbarung.
    • 6A zeigt ein Flussdiagramm zum Aktivieren einer Dienstprogramm-GUI zur Darstellung mithilfe einer grafischen Überlagerung gemäß Ausführungsformen der Offenbarung.
    • 6B zeigt ein Flussdiagramm von Vorgängen, die dem Darstellen einer Anzeige-Dienstprogramm-GUI bei einer grafischen Überlagerung gemäß Ausführungsformen der Offenbarung zugeordnet sind.
    • 6C zeigt ein Flussdiagramm eines Prozesses, der dem Anzeigen einer Anzeige-Dienstprogramm-GUI durch eine grafische Überlagerung gemäß Ausführungsformen der Offenbarung zugeordnet ist.
    • 6D zeigt ein Flussdiagramm eines Prozesses im Zusammenhang mit der Verarbeitung der Manipulation einer Anzeige-Dienstprogramm-GUI, die durch eine grafische Überlagerung präsentiert wird, gemäß Ausführungsformen der Offenbarung.
    • 6E zeigt ein Flussdiagramm eines Prozesses im Zusammenhang mit der Verarbeitung der Manipulation einer Anzeige-Dienstprogramm-GUI, präsentiert durch eine grafische Überlagerung gemäß Ausführungsformen der Offenbarung.
    • 7A zeigt ein Flussdiagramm eines Prozesses zur Verwendung eines Anzeigesystems gemäß Ausführungsformen der Offenbarung.
    • 7B zeigt ein Flussdiagramm zum Steuern einer Anzeige während der Verwendung gemäß Ausführungsformen der Offenbarung.
  • ART(EN) ZUM AUSFÜHREN DER ERFINDUNG
  • In der folgenden detaillierten Beschreibung wird auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen zur Veranschaulichung spezifische Beispiele für Ausführungsformen gezeigt sind, in denen die vorliegende Offenbarung ausgeführt werden kann. Diese Ausführungsformen werden ausreichend detailliert beschrieben, um es einem Durchschnittsfachmann zu ermöglichen, die vorliegende Offenbarung auszuführen. Es können jedoch auch andere Ausführungsformen verwendet werden und Änderungen der Struktur, des Materials und des Prozesses können vorgenommen werden, ohne vom Umfang der Offenbarung abzuweichen.
  • Die hierin dargestellten Veranschaulichungen sollen keine tatsächlichen Ansichten eines bestimmten Verfahrens oder Systems oder einer bestimmten Vorrichtung oder Struktur sein, sondern sind lediglich idealisierte Darstellungen, die zur Beschreibung der Ausführungsformen der vorliegenden Offenbarung verwendet werden. Die hierin dargestellten Zeichnungen sind nicht notwendigerweise maßstabsgetreu. Ähnliche Strukturen oder Komponenten in den verschiedenen Zeichnungen können zur Vereinfachung für den Leser die gleiche oder eine ähnliche Nummerierung beibehalten; die Ähnlichkeit in der Nummerierung bedeutet jedoch nicht, dass die Strukturen oder Komponenten notwendigerweise in Größe, Zusammensetzung, Anordnung, Konfiguration oder einer anderen Eigenschaft identisch sind.
  • Gezeigte und beschriebene spezifische Implementierungen sind nur Beispiele und sollten nicht als der einzige Weg zur Implementierung der vorliegenden Offenbarung ausgelegt werden, sofern hierin nicht anders angegeben. Elemente, Schaltungen und Funktionen können in Blockdiagrammform gezeigt werden, um die vorliegende Offenbarung nicht durch unnötige Einzelheiten undeutlich werden zu lassen. Umgekehrt sind gezeigte und beschriebene spezifische Implementierungen nur beispielhaft und sollten nicht als die einzige Möglichkeit zur Implementierung der vorliegenden Offenbarung ausgelegt werden, sofern hierin nicht anders angegeben. Außerdem sind Blockdefinitionen und die Aufteilung von Logik zwischen verschiedenen Blöcken beispielhaft für eine spezifische Implementierung. Es ist für einen Durchschnittsfachmann ohne weiteres ersichtlich, dass die vorliegende Offenbarung durch zahlreiche andere Partitionierungslösungen ausgeführt werden kann. Details bezüglich Zeitüberlegungen und dergleichen wurden größtenteils weggelassen, wenn solche Details nicht notwendig sind, um ein vollständiges Verständnis der vorliegenden Offenbarung zu erhalten, und innerhalb der Fähigkeiten eines Durchschnittsfachmanns in dem relevanten Fachgebiet liegen.
  • Daher sollen die in der vorliegenden Offenbarung bereitgestellten Beispiele dazu beitragen, dass ein Durchschnittsfachmann die Offenbarung und die offenbarten Ausführungsformen ausführen kann. Die Verwendung der Begriffe „beispielhaft“, „durch Beispiele“, „zum Beispiel“ und dergleichen bedeutet, dass die zugehörige Beschreibung erläuternd und nicht einschränkend ist, und während der Umfang der Offenbarung die Beispiele der vorliegenden Offenbarung und ihre rechtlichen Entsprechungen umfassen soll, ist die Verwendung solcher Begriffe nicht dazu bestimmt, den Umfang einer Ausführungsform oder dieser Offenbarung auf die spezifizierten Komponenten, Schritte, Merkmale, Funktionen oder dergleichen zu beschränken.
  • Ein Durchschnittsfachmann wird verstehen, dass Informationen und Signale unter Verwendung einer Vielfalt verschiedener Technologien und Techniken dargestellt werden können. Zum Beispiel können Daten, Anweisungen, Befehle, Informationen, Signale, Bits, Symbole und Chips, auf die in dieser Beschreibung Bezug genommen werden kann, durch Spannungen, Ströme, elektromagnetische Wellen, Magnetfelder oder -partikel, optische Felder oder Partikel oder eine beliebige Kombination davon dargestellt werden. Einige Zeichnungen können Signale zur Übersichtlichkeit der Darstellung und Beschreibung als ein einzelnes Signal veranschaulichen. Es ist für einen Durchschnittsfachmann ersichtlich, dass das Signal einen Bus von Signalen darstellen kann, wobei der Bus eine Vielfalt von Bitbreiten aufweisen kann und die vorliegende Offenbarung anhand einer beliebigen Anzahl von Datensignalen, einschließlich eines einzelnen Datensignals, implementiert werden kann.
  • Die verschiedenen veranschaulichenden logischen Blöcke, Module und Schaltungen, die in Verbindung mit den hierin offenbarten Ausführungsformen beschrieben werden, können mit einem Allzweckprozessor, einem Spezialprozessor, einem digitalen Signalprozessor (DSP), einer anwendungsspezifischen integrierten Schaltung (ASIC), einem Field Programmable Gate Array (FPGA) oder einer anderen programmierbare Logikvorrichtung, einer diskreten Gate- oder Transistorlogik, diskreten Hardwarekomponenten oder einer beliebigen Kombination davon, die zum Ausführen der hierin beschriebenen Funktionen ausgelegt sind, implementiert oder ausgeführt werden.
  • Ein Allzweckprozessor (der hierin auch als Host-Prozessor oder einfach als Host bezeichnet werden kann) kann ein Mikroprozessor sein, alternativ kann der Prozessor jedoch ein beliebiger herkömmlicher Prozessor, Controller, Mikrocontroller oder Zustandsautomat sein. Ein Prozessor kann auch als eine Kombination von Rechenvorrichtungen, wie etwa eine Kombination aus einem DSP und einem Mikroprozessor, eine Vielzahl von Mikroprozessoren, ein oder mehrere Mikroprozessoren in Verbindung mit einem DSP-Kern oder irgendeine andere derartige Konfiguration implementiert sein. Ein Universalcomputer einschließlich eines Prozessors wird als Spezialcomputer angesehen, während der Universalcomputer so konfiguriert ist, dass er Rechenanweisungen (z. B. einen Softwarecode) ausführt, die sich auf Ausführungsformen der vorliegenden Offenbarung beziehen.
  • Ausführungsformen der Offenbarung können in Bezug auf einen Prozess beschrieben werden, der als ein Flussdiagramm, ein Fließschema, ein Strukturdiagramm oder ein Blockdiagramm dargestellt ist. Obwohl ein Flussdiagramm Betriebsvorgänge als einen sequentiellen Prozess beschreiben kann, können viele dieser Vorgänge in einer anderen Reihenfolge, parallel oder im Wesentlichen gleichzeitig durchgeführt werden. Außerdem kann die Reihenfolge der Vorgänge neu geordnet werden. Ein Prozess kann einem Verfahren, einem Thread, einer Funktion, einer Prozedur, einer Unterroutine, einem Unterprogramm usw. entsprechen. Weiterhin können die hierin offenbarten Verfahren in Hardware, Software oder beiden implementiert sein. Bei Implementierung in Software können die Funktionen als eine oder mehrere Anweisungen oder ein Code auf computerlesbaren Medien gespeichert oder übertragen werden. Computerlesbare Medien schließen sowohl Computerspeichermedien als auch Kommunikationsmedien, einschließlich aller Medien, die die Übertragung eines Computerprogramms von einem Ort zu einem anderen erleichtern, ein.
  • Jede Bezugnahme auf ein Element hierin unter Verwendung einer Bezeichnung, wie „erste/r/s“, „zweite/r/s“ usw. schränkt die Menge oder Reihenfolge dieser Elemente nicht ein, es sei denn, eine solche Einschränkung wird ausdrücklich angegeben. Vielmehr können diese Bezeichnungen hierin als ein zweckmäßiges Verfahren zum Unterscheiden zwischen zwei oder mehr Elementen oder Instanzen eines Elements verwendet werden. Ein Verweis auf erste und zweite Elemente bedeutet also nicht, dass dort nur zwei Elemente eingesetzt werden dürfen oder dass das erste Element dem zweiten Element in irgendeiner Weise vorhergehen muss. Darüber hinaus kann ein Satz von Elementen, sofern nicht anders angegeben, ein oder mehrere Elemente umfassen.
  • Wie hierin verwendet, bedeutet der Begriff „im Wesentlichen“ in Bezug auf einen gegebenen Parameter, eine Eigenschaft oder eine Bedingung und schließt in einem für einen Durchschnittsfachmann verständlichen Ausmaß ein, dass der gegebene Parameter, die gegebene Eigenschaft oder die gegebene Bedingung innerhalb eines kleinen Grades an Varianz erfüllt ist, wie beispielsweise innerhalb akzeptabler Fertigungstoleranzen.
  • Beispielhaft kann in Abhängigkeit von dem bestimmten Parameter, der Eigenschaft oder der Bedingung, der bzw. die im Wesentlichen erfüllt ist, der Parameter, die Eigenschaft oder die Bedingung zu mindestens 90 % erfüllt, zu mindestens 95 % erfüllt oder sogar zu mindestens 99 % erfüllt sein.
  • Die in dieser Offenbarung beschriebenen verschiedenen Ausführungsformen beziehen sich im Allgemeinen auf eine tastempfindliche Benutzerschnittstelle (UI), die mit einer grafischen Benutzerschnittstelle (GUI) eines Anzeige-Dienstprogramms interagiert und benutzt werden kann, um diese zu manipulieren (auch bezeichnet als „grafische Videoüberlagerung“, wenn hauptsächlich über eine Videoeingabe präsentiert). Ausführungsformen der Offenbarung können in Anzeigesysteme, einschließlich einfassungsloser Anzeigesysteme, einbezogen sein. Einige Ausführungsformen einfassungsloser Anzeigesysteme können durch Abmessungen gekennzeichnet sein, die lediglich durch die Abmessungen der Anzeige, der Anzeigeelektronik, der Elektronik-Tastschnittstelle und eine Dicke der Gehäusewände begrenzt ist.
  • Wie hierin verwendet, bedeutet „Anzeigesystem“ eine Ausgabevorrichtung, die Informationen in visueller Form und/oder Audioform bereitstellt und zum Beispiel Monitore und Fernsehgeräte umfasst. Ein Anzeigesystem kann eine Anzeige, eine Schaltung/Elektronik, eine Stromversorgung und ein Gehäuse einschließen. Beispiele für Anzeigen schließen eine Flüssigkristallanzeige (LCD), Dünnschichttransistor-LCDs (TFT-LCDs), Leuchtdioden-Anzeigen (LED), organische LED-Anzeigen, Plasmaanzeigen und Kathodenstrahlröhren-Anzeigen (CRT) ein. Ein Anzeigesystem kann auch Schnittstellen zum Empfangen eines oder mehrerer von Video- und Audiosignalen einschließen, beispielsweise Koaxialkabel, Videografikfeld, digitale visuelle Schnittstelle (DVI), hochauflösende Multimedia-Schnittstelle (HDMI), DisplayPort, Thunderbolt, Niederspannungs-Differenzsignalisierung (LVDS) und andere Formate und Signale. Die Elektronik kann die verschiedenen Audio- und Videosignale in andere Formate umwandeln, um eine Anzeige der visuellen Informationen zu erleichtern.
  • Sofern nicht anders angegeben, bezieht sich die Verwendung hierin von „vorne“, „vor“, „hinten“ oder „hinter“ auf ein Anzeigesystem, wobei sich „vorne“ auf die Anzeigeseite des Anzeigesystems bezieht und „hinten“ die der Anzeige des Anzeigesystems gegenüberliegende Seite (üblicherweise als eine Wand eines Gehäuses definiert) bedeutet, und „vor“ bedeutet die Richtung von der hinteren Oberfläche zu der Anzeige, und „hinter“ bedeutet die Richtung von der Anzeige zu der Rückseite.
  • Verschiedene Ausführungsformen der hierin beschriebene Anzeigesysteme können eine oder mehr Kontaktschnittstellen, einschließlich tastempfindlicher Benutzerschnittstellen einschließen. Wie für die Zwecke der hierin beschriebenen Ausführungsformen zu verstehen ist, kann ein Kontaktsensor auf den Kontakt eines Objekts (z. B. eines Fingers oder Stifts) mit oder auf die Nähe des Objekts zu einem kontaktempfindlichen Bereich der Tastschnittstelle reagieren. In dieser Offenbarung nehmen „Kontakt“ und „Berührung“ im Allgemeinen auf den physischen Kontakt eines Objekts mit einem kontaktempfindlichen Bereich Bezug, können aber auch die unmittelbare Nähe eines Objekts umfassen, welche eine messbare Reaktion durch einen Kontaktsensor erzeugt. Weiterhin nimmt ein Verweis auf einen Bereich oder ein Element als „kontaktempfindlich“ oder (z. B., ein „kontaktempfindlicher Bereich“ oder eine „kontaktempfindliche Taste“) auf einen physischen Bereich oder ein Element einer Tastschnittstelle Bezug, an der ein Kontaktsensor auf den Kontakt eines Objekts reagieren kann. In dem Fall eines kontaktempfindlichen Bereichs, bei dem es sich um eine Oberfläche handelt, kann der kontaktempfindliche Bereich hierin als „kontaktempfindliche Oberfläche“ bezeichnet werden. Kontaktsensoren können verschiedene Techniken verwenden, um den Kontakt zu erfassen, einschließlich projektiver Erfassungstechniken (z. B. Eigenkapazität, wechselseitige Kapazität und Kombinationen davon), Widerstandserfassung, Infrarotmessung, optische Erfassung und Kombinationen davon. Wenn ein tastempfindlicher Bereich, Kontaktsensor, oder eine Steuerung in eine Tastschnittstelle eingebunden ist, oder dies vorgesehen ist, dann kann er auch als ein tastempfindlicher Bereich, ein Tastsensor, oder eine Taststeuerung, je nach Fall, bezeichnet werden.
  • Eine kontaktempfindliche UI kann verwendet werden (z. B. durch einen Benutzer), um eine GUI zu manipulieren. Zum Beispiel schließt eine GUI üblicherweise einen oder mehrere Anzeigebereiche und aktiven/aktivierbaren Bereiche ein. Wie in dieser Offenbarung verwendet, ist ein Anzeigebereich ein Bereich einer GUI, der Informationen für den Benutzer anzeigt. Ein aktivierbarer Bereich ist ein Bereich einer GUI, wie zum Beispiel eine Taste, ein Schieberegler oder ein Menü, der es dem Benutzer ermöglicht, eine bestimmte Maßnahme in Bezug auf die GUI (z. B. wenn manipuliert) durchzuführen. Einige Anzeigebereiche sind auch aktivierbare Bereiche insofern, als sie Informationen anzeigen und das Durchführen einiger Maßnahmen durch den Benutzer ermöglichen. In einer kontaktempfindlichen GUI kann das Kontaktieren eines kontaktempfindlichen Bereichs, auf dem ein aktivierbarer Bereich angezeigt wird, diesen Bereich aktivieren (z. B. das Auswählen einer GUI-Taste). Aktivierbare Bereiche können als GUI-Elemente/Objekte angezeigt werden, z. B. Tasten, Schieberegler, wählbare Bereiche, Menüs usw. in verschiedenen Formen und Größen.
  • Im Allgemeinen wird, wenn ein Kontakt an einem kontaktempfindlichen Bereich erfasst wird, ein Prozess verwendet, um die aktivierbaren Bereiche der GUI zu bestimmen, denen der Kontakt entspricht, falls zutreffend. Wenn beispielsweise eine „EINGABE“-Taste mit dem Finger angetippt wird, wird der Kontakt gemessen und als Reaktion auf den gemessenen Kontakt bestimmt ein Prozess, dass der Kontakt auf der EINGABE-Taste war. Die EINGABE-Taste ist ein aktivierbarer Bereich, so dass Ereignisse in der tastempfindlichen GUI und/oder dem zugrunde liegenden Anwendungsprogramm, das die GUI aufgerufen hat, erzeugt werden.
  • 2B zeigt ein funktionelles Blockdiagramm eines Anzeigesystems 200, das eine Anzeige-Dienstprogramm-GUI einbindet, wie die Anzeige-Dienstprogramm-GUI 230 (siehe 2A), gemäß dem Stand der Technik wie von den Erfindern verstanden. Der Audio/Video-Eingang (A/V) 202 stellt einem Videosignalprozessor 206 ein Videosignal bereit, das eine Pixelabbildung und eine Videoskalierung auf dem Videosignal durchführt und eine Bitmap erzeugt. Das Anzeige-Dienstprogramm 214 kann über eine Anzeige-Dienstprogramm-GUI 230 dem Videosignalprozessor 206 zur Präsentation auf der Anzeigeausgabe 222 Informationen bereitstellen. Eine Anzeigesteuerung 216 kann die Anzeigeausgabe 222 gemäß der Ausgabe des Videosignalprozessors 206, beispielsweise einer Bitmap, steuern. Ein Benutzer kann mit der Anzeige-Dienstprogramm-GUI 230 durch Drucktasten 232 (siehe 2A), die mit der/den Dienstprogrammeingabe(n) 218 gekoppelt sind, interagieren.
  • Wie bereits oben erwähnt, schränkt die Verwendung von Drucktasten 232 die Fähigkeit des Anzeigesystemherstellers ein, eine Einfassung zu beseitigen, oder auch nur die Abmessungen einer Einfassung zu verringern, und beschränkt daher ihre Fähigkeit zur Reduzierung der Abmessungen, in Bezug auf die Tiefe oder Dicke eines Anzeigesystems. Anders ausgedrückt setzen Drucktasten 232 eine Begrenzung für die Abmessungen einer Einfassung von Vorrichtungen wie Fernsehgeräten und Monitoren und Vorrichtungen, die Anzeigesysteme enthalten, wie Tablet-Computer, Mobiltelefone und Desktop-Computer.
  • Die 3A und 3B zeigen Beispiele eines Anzeigesystems 300 gemäß Ausführungsformen der Offenbarung. Während das in 3A dargestellte Anzeigesystem 300 ein einfassungsloser LCD-Monitor ist, werden speziell andere Anzeigetypen und Profile in Betracht gezogen. Die Anzeige 302 des Anzeigesystems 300 kann eine graphische Videoüberlagerung präsentieren, die visuelle Tasten 304 umfasst, die auch als „virtuelle“ Tasten für Monitoreinstellungen charakterisiert werden können. Die visuellen Tasten 304 können einem Anzeige-Dienstprogramm zugeordnet sein, das eine oder mehrere Eigenschaften des Anzeigesystems 300 steuert. In einer Ausführungsform können die visuellen Tasten „Menü“, „Helligkeit“, „Kontrast“ und „Beenden“ einschließen. Andere aktivierbare GUI-Elemente können eingeschlossen sein, zusätzlich oder alternativ zu den visuellen Tasten 304. Weiterhin können andere GUI-Elemente, die anderen Anzeigesystemeinstellungen zugehörig sind, von der Anzeige-Dienstprogramm-GUI präsentiert werden. Schließlich können andere Layouts als eine vertikale Liste verwendet werden, beispielsweise eine horizontale Liste, eine Wählscheiben- oder Drehanordnung oder Kombinationen davon. Solche Layouts können Baumstrukturen einbinden. In verschiedenen Ausführungsformen können der Typ, die Form und die Anzahl von GUI-Elementen in einer GUI-Anwendung definiert werden, die in dem Anzeigesystem 300 ausgeführt wird.
  • 3B zeigt eine Ausschnittsansicht des Anzeigesystems 300, mit einer Vorderseite der Bildschirmansicht (einschließlich der Anzeige 302) auf der rechten Seite, und einer Ansicht der Rückseite des Monitors auf der linken Seite. 3B zeigt eine Beziehung zwischen den kontaktempfindlichen Tasten 306 (z. B., kapazitive Tast-Schaltflächen („Cap-Touch“)) und visuellen Tasten 304 (siehe 3A). Auf der Rückseite der Monitoransicht sind vier kontaktempfindliche Tasten 306 gezeigt, die kontaktempfindliche Oberflächen sein können, die auf der Rückseite 308 des Anzeigesystems 300 angeordnet sind. Ebenfalls gezeigt ist ein Finger-Näherungssensor (oder Hand-Näherungssensor) 310, der eine kontaktempfindliche Oberfläche sein kann, die auf der Rückseite 308 des Anzeigesystems 300 angeordnet ist. Auf der Vorderseite der Bildschirmansicht ist eine grafische Überlagerung einschließlich der visuellen Tasten 304 für Monitoreinstellungen dargestellt. Die kontaktempfindlichen Tasten 306 und die visuellen Tasten 304 befinden sich in im Wesentlichen spiegelnden Positionen auf der Rückseite 308 bzw. der Anzeige 302. Mit anderen Worten, die Position der kontaktempfindlichen Tasten 306 relativ zu der oberen linken Ecke 314 ist im Wesentlichen die Position der visuellen Tasten 304 relativ zu der oberen rechten Ecke 312. In einer Ausführungsform kann ein ergonomischer Versatz in den jeweiligen relativen Positionen vorliegen, um eine bequeme Handhaltung und Fingerhaltung relativ zu den Cap-Touch-Tasten 306 zu ermöglichen.
  • In einigen Ausführungsformen sind entweder die Anzahl, Abmessungen und Form der kontaktempfindlichen Tasten 306 und visuellen Tasten 304 oder mehrere derselben nicht im Wesentlichen deckungsgleich. Zum Beispiel kann es mehr oder weniger kontaktempfindliche Tasten 306 geben als visuelle Tasten 304; und die Form und Abmessungen einer oder mehrerer visueller Tasten 304 können sich von der Form und den Abmessungen einer oder mehrerer der kontaktempfindlichen Tasten 306 unterscheiden.
  • 3C zeigt ein Anzeigesystem 300 in Verwendung: Die Finger und die Hand eines Benutzers greifen um die rechte Seite des Anzeigesystems 300, so dass die Finger in der Lage sind, eine oder mehrere der kontaktempfindlichen Tasten 306 zu manipulieren, die den visuellen Tasten 304 zugeordnet sind.
  • Nun zurück zu 3B: dort ist auch eine Ausführungsform eines Fingernäherungssensors 310 gezeigt. Der Fingernäherungssensor 310 kann eine kontaktempfindliche Oberfläche sein, die sich über die vertikale Länge eines Bereichs erstreckt, der die Cap-Touch-Taste 306 aufweist. Eine Hand oder ein anderes Objekt, das in Kontakt mit dem Fingernäherungssensor 310 kommt (zum Beispiel, wenn ein Benutzer zu den Cap-Touch-Tasten 306 greift) kann die Aktivierung einer Anzeige-Dienstprogramm-GUI einschließlich der visuellen Tasten 304 auslösen, die dann in einer grafischen Überlagerung präsentiert werden kann.
  • Obwohl die kontaktempfindlichen Tasten 306 in 3A und 3B als separate kontaktempfindliche Oberflächen an spezifischen Stellen auf der Rückseite 308 gezeigt werden, ist die Offenbarung nicht so begrenzt. Zum Beispiel kann in einer Ausführungsform eine einzelne tastempfindliche Oberfläche vorhanden sein, und als Reaktion auf das Erkennen eines Fingers, einer Hand und/oder einer anfänglichen Berührung auf der einzelnen tastempfindlichen Oberfläche kann die Dienstprogramm-Tast-GUI 348 (siehe 4) konfiguriert sein, um verschiedene Stellen auf der einzelnen tastempfindlichen Oberfläche visuellen Tasten 304 zuzuordnen. In einer Ausführungsform kann die Dienstprogramm-Tast-GUI 348 verschiedene Stellen auf der einzelnen tastempfindlichen Oberfläche als Reaktion auf die berichteten Positionsinformationen, z. B. von einem tastempfindlichen Subsystem, zuordnen. Ausführungsformen einer einzelnen tastempfindlichen Oberfläche können so eingerichtet sein, dass ein Benutzer eine GUI mit seinem Finger durch Antippen, Gleiten, Drehen und Kombinationen davon manipulieren kann.
  • In einer Ausführungsform kann die Rückseite 308 physische topographische Merkmale aufweisen, beispielsweise Rillen, Texturierung, Grate oder Kombinationen davon. In einer Ausführungsform können die physischen Merkmale einem tastempfindlichen Bereich zugeordnet sein, der im Allgemeinen Cap-Touch-Tasten aufweist, und in einer anderen Ausführungsform können die physischen Merkmale einzelne Cap-Touch-Tasten definieren. In solchen Ausführungsformen können die physischen Merkmale ein taktiles Feedback an einen Benutzer eines Anzeigesystems 300 bereitstellen.
  • 4 zeigt ein funktionelles Blockdiagramm eines Anzeigesystems 300 gemäß einer oder mehreren Ausführungsformen der Offenbarung. Ein Anzeigesystem 300 kann ein Mediensignal, das Medieninformationen aufweist, an einem audio-visuellen Eingang (A/V-Eingang) 322 empfangen. Ein Mediensignal kann Audioinformation und/oder Videoinformation einschließen, ist aber nicht darauf beschränkt. Der A/V-Eingang 322 kann jede dem Durchschnittsfachmann bekannte Schnittstelle zur Aufnahme von Medieninformationen einschließen, einschließlich analoge Schnittstellen, digitale Schnittstellen, und Kombinationen davon, einschließlich ohne Begrenzung Koaxialkabel, Video Graphics Arrays (VGA und SVGA), digitale visuelle Schnittstellen (DVI), hochauflösende multimediale Schnittstellen (HDMI), DisplayPort, Thunderbolt, Niederspannungs-Differenzsignalisierung (LVDS), und andere Formate und Signale.
  • In einer Ausführungsform schließt das Anzeigesystem 300 sowohl die Anzeigeausgabe 344 als auch die Audioausgabe 342 ein, und Videoinformationen werden an einem Videoprozessor 326 empfangen, und die Audioinformationen werden von einem Audioprozessor 324 empfangen. Der Audioprozessor 324 kann operativ mit einem Audio-Digital-Analog-Wandler (DAC) 332 gekoppelt sein, der dazu eingerichtet ist, verarbeitete analoge Audiosignale in digitale Signale umzuwandeln, die von einer Audioausgabe 342 (z. B. einem Lautsprecher) ausgegeben werden können. In anderen Ausführungsformen kann es keine Audio-Ausgabe oder Audio-DAC 332 geben, und die Medieninformation kann keine Audioinformation enthalten. Alternativ können, wenn Audioinformationen enthalten sind, diese nicht verarbeitet (z. B. ignoriert) werden.
  • Der Videoprozessor 326 kann dazu eingerichtet sein, um die Videoinformation zu verarbeiten und Videoinformationen in einem Format zu erzeugen, das von der Anzeigesteuerung 338 zur Steuerung der Anzeigeausgabe 344 nutzbar ist. Der Videoprozessor 326 kann einen Pixelmapper 330 und einen Videoskalierer 328 einschließen. Der Pixelmapper 330 kann eingerichtet sein, um Videoinformationen auf spezifische Anzeigepixel unter Verwendung von Techniken abzubilden, die dem Durchschnittsfachmann bekannt sind. In einer Ausführungsform kann die Pixelabbildung eine 1:1 Pixelabbildung sein, die Offenbarung ist jedoch nicht auf 1:1 Pixelabbildungen beschränkt. Der Videoskalierer 328 kann eingerichtet sein, um die pixelabgebildete Videoinformation auf eine eingestellte Auflösung zu skalieren. In einer Ausführungsform kann es sich bei der Auflösung um eine native Auflösung der Anzeigeausgabe 344 handeln. Der Videoprozessor 326 kann die verarbeitete Information als eine Bitmap (oder Pixmap, oder ein Dateiformat, das Bitmaps einbindet, zum Beispiel, geräteunabhängige Bitmaps, verschachtelte Bitmaps, tragbare Bitmaps, und komprimierten Formen davon) einem Bildschirmanzeigeprozessor 336 bereitstellen.
  • In einigen Ausführungsformen kann die Videoinformation ein Standardbild (z. B. einen blauen Bildschirm) umfassen, und dieses Standardbild kann anzeigen, dass kein Videosignal bereitgestellt wurde oder verarbeitet wird. Das Standardbild kann als Reaktion auf ein „Nichteingabesignal“ präsentiert werden, das in dem Anzeigesystem 300 gespeichert wird.
  • Der Bildschirmanzeigeprozessor 336 kann dazu eingerichtet sein, um die Bitmap mit visuellen Informationen zu verarbeiten, die einer grafischen Überlagerung zugeordnet sind. In einer Ausführungsform kann der Bildschirmanzeigeprozessor 336 eine Bitmap von einem Bildpuffer (nicht gezeigt) auslesen. In einer anderen Ausführungsform kann der Bildschirmanzeigeprozessor 336 eine Bitmap empfangen, bevor er sie einem Bildpuffer bereitstellt. In noch einer anderen Ausführungsform kann der Bildschirmanzeigeprozessor 336 in dem Videoprozessor 326 enthalten sein.
  • Der Bildschirmanzeigeprozessor 336 kann dazu eingerichtet sein, eine Bitmap zu verarbeiten, um visuelle Informationen zur Anzeige einer grafischen Überlagerung einzuschließen, beispielsweise eine Überlagerung eines Anzeige-Dienstprogramms, die in 3A und 3B gezeigt wird. Die Verarbeitung der Bitmap kann das Überschreiben von Informationen auf die Bitmap mit visuellen Informationen in Bezug auf eine Überlagerung einschließen. Die überschriebenen Informationen können Pixeln entsprechend einer oder mehreren Stellen auf der Anzeigenausgabe 344 zugeordnet werden, an denen eine grafische Videoüberlagerung, einschließlich einer Dienstprogramm-GUI, angezeigt werden kann. In Fällen, in denen es keine visuellen Informationen zur Anzeige bei einer grafischen Video-Überlagerung gibt, kann der Bildschirmanzeigeprozessor 336 eine Bitmap passieren, ohne diese zu verarbeiten. Der Bildschirmanzeigeprozessor 336 kann dazu eingerichtet sein, um eine überlagerte Bitmap bereitzustellen. Die Anzeigesteuerung 338 kann dazu eingerichtet sein, um die Anzeigeausgabe 344 als Reaktion auf die überlagerte(n) Bitmap(s) zu steuern.
  • Der Bildschirmanzeigeprozessor 336 kann dazu eingerichtet sein, um visuelle Überlagerungsinformationen von einem Anzeige-Dienstprogramm 334 zu empfangen. Das Anzeige-Dienstprogramm 334 kann so eingerichtet sein, dass es überlagerte visuelle Informationen für den Bildschirmanzeigeprozessor 336 bereitstellt, sowie Anzeigeneigenschaften des Anzeigesystems 300 in Reaktion auf eines oder mehrere Ereignisse, die von einer Dienstprogramm-Tast-GUI 348 empfangen werden, betriebsfähig steuert. Die Bereitstellung von visuellen Überlagerungsinformationen zur Anzeige auf einem Bildschirmanzeigeprozessor 336 kann, zum Beispiel, die Bereitstellung einer visuellen Information im Zusammenhang mit einer Anzeige-Dienstprogramm-GUI einschließen. Die visuellen Informationen können die Elemente einer GUI einschließen, die dem Bildschirm-Anzeige-Dienstprogramm zugeordnet ist, visuelle Indikatoren für die Manipulation (z. B., durch einen Benutzer) einer GUI, und visuelle Indikatoren der Einstellungen die den Eigenschaften des Anzeigesystems 300 zugeordnet sind.
  • Das Anzeige-Dienstprogramm 334 kann dazu eingerichtet sein, um Informationen über eine Benutzermanipulation von Elementen einer Anzeige-Dienstprogramm-GUI von einer Dienstprogramm-Tast-GUI 348 zu empfangen. Die Dienstprogramm-Tast-GUI 348 kann dazu eingerichtet sein, um Ereignisse als Reaktion auf Positionsinformationen zu erzeugen, die einem Kontakt zugeordnet sind, der durch ein tastempfindliches Subsystem 346 erfasst wird. In einer Ausführungsform kann die Dienstprogramm-Tast-GUI 348 Positionsinformationen für die GUI Elemente auflösen und eines oder mehrere GUI-Elemente als Reaktion auf die aufgelösten Positionsinformationen aktivieren. Eine ereignisgesteuerte GUI, die einem überlagerten Bildschirm-Anzeige-Dienstprogramm zugeordnet ist, kann im Allgemeinen so betrieben werden, wie es von einem Durchschnittsfachmann verstanden wird.
  • Das tastempfindliche Subsystem 346 kann eingerichtet sein, um Positionsinformationen zu erfassen und zu bestimmen, die einem Kontakt an einem tastempfindlichen Eingang 340 zugeordnet sind. In verschiedenen Ausführungsformen kann der tastempfindliche Eingang 340 kontaktempfindliche Oberflächen wie die tastempfindlichen Schaltflächen 306 (siehe z. B., 3B) einschließen. Zum Beispiel kann das tastempfindliche Subsystem 346 eine Form der projizierten Kapazitätserfassung verwenden, die eine Erfassung durch die Eigenkapazität, gegenseitige Kapazität, oder Kombinationen davon einschließt.
  • In einer Ausführungsform können eines oder mehrere des tastempfindlichen Subsystems 346, der Dienstprogramm-Tast-GUI 348 und des Anzeige-Dienstprogramms 334 auf einem Mikrocontroller implementiert sein. Der Mikrocontroller kann ausreichend Verarbeitungskerne und Speicher aufweisen, um eine oder mehrere der Funktionen des tastempfindlichen Subsystems 346, der Dienstprogramm-Tast-GUI 348 und des Anzeige-Dienstprogramms 334 auszuführen. In einer Ausführungsform ist der Mikrocontroller eine Anzeigesteuerung mit einem Speicher und einem Mikroprozessor und dazu eingerichtet, um eine Anzeige zu steuern. In einer solchen Ausführungsform können eine oder mehrere der Dienstprogramm-Tast-GUI 348 und des Anzeige-Dienstprogramms 334 in einem Programmspeicher der Anzeigesteuerung installiert sein.
  • In einigen Ausführungsformen können eines oder mehrere des Subsystems 346, der Dienstprogramm-Tast-GUI 348 und des Anzeige-Dienstprogramms 334 als eine eingebettete Einheit, wie zum Beispiel ein Peripheriegerät, auf dem Mikrocontroller implementiert sein. In einer Ausführungsform kann eine eingebettete Einheit dazu eingerichtet sein, um eine oder mehrere Kernoperationen durchzuführen, ohne einen Mikroprozessor des Mikrocontrollers zu unterbrechen. In einer Ausführungsform kann eine eingebettete Einheit eine digitale Logikschaltung oder eine konfigurierbare Zustandsmaschine einschließen, die dazu eingerichtet ist, um zumindest einige der Vorgänge der eingebetteten Einheit zu steuern. Ein Durchschnittsfachmann wird viele Vorteile in Bezug auf eine solche Architektur erkennen, Beispiele schließen ein Einsparen von Raum in einem Anzeigesystem mit weniger elektronischen Komponenten, weniger Zwischenverbindungen, und hoch integrierter Kontakterfassung und GUI-Funktionen zur Verbesserung der Interoperabilität ein.
  • 5 zeigt eine Ausführungsform einer Dienstprogramm-Tast-GUI 348, die einen Dienstprogramm-GUI-Elementmanager 350, Dienstprogramm-Ereignisabhörer 352 und eine Anzeige-Dienstprogrammschnittstelle 354 einschließt. Der Dienstprogramm-GUI-Elementmanager 350 kann dazu eingerichtet sein, um spezifische Elemente einer Dienstprogramm-GUI basierend auf Positionsinformationen und einer GUI-Definition 356 zu bestimmen. Basierend auf den bestimmten Elementen der GUI kann der Dienstprogramm-GUI-Elementmanager 350 ein oder mehrere Ereignisse erzeugen und bereitstellen (z. B. veröffentlichen), die den bestimmten Elementen zugeordnet sind. Die Verwendung der GUI-Ereignisabhörer 352a-352e (gemeinsam bezeichnet als Ereignisabhörer 352) kann zum Ausführen in Reaktion auf die empfangenen Ereignisse eingerichtet sein. Die Dienstprogramm-GUI-Ereignisabhörer 352 können an einem oder mehreren GUI-Elementen unter Verwendung von Techniken angebracht werden, die einem Durchschnittsfachmann bekannt sind.
  • 5 zeigt eine Ausführungsform von Dienstprogramm-GUI-Ereignisabhörern 352, einschließlich Abhörer zur Aktivierung/Deaktivierung 352a, Handpositionsänderung 352b, Menüänderung 352c, Tastenauswahl 352d und Schiebereglerauswahl 352e. Ein Durchschnittsfachmann wird erkennen, dass Hinzufügungen und Abzüge an den Ereignisabhörern 352, die in 5 gezeigt sind, vorgenommen werden können und durch diese Offenbarung speziell in Betracht gezogen werden.
  • 6A zeigt ein Flussdiagramm zum Aktivieren einer Anzeige-Dienstprogramm-GUI zur Darstellung mithilfe einer grafischen Überlagerung gemäß Ausführungsformen der Offenbarung. Bei Vorgang 602 können Positionsinformationen empfangen werden, die einem Kontaktereignis an einer kontaktempfindlichen Oberfläche zugeordnet sind. Bei Vorgang 604 kann ein Aktivierungsereignis als Reaktion auf einen Zustand einer Anzeige-Dienstprogramm-GUI und der Positionsinformation erzeugt werden. In einer Ausführungsform kann der Zustand der Anzeige-Dienstprogramm-GUI „nicht angezeigt“ oder „inaktiv“ sein. In einer Ausführungsform kann die Positionsinformation einer oder mehreren kontaktempfindlichen Oberflächen mit Näherungserfassung zugeordnet sein, zum Beispiel, dem Fingernäherungssensor 310. Bei Vorgang 606 können visuelle Informationen im Zusammenhang mit der Anzeige-Dienstprogramm-GUI in Reaktion auf das Aktivierungsereignis bereitgestellt werden. In einer Ausführungsform können die visuellen Informationen durch einen Aktivierungs-/Deaktivierungs-Ereignisabhörer 352a erzeugt und / bereitgestellt werden. Die visuellen Informationen können Elemente und ein Layout der Anzeige-Dienstprogramm-GUI definieren. Ferner können Zustandsinformationen für die Anzeige-Dienstprogramm-GUI geändert werden, um darzustellen, dass die GUI „angezeigt“ oder „aktiv“ ist, und ein „aktiver“ Modus kann aktiviert werden. Bei Vorgang 608 kann die visuelle Information auf Videoinformation überlagert werden. Die Videoinformation mit der darauf überlagerten visuellen Information kann auf einer Anzeige dargestellt werden.
  • In einigen Ausführungsformen wird die visuelle Information auf die Videoinformation nach vorgegebenen Anzeigeortsinformationen überlagert. Mit anderen Worten, die Anzeige-Dienstprogramm-GUI wird im Wesentlichen immer an der gleichen vorgegebenen Stelle angezeigt, und somit kann der Prozess für die Überlagerung der visuellen Informationen auf die Videoinformationen die vorgegebene Anzeigestelle einschließen. In anderen Ausführungsformen kann die Anzeige-Dienstprogramm-GUI an unterschiedlichen Stellen angezeigt werden. Zum Beispiel können in einer Ausführungsform die Anzeigepositionsinformationen bestimmt und/oder angepasst werden, um die Anzeige der Anzeige-Dienstprogramm-GUI mit Kontaktereignissen auszurichten, die einer Position der Hand/Finger eines Benutzers zugeordnet sind.
  • 6B zeigt ein Flussdiagramm von Vorgängen, die der Präsentation einer Anzeige-Dienstprogramm-GUI bei einer grafischen Überlagerung gemäß Ausführungsformen der Offenbarung zugeordnet sind. Bei Vorgang 612 können Positionsinformationen empfangen werden, die mit einem „Kontakt“-Ereignis auf einer kontaktempfindlichen Oberfläche in Verbindung stehen, (oder einem Schwebe-Ereignis, da, wie in dieser Offenbarung beschrieben, der Kontakt sowohl physischen Kontakt mit als auch die Annäherung an einen kontaktempfindlichen Bereich einschließt). Bei Vorgang 614 kann ein Handpositionsänderungsereignis als Reaktion auf einen Zustand einer Anzeige-Dienstprogramm-GUI und der Positionsinformation erzeugt werden. In einer Ausführungsform kann der Zustand der Anzeige-Dienstprogramm-GUI „angezeigt“ oder „aktiv“ sein. Bei Vorgang 616 kann eine Anzeige von der Anzeige-Dienstprogramm-GUI zugeordneten Positionsinformationen und visuellen Informationen als Reaktion auf das Handpositionsänderungsereignis bereitgestellt werden. In einer Ausführungsform können die Anzeigepositionsinformationen und visuellen Informationen durch einen Ereignisabhörer für das Handpositionsänderungsereignis 352b erzeugt und/oder bereitgestellt werden. Die Anzeigepositionsinformationen können Informationen für die Stelle der Anzeige-Dienstprogramm-GUI-Elemente einschließen, so dass, während der Anzeige die Anzeige-Dienstprogramm-GUI-Elemente an einer oder mehreren kontaktempfindlichen Oberflächen ausgerichtet sind.
  • In einer Ausführungsform kann ein Schwebe-Ereignis als Reaktion auf ein erkanntes Vorhandensein einer Hand oder eines Fingers erzeugt werden. Die Dienstprogramm-GUI kann auf der Anzeige als Reaktion auf das Schwebe-Ereignis präsentiert werden. In einer Ausführungsform kann ein die Finger eines Benutzers darstellendes Bild als Reaktion auf das Schweben der Finger und/oder der Hand über einem kontaktempfindlichen Bereich auf der Anzeige präsentiert werden. Das Bild kann die Finger und/oder die Hand des Benutzers relativ zu einer Dienstprogramm-GUI einschließlich visueller Tasten zeigen. In einer Ausführungsform können die Finger des Benutzers in einer grafischen Überlagerung präsentiert werden, zum Beispiel, der gleichen grafischen Überlagerung, die die Dienstprogramm-GUI oder eine andere grafische Überlagerung präsentiert. In einer Ausführungsform können visuelle Informationen, die für die Hand eines Benutzers repräsentativ sind, in der Videoinformation codiert und an der Anzeigeausgabe präsentiert werden. Wenn sich die Finger und/oder die Hände eines Benutzers bewegen, kann sich das überlagerte Bild der Hand und/oder des Fingers ändern. Ferner kann das Bild, wenn sich die Hand und/oder Finger parallel zur Anzeige bewegen, eine Hand und/oder Finger näher an oder weiter weg von den Elementen der Dienstprogramm-GUI, einschließlich visueller Tasten, zeigen.
  • 6C zeigt ein Flussdiagramm eines Prozesses 620, der dem Anzeigen einer Anzeige-Dienstprogramm-GUI durch eine grafische Überlagerung gemäß Ausführungsformen der Offenbarung zugeordnet ist. Bei Vorgang 622 können Positionsinformationen empfangen werden, die einem Kontaktereignis an einer kontaktempfindlichen Oberfläche zugeordnet sind. Bei Vorgang 624 kann ein Menüänderungsereignis als Reaktion auf einen Zustand einer Anzeige-Dienstprogramm-GUI und der Positionsinformation erzeugt werden. In einer Ausführungsform kann das Menüänderungsereignis als Reaktion auf eine bestimmte Manipulation eines GUI-Elements erzeugt werden, das der Änderung des Layouts und/oder der Zusammensetzung eines angezeigten GUI-Menüs zugeordnet ist. Bei Vorgang 626 können der Anzeige-Dienstprogramm-GUI zugeordnete visuelle Informationen als Reaktion auf das Menüänderungsereignis bereitgestellt werden. Die visuelle Information kann Information über die GUI-Elemente und das Layout einschließen, einschließlich GUI-Elemente und Layout, die sich von den aktuell auf einer Anzeige präsentierten unterscheiden. In einer Ausführungsform können die visuellen Informationen durch einen Menüänderungs-Ereignisabhörer 352c erzeugt und bereitgestellt werden. Bei Vorgang 628 kann die visuelle Information auf Videoinformation überlagert werden.
  • 6D zeigt ein Flussdiagramm eines Prozesses 630 im Zusammenhang mit der Verarbeitung der Manipulation einer Anzeige-Dienstprogramm-GUI, die durch eine grafische Überlagerung präsentiert wird, gemäß Ausführungsformen der Offenbarung. Bei Vorgang 632 werden Positionsinformationen empfangen, die einem Kontaktereignis an einer kontaktempfindlichen Oberfläche zugeordnet sind. Bei Vorgang 634 wird ein Tastenauswahlereignis als Reaktion auf die Positionsinformationen erzeugt. Bei Vorgang 636 können Eingabeparameter als Reaktion auf das Tastenauswahlereignis bereitgestellt werden. In einer Ausführungsform können die Eingabeparameter durch einen Tastenauswahl-Ereignisabhörer 352d erzeugt und bereitgestellt werden. Eingabeparameter können Eigenschaften eines Anzeigesystems zugeordnet sein (z. B. Lautstärke, Auflösung, Helligkeit, Farbton, Farbe, Sprachauswahl, Videomodi, Bildschirmeinstellung, Eingabeauswahl usw.). Die Eingabeparameter können einem Anzeige-Dienstprogramm bereitgestellt werden, das eine oder mehrere Einstellungen, die Eigenschaften eines Anzeigesystems in Reaktion auf die Eingabeparameter zugeordnet sind, steuern (z. B. eine Steuervariable ändern) kann. Das Steuern solcher Einstellungen kann zu visuellen und/oder akustischen Änderungen an einer Anzeige des Anzeigesystems führen. In einer Ausführungsform können die Eingabeparameter einem Anzeige-Dienstprogramm über eine Anzeige-Dienstprogrammschnittstelle bereitgestellt werden.
  • In einigen Ausführungsformen können visuelle Indikatoren als Reaktion auf ein Tastenauswahlereignis vor Eingangsparametern bereitgestellt werden. 6E zeigt ein Flussdiagramm eines Prozesses 640 im Zusammenhang mit der Verarbeitung der Manipulation einer Anzeige-Dienstprogramm-GUI, die durch eine grafische Überlagerung präsentiert wird, gemäß Ausführungsformen der Offenbarung. Bei Vorgang 642 werden Positionsinformationen empfangen, die einem Kontaktereignis an einer kontaktempfindlichen Oberfläche zugeordnet sind. Bei Vorgang 644 wird ein Tastenauswahlereignis als Reaktion auf die Positionsinformationen erzeugt. Bei Vorgang 646 können visuelle Informationen, die visuelle Indikatoren umfassen (z. B. Einblenden, Hervorhebung, Konturumrahmung usw.) als Reaktion auf die Positionsinformation und einen Zustand des GUI-Elements, das der Tastenauswahl zugeordnet ist, bereitgestellt werden. Der Zustand des GUI-Elements kann ein „Finger-Schweben“ sein, das anzeigt, dass ein Finger sich über einer Cap-Touch-Taste befindet oder die Cap-Touch-Taste einmal angetippt hat. Bei Vorgang 648 kann die den visuellen Indikator umfassende visuelle Information auf Videoinformation überlagert werden. Während die die visuellen Indikatoren umfassende visuelle Information auf einer Anzeige präsentiert wird, können ein oder mehrere Elemente der Anzeige-Dienstprogramm-GUI mit den visuellen Indikatoren angezeigt werden.
  • 7A zeigt ein Flussdiagramm eines Prozesses 700, der der Verwendung eines Anzeigesystems 300 gemäß Ausführungsformen der Offenbarung zugeordnet ist. Bei Schritt 702 kann ein Benutzer auf die Rückseite eines Anzeigesystems greifen. In verschiedenen Ausführungsformen kann ein Benutzer um die Seite oder über das Anzeigesystem auf die Rückseite greifen. Bei Schritt 704 kann der Benutzer einen Handnäherungssensor kontaktieren, der auf der Rückseite des Anzeigesystems angeordnet ist. Der Handnäherungssensor kann nahe dem Rand der Anzeige angeordnet sein und kapazitive Tastsensoren verwenden. Kapazitive Berührungstasten können so angeordnet sein, dass ein Benutzer, der um die Seite oder über die Oberseite des Anzeigesystems greift, über oder an dem Handnäherungssensor vorbei greift. Bei Schritt 706, während eine grafische Benutzerschnittstelle für ein Anzeige-Dienstprogramm auf einer Anzeige dargestellt wird, Manipulieren einer oder mehrerer visueller Tasten der graphischen Benutzerschnittstelle durch Manipulieren einer oder mehrerer kapazitiver Tasten, die hinter der grafischen Benutzerschnittstelle angeordnet sind. Visuelle Indikatoren können auf der Anzeige dargestellt werden, die die Bedienung der visuellen Tasten durch den Benutzer anzeigen und einem Benutzer helfen, zu sehen, was sie handhaben, ohne ihre Finger zu sehen.
  • 7B zeigt ein Flussdiagramm eines Prozesses 710, der der Verwendung eines Anzeigesystems 300 gemäß Ausführungsformen der Offenbarung zugeordnet ist. Der Prozess 710 kann durchgeführt werden, während eine oder mehrere visuelle Tasten einer grafischen Benutzerschnittstelle manipuliert werden, indem ein oder mehrere kapazitive Berührungstasten manipuliert werden, die auf einer nicht darstellenden Oberfläche eines Anzeigesystems angeordnet sind, das die grafische Benutzerschnittstelle präsentiert. Bei der Vorgang 712 können eine oder mehrere visuelle Tasten auf einer Anzeige dargestellt werden. Bei Vorgang 714 können eine oder mehrere visuelle Tasten durch einen visuellen Indikator visuell angezeigt werden, der auf einer Anzeige dargestellt wird. Bei Vorgang 716 kann eine Anzeige von Änderungen an einer oder mehreren Einstellungen einer Anzeige auf der Anzeige präsentiert werden. Die Änderung an der einen oder den mehreren Einstellungen können zeitlich nahe zu einer Änderung einer der Anzeigeeigenschaften, zum Beispiel, Helligkeit, Auflösung, Farbton, Farbe, Lautstärke (wenn es eine Audioausgabe gibt), usw. liegen.
  • Wie bereits erwähnt, eliminieren Ausführungsformen der Offenbarung Beschränkungen für Hersteller bei der Reduzierung des Breiten- oder des Tiefenprofils eines Anzeigesystems. Ausführungsformen der Offenbarung haben viele weitere Vorteile, die für einen Durchschnittsfachmann offensichtlich sind. Beispielsweise verringert das Trennen der kontaktempfindlichen Oberfläche und der Anzeige das Rauschen, das ansonsten durch die Anzeige (z. B. durch die Anzeigedatenleitungen) an dem Kontaktsensor induziert werden kann, was manchmal „falsche Berührungen“ bei Touch-Displays verursacht.
  • Während bestimmte Ausführungsformen mit Bezug auf Anzeigeeinstellungen beschrieben wurden, wird auch speziell in Betracht gezogen, dass die hierin beschriebene Benutzerschnittstelle verwendet werden kann, um native Anwendungen auf einem Anzeigesystem auszuwählen und zu starten. Das Menü, um solche nativen Anwendungen auszuwählen und zu starten, sowie die grafische Schnittstelle für die nativen Anwendungen können auf einer Anzeige durch eine grafische Überlagerung dargestellt werden.
  • In einer Ausführungsform kann eine Vorrichtung, wie ein Kühlschrank, Backofen, eine Mikrowelle, Waschmaschine, oder ein Trockner kapazitive Tasten aufweisen, und die kapazitiven Tasten können operativ mit einem Anzeigesystem gekoppelt sein, das zur Anzeige von Parametern in Bezug auf den Betrieb der Vorrichtung (z. B., eine Koch- oder Waschzeit, usw.) und zur Anzeige einer GUI-Überlagerung für ein Dienstprogramm eingerichtet ist. Durch Manipulation der kapazitiven Tasten kann ein Benutzer in der Lage sein, Einstellungen in Bezug auf den Betrieb des Geräts zu manipulieren.
  • Viele der in dieser Spezifikation beschriebenen Funktionseinheiten können als Module, Threads oder andere Segregationen des Programmiercodes veranschaulicht, beschrieben oder bezeichnet werden, um deren Implementierungsunabhängigkeit deutlicher hervorzuheben. Module können in der einen oder anderen Form mindestens teilweise in Hardware implementiert sein. Zum Beispiel kann ein Modul als Hardwareschaltung implementiert werden, die benutzerdefinierte VLSI-Schaltungen oder Gate-Arrays, handelsübliche Halbleiter, wie etwa Logikchips, Transistoren oder andere diskrete Komponenten, umfasst. Ein Modul kann auch in programmierbaren Hardwarevorrichtungen implementiert sein, wie feldprogrammierbaren Gate-Arrays, programmierbarer Array-Logik, programmierbaren Logikvorrichtungen oder dergleichen.
  • Module können auch unter Verwendung von Software oder Firmware, die auf einer physischen Speichervorrichtung (z. B. einem computerlesbaren Speichermedium) gespeichert ist, im Speicher oder einer Kombination davon zur Ausführung durch verschiedene Arten von Prozessoren implementiert werden.
  • Ein identifiziertes Modul aus ausführbarem Code kann zum Beispiel einen oder mehrere physische oder logische Blöcke von Computeranweisungen umfassen, die zum Beispiel als Thread, Objekt, Prozedur oder Funktion organisiert sein können. Nichtsdestotrotz müssen die ausführbaren Dateien eines identifizierten Moduls nicht physisch zusammen angeordnet sein, sondern können unterschiedliche Anweisungen umfassen, die an verschiedenen Orten gespeichert sind, die, wenn sie logisch zusammengefügt werden, das Modul umfassen und den angegebenen Zweck für das Modul erreichen.
  • Tatsächlich kann ein Modul aus ausführbarem Code eine einzelne Anweisung oder viele Anweisungen sein und kann sogar über mehrere verschiedene Codesegmente, zwischen verschiedenen Programmen und über mehrere Speichervorrichtungen verteilt sein. In ähnlicher Weise können Betriebsdaten hierin innerhalb von Modulen identifiziert und veranschaulicht sein und können in irgendeiner geeigneten Form verkörpert und innerhalb irgendeiner geeigneten Art von Datenstruktur organisiert sein. Die Betriebsdaten können als ein einziger Datensatz gesammelt oder über verschiedene Orte, einschließlich über verschiedene Speichervorrichtungen, verteilt sein und können mindestens teilweise lediglich als elektronische Signale in einem System oder Netzwerk vorhanden sein. Wenn ein Modul oder Abschnitte eines Moduls in Software implementiert sind, werden die Softwareabschnitte auf einem oder mehreren physischen Vorrichtungen gespeichert, die hierin als computerlesbare Medien bezeichnet werden.
  • In einigen Ausführungsformen sind die Softwareabschnitte in einem nichtflüchtigen Zustand gespeichert, sodass die Softwareabschnitte oder Darstellungen davon für einen Zeitraum an demselben physischen Ort verbleiben. Zusätzlich sind in einigen Ausführungsformen die Softwareabschnitte in einer oder mehreren nichtflüchtigen Speichervorrichtungen gespeichert, die Hardwareelemente einschließen, die nichtflüchtige Zustände und/oder Signale speichern können, die für die Softwareabschnitte repräsentativ sind, obwohl andere Abschnitte der nichtflüchtigen Speichervorrichtungen in der Lage sein können, die Signale zu ändern und/oder zu übertragen. Beispiele für nichtflüchtige Speichervorrichtungen sind Flash-Speicher und Direktzugriffsspeicher (RAM). Ein anderes Beispiel einer nichtflüchtigen Speichervorrichtung schließt einen Nur-Lese-Speicher (ROM) ein, der für einen Zeitraum Signale und/oder Zustände speichern kann, die für die Softwareabschnitte repräsentativ sind. Die Fähigkeit, die Signale und/oder Zustände zu speichern, wird jedoch nicht durch weitere Funktionalität zum Übertragen von Signalen beeinträchtigt, die den gespeicherten Signalen und/oder Zuständen entsprechen oder diese repräsentieren. Zum Beispiel kann ein Prozessor auf den ROM zugreifen, um Signale zu erhalten, die für die gespeicherten Signale und/oder Zustände repräsentativ sind, um die entsprechenden Softwareanweisungen auszuführen.
  • Während die vorliegende Offenbarung hierin in Bezug auf bestimmte veranschaulichte Ausführungsformen beschrieben wurde, werden Fachleute erkennen und anerkennen, dass die vorliegende Erfindung nicht darauf beschränkt ist. Vielmehr können viele Ergänzungen, Löschungen und Modifikationen an den veranschaulichten und beschriebenen Ausführungsformen vorgenommen werden, ohne vom Umfang der Erfindung abzuweichen, wie nachfolgend zusammen mit ihren rechtlichen Äquivalenten beansprucht wird. Zusätzlich können Merkmale von einer Ausführungsform mit Merkmalen einer anderen Ausführungsform kombiniert werden, während sie immer noch innerhalb des Schutzumfangs der Erfindung enthalten sind.
  • Zusätzliche, nicht einschränkende Ausführungsformen der Offenbarung schließen ein:
    • Ausführungsform 1: Ein Anzeigesystem, umfassend: eine kontaktempfindliche Benutzerschnittstelle, die auf einer Rückseite des Anzeigesystems angeordnet ist; eine Anzeige, die eingerichtet ist, um eine grafische Benutzerschnittstelle (GUI) zu präsentieren, wobei die GUI aktivierbare Bereiche umfasst, die eingerichtet sind, um mit der kontaktempfindlichen Benutzerschnittstelle zu interagieren; und eine Anzeigesystemsteuerung, die eingerichtet ist, um Einstellungen in Verbindung mit den Eigenschaften der Anzeige in Reaktion auf die aktivierten Bereiche der GUI zu ändern.
    • Ausführungsform 2: Anzeigesystem nach Ausführungsform 1, wobei die kontaktempfindliche Benutzerschnittstelle eine kontaktempfindliche Oberfläche umfasst.
    • Ausführungsform 3: Anzeigesystem nach Ausführungsform 1 und 2, wobei die kontaktempfindliche Oberfläche dazu angepasst ist, zumindest auf einen physischen Kontakt von Objekten und die Nähe von Objekten zu reagieren.
    • Ausführungsform 4: Anzeigesystem nach einer der Ausführungsformen 1 bis 3, wobei die Anzeige eingerichtet ist, um einen oder mehrere aktivierbare Bereiche an einer oder mehreren ersten Stellen auf der Anzeige im Wesentlichen vor einer oder mehreren zweiten Stellen auf der kontaktempfindlichen Benutzerschnittstelle zu präsentieren.
    • Ausführungsform 5: Anzeigesystem nach einer der Ausführungsformen 1 bis 4, wobei der eine oder die mehreren ersten Stellen und die eine oder mehreren zweiten Stellen im Wesentlichen einander gegenüberstehen.
    • Ausführungsform 6: Anzeigesystem nach einer der Ausführungsformen 1 bis 5, wobei die hintere Oberfläche physische topographische Merkmale im Wesentlichen an der einen oder den mehreren zweiten Stellen umfasst.
    • Ausführungsform 7: Anzeigesystem nach einer der Ausführungsformen 1 bis 6, wobei die physischen topographischen Merkmale eine Riffelung, eine Textur, ein geätzter Bereich, vertiefte Abschnitte, hervorstehende Abschnitte und Kombinationen davon umfassen.
    • Ausführungsform 8: Anzeigesystem nach einer der Ausführungsformen 1 bis 7, wobei die Anzeige eingerichtet ist, um die GUI über ein Video zu präsentieren, das an einem Videoeingang des Anzeigesystems empfangen wird.
    • Ausführungsform 9: Anzeigesystem nach einer der Ausführungsformen 1 bis 8, wobei die Anzeige eingerichtet ist, um die GUI über einem Standardbild überlagert zu präsentieren, das kein Video anzeigt, das an einem Videoeingang des Anzeigesystems empfangen wird.
    • Ausführungsform 10: Anzeigesystem nach einer der Ausführungsformen 1 bis 9, wobei die Eigenschaften des Anzeigesystems eine oder mehrere der folgenden Aspekte umfassen: Helligkeit, Farbton, Auflösung, Farbe, Videomodus, Sprache, Bildschirmeinstellung, und Eingabeauswahl.
    • Ausführungsform 11: Anzeigesystem nach einer der Ausführungsformen 1 bis 10, ferner umfassend einen Audioausgang, wobei mindestens eine der Eigenschaften des Anzeigesystems ein dem Audioausgang zugeordnetes Volumen ist.
    • Ausführungsform 12: Anzeigesystem nach einer der Ausführungsformen 1 bis 11, ferner umfassend: einen Videoeingang, der eingerichtet ist, um Videoinformationen zu empfangen; und einen Videoprozessor, wobei der Videoprozessor eingerichtet ist, um der grafischen Benutzerschnittstelle zugeordnete, am Videoeingang empfangene visuelle Informationen zu überlagern.
    • Ausführungsform 13: Anzeigesystem nach einer der Ausführungsformen 1 bis 12, ferner umfassend GUI-Anwendungsanweisungen, die in einem Speicher gespeichert sind, die, während sie durch einen Prozessor ausgeführt werden, dazu geeignet sind, dem Prozessor zu ermöglichen, ein oder mehrere der GUI zugeordnete Ereignisse zu erzeugen oder zu behandeln.
    • Ausführungsform 14: Anzeigesystem nach einer der Ausführungsformen 1 bis 13, wobei das eine oder die mehreren Ereignisse den aktivierbaren Bereichen zugeordnet sind.
    • Ausführungsform 15: Anzeigesystem nach einer der Ausführungsformen 1 bis 14, wobei das eine oder die mehreren Ereignisse ein Aktivierungsereignis, ein Deaktivierungsereignis, ein Handpositionsänderungsereignis, ein Schwebe-Ereignis, ein Menüänderungsereignis, ein Tastenauswahlereignis, ein Schiebereglerauswahlereignis umfassen.
    • Ausführungsform 16: Anzeigesystem nach einer der Ausführungsformen 1 bis 15, ferner Folgendes umfassend: einen Tastsensor; und eine Taststeuerung, die zur Erkennung von erfassten Tastsignalen von dem Tastsensor und zur Bereitstellung von Positionsinformationen an eine GUI-Anwendung in Reaktion auf die erkannten erfassten Tastsignale eingerichtet ist.
    • Ausführungsform 17: Anzeigesystem nach einer der Ausführungsformen 1 bis 16, wobei die Taststeuerung einen Prozessor und einen Speicher mit einer oder mehreren darauf gespeicherten Anweisungen umfasst, die, wenn sie durch den Prozessor ausgeführt werden, geeignet sind, dem Prozessor zu ermöglichen, Funktionen, Aufgaben oder Aktivitäten auszuführen, die der GUI-Anwendung zugeordnet sind.
    • Ausführungsform 18: Anzeigesystem nach einer der Ausführungsformen 1 bis 17, wobei die Taststeuerung ferner eine oder mehrere eingebettete Einheiten umfasst, die eingerichtet sind, um Tasterkennung und Tastverarbeitung als Reaktion auf die erfassten Tastsignale auszuführen.
    • Ausführungsform 19: Anzeigesystem einer der Ausführungsformen 1 bis 18, wobei die Taststeuerung einen Mikroprozessor umfasst und mindestens eine der einen oder mehreren eingebetteten Einheiten dazu eingerichtet ist, um Kernoperationen durchzuführen, ohne den Mikroprozessor zu unterbrechen.
    • Ausführungsform 20: Anzeigesystem nach einer der Ausführungsformen 1 bis 19, wobei die Anzeige dazu eingerichtet ist, um die grafische Benutzerschnittstelle in Reaktion auf ein Aktivierungsereignis zu präsentieren.
    • Ausführungsform 21: Anzeigesystem nach einer der Ausführungsformen 1 bis 20, wobei es sich bei dem Aktivierungsereignis um ein Handnäherungsereignis handelt.
    • Ausführungsform 22: System, umfassend: ein tastempfindliches Subsystem zum Erkennen von erfassten Tastsignalen von einem oder mehreren tastempfindlichen Sensoren und zum Bestimmen von Tastinformationen als Reaktion auf die erkannten erfassten Tastsignale; und einen Speicher und einen Prozessor, wobei der Speicher eine oder mehrere darauf gespeicherte Anweisungen aufweist, die, während sie durch den Prozessor ausgeführt werden, geeignet sind, dem Prozessor zu ermöglichen: ein oder mehrere GUI-Elemente als Reaktion auf die Tastinformation zu identifizieren; und ein oder mehrere Ereignisse als Reaktion auf das eine oder die mehreren identifizierten GUI-Elemente zu erzeugen.
    • Ausführungsform 23: System nach der Ausführungsform 22, wobei die Tastinformationen Positionsinformationen sind und ferner die eine oder mehreren ausführbaren Anweisungen geeignet sind, dem Prozessor zu ermöglichen: die Positionsinformationen mit gespeicherten Positionsinformationen zu vergleichen, die einer oder mehreren tastempfindlichen Tasten entsprechen; und eine kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
    • Ausführungsform 24: System nach den Ausführungsformen 22 und 23, wobei die Positionsinformationen eine erste Stelle auf einer einem Kontaktsensor des einen oder der mehreren Kontaktsensoren zugeordneten tastempfindlichen Oberfläche angibt, und die kontaktierte kontaktempfindliche Taste der ersten Stelle zugeordnet ist.
    • Ausführungsform 25: System nach einer der Ausführungsformen 22 bis 24, wobei die eine oder mehreren ausführbaren Anweisungen geeignet sind, um dem Prozessor zu ermöglichen: eine zweite Positionsinformation mit der gespeicherten Positionsinformation zu vergleichen, die der einen oder den mehreren tastempfindlichen Tasten entspricht; und eine zweite kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
    • Ausführungsform 26: System nach einer der Ausführungsformen 22 bis 26, wobei die zweiten Positionsinformationen eine zweite Stelle auf der einem Kontaktsensor des einen oder der mehreren Kontaktsensoren zugeordneten kontaktempfindlichen Oberfläche angeben, und die zweite kontaktierte kontaktempfindliche Taste der zweiten Stelle zugeordnet ist.
    • Ausführungsform 27: System nach einer der Ausführungsformen 22 bis 26, wobei die Tastinformation eine Tastsensorkennung ist, wobei die eine oder mehreren ausführbaren Anweisungen dem Prozessor ermöglichen: die Tastsensorkennung mit gespeicherten Tastsensorkennungen zu vergleichen, die einer oder mehreren kontaktempfindlichen Tasten entsprechen; und eine kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
    • Ausführungsform 28: Verfahren, umfassend: Erkennen von erfassten Tastsignalen, die von einem oder mehreren Tastsensoren empfangen werden; Bestimmen von Tastinformationen in Reaktion auf die erkannten erfassten Tastsignale; Identifizieren eines oder mehrerer grafischer Benutzerschnittstellen-Elemente (GUI-Elemente) eines überlagerten Anzeige-Dienstprogramms als Reaktion auf die Tastinformationen; und Erzeugen eines oder mehrerer Ereignisse in Reaktion auf das eine oder die mehreren identifizierten GUI-Elemente.
    • Ausführungsform 29: System, umfassend: ein tastempfindliches Subsystem, das zum Erkennen von erfassten Tastsignalen, die von einem oder mehreren tastempfindlichen Sensoren empfangen werden, eingerichtet ist und zum Bestimmen von Tastinformationen als Reaktion auf die erkannten erfassten Tastsignale; und einen Speicher und einen Prozessor, wobei auf dem Speicher eine oder mehrere Anweisungen gespeichert sind, die, während sie durch den Prozessor ausgeführt werden, geeignet sind, um dem Prozessor zu ermöglichen: ein Aktivierungsereignis als Reaktion auf die Tastinformationen zu identifizieren; und eine Überlagerung einer grafischen Benutzerschnittstelle (GUI) als Reaktion auf die Tastinformation zu aktivieren.
    • Ausführungsform 30: System nach Ausführungsform 29, wobei die eine oder mehreren ausführbaren Anweisungen geeignet sind, dem Prozessor zu ermöglichen, eine kontaktempfindliche Taste als Reaktion auf die gemessenen erfassten Berührungen zu identifizieren.
    • Ausführungsform 31: System nach einer der Ausführungsformen 29 und 30, wobei die kontaktempfindliche Taste ein Hand- oder Finger-Näherungssensor ist. Ausführungsform 32: System nach einer der Ausführungsformen 29 bis 31, wobei das tastempfindliche Subsystem ferner zum Bestimmen einer oder mehrerer Stellen auf einer kontaktempfindliche Oberfläche als Reaktion auf erkannte erfasste Tastsignale eingerichtet ist, und die eine oder mehreren ausführbaren Anweisungen geeignet sind, dem Prozessor zu ermöglichen: einen Versatz zwischen der einen oder den mehreren Stellen auf der kontaktempfindlichen Oberfläche und einer oder mehreren entsprechenden Stellen auf einer Anzeige zu bestimmen, wobei die eine oder mehreren Stellen auf der Anzeige einem oder mehreren angezeigten GUI-Elementen zugeordnet sind; und eine oder mehrere Anpassungen als Reaktion auf den Versatz zu erzeugen.
    • Ausführungsform 33: System nach einer der Ausführungsformen 29 bis 32, weiterhin umfassend ein Anzeige-Dienstprogramm, das eingerichtet ist, visuelle Informationen als Reaktion auf eine oder mehrere Anpassungen an einen Bildschirmanzeigeprozessor zu senden.
    • Ausführungsform 34: System nach einer der Ausführungsformen 29 bis 33, wobei das tastempfindliche Subsystem ferner zum Bestimmen einer oder mehrerer Stellen auf einer kontaktempfindlichen Oberfläche als Reaktion auf erkannte erfasste Tastsignale eingerichtet ist, und die eine oder mehreren Anweisungen geeignet sind, dem Prozessor zu ermöglichen: visuelle Informationen zu erzeugen, die Informationen umfassen, die eine oder mehrere visuelle Indikatoren als Reaktion auf die eine oder die mehreren Stellen repräsentieren; und die visuelle Information mit Videoinformation zu überlagern.
    • Ausführungsform 35: System nach einer der Ausführungsformen 29 bis 34, weiterhin umfassend eine Anzeigesteuerung, die zum Steuern einer Anzeige eingerichtet ist, um einen oder mehrere visuelle Indikatoren zusammen mit der aktivierten GUI-Überlagerung zu präsentieren.
    • Ausführungsform 36: Verfahren, umfassend: Erkennen erfasster Tastsignale, die von einem oder mehreren Tastsensoren empfangen werden; Bestimmen von Tastinformationen in Reaktion auf die erkannten erfassten Tastsignale; Identifizieren eines Aktivierungsereignisses als Reaktion auf die Tastinformationen; und Aktivieren einer Überlagerung einer grafischen Benutzerschnittstelle (GUI) als Reaktion auf die Tastinformationen.
    • Ausführungsform 37: Vorrichtung, umfassend: ein Gehäuse mit einer tastempfindlichen Oberfläche positioniert auf einer Rückseite des Gehäuses; eine Anzeige, die eingerichtet ist, um eine grafische Benutzerschnittstelle (GUI) zu präsentieren; und eine Tast-Benutzerschnittstelle (UI), die eingerichtet ist, um die Interaktion mit der GUI zu ermöglichen, die an der Anzeige präsentiert wird, die auf die Manipulation der kontaktempfindlichen Oberfläche reagiert.
    • Ausführungsform 38: Vorrichtung nach Ausführungsform 37, wobei die Tast-UI einen oder mehrere kapazitive Tastsensoren umfasst, die eingerichtet sind, um auf Kontakt an der kontaktempfindlichen Oberfläche zu reagieren.
    • Ausführungsform 39: Vorrichtung nach den Ausführungsformen 37 und 38, wobei die Vorrichtung entweder ein Fernseher oder ein Monitor ist.
    • Ausführungsform 40: Vorrichtung nach einer der Ausführungsformen 37 bis 39, wobei das Gehäuse ohne Einfassung ist.

Claims (28)

  1. Anzeigesystem, umfassend: eine tastempfindliche Benutzerschnittstelle, die auf einer hinteren Oberfläche des Anzeigesystems angeordnet ist; eine Anzeige, die eingerichtet ist, um eine grafische Benutzerschnittstelle (GUI) zu präsentieren, wobei die GUI aktivierbare Bereiche umfasst, die eingerichtet sind, um mit der kontaktempfindlichen Benutzerschnittstelle zu interagieren; und eine Anzeigesystemsteuerung, die eingerichtet ist, um den Eigenschaften des Anzeigesystems zugeordnete Einstellungen in Reaktion auf die aktivierten Bereiche der GUI zu ändern.
  2. Anzeigesystem nach Anspruch 1, wobei die kontaktempfindliche Benutzerschnittstelle eine kontaktempfindliche Oberfläche umfasst.
  3. Anzeigesystem nach Anspruch 2, wobei die kontaktempfindliche Oberfläche dazu geeignet ist, mindestens auf einen physischen Kontakt von Objekten und die Nähe von Objekten zu reagieren.
  4. Anzeigesystem nach Anspruch 1, wobei die Anzeige eingerichtet ist, um einen oder mehrere aktivierbare Bereiche an einer oder mehreren ersten Stellen auf der Anzeige im Wesentlichen vor einer oder mehreren zweiten Stellen auf der kontaktempfindlichen Benutzerschnittstelle zu präsentieren.
  5. Anzeigesystem nach Anspruch 4, wobei die eine oder die mehreren ersten Stellen und die eine oder die mehreren zweiten Stellen im Wesentlichen einander gegenüberstehen.
  6. Anzeigesystem nach Anspruch 4, wobei die hintere Oberfläche physische topographische Merkmale im Wesentlichen an der einen oder den mehreren zweiten Stellen umfasst.
  7. Anzeigesystem nach Anspruch 6, wobei die physischen topographischen Merkmale ein Riffelung, eine Textur, einen geätzten Bereich, vertiefte Abschnitte, hervorstehende Abschnitte und Kombinationen davon umfassen.
  8. Anzeigesystem nach Anspruch 1, wobei die Anzeige eingerichtet ist, um die GUI überlagert über ein Video zu präsentieren, das an einem Videoeingang des Anzeigesystems empfangen wird.
  9. Anzeigesystem nach Anspruch 1, wobei die Anzeige eingerichtet ist, um die GUI überlagert über ein Standardbild zu präsentieren, das kein Video anzeigt, das an einem Videoeingang des Anzeigesystems empfangen wird.
  10. Anzeigesystem nach Anspruch 1, wobei die Eigenschaften des Anzeigesystems einen oder mehrere der folgenden Aspekte umfassen: Helligkeit, Farbton, Auflösung, Farbe, Videomodus, Sprache, Bildschirmeinstellung, und Eingabeauswahl.
  11. Anzeigesystem nach Anspruch 1, ferner umfassend einen Audioausgang, wobei mindestens eine der Eigenschaften des Anzeigesystems ein dem Audioausgang zugeordnetes Volumen ist.
  12. Anzeigesystem nach Anspruch 1, ferner umfassend: einen Videoeingang, der eingerichtet ist, um Videoinformationen zu empfangen; und einen Videoprozessor, wobei der Videoprozessor eingerichtet ist, um die am Videoeingang empfangenen Videoinformationen mit den der grafischen Benutzerschnittstelle zugeordneten visuellen Informationen zu überlagern.
  13. Anzeigesystem nach Anspruch 1, ferner umfassend in einem Speicher gespeicherte GUI-Anwendungsanweisungen, die, wenn sie durch einen Prozessor ausgeführt werden, geeignet sind, dem Prozessor zu ermöglichen, ein oder mehrere der GUI zugeordnete Ereignisse zu erzeugen oder zu handhaben.
  14. Anzeigesystem nach Anspruch 13, wobei das eine oder die mehreren Ereignisse den aktivierbaren Bereichen zugeordnet sind.
  15. Anzeigesystem nach Anspruch 14, wobei das eine oder die mehreren Ereignisse ein Aktivierungsereignis, ein Deaktivierungsereignis, ein Handpositionsänderungsereignis, ein Schwebe-Ereignis, ein Menüänderungsereignis, ein Tastenwahlereignis, ein Schiebereglerauswahlereignis umfassen.
  16. Anzeigesystem nach Anspruch 1, ferner umfassend: einen Tastsensor; und eine Taststeuerung, die eingerichtet ist, um von dem Tastsensor empfangene erfasste Tatsignale zu erkennen und eine Positionsinformation für eine GUI-Anwendung in Reaktion auf die erkannten erfassten Tastsignale bereitzustellen.
  17. Anzeigesystem nach Anspruch 16, wobei die Taststeuerung einen Prozessor und einen Speicher mit einer oder mehreren darauf gespeicherten Anweisungen umfasst, die, wenn sie durch den Prozessor ausgeführt werden, dazu geeignet sind, dem Prozessor zu ermöglichen, Funktionen, Aufgaben oder Aktivitäten auszuführen, die der GUI-Anwendung zugeordnet sind.
  18. Anzeigesystem nach Anspruch 16, wobei die Taststeuerung ferner eine oder mehrere eingebettete Einheiten umfasst, die eingerichtet sind, um eine Tasterfassung und Tastverarbeitung als Reaktion auf die erfassten Tastsignale durchzuführen.
  19. Anzeigesystem nach Anspruch 18, wobei die Taststeuerung einen Mikroprozessor umfasst und mindestens eine der einen oder mehreren eingebetteten Einheiten dazu eingerichtet ist, um Kernoperationen durchzuführen, ohne den Mikroprozessor zu unterbrechen.
  20. Anzeigesystem nach Anspruch 1, wobei die Anzeige eingerichtet ist, um die grafische Benutzerschnittstelle in Reaktion auf ein Aktivierungsereignis zu präsentieren.
  21. Anzeigesystem nach Anspruch 20, wobei es sich bei dem Aktivierungsereignis um ein Handnäherungsereignis handelt.
  22. System, umfassend: ein tastempfindliches Subsystem, das eingerichtet ist, um erfasste Tastsignale, die von einem oder mehreren Tastsensoren empfangen werden, zu erkennen und Tastinformationen als Reaktion auf die erkannten erfassten Tastsignale zu bestimmen; und einen Speicher und einen Prozessor, wobei der Speicher eine oder mehrere darauf gespeicherte Anweisungen aufweist, die, wenn sie durch den Prozessor ausgeführt werden, geeignet sind, dem Prozessor zu ermöglichen: eines oder mehrere GUI-Elemente als Reaktion auf die Tastinformationen zu identifizieren; und ein oder mehrere Ereignisse als Reaktion auf das eine oder die mehreren identifizierten GUI-Elemente zu erzeugen.
  23. System nach Anspruch 22, wobei die Tastinformationen Positionsinformationen sind und ferner wobei die eine oder mehreren ausführbaren Anweisungen geeignet sind, um dem Prozessor zu ermöglichen: die Positionsinformationen mit gespeicherten Positionsinformationen zu vergleichen, die einer oder mehreren tastempfindlichen Tasten entsprechen; und eine kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
  24. System nach Anspruch 23, wobei die Positionsinformationen eine erste Stelle auf einer einem Kontaktsensor des einen oder der mehreren Kontaktsensoren zugeordneten kontaktempfindlichen Oberfläche angibt und die kontaktierte kontaktempfindliche Taste der ersten Stelle zugeordnet ist.
  25. System nach Anspruch 24, wobei die eine oder mehreren Anweisungen geeignet sind, um dem Prozessor zu ermöglichen: eine zweite Positionsinformation mit der gespeicherten Positionsinformation zu vergleichen, die der einen oder den mehreren kontaktempfindlichen Tasten entspricht; und eine zweite kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
  26. System nach Anspruch 25, wobei die zweite Positionsinformation eine zweite Stelle auf der einem Kontaktsensor des einen oder der mehreren Kontaktsensoren zugeordneten kontaktempfindlichen Oberfläche angibt, und die zweite kontaktierte kontaktempfindliche Taste der zweiten Stelle zugeordnet ist.
  27. System nach Anspruch 22, wobei die Tastinformation eine Tastsensorkennung ist, wobei die eine oder mehreren ausführbaren Anweisungen geeignet sind, um dem Prozessor zu ermöglichen: die Tastsensorkennung mit gespeicherten Tastsensorkennungen zu vergleichen, die einer oder mehreren kontaktempfindlichen Tasten entsprechen; und eine kontaktierte kontaktempfindliche Taste als Reaktion auf den Vergleich zu identifizieren.
  28. Verfahren, umfassend: Erkennen von erfassten Tastsignalen, die von einem oder mehreren Tastsensoren empfangen werden; Bestimmen von Tastinformationen in Reaktion auf die erkannten erfassten Tastsignale; Identifizieren eines oder mehrerer grafischer Benutzerschnittstellen-Elemente (GUI-Elemente) eines überlagerten Anzeige-Dienstprogramms als Reaktion auf die Tastinformationen; und Erzeugen eines oder mehrerer Ereignisse als Reaktion auf das eine oder die mehreren identifizierten GUI-Elemente.
DE112019000650.9T 2018-02-02 2019-01-25 Anzeige-benutzerschnittstelle und verwandte systeme, verfahren und vorrichtungen Pending DE112019000650T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862625629P 2018-02-02 2018-02-02
US62/625,629 2018-02-02
US16/001,689 US10955961B2 (en) 2018-02-02 2018-06-06 Display user interface, and related systems, methods and devices
US16/001,689 2018-06-06
PCT/US2019/015248 WO2019152284A1 (en) 2018-02-02 2019-01-25 A display user interface, and related systems, methods and devices

Publications (1)

Publication Number Publication Date
DE112019000650T5 true DE112019000650T5 (de) 2020-10-15

Family

ID=67476730

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019000650.9T Pending DE112019000650T5 (de) 2018-02-02 2019-01-25 Anzeige-benutzerschnittstelle und verwandte systeme, verfahren und vorrichtungen

Country Status (7)

Country Link
US (1) US10955961B2 (de)
JP (1) JP7258035B2 (de)
KR (1) KR102404903B1 (de)
CN (1) CN111684401A (de)
DE (1) DE112019000650T5 (de)
TW (1) TWI771558B (de)
WO (1) WO2019152284A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020142093A1 (en) * 2019-01-02 2020-07-09 Hewlett-Packard Development Company, L.P. OSDs FOR DISPLAY DEVICES
US20240168782A1 (en) * 2021-03-12 2024-05-23 Telefonaktiebolaget Lm Ericsson (Publ) Electronic device, and methods of the electronic device for generating feedback related to an interaction with a touch input arrangement

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909424B2 (en) 1999-09-29 2005-06-21 Gateway Inc. Digital information appliance input device
JP2003296022A (ja) * 2002-04-01 2003-10-17 Pioneer Electronic Corp タッチパネル一体型表示装置
JP3852368B2 (ja) 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
US9727082B2 (en) 2005-04-26 2017-08-08 Apple Inc. Back-side interface for hand-held devices
ATE436165T1 (de) * 2005-07-27 2009-07-15 Alcatel Lucent Verfahren zum auslösen eines handovers
US20070268261A1 (en) * 2006-05-17 2007-11-22 Erik Lipson Handheld electronic device with data entry and/or navigation controls on the reverse side of the display
JP5353090B2 (ja) 2008-06-27 2013-11-27 株式会社ニコン デジタルフォトフレーム
JP2010122383A (ja) 2008-11-18 2010-06-03 Sharp Corp 表示装置
JP4816713B2 (ja) 2008-11-25 2011-11-16 ソニー株式会社 情報処理装置、情報処理方法および情報処理用プログラム
JP5287421B2 (ja) * 2009-03-27 2013-09-11 株式会社Jvcケンウッド 入力装置及びこれを用いた電子機器
US9311724B2 (en) * 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9891820B2 (en) * 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9310905B2 (en) * 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
US9285840B2 (en) 2010-08-19 2016-03-15 Michael S. Stamer Detachable sensory-interface device for a wireless personal communication device and method
US20130240804A1 (en) 2012-03-16 2013-09-19 Canopy Valley LLC Silicone material having a photochromic additive
EP2767888A3 (de) * 2013-02-19 2014-10-01 Handscape Inc. Verfahren zur Benutzereingabe über alternative Berührungspads einer tragbaren computergestützten Vorrichtung
US10817124B2 (en) * 2014-06-03 2020-10-27 Lenovo (Singapore) Pte. Ltd. Presenting user interface on a first device based on detection of a second device within a proximity to the first device
JP6109788B2 (ja) * 2014-06-23 2017-04-05 富士フイルム株式会社 電子機器及び電子機器の作動方法
KR20160063812A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
US10152162B1 (en) * 2015-05-15 2018-12-11 Apple Inc. Method of optimizing touch detection
JP2017046280A (ja) * 2015-08-28 2017-03-02 京セラ株式会社 電子機器
JP2017215846A (ja) * 2016-06-01 2017-12-07 Nissha株式会社 画像表示装置およびその制御方法

Also Published As

Publication number Publication date
JP7258035B2 (ja) 2023-04-14
WO2019152284A1 (en) 2019-08-08
US20190243505A1 (en) 2019-08-08
JP2021513151A (ja) 2021-05-20
KR102404903B1 (ko) 2022-06-02
KR20200104395A (ko) 2020-09-03
CN111684401A (zh) 2020-09-18
TW201937353A (zh) 2019-09-16
US10955961B2 (en) 2021-03-23
TWI771558B (zh) 2022-07-21

Similar Documents

Publication Publication Date Title
DE102008028223B4 (de) Modusabhängige Verarbeitung von Berührungsdaten
US7623133B1 (en) Method and apparatus for displaying data from multiple frame buffers on a single display device
US7783989B2 (en) Apparatus and method for managing layout of a window
US7274377B2 (en) Viewport panning feedback system
DE60317913T2 (de) Graphische Anzeigesteuereinrichtung zum Anzeigen von Graphen
US20090265659A1 (en) Multi-window display control system and method for presenting a multi-window display
DE102009032637A1 (de) Bildvergrößerungssystem für eine Computerschnittstelle
CN105302285A (zh) 多屏显示方法、设备及系统
DE202007019347U1 (de) Bildschirm-Tastfeld-Anzeigevorrichtung
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE102010060975A1 (de) Virtuelles Touchpad für eine Berührungsanordnung
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE102009006082A1 (de) Verfahren zur Steuerung eines auf einem Bildschirm dargestellten Auswahlobjekts
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
DE112019000650T5 (de) Anzeige-benutzerschnittstelle und verwandte systeme, verfahren und vorrichtungen
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE102006006276B4 (de) Verfahren zur Steuerung eines Bilddisplays und diesbezügliches Bilddisplay-Steuerinterface
DE102021122362A1 (de) Wechsel zwischen zuständen in einer hybriden virtual-reality-desktop-rechenumgebung
DE102013203918A1 (de) Verfahren zum Betreiben einer Vorrichtung in einer sterilen Umgebung
DE102017115526A1 (de) Informationsverarbeitungsgerät, Verfahren zum Reduzieren einer Fehlbedienung und Programm
CN105302431A (zh) 图像处理设备、图像处理方法和图像处理系统
JP2729026B2 (ja) コンテナ・オブジェクトの内容物を提示する方法及び装置
EP1019800B1 (de) System zum erfassen und zum verarbeiten von benutzer-eingaben
CN108932054A (zh) 显示装置、显示方法和非暂时性的记录介质

Legal Events

Date Code Title Description
R012 Request for examination validly filed