DE112018006904B4 - Gerät und Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation - Google Patents

Gerät und Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation Download PDF

Info

Publication number
DE112018006904B4
DE112018006904B4 DE112018006904.4T DE112018006904T DE112018006904B4 DE 112018006904 B4 DE112018006904 B4 DE 112018006904B4 DE 112018006904 T DE112018006904 T DE 112018006904T DE 112018006904 B4 DE112018006904 B4 DE 112018006904B4
Authority
DE
Germany
Prior art keywords
function
activated
controller
key
source contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112018006904.4T
Other languages
English (en)
Other versions
DE112018006904T5 (de
Inventor
Chi T. Tran
Goktug Duman
Yunchen HUANG
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112018006904T5 publication Critical patent/DE112018006904T5/de
Application granted granted Critical
Publication of DE112018006904B4 publication Critical patent/DE112018006904B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/57Arrangements for indicating or recording the number of the calling subscriber at the called subscriber's set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72466User interfaces specially adapted for cordless or mobile telephones with selection means, e.g. keys, having functions defined by the mode or the status of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • H04W4/10Push-to-Talk [PTT] or Push-On-Call services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephone Function (AREA)

Abstract

Gerät umfassend:eine Kommunikationsschnittstelle;eine oder mehrere Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind;ein Anzeigegerät; undeinen Controller, eingerichtet zum:Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt;Erkennen, dass eine Taste der einen oder mehreren Tasten aktiviert wurde;Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist, wobei die entsprechende Funktion eine Ortungsfunktion umfasst;wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts von dem die elektronische Kommunikation empfangen wurde durch Bereitstellen, an dem Anzeigegerät, eines oder mehreres von folgendem: einem Standort des Quellenkontakts; und einer Route zu dem Quellenkontakt; undwenn die Taste nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von dem Quellenkontakt durch Bereitstellen, an dem Anzeigegerät, eines aktuellen Standorts des Geräts.

Description

  • HINTERGRUND DER ERFINDUNG
  • Der Betrieb von Funkgeräten und/oder mobilen Geräten durch Mitarbeiter der öffentlichen Sicherheit, wie zum Beispiel Polizeibeamte und dergleichen, kann in kritischen Situationen herausfordernd sein. Zum Beispiel können solche Mitarbeiter der öffentlichen Sicherheit gleichzeitig versuchen, Menschenmengen zu leiten, unberechenbare Personen zu handhaben und/oder mit gefährlichen Umgebungen fertig zu werden sowie gleichzeitig ein mobiles Gerät zu bedienen. Viele mobile Geräte tendieren dazu, Touchscreens zur Bedienung der mobilen Geräte zu integrieren, die im Allgemeinen visuelle Aufmerksamkeit sowie kognitive und physische Ressourcen des Mitarbeiters der öffentlichen Sicherheit erfordern, der mit einem Touchscreen interagiert. Aus der US 2015 / 0 290 548 A1 ist beispielsweise bekannt, die Bedienung eines Kommunikationsgerätes derart auszugestalten, dass nach dem Empfangen einer Kommunikation durch das Kommunikationsgerät durch das Betätigen eines Bedienelementes des Kommunikationsgerätes verschiedene Funktionen ausgelöst werden können, unabhängig von der seit dem Empfangen der Kommunikation verstrichenen Zeitspanne.
  • Figurenliste
  • Die beigefügten Abbildungen, bei denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist eine perspektivische Ansicht eines Geräts, das basierend auf einem Quellenkontakt einer elektronischen Kommunikation zum Einrasten von Tastenkontext eingerichtet ist, gemäß einigen Ausführungsformen.
    • 2 zeigt Details von Tasten des Geräts aus 1, gemäß einigen Ausführungsformen.
    • 3 ist ein schematisches Diagramm des Geräts aus 1, gemäß einigen Ausführungsformen.
    • 4 ist eine perspektivische Ansicht eines alternativen Geräts, das basierend auf einem Quellenkontakt einer elektronischen Kommunikation zum Einrasten von Tastenkontext eingerichtet ist, gemäß einigen Ausführungsformen.
    • 5 ist ein Flussdiagramm eines Verfahrens zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation, gemäß einigen Ausführungsformen.
    • 6 ist ein Flussdiagramm eines Verfahrens zum Einrasten von Tastenkontext basierend auf einer Kontaktinformation, die von einem Mikrofon empfangen wurde, gemäß einigen Ausführungsformen.
    • 7 zeigt eine Taste am Gerät von 1, die innerhalb einer Schwellenzeitspanne nach dem Empfangen einer elektronischen Kommunikation aktiviert wird, gemäß einigen Ausführungsformen.
    • 8 zeigt das Gerät, das eine elektronische Kommunikation unter Verwendung einer Netzwerkadresse erzeugt, die in der elektronischen Kommunikation innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation empfangen wurde, gemäß einigen Ausführungsformen.
    • 9 zeigt die elektronische Kommunikation, die innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation erzeugt wird, gemäß einigen Ausführungsformen.
    • 10 zeigt ein Beispiel für das Gerät, das eine entsprechende Funktion unabhängig von einem Quellenkontakt ausführt, gemäß einigen Ausführungsformen.
    • 11 zeigt eine elektronische Kommunikation, die nach einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation unter Verwendung einer Kontaktinformation, die an einem Mikrofon empfangen wurde, nach einem langen Drücken auf eine Taste erzeugt wurde, gemäß einigen Ausführungsformen.
    • 12 zeigt eine Ortungsfunktion, die innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation und nach der Schwellenzeitspanne ausgeführt wird, gemäß einigen Ausführungsformen.
    • 13 zeigt eine Sprachaktivierungstaste am Gerät aus 1, die aktiviert wird, und dass eine Kontaktinformation über ein Mikrofon empfangen wurde, gemäß einigen Ausführungsformen.
    • 14 zeigt das Gerät, dass Kontaktnamendaten unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurden, aus einem Speicher abruft, gemäß einigen Ausführungsformen.
    • 15 zeigt eine Taste am Gerät aus 1, die innerhalb einer Schwellenzeitspanne nach dem Aktivieren der Sprachaktivierungstaste aktiviert wird, gemäß einigen Ausführungsformen.
    • 16 zeigt das Gerät, welches eine elektronische Kommunikation unter Verwendung einer Netzwerkadresse basierend auf einer Kontaktinformation, die über das Mikrofon empfangen wurde, erzeugt, gemäß einigen Ausführungsformen.
    • 17 zeigt eine elektronische Kommunikation, die nach dem Aktivieren der Sprachaktivierungstaste unter Verwendung einer Kontaktinformation, die über ein Mikrofon empfangen wurde, erzeugt wird, gemäß einigen Ausführungsformen.
    • 18 zeigt eine Tabelle, die verschiedene Modi definiert, die für die Tasten ausgeführt werden, wenn sie gemäß vorgegebenen Mustern aktiviert werden, gemäß einigen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Der Betrieb von Funkgeräten und/oder mobilen Geräten durch Mitarbeiter der öffentlichen Sicherheit, wie zum Beispiel Polizeibeamte und dergleichen, kann in kritischen Situationen herausfordernd sein. Zum Beispiel können solche Mitarbeiter der öffentlichen Sicherheit gleichzeitig versuchen, Menschenmengen zu leiten, unberechenbare Personen zu handhaben und/oder mit gefährlichen Umgebungen fertig zu werden sowie gleichzeitig ein mobiles Gerät zu bedienen. Viele mobile Geräte tendieren dazu, Touchscreens zur Bedienung der mobilen Geräte zu integrieren, die im Allgemeinen visuelle Aufmerksamkeit sowie kognitive und physische Ressourcen des Mitarbeiters der öffentlichen Sicherheit erfordern, der mit einem Touchscreen interagiert. Eine Ablenkung des Mitarbeiters der öffentlichen Sicherheit kann daher zu einer fehlerhaften Bedienung des mobilen Geräts führen, was Rechen- und/oder Funkressourcen am mobilen Gerät verschwenden sowie in kritischen Situationen Probleme auslösen kann.
  • Ein Aspekt der Beschreibung stellt ein Gerät bereit, umfassend: eine Kommunikationsschnittstelle; eine oder mehrere Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind; und einen Controller, eingerichtet zum: Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; Erkennen, dass eine Taste der einen oder mehreren Tasten aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts von dem die elektronische Kommunikation empfangen wurde; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von dem Quellenkontakt.
  • Ein anderer Aspekt der Beschreibung stellt ein Verfahren bereit, umfassend: das Empfangen, über eine Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; das Erkennen, über einen Controller, dass eine Taste von einer oder mehreren Tasten aktiviert wurde, wobei jede der einen oder mehreren Tasten dem Aktivieren von entsprechenden Funktionen zugeordnet ist; das Identifizieren, über den Controller, einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation empfangen wurde; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unabhängig von dem Quellenkontakt.
  • Die Aufmerksamkeit wird gelenkt auf 1, die eine perspektivische Ansicht eines Geräts 101 zeigt, 2, die Details der Tasten des Geräts 101 zeigt, und 3, die ein schematisches Blockdiagramm des Geräts 101 zeigt. In 1 wird das Gerät 101 ferner so dargestellt, dass es mit einem zweiten Gerät 102 kommuniziert, und insbesondere als eine beispielhafte elektronische Kommunikation 103 von dem Gerät 102 über eine Kommunikationsverbindung 105 empfangend. Wie dargestellt, beinhaltet die beispielhafte elektronische Kommunikation 103 eine Netzwerkadresse 107 (zum Beispiel von dem Gerät 102 beispielsweise eine Internet-Protokoll-Adresse (IP-Adresse), eine E-Mail-Adresse, eine Telefonnummer, eine Funkgesprächsgruppenkennung und ähnliches), einen optionalen Standort 109 des Geräts 102 und einen optionalen Kontaktnamen 111, der mit dem Gerät 102 assoziiert ist. Der Kontaktname 111 kann einen Namen einer Person beinhalten, die mit dem Gerät 102 assoziiert ist (zum Beispiel einen natürlichen Namen, einen Vornamen, einen Alias und ähnliches). Wie dargestellt, umfasst die Netzwerkadresse 107 eine E-Mail-Adresse, „Kontakt1@123.com“, und der Kontaktname 111 wird als Text „Kontakt 1“ dargestellt. Die elektronische Kommunikation 103 kann als von einem Quellenkontakt empfangen bezeichnet werden, wobei der Quellenkontakt durch eines oder mehreres der folgenden definiert ist: eine Netzwerkadresse des Geräts 102; eine IP-Adresse des Geräts 102; eine Telefonnummer des Geräts 102; eine Gesprächsgruppenkennung, die mit dem Gerät 102 assoziiert ist; eine E-Mail-Adresse des Geräts 102; ein Name einer Person, die mit dem Gerät 102 assoziiert ist; und/oder alle in der elektronischen Kommunikation 103 empfangenen Daten, die das Gerät 102 und/oder einen Benutzer und/oder eine Person, die mit dem Gerät 102 assoziiert ist, identifizieren, und dergleichen. Während die elektronische Kommunikation 103 mit einem bestimmten beispielhaften Format dargestellt ist, kann die elektronische Kommunikation 103 eines oder mehreres von Folgendem umfassen: einen Telefonanruf, einen verpassten Telefonanruf, einen PTT-Ruf (zum Beispiel in einer Gesprächsgruppe), einen verpassten PTT-Ruf, eine Voicemail, eine abspielbare Nachricht (die beispielsweise abspielbares Video und/oder abspielbares Audio beinhalten kann), eine E-Mail, eine Textnachricht, eine SMS-Nachricht („Short Message Service (SMS) message“), eine MMS-Nachricht („Multimedia Messaging Service (MMS) message“), eine PTT-Nachricht („Push-to-Talk (PTT) message“) und ähnliches, mit einem Format, das einem Typ der elektronischen Kommunikation 103 entspricht.
  • Wie dargestellt, ist das Gerät 101 ferner mit einem Responder 115 assoziiert und/oder wird von diesem bedient. Beispielsweise ist der Responder 115, wie dargestellt, ein Polizeibeamter. Das Gerät 101 kann jedoch mit anderen Arten von Respondern und/oder anderen Arten von Mitarbeitern der öffentlichen Sicherheit, einschließlich, ohne darauf beschränkt zu sein, Feuerwehrleute, medizinische Notfallhelfer und dergleichen, assoziiert sein und/oder von diesen bedient werden. In der Tat kann das Gerät 101 alternativ mit Nicht-Respondern und/oder Nicht-Mitarbeitern der öffentlichen Sicherheit, wie zum Beispiel Bürgern und/oder Personen, die mit Unternehmen assoziiert sind, assoziiert sein und/oder von diesen bedient werden.
  • Unter Bezugnahme auf 1, 2 und 3 beinhaltet das Gerät 101: einen Controller 120, einen Speicher 122 (der eine Applikation 123 speichert), eine Kommunikationsschnittstelle 124 (austauschbar als Schnittstelle 124 bezeichnet), ein Anzeigegerät 126, mindestens ein Eingabegerät 128, ein Mikrofon 129, einen Lautsprecher 130 und ein Standortbestimmungsgerät 131. Wie dargestellt, beinhaltet das mindestens eine Eingabegerät 128 eine oder mehrere Tasten 132; zum Beispiel beinhaltet, wie es in 1 und 2 dargestellt ist, das mindestens eine Eingabegerät 128 vier Tasten 132-1, 132-2, 132-3, 132-4, die jeweils der Aktivierung der entsprechenden Funktionen zugeordnet sind. Wie dargestellt, beinhaltet das mindestens eine Eingabegerät 128 eine optionale Sprachaktivierungstaste 133, die eingerichtet ist, zum Aktivieren des Mikrofons 129, um eine Kontaktinformation zu erhalten, wie es weiter unten ausführlicher beschrieben ist. Unter Bezugnahme auf 1, das Eingabegerät 128 kann eine oder mehrere weitere Tasten 134 beinhalten, die entlang einer oder mehrerer Kanten des Geräts 101 und dergleichen angeordnet sind, zum Beispiel zum Ein- und Ausschalten des Geräts 101, zum Regeln der Lautstärke und dergleichen.
  • Während der Begriff „Tasten“ zur Beschreibung der Tasten 132, Taste 133 verwendet wird, kann der Begriff „Taste“ und/oder „Tasten“, wie hier beschrieben, darüber hinaus alle physischen Bedienelemente und/oder Hardwaresteuerungen und/oder Eingabegeräte umfassen, die von einem Benutzer ohne Zuhilfenahme der Augen und mit erhobenem Kopf taktil identifiziert und zur Aktivierung der jeweiligen Funktionen verwendet werden können. Solche Knöpfe können zum Beispiel, ohne darauf beschränkt zu sein, Schalter, Kippschalter, niederdrückbare Knöpfe, Touchscreens mit haptischem Feedback (die es einem Benutzer beispielsweise ermöglichen, eine Textur eines bestimmten Bereichs eines Touchscreens zu „fühlen“) und ähnliches beinhalten.
  • Während die Tasten 132, 133 in 1 so dargestellt sind, dass sie sich an der Vorderseite des Geräts 101 neben dem Anzeigegerät 126 befinden, können die Tasten 132, 133 außerdem irgendwo an dem Gehäuse des Geräts 101 angeordnet sein, zum Beispiel an einer Rückseite des Geräts 101, an einer Seite des Geräts 101 und/oder an einer Kante des Geräts 101 und dergleichen, einschließlich, ohne darauf beschränkt zu sein, neben den Tasten 134.
  • Wie in 2 am besten zu erkennen ist, können die Tasten 132 kreisförmig um die Sprachaktivierungstaste 133 angeordnet sein. Die Tasten 132 und 133 können jedoch in beliebige Weise angeordnet werden, einschließlich, ohne darauf beschränkt zu sein, in einer Reihe und dergleichen. Die Tasten 132, 133 können jedoch so eingerichtet und/oder angeordnet sein, um eine taktile Angabe ihrer Position und/oder ihrer jeweiligen Funktionalität anzuzeigen, um zumindest die Taste 133 von der Taste 132 zu unterscheiden. Zum Beispiel kann, wie es dargestellt ist, ein Benutzer des Geräts 101, wie zum Beispiel der Responder 115, bei dem Versuch, die Tasten 132, 133 zu finden, die Taste 133 von der Tasten 132 ohne Zuhilfenahme der Augen und mit erhobenem Kopf unterscheiden, da sich die Taste 133 in der Mitte der kreisförmigen Anordnung der Tasten 132 befindet. Alternativ dazu können die Tasten 132, 133 mit unterschiedlichen taktilen Texturen und ähnlichem eingerichtet werden, die vom Responder 115 verwendet werden können, um die Tasten 132, 133 durch Berühren ohne Zuhilfenahme der Augen und mit erhobenem Kopf zu identifizieren.
  • Darüber hinaus ist jede der Tasten 132 dem Aktivieren jeweiliger Funktionen zugeordnet. Solche jeweiligen Funktionen können unter Verwendung eines Menüsystems oder Ähnlichem konfigurierbar sein und/oder eine oder mehrere der Tasten 132 können einer bestimmten gegebenen Funktion zugeordnet sein. Unabhängig davon können die jeweiligen Funktionen, ohne darauf beschränkt zu sein, eine oder mehrere der folgenden Funktionen beinhalten: eine Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion und eine Ortungsfunktion. Insbesondere kann jede der Funktionen unter Verwendung einer Kontaktinformation ausgeführt werden, einschließlich, ohne darauf beschränkt zu sein, einer Kontaktinformation des Quellenkontakts, von der die elektronische Kommunikation 103 empfangen wurde.
  • Beispielsweise kann die Taste 132-1 verwendet werden, um eine PTT-Funktion zu einem Quellenkontakt zu aktivieren, die Taste 132-2 kann verwendet werden, um eine Messaging-Funktion (zum Beispiel eine E-Mail-Funktion und/oder eine Textfunktion) unter Verwendung eines Quellenkontakts zu aktivieren, die Taste 132-3 kann verwendet werden, um eine Privatruffunktion zu einem Quellenkontakt zu aktivieren, und die Taste 132-4 kann verwendet werden, um eine Ortungsfunktion unter Verwendung eines Quellenkontakts zu aktivieren.
  • Darüber hinaus können die Positionen jeder der Tasten 132 relativ zur Taste 133 (zum Beispiel und ein Gehäuse des Geräts 101) einem Benutzer (zum Beispiel dem Responder 115) ihre jeweilige Funktionalität ohne Zuhilfenahme der Augen und mit erhobenem Kopf anzeigen, zumindest sobald ein Benutzer in Bezug auf ihre jeweiligen Funktionen geschult ist. Zum Beispiel befindet sich die Taste 132-1 in einer „oberen“ Position, die Taste 132-2 in einer „rechten“ Position, die Taste 132-3 in einer „unteren“ Position und die Taste 132-4 in einer „linken“ Position, alle relativ zur Taste 133, einem Gehäuse des Geräts 101 und/oder zueinander.
  • Darüber hinaus kann, wie auch in 2 am besten zu sehen ist, jede Taste 132 mit einem Icon (zum Beispiel einem gedruckten Icon) versehen sein, das eine jeweilige Funktionalität anzeigt; in einigen Ausführungsformen können solche Icons mit taktilen Merkmalen versehen sein, um jede Taste 132 voneinander zu unterscheiden.
  • Wie es dargestellt ist, umfasst das Gerät 101 im Allgemeinen ein mobiles Gerät, das, ohne darauf beschränkt zu sein, jede geeignete Kombination von elektronischen Geräten, Kommunikationsgeräten, Datenverarbeitungsgeräten, tragbaren elektronischen Geräten, mobilen Datenverarbeitungsgeräten, tragbaren Datenverarbeitungsgeräten, Tablet-Datenverarbeitungsgeräten, Laptop-Computern, Telefonen, PDAs (Persönliche Digitale Assistenten), Mobiltelefonen, Smartphones, E-Readern, mobilen Kamerageräten und dergleichen umfasst. Andere geeignete Geräte liegen im Rahmen der vorliegenden Ausführungsformen, einschließlich nicht-mobiler Geräte, jeder geeigneten Kombination von Workstations, Servern, PCs, Versendeterminals („dispatch terminals“), Benutzerterminals in einer Leitstelle („dispatch center“) und dergleichen.
  • In einigen Ausführungsformen ist das Gerät 101 speziell für die Verwendung als Gerät der öffentlichen Sicherheit angepasst und kann von einer Behörde der öffentlichen Sicherheit und/oder einer Erste-Hilfe-Einrichtung eingesetzt und/oder verwaltet werden, einschließlich, ohne darauf beschränkt zu sein, Polizeiorganisationen, Gesundheitsorganisationen, Geheimdienstorganisationen, militärische Organisationen, Regierungsorganisationen und dergleichen.
  • In der Tat ist das Gerät 101 in einigen Ausführungsformen speziell für eine Notdienstfunkfunktionalität und dergleichen angepasst, die von Notfallhelfern verwendet wird, einschließlich, ohne darauf beschränkt zu sein, Polizeieinsatzkräfte, Feuerwehrleute, medizinische Notfalldienste und dergleichen.
  • In einigen dieser Ausführungsformen beinhaltet das Gerät 101 darüber hinaus andere Arten von Hardware für eine Notdienstfunkfunktionalität, einschließlich, ohne darauf beschränkt zu sein, eine PTT-Funktionalität. In einigen dieser Ausführungsformen kann das Gerät 101 ein Funkgerät umfassen, das ein ferngesteuertes Lautsprechermikrofon („remote speaker microphone (RSM)“) enthält, wie es zum Beispiel von den Behörden der öffentlichen Sicherheit verwendet wird; und eine oder mehrere der Tasten 132, 133 können in das ferngesteuerte Lautsprechermikrofon integriert sein.
  • Das Gerät 101 kann jedoch ferner für die Verwendung als ein Consumer- und/oder Businessgerät und dergleichen angepasst werden und/oder kann zusätzliche oder alternative Komponenten enthalten, die zum Beispiel mit Telefonie, Messaging, Unterhaltung und/oder irgendwelchen anderen Komponenten zusammenhängen, die mit Datenverarbeitungsgeräten und/oder Kommunikationsgeräten verwendet werden können.
  • Das Gerät 102 kann, obwohl es nicht im Detail beschrieben ist, dem Gerät 101 ähnlich sein und kann auch mit einem Responder assoziiert sein und/oder von einer Behörde der öffentlichen Sicherheit verwaltet werden; das Gerät 102 kann jedoch alternativ auch ein Consumergerät und/oder ein Businessgerät sein.
  • Bezugnehmend auf 3, der Controller 120 beinhaltet eine oder mehrere Logikschaltungen, einen oder mehrere Prozessoren, einen oder mehrere Mikroprozessoren, einen oder mehrere ASICs (anwendungsspezifische integrierte Schaltungen) und einen oder mehrere FPGAs („field-programmable gate arrays“). In einigen Ausführungsformen sind der Controller 120 und/oder das Gerät 101 kein generischer Controller und/oder ein generisches Gerät, sondern ein Gerät, das speziell eingerichtet ist, um eine Funktionalität zum Einrasten von Tastenkontext zu implementieren, basierend auf: einem Quellenkontakt einer elektronischen Kommunikation und/oder einer Kontaktinformation, die von einem Mikrofon empfangen werden (zum Beispiel wenn die optionale Taste 133 vorhanden ist). Zum Beispiel umfassen in einigen Ausführungsformen das Gerät 101 und/oder der Controller 120 insbesondere eine computerausführbare Engine, die dazu eingerichtet ist, dass sie eine spezifische Funktionalität zum Einrasten von Tastenkontext implementiert basierend auf: einem Quellenkontakt einer elektronischen Kommunikation und/oder einer Kontaktinformation, die von einem Mikrofon empfangen wird (zum Beispiel wenn die optionale Taste 133 vorhanden ist).
  • Der Speicher 122 ist ein maschinenlesbares Medium, das maschinenlesbare Anweisungen zur Implementierung eines oder mehrerer Programme oder Applikationen speichert. Beispielhafte maschinenlesbaren Medien beinhalten eine nichtflüchtige Speichereinheit (zum Beispiel EEPROM („Erasable Electronic Programmable Read Only Memory“), Flash-Speicher) und/oder eine flüchtige Speichereinheit (zum Beispiel RAM („random-access memory“)). In der Ausführungsform von 3 werden Programmieranweisungen (zum Beispiel maschinenlesbare Anweisungen), die die hier beschriebenen funktionalen Lehren des Geräts 101 implementieren, dauerhaft im Speicher 122 gehalten und vom Controller 120 verwendet, der den flüchtigen Speicher während des Ausführens solcher Programmieranweisungen angemessen nutzt.
  • Insbesondere speichert der Speicher 122 von 3 Anweisungen, die der Applikation 123 entsprechen, die, wenn sie vom Controller 120 ausgeführt wird, den Controller 120 in die Lage versetzt, die Funktionalität zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation zu implementieren. In erläuterten Beispielen ist der Controller 120, wenn der Controller 120 die Applikation 123 ausführt, dazu fähig: über die Kommunikationsschnittstelle 124 eine elektronische Kommunikation von einem Quellenkontakt zu empfangen; zu erkennen, dass eine Taste 132 der einen oder mehreren Tasten 132 aktiviert wurde; eine entsprechende Funktion zu identifizieren, die der Taste 132 zugeordnet ist; wenn die Taste 132 innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, die entsprechende Funktion unter Verwendung des Quellenkontakts auszuführen, von dem die elektronische Kommunikation empfangen wurde; und wenn die Taste 132 nach der Schwellenzeitspanne aktiviert wird, die entsprechende Funktion unabhängig vom Quellenkontakt auszuführen.
  • Das Ausführen der Applikation 123 durch den Controller 120 kann den Controller ferner in die Lage versetzen, Funktionen zum Einrasten von Tastenkontext basierend auf einer Kontaktinformation zu implementieren, die von einem Mikrofon empfangen wird, vorausgesetzt, dass zum Beispiel die optionale Sprachaktivierungstaste 133 am Gerät 101 vorhanden ist. In veranschaulichten Beispielen ist der Controller 120 beim Ausführen der Applikation 123 durch den Controller 120 ferner zu folgendem in der Lage: Erkennen, dass die Sprachaktivierungstaste 133 aktiviert ist; Empfangen, über das Mikrofon 129, einer Kontaktinformation; Erkennen, dass eine Taste 132 der einen oder mehreren Tasten 132 aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste 132 zugeordnet ist; wenn die Taste 132 innerhalb einer Schwellenzeitspanne nach Aktivierung der Sprachaktivierungstaste 133 aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation; und, wenn die Taste 132 nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von der Kontaktinformation.
  • Wie in 3 dargestellt, kann der Speicher 122 ferner eine Zuordnung 140 zwischen der einen oder mehreren Tasten 132 und ihren jeweiligen Funktionen speichern. Die Zuordnung 140 kann eine Nachschlagetabelle, eine Datenbank und ähnliches umfassen. Zum Beispiel beinhaltet die Zuordnung 140, wie es dargestellt ist, eine Kennung 141 für jede der einen oder mehreren Tasten 132 (zum Beispiel „1“ für die Taste 132-1, „2“ für die Taste 132-2, „3“ für die Taste 132-3 und „4“ für die Taste 132-4). Jede Kennung 141 ist einer entsprechenden Funktion zugeordnet, zum Beispiel Anweisungen 142 und dergleichen, zum Aktivieren der entsprechenden Funktion, die zum Aufrufen und/oder zum Implementieren der entsprechenden Funktion am Controller 120 verwendet werden kann. Die Assoziierung wird in 3 durch eine entsprechende gestrichelte Linie zwischen einer Kennung 141 und einer assoziierten Anweisung 142 dargestellt. Jede der Instruktionen 142 wird in der beispielhaften Zuordnung 140 unter Verwendung des entsprechenden Texts „Funktion 1“, „Funktion 2“, „Funktion 3“, „Funktion 4“ identifiziert.
  • Zum Beispiel können die Anweisungen 142 für „Funktion 1“, die der Taste 132-1 zugeordnet sind, Anweisungen zum Aktivieren einer PTT-Funktion zu einem Quellenkontakt umfassen, die, ohne darauf beschränkt zu sein, das Aktivieren einer PTT-Funktion zu einer mit dem Quellenkontakt assoziierten Gesprächsgruppe beinhalten kann (zum Beispiel ein PTT-Gruppenruf an eine Gesprächsgruppe, die den Quellenkontakt und/oder eine in Bezug auf den Quellenkontakt identifizierte Gesprächsgruppe beinhaltet). In ähnlicher Weise können Anweisungen 142 für „Funktion 2“, die der Taste 132-2 zugeordnet sind, Anweisungen zum Aktivieren einer Messaging-Funktion unter Verwendung eines Quellenkontakts umfassen. In ähnlicher Weise können Anweisungen 142 für „Funktion 3“, die der Taste 132-3 zugeordnet sind, Anweisungen zum Aktivieren einer Privatruffunktion (zum Beispiel einer Telefonfunktion) zu einem Quellenkontakt umfassen. In ähnlicher Weise können Anweisungen 142 für „Funktion 4“, die der Taste 132-4 zugeordnet sind, Anweisungen zum Aktivieren einer Ortungsfunktion unter Verwendung eines Quellenkontakts umfassen.
  • Darüber hinaus kann die jeweilige Funktion für jede Taste 132 beispielsweise unter Verwendung eines Menüsystems oder Ähnlichem am Gerät 101 konfigurierbar sein. In diesen Ausführungsformen können die Anweisungen 142 geändert und/oder aktualisiert werden, wenn eine Taste 132 geändert wird, um eine andere entsprechende Funktion zu aktivieren.
  • In anderen Ausführungsformen können eine oder mehrere der Tasten 132 einer gegebenen jeweiligen Funktion zugeordnet sein; in diesen Ausführungsformen kann die Zuordnung 140 optional sein, da jede Taste 132, die einer gegebenen jeweiligen Funktion zugeordnet ist, fest verdrahtet oder Ähnliches sein kann, um die jeweilige Funktion auszuführen, und/oder Anweisungen zum Ausführen der gegebenen jeweiligen Funktion können in Betriebsanweisungen für das Gerät 101 eingebettet und nicht konfigurierbar sein.
  • Darüber hinaus können die Anweisungen 142 in der Zuordnung 140 alternativ durch eine Kennung einer entsprechenden Funktion ersetzt werden, die zum Ausführen der entsprechenden Funktion verwendet werden kann, zum Beispiel unter Verwendung von Applikationen (nicht abgebildet) zum Implementieren der entsprechenden Funktionen, die im Speicher 122 gespeichert werden können.
  • Wie dargestellt, kann der Speicher 122 ferner Kontaktdaten 150 speichern, die, ohne darauf beschränkt zu sein, ein elektronisches Adressbuch und dergleichen beinhalten können. Die Kontaktdaten 150 speichern zum Beispiel die Kontaktnamendaten 151-1, 151-2 und dergleichen. Die Kontaktnamendaten 151-1, 151-2 werden im Folgenden austauschbar, kollektiv und generisch als Kontaktnamendaten 151 bezeichnet. Während in der beispielhaften Ausführungsform zwei Sätze von Kontaktnamendaten 151 dargestellt werden (zum Beispiel „Kontaktname 1“ und „Kontaktname 2“), können die Kontaktdaten 150 eine beliebige Anzahl von Sätzen von Kontaktnamendaten 151 speichern.
  • Im Folgenden wird davon ausgegangen, dass die Kontaktnamendaten 151-1 Information speichern, die mit dem Gerät 102 und/oder dem Kontaktnamen 111 assoziiert sind, und können eine Information beinhalten, die der Information ähnlich ist, die in der elektronischen Kommunikation 103 empfangen wurde.
  • Im Folgenden wird weiter angenommen, dass die Kontaktnamendaten 151-2 eine Information speichert, die mit einem Gerät und/oder einem Kontaktnamen assoziiert ist, das/der von dem Gerät 102 und/oder dem Kontaktnamen 111 verschieden ist.
  • Jeder Satz von Kontaktnamendaten 151 kann eine Kontaktinformation für einen Kontakt und/oder einen Quellenkontakt und/oder einen Kontaktnamen beinhalten, die, ohne darauf beschränkt zu sein, eines oder mehreres von Folgendem beinhaltet: eine Netzwerkadresse eines Geräts, das mit einem entsprechenden Kontakt assoziiert ist, eine IP-Adresse des Geräts, das mit dem entsprechenden Kontakt assoziiert ist, eine Telefonnummer des Geräts, das mit dem entsprechenden Kontakt assoziiert ist, eine Funkrufgruppenkennung, die mit dem Gerät assoziiert ist, das mit dem entsprechenden Kontakt assoziiert ist, eine E-Mail-Adresse des Geräts, das mit dem entsprechenden Kontakt assoziiert ist, und einem Namen (zum Beispiel ein natürlicher Name, ein Vorname, ein Alias und dergleichen) des jeweiligen Kontakts.
  • Tatsächlich kann unter Verwendung einer Information, die in der elektronischen Kommunikation 103 empfangen wurde, ferner eine Information, die mit dem Quellenkontakt assoziiert ist (zum Beispiel eine Information, die nicht mit der elektronischen Kommunikation 103 empfangen wurde), von den Kontaktnamendaten 151-1 abgerufen werden. Wenn zum Beispiel die elektronische Kommunikation 103 keine Telefonnummer und/oder Gesprächsgruppenkennung des Quellenkontakts (zum Beispiel des Geräts 102) beinhaltet, die elektronische Kommunikation 103 jedoch einen Namen des Quellenkontakts (zum Beispiel einen Kontaktnamen 111) beinhaltet, der auch in den Kontaktnamendaten 151-1 gespeichert ist, können die Telefonnummer und/oder die Gesprächsgruppenkennung des Quellenkontakts unter Verwendung des Namens des Quellenkontakts, der in der elektronischen Kommunikation 103 empfangen wurde, aus den Kontaktnamendaten 151-1 abgerufen werden.
  • Die Schnittstelle 124 ist im Allgemeinen dazu eingerichtet, über die Verbindung 105 zu kommunizieren, die je nach Wunsch eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen beinhalten kann, einschließlich, ohne darauf beschränkt zu sein, Kabel, WiFi-Verbindungen und ähnliches. Mit anderen Worten, die Schnittstelle 124 ist fähig, unter Verwendung jeder geeigneten Kombination von drahtgebundenen Netzwerken und/oder drahtlosen Netzwerken zu kommunizieren. Die Schnittstelle 124 kann zum Beispiel durch ein oder mehrere Funkgeräte und/oder Verbinder („connectors“) und/oder Netzwerkadapter implementiert werden, die dazu eingerichtet sind, mit einer Netzwerkarchitektur, die zur Implementierung der Verbindung 105 verwendet wird, drahtlos zu kommunizieren. In einigen Ausführungsformen beinhaltet die Schnittstelle 124, ohne darauf beschränkt zu sein, einen oder mehrere Breitband- und/oder Schmalband-Transceiver, wie zum Beispiel einen LTE-Transceiver („Long Term Evolution (LTE) transceiver“), einen Transceiver der dritten Generation (3G) (3GGP oder 3GGP2), einen APCO-P25-Transceiver („Association of Public Safety Communication Officials (APCO) Project 25 (P25) transceiver“), einen DMR-Transceiver („Digital Mobile Radio (DMR) transceiver“), einen TETRA-Transceiver („Terrestrial Trunked Radio (TETRA) transceiver“), einen WiMAX-Transceiver („Worldwide Interoperability for Microwave Access (WiMAX) transceiver“), der gemäß einem IEEE-802.16-Standard arbeitet, und/oder einen anderen ähnlichen Typ eines drahtlosen Transceivers, der zur Kommunikation über ein drahtloses Netzwerk für die Infrastrukturkommunikationen konfigurierbar ist. In noch weiteren Ausführungsformen beinhaltet die Schnittstelle 124 einen oder mehrere Transceiver für lokale Netzwerke oder persönliche Bereichsnetzwerke, die gemäß einem IEEE-802.11-Standard (zum Beispiel 802.11a, 802.11b, 802.11 g) arbeiten, oder einen Bluetooth™-Transceiver. In einigen Ausführungsformen ist die Schnittstelle 124 ferner dazu eingerichtet, auf einigen Kommunikationskanälen „Funkgerät-zu-Funkgerät“ zu kommunizieren, während andere Kommunikationskanäle dazu eingerichtet sind, eine drahtlose Netzwerkinfrastruktur zu verwenden. Beispielhafte Kommunikationskanäle, über die die Schnittstelle 124 im Allgemeinen zum drahtlosen Kommunizieren eingerichtet wird, beinhalten, ohne darauf beschränkt zu sein, eines oder mehreres von Folgendem: drahtlose Kanäle, Mobiltelefonkanäle, zellulare Netzwerkkanäle, paketbasierte Kanäle, analoge Netzwerkkanäle, VolP („Voice-Over-Internet“), PTT-Kanäle und dergleichen und/oder eine Kombination davon. Tatsächlich beinhaltet der Begriff „Kanal“ und/oder „Kommunikationskanal“, wie er hier verwendet wird, ohne darauf beschränkt zu sein, einen physikalischen RF-Kommunikationskanal („radio-frequency (RF) communication channel“), einen logischen RF-Kommunikationskanal, eine nicht-Bündelfunk-Gesprächsgruppe und/oder eine Bündelfunk-Gesprächsgruppe (hier austauschbar als „Gesprächsgruppe“ bezeichnet), eine nicht-Bündelfunk-Ansagegruppe, eine Bündelfunk-Ansagegruppe, einen VolP-Kommunikationspfad, ein PTT-Kanal und dergleichen.
  • Das Anzeigegerät 126 umfasst einen oder mehrere beliebige geeignete Flachbildschirme (zum Beispiel LCDs („liquid crystal display“), Plasmabildschirme, OLEDs („organic light emitting diode“)), Touchscreens und dergleichen, oder eine Kombination davon.
  • Obwohl es nicht dargestellt ist, kann das Gerät 101 zusätzlich zu den Tasten 132, 133, 134 auch andere Eingabegeräte 128 umfassen, einschließlich, ohne darauf beschränkt zu sein, Zeigegeräte, Touchpads, Tasten, Tastaturen und dergleichen.
  • Das Mikrofon 129 ist im Allgemeinen dazu eingerichtet, Sprachbefehle, Sprachinteraktionen und ähnliches vom Responder 115 und Anderen zu empfangen, einschließlich, ohne darauf beschränkt zu sein, einer Kontaktinformation, die einer in den Kontaktnamendaten 151 gespeicherten Information entspricht.
  • Der Lautsprecher 130 ist im Allgemeinen dazu eingerichtet, eine Audiofunktionalität des Geräts 101 bereitzustellen, einschließlich, ohne darauf beschränkt zu sein, eine Telefonfunktionalität, eine PTT-Funktionalität und ähnliches. Darüber hinaus kann der Lautsprecher 130 verwendet werden, wenn eine Text-zu-Sprache-Funktionalität des Geräts 101 implementiert wird, wie es weiter unten näher beschrieben wird.
  • Das Standortbestimmungsgerät 131 kann eines oder mehreres von Folgendem beinhalten: ein GPS-Gerät („Global Positioning System (GPS) device“), ein Triangulationsgerät und dergleichen.
  • Darüber hinaus können eine oder mehrere Komponenten des Geräts 101, wie zum Beispiel das Anzeigegerät 126, die Eingabegeräte 128 (einschließlich einer oder mehrerer der Tasten 132, 133, 134), das Mikrofon 129 und der Lautsprecher 130, außerhalb des Geräts 101 liegen und für das Gerät 101 über die Schnittstelle 124 zugänglich sein. Beispielsweise können eine oder mehrere der Tasten 132, 133, 134, das Mikrofon 129 und der Lautsprecher 130 in ein externes Lautsprechermikrofon (nicht abgebildet), oder Ähnliches, des Geräts 101 eingebaut sein. In ähnlicher Weise kann Gerät 101 einen Laptop-Computer und/oder einen PC umfassen, und das Anzeigegerät 126 und/oder eines oder mehrere der Eingabegeräte 128 (zum Beispiel eine Tastatur und/oder ein Zeigegerät) können außerhalb des Laptop-Computers und/oder des PCs liegen.
  • Auch wenn es nicht abgebildet ist, das Gerät 101 kann ferner eine Batterie und/oder eine Stromversorgung und/oder eine Verbindung an ein Stromnetz und/oder ein oder mehrere Lampen und/oder eine oder mehrere haptische Vorrichtungen und/oder eine oder mehrere Benachrichtigungsvorrichtungen umfassen. Zum Beispiel kann das Gerät 101 ferner eine Uhr zur Zeiterfassung enthalten, zum Beispiel um festzustellen, ob das Aktivieren von Tasten 132, 133 innerhalb eines Schwellenzeitspanne und/oder nach einer Schwellenzeitspanne erfolgt; eine solche Uhr kann, ohne darauf beschränkt zu sein, eine Uhr des Controllers 120 und/oder eine Uhr eines Hardware-Prozessors des Controllers 120 beinhalten.
  • In jedem Fall sollte verstanden werden, dass eine Vielzahl von Konfigurationen des Geräts 101 in den Bereich der vorliegenden Ausführungsformen fällt.
  • Während beispielhafte Ausführungsformen des Geräts 101, die mit Bezug auf 1, 2 und 3 beschrieben werden, vier Tasten 132 beinhalten, können in anderen Ausführungsformen Geräte, die für das Einrasten von Tastenkontext eingerichtet sind, basierend auf einem oder mehreren von einem Quellenkontakt einer elektronischen Kommunikation und einer Kontaktinformation, die an einem Mikrofon empfangen wird, wie es hier beschrieben ist, auch nur eine Taste 132 beinhalten.
  • Beispielhaft wird die Aufmerksamkeit auf 4 gelenkt, die eine perspektivische Ansicht eines Geräts 401 zeigt, das dem Gerät 101 im Wesentlichen ähnlich ist. Obwohl es nicht dargestellt ist, wird angenommen, dass das Gerät 401 ähnliche Komponenten wie das Gerät 101 beinhaltet, einschließlich, ohne darauf beschränkt zu sein, einen Controller, einen Speicher, eine Kommunikationsschnittstelle, ein Mikrofon und so weiter. Das Gerät 401 beinhaltet jedoch eine Taste 432, die entlang einer Seite und/oder einer Kante des Geräts 401 angeordnet ist, und die einer entsprechenden Funktion zugeordnet ist und ansonsten den Tasten 132 ähnlich ist. Da am Gerät 401 nur eine Taste 432 vorhanden ist (im Vergleich zu vier Tasten 132 am Gerät 101), kann die jeweilige Funktion der Taste 432 konfigurierbar sein, zum Beispiel über ein Menüsystem oder Ähnliches. Die Taste 432 kann jedoch alternativ auch einer gegebenen jeweiligen Funktion zugeordnet sein.
  • Darüber hinaus beinhaltet das Gerät 401 eine Sprachaktivierungstaste 433, die sich neben der Taste 432 auf derselben Seite und/oder an derselben Kante des Geräts 401 wie die Taste 432 befindet. Die Sprachaktivierungstaste 433 ist ansonsten ähnlich wie die Taste 133. Wie dargestellt, beinhaltet die Taste 433 eine taktile Textur (zum Beispiel in Form eines erhabenen Teils), die von einer taktilen Textur der Taste 432 verschieden ist; daher kann ein Benutzer des Geräts 401, wie zum Beispiel der Responder 115 und ähnliche, die Tasten 432, 433 ohne Zuhilfenahme der Augen und mit erhobenem Kopf voneinander unterscheiden. Die relative Anordnung der Tasten 432, 433 auf einem Gehäuse des Geräts 401 kann es einem Benutzer des Geräts 401 jedoch auch ermöglichen, die Tasten 432, 433 ohne Zuhilfenahme der Augen und mit erhobenem Kopf voneinander zu unterscheiden.
  • Die Aufmerksamkeit wird nun auf 5 gelenkt, die ein Flussdiagramm zeigt, dass ein Verfahren 500 zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation darstellt. In einigen Ausführungsformen entsprechen die Operationen des Verfahrens 500 aus 5 maschinenlesbaren Anweisungen, die zum Beispiel vom Gerät 101, und insbesondere vom Controller 120 des Geräts 101, ausgeführt werden. In dem dargestellten Beispiel werden die durch die Blöcke von 5 repräsentierten Anweisungen im Speicher 122 gespeichert, zum Beispiel als die Applikation 123. Das Verfahren 500 aus 5 ist eine Möglichkeit, wie das Gerät 101 und/oder der Controller 120 eingerichtet ist. Darüber hinaus wird die folgende Diskussion des Verfahrens 500 aus 5 zu einem besseren Verständnis des Geräts 101 und seiner verschiedenen Komponenten führen.
  • Es sollte jedoch verstanden werden, dass das Gerät 101 und/oder der Controller 120 und/oder das Verfahren 500 variiert werden können und nicht genau so funktionieren müssen, wie es hier in Verbindung miteinander diskutiert wird, und dass solche Variationen im Rahmen der vorliegenden Ausführungsformen liegen.
  • Darüber hinaus muss das Verfahren 500 aus 5 nicht exakt in der dargestellten Reihenfolge durchgeführt werden, und ebenso können verschiedene Blöcke parallel statt nacheinander durchgeführt werden. Dementsprechend werden die Elemente des Verfahrens 500 hier als „Blöcke“ und nicht als „Schritte“ bezeichnet.
  • Obwohl das Verfahren 500 in Bezug auf die Ausführung am Gerät 101 beschrieben wird, kann das Verfahren 500 an einem Controller des Geräts 401 und/oder Variationen der Geräte 101, 401 ausgeführt werden.
  • Bei einem Block 502 empfängt der Controller 120 über die Kommunikationsschnittstelle 124 eine elektronische Kommunikation von einem Quellenkontakt, zum Beispiel die von dem Gerät 102 empfangene elektronische Kommunikation 103. Der Controller 120, der den Block 502 ausführt, kann das Bereitstellen einer Benachrichtigung über die elektronische Nachricht 103 an dem Gerät 101 ohne Zuhilfenahme der Augen beinhalten, zum Beispiel durch das Steuern des Lautsprechers 130, so dass er einen Ton ausgibt, der einer Benachrichtigung über die elektronische Nachricht 103 entspricht.
  • Bei einem Block 504 erkennt der Controller 120, dass eine Taste 132 von der einen oder den mehreren Tasten 132 aktiviert wurde.
  • Bei einem Block 506 identifiziert der Controller 120 eine entsprechende Funktion, die der Taste 132 zugeordnet ist, die aktiviert wurde.
  • Bei einem Block 508 bestimmt der Controller 120, ob die Taste 132 innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wurde. Die Schwellenzeitspanne kann zum Beispiel in der Applikation 123 gespeichert sein und/oder die Schwellenzeitspanne kann am Gerät 101 konfigurierbar sein (zum Beispiel unter Verwendung eines Menüsystems).
  • In einigen beispielhaften Ausführungsformen kann die Schwellenzeitspanne etwa 10 Sekunden betragen; die Schwellenzeitspanne kann jedoch auch weniger als 10 Sekunden oder mehr als 10 Sekunden betragen.
  • In einigen Ausführungsformen kann, wenn eine Benachrichtigung über die elektronische Kommunikation 103 in Block 502 bereitgestellt wird, die Schwellenzeitspanne beginnen nachdem die Benachrichtigung bereitgestellt wird. Die Benachrichtigung kann zum Beispiel eine akustische Benachrichtigung umfassen, bei der Teile der elektronischen Nachricht 103 mittels einer Text-zu-Sprache-Funktionalität in Ton umgewandelt und vom Lautsprecher 130 abgespielt werden; die Schwellenzeitspanne kann nach dem Bereitstellen der Benachrichtigung und/oder wenn die Benachrichtigung endet beginnen.
  • In einigen Ausführungsformen kann die elektronische Kommunikation 103 jedoch eine abspielbare Nachricht umfassen, zum Beispiel eine Voicemail, eine Multimedianachricht und ähnliches, und die Schwellenzeitspanne kann so gewählt werden, dass sie nach Ablauf einer gegebenen Zeit nach dem Abspielen der abspielbaren Mitteilung endet. Wenn die Schwellenzeitspanne beispielsweise 10 Sekunden ist, die abspielbare Nachricht jedoch länger als 10 Sekunden ist, kann die Schwellenzeitspanne enden und/oder verlängert werden, um innerhalb einer bestimmten gegebenen Zeit nach dem Ende des Abspielens der abspielbaren Nachricht zu enden, beispielsweise weitere 10 Sekunden und dergleichen, und/oder die Schwellenzeitspanne kann beginnen, wenn das Abspielen der abspielbaren Nachricht endet. In ähnlicher Weise kann, wenn die elektronische Kommunikation 103 ein Telefongespräch ist, die Schwellenzeitspanne so verlängert werden, dass sie innerhalb einer bestimmten gegebenen Zeit nach dem Ende des Telefongesprächs endet und/oder die Schwellenzeitspanne kann beginnen, wenn das Telefongespräch endet.
  • Wenn die Taste 132 innerhalb der Schwellenzeitspanne aktiviert wurde (zum Beispiel eine „Ja“-Entscheidung bei dem Block 508), führt der Controller 120 bei einem Block 510 die entsprechende Funktion unter Verwendung des Quellenkontakts aus, von dem die elektronische Kommunikation empfangen wurde.
  • Beispielsweise kann eine Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion und/oder eine Ortungsfunktion unter Verwendung des Quellenkontakts ausgeführt werden. Beispielsweise können eines oder mehreres aus einer Nachricht, einer E-Mail, einem PTT-Ruf, einem Privatruf (zum Beispiel ein Telefonanruf) und Videostreaming an den Quellenkontakt initiiert werden. Alternativ kann eine Ortungsfunktion initiiert werden, um einen Standort des Quellenkontakts, zum Beispiel auf einer auf dem Anzeigegerät 126 wiedergegebenen Karte, anzugeben und/oder eine Route und/oder eine Wegbeschreibung zum Quellenkontakt bereitzustellen.
  • Alternativ kann eine Ereignisverwaltungsfunktion initiiert werden, um beispielsweise vom Gerät 101 gesammelte Ereignisdaten (zum Beispiel in einem Ereignisbericht) an den Quellenkontakt zu übertragen und/oder vom Gerät 101 gesammelte Ereignisdaten mit dem Quellenkontakt zu teilen und/oder den Quellenkontakt einem Ereignisbericht hinzuzufügen. Andere Arten von Ereignisverwaltungsfunktionen liegen im Bereich der vorliegenden Ausführungsformen. Beispielsweise kann eine Ereignisverwaltungsfunktion initiiert werden, um eine Information abzurufen, die spezifisch für den Quellenkontakt ist, einschließlich, ohne darauf beschränkt zu sein, eines oder mehreres von Folgendem: einen Standort des Quellenkontakts; eine Rolle und/oder ein Rang und/oder ein Titel des Quellenkontakts; dem Quellenkontakt zugängliche Ausrüstung, zum Beispiel Ausrüstung zum Verwalten eines Ereignisses; eine Ereignisinformation zu einem Ereignis, an dem ein Quellenkontakt derzeit beteiligt ist, und ähnliches. Solch eine Ereignisinformation, die von der Ereignisverwaltungsfunktion abgerufen wird, kann, ohne darauf beschränkt zu sein, eines oder mehreres von Folgendem beinhalten: einen Ereignisnamen, eine Ereignisschwere, einen Ereignisort, eine Ereignisbeschreibung, andere Mitarbeiter (zum Beispiel Polizeibeamte und/oder Mitarbeiter der öffentlichen Sicherheit), die mit dem Ereignis assoziiert sind, und dergleichen. In einigen Ausführungsformen kommuniziert das Gerät 101 daher beim Implementieren einer Ereignisverwaltungsfunktion mit einem Ereignisverwaltungsserver, um eine solche Ereignisinformation abzurufen.
  • Der Controller 120 kann dann die Blöcke 504, 506, 508, 510 wiederholen, zum Beispiel wenn eine andere Taste 132 und/oder dieselbe Taste 132 innerhalb der Schwellenzeitspanne aktiviert wird. Beispielsweise kann der Controller 120 ferner dazu eingerichtet sein, um die jeweiligen Funktionen jeder der einen oder mehreren Tasten 132 unter Verwendung des Quellenkontakts auszuführen, wenn er innerhalb der Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation 103 aktiviert wird. Auf diese Weise wird der Tastenkontext der Tasten 132 „eingerastet“, wenn die elektronische Kommunikation 103 empfangen wird, wobei der Tastenkontext durch einen Quellenkontakt der elektronischen Kommunikation 103 definiert ist und/oder auf diesem basiert. Daher wird jedes Mal, wenn eine Taste 132 innerhalb der Schwellenzeitspanne aktiviert wird, eine entsprechende Funktion unter Verwendung des Quellenkontakts der elektronischen Kommunikation 103 ausgeführt. Daher kann der Responder 115 die Funktionalität des Geräts 101 ohne Zuhilfenahme der Augen und mit erhobenem Kopf aktivieren, zum Beispiel, um auf die elektronische Kommunikation 103 zu antworten, so dass der Responder 115 nicht auf das Gerät 101 und/oder das Anzeigegerät 126 schauen muss, um auf die elektronische Kommunikation 103 zu antworten.
  • In noch weiteren Ausführungsformen wird die Schwellenzeitspanne jedes Mal, wenn eine Taste 132 aktiviert wird, und/oder jedes Mal, wenn eine entsprechende Funktion, die beim Aktivieren einer Taste 132 ausgeführt wird, abgeschlossen wird, zurückgesetzt. So kann beispielsweise, wenn eine Taste 132 bei Block 504 aktiviert wird, eine Schwellenzeitspanne zurückgesetzt werden, und/oder wenn die jeweilige Funktion bei Block 510 abgeschlossen ist, kann die Schwellenzeitspanne zurückgesetzt werden. Daher kann, wenn die Blöcke 504, 506, 508, 510 wiederholt werden, die Schwellenzeitspanne für jede Wiederholung zurückgesetzt werden. Zum Beispiel kann, wenn eine elektronische Kommunikation bei dem Block 502 empfangen wird, wie zum Beispiel eine E-Mail, die Taste 132-3 bei Block 504 aktiviert werden und die entsprechende Funktion eines Telefonanrufs kann bei Block 508 ausgeführt werden, um einen Anruf an den Quellenkontakt der E-Mail zu initiieren, vorausgesetzt, dass die Taste 132-3 innerhalb der Schwellenzeitspanne nach dem Empfangen der E-Mail aktiviert wird. Dann kann, wenn der Telefonanruf beendet ist, die Schwellenzeitspanne zurückgesetzt werden, so dass, wenn eine Taste 132 (die die zuvor aktivierte Taste 132-3 beinhalten kann) innerhalb der Rücksetzzeit-Schwellenzeitspanne aktiviert wird, eine entsprechende Funktion unter Verwendung des Quellenkontakts ausgeführt wird. Daher kann ein Tastenkontext der Tasten 132 nach jedem Aktivierungsfall einer Taste 132 und/oder nach dem Beenden des Ausführens einer entsprechenden Funktion einer aktivierten Taste 132 innerhalb der Schwellenzeitspanne, nach dem Empfangen der anfänglichen elektronischen Kommunikation, „einrasten“ und/oder erweitert werden.
  • Zurück zu dem Block 508, wenn die Taste 132 nach der Schwellenzeitspanne aktiviert wurde (zum Beispiel eine „Nein“-Entscheidung bei Block 508), führt der Controller 120, bei einem Block 512, die entsprechende Funktion unabhängig vom Quellenkontakt aus.
  • In einigen Ausführungsformen kann die jeweilige Funktion zum Beispiel ohne Kontaktinformation initiiert werden; daher kann zum Beispiel eine Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Telefonfunktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion und/oder eine Ortungsfunktion ohne jede Kontaktinformation initiiert werden. Eine Kontaktinformation kann jedoch durch das Empfangen einer Eingabe an einem Eingabegerät (zum Beispiel eine auf einem Touchscreen dargestellte Tastatur) nach dem Aktivieren einer Taste 132 empfangen werden.
  • Die Aufmerksamkeit wird nun auf 6 gerichtet, die ein Flussdiagramm zeigt, das ein Verfahren 600 zum Einrasten von Tastenkontext basierend auf einer von einem Mikrofon empfangenen Kontaktinformation darstellt. In einigen Ausführungsformen entsprechen die Operationen des Verfahrens 600 aus 6 maschinenlesbaren Anweisungen, die zum Beispiel vom Gerät 101 und insbesondere vom Controller 120 des Geräts 101 ausgeführt werden. In dem illustrierten Beispiel werden die durch die Blöcke von 6 repräsentierten Anweisungen im Speicher 122 gespeichert, zum Beispiel als die Applikation 123. Das Verfahren 600 aus 6 ist eine Art, in der das Gerät 101 und/oder der Controller 120 eingerichtet ist. Darüber hinaus wird die folgende Diskussion des Verfahrens 600 aus 6 zu einem besseren Verständnis des Geräts 101 und seiner verschiedenen Komponenten führen.
  • Es sollte jedoch verstanden werden, dass das Gerät 101 und/oder der Controller 120 und/oder das Verfahren 600 variiert werden können und nicht genau so funktionieren müssen, wie es hier in Verbindung miteinander diskutiert ist, und dass solche Variationen im Rahmen der vorliegenden Ausführungsformen liegen.
  • Darüber hinaus muss das Verfahren 600 aus 6 nicht in genau der dargestellten Reihenfolge ausgeführt werden, und ebenso können verschiedene Blöcke nicht nacheinander, sondern parallel ausgeführt werden. Dementsprechend werden die Elemente des Verfahrens 600 hier als „Blöcke“ und nicht als „Schritte“ bezeichnet.
  • Obwohl das Verfahren 600 in Bezug auf die Ausführung am Gerät 101 beschrieben wird, kann das Verfahren 600 an einem Controller des Geräts 401 und/oder Variationen der Geräte 101, 401 ausgeführt werden.
  • Bei einem Block 602 erkennt der Controller 120, dass die Sprachaktivierungstaste 133 aktiviert wurde.
  • Bei einem Block 604 empfängt der Controller 120, über das Mikrofon 129, eine Kontaktinformation. Die Kontaktinformation kann über eine Sprache-zu-Text-Funktionalität erkannt werden (zum Beispiel bei der Applikation 123 und/oder einer dedizierten Sprache-zu-Text-Applikation). In einigen Ausführungsformen kann ein Satz von Kontaktnamendaten 151 aus den Kontaktdaten 150 unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation ausgewählt werden; zum Beispiel kann der Responder 115 den Namen eines in den Kontaktnamendaten 151 gespeicherten Kontakts sagen, und der Controller 120 kann die entsprechenden Kontaktnamendaten 151 aus den Kontaktdaten 150 auswählen. Alternativ kann die über das Mikrofon 129 empfangene Kontaktinformation auch eine Netzwerkadresse oder Ähnliches beinhalten, die zum Ausführen einer entsprechenden Funktion einer Taste 132 verwendet werden kann.
  • An einem Block 606 erkennt der Controller 120, dass eine Taste 132 von der einen oder den mehreren Tasten 132 aktiviert wurde, ähnlich zu dem Block 504 des Verfahrens 500.
  • Bei einem Block 608 identifiziert der Controller 120 eine entsprechende Funktion, die der Taste 132 zugeordnet ist, die aktiviert wurde, ähnlich zu dem Block 506 des Verfahrens 500.
  • Bei einem Block 610 bestimmt der Controller 120, ob die Taste 132 innerhalb einer Schwellenzeitspanne nach Aktivierung der Sprachaktivierungstaste 133 aktiviert wurde. Die Schwellenzeitspanne kann zum Beispiel in der Applikation 123 gespeichert sein und/oder die Schwellenzeitspanne kann am Gerät 101 konfigurierbar sein (zum Beispiel unter Verwendung eines Menüsystems). Darüber hinaus kann die Schwellenzeitspanne gleich oder verschieden von der Schwellenzeitspanne des Blocks 508 des Verfahrens 500 sein. Zum Unterscheiden der Schwellenzeitspanne des Verfahrens 600 von der Schwellenzeitspanne des Verfahrens 500 wird die Schwellenzeitspanne des Verfahrens 600 im Folgenden austauschbar als eine weitere Schwellenzeitspanne bezeichnet.
  • Daher kann in einigen beispielhaften Ausführungsformen die weitere Schwellenzeitspanne des Blocks 610 etwa 10 Sekunden sein; die weitere Schwellenzeitspanne des Blocks 610 kann jedoch weniger als 10 Sekunden oder mehr als 10 Sekunden sein.
  • Die weitere Schwellenzeitspanne kann jedoch verlängert werden, so dass sie innerhalb einer vorgegebenen bestimmten Zeit nach dem Empfangen der Kontaktinformation über das Mikrofon 129 endet, zum Beispiel weiteren 10 Sekunden, und ähnliches. Alternativ kann die weitere Schwellenzeitspanne beim Empfangen der Kontaktinformation über das Mikrofon 129 am Block 604 beginnen.
  • Wenn die Taste 132 innerhalb der weiteren Schwellenzeitspanne (zum Beispiel eine „Ja“-Entscheidung bei dem Block 610) aktiviert wurde, führt der Controller 120, bei einem Block 612, die entsprechende Funktion unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation aus. Der Block 612 ähnelt allgemein dem Block 510 des Verfahrens 500, wird jedoch mit der über das Mikrofon 129 empfangenen Kontaktinformation und nicht mit einem Quellenkontakt einer Nachricht ausgeführt.
  • Der Controller 120 kann dann die Blöcke 606, 608, 610, 612 wiederholen, zum Beispiel wenn innerhalb der weiteren Schwellenzeitspanne eine andere Taste 132 und/oder dieselbe Taste 132 aktiviert wird. Beispielsweise kann der Controller 120 ferner dazu eingerichtet sein, die jeweiligen Funktionen von jeder der einen oder mehreren Tasten 132 unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation auszuführen, wenn sie innerhalb des weiteren Schwellenzeitraums nach Aktivierung der Sprachaktivierungstaste 133 empfangen wird. Auf diese Weise wird ein Tastenkontext der Tasten 132 „eingerastet“, wenn die Sprachaktivierungstaste 133 aktiviert wird, wobei der Tastenkontext durch und/oder basierend auf der über das Mikrofon 129 empfangenen Kontaktinformation definiert ist, so dass jedes Mal, wenn eine Taste 132 innerhalb der weiteren Schwellenzeitspanne aktiviert wird, eine entsprechende Funktion unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation ausgeführt wird. Daher kann der Responder 115 eine Funktionalität des Geräts 101 aktivieren, beispielsweise um mit einem Kontakt, der unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation identifiziert wurde, ohne Zuhilfenahme der Augen und mit erhobenem Kopf zu kommunizieren, so dass der Responder 115 nicht auf das Gerät 101 und/oder das Anzeigegerät 126 schauen muss, um einen solchen Kontakt zu initiieren. Wie bei dem Verfahren 500 kann die weitere Schwellenzeitspanne jedes Mal zurückgesetzt werden, wenn eine Taste 132 aktiviert wird und/oder jedes Mal, wenn eine entsprechende Funktion, die beim Aktivieren einer Taste 132 ausgeführt wird, beendet wird. Ein solches Einrasten erfolgt jedoch, wenn die Kontaktinformation über das Mikrofon 129 empfangen wird; wenn nach einem Aktivieren der Taste 133 keine Kontaktinformation über das Mikrofon 129 empfangen wird, erfolgt kein Einrasten.
  • Zurück zu dem Block 610, wenn die Taste 132 nach der weiteren Schwellenzeitspanne aktiviert wurde (zum Beispiel eine „Nein“-Entscheidung am Block 610), führt der Controller 120, bei einem Block 614, die entsprechende Funktion unabhängig von der über das Mikrofon 129 empfangenen Kontaktinformation aus, ähnlich wie der Block 512 des Verfahrens 500.
  • Das Verfahren 500 und das Verfahren 600 werden nun unter Bezugnahme auf 7 bis 18 beschrieben.
  • Die Aufmerksamkeit wird als nächstes auf 7, 8, 9, 10, 11 und 12 gelenkt, die eine beispielhafte Ausführungsform des Verfahrens 500 zeigen. Jede der Figuren 7, 9, 10 und 11 ist im Wesentlichen ähnlich zu 1 und 8 ist im Wesentlichen ähnlich zu 3, wobei ähnliche Elemente ähnliche Bezugszahlen haben. Weiterhin wird in 7, 8, 9, 10, 11 und 12 angenommen, dass der Controller 120 die Applikation 123 ausführt und zumindest das Verfahren 500 ausführt.
  • Tatsächlich sind in 7 und 8 das Gerät 101 und der Controller 120 so dargestellt, dass sie die elektronische Kommunikation 103 empfangen (zum Beispiel bei dem Block 502 des Verfahrens 500), zum Beispiel über die Schnittstelle 124. Es wird davon ausgegangen, dass das Empfangen der elektronischen Kommunikation 103 den Controller 120 triggert, um festzustellen, ob eine Taste 132 innerhalb der Schwellenzeitspanne des Verfahrens 500 aktiviert wird.
  • Bezugnehmend auf 7, der Controller 120 kann in einigen beispielhaften Ausführungsformen den Lautsprecher 130 so steuern, dass er einen Ton 701 aussendet, um eine Benachrichtigung über die elektronische Kommunikation 103 (zum Beispiel bei dem Block 502 des Verfahrens 500) ohne Zuhilfenahme der Augen bereitzustellen und/oder den Empfang der elektronischen Kommunikation 103 anzukündigen; so entspricht der Ton 701 beispielsweise, wie dargestellt, dem Text „Kommunikation empfangen von Kontakt 1 bei kontakt1@123.com“. Der Ton 701 kann unter Verwendung der in der elektronischen Kommunikation 103 empfangenen Netzwerkadresse 107 (zum Beispiel „Kontakt1@123.com“) und/oder des in der elektronischen Kommunikation 103 empfangenen Kontaktnamens 111 (zum Beispiel „Kontakt 1“) und/oder aller anderen in der elektronischen Kommunikation 103 empfangenen Daten erzeugt werden. Beispielsweise kann, wenn die elektronische Kommunikation 103 Text beinhaltet, der Controller 120 den Lautsprecher 130 so steuern, dass er einen dem Text entsprechenden Ton abgibt. Als solches kann der Controller 120 für eine Text-zu-Sprache-Funktionalität konfiguriert werden (zum Beispiel über die Applikation 123 und/oder eine dedizierte Text-zu-Sprache-Applikation), um Text in der elektronischen Kommunikation 103 in Ton umzuwandeln, zum Beispiel in einen Ton, der eine menschliche Stimme und ähnliches nachahmt, wobei der Sound vom Lautsprecher 130 ausgestrahlten wird.
  • Tatsächlich kann der Controller 120 den Lautsprecher 130 so steuern, dass er irgendeine Art von Benachrichtigung der elektronischen Kommunikation 103 ausstrahlt, die vom Format der elektronischen Kommunikation 103 abhängen kann. Wenn die elektronische Kommunikation 103 eine abspielbare Nachricht beinhaltet, kann der Responder 115 darüber hinaus das Abspielen der abspielbaren Nachricht durch eine Sprachinteraktion unter Verwendung des Lautsprechers 130 steuern. Auf diese Weise kann der Responder 115 auf den Empfang der elektronischen Kommunikation 103 aufmerksam gemacht werden und/oder eine abspielbare Nachricht ohne Zuhilfenahme der Augen und mit erhobenem Kopf abspielen. Der Controller 120 kann jedoch alternativ die elektronische Kommunikation 103 auf dem Anzeigegerät 126 anzeigen und/oder bereitstellen und/oder wiedergeben.
  • Die Schwellenzeitspanne kann jedoch alternativ nachdem eine Benachrichtigung (zum Beispiel der Ton 701) bereitgestellt wird, beginnen. Darüber hinaus kann, wenn die elektronische Kommunikation 103 eine abspielbare Nachricht umfasst, die Schwellenzeitspanne alternativ auch beginnen, wenn die abspielbare Nachricht abgespielt wurde.
  • Unter der Annahme, dass die elektronische Kommunikation 103 empfangen wurde und dass der Controller 120 die Schwellenzeitspanne des Verfahrens 500 verfolgt, wird ein Finger 715 des Responders 115 als die Taste 132-2 aktivierend gezeigt, um zum Beispiel eine Messaging-Funktion (zum Beispiel eine E-Mail-Funktion und/oder eine Textfunktion) unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation 103 empfangen wurde, zu aktivieren. Bezugnehmend auf 8, der Controller 120 erkennt (zum Beispiel bei dem Block 504 des Verfahrens 500), dass die Taste 132-2 aktiviert wurde, zum Beispiel durch das Empfangen eines Hinweises 802 von der Taste 132-2. Wie dargestellt, umfasst der Hinweis 802 Daten, die den Controller 120 in die Lage versetzen, zu erkennen, dass die Taste 132-2 aktiviert wurde, als dargestellter Text „2“ ähnlich dem Text „2“ der Kennungen 141. Der Hinweis 802 kann jedoch jede Art von Hinweis und/oder Daten und/oder Signal umfassen.
  • Der Controller 120 identifiziert (zum Beispiel bei dem Block 506 des Verfahrens 500) die jeweilige Funktion, die der Taste 132-2, die aktiviert wurde, zugeordnet ist, zum Beispiel „Funktion 2“, die in den beispielhaften Ausführungsformen von 7 und 8 eine Messaging-Funktion umfasst. Zum Beispiel kann die jeweilige Funktion, die der Taste 132-2 zugeordnet ist, unter Verwendung der Zuordnung 140 identifiziert werden, und in 8 hat der Controller 120 die Anweisungen „Funktion 2“, die der Taste 132-2 entsprechen, unter Verwendung des Hinweises 802 abgerufen, zum Beispiel durch Vergleichen des Hinweises 802 mit den Kennungen 141, um eine Übereinstimmung festzustellen, und ähnliches. Der Hinweis 802 kann jedoch alternativ verwendet werden, um die jeweilige Funktion in der Zuordnung 140 unter Verwendung einer Nachschlagetabelle und/oder Datenbanktechniken nachzuschlagen, und/oder zum Identifizieren der jeweiligen Funktion, wenn die Taste 132-2 der jeweiligen Funktion zugeordnet ist.
  • Da davon ausgegangen wird, dass die Taste 132-2 innerhalb der Schwellenzeitspanne aktiviert wurde (zum Beispiel eine „Ja“-Entscheidung bei dem Block 508), führt der Controller 120 (zum Beispiel bei dem Block 510) die jeweilige Funktion „Funktion 2“ und insbesondere die Messaging-Funktion unter Verwendung des Quellenkontakts aus, von dem die elektronische Kommunikation 103 empfangen wurde. Zum Beispiel extrahiert, wie es auch in 8 dargestellt ist, der Controller 120 die Netzwerkadresse 107 und optional den Kontaktnamen 111 aus der elektronischen Kommunikation 103, um eine elektronische Kommunikation 803 (zum Beispiel, wie dargestellt, eine E-Mail-Nachricht) an die Netzwerkadresse 107 zu erzeugen und optional den Kontaktnamen 111 in die elektronische Kommunikation 103 aufzunehmen. Der Controller 120 kann die elektronische Kommunikation 803 erzeugen und optional die Nachricht auf dem Anzeigegerät 126 anzeigen und/oder bereitstellen und/oder wiedergeben.
  • Die Aufmerksamkeit wird beispielsweise auf 9 gerichtet, die die elektronische Kommunikation 803 auf dem Anzeigegerät 126, die elektronische Kommunikation 803, die an die Netzwerkadresse 107 gerichtet ist, und die elektronische Kommunikation 803, die eine Begrüßung beinhaltet, die den Kontaktnamen 111 enthält (zum Beispiel „Hallo Kontakt 1:“), darstellt. In 9 wird die elektronische Kommunikation 103 nicht dargestellt, da davon ausgegangen wird, dass die elektronische Kommunikation 103 zuvor empfangen wurde. Der Responder 115 kann der elektronischen Kommunikation 803 Text hinzufügen, zum Beispiel durch Interaktion mit einer Tastatur des Geräts 101 (einschließlich, ohne darauf beschränkt zu sein, eine Tastatur, die auf dem Anzeigegerät 126 dargestellt wird).
  • Der Responder 115 kann der elektronischen Kommunikation 803 jedoch auch Text durch Sprachbefehle, Sprachinteraktionen und dergleichen hinzufügen; tatsächlich kann der Responder 115 die Nachricht vollständig durch die Verwendung von Sprachbefehlen, Sprachinteraktionen und dergleichen, die am Mikrofon 129 empfangen wurden, vervollständigen und senden. Darüber hinaus kann der Controller 120 den Lautsprecher 130 so steuern, dass der Text der elektronischen Kommunikation 803 bei dem Erzeugen der elektronischen Kommunikation 803 „abgespielt“ wird, einschließlich zum Beispiel der Netzwerkadresse 107 und optional der Begrüßung, die den Kontaktnamen 111 beinhaltet, so dass der Responder 115 nach der Aktivieren der Taste 132-2 mit dem Gerät 101 vollständig durch Sprachbefehle und/oder Sprachinteraktionen interagieren kann. Zum Beispiel gibt, wie es in 9 dargestellt ist, der Lautsprecher 130 den Sound 901 aus, der dem Text „Kommunikation erzeugt an Kontakt 1 bei kontakt1@123.com“ entspricht.
  • Als nächstes wird die Aufmerksamkeit auf 10 gelenkt, die eine beispielhafte Ausführungsform des Blocks 512 des Verfahrens 500 zeigt. In 10 wird davon ausgegangen, dass die Taste 132-2 nach der Schwellenzeitspanne aktiviert wurde (zum Beispiel durch den Finger 715) und somit die jeweilige Funktion, die mit der Taste 132-2 assoziiert ist, unabhängig von dem Quellenkontakt, von dem die elektronische Kommunikation 103 empfangen wird, ausgeführt wird. Daher wird zum Beispiel eine elektronische Kommunikation 1003 (zum Beispiel wie abgebildet eine E-Mail-Nachricht) erzeugt, die weder an eine Netzadresse adressiert ist, noch eine Begrüßung an einen Kontaktnamen beinhaltet. Der Responder 115 kann der elektronischen Kommunikation 1003 eine Netzwerkadresse sowie eine beliebige Begrüßung und/oder Text durch Sprachbefehle, Sprachinteraktionen und dergleichen und/oder durch Interaktionen mit einer Tastatur und dergleichen hinzufügen.
  • In noch weiteren Ausführungsformen kann, bezugnehmend auf 11, die Taste 132-2 nach der Schwellenzeitspanne gemäß einem bestimmten Muster aktiviert werden, zum Beispiel durch ein langes Drücken oder Ähnliches (weiter unten unter Bezug auf 18 ausführlicher beschrieben), und der Controller 120 kann die jeweilige Funktion, die mit der Taste 132-2 assoziiert ist, unter Verwendung einer über das Mikrofon 129 empfangenen Kontaktinformation ausführen.
  • Beispielsweise aktiviert, wie es dargestellt ist, nach der Schwellenzeitspanne der Finger 715 des Responders 115 die Taste 132-2 gemäß einem „Langen Drücken“, und der Responder 115 kann einen Namen eines Kontakts (zum Beispiel „Kontakt 2“) sagen, der als Sound 1104 am Mikrofon 129 empfangen wird.
  • Der Kontaktname im Sound 1104 kann vom Controller 120 verwendet werden, um aus einem Satz von Kontaktnamendaten 151 (zum Beispiel den Kontaktnamendaten 151-2), der den Namen des im Sound 1104 empfangenen Kontakts beinhaltet, eine entsprechende Netzwerkadresse und/oder weitere Kontaktdaten zu extrahieren. Daher wurde, wie es in 11 dargestellt ist, eine elektronische Kommunikation 1103 (zum Beispiel wie es dargestellt ist eine E-Mail-Nachricht) an eine Netzwerkadresse 1107 adressiert und beinhaltet eine Begrüßung an einen Kontaktnamen 1111, der gleich oder verschieden von dem im Sound 1104 empfangenen Kontaktnamen sein kann; es wird angenommen, dass die Netzwerkadresse 1107 und der Kontaktname 1111 aus einem Satz von Kontaktnamendaten 151 (zum Beispiel den Kontaktnamendaten 151-2) extrahiert werden. Einzelheiten einer solchen Extraktion werden im Folgenden unter Bezugnahme auf das Verfahren 600 in 14, 15 und 16 beschrieben.
  • Ebenfalls in 11 dargestellt ist, dass der Controller 120 den Lautsprecher 130 so steuern kann, dass er beim Erzeugen der elektronischen Kommunikation 1103 den Text der elektronischen Kommunikation 1103 „abspielt“, einschließlich zum Beispiel der Netzwerkadresse 1107 und optional der Begrüßung, die den Kontaktnamen 1111 enthält, so dass der Responder 115 nach dem Aktivieren der Taste 132-2 vollständig durch Sprachbefehle und/oder Sprachinteraktionen mit dem Gerät 101 interagieren kann. Zum Beispiel gibt, wie es in 11 dargestellt ist, der Lautsprecher 130 einen Sound 1121 aus, der dem Text „Kommunikation erzeugt an Kontakt 2 bei kontakt2@123.com“ entspricht, annehmend, dass die Netzwerkadresse (zum Beispiel eine E-Mail-Adresse) von „Kontakt 2“ Kontakt2@123.com ist.
  • Während das Verfahren 500 mit Bezug auf eine Messaging-Funktion (zum Beispiel eine E-Mail-Funktion) beschrieben wurde, hängt die bei dem Block 510 ausgeführte Funktion von der aktivierten Taste 132 und der damit assoziierten jeweiligen Funktion ab. Darüber hinaus kann jede Information, die zum Ausführen einer bestimmten jeweiligen Funktion verwendet werden kann, aus einem entsprechenden Satz von Kontaktnamendaten 151 extrahiert werden. Zum Beispiel kann eine Telefonnummer in der elektronischen Kommunikation 103 nicht empfangen werden; wenn also die Taste 132-3 während des Schwellenzeitraumes aktiviert wird, um eine Privatruffunktion (zum Beispiel eine Telefonfunktion) auszuführen, kann die Telefonnummer aus den Kontaktnamendaten 151-1 extrahiert werden. Die Kontaktnamendaten 151-1 können, wie es oben beschrieben ist, so bestimmt werden, dass sie mit dem Kontaktnamen 111 assoziiert sind, der in der elektronischen Kommunikation 103 empfangen wird. Die Privatruffunktion kann dann ausgeführt werden, um einen Telefonanruf an einem Gerät 102 unter Verwendung der Telefonnummer aus den Kontaktnamendaten 151-1 zu initiieren.
  • In ähnlicher Weise kann unter der Annahme, dass eine Gesprächsgruppenkennung in der elektronischen Kommunikation 103 nicht empfangen wurde, und unter der weiteren Annahme, dass die Taste 132-1 während der Schwellenzeitspanne aktiviert wird, um eine PTT-Funktion auszuführen, die Gesprächsgruppenkennung aus den Kontaktnamendaten 151-1 extrahiert werden. Die Kontaktnamendaten 151-1 können, wie es oben beschrieben ist, bestimmt werden, um mit dem in der elektronischen Kommunikation 103 empfangenen Kontaktnamen 111 assoziiert zu werden. Die PTT-Funktion kann dann ausgeführt werden, um einen PTT-Ruf an ein Gerät 102 unter Verwendung der Gesprächsgruppenkennung aus den Kontaktnamendaten 151-1 zu initiieren. Die Gesprächsgruppenkennung kann eine Gesprächsgruppe identifizieren, die den Quellenkontakt sowie andere Kontakte beinhaltet, so dass beim Initiieren einer PTT-Funktion während des Verfahrens 500 und/oder des Verfahrens 600 ein PTT-Ruf an die Gruppe initiiert wird. In anderen Ausführungsformen wird jedoch, wenn eine PTT-Funktion während des Verfahrens 500 und/oder des Verfahrens 600 initiiert wird, ein PTT-Ruf nur an den Quellenkontakt initiiert.
  • Die Aufmerksamkeit wird als nächstes auf 12 gerichtet, die das Gerät 101, das die elektronische Kommunikation 103 empfängt (obwohl das Gerät 102 aus Gründen der Klarheit nicht dargestellt ist) und beispielhafte Ausführungsformen einer Ortungsfunktion, die am Controller 120 ausgeführt wird, wenn die Taste 132-4 während der Schwellenzeitspanne und nach der Schwellenzeitspanne aktiviert wird, zeigt. 12 ist ansonsten ähnlich zu 1, wobei ähnliche Elemente ähnliche Bezugszahlen haben.
  • Unter der Annahme, dass die Taste 132-4 während der Schwellenzeitspanne aktiviert wird, stellt der Controller 120 bei dem Ausführen einer Ortungsfunktion eines oder mehreres von Folgendem zur Verfügung: einen Standort 109 des Quellenkontakts und/oder des Geräts 102; und eine Route 1201 (die zum Beispiel eine Wegbeschreibung beinhalten kann) zum Quellenkontakt und/oder zum Gerät 102, wie es auf der linken Seite von 12 dargestellt ist. Beispielsweise kann der Controller 120, wie dargestellt, am Anzeigegerät 126 eines oder mehreres von Folgendem bereitstellen: den Standort 109 des Quellenkontakts und/oder des Geräts 102; und eine Route 1201 zum Quellenkontakt und/oder zum Gerät 102 (zum Beispiel eine Route zum Ort 109). In diesen Ausführungsformen kann die Aktivierung der Ortungsfunktion unter Verwendung der Taste 132-4 den Controller 120 veranlassen, am Anzeigegerät 126 eine Karte 1203 zu erzeugen, die den in der elektronischen Kommunikation 103 empfangenen Standort 109 und/oder eine Route zum Standort 109 beinhaltet, zum Beispiel von einem aktuellen Standort 1209 des Geräts 101, der mit dem Standortbestimmungsgerät 131 bestimmt wurde. Alternativ kann, zum Beispiel wenn der Standort 109 in der elektronischen Kommunikation 103 nicht empfangen wird, ein Standort des Geräts 102 von dem Gerät 102 und/oder von einem Server angefordert werden (zum Beispiel einem Standortdienstserver) und dergleichen (nicht abgebildet), der die Standorte von Geräten, einschließlich des Geräts 102, verfolgt; ein solcher Server kann von einer Behörde der öffentlichen Sicherheit betrieben werden, die das Gerät 102 (und/oder das Gerät 101) verwaltet; in einigen dieser Ausführungsformen wird angenommen, dass eine Standortdienstfunktion am Gerät 102 „eingeschaltet“ worden ist und dass das Gerät 102 den Standort 109 einem Standortdienstserver bereitstellt.
  • Alternativ kann der Controller 120 unter Verwendung des Lautsprechers 130 eines oder mehreres von Folgendem bereitstellen: den Standort 109 des Quellenkontakts; und die Route 1201 zum Quellenkontakt, zum Beispiel durch Steuern des Lautsprechers 130 zur Ausgabe von Sound, der dem Standort 109 und/oder einer Wegbeschreibung zum Folgen der Route 1201 zum Standort 109 entspricht.
  • Jedoch kann, unter der Annahme, dass die Taste 132-4 nach der Schwellenzeitspanne aktiviert wird, um eine Ortungsfunktion auszuführen, der Controller 120 einen aktuellen Standort 1209 des Geräts 101 bereitstellen, wie es auf der rechten Seite von 12 dargestellt ist (zum Beispiel unabhängig von dem Standort 109 des Quellenkontakts und/oder des Geräts 102). Zum Beispiel kann der Controller 120, wie dargestellt, am Anzeigegerät 126 den aktuellen Standort 1209 des Geräts 101 bereitstellen, der unter Verwendung des Standortsbestimmungsgeräts 131 bestimmt wurde. In diesen Ausführungsformen kann die Aktivierung der Ortungsfunktion unter Verwendung der Taste 132-4 bewirken, dass der Controller 120 am Anzeigegerät 126 eine Karte 1211 erzeugt, die den aktuellen Standort 1209, aber nicht den Standort 109 beinhaltet.
  • Alternativ kann der Controller 120 unter Verwendung des Lautsprechers 130 den aktuellen Standort 1209 bereitstellen und ferner Sprachbefehle und/oder Sprachinteraktionen über das Mikrofon 129 empfangen, um eine Route zu einem über das Mikrofon 129 empfangenen Standort zu erzeugen.
  • Die Aufmerksamkeit wird als nächstes auf 13, 14, 15, 16 und 17 gelenkt, die eine beispielhafte Ausführungsform des Verfahrens 600 zeigen. Jede der Figuren 13, 15 und 17, ist im Wesentlichen ähnlich zu 1 (obwohl das Gerät 101 ohne das Gerät 102, die elektronische Kommunikation 103 und die Verbindung 105 dargestellt ist), wobei ähnliche Elemente ähnliche Bezugszahlen haben. 14 und 16 sind im Wesentlichen ähnlich zu 3, wobei ähnliche Elemente ähnliche Bezugszahlen haben. Darüber hinaus wird in 13, 14, 15, 16 und 17 angenommen, dass der Controller 120 die Applikation 123 ausführt und zumindest das Verfahren 600 ausführt.
  • Tatsächlich werden in 13 und 14 das Gerät 101 und der Controller 120 so dargestellt, dass sie erkennen, dass die Sprachaktivierungstaste 133 aktiviert wurde (zum Beispiel bei dem Block 602 des Verfahrens 600), und ferner so dargestellt, dass sie, über das Mikrofon 129, eine Kontaktinformation empfangen, zum Beispiel wenn die Taste 133 aktiviert wird. Es wird davon ausgegangen, dass das Aktivieren der Taste 133 und/oder das Empfangen der Kontaktinformation über das Mikrofon 129 den Controller 120 triggert, um zu bestimmen, ob eine Taste 132 innerhalb der weiteren Schwellenzeitspanne des Verfahrens 600 aktiviert wird.
  • Zum Beispiel wird, bezugnehmend auf 13, der Finger 715 des Responders 115 dargestellt als die Taste 133 aktivierend und einen Namen eines Kontaktes (zum Beispiel „Kontakt 2“) sprechend, der als ein Sound 1304 am Mikrofon 129 empfangen wird. Unter Bezugnahme auf 14, der Controller 120 erkennt (zum Beispiel bei dem Block 602 des Verfahrens 600), dass die Taste 133 aktiviert wurde, zum Beispiel durch das Empfangen eines Hinweises 1403 von der Taste 133. Wie es dargestellt ist, umfasst die Anzeige 1403 Daten, die es dem Controller 120 ermöglichen, zu erkennen, dass die Taste 133 aktiviert wurde, als dargestellter Text „133“. Der Hinweis 1403 kann jedoch jede Art von Hinweis und/oder Daten und/oder Signal umfassen.
  • Der Kontroller 120 empfängt (zum Beispiel bei dem Block 604 des Verfahrens 600) ferner eine Kontaktinformation 1414 über das Mikrofon 129, zum Beispiel kann die Kontaktinformation 1414 den am Mikrofon 129 empfangenen Sound 1304 umfassen, der in Text umgewandelt wurde, und ähnliches. Der Controller 120 kann dann die assoziierten Kontaktnamendaten 151-1 aus den Kontaktdaten 150 abrufen, beispielsweise unter Verwendung eines Namens oder Ähnlichem in der Kontaktinformation 1414, um zum Beispiel eine Netzwerkadresse, eine Telefonnummer, eine Gesprächsgruppenkennung oder Ähnliches abzurufen, die mit den Kontaktnamendaten 151-2 assoziiert sind.
  • Mit anderen Worten wird in der dargestellten beispielhaften Ausführungsform angenommen, dass der Sound 1304 einen Kontaktnamen beinhaltet, der verwendet werden kann, um die Kontaktnamendaten 151-2 abzurufen. Alternativ kann der Responder 115 eine Kontaktinformation aussprechen, die eine Netzwerkadresse, eine Telefonnummer, eine Gesprächsgruppenkennung und Ähnliches beinhaltet, die in Text umgewandelt werden kann (zum Beispiel als Kontaktinformation 1414) und die in einer entsprechenden Funktion, die mit den Tasten 132 assoziiert ist, verwendet werden kann.
  • Unter Bezugnahme auf 15, der Responder 115 kann, nach dem Aktivieren der Taste 133 und dem Bereitstellen der Kontaktinformation als Sound 1304, eine Taste 132-2 aktivieren, wie es oben in Bezug auf 7 beschrieben ist.
  • Unter Bezugnahme auf 16, der Responder 120 identifiziert (zum Beispiel bei dem Block 606 des Verfahrens 600), dass die Taste 132-2 aktiviert wurde, zum Beispiel durch das Empfangen eines Hinweises 1602 von der Taste 132-2, der dem Hinweis 802 ähnlich ist, wie es oben in Bezug auf 8 beschrieben ist.
  • Unter weiterer Bezugnahme auf 16, der Controller 120 identifiziert (zum Beispiel bei dem Block 608 des Verfahrens 600) die jeweilige Funktion, die auf der aktivierten Taste 132-2 zugeordnet ist, zum Beispiel „Funktion 2“, die in der beispielhaften Ausführungsform von 15 und 16 eine Messaging-Funktion umfasst. Daher kann, ähnlich wie in 8, die jeweilige Funktion, die der Taste 132-2 zugeordnet ist, unter Verwendung der Zuordnung 140 identifiziert werden, und in 16 hat der Controller 120 die Anweisungen „Funktion 2“, die der Taste 132-2 entsprechen, unter Verwendung des Hinweises 1602 abgerufen, zum Beispiel durch Vergleichen des Hinweises 1602 mit den Kennungen 141, um eine Übereinstimmung zu bestimmen, und ähnliches. Der Hinweis 1602 kann jedoch alternativ verwendet werden, um die jeweilige Funktion in der Zuordnung 140 unter Verwendung einer Nachschlagetabelle und/oder Datenbanktechniken nachzuschlagen, und/oder zum Identifizieren der jeweiligen Funktion, wenn die Taste 132-2 der jeweiligen Funktion zugeordnet ist.
  • Da angenommen wird, dass die Taste 132-2 innerhalb der weiteren Schwellenzeitspanne des Verfahrens 600 aktiviert wurde (zum Beispiel eine „Ja“-Entscheidung bei dem Block 610), führt der Controller 120 (zum Beispiel bei dem Block 612) die entsprechende Funktion „Funktion 2“, und zwar die Messaging-Funktion, unter Verwendung der über das Mikrofon 129 empfangenen Kontaktinformation, aus. Zum Beispiel kann der Controller 120, wie in 16 dargestellt, die Netzwerkadresse 1107 und optional den Kontaktnamen 1111 aus den Kontaktnamendaten 151-2 abrufen, um eine elektronische Kommunikation 1603 (zum Beispiel eine E-Mail-Nachricht) an die Netzwerkadresse 1107 zu erzeugen und optional den Kontaktnamen 1111 einzuschließen. Alternativ kann ein Kontaktname, der in den Kontaktdaten 1414 empfangen wurde, in der elektronischen Kommunikation 1603 verwendet werden. Der Controller 120 kann die elektronische Kommunikation 1603 erzeugen und die elektronische Kommunikation 1603 am Anzeigegerät 126 anzeigen und/oder bereitstellen und/oder wiedergeben und/oder die elektronische Kommunikation 1603 am Lautsprecher 130 abspielen.
  • Die Aufmerksamkeit wird beispielsweise auf 17 gerichtet, die die elektronische Kommunikation 1603 am Anzeigegerät 126, die elektronische Kommunikation 1603, die an die Netzwerkadresse 1107 adressiert ist, und die elektronische Kommunikation 1603, die eine Begrüßung an den Kontaktnamen 1111 beinhaltet, zeigt. Der Responder 115 kann der elektronischen Kommunikation 1603 Text hinzufügen, zum Beispiel durch Interaktion mit einer Tastatur des Geräts 101 (einschließlich, ohne darauf beschränkt zu sein, einer Tastatur, die auf dem Anzeigegerät 126 dargestellt wird).
  • Ähnlich wie bei oben beschriebenen Ausführungsformen des Verfahrens 500 kann der Responder 115 der elektronischen Kommunikation 1603 jedoch auch Text über Sprachbefehle, Sprachinteraktionen und dergleichen hinzufügen; tatsächlich kann der Responder 115 die Nachricht vollständig durch die Verwendung von Sprachbefehlen, Sprachinteraktionen und dergleichen, die am Mikrofon 129 empfangen werden, vervollständigen und senden. Darüber hinaus kann der Controller 120 den Lautsprecher 130 so steuern, dass der Text der elektronischen Kommunikation 1603 beim Erzeugen der elektronischen Kommunikation 1603 „abgespielt“ wird, zum Beispiel einschließlich der Netzwerkadresse 1107 und optional der Begrüßung, die den Kontaktnamen 1111 beinhaltet, so dass der Responder 115 nach der Aktivierung der Taste 132-2 mit dem Gerät 101 vollständig durch Sprachbefehle und/oder Sprachinteraktionen interagieren kann. Zum Beispiel gibt, wie es in 17 dargestellt ist, der Lautsprecher 130 Sound 1701 aus, der dem Text „Kommunikation erzeugt an Kontakt 1 bei kontakt1@123.com“ entspricht.
  • Darüber hinaus kann der Block 614 bei dem Controller 120 in ähnlicher Weise wie der Block 512 des Verfahrens 500 implementiert werden, wie es oben bezugnehmend auf 10 beschrieben ist.
  • Obwohl das Verfahren 600 unter Bezugnahme auf eine Messaging-Funktion (zum Beispiel eine E-Mail-Funktion) beschrieben wurde, hängt die bei dem Block 612 ausgeführte Funktion von der Taste 132 ab, die aktiviert wird, und der damit assoziierten jeweiligen Funktion, ähnlich zu dem oben unter Bezugnahme auf das Verfahren 500 beschriebenen. Wenn jedoch eine Ortungsfunktion ausgeführt wird, zum Beispiel wenn die Taste 132-4 aktiviert wird, kann der Standort eines Geräts und/oder eines Kontakts, der über die über das Mikrofon 129 empfangenen Kontaktinformation identifiziert wird, von einem assoziierten Gerät (zum Beispiel bei einer Netzwerkadresse, die in den Kontaktnamendaten 151-1 gespeichert ist) und/oder einem Server und dergleichen (nicht abgebildet), der Standorte von Geräten verfolgt, angefordert werden.
  • In einigen Ausführungsformen kann, egal ob das Verfahren 500 und/oder das Verfahren 600 implementiert wird, eine Taste 132 mit einer Schwellenzeitspanne gemäß einem vorgegebenen Muster, zum Beispiel ein kurzes Drücken, ein langes Drücken, ein doppeltes Drücken und ähnliches, aktiviert werden. Wann eine entsprechende Funktion ausgeführt wird (zum Beispiel bei dem Block 510 des Verfahrens 500 und/oder bei dem Block 612 des Verfahrens 600), kann darüber hinaus vom vorgegebenen Muster abhängig sein.
  • Solche Ausführungsformen gehen davon aus, dass der Controller 120 dazu eingerichtet ist, um zwischen verschiedenen vorgegebenen Mustern zur Aktivierung der Tasten 132 zu unterscheiden, zum Beispiel um zwischen einem kurzen Drücken (zum Beispiel wird eine Taste 132 kürzer als eine vorgegebene Zeitspanne aktiviert), einem langen Drücken (zum Beispiel wird eine Taste 132 länger als eine vorgegebene Zeitspanne aktiviert) und einem doppelten Drücken (zum Beispiel wird eine Taste 132 innerhalb einer vorgegebenen Zeitspanne zweimal aktiviert) zu unterscheiden.
  • Wenn zum Beispiel das Verfahren 500 implementiert wird, kann der Controller 120 bei dem Block 504 erkennen, dass eine Taste 132 gemäß einem ersten vorgegebenen Muster oder nach einem zweiten vorgegebenen Muster aktiviert wurde. Darüber hinaus kann bei dem Implementieren des Blocks 510 der Controller 120, wenn eine Taste 132 gemäß dem ersten gegebenen Muster innerhalb der Schwellenzeitspanne des Verfahrens 500 aktiviert wird, die entsprechende Funktion gemäß einem ersten Modus ausführen. In ähnlicher Weise kann der Controller 120, beim Implementieren des Blocks 510, wenn eine Taste 132 gemäß dem zweiten vorgegebenen Muster innerhalb der Schwellenzeitspanne des Verfahrens 500 aktiviert wird, die entsprechende Funktion gemäß einem zweiten Modus ausführen. In noch weiteren Ausführungsformen kann der Controller 120 beim Implementieren des Blocks 510, wenn eine Taste 132 innerhalb der Schwellenzeitspanne des Verfahrens 500 gemäß einem dritten vorgegebenen Muster aktiviert wird, die entsprechende Funktion gemäß einem dritten Modus ausführen. Mindestens einer der Modi wird unter Verwendung des Quellenkontakts ausgeführt, von dem die elektronische Kommunikation 103 empfangen wurde; andere Modi können jedoch unabhängig von dem Quellenkontakt ausgeführt werden, von dem die elektronische Kommunikation 103 empfangen wurde.
  • In ähnlicher Weise kann der Controller 120 beim Implementieren des Verfahrens 600 bei dem Block 606 erkennen, dass eine Taste 132 gemäß einem ersten vorgegebenen Muster oder gemäß einem zweiten vorgegebenen Muster aktiviert wurde. Darüber hinaus kann der Controller 120 beim Implementieren des Blocks 612, wenn eine Taste 132 gemäß dem ersten gegebenen Muster innerhalb der Schwellenzeitspanne des Verfahrens 600 aktiviert wird, die entsprechende Funktion gemäß einem ersten Modus ausführen. In ähnlicher Weise kann der Controller 120 beim Implementieren des Blocks 612, wenn eine Taste 132 gemäß dem zweiten vorgegebenen Muster innerhalb der Schwellenzeitspanne des Verfahrens 600 aktiviert wird, die entsprechende Funktion gemäß einem zweiten Modus ausführen. In noch weiteren Ausführungsformen kann der Controller 120 beim Implementieren des Blocks 612, wenn eine Taste 132 gemäß einem dritten vorgegebenen Muster innerhalb der Schwellenzeitspanne des Verfahrens 600 aktiviert wird, die entsprechende Funktion gemäß einem dritten Modus ausführen. Mindestens einer der Modi wird unter Verwendung der über das Mikrophon 129 empfangenen Kontaktinformation ausgeführt, jedoch können andere Modi unabhängig von der Verwendung der über das Mikrophon 129 empfangenen Kontaktinformation ausgeführt werden.
  • Die Aufmerksamkeit wird beispielsweise als nächstes auf 18 gerichtet, die eine Tabelle 1800 zeigt, die verschiedene beispielhafte Modi der entsprechenden Funktionen der Tasten 132 für verschiedene gegebene Muster zum Aktivieren der Tasten 132 während einer Schwellenzeitperiode (zum Beispiel entweder des Verfahrens 500 oder des Verfahrens 600) definiert, einschließlich eines kurzen Drückens, eines langen Drückens und eines doppelten Drückens. Die Tabelle 1800 oder Ähnliches kann im Speicher 122 gespeichert werden, beispielsweise als Komponente der Applikation 123.
  • Wenn also zum Beispiel die PTT-Funktion ausgeführt wird, wenn die Taste 132-1 während einer Schwellenzeitspanne aktiviert wird: Bei einem kurzen Drücken wird ein letzter verpasster PTT-Ruf angesagt, zum Beispiel am Lautsprecher 130 (zum Beispiel unabhängig vom Quellenkontakt der elektronischen Kommunikation 103 und/oder einer Kontaktinformation, die über das Mikrofon 129 empfangen wurde, und unter der Annahme, dass der Controller 120 eine Aufzeichnung von verpassten PTT-Rufen führt); bei einem doppelten Drücken wird keine entsprechende Funktion ausgeführt; und bei einem langen Drücken wird ein PTT-Ruf für einen aktuellen Kontakt initiiert (zum Beispiel den Quellenkontakt der elektronischen Kommunikation 103 und/oder einen Kontakt, der durch die über das Mikrofon 129 empfangene Kontaktinformation definiert ist).
  • Ähnlich verhält es sich, wenn die Messaging-Funktion ausgeführt wird, wenn die Taste 132-2 während einer Schwellenzeitspanne aktiviert wird: Bei einem kurzen Drücken wird eine ungelesene Nachricht (zum Beispiel eine ungelesene elektronische Kommunikation, vorausgesetzt, die elektronische Kommunikation ist eine Nachricht und/oder eine E-Mail) abgespielt, zum Beispiel am Lautsprecher 130 (zum Beispiel unabhängig vom Quellenkontakt der elektronischen Kommunikation 103 und/oder einer Kontaktinformation, die über das Mikrofon 129 empfangen wurde, und unter der Annahme, dass der Controller 120 eine Aufzeichnung ungelesener Nachrichten führt) und der Controller 120 schaltet um und/oder geht zu einer nächsten ungelesenen Nachricht über (die nach Empfang eines weiteren kurzen Drückens auf die Taste 132-2 abgespielt werden kann); bei einem doppelten Drücken kann die Nachricht am Lautsprecher 130 erneut wiedergegeben werden; und bei einem langen Drücken wird eine Nachricht an einen aktuellen Kontakt (zum Beispiel den Quellenkontakt der elektronischen Kommunikation 103 und/oder einen Kontakt, der durch die über das Mikrofon 129 empfangenen Kontaktinformation definiert ist) initiiert.
  • Ähnlich verhält es sich, wenn die Privatruffunktion ausgeführt wird, wenn die Taste 132-3 während einer Schwellwertzeitspanne aktiviert wird: Bei einem kurzen Drücken wird ein letzter verpasster Privatruf (zum Beispiel umfasst eine empfangene elektronische Kommunikation einen Telefonanruf) angesagt, zum Beispiel beim Lautsprecher 130 (zum Beispiel unabhängig vom Quellenkontakt der elektronischen Kommunikation 103 und/oder einer Kontaktinformation, die über das Mikrofon 129 empfangen wurde, und unter der Annahme, dass der Controller 120 eine Aufzeichnung der verpassten Privatrufe und/oder Telefongespräche führt); bei einem doppelten Drücken wird keine entsprechende Funktion ausgeführt; und bei einem langen Drücken wird ein Privatruf für einen aktuellen Kontakt (zum Beispiel den Quellenkontakt der elektronischen Kommunikation 103 und/oder einen Kontakt, der durch die über das Mikrofon 129 empfangenen Kontaktinformation definiert ist) initiiert, was einen Rückruf einschließen kann, wenn die empfangene elektronische Kommunikation 103 ein Telefonanruf ist.
  • Ähnlich verhält es sich, wenn die Ortungsfunktion ausgeführt wird, wenn die Taste 132-4 während einer Schwellenzeitspanne aktiviert wird: Bei einem kurzen Drücken wird ein Standort eines aktuellen Kontakts (zum Beispiel der Quellenkontakt der elektronischen Kommunikation 103 und/oder ein Kontakt, der durch die über das Mikrofon 129 empfangenen Kontaktinformation definiert ist) auf einer Karte am Anzeigegerät 126 bereitgestellt (zum Beispiel wie in 12) und/oder über den Lautsprecher 130 angesagt; bei einem doppelten Drücken wird keine entsprechende Funktion ausgeführt; und bei einem langen Drücken wird eine Wegbeschreibung zu einem Standort des aktuellen Kontakts auf einer Karte am Anzeigegerät 126 bereitgestellt (wie es zum Beispiel auch in 12 dargestellt ist) und/oder über den Lautsprecher 130 angesagt.
  • Wenn eine der Tasten 132 nach einer Schwellenzeitspanne aktiviert wird, zum Beispiel unter Verwendung eines langen Drückens (wie es oben zum Beispiel in 11 beschrieben ist), und daher zunächst kein „ausgewählter“ Kontakt vorhanden ist, empfängt der Controller 120 eine Kontaktinformation über das Mikrofon 129, wie es oben in 11 beschrieben ist, und initiiert eine entsprechende Funktion. Insbesondere kann, wenn die Taste 132-4 aktiviert wird, um eine Ortungsfunktion auszuführen, ein Standort über das Mikrofon 129 empfangen werden, und der Controller 120 kann eines oder mehreres von Folgendem ausführen: Abbilden des Standorts und/oder Bereitstellen einer Wegbeschreibung zu dem Standort.
  • Wie dargestellt, kann die Aktivierung der Taste 133 auch gemäß einem gegebenen Muster erfolgen, zum Beispiel einem kurzen Drücken oder einem langen Drücken. Bei einem kurzen Drücken kann jedes der Verfahren 500, 600 abgebrochen, storniert und/oder neu gestartet werden (und/oder es kann ein „Home“-Bildschirm am Gerät 126 bereitgestellt werden). Für ein langes Drücken wird das Verfahren 600 initiiert und eine Kontaktinformation wird, wie oben unter Bezugnahme auf 13, 14, 15, 16 und 17 beschrieben, am Mikrofon 129 empfangen.
  • Darüber hinaus kann in einigen Ausführungsformen das Verfahren 500 abgebrochen und das Verfahren 600 initiiert werden, wenn die Taste 133 durch langes Drücken (und ähnliches) während der Durchführung des Verfahrens 500 aktiviert wird.
  • In ähnlicher Weise kann in einigen Ausführungsformen, wenn eine Nachricht empfangen wird, während das Verfahren 600 ausgeführt wird, das Verfahren 600 abgebrochen und das Verfahren 500 initiiert werden.
  • Hier sind ein Gerät und ein Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation bereitgestellt. Zum Beispiel kann eine entsprechende Funktion für eine Taste in einem Kontext, der durch einen Quellenkontakt einer elektronischen Kommunikation definiert ist, zumindest für eine Schwellenzeitspanne „eingerastet“ werden. Während der Schwellenzeitspanne im Anschluss an das Empfangen der elektronischen Kommunikation werden die jeweiligen Funktionen jeder der einen oder mehreren Tasten am Gerät unter Verwendung des Quellenkontakts ausgeführt. Hier sind auch ein Gerät und ein Verfahren zum Einrasten von Tastenkontext basierend auf einer über ein Mikrofon empfangenen Kontaktinformation bereitgestellt. So kann zum Beispiel eine entsprechende Funktion für eine Taste nach dem Aktivieren einer Sprachaktivierungstaste zumindest für eine Schwellenzeitspanne auf einen Kontext „eingerastet“ werden, wobei der Kontext durch eine Kontaktinformation definiert wird, die nach dem Aktivieren einer Sprachaktivierungstaste über ein Mikrofon empfangen wird. Während der Schwellenzeitspanne im Anschluss an das Aktivieren einer Sprachaktivierungstaste werden die jeweiligen Funktionen jeder der einen oder mehreren Tasten am Gerät unter Verwendung der über ein Mikrofon empfangenen Kontaktinformation ausgeführt.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein.
  • Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • In diesem Dokument können die Formulierungen „mindestens eines der Elemente X, Y und Z“ und „eines oder mehrere der Elemente X, Y und Z“ als nur X, nur Y, nur Z oder eine beliebige Kombination von zwei oder mehreren Elementen X, Y und Z (zum Beispiel XYZ, XY, YZ, XZ und dergleichen) ausgelegt werden. Eine ähnliche Logik kann für zwei oder mehr Elemente bei jedem Auftreten von „mindestens einem ...“ und „einem oder mehreren ...“ angewendet werden.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen.
  • Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (39)

  1. Gerät umfassend: eine Kommunikationsschnittstelle; eine oder mehrere Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind; ein Anzeigegerät; und einen Controller, eingerichtet zum: Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; Erkennen, dass eine Taste der einen oder mehreren Tasten aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist, wobei die entsprechende Funktion eine Ortungsfunktion umfasst; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts von dem die elektronische Kommunikation empfangen wurde durch Bereitstellen, an dem Anzeigegerät, eines oder mehreres von folgendem: einem Standort des Quellenkontakts; und einer Route zu dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von dem Quellenkontakt durch Bereitstellen, an dem Anzeigegerät, eines aktuellen Standorts des Geräts.
  2. Gerät gemäß Anspruch 1, wobei die entsprechenden Funktionen eines oder mehreres von folgendem umfassen: eine Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Telefonfunktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion und die Ortungsfunktion.
  3. Gerät gemäß Anspruch 1, wobei die elektronische Kommunikation eine abspielbare Nachricht umfasst und die Schwellenzeitspanne nach einer gegebenen Zeit, nachdem das Abspielen der abspielbaren Nachricht endet, endet.
  4. Gerät gemäß Anspruch 1, wobei der Controller ferner eingerichtet ist zum: Erkennen, dass die Taste gemäß einem gegebenen Muster aktiviert wurde, wobei das Ausführen der entsprechenden Funktion von dem gegebenen Muster abhängig ist.
  5. Gerät gemäß Anspruch 1, wobei der Controller ferner eingerichtet ist zum: Erkennen, dass die Taste gemäß einem ersten gegebenen Muster oder einem zweiten gegebenen Muster aktiviert wurde; wenn die Taste innerhalb der Schwellenzeitspanne gemäß dem ersten gegebenen Muster aktiviert wurde, Ausführen der entsprechenden Funktion gemäß einem ersten Modus unter Verwendung des Quellenkontakts; und wenn die Taste gemäß dem zweiten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, Ausführen der entsprechenden Funktion gemäß einem zweiten Modus unter Verwendung des Quellenkontakts.
  6. Gerät gemäß Anspruch 1 ferner umfassend ein Mikrofon, wobei der Controller ferner eingerichtet ist zum, wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: Empfangen, über das Mikrofon, einer Kontaktinformation; und Ausführen der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  7. Gerät gemäß Anspruch 1, wobei der Controller ferner eingerichtet ist zum Ausführen der entsprechenden Funktion von jeder der einen oder mehreren Tasten unter Verwendung des Quellenkontakts, wenn sie innerhalb der Schwellenzeitspanne, die auf das Empfangen der elektronischen Kommunikation folgt, aktiviert wird.
  8. Gerät gemäß Anspruch 1 ferner umfassend ein Mikrofon und eine Sprachaktivierungstaste, wobei der Controller ferner eingerichtet ist zum, nach der Schwellenzeitspanne: Erkennen, dass die Sprachaktivierungstaste aktiviert ist; Empfangen, über das Mikrofon, einer Kontaktinformation; Erkennen, dass die Taste innerhalb einer weiteren Schwellenzeitspanne aktiviert wird; und Ausführen der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  9. Gerät gemäß Anspruch 1, ferner umfassend einen Speicher, der eine Zuordnung zwischen der einen oder den mehreren Tasten und den entsprechenden Funktionen speichert.
  10. Verfahren umfassend: das Empfangen, über eine Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; das Erkennen, über einen Controller, dass eine Taste von einer oder mehreren Tasten aktiviert wurde, wobei jede der einen oder mehreren Tasten dem Aktivieren von entsprechenden Funktionen zugeordnet ist; das Identifizieren, über den Controller, einer entsprechenden Funktion, die der Taste zugeordnet ist, wobei die entsprechende Funktion eine Ortungsfunktion umfasst; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation empfangen wurde durch das Bereitstellen, über den Controller, an einem Anzeigegerät, eines oder mehreres von folgendem: einem Standort des Quellenkontakts; und einer Route zu dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unabhängig von dem Quellenkontakt durch das Bereitstellen, über den Controller, an dem Anzeigegerät, eines aktuellen Standorts des Geräts.
  11. Verfahren gemäß Anspruch 10, wobei die entsprechenden Funktionen eines oder mehreres von folgendem umfassen: eine Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Telefonfunktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion und die Ortungsfunktion.
  12. Verfahren gemäß Anspruch 10, wobei die elektronische Kommunikation eine abspielbare Nachricht umfasst und die Schwellenzeitspanne nach einer gegebenen Zeit, nachdem das Abspielen der abspielbaren Nachricht endet, endet.
  13. Verfahren gemäß Anspruch 10, ferner umfassend: das Erkennen, über den Controller, dass die Taste gemäß einem gegebenen Muster aktiviert wurde, wobei das Ausführen der entsprechenden Funktion von dem gegebenen Muster abhängig ist.
  14. Verfahren gemäß Anspruch 10, ferner umfassend: das Erkennen, über den Controller, dass die Taste gemäß einem ersten gegebenen Muster oder einem zweiten gegebenen Muster aktiviert wurde; wenn die Taste gemäß dem ersten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, das Ausführen, über den Controller, der entsprechenden Funktion gemäß einem ersten Modus unter Verwendung des Quellenkontakts; und wenn die Taste gemäß dem zweiten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, das Ausführen, über den Controller, der entsprechenden Funktion gemäß einem zweiten Modus unter Verwendung des Quellenkontakts.
  15. Verfahren gemäß Anspruch 10, ferner umfassend, wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: das Empfangen, bei dem Controller, über ein Mikrofon, einer Kontaktinformation; und das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  16. Verfahren gemäß Anspruch 10, ferner umfassend das Ausführen der entsprechenden Funktionen von jeder der einen oder mehreren Tasten unter Verwendung des Quellenkontakts wenn sie innerhalb der Schwellenzeitspanne, die auf das Empfangen der elektronischen Kommunikation folgt, aktiviert werden.
  17. Verfahren gemäß Anspruch 10, ferner umfassend, nach der Schwellenzeitspanne: das Erkennen, über den Controller, dass eine Sprachaktivierungstaste aktiviert ist; das Empfangen, bei dem Controller, über ein Mikrofon, einer Kontaktinformation; das Erkennen, über den Controller, dass die Taste innerhalb einer weiteren Schwellenzeitspanne aktiviert wird; und das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  18. Verfahren gemäß Anspruch 10, ferner umfassend das Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist, unter Verwendung einer Zuordnung zwischen der einen oder den mehreren Tasten und den entsprechenden Funktionen.
  19. Gerät umfassend: eine Kommunikationsschnittstelle; ein Mikrofon; eine oder mehrere Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind; und einen Controller, eingerichtet zum: Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; Erkennen, dass eine Taste der einen oder mehreren Tasten aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation empfangen wurde; wenn die Taste nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: Empfangen, über das Mikrofon, einer Kontaktinformation; und Ausführen der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  20. Verfahren umfassend: das Empfangen, über eine Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; das Erkennen, über einen Controller, dass eine Taste von einer oder mehreren Tasten aktiviert wurde, wobei jede der einen oder mehreren Tasten dem Aktivieren von entsprechenden Funktionen zugeordnet ist; das Identifizieren, über den Controller, einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation empfangen wurde; wenn die Taste nach der Schwellenzeitspanne aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unabhängig von dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: das Empfangen, bei dem Controller über ein Mikrofon, einer Kontaktinformation; und das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  21. Gerät umfassend: eine Kommunikationsschnittstelle, die eingerichtet ist zum Kommunizieren mit einer oder mehreren Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind, wobei die eine oder mehreren Tasten außerhalb des Geräts sind, und wobei die Kommunikationsschnittstelle ferner eingerichtet ist zum Kommunizieren mit einem Mikrofon, das außerhalb des Geräts ist; und einen Controller, eingerichtet zum: Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; Erkennen, über die Kommunikationsschnittstelle, dass eine Taste der einen oder mehreren Tasten aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts von dem die elektronische Kommunikation empfangen wurde; wenn die Taste nach der Schwellenzeitspanne aktiviert wird, Ausführen der entsprechenden Funktion unabhängig von dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: Empfangen, über die Kommunikationsschnittstelle von dem Mikrofon, einer Kontaktinformation; und Ausführen der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  22. Gerät gemäß Anspruch 21, wobei die entsprechenden Funktionen eines oder mehreres von folgendem umfassen: eine Messaging-Funktion, eine Multimedia-Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Telefonfunktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion, eine Standortdienstfunktion und eine Ortungsfunktion.
  23. Gerät gemäß Anspruch 21, wobei die elektronische Kommunikation eine abspielbare Nachricht umfasst und die Schwellenzeitspanne nach einer gegebenen Zeit, nachdem das Abspielen der abspielbaren Nachricht endet, endet.
  24. Gerät gemäß Anspruch 21, wobei der Controller ferner eingerichtet ist zum: Erkennen, dass die Taste gemäß einem gegebenen Muster aktiviert wurde, wobei das Ausführen der entsprechenden Funktion von dem gegebenen Muster abhängig ist.
  25. Gerät gemäß Anspruch 21, wobei der Controller ferner eingerichtet ist zum: Erkennen, dass die Taste gemäß einem ersten gegebenen Muster oder einem zweiten gegebenen Muster aktiviert wurde; wenn die Taste innerhalb der Schwellenzeitspanne gemäß dem ersten gegebenen Muster aktiviert wurde, Ausführen der entsprechenden Funktion gemäß einem ersten Modus unter Verwendung des Quellenkontakts; und wenn die Taste gemäß dem zweiten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, Ausführen der entsprechenden Funktion gemäß einem zweiten Modus unter Verwendung des Quellenkontakts.
  26. Gerät gemäß Anspruch 21 ferner umfassend ein Anzeigegerät und die entsprechende Funktion eine Ortungsfunktion umfasst, wobei der Controller ferner eingerichtet ist zum: wenn die Taste innerhalb der Schwellenzeitspanne aktiviert wird, Bereitstellen, an dem Anzeigegerät, eines oder mehreres von folgendem: einem Standort des Quellenkontakts; und einer Route zu dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, Bereitstellen, an dem Anzeigegerät, eines aktuellen Standorts des Geräts.
  27. Gerät gemäß Anspruch 21, wobei der Controller ferner eingerichtet ist zum Ausführen der entsprechenden Funktionen von jeder der einen oder mehreren Tasten unter Verwendung des Quellenkontakts, wenn sie innerhalb der Schwellenzeitspanne, die auf das Empfangen der elektronischen Kommunikation folgt, aktiviert wird.
  28. Gerät gemäß Anspruch 21, wobei die Kommunikationsschnittstelle ferner eingerichtet ist zum Kommunizieren mit einer Sprachaktivierungstaste, die außerhalb des Geräts ist, wobei der Controller ferner eingerichtet ist zum, nach der Schwellenzeitspanne: Erkennen, über die Kommunikationsschnittstelle, dass die Sprachaktivierungstaste aktiviert ist; Empfangen, über die Kommunikationsschnittstelle von dem Mikrofon, einer entsprechenden Kontaktinformation; Erkennen, dass die Taste innerhalb einer weiteren Schwellenzeitspanne aktiviert wird; und Ausführen der entsprechenden Funktion unter Verwendung der entsprechenden Kontaktinformation, die über das Mikrofon empfangen wurde.
  29. Gerät gemäß Anspruch 21, wobei die eine oder mehreren Tasten in ein entferntes Lautsprechermikrofon aufgenommen sind und die Kommunikationsschnittstelle eingerichtet ist zum Kommunizieren mit der einen oder den mehreren Tasten über das entfernte Lautsprechermikrofon.
  30. Verfahren umfassend: das Empfangen, über eine Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; das Erkennen, bei einen Controller, über die Kommunikationsschnittstelle, dass eine Taste von einer oder mehreren Tasten, die außerhalb eines Geräts sind, das den Controller beinhaltet, aktiviert wurde, wobei jede der einen oder mehreren Tasten dem Aktivieren von entsprechenden Funktionen zugeordnet ist; das Identifizieren, über den Controller, einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung des Quellenkontakts, von dem die elektronische Kommunikation empfangen wurde; wenn die Taste nach der Schwellenzeitspanne aktiviert wird, das Ausführen, über den Controller, der entsprechenden Funktion unabhängig von dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne gemäß einem gegebenen Muster aktiviert wird: das Empfangen, bei dem Controller, über die Kommunikationsschnittstelle von einem Mikrofon, das außerhalb des Geräts ist, einer Kontaktinformation; und das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  31. Verfahren gemäß Anspruch 30, wobei die entsprechenden Funktionen eines oder mehreres von folgendem umfassen: eine Messaging-Funktion, eine Multimedia-Messaging-Funktion, eine E-Mail-Funktion, eine PTT-Funktion, eine Telefonfunktion, eine Privatruffunktion, eine Ereignisverwaltungsfunktion, eine Video-Streaming-Funktion, eine Standortdienstfunktion und eine Ortungsfunktion.
  32. Verfahren gemäß Anspruch 30, wobei die elektronische Kommunikation eine abspielbare Nachricht umfasst und die Schwellenzeitspanne nach einer gegebenen Zeit, nachdem das Abspielen der abspielbaren Nachricht endet, endet.
  33. Verfahren gemäß Anspruch 30, ferner umfassend: das Erkennen, über den Controller, dass die Taste gemäß einem gegebenen Muster aktiviert wurde, wobei das Ausführen der entsprechenden Funktion von dem gegebenen Muster abhängig ist.
  34. Verfahren gemäß Anspruch 30, ferner umfassend: das Erkennen, über den Controller, dass die Taste gemäß einem ersten gegebenen Muster oder einem zweiten gegebenen Muster aktiviert wurde; wenn die Taste gemäß dem ersten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, das Ausführen, über den Controller, der entsprechenden Funktion gemäß einem ersten Modus unter Verwendung des Quellenkontakts; und wenn die Taste gemäß dem zweiten gegebenen Muster innerhalb der Schwellenzeitspanne aktiviert wurde, das Ausführen, über den Controller, der entsprechenden Funktion gemäß einem zweiten Modus unter Verwendung des Quellenkontakts.
  35. Verfahren gemäß Anspruch 30, wobei die entsprechende Funktion eine Ortungsfunktion umfasst, und wobei das Verfahren ferner umfasst: wenn die Taste innerhalb einer Schwellenzeitspanne aktiviert wird, das Bereitstellen, über den Controller, an einem Anzeigegerät, eines oder mehreres von folgendem: einem Standort des Quellenkontakts; und einer Route zu dem Quellenkontakt; und wenn die Taste nach der Schwellenzeitspanne aktiviert wird, das Bereitstellen, über den Controller, an dem Anzeigegerät, eines aktuellen Standorts des Geräts.
  36. Verfahren gemäß Anspruch 30, ferner umfassend das Ausführen der entsprechenden Funktionen von jeder der einen oder mehreren Tasten unter Verwendung des Quellenkontakts wenn sie innerhalb der Schwellenzeitspanne, die auf das Empfangen der elektronischen Kommunikation folgt, aktiviert werden.
  37. Verfahren gemäß Anspruch 30, ferner umfassend, nach der Schwellenzeitspanne: das Erkennen, bei dem Controller, über die Kommunikationsschnittstelle, dass eine Sprachaktivierungstaste, die außerhalb des Geräts ist, aktiviert ist; das Empfangen, bei dem Controller, über die Kommunikationsschnittstelle von dem Mikrofon, einer entsprechenden Kontaktinformation; das Erkennen, über den Controller, dass die Taste innerhalb einer weiteren Schwellenzeitspanne aktiviert wird; und das Ausführen, über den Controller, der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde.
  38. Verfahren gemäß Anspruch 30, ferner umfassend das Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist, unter Verwendung einer Zuordnung zwischen der einen oder den mehreren Tasten und den entsprechenden Funktionen.
  39. Gerät umfassend: eine Kommunikationsschnittstelle, die eingerichtet ist zum Kommunizieren mit einer oder mehreren Tasten, die jeweils dem Aktivieren entsprechender Funktionen zugeordnet sind, wobei die eine oder mehreren Tasten außerhalb des Geräts sind, wobei die Kommunikationsschnittstelle ferner eingerichtet ist zum Kommunizieren mit einem Mikrofon und einer Stimmaktivierungstaste, die außerhalb des Geräts ist; und einen Controller, eingerichtet zum: Empfangen, über die Kommunikationsschnittstelle, einer elektronischen Kommunikation von einem Quellenkontakt; Erkennen, über die Kommunikationsschnittstelle, dass eine Taste der einen oder mehreren Tasten aktiviert wurde; Identifizieren einer entsprechenden Funktion, die der Taste zugeordnet ist; wenn die Taste innerhalb einer Schwellenzeitspanne nach dem Empfangen der elektronischen Kommunikation aktiviert wird, Ausführen der entsprechenden Funktion unter Verwendung des Quellenkontakts von dem die elektronische Kommunikation empfangen wurde; wenn die Taste nach der Schwellenzeitspanne aktiviert wird: Erkennen, über die Kommunikationsschnittstelle, dass eine Stimmaktivierungstaste aktiviert ist; Empfangen, über die Kommunikationsschnittstelle von dem Mikrofon, einer Kontaktinformation; Erkennen, dass die Taste innerhalb einer weiteren Schwellenzeitspanne aktiviert ist; und Ausführen der entsprechenden Funktion unter Verwendung der Kontaktinformation, die über das Mikrofon empfangen wurde, unabhängig von dem Quellenkontakt.
DE112018006904.4T 2018-01-19 2018-12-31 Gerät und Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation Active DE112018006904B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/874,945 US10616401B2 (en) 2018-01-19 2018-01-19 Device and method for locking in button context based on a source contact of an electronic communication
US15/874,945 2018-01-19
PCT/US2018/068176 WO2019143465A1 (en) 2018-01-19 2018-12-31 Device and method for locking in button context based on a source contact of an electronic communication

Publications (2)

Publication Number Publication Date
DE112018006904T5 DE112018006904T5 (de) 2020-10-01
DE112018006904B4 true DE112018006904B4 (de) 2021-11-25

Family

ID=65324533

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018006904.4T Active DE112018006904B4 (de) 2018-01-19 2018-12-31 Gerät und Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation

Country Status (4)

Country Link
US (2) US10616401B2 (de)
DE (1) DE112018006904B4 (de)
GB (1) GB2583632B (de)
WO (1) WO2019143465A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10616401B2 (en) * 2018-01-19 2020-04-07 Motorola Solutions, Inc. Device and method for locking in button context based on a source contact of an electronic communication

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150290548A1 (en) 2014-04-09 2015-10-15 Mark Meyers Toy messaging system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5894276A (en) 1996-12-23 1999-04-13 Motorola, Inc. Communication device with programmable function button and method of operation
US20040000898A1 (en) 2002-06-28 2004-01-01 Trace Technologies, Inc. Method and apparatus for identifying, locating and tracing wires in a multiple wire electrical system
AU2004237513B2 (en) 2003-05-08 2008-10-09 Vimplicity Ltd. Methods and systems for instant voice messaging and instant voice message retrieval
US20070015532A1 (en) 2005-07-15 2007-01-18 Tom Deelman Multi-function key for electronic devices
US8391456B2 (en) * 2009-03-20 2013-03-05 Microsoft Corporation Dynamic configuration of call controls for communication peripherals
US20110111735A1 (en) 2009-11-06 2011-05-12 Apple Inc. Phone hold mechanism
US9100809B2 (en) * 2009-12-21 2015-08-04 Julia Olincy Olincy Automatic response option mobile system for responding to incoming texts or calls or both
US8463316B2 (en) 2010-02-17 2013-06-11 Harris Corporation Communication device with a multi-functional control
US9569069B2 (en) 2011-09-29 2017-02-14 Avaya Inc. System and method for adaptive communication user interface
US20140379813A1 (en) 2013-06-21 2014-12-25 Verizon Patent And Licensing Inc. Method and system for providing intelligent messaging
CN105511686B (zh) 2016-01-19 2019-02-15 北京小米移动软件有限公司 来电处理方法、装置及终端电子设备
US10616401B2 (en) * 2018-01-19 2020-04-07 Motorola Solutions, Inc. Device and method for locking in button context based on a source contact of an electronic communication

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150290548A1 (en) 2014-04-09 2015-10-15 Mark Meyers Toy messaging system

Also Published As

Publication number Publication date
US20190230208A1 (en) 2019-07-25
US10616401B2 (en) 2020-04-07
US20190281150A1 (en) 2019-09-12
DE112018006904T5 (de) 2020-10-01
US10666788B2 (en) 2020-05-26
GB2583632A (en) 2020-11-04
GB2583632B (en) 2022-07-13
GB202010592D0 (en) 2020-08-26
WO2019143465A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
JP6476309B2 (ja) カレンダー情報管理方法、装置及びシステム、プログラム及び記録媒体
US20220232119A1 (en) Emergency Notification Methods for Mobile Phones
EP1064730B1 (de) Funkgerät
CN113722027A (zh) 一种通知消息的显示方法及电子设备
DE112011103546T5 (de) Drahtlosnetzwerkteilungseinrichtung
CN103257787A (zh) 一种语音助手应用的开启方法和装置
DE102008018166A1 (de) Endgerät und Verfahren zum Unterstützen einer Mehrsprachigkeit
CN101753702A (zh) 一种移动终端的情景模式实现方法、系统及移动终端
US20190196705A1 (en) Mobile terminal and method for implementing custom applications using the same
CN107172067A (zh) 一种通话方法、装置和设备
CN1710968A (zh) 一种采用一键通服务介绍朋友的方法
DE112018006904B4 (de) Gerät und Verfahren zum Einrasten von Tastenkontext basierend auf einem Quellenkontakt einer elektronischen Kommunikation
CN112114721A (zh) 息屏界面的应用方法、装置、设备及可读存储介质
KR101813826B1 (ko) 문자를 입력하기 위한 방법, 장치 및 시스템
CN106126488A (zh) 信息存储方法及装置
CN105933492A (zh) 电话号码获取方法及装置
DE102016215777A1 (de) Vorrichtung, System und Verfahren zum Synchronisieren mehrerer Vorrichtungen
CN106210276A (zh) 移动终端及应用消息的处理方法
US20180139319A1 (en) Realization method and apparatus for operation function in interphone, and interphone terminal
DE602004004255T2 (de) Verfahren und Vorrichtung zum automatischen Aufnehmen der Stimme während Push-to-talk Kommunikationen
DE112011105966B4 (de) Kommunikationseinrichtungen, zugehörige Geräte und Vorrichtungen
CN204810472U (zh) 蓝牙手咪、智能终端及数字集群对讲系统
CN103618803A (zh) 智能手机管理方法
DE102016112685A1 (de) Harmonisieren von Telefonkonversationen unter Einbeziehung von eingebetteten Vorrichtungen und sozialen Medienanwendungen
CN112118173B (zh) 消息反馈提醒的设置方法、装置和电子设备

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final