DE112016007250T5 - Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten - Google Patents

Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten Download PDF

Info

Publication number
DE112016007250T5
DE112016007250T5 DE112016007250.3T DE112016007250T DE112016007250T5 DE 112016007250 T5 DE112016007250 T5 DE 112016007250T5 DE 112016007250 T DE112016007250 T DE 112016007250T DE 112016007250 T5 DE112016007250 T5 DE 112016007250T5
Authority
DE
Germany
Prior art keywords
talkgroup
specific
characteristic
list
keywords
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112016007250.3T
Other languages
English (en)
Other versions
DE112016007250B4 (de
Inventor
Marta Tatiana Musik
Grzegorz Kaplita
Wojciech T. Wojcik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112016007250T5 publication Critical patent/DE112016007250T5/de
Application granted granted Critical
Publication of DE112016007250B4 publication Critical patent/DE112016007250B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • H04W4/10Push-to-Talk [PTT] or Push-On-Call services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2044Group features, e.g. closed user group

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Library & Information Science (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

Verfahren und System zum Optimieren von Spracherkennung und Informationssuche. Das Verfahren beinhaltet das Bestimmen von Kontextdaten, die mit einer bestimmten Gesprächsgruppe (140), welche eine Vielzahl von Kommunikationsvorrichtungen (120) beinhaltet, assoziiert ist, und das Erzeugen einer Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, die Liste von gesprächsgruppenspezifischen Schlüsselwörtern beinhaltet eine erste Charakteristik für jedes gesprächsgruppenspezifische Schlüsselwort. Das Verfahren beinhaltet ferner das Empfangen, von einer ersten Kommunikationsvorrichtung (120A) der Vielzahl von Kommunikationsvorrichtungen (120), von Audiodaten, die mit einem Benutzer der ersten Kommunikationsvorrichtung (120A) assoziiert sind, und das Verarbeiten der Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen. Das Verfahren umfasst ferner das Bestimmen einer zweiten Charakteristik des anfänglichen Ausgabebegriffs und das Bestimmen, ob die erste Charakteristik des gesprächsgruppenspezifischen Schlüsselwortes aus der Liste der gesprächsgruppenspezifischen Schlüsselwörter mit der zweiten Charakteristik des anfänglichen Begriffs übereinstimmt. Das Verfahren umfasst ferner das Ausgeben des Schlüsselwortes, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt.

Description

  • HINTERGRUND DER ERFINDUNG
  • In Suchmaschinen, Empfehlungssystemen und Sprachschnittstellen für Applikationen werden Suchergebnisse und Spracherkennung basierend auf Suchhistorie und zurückliegenden Mustern eines einzelnen Benutzers optimiert. Natürliche Sprache ist jedoch kompliziert und das gleiche Wort oder der gleiche Satz kann in Abhängigkeit von den Benutzerinteressen, Kontext, Situation und dergleichen verschiedene Dinge bedeuten. Als Ergebnis sind viele existierende Verfahren zur Spracherkennung und Suche ungenau.
  • Figurenliste
  • Die beigefügten Abbildungen, bei denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten, und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist eine Skizze eines Systems zum Optimieren von Spracherkennung und Informationssuche gemäß einigen Ausführungsformen.
    • 2 ist eine Skizze eines Anrufcontrollers gemäß einigen Ausführungsformen.
    • 3 ist eine Skizze einer Kommunikationsvorrichtung gemäß einigen Ausführungsformen.
    • 4 ist eine Skizze eines Verfahrens zum Verbessern von Spracherkennung und Informationssuche gemäß einigen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • In Organisationen der öffentlichen Sicherheit haben es Ersthelfer häufig mit lauten Umgebungen zu tun. Bereits bestehende Verarbeitungstechniken sind eventuell nicht in der Lage in diesen lauten Umgebungen Sprache genau zu erkennen. Kommunikationssysteme der öffentlichen Sicherheit sind häufig in Gruppen organisiert (beispielsweise Gesprächsgruppen). In vielen Fällen werden Mitarbeitergruppen der öffentlichen Sicherheit entsandt für dieselbe Mission oder interessieren sich für ähnliche Dinge. Es ist auch wahrscheinlich, dass sie ähnliche Namen und Begriffe in ihren Kommunikationen verwenden werden.
  • Eine Ausführungsform stellt ein Verfahren zum Betreiben eines Anrufcontrollers bereit zum Verbessern von Spracherkennung und Informationssuche innerhalb einer Gesprächsgruppe. Das Verfahren beinhaltet das Bestimmen von Kontextdaten, die mit einer bestimmten Gesprächsgruppe, die eine Vielzahl von Kommunikationsvorrichtungen beinhaltet, assoziiert sind, und das Erzeugen einer Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, die Liste von gesprächsgruppenspezifischen Schlüsselwörtern beinhaltet eine erste Charakteristik für jedes gesprächsgruppenspezifische Schlüsselwort. Das Verfahren beinhaltet auch das Empfangen, von einer ersten Kommunikationsvorrichtung der Vielzahl von Kommunikationsvorrichtungen, von Audiodaten, die mit einem Benutzer der ersten Kommunikationsvorrichtung assoziiert sind, und das Verarbeiten der Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen. Das Verfahren beinhaltet ferner das Bestimmen einer zweiten Charakteristik des anfänglichen Ausgabebegriffs und das Bestimmen, ob die erste Charakteristik eines gesprächsgruppenspezifischen Schlüsselwortes aus der Liste von gesprächsgruppenspezifischen Schlüsselwörtern mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt. Das Verfahren beinhaltet auch das Ausgeben des gesprächsgruppenspezifischen Schlüsselwortes, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt.
  • Eine andere Ausführungsform stellt ein System bereit zum Optimieren von Spracherkennung und Informationssuche. Das System beinhaltet eine Vielzahl von Kommunikationseinrichtungen, die eine Gesprächsgruppe bilden. Das System beinhaltet ferner einen Anrufcontroller, der mit der Vielzahl von Kommunikationsvorrichtungen kommuniziert, die die Gesprächsgruppe bilden, und beinhaltet einen elektronischen Prozessor. Der elektronische Prozessor ist eingerichtet zum Bestimmen von Kontextdaten, die mit der Gesprächsgruppe, die die Vielzahl von Kommunikationsvorrichtungen beinhaltet, assoziiert sind, und erzeugt eine Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, die Liste von gesprächsgruppenspezifischen Schlüsselwörtern beinhaltet eine erste Charakteristik für jedes gesprächsgruppenspezifische Schlüsselwort. Der elektronische Prozessor ist ferner konfiguriert zum Empfangen, von einer ersten Kommunikationsvorrichtung der Vielzahl von Kommunikationsvorrichtungen, von Audiodaten, die mit einem Benutzer der ersten Kommunikationsvorrichtung assoziiert sind, und verarbeitet die Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen; der elektronische Prozessor ist ferner eingerichtet zum Bestimmen einer zweiten Charakteristik des anfänglichen Ausgabebegriffs und zum Bestimmen, ob die erste Charakteristik eines gesprächsgruppenspezifischen Schlüsselwortes aus der Liste von gesprächsgruppenspezifischen Schlüsselwörtern mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt. Der elektronische Prozessor gibt dann das gesprächsgruppenspezifische Schlüsselwort aus, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt.
  • 1 ist eine Skizze einer Ausführungsform eines Systems 100 zum Verbessern von Spracherkennung und Informationssuche. In dem dargestellten Beispiel beinhaltet das System 100 einen Anrufcontroller 110. Der Anrufcontroller 110 kann beispielsweise ein Dispatch-Controller für eine Organisation der öffentlichen Sicherheit sein. Der Anrufcontroller 110 kommuniziert mit einer Vielzahl von Kommunikationsvorrichtungen 120A bis 120Z über ein Kommunikationsnetzwerk 130. Auf einer singulären Basis kann eine der Kommunikationsvorrichtungen 120A bis 120Z hierin als eine Kommunikationsvorrichtung 120 bezeichnet werden. Die Kommunikationsvorrichtungen 120A bis 120Z können beispielsweise mobile Zwei-Wege-Funkgeräte, ein Smartphone, eine Smartwatch, ein Laptop-Computer, ein Tablet-Computer oder andere ähnliche Vorrichtungen sein.
  • Das Kommunikationsnetzwerk 130 kann ein drahtgebundenes oder drahtloses Kommunikationsnetzwerk sein, wie zum Beispiel ein Mobilfunknetz, ein Landmobilfunk (LMR) -Netzwerk oder dergleichen. Teile des Kommunikationsnetzwerks 130 können implementiert sein unter Verwendung verschiedener Weitbereichsnetzwerke, beispielsweise dem Internet, und lokaler Bereichsnetzwerke, beispielsweise einem Bluetooth™-Netzwerk, einem drahtlosen lokalen Bereichsnetzwerk (beispielsweise Wi-Fi), sowie zukünftig entwickelter Netze oder einer Kombination davon.
  • Jede Kommunikationsvorrichtung 120 kann zu einer oder mehreren Gesprächsgruppen 140 gehören, zwischen denen der Benutzer der Kommunikationsvorrichtung 120 wechseln kann. Eine Gesprächsgruppe 140 ist ein virtueller Funkkanal auf einem digitalen Funksystem. Jeder Kommunikationsvorrichtung 120 in einer bestimmten Gesprächsgruppe 140 ist ein Gesprächsgruppenidentifizierer zugeordnet, der der Kommunikationsvorrichtung 120 erlaubt, mit anderen Kommunikationsvorrichtungen 120 zu kommunizieren, denen der gleiche Gesprächsgruppenidentifizierer zugeordnet ist. In dem dargestellten Beispiel gehören die Kommunikationsvorrichtungen 120A bis 120M zur Gesprächsgruppe 140A und die Kommunikationsvorrichtungen 120N bis 120Z gehören zur Gesprächsgruppe 140B. Beispielsweise gehören die Kommunikationsvorrichtungen 120A bis 120M, die an einem Gefahrgutmaterialeinsatz teilnehmen, zu der Gesprächsgruppe 140A. Zu Beginn des Gefahrgutmaterialeinsatzes werden die Kommunikationsvorrichtungen 120A bis 120M mit einem Gesprächsgruppenidentifizierer für die Gesprächsgruppe 140A versehen. Während des Gefahrgutmaterialeinsatzes, erlaubt die Gesprächsgruppe 140A den Benutzern der Kommunikationsvorrichtungen 120A bis 120M das Versenden von Kommunikationen zueinander und zu dem Anrufcontroller 110 über das Kommunikationsnetzwerk 130. Die Kommunikationsvorrichtungen 120 (und somit die Benutzer der Kommunikationsvorrichtungen 120) können einer Vielzahl von Gesprächsgruppen 140 zugeordnet sein. Wie in dieser Beschreibung verwendet, kann die Gesprächsgruppe 140 eine traditionelle statische oder dynamische Gesprächsgruppe, ein Ereignisbereichsnetzwerk mit mehreren Gesprächsgruppen, einen Geofence, Ausrüstung, die durch Mitglieder eines persönlichen Bereichsnetzwerks verwendet wird, und dergleichen beinhalten. In einigen Ausführungsformen kann die Ausrüstung 150 auch mit einer Gesprächsgruppe 140 assoziiert sein. Die Ausrüstung 150 kann beispielsweise einen intelligenten HAZMAT-Anzug, eine am Körper angebrachte Kamera, Pistolen, Feuerlöscher, und dergleichen beinhalten. Beispielsweise kann ein intelligenter HAZMAT-Anzug mit der Gesprächsgruppe 140A assoziiert sein, wenn die Kommunikationsvorrichtungen 120A bis 120M an einem Gefahrgutmaterialeinsatz teilnehmen.
  • 1 stellt nur eine beispielhafte Ausführungsform eines Systems 100 dar. In anderen Ausführungsformen kann das System 100 mehr oder weniger Komponenten beinhalten und kann Funktionen ausführen, die hierin nicht explizit beschrieben sind. Zusätzlich kann, obwohl der Anrufcontroller 110 als mit allen Kommunikationsvorrichtungen 120A bis 120Z über ein einzelnes Kommunikationsnetzwerk 130 kommunizierend dargestellt ist, der Anrufcontroller 110 mit den Kommunikationsvorrichtungen 120A bis 120Z über mehrere Kommunikationsnetzwerke (konstruiert gemäß verschiedenen Netzwerkprotokollen) und Verbindungen (beispielsweise drahtgebundene oder drahtlose Verbindungen) kommunizieren. Ferner kann, obwohl das System 100 als zentralisiertes System gezeigt ist, das System 100 auch als ein dezentralisiertes System implementiert sein, in welchem die Funktionalität des Anrufcontrollers 110 in einer oder mehreren der Kommunikationsvorrichtungen 120 erreicht wird.
  • 2 ist eine Skizze einer Ausführungsform des Anrufcontrollers 110. In dem dargestellten Beispiel beinhaltet der Anrufcontroller 110 einen elektronischen Prozessor 210, einen Speicher 220, einen Transceiver 230 und eine Eingabe/Ausgabe-Schnittstelle 240. Der elektronische Prozessor 210, der Speicher 220, der Transceiver 230 und die Eingabe/Ausgabe-Schnittstelle 240 kommunizieren über einen oder mehrere Kontroll- und/oder Datenbusse (beispielsweise einen Kommunikationsbus 250). 2 stellt nur eine beispielhafte Ausführungsform eines Anrufcontrollers 110 dar. Der Anrufcontroller 110 kann mehr oder weniger Komponenten beinhalten und kann andere als die hierin explizit beschriebenen Funktionen ausführen.
  • In einigen Ausführungsformen ist der elektronische Prozessor 210 als Mikroprozessor mit separatem Speicher, beispielsweise dem Speicher 220, implementiert. In anderen Ausführungsformen kann der elektronische Prozessor 210 als ein Mikrocontroller implementiert sein (mit Speicher 220 auf dem gleichen Chip). In anderen Ausführungsformen kann der elektronische Prozessor 210 unter Verwendung mehrerer Prozessoren implementiert sein. Zusätzlich kann der elektronische Prozessor 210 teilweise oder vollständig implementiert sein beispielsweise als feldprogrammierbares Gate-Array (FPGA) und anwendungsspezifische integrierte Schaltung (ASIC) und dergleichen, und der Speicher 220 kann nicht benötigt werden oder kann entsprechend modifiziert sein. In dem dargestellten Beispiel beinhaltet der Speicher 220 nicht flüchtigen, computerlesbaren Speicher, der Instruktionen speichert, die empfangen und ausgeführt werden durch den elektronischen Prozessor 210, um die Funktionalität des hierin beschriebenen Anrufcontrollers 110 auszuführen. Der Speicher 220 kann beispielsweise eine Programmspeicherbereich und einen Datenspeicherbereich beinhalten. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen aus verschiedenen Arten von Speichern beinhalten, beispielsweise ROM und RAM.
  • Der Transceiver 230 ermöglicht drahtlose Kommunikation von dem Anrufcontroller 110 beispielsweise zu den Kommunikationsvorrichtungen 120A bis 120Z über das Kommunikationsnetzwerk 130. In anderen Ausführungsformen kann der Anrufcontroller 110 anstelle des Transceivers 230 separate Sende- und Empfangskomponenten beinhalten, beispielsweise einen Sender und einen Empfänger. In noch einer weiteren Ausführungsform kann der Anrufcontroller 110 keinen Transceiver 230 beinhalten und kann mit den Kommunikationsvorrichtungen 120A bis 120Z über eine Netzwerkschnittstelle und eine drahtgebundene Verbindung mit dem Kommunikationsnetzwerk 130 kommunizieren.
  • Wie vorstehend erwähnt, kann der Anrufcontroller 110 die Eingabe/Ausgabe-Schnittstelle 240 beinhalten. Die Eingabe/Ausgabe-Schnittstelle 240 kann einen oder mehrere Eingabemechanismen (beispielsweise einen Touchscreen, ein Keypad, eine Taste, einen Knopf und dergleichen), einen oder mehrere Ausgabemechanismen (beispielsweise ein Display, einen Drucker, einen Lautsprecher und dergleichen) oder eine Kombination davon beinhalten. Die Eingabe/Ausgabe-Schnittstelle 240 empfängt Eingaben von Eingabevorrichtungen, die von einem Benutzer betätigt werden, und stellt Ausgaben an Ausgabevorrichtungen bereit, mit denen ein Benutzer interagiert. In einigen Ausführungsformen kann, als eine Alternative oder zusätzlich zur Verwaltung von Eingaben und Ausgaben durch die Eingabe/Ausgabe-Schnittstelle 240, der Anrufcontroller 110 Benutzereingaben empfangen, Benutzerausgaben bereitstellen, oder beides durch Kommunizieren mit einer externen Vorrichtung, wie zum Beispiel einem Konsolencomputer („console computer“), über eine drahtgebundene oder drahtlose Verbindung.
  • 3 ist eine Skizze einer Ausführungsform einer Kommunikationsvorrichtung 120. In dem dargestellten Beispiel beinhaltet die Kommunikationsvorrichtung 120, unter anderem einen elektronischen Vorrichtungsprozessor 310, einen Vorrichtungsspeicher 320, einen Vorrichtungstransceiver 330 und eine Vorrichtungs-Eingabe/Ausgabe-Schnittstelle 340. Der elektronische Vorrichtungsprozessor 310, der Vorrichtungsspeicher 320, der Vorrichtungstransceiver 330 und die Vorrichtungs-Eingabe/Ausgabe-Schnittstelle 340 kommunizieren über einen oder mehrere Kontroll- und/oder Datenbusse (beispielsweise einem Vorrichtungskommunikationsbus 350). 3 stellt nur eine exemplarische Ausführungsform der Kommunikationsvorrichtung 120 dar. Die Kommunikationsvorrichtung 120 kann mehr oder weniger Komponenten beinhalten als dargestellt und kann zusätzliche Funktionen ausführen, die von den hierin beschriebenen abweichen.
  • Der elektronische Vorrichtungsprozessor 310 kann auf unterschiedliche Weise implementiert werden, einschließlich solcher, die den vorstehend bezüglich des elektronischen Prozessors 210 beschriebenen ähneln. Ebenso kann der Vorrichtungsspeicher 320 auf unterschiedliche Weise implementiert werden, einschließlich solcher, die den bezüglich des Speichers 220 beschriebenen ähneln. Der Vorrichtungsspeicher 320 kann Anweisungen speichern, die von dem elektronischen Vorrichtungsprozessor 310 empfangen und ausgeführt werden, um die hierin beschriebene Funktionalität auszuführen.
  • Der Vorrichtungstransceiver 330 ermöglicht drahtlose Kommunikation von der Kommunikationsvorrichtung 120 beispielsweise zu dem Anrufcontroller 110 über das Kommunikationsnetzwerk 130. In anderen Ausführungsformen kann die Kommunikationsvorrichtung 120 anstatt eines Vorrichtungstransceivers 330 separate Sende- und Empfangskomponenten beinhalten, zum Beispiel einen Sender und einen Empfänger.
  • Die Vorrichtungs-Eingabe/Ausgabe-Schnittstelle 340 kann einen oder mehrere Eingabemechanismen (beispielsweise einen Touchscreen, ein Keypad, eine Taste, einen Knopf und dergleichen), einen oder mehrere Ausgabemechanismen (beispielsweise ein Display, einen Lautsprecher und dergleichen) oder eine Kombination davon beinhalten. Bei einigen Ausführungsformen kommuniziert die Kommunikationsvorrichtung 120 mit einer oder mehreren externen Vorrichtungen, die Teil eines persönlichen Bereichsnetzwerks (PAN) von Vorrichtungen sein können. Die eine oder mehreren externen Vorrichtungen können beispielsweise einen Holstersensor, einen Gassensor, einen oder mehrere Bekleidungssensoren oder -komponenten, wie beispielsweise solche in einem intelligenten Gefahrgutmaterial (HAZMAT) -Anzug, eine am Körper montierbare Kamera und dergleichen, beinhalten.
  • 4 ist ein Flussdiagramm, das ein beispielhaftes Verfahren 400 zur Verbesserung von Spracherkennung und Informationssuche darstellt. Wie in 4 dargestellt, beinhaltet das Verfahren 400, dass der Anrufcontroller 110 unter Verwendung des elektronischen Prozessors 210 Kontextdaten bestimmt, die mit einer bestimmten Gesprächsgruppe 140, die eine Vielzahl von Kommunikationsvorrichtungen 120 beinhaltet, assoziiert sind (bei Block 410). In einigen Ausführungsformen beinhalten die Kontextdaten Schlüsselwörter, die von Sprachkommunikation innerhalb der Gesprächsgruppe 140 extrahiert sind. Der Anrufcontroller 110 kann die gesamte in der Gesprächsgruppe 140 stattfindende Sprachkommunikation aufzeichnen und in dem Speicher 220 speichern. Der Anrufcontroller 110 kann dann die gespeicherten Sprachkommunikationen (beispielsweise vorangegangene Sprachkommunikation) unter Verwendung bekannter Spracherkennungstechniken verarbeiten, um die Sprachkommunikation in Text zu konvertieren, welcher dann in dem Speicher 220 gespeichert werden kann. In einigen Ausführungsformen kann der Anrufcontroller 110 die Sprachkommunikation automatisch verarbeiten, ohne die Sprachkommunikation in dem Speicher 220 zu speichern. Der Anrufcontroller 110 kann etwas oder den gesamten von der Sprachkommunikation extrahierten Text speichern. In einigen Ausführungsformen beinhaltet der Text gewisse Schlüsselwörter, die für den Einsatz oder für die Mission, die von den Benutzern der Kommunikationsvorrichtungen 120 ausgeführt wird, einzigartig sind. Beispielsweise kann bei Verfolgungseinsätzen Verdächtiger der extrahierte Text Nummernschilder, Orientierungspunkte, Straßennamen und dergleichen beinhalten. In diesen Ausführungsformen kann der Anrufcontroller 110 nur die für den Einsatz oder die Mission einzigartigen Schlüsselwörter speichern. Alternativ kann der Anrufcontroller 110 alle Schlüsselwörter speichern, aber den für den Einsatz oder die Mission einzigartigen Schlüsselwörtern einen höheren Rang bereitstellen.
  • In einigen Ausführungsformen können Kontextdaten Statusaktualisierungen beinhalten, beispielsweise von einem computerunterstützten Dispatch-System. Der Anrufcontroller 110 kann einen computerunterstützten Dispatcher beinhalten, der den Status der Kommunikationsvorrichtungen 120, die mit der Gesprächsgruppe 140 assoziiert sind, den Status von Benutzern der Kommunikationsvorrichtungen 120, die mit der Gesprächsgruppe 140 assoziiert sind, den Status oder Information der Mission, die die Benutzer ausführen, und dergleichen führt. Basierend auf der von den Kommunikationsvorrichtungen 120 empfangenen Information kann der computerunterstützte Dispatcher den Status der Mission aktualisieren. Beispielsweise kann während eines Brandereignisses ein Benutzer die Entdeckung einer gefährlichen Chemikalie in der Nähe des Feuers kommunizieren. Der computerunterstützte Dispatcher kann dann den Status der Mission aktualisieren als einen Gefahrgutmaterialeinsatz beinhaltend.
  • In einigen Ausführungsformen können Kontextdaten Verwendung und Präsenz von Ausrüstung in einem persönlichen Bereichsnetzwerk einer Kommunikationsvorrichtung 120, die mit einer bestimmten Gesprächsgruppe 140 assoziiert ist, beinhalten. Die Kommunikationsvorrichtungen 120 detektieren die Präsenz ohne die Verwendung der Ausrüstung 150, beispielsweise eines Gefahrgutanzugs, einer Waffe oder dergleichen. Die Kommunikationsvorrichtungen 120 übertragen dann die Verwendungs- und Präsenzinformation an den Anrufcontroller 110. In einigen Ausführungsformen können Kontextdaten auch Daten von Sensoren beinhalten. Die Kommunikationsvorrichtungen 120 empfangen Sensordaten von Sensoren innerhalb eines persönlichen Bereichsnetzwerks der Kommunikationsvorrichtung 120. Beispielsweise kann eine erste Kommunikationsvorrichtung 120A Sensordaten beispielsweise von einem Holstersensor, einem Temperatursensor, einem Blutdrucksensor oder dergleichen empfangen, welcher von einem Beamten für die öffentliche Sicherheit (beispielsweise einem Gesprächsgruppenteilnehmer) getragen wird. Die erste Kommunikationsvorrichtung 120A überträgt dann die Sensorinformation an den Anrufcontroller 110. In einigen Ausführungsformen können Kontextdaten eine Position des Global Positioning Systems (GPS) der Kommunikationsvorrichtung 120 beinhalten (beispielsweise eine oder mehrere Positionen der Kommunikationsvorrichtungen 120), die von den Kommunikationsvorrichtungen 120 an den Anrufcontroller 110 übertragen werden. In einigen Ausführungsformen können die Benutzer der Kommunikationsvorrichtungen 120 Ausrüstung 150 haben, die nicht mit dem persönlichen Bereichsnetzwerk der Kommunikationsvorrichtungen 120 gepairt werden kann. In diesen Ausführungsformen kann der Anrufcontroller 110 weiterhin Kontextdaten empfangen, die Verwendung und Präsenz der Ausrüstung 150 beinhalten. Beispielsweise kann der Anrufcontroller 110 erkennen (unter Bezugnahme auf eine Nachschlagetabelle), dass eine bestimmte Ausrüstung 150 präsent ist oder verwendet wird, basierend auf der von der Gesprächsgruppe 140 ausgeführten Mission oder basierend auf der Art des Personals für die öffentliche Sicherheit, die der Gesprächsgruppe 140 zugeordnet ist. In einem anderen Beispiel kann der Anrufcontroller 110 die verwendete Ausrüstung 150 durch eine Benutzereingabe empfangen.
  • Das Verfahren 400 beinhaltet auch, dass der Anrufcontroller 110 unter Verwendung des elektronischen Prozessors 210 eine Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, erzeugt (bei Block 420). Mit der bestimmten Gesprächsgruppe 140 assoziierte Kontextdaten werden zusammengeführt, um eine Liste von gesprächsgruppenspezifischen Schlüsselwörtern zu erzeugen. Wie vorstehend beschrieben bestimmt der Anrufcontroller 110 Kontextdaten basierend auf von einer Vielzahl von Kommunikationsvorrichtungen 120 empfangenen Kommunikationen, von der Vielzahl von Kommunikationsvorrichtungen empfangenen Sensordaten, Information über die Rollen und Verantwortlichkeiten der Mitglieder der Gesprächsgruppe 140, der Präsenz und Verwendung von Ausrüstung 150 durch die Mitglieder der Anrufgruppe 140 und dergleichen. Der Anrufcontroller 110 protokolliert diese Daten und baut eine Datenbank mit gesprächsgruppenspezifischen Schlüsselwörtern auf, indem er diese zahlreichen Eingaben zusammenführt. In einigen Ausführungsformen kann der Anrufcontroller 110 eine Nachschlagetabelle in dem Speicher 220 speichern, die eine Korrelation zwischen Kontextdaten und gewissen Schlüsselwörtern beinhaltet. Beispielsweise kann die Nachschlagetabelle gewisse chemische Namen für einen intelligenten HAZMAT-Anzug beinhalten. Wenn der Anrufcontroller 110 erkennt, dass die Kontextdaten einen intelligenten HAZMAT-Anzug beinhalten, greift der Anrufcontroller 110 auf die Nachschlagetabelle zurück, um die chemischen Namen, die mit dem intelligenten HAZMAT-Anzug zusammenhängen, zu extrahieren. In einigen Ausführungsformen beinhaltet die Datenbank auch Charakteristiken (zum Beispiel eine erste Charakteristik) der gesprächsgruppenspezifischen Schlüsselwörter. Die Charakteristiken beinhalten, zum Beispiel, eine Länge des gesprächsgruppenspezifischen Schlüsselwortes, einen anfänglichen Klang des gesprächsgruppenspezifischen Schlüsselwortes und dergleichen. Die Charakteristiken der gesprächsgruppenspezifischen Schlüsselwörter können beispielsweise bestimmt werden unter Verwendung bekannter Sprache-zu-Text- oder Text-zu-Sprache-Techniken. In einigen Ausführungsformen kann der Anrufcontroller 110 die gesprächsgruppenspezifischen Schlüsselwörter basierend auf Relevanz für eine Mission, die von den Benutzern der Kommunikationsvorrichtungen 120 ausgeführt wird, einordnen. Beispielsweise kann während eines Brandereignisses ein chemischer Name höher eingeordnet werden als ein Nummernschild. Der Anrufcontroller 110 kann die Datenbank ständig aktualisieren, während er neue Information und Kontextdaten von den Kommunikationsvorrichtungen 120 innerhalb der Anrufgruppe 140 empfängt.
  • Das Verfahren 400 beinhaltet das Empfangen, bei dem elektronischen Prozessor 210 von einer ersten Kommunikationsvorrichtung 120A, von Audiodaten, die mit einem Benutzer der ersten Kommunikationsvorrichtung 120A assoziiert sind (bei Block 430). Die Audiodaten entsprechen einer bei einer Kommunikationsvorrichtung 120 empfangenen verbalen Eingabe. Die Audiodaten (oder eine verbale Eingabe) können ein Sprachkommando oder eine Anfrage von dem Benutzer der ersten Kommunikationsvorrichtung 120A sein. Die Anfrage kann in Form einer Sprachanfrage oder eines Suchbegriffs erfolgen. Die erste Kommunikationsvorrichtung 120A sendet beim Empfangen von Audiodaten die Audiodaten über das Kommunikationsnetzwerk 130 an den Anrufcontroller 110. Beamte der öffentlichen Sicherheit arbeiten oft in lauten Umgebungen. Der Lärm kann die Audiodaten übertönen, so dass ein oder mehrere Wörter in den Audiodaten anfänglich nicht erkannt werden können. In einigen Ausführungsformen kann der Benutzer der ersten Kommunikationsvorrichtung 120A einen Befehl oder eine Anfrage eintippen. In diesen Ausführungsformen kann der Befehl oder die Anfrage falsch geschriebene oder unvollständige Wörter beinhalten.
  • Das Verfahren 400 beinhaltet das Verarbeiten, unter Verwendung des elektronischen Prozessors 210, der Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen (bei Block 440). Der Anrufcontroller 110 kann bereits vorhandene Verarbeitungstechniken für natürliche Sprache verwenden, um einen anfänglichen Ausgabebegriff zu erzeugen. In einigen Ausführungsformen kann der anfängliche Ausgabebegriff, der von dem Anrufcontroller 110 erzeugt wird, eine beste Schätzung für die nicht erkannten Audiodaten sein. In einigen Ausführungsformen kann der Anrufcontroller 110 mehr als einen anfänglichen Ausgabebegriff erzeugen (beispielsweise eine zweite Liste von Schlüsselwörtern). Die erzeugten anfänglichen Ausgabebegriffe können basierend auf der Wahrscheinlichkeit, dass der nicht erkannte Ausdruck mit den erzeugten anfänglichen Ausgabebegriffen übereinstimmt, eingeordnet werden. Das heißt, die zweite Liste von Schlüsselwörtern ist nach der Wahrscheinlichkeit geordnet, die auf natürlicher Sprachverarbeitung der Audiodaten basiert.
  • Das Verfahren 400 beinhaltet das Bestimmen, unter Verwendung des elektronischen Prozessors 210, einer zweiten Charakteristik des anfänglichen Ausgabebegriffs (und somit der Audiodaten) (bei Block 450). Wie vorstehend beschrieben kann die zweite Charakteristik beispielsweise eine Länge des anfänglichen Ausgabebegriffs, einen anfänglichen Klang des anfänglichen Ausgabebegriffs und dergleichen beinhalten. In einigen Ausführungsformen kann der anfängliche Ausgabebegriff ein Teilbegriff sein, der ausreicht, um eine zweite Charakteristik der Audiodaten zu bestimmen. Das Verfahren 400 beinhaltet das Bestimmen, unter Verwendung des elektronischen Prozessors 210, ob die erste Charakteristik eines gesprächsgruppenspezifischen Schlüsselwortes von der Liste der gesprächsgruppenspezifischen Schlüsselwörter mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt (bei Block 460). Der Anrufcontroller 110 vergleicht die zweite Charakteristik des anfänglichen Ausgabebegriffs mit der Liste von gesprächsgruppenspezifischen Schlüsselwörtern. Der Anrufcontroller 110 bestimmt dann, ob es ein gesprächsgruppenspezifisches Schlüsselwort gibt, dessen erste Charakteristik mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt. Das Verfahren 400 beinhaltet das Ausgeben, unter Verwendung des elektronischen Prozessors 210, des gesprächsgruppenspezifischen Schlüsselwortes, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt (bei Block 470). Der Anrufcontroller 110 erkennt dann die Audiodaten und führt die durch die verbale Eingabe nachgefragte Funktion aus. Beispielsweise kann der Anrufcontroller 110 erkennen, dass die Audiodaten ein Befehl sind, die Einstellungen einer bestimmten Ausrüstung 150 anzupassen. Der Anrufcontroller 110 passt die Einstellungen der Ausrüstung 150 nach dem Erkennen der Audiodaten automatisch an. In einigen Ausführungsformen, in denen es kein gesprächsgruppenspezifisches Schlüsselwort gibt, dessen erste Charakteristik mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt, kann der Anrufcontroller 110 den anfänglichen Ausgabebegriff oder eine Fehlermeldung ausgeben.
  • Das Verfahren 400 wiederholt sich, um kontinuierlich zusätzliche Kontextdaten (beispielsweise zweite Kontextdaten) zu empfangen und aktualisiert die Liste von gesprächsgruppenspezifischen Schlüsselwörtern basierend auf den bestimmten Kontextdaten. Auf diese Weise optimiert der Anrufcontroller 110 kontinuierlich Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivität. In einigen Ausführungsformen kann mehr als ein gesprächsgruppenspezifisches Schlüsselwort eine erste Charakteristik beinhalten, die mit der zweiten Charakteristik übereinstimmt. Der Anrufcontroller 110 kann die gesprächsgruppenspezifischen Schlüsselwörter, die sich auf Aktivitätsprotokolle beziehen, oder Kontextdaten, die von der Gesprächsgruppe 140 bestimmt werden, höher einordnen als jene gesprächsgruppenspezifischen Schlüsselwörter, die dies nicht tun. In einigen Ausführungsformen können die gesprächsgruppenspezifischen Schlüsselwörter, die sich auf mehr Aktivitätsprotokolle oder Kontextdaten beziehen, einen höheren Rang bekommen (beispielsweise basierend auf einer Art der Kontextdaten) als jene, die sich auf ältere Aktivitätsprotokolle oder Kontextdaten beziehen. Der Anrufcontroller 110 kann dann das gesprächsgruppenspezifische Schlüsselwort (beispielsweise ein zweites gesprächsgruppenspezifisches Schlüsselwort) mit dem höchsten Rang ausgeben. Alternativ kann der Anrufcontroller 110 alle übereinstimmenden gesprächsgruppenspezifischen Schlüsselwörter in der Reihenfolge ihres Rangs ausgeben.
  • Ein Vorteil der vorstehenden Techniken ist, dass Spracherkennung und Informationssuche verbessert und optimiert werden kann, um relevante gesprächsgruppenspezifische Schlüsselwörter basierend auf Kontextdaten basierend auf relevanten Aktivitäten und einer Vorgeschichte oder einer bestimmten Gesprächsgruppe, anstatt von einem einzelnen Benutzer zu bestimmen.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein.
  • Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen.
  • Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (16)

  1. Verfahren zum Betreiben eines Anrufcontrollers, der einen elektronischen Prozessor zum Verbessern von Spracherkennung und Informationssuche innerhalb einer Gesprächsgruppe beinhaltet, wobei das Verfahren umfasst: Bestimmen, unter Verwendung des elektronischen Prozessors, von Kontextdaten, die mit der Gesprächsgruppe, die eine Vielzahl von Kommunikationsvorrichtungen beinhaltet, assoziiert sind; Erzeugen, unter Verwendung des elektronischen Prozessors, einer Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, wobei die Liste von gesprächsgruppenspezifischen Schlüsselwörtern eine erste Charakteristik für jedes gesprächsgruppenspezifische Schlüsselwort beinhaltet; Empfangen, bei dem elektronischen Prozessor von einer ersten Kommunikationsvorrichtung der Vielzahl von Kommunikationsvorrichtungen, von Audiodaten, die mit einem ersten Benutzer der ersten Kommunikationsvorrichtung assoziiert sind; Verarbeiten, unter Verwendung des elektronischen Prozessors, der Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen; Bestimmen, unter Verwendung des elektronischen Prozessors, einer zweiten Charakteristik des anfänglichen Ausgabebegriffs; Bestimmen, unter Verwendung des elektronischen Prozessors, ob die erste Charakteristik eines gesprächsgruppenspezifischen Schlüsselwortes aus der Liste von gesprächsgruppenspezifischen Schlüsselwörtern mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt; und Ausgeben, unter Verwendung des elektronischen Prozessors, des gesprächsgruppenspezifischen Schlüsselwortes, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt.
  2. Verfahren gemäß Anspruch 1, wobei die mit der Gesprächsgruppe assoziierten Kontextdaten wenigstens eines beinhalten, ausgewählt aus einer Gruppe bestehend aus früherer Sprachkommunikation in der bestimmten Gesprächsgruppe, früheren Statusaktualisierungen von einem computerunterstützten Dispatcher, Präsenz von Ausrüstung in einem persönlichen Gebietsnetzwerk eines Gesprächsgruppenteilnehmers, Verwendung von Ausrüstung, Daten von Sensoren von Gesprächsgruppenteilnehmern und einer oder mehrerer Positionen von der Vielzahl von Kommunikationsvorrichtungen.
  3. Verfahren gemäß Anspruch 1, ferner umfassend: Zuweisen eines Rangs an jedes gesprächsgruppenspezifische Schlüsselwort in der Liste von gesprächsgruppenspezifischen Schlüsselwörtern basierend auf einer Art der Kontextdaten, aus dem jedes gesprächsgruppenspezifische Schlüsselwort in der Liste von gesprächsgruppenspezifischen Schlüsselwörtern extrahiert ist.
  4. Verfahren gemäß Anspruch 3, ferner umfassend: Bestimmen, unter Verwendung des elektronischen Prozessors, zweiter Kontextdaten, die mit der Gesprächsgruppe assoziiert sind; und Anpassen des Rangs für jedes gesprächsgruppenspezifische Schlüsselwort in der Liste der gesprächsgruppenspezifischen Schlüsselwörter basierend auf den Kontextdaten und den zweiten Kontextdaten.
  5. Verfahren gemäß Anspruch 3, ferner umfassend: Bestimmen, unter Verwendung des elektronischen Prozessors, dass die erste Charakteristik eines zweiten gesprächsgruppenspezifischen Schlüsselwortes von der Liste der gesprächsgruppenspezifischen Schlüsselwörter mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt, wobei das zweite gesprächsgruppenspezifische Schlüsselwort einen höheren Rang als das gesprächsgruppenspezifische Schlüsselwort hat; und Ausgeben, unter Verwendung des elektronischen Prozessors, des zweiten gesprächsgruppenspezifischen Schlüsselwortes.
  6. Verfahren gemäß Anspruch 1, wobei das Bestimmen der zweiten Charakteristik des anfänglichen Ausgabebegriffs das Bestimmen, unter Verwendung des elektronischen Prozessors, einer zweiten Liste von Schlüsselwörtern beinhaltet, die nach Wahrscheinlichkeit eingeordnet sind, basierend auf natürlicher Sprachverarbeitung der Audiodaten.
  7. Verfahren gemäß Anspruch 6, ferner umfassend das Bestimmen, ob die Liste der gesprächsgruppenspezifischen Schlüsselwörter wenigstens ein Schlüsselwort aus der zweiten Liste von Schlüsselwörtern beinhaltet, wobei das Ausgeben des gesprächsgruppenspezifischen Schlüsselwortes das Ausgeben des wenigstens einen Schlüsselwortes beinhaltet.
  8. Verfahren gemäß Anspruch 1, wobei die Audiodaten eines ausgewählt aus einer Gruppe bestehend aus einem Sprachbefehl und einem Suchbegriff beinhaltet.
  9. System zum Optimieren von Spracherkennung und Informationssuche umfassend: eine Vielzahl von Kommunikationsvorrichtungen, die eine Gesprächsgruppe ausbilden; und einen Anrufcontroller, der mit der Vielzahl von Kommunikationsvorrichtungen, die die Gesprächsgruppe bilden, kommuniziert, und einen elektronischen Prozessor umfasst, wobei der elektronische Prozessor eingerichtet ist zum: Bestimmen von Kontextdaten, die mit der Gesprächsgruppe assoziiert sind, welche die Vielzahl von Kommunikationsvorrichtungen beinhaltet; Erzeugen einer Liste von gesprächsgruppenspezifischen Schlüsselwörtern, die mit den Kontextdaten assoziiert sind, wobei die Liste von gesprächsgruppenspezifischen Schlüsselwörtern eine erste Charakteristik für jedes gesprächsgruppenspezifische Schlüsselwort beinhaltet; Empfangen, von einer ersten Kommunikationsvorrichtung der Vielzahl von Kommunikationsvorrichtungen, von Audiodaten, die mit einem Benutzer der ersten Kommunikationsvorrichtung assoziiert sind; Verarbeiten der Audiodaten, um einen anfänglichen Ausgabebegriff zu erzeugen; Bestimmen einer zweiten Charakteristik des anfänglichen Ausgabebegriffs; Bestimmen, ob die erste Charakteristik eines gesprächsgruppenspezifischen Schlüsselwortes aus der Liste der gesprächsgruppenspezifischen Schlüsselwörter mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt; und Ausgeben des gesprächsgruppenspezifischen Schlüsselwortes, wenn die erste Charakteristik mit der zweiten Charakteristik übereinstimmt.
  10. System gemäß Anspruch 9, wobei die Kontextdaten, die mit der Gesprächsgruppe assoziiert sind, wenigstens eines ausgewählt aus einer Gruppe bestehend aus früherer Sprachkommunikationen der Gesprächsgruppe, früheren Statusaktualisierungen von einem computerunterstützten Dispatcher, Anwesenheit von Ausrüstung in einem persönlichen Bereichsnetzwerk eines Teilnehmers der Gesprächsgruppe, Daten von Sensoren eines Teilnehmers der Gesprächsgruppe und einer oder mehrere Positionen der Vielzahl von Kommunikationsvorrichtungen.
  11. System gemäß Anspruch 9, wobei der elektronische Prozessor ferner eingerichtet ist zum Zuweisen eines Rangs an jedes gesprächsgruppenspezifische Schlüsselwort in der Liste der gesprächsgruppenspezifischen Schlüsselwörter basierend auf einer Art der Kontextdaten, aus denen jedes gesprächsgruppenspezifische Schlüsselwort in der Liste der gesprächsgruppenspezifischen Schlüsselwörter extrahiert ist.
  12. System gemäß Anspruch 11, wobei der elektronische Prozessor ferner konfiguriert ist zum: Bestimmen zweiter Kontextdaten von der Gesprächsgruppe; und Anpassen des Rangs für jedes gesprächsgruppenspezifische Schlüsselwort in der Liste der gesprächsgruppenspezifischen Schlüsselwörter basierend auf den Kontextdaten und den zweiten Kontextdaten.
  13. System gemäß Anspruch 11, wobei der elektronische Prozessor ferner eingerichtet ist zum: Bestimmen, dass die erste Charakteristik eines zweiten gesprächsgruppenspezifischen Schlüsselwortes aus der Liste der gesprächsgruppenspezifischen Schlüsselwörter mit der zweiten Charakteristik des anfänglichen Ausgabebegriffs übereinstimmt, wobei das zweite gesprächsgruppenspezifische Schlüsselwort einen höheren Rang als das gesprächsgruppenspezifische Schlüsselwort hat; und Ausgeben des zweiten gesprächsgruppenspezifischen Schlüsselwortes.
  14. System gemäß Anspruch 9, wobei das Bestimmen der zweiten Charakteristik des anfänglichen Ausgabebegriffs das Bestimmen einer zweiten Liste von Schlüsselwörtern, die nach Wahrscheinlichkeit angeordnet sind, basierend auf natürlicher Sprachverarbeitung der Audiodaten, beinhaltet.
  15. System gemäß Anspruch 14, wobei der elektronische Prozessor ferner eingerichtet ist zum Bestimmen, ob die Liste der gesprächsgruppenspezifischen Schlüsselwörter wenigstens ein Schlüsselwort aus der zweiten Liste von Schlüsselwörtern beinhaltet, wobei das Ausgeben des gesprächsgruppenspezifischen Schlüsselwortes das Ausgeben des wenigstens einen Schlüsselwortes beinhaltet.
  16. System gemäß Anspruch 9, wobei die Audiodaten eines ausgewählt aus einer Gruppe bestehend aus einem Sprachkommando und einem Suchbegriff beinhaltet.
DE112016007250.3T 2016-09-21 2016-09-21 Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten Active DE112016007250B4 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/PL2016/050041 WO2018056846A1 (en) 2016-09-21 2016-09-21 Method and system for optimizing voice recognition and information searching based on talkgroup activities

Publications (2)

Publication Number Publication Date
DE112016007250T5 true DE112016007250T5 (de) 2019-07-04
DE112016007250B4 DE112016007250B4 (de) 2021-10-07

Family

ID=57241147

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016007250.3T Active DE112016007250B4 (de) 2016-09-21 2016-09-21 Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten

Country Status (6)

Country Link
US (1) US10666808B2 (de)
AU (1) AU2016423667B2 (de)
CA (1) CA3036778C (de)
DE (1) DE112016007250B4 (de)
GB (1) GB2568013B (de)
WO (1) WO2018056846A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11409816B2 (en) 2017-12-19 2022-08-09 Motorola Solutions, Inc. Methods and systems for determining an action to be taken in response to a user query as a function of pre-query context information
US20200204848A1 (en) * 2018-12-20 2020-06-25 Motorola Solutions, Inc Device and method for providing relevant video content to members of a communication group
US10715967B1 (en) * 2019-09-20 2020-07-14 Motorola Solutions, Inc. Method for real-time talk-group creation within a push to talk for an incident report system
US11449961B2 (en) * 2020-03-30 2022-09-20 Motorola Solutions, Inc. Voice interface alert management
US11184742B2 (en) * 2020-04-20 2021-11-23 Motorola Solutions, Inc. Method and apparatus for determining an approver for requesting permission to join a dynamically-created talkgroup

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6477387B1 (en) * 1999-10-08 2002-11-05 Motorola, Inc. Method and apparatus for automatically grouping communication units in a communication system
US20030153343A1 (en) * 2002-02-14 2003-08-14 Crockett Douglas M. Communication device for initiating a group call in a group communication network
JP2004028883A (ja) 2002-06-27 2004-01-29 Denso Corp 感圧センサ
US7558589B2 (en) * 2004-04-08 2009-07-07 Motorola, Inc. Talker arbitration method and apparatus
US7925506B2 (en) * 2004-10-05 2011-04-12 Inago Corporation Speech recognition accuracy via concept to keyword mapping
US20060104293A1 (en) 2004-11-17 2006-05-18 Alcatel Method of performing a communication service
US9654200B2 (en) * 2005-07-18 2017-05-16 Mutualink, Inc. System and method for dynamic wireless aerial mesh network
US7822762B2 (en) 2006-06-28 2010-10-26 Microsoft Corporation Entity-specific search model
US7844460B2 (en) 2007-02-15 2010-11-30 Motorola, Inc. Automatic creation of an interactive log based on real-time content
KR101359715B1 (ko) * 2007-08-24 2014-02-10 삼성전자주식회사 모바일 음성 웹 제공 방법 및 장치
US8775416B2 (en) 2008-01-09 2014-07-08 Yahoo!Inc. Adapting a context-independent relevance function for identifying relevant search results
US7809715B2 (en) 2008-04-15 2010-10-05 Yahoo! Inc. Abbreviation handling in web search
US8401195B2 (en) 2008-09-22 2013-03-19 Motorola Solutions, Inc. Method of automatically populating a list of managed secure communications group members
US8370155B2 (en) 2009-04-23 2013-02-05 International Business Machines Corporation System and method for real time support for agents in contact center environments
CN102202570B (zh) 2009-07-03 2014-04-16 松下电器产业株式会社 语音清晰度评价系统、其方法
US9224396B2 (en) 2010-06-02 2015-12-29 Nokia Technologies Oy Enhanced context awareness for speech recognition
US8799188B2 (en) 2011-02-08 2014-08-05 International Business Machines Corporation Algorithm engine for use in a pattern matching accelerator
US20120244812A1 (en) 2011-03-27 2012-09-27 Plantronics, Inc. Automatic Sensory Data Routing Based On Worn State
WO2013014709A1 (ja) * 2011-07-27 2013-01-31 三菱電機株式会社 ユーザインタフェース装置、車載用情報装置、情報処理方法および情報処理プログラム
US20130159404A1 (en) * 2011-12-19 2013-06-20 Nokia Corporation Method and apparatus for initiating a task based on contextual information
US9471220B2 (en) 2012-09-18 2016-10-18 Google Inc. Posture-adaptive selection
US8880495B2 (en) * 2012-10-16 2014-11-04 Michael J. Andri Search query expansion and group search
US8837906B2 (en) 2012-12-14 2014-09-16 Motorola Solutions, Inc. Computer assisted dispatch incident report video search and tagging systems and methods
US8908837B2 (en) * 2013-03-29 2014-12-09 Synergem Technologies, Inc. Methods and systems for automatically providing an emergency service call handler with context specific emergency service protocols
US9626963B2 (en) * 2013-04-30 2017-04-18 Paypal, Inc. System and method of improving speech recognition using context
CN105453026A (zh) * 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
US9295086B2 (en) * 2013-08-30 2016-03-22 Motorola Solutions, Inc. Method for operating a radio communication device in a multi-watch mode
US10127224B2 (en) 2013-08-30 2018-11-13 Intel Corporation Extensible context-aware natural language interactions for virtual personal assistants
US20150072716A1 (en) 2013-09-11 2015-03-12 Motorola Solutions, Inc Method of and system for controlling communications over a public safety network
CN104700832B (zh) * 2013-12-09 2018-05-25 联发科技股份有限公司 语音关键字检测系统及方法
KR101844516B1 (ko) * 2014-03-03 2018-04-02 삼성전자주식회사 컨텐츠 분석 방법 및 디바이스
US11042819B2 (en) * 2015-02-27 2021-06-22 Honda Motor Co., Ltd. Server, client, and information sharing system
US20160306798A1 (en) 2015-04-16 2016-10-20 Microsoft Corporation Context-sensitive content recommendation using enterprise search and public search
US10105100B2 (en) 2015-07-28 2018-10-23 Verily Life Sciences Llc Display on a bandage-type monitoring device
US10916258B2 (en) * 2017-06-30 2021-02-09 Telegraph Peak Technologies, LLC Audio channel monitoring by voice to keyword matching with notification
US10321278B2 (en) * 2017-09-12 2019-06-11 Motorola Solutions, Inc. Method and device for responding to a query
US10636423B2 (en) * 2018-02-21 2020-04-28 Motorola Solutions, Inc. System and method for managing speech recognition
US10685075B2 (en) * 2018-04-11 2020-06-16 Motorola Solutions, Inc. System and method for tailoring an electronic digital assistant query as a function of captured multi-party voice dialog and an electronically stored multi-party voice-interaction template

Also Published As

Publication number Publication date
GB201903433D0 (en) 2019-04-24
US20190222698A1 (en) 2019-07-18
AU2016423667A1 (en) 2019-04-11
DE112016007250B4 (de) 2021-10-07
CA3036778A1 (en) 2018-03-29
GB2568013B (en) 2021-02-24
US10666808B2 (en) 2020-05-26
WO2018056846A1 (en) 2018-03-29
AU2016423667B2 (en) 2020-03-12
GB2568013A (en) 2019-05-01
CA3036778C (en) 2022-02-01

Similar Documents

Publication Publication Date Title
DE112016007250B4 (de) Verfahren und System zum Optimieren von Spracherkennung und Informationssuche basierend auf Gesprächsgruppenaktivitäten
DE102016125494B4 (de) Das sichere Ausführen von Sprachfunktionen unter der Verwendung kontextabhängiger Signale
DE112016000292B4 (de) Verfahren und Vorrichtung zur die Privatsphäre bewahrenden Trainingskorpusauswahl
DE102014109121B4 (de) Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
DE102005060072B4 (de) Verfahren und Vorrichtung zum Verwalten von Benutzer-Nametags für ein Fahrzeugkommunikationssystem
DE102012212185B4 (de) Pflegen und Bereitstellen von Sprachmodellen
DE112017005148T5 (de) Verfahren und vorrichtung zum ausführen von handlungen bei ereignissen der öffentlichen sicherheit basierend auf handlungen, die bei früheren ereignissen ausgeführt wurden
DE202017105485U1 (de) Dynamische Sprachsynthese-Bereitstellung
DE102017112270A1 (de) Schlüsselloses fahrzeugsystem, das eine wartung ermöglicht
DE112015001995T5 (de) Verfahren und System zur Bereitstellung von Alarmen für Funkkommunikationen
DE112016004859T5 (de) Personalisiertes Entitäten-Repository
DE102015116832A1 (de) Adaptive Fahreridentifikationsverschmelzung
DE102011004959A1 (de) Verfahren und System zum Ermöglichen eines autorisierten Fahrzeugwegfahrens
DE102008033016A1 (de) Audio-Führungssystem
DE202017105741U1 (de) Automatisierte Sprachaussprachezuteilung
DE102017113127A1 (de) Verfahren und Vorrichtung für Fahrzeuginsassenpositionserfassung
DE102013208506B4 (de) Hierarchische Erkennung von Fahrzeugfahrer und Auswahlaktivierung von Fahrzeugeinstellungen auf der Grundlage der Erkennung
DE112018003350T5 (de) Vorrichtung und Verfahren zur Echtzeit-Sammlung von beweiserheblichen Daten im Bereich der öffentlichen Sicherheit
DE112016005479T5 (de) Datenanalysesystem
EP3095114B1 (de) Verfahren und system zur erzeugung eines steuerungsbefehls
DE112015003523T5 (de) Speichern und Abrufen der Standorte von Objekten
DE102014014687B4 (de) Verfahren und Vorrichtung zur Bereitstellung von Diensten an einen geographischen Bereich
DE102015121098A1 (de) Multimodale Antwort auf eine Multimodale Suche
DE102015016262A1 (de) Verfahren zum Betreiben eines Zugangssystems für ein Kraftfahrzeug
DE202017105979U1 (de) Systeme und Computerprogrammprodukte zur Handhabung von Formalität in Übersetzungen von Text

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G10L0015200000

Ipc: G10L0015220000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final