JP5916888B2 - 直接的文法アクセス - Google Patents
直接的文法アクセス Download PDFInfo
- Publication number
- JP5916888B2 JP5916888B2 JP2014548779A JP2014548779A JP5916888B2 JP 5916888 B2 JP5916888 B2 JP 5916888B2 JP 2014548779 A JP2014548779 A JP 2014548779A JP 2014548779 A JP2014548779 A JP 2014548779A JP 5916888 B2 JP5916888 B2 JP 5916888B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- user
- vehicle
- function
- control command
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006870 function Effects 0.000 claims description 161
- 238000000034 method Methods 0.000 claims description 57
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 17
- 238000004378 air conditioning Methods 0.000 claims description 11
- 230000000977 initiatory effect Effects 0.000 claims 2
- 230000004044 response Effects 0.000 claims 2
- 238000012545 processing Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000005057 finger movement Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/21—Voice
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、本開示の例示的実施形態による、様々な車両機能をスピーチ入力の目標とするために利用することができる例示的システム100またはアーキテクチャのブロック図である。システム100は、多種多様なハードウェアおよび/または機能コンポーネント、例えばユーザー入力コンポーネント105、選択コンポーネント110、機能に特有の文法115の任意の数のセットまたはクラスタ、音声キャプチャコンポーネント120、スピーチエンジン125、および/または操作コンポーネント130などを含むことができる。これらのコンポーネントの各々は、後でさらに詳細に説明する。さらに、図1のシステム100が、様々なシステム、装置、および/または1つまたは複数のプロセッサによって実行されるコンピュータ可読媒体を含むがこれに限定されない多種多様な好適な形式で実現することができることはいうまでもない。図1に示すシステム100の1つの例示的な詳細な実施形態について、図3を参照して後でさらに詳細に説明する。
図4は、車両機能を音声認識の目標とするためにユーザー入力を評価するための例示的方法400のフローチャートである。ある実施形態では、方法400の動作は、例えば、図3に示す音声認識システム300および/または関係する入力処理モジュール350および/または音声認識モジュール352などの、好適な音声認識システムおよび/または1つもしくは複数の関係するモジュールおよび/またはアプリケーションによって実行することができる。方法400はブロック405から開始することができる。
Claims (19)
- 車両のための可聴コマンドと関係する複数の文法要素を記憶する少なくとも1つのメモリと、
少なくとも1つのマイクロホンと、
少なくとも1つのユーザー入力キャプチャデバイスと、
前記少なくとも1つのユーザー入力キャプチャデバイスから受け取った情報に基づいて、入力要素に対するユーザー近接を含む前記車両と関係するユーザー入力を識別し、
少なくとも部分的には前記識別されたユーザー入力の評価に基づいて、前記車両と関係する機能であって前記入力要素に関係し、記憶された前記複数の文法要素のサブセットと関係する前記機能を選択し、
前記少なくとも1つのマイクロホンから音声入力を受け取り、
前記受け取った音声入力の評価に基づいて、前記選択された機能と関係する文法要素を識別し、
前記識別された文法要素と関係する情報を出力する1つまたは複数のプロセッサと、
を含む車両。 - 前記1つまたは複数のプロセッサは、さらに、前記ユーザー入力の前記識別に基づいて、音声入力の前記受け取りを開始する、請求項1に記載の車両。
- 前記出力された情報は、車両制御コマンド、空調制御コマンド、オーディオシステムコマンド、ウィンドウ制御コマンド、座席制御コマンド、ディスプレイ制御コマンド、ウェブコマンド、および通信制御コマンドのうちの1つまたは複数を含む、請求項1または2に記載の車両。
- 前記1つまたは複数のプロセッサは、さらに、
新規入力学習指示を識別し、
少なくとも部分的には前記新規入力学習指示を識別することに基づいて、1つまたは複数のユーザー入力を追跡し、
前記追跡した1つまたは複数のユーザー入力を機能と関係づける、請求項1から3のいずれか一項に記載の車両。 - 前記1つまたは複数のプロセッサは、さらに、
ユーザーが前記機能の制御と関係する文法要素と関係する1つまたは複数の単語を話すためのプロンプトの出力を指示し、
前記プロンプトに応答して収集された音声データを受け取り、
前記受け取った音声データの少なくとも一部を前記文法要素と関係づける、請求項4に記載の車両。 - 1つまたは複数のプロセッサによって、コンピュータ実行可能命令を実行するステップを含む方法であって、前記方法は、
車両のための可聴コマンドと関係する複数の文法要素を記憶するステップと、
入力要素に対するユーザー近接を含む前記車両と関係するユーザー入力を識別するステップと、
少なくとも部分的には前記識別されたユーザー入力の評価に基づいて、前記車両と関係する機能であって前記入力要素に関係し、記憶された前記複数の文法要素のサブセットと関係する前記機能を選択するステップと、
前記車両と関係する少なくとも1つの音声キャプチャデバイスからの音声入力を受け取るステップと、
前記受け取った音声入力の評価に基づいて、前記選択された機能と関係する文法要素を識別するステップと、
前記識別された文法要素と関係する情報を出力するステップと、
をさらに含む方法。 - 前記ユーザー入力の前記識別に基づいて、音声入力の前記受け取りを開始するステップをさらに含む、請求項6に記載の方法。
- 情報を出力するステップは、車両制御コマンド、空調制御コマンド、オーディオシステムコマンド、ウィンドウ制御コマンド、座席制御コマンド、ディスプレイ制御コマンド、ウェブコマンド、および通信制御コマンドのうちの1つまたは複数を出力するステップを含む、請求項6または7に記載の方法。
- 新規入力学習指示を識別するステップと、
少なくとも部分的には前記新規入力学習指示を識別することに基づいて、1つまたは複数のユーザー入力を追跡するステップと、
前記追跡した1つまたは複数のユーザー入力を機能と関係づけるステップと、
をさらに含む、請求項6から8のいずれか一項に記載の方法。 - 前記機能の制御と関係する文法要素と関係する1つまたは複数の単語を話すようにユーザーに対してプロンプトを出すステップと、
前記プロンプトに応答する音声データを受け取るステップと、
前記受け取った音声データの少なくとも一部を前記文法要素と関係づけるステップと、
をさらに含む、請求項9に記載の方法。 - 1つまたは複数のプロセッサを含む装置であって、
車両のための可聴コマンドと関係する複数の文法要素を記憶し、
入力要素に対するユーザー近接を含む前記車両と関係するユーザー入力を識別し、
少なくとも部分的には前記識別されたユーザー入力の評価に基づいて、前記車両と関係する機能であって前記入力要素に関係し、記憶された前記複数の文法要素のサブセットと関係する前記機能を選択し、
音声入力を受け取り、
前記受け取った音声入力の評価に基づいて、前記選択された機能と関係する文法要素を識別し、
前記識別された文法要素と関係する情報を出力する装置。 - さらに、前記ユーザー入力の前記識別に基づいて、音声入力の前記受け取りを開始する、請求項11に記載の装置。
- 前記出力された情報は、車両制御コマンド、空調制御コマンド、オーディオシステムコマンド、ウィンドウ制御コマンド、座席制御コマンド、ディスプレイ制御コマンド、ウェブコマンド、および通信制御コマンドのうちの1つまたは複数を含む、請求項11または12に記載の装置。
- さらに、新規入力学習指示を識別し、
少なくとも部分的には前記新規入力学習指示を識別することに基づいて、1つまたは複数のユーザー入力を追跡し、
前記追跡した1つまたは複数のユーザー入力を機能と関係づける、請求項11から13のいずれか一項に記載の装置。 - コンピュータに、
車両のための可聴コマンドと関係する複数の記憶された文法要素を識別する手順と、
入力要素に対するユーザー近接を含む前記車両と関係するユーザー入力を識別する手順と、
少なくとも部分的には前記識別されたユーザー入力の評価に基づいて、前記車両と関係する機能であって前記入力要素に関係し、前記複数の記憶された文法要素のサブセットと関係する前記機能を選択する手順と、
音声入力を受け取る手順と、
前記受け取った音声入力の評価に基づいて、前記選択された機能と関係する文法要素を識別する手順と、
前記識別された文法要素と関係する情報を出力する手順と、を実行させるためのプログラム。 - 前記コンピュータにさらに、前記ユーザー入力の前記識別に基づいて、音声入力の前記受け取りを開始する手順を実行させるための、請求項15に記載のプログラム。
- 前記出力された情報は、車両制御コマンド、空調制御コマンド、オーディオシステムコマンド、ウィンドウ制御コマンド、座席制御コマンド、ディスプレイ制御コマンド、ウェブコマンド、および通信制御コマンドのうちの1つまたは複数を含む、請求項15または16に記載のプログラム。
- 前記コンピュータにさらに、
新規入力学習指示を識別する手順と、
少なくとも部分的には前記新規入力学習指示を識別することに基づいて、1つまたは複数のユーザー入力を追跡する手順と、
前記追跡した1つまたは複数のユーザー入力を機能と関係づける手順と、を実行させるための、請求項15から17のいずれか一項に記載のプログラム。 - 請求項15から18のいずれか一項に記載のプログラムを記憶したコンピュータ可読媒体媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2011/067847 WO2013101066A1 (en) | 2011-12-29 | 2011-12-29 | Direct grammar access |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015509204A JP2015509204A (ja) | 2015-03-26 |
JP5916888B2 true JP5916888B2 (ja) | 2016-05-11 |
Family
ID=48698302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014548779A Active JP5916888B2 (ja) | 2011-12-29 | 2011-12-29 | 直接的文法アクセス |
Country Status (5)
Country | Link |
---|---|
US (1) | US9487167B2 (ja) |
EP (1) | EP2798632A4 (ja) |
JP (1) | JP5916888B2 (ja) |
CN (1) | CN104040620B (ja) |
WO (1) | WO2013101066A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11592723B2 (en) | 2009-12-22 | 2023-02-28 | View, Inc. | Automated commissioning of controllers in a window network |
US11054792B2 (en) | 2012-04-13 | 2021-07-06 | View, Inc. | Monitoring sites containing switchable optical devices and controllers |
WO2013101066A1 (en) | 2011-12-29 | 2013-07-04 | Intel Corporation | Direct grammar access |
US20240046928A1 (en) * | 2012-04-13 | 2024-02-08 | View, Inc. | Controlling optically-switchable devices |
US10964320B2 (en) * | 2012-04-13 | 2021-03-30 | View, Inc. | Controlling optically-switchable devices |
US9576572B2 (en) * | 2012-06-18 | 2017-02-21 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and nodes for enabling and producing input to an application |
US9798799B2 (en) * | 2012-11-15 | 2017-10-24 | Sri International | Vehicle personal assistant that interprets spoken natural language input based upon vehicle context |
US8818716B1 (en) | 2013-03-15 | 2014-08-26 | Honda Motor Co., Ltd. | System and method for gesture-based point of interest search |
EP2857239A1 (en) * | 2013-10-03 | 2015-04-08 | Volvo Car Corporation | Digital sunshade for automotive glass |
KR20150066156A (ko) * | 2013-12-06 | 2015-06-16 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
CN106164973B (zh) | 2014-03-05 | 2021-01-01 | 唯景公司 | 监测含有可切换光学装置和控制器的站点 |
US9751406B2 (en) * | 2014-04-03 | 2017-09-05 | Audi Ag | Motor vehicle and method for controlling a climate control system in a motor vehicle |
PL3037916T3 (pl) * | 2014-12-24 | 2021-08-02 | Nokia Technologies Oy | Monitorowanie |
DE102015200006A1 (de) * | 2015-01-02 | 2016-07-07 | Volkswagen Ag | Vorrichtung und Verfahren zur Unterstützung eines Anwenders vor einer Bedienung eines Schalters zur elektromotorischen Verstellung eines Teils eines Fortbewegungsmittels |
DE102015007361B3 (de) * | 2015-06-10 | 2016-02-18 | Audi Ag | Verfahren zum Betreiben wenigstens einer Funktionseinrichtung eines Kraftfahrzeugs |
US9921805B2 (en) * | 2015-06-17 | 2018-03-20 | Lenovo (Singapore) Pte. Ltd. | Multi-modal disambiguation of voice assisted input |
JP2017090613A (ja) * | 2015-11-09 | 2017-05-25 | 三菱自動車工業株式会社 | 音声認識制御システム |
US10388280B2 (en) * | 2016-01-27 | 2019-08-20 | Motorola Mobility Llc | Method and apparatus for managing multiple voice operation trigger phrases |
AU2017257789B2 (en) * | 2016-04-26 | 2022-06-30 | View, Inc. | Controlling optically-switchable devices |
JP2020144275A (ja) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
CN110022427A (zh) * | 2019-05-22 | 2019-07-16 | 乐山师范学院 | 汽车使用智能辅助系统 |
KR20210133600A (ko) * | 2020-04-29 | 2021-11-08 | 현대자동차주식회사 | 차량 음성 인식 방법 및 장치 |
US11967306B2 (en) | 2021-04-14 | 2024-04-23 | Honeywell International Inc. | Contextual speech recognition methods and systems |
KR20220150640A (ko) * | 2021-05-04 | 2022-11-11 | 현대자동차주식회사 | 차량 및 그의 제어방법 |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5699456A (en) * | 1994-01-21 | 1997-12-16 | Lucent Technologies Inc. | Large vocabulary connected speech recognition system and method of language representation using evolutional grammar to represent context free grammars |
JPH0934488A (ja) * | 1995-07-18 | 1997-02-07 | Mazda Motor Corp | 車載機器の音声操作装置 |
US7085710B1 (en) * | 1998-01-07 | 2006-08-01 | Microsoft Corporation | Vehicle computer system audio entertainment system |
KR100259918B1 (ko) * | 1998-03-05 | 2000-06-15 | 윤종용 | 핸즈프리키트의 쇼트메시지 음성합성 장치 및 방법 |
EP1082671B1 (en) * | 1998-05-07 | 2008-03-12 | Art - Advanced Recognition Technologies Ltd. | Handwritten and voice control of vehicle appliance |
EP1116373B1 (en) * | 1998-09-22 | 2003-05-02 | Nokia Corporation | Method and system of configuring a speech recognition system |
US6430531B1 (en) * | 1999-02-04 | 2002-08-06 | Soliloquy, Inc. | Bilateral speech system |
US20050131695A1 (en) * | 1999-02-04 | 2005-06-16 | Mark Lucente | System and method for bilateral communication between a user and a system |
JP2001216069A (ja) | 2000-02-01 | 2001-08-10 | Toshiba Corp | 操作入力装置および方向検出方法 |
US6574595B1 (en) * | 2000-07-11 | 2003-06-03 | Lucent Technologies Inc. | Method and apparatus for recognition-based barge-in detection in the context of subword-based automatic speech recognition |
US7139709B2 (en) * | 2000-07-20 | 2006-11-21 | Microsoft Corporation | Middleware layer between speech related applications and engines |
US7085723B2 (en) * | 2001-01-12 | 2006-08-01 | International Business Machines Corporation | System and method for determining utterance context in a multi-context speech application |
JP2003005781A (ja) * | 2001-06-20 | 2003-01-08 | Denso Corp | 音声認識機能付き制御装置及びプログラム |
US6868383B1 (en) * | 2001-07-12 | 2005-03-15 | At&T Corp. | Systems and methods for extracting meaning from multimodal inputs using finite-state devices |
US7149694B1 (en) * | 2002-02-13 | 2006-12-12 | Siebel Systems, Inc. | Method and system for building/updating grammars in voice access systems |
US7548847B2 (en) * | 2002-05-10 | 2009-06-16 | Microsoft Corporation | System for automatically annotating training data for a natural language understanding system |
US7986974B2 (en) | 2003-05-23 | 2011-07-26 | General Motors Llc | Context specific speaker adaptation user interface |
US20050091036A1 (en) * | 2003-10-23 | 2005-04-28 | Hazel Shackleton | Method and apparatus for a hierarchical object model-based constrained language interpreter-parser |
US7395206B1 (en) * | 2004-01-16 | 2008-07-01 | Unisys Corporation | Systems and methods for managing and building directed dialogue portal applications |
US7778830B2 (en) * | 2004-05-19 | 2010-08-17 | International Business Machines Corporation | Training speaker-dependent, phrase-based speech grammars using an unsupervised automated technique |
US7925506B2 (en) * | 2004-10-05 | 2011-04-12 | Inago Corporation | Speech recognition accuracy via concept to keyword mapping |
US7630900B1 (en) * | 2004-12-01 | 2009-12-08 | Tellme Networks, Inc. | Method and system for selecting grammars based on geographic information associated with a caller |
CN1815556A (zh) * | 2005-02-01 | 2006-08-09 | 松下电器产业株式会社 | 可利用语音命令操控车辆的方法及系统 |
US7949529B2 (en) * | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
US7729911B2 (en) * | 2005-09-27 | 2010-06-01 | General Motors Llc | Speech recognition method and system |
US8311836B2 (en) * | 2006-03-13 | 2012-11-13 | Nuance Communications, Inc. | Dynamic help including available speech commands from content contained within speech grammars |
US8301448B2 (en) * | 2006-03-29 | 2012-10-30 | Nuance Communications, Inc. | System and method for applying dynamic contextual grammars and language models to improve automatic speech recognition accuracy |
US7778837B2 (en) * | 2006-05-01 | 2010-08-17 | Microsoft Corporation | Demographic based classification for local word wheeling/web search |
US7721207B2 (en) * | 2006-05-31 | 2010-05-18 | Sony Ericsson Mobile Communications Ab | Camera based control |
US8332218B2 (en) * | 2006-06-13 | 2012-12-11 | Nuance Communications, Inc. | Context-based grammars for automated speech recognition |
US8214219B2 (en) * | 2006-09-15 | 2012-07-03 | Volkswagen Of America, Inc. | Speech communications system for a vehicle and method of operating a speech communications system for a vehicle |
US20080140390A1 (en) * | 2006-12-11 | 2008-06-12 | Motorola, Inc. | Solution for sharing speech processing resources in a multitasking environment |
US20080154604A1 (en) * | 2006-12-22 | 2008-06-26 | Nokia Corporation | System and method for providing context-based dynamic speech grammar generation for use in search applications |
US20090055178A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method of controlling personalized settings in a vehicle |
US20090055180A1 (en) * | 2007-08-23 | 2009-02-26 | Coon Bradley S | System and method for optimizing speech recognition in a vehicle |
US9031843B2 (en) * | 2007-09-28 | 2015-05-12 | Google Technology Holdings LLC | Method and apparatus for enabling multimodal tags in a communication device by discarding redundant information in the tags training signals |
US8321219B2 (en) * | 2007-10-05 | 2012-11-27 | Sensory, Inc. | Systems and methods of performing speech recognition using gestures |
DE102008051756A1 (de) * | 2007-11-12 | 2009-05-14 | Volkswagen Ag | Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
CN101323305A (zh) * | 2008-05-14 | 2008-12-17 | 奇瑞汽车股份有限公司 | 车载语音识别控制系统及其控制方法 |
US8407057B2 (en) * | 2009-01-21 | 2013-03-26 | Nuance Communications, Inc. | Machine, system and method for user-guided teaching and modifying of voice commands and actions executed by a conversational learning system |
US20100312469A1 (en) * | 2009-06-05 | 2010-12-09 | Telenav, Inc. | Navigation system with speech processing mechanism and method of operation thereof |
WO2011082340A1 (en) * | 2009-12-31 | 2011-07-07 | Volt Delta Resources, Llc | Method and system for processing multiple speech recognition results from a single utterance |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8700392B1 (en) * | 2010-09-10 | 2014-04-15 | Amazon Technologies, Inc. | Speech-inclusive device interfaces |
US8893054B2 (en) * | 2010-12-08 | 2014-11-18 | At&T Intellectual Property I, L.P. | Devices, systems, and methods for conveying gesture commands |
US9008904B2 (en) * | 2010-12-30 | 2015-04-14 | GM Global Technology Operations LLC | Graphical vehicle command system for autonomous vehicles on full windshield head-up display |
US20120226498A1 (en) * | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Motion-based voice activity detection |
WO2013101066A1 (en) | 2011-12-29 | 2013-07-04 | Intel Corporation | Direct grammar access |
US9092394B2 (en) * | 2012-06-15 | 2015-07-28 | Honda Motor Co., Ltd. | Depth based context identification |
-
2011
- 2011-12-29 WO PCT/US2011/067847 patent/WO2013101066A1/en active Application Filing
- 2011-12-29 CN CN201180076089.4A patent/CN104040620B/zh active Active
- 2011-12-29 JP JP2014548779A patent/JP5916888B2/ja active Active
- 2011-12-29 US US13/977,535 patent/US9487167B2/en active Active
- 2011-12-29 EP EP11879105.2A patent/EP2798632A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
WO2013101066A1 (en) | 2013-07-04 |
US20140229174A1 (en) | 2014-08-14 |
US9487167B2 (en) | 2016-11-08 |
EP2798632A4 (en) | 2015-10-07 |
CN104040620B (zh) | 2017-07-14 |
EP2798632A1 (en) | 2014-11-05 |
JP2015509204A (ja) | 2015-03-26 |
CN104040620A (zh) | 2014-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5916888B2 (ja) | 直接的文法アクセス | |
EP3497546B1 (en) | Radar-based gestural interface | |
US9953634B1 (en) | Passive training for automatic speech recognition | |
KR102528466B1 (ko) | 복수 화자의 음성 신호 처리 방법 및 그에 따른 전자 장치 | |
TWI840587B (zh) | 多模態使用者介面 | |
US20140244259A1 (en) | Speech recognition utilizing a dynamic set of grammar elements | |
US10353495B2 (en) | Personalized operation of a mobile device using sensor signatures | |
US20160176372A1 (en) | Controlling a vehicle | |
JP6432233B2 (ja) | 車両用機器制御装置、制御内容検索方法 | |
CN105355202A (zh) | 语音识别装置、具有语音识别装置的车辆及其控制方法 | |
JP2017090613A (ja) | 音声認識制御システム | |
US20230102157A1 (en) | Contextual utterance resolution in multimodal systems | |
US20140168068A1 (en) | System and method for manipulating user interface using wrist angle in vehicle | |
US11437031B2 (en) | Activating speech recognition based on hand patterns detected using plurality of filters | |
US9772815B1 (en) | Personalized operation of a mobile device using acoustic and non-acoustic information | |
CN114678021B (zh) | 音频信号的处理方法、装置、存储介质及车辆 | |
US11830501B2 (en) | Electronic device and operation method for performing speech recognition | |
US20170287476A1 (en) | Vehicle aware speech recognition systems and methods | |
US11996099B2 (en) | Dialogue system, vehicle, and method of controlling dialogue system | |
EP4350484A1 (en) | Interface control method, device, and system | |
JP2008233009A (ja) | カーナビゲーション装置及びカーナビゲーション装置用プログラム | |
KR20200021400A (ko) | 음성 인식을 수행하는 전자 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5916888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |