JP6585154B2 - 単一音響モデルと自動アクセント検出を用いたテキスト規則ベースの複数アクセントの音声認識 - Google Patents
単一音響モデルと自動アクセント検出を用いたテキスト規則ベースの複数アクセントの音声認識 Download PDFInfo
- Publication number
- JP6585154B2 JP6585154B2 JP2017503577A JP2017503577A JP6585154B2 JP 6585154 B2 JP6585154 B2 JP 6585154B2 JP 2017503577 A JP2017503577 A JP 2017503577A JP 2017503577 A JP2017503577 A JP 2017503577A JP 6585154 B2 JP6585154 B2 JP 6585154B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- accent
- conversion
- speech
- accented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 125
- 238000000034 method Methods 0.000 claims description 107
- 238000013518 transcription Methods 0.000 claims description 38
- 230000035897 transcription Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims 2
- 230000006854 communication Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 23
- 230000007613 environmental effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000002485 combustion reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- SESFRYSPDFLNCH-UHFFFAOYSA-N benzyl benzoate Chemical compound C=1C=CC=CC=1C(=O)OCC1=CC=CC=C1 SESFRYSPDFLNCH-UHFFFAOYSA-N 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000004146 energy storage Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002528 anti-freeze Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000567 combustion gas Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本出願は、2014年7月24日出願のインド仮特許出願第3618/CHE/2014号「TEXT RULE BASED MULTI‐ACCENT SPEECH RECOGNITION WITH SINGLE ACOUSTIC MODEL AND AUTOMATIC ACCENT DETECTION」の優先権を主張し、あらゆる目的で、その内容全体を参照により本明細書に組み込む。
本明細書は、例えば、以下の項目も提供する。
(項目1)
アクセント付き音声表記及び変換ID生成ユニットであって、アクセント付き部分文字列のデータベースを含み、メタデータと、前記メタデータに関連付けられた第1のIDデータ空間のIDデータとを受信し、複数の修正されたワードであって、それぞれ、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントに一意に関連付けられた前記複数の修正されたワードを提供し、前記複数の修正されたワードを処理し、前記複数の修正されたワードに関して複数のアクセントを訂正した音声表記データを提供し、前記アクセントを訂正した音声表記データのそれぞれは、処理されて、第2のIDデータ空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データのうちの関連する音声表記データと一意に関連付けられた前記複数の変換IDを提供する、前記アクセント付き音声表記及び変換ID生成ユニットと、
ユーザ入力音声を受信、処理し、前記ユーザ入力音声に関連付けられた抽出音声データを提供する音声特徴抽出器ユニットと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを受信し、前記音声表記のうちの1つが、前記ユーザ入力音声に関連付けられた前記抽出音声データに最も一致する末尾に対応する末尾識別子とアクセントデータとを提供する音声認識論理ユニットと、
前記末尾識別子を受信し、前記第1のIDデータ空間に確認されたIDを提供するアクセント検出及び逆ID変換ユニットと、
前記検出したアクセントデータを受信し、前記検出したアクセントデータの過去の値と比較して、認識された音声データを提供するアクセント結果重み付け論理ユニットと、
を備える、音声認識システム。
(項目2)
前記アクセント付き音声表記及び変換ID生成ユニットは、前記複数のアクセントを訂正した音声表記データを提供する書記素‐音声表記ユニットを含む、項目1に記載の音声認識システム。
(項目3)
前記アクセント付き音声表記及び変換ID生成ユニットは、変換IDアロケータを備え、前記変換IDアロケータは、前記アクセントを訂正した音声表記データ及び前記IDデータを受信して、第2のIDデータ空間に前記複数の変換IDを提供する、項目1または2のいずれか一項に記載の音声認識システム。
(項目4)
前記音声認識論理ユニットは、前記ある言語に関連付けられた文法ファイルを含むコンテキストユニットを備える、項目3に記載の音声認識システム。
(項目5)
アクセント付き部分文字列のデータベースにアクセスする音声認識方法であって、
メタデータと、前記メタデータに関連付けられた元のID空間のIDデータを受信することと、複数の修正されたワードであって、それぞれ、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントに一意に関連付けられた前記複数の修正されたワードを提供することと、前記複数の修正されたワードを処理して、前記複数の修正されたワードに関する複数のアクセントを訂正した音声表記データを提供することと、前記アクセントを訂正した音声表記データは、それぞれ、処理されて、変換ID空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データの関連する音声データに一意に関連付けられた前記複数の変換IDを提供することと、
ユーザ入力音声を受信することと、前記受信した入力音声を音声特徴抽出器ユニットで処理して前記ユーザ入力音声に関連付けられた抽出音声データを提供することと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを処理することと、前記音声表記の1つが前記ユーザ入力音声に関連付けられた前記抽出音声データに最も一致する末尾に対応する末尾識別子と、前記アクセントデータとを提供することと、
前記末尾識別子を処理して、前記元のIDデータ空間に確認されたIDを提供することと、
前記検出したアクセントデータを前記検出したアクセントデータの過去の値と比較して認識された音声データを提供することと、
を含む、前記音声認識方法。
(項目6)
前記複数のアクセントを訂正した音声表記データを提供するステップは、前記複数のアクセントを訂正した音声表記データを提供する前記複数の修正されたワードの書記素‐音声表記処理を含む、項目5に記載の方法。
(項目7)
音声制御装置、プロセッサ、及び、前記プロセッサによって実行可能な命令を記憶する記憶装置を備える音声認識システムによって行われる音声認識方法であって、
アクセント付き部分文字列のデータベースを含むアクセント付き音声表記及び変換ID生成ユニットにおいて、メタデータを受信することと、
前記メタデータに含まれるワードに関して、アクセントを訂正した音声表記データであって、前記データベースに記憶された前記アクセント付き部分文字列に基づいて、前記メタデータに含まれる前記ワードの異なる発音を表す前記アクセントを訂正した音声表記データを、前記アクセント付き音声表記及び変換ID生成ユニットを介して生成することと、
ユーザによって前記音声認識システムに入力された発話から引き出された抽出音声データを音声認識エンジンにおいて受信することと、
前記アクセントを訂正した音声表記データを前記音声認識エンジンにおいて受信することと、
前記抽出音声データの認識された発話を識別する1つまたは複数の末尾IDを前記音声認識エンジンにおいて決定することと、
前記認識された発話において検出されたアクセントを識別するアクセントデータを前記音声認識エンジンにおいて生成することと、
前記1つまたは複数の末尾IDと前記アクセントデータとに基づいて、認識された音声データを生成することと、
前記認識された音声データを前記音声制御装置に出力することと、
を含む、前記音声認識方法。
(項目8)
重み付け結果ユニットにおいて、前記アクセントデータと、前に生成されたアクセントデータを含む履歴データを受信して、前記アクセントデータを前記履歴データと比較することをさらに含み、前記認識された音声データは、前記アクセントデータと前記履歴データとの前記比較にさらに基づいている、項目7に記載の方法。
(項目9)
前記アクセントデータと前記履歴データを比較することは、前記アクセントデータによって識別されたアクセントが、最近、認識された音声データで識別されたアクセントに一致するか否かを判断することを含む、項目8に記載の方法。
(項目10)
前記メタデータは、前記音声認識システムの前記記憶装置、前記音声認識システムに入力を行うユーザのモバイルデバイス、及び、前記音声認識システムに入力を行う前記ユーザに関連付けられたユーザプロファイルをホストする外部サービスの1つまたは複数に記憶されたテキストエントリに対応する、項目7〜9のいずれか一項に記載の方法。
(項目11)
前記メタデータに含まれた前記ワードに対応するIDデータを前記アクセント付き音声表記及び変換ID生成ユニットにおいて受信し、前記アクセント付き音声表記及び変換ID生成ユニットにおいて、前記アクセントを訂正した音声表記データの変換IDを生成することをさらに含む、項目7〜9のいずれか一項に記載の方法。
(項目12)
前記アクセントを訂正した音声表記データは、アクセント付きワードであって、それぞれ、前記メタデータに含まれた関連付けられた元のワードに対応する前記アクセント付きワードを含み、前記変換IDは、それぞれ、異なるアクセントのワードに対応し、そのアクセント付きワードのアクセントと、そのアクセント付きワードに関連付けられた前記元のワードの前記IDデータとに基づいて生成された、項目11に記載の方法。
(項目13)
前記認識された音声データ及び前記1つまたは複数の末尾IDは、前記メタデータのワードと、前記メタデータの前記ワードの前記IDデータとに一致される、項目12に記載の方法。
(項目14)
前記音声認識論理ユニットは、ユーザに関して識別された言語に関連付けられた文法ファイルを含むコンテキストユニットを備える、項目7〜13のいずれか一項に記載の方法。
(項目15)
前記言語は、履歴データと、前記ユーザによって入力された前記発話との1つまたは複数に基づいて自動的に識別される、項目14に記載の方法。
(項目16)
前記言語は、前記ユーザによる前記言語の選択に基づいて識別される、項目15に記載の方法。
(項目17)
前記音声認識システムは、車両の車載コンピュータシステムを備え、音声制御装置は、前記車載コンピュータシステムのディスプレイと、前記車両の車両システムの1つまたは複数を備える、項目7〜16のいずれか一項に記載の方法。
(項目18)
音声制御装置、プロセッサ、及び、前記プロセッサによって実行可能な命令を記憶する記憶装置を備える音声認識システムによって行われる音声認識方法であって、
メタデータと、前記メタデータに関連付けられた元のID空間のIDデータとを受信することと、
複数の修正されたワードであって、それぞれ、前記メタデータと、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントとに一意に関連付けられた前記複数の修正されたワードを提供することと、前記複数の修正されたワードを処理して、前記複数の修正されたワードに関する複数のアクセントを訂正した音声表記データを提供することと、
前記アクセントを訂正した音声表記データを処理して、変換ID空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データの関連する音声データに一意に関連付けられた前記複数の変換IDを提供することと、
ユーザ入力音声データを受信することと、前記受信した入力音声データを処理して、前記ユーザ入力音声データに関連付けられた抽出音声データを提供することと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを処理することと、前記ユーザ入力音声データに関連付けられた前記抽出音声データに最も一致する前記音声表記に関する末尾に対応する末尾識別子とアクセントデータとを提供することと、
前記末尾識別子を処理して、前記元のIDデータ空間の変換IDを提供することと、
前記検出したアクセントデータを前記検出したアクセントデータの過去の値と比較して、認識された音声データを提供することと、
を含む、前記音声認識方法。
New_ID=(Old_ID*M)+Accent_IDであってよく、
ここで、M=N+1以上の整数、Nは、支援されるアクセントの最大数である。
0:アクセント無し
1:ベンガルアクセント
2:グジャラートアクセント
等
(1000*20)+1=20001
と計算されてよい。
Old_ID値1000を割り当てられた同じ元のワードに関して、そのワードのグジャラートアクセントの形態に関する新しいIDは、
(1000*20)+2=20002
と計算されてよい。
Accent_ID=(Recognized_Transformed_ID%M)
ここで、%は、モジュロ(剰余)演算子を表し、
Old_ID=Recognized_Transformed_ID‐Accent_ID)/Mである。
このID割り当て技術によって、確実に音声認識システムが使用する元のIDと変換IDの競合がなくなる。
Claims (18)
- アクセント付き音声表記及び変換ID生成ユニットであって、アクセント付き部分文字列のデータベースを含み、メタデータと、前記メタデータに関連付けられた第1のIDデータ空間のIDデータとを受信し、複数の修正されたワードであって、それぞれ、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントに一意に関連付けられた前記複数の修正されたワードを提供し、前記複数の修正されたワードを処理し、前記複数の修正されたワードに関して複数のアクセントを訂正した音声表記データを提供し、前記複数のアクセントを訂正した音声表記データのそれぞれは、処理されて、第2のIDデータ空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データのうちの関連する音声表記データと一意に関連付けられた前記複数の変換IDを提供する、前記アクセント付き音声表記及び変換ID生成ユニットと、
ユーザ入力音声を受信、処理し、前記ユーザ入力音声に関連付けられた抽出音声データを提供する音声特徴抽出器ユニットと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを受信し、音声表記のうちの1つが、前記ユーザ入力音声に関連付けられた前記抽出音声データに最も一致する末尾に対応する末尾識別子とアクセントデータとを提供する音声認識論理ユニットと、
前記末尾識別子を受信し、前記第1のIDデータ空間に確認されたIDを提供するアクセント検出及び逆ID変換ユニットと、
前記アクセントデータを受信し、前記アクセントデータの過去の値と比較して、認識された音声データを提供するアクセント結果重み付け論理ユニットと、
を備える、音声認識システム。 - 前記アクセント付き音声表記及び変換ID生成ユニットは、前記複数のアクセントを訂正した音声表記データを提供する書記素‐音声表記ユニットを含む、請求項1に記載の音声認識システム。
- 前記アクセント付き音声表記及び変換ID生成ユニットは、変換IDアロケータを備え、前記変換IDアロケータは、前記複数のアクセントを訂正した音声表記データ及び前記IDデータを受信して、前記第2のIDデータ空間に前記複数の変換IDを提供する、請求項1または2のいずれか一項に記載の音声認識システム。
- 前記音声認識論理ユニットは、前記ある言語に関連付けられた文法ファイルを含むコンテキストユニットを備える、請求項3に記載の音声認識システム。
- アクセント付き部分文字列のデータベースにアクセスする音声認識方法であって、
メタデータと、前記メタデータに関連付けられた元のID空間のIDデータを受信し、複数の修正されたワードであって、それぞれ、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントに一意に関連付けられた前記複数の修正されたワードを提供し、前記複数の修正されたワードを処理して、前記複数の修正されたワードに関する複数のアクセントを訂正した音声表記データを提供することであって、前記複数のアクセントを訂正した音声表記データは、それぞれ、処理されて、変換ID空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データの関連する音声表記データに一意に関連付けられた前記複数の変換IDを提供する、ことと、
ユーザ入力音声を受信し、前記受信したユーザ入力音声を音声特徴抽出器ユニットで処理して前記ユーザ入力音声に関連付けられた抽出音声データを提供することと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを処理し、音声表記の1つが前記ユーザ入力音声に関連付けられた前記抽出音声データに最も一致する末尾に対応する末尾識別子とアクセントデータとを提供することと、
前記末尾識別子を処理して、元のIDデータ空間に確認されたIDを提供することと、
前記アクセントデータを前記アクセントデータの過去の値と比較して認識された音声データを提供することと、
を含む、前記音声認識方法。 - 前記複数のアクセントを訂正した音声表記データを提供するステップは、前記複数のアクセントを訂正した音声表記データを提供する前記複数の修正されたワードの書記素‐音声表記処理を含む、請求項5に記載の方法。
- 音声制御装置、プロセッサ、及び、前記プロセッサによって実行可能な命令を記憶する記憶装置を備える音声認識システムによって行われる音声認識方法であって、
アクセント付き部分文字列のデータベースを含むアクセント付き音声表記及び変換ID生成ユニットにおいて、メタデータを受信することと、
前記メタデータに含まれるワードに関して、アクセントを訂正した音声表記データであって、前記データベースに記憶された前記アクセント付き部分文字列に基づいて、前記メタデータに含まれる前記ワードの異なる発音を表す前記アクセントを訂正した音声表記データを、前記アクセント付き音声表記及び変換ID生成ユニットを介して生成することと、
ユーザによって前記音声認識システムに入力された発話から引き出された抽出音声データを音声認識エンジンにおいて受信することと、
前記アクセントを訂正した音声表記データを前記音声認識エンジンにおいて受信することと、
前記抽出音声データの認識された発話を識別する1つまたは複数の末尾IDを前記音声認識エンジンにおいて決定することと、
前記認識された発話において検出されたアクセントを識別するアクセントデータを前記音声認識エンジンにおいて生成することと、
前記1つまたは複数の末尾IDと前記アクセントデータとに基づいて、認識された音声データを生成することと、
前記認識された音声データを前記音声制御装置に出力することと、
を含む、前記音声認識方法。 - 重み付け結果ユニットにおいて、前記アクセントデータと、前に生成されたアクセントデータを含む履歴データを受信して、前記アクセントデータを前記履歴データと比較することをさらに含み、前記認識された音声データは、前記アクセントデータと前記履歴データとの前記比較にさらに基づいている、請求項7に記載の方法。
- 前記アクセントデータを前記履歴データと比較することは、前記アクセントデータによって識別されたアクセントが、最近、認識された音声データで識別されたアクセントに一致するか否かを判断することを含む、請求項8に記載の方法。
- 前記メタデータは、前記音声認識システムの前記記憶装置、前記音声認識システムに入力を行うユーザのモバイルデバイス、及び、前記音声認識システムに入力を行う前記ユーザに関連付けられたユーザプロファイルをホストする外部サービスの1つまたは複数に記憶されたテキストエントリに対応する、請求項7〜9のいずれか一項に記載の方法。
- 前記メタデータに含まれた前記ワードに対応するIDデータを前記アクセント付き音声表記及び変換ID生成ユニットにおいて受信し、前記アクセント付き音声表記及び変換ID生成ユニットにおいて、前記アクセントを訂正した音声表記データの変換IDを生成することをさらに含む、請求項7〜9のいずれか一項に記載の方法。
- 前記アクセントを訂正した音声表記データは、アクセント付きワードであって、それぞれ、前記メタデータに含まれた関連付けられた元のワードに対応する前記アクセント付きワードを含み、前記変換IDは、それぞれ、異なるアクセントのワードに対応し、そのアクセント付きワードのアクセントと、そのアクセント付きワードに関連付けられた前記元のワードの前記IDデータとに基づいて生成された、請求項11に記載の方法。
- 前記認識された音声データ及び前記1つまたは複数の末尾IDは、前記メタデータのワードと、前記メタデータの前記ワードの前記IDデータとに一致される、請求項12に記載の方法。
- 前記音声認識エンジンは、ユーザに関して識別された言語に関連付けられた文法ファイルを含むコンテキストユニットを備える、請求項7〜13のいずれか一項に記載の方法。
- 前記言語は、履歴データと、前記ユーザによって入力された前記発話との1つまたは複数に基づいて自動的に識別される、請求項14に記載の方法。
- 前記言語は、前記ユーザによる前記言語の選択に基づいて識別される、請求項15に記載の方法。
- 前記音声認識システムは、車両の車載コンピュータシステムを備え、音声制御装置は、前記車載コンピュータシステムのディスプレイと、前記車両の車両システムの1つまたは複数を備える、請求項7〜16のいずれか一項に記載の方法。
- 音声制御装置、プロセッサ、及び、前記プロセッサによって実行可能な命令を記憶する記憶装置を備える音声認識システムによって行われる音声認識方法であって、
メタデータと、前記メタデータに関連付けられた元のID空間のIDデータとを受信することと、
複数の修正されたワードであって、それぞれ、前記メタデータと、ある言語に関連付けられた複数の異なるアクセントのうちの関連するアクセントとに一意に関連付けられた前記複数の修正されたワードを提供し、前記複数の修正されたワードを処理して、前記複数の修正されたワードに関する複数のアクセントを訂正した音声表記データを提供することと、
前記複数のアクセントを訂正した音声表記データを処理して、変換ID空間の複数の変換IDであって、それぞれ、前記複数のアクセントを訂正した音声表記データの関連する音声表記データに一意に関連付けられた前記複数の変換IDを提供することと、
ユーザ入力音声データを受信し、前記受信したユーザ入力音声データを処理して、前記ユーザ入力音声データに関連付けられた抽出音声データを提供することと、
前記抽出音声データ、前記複数の変換ID、及び、前記複数のアクセントを訂正した音声表記データを処理し、前記ユーザ入力音声データに関連付けられた前記抽出音声データに最も一致する音声表記に関する末尾に対応する末尾識別子とアクセントデータとを提供することと、
前記末尾識別子を処理して、元のIDデータ空間の変換IDを提供することと、
前記アクセントデータを前記アクセントデータの過去の値と比較して、認識された音声データを提供することと、
を含む、前記音声認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN3618/CHE/2014 | 2014-07-24 | ||
IN3618CH2014 | 2014-07-24 | ||
PCT/US2015/042046 WO2016014970A1 (en) | 2014-07-24 | 2015-07-24 | Text rule based multi-accent speech recognition with single acoustic model and automatic accent detection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017521724A JP2017521724A (ja) | 2017-08-03 |
JP6585154B2 true JP6585154B2 (ja) | 2019-10-02 |
Family
ID=55163851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017503577A Active JP6585154B2 (ja) | 2014-07-24 | 2015-07-24 | 単一音響モデルと自動アクセント検出を用いたテキスト規則ベースの複数アクセントの音声認識 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10290300B2 (ja) |
EP (1) | EP3172729B1 (ja) |
JP (1) | JP6585154B2 (ja) |
KR (1) | KR102388992B1 (ja) |
CN (1) | CN106663422B (ja) |
CA (1) | CA2952836A1 (ja) |
WO (1) | WO2016014970A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9734819B2 (en) | 2013-02-21 | 2017-08-15 | Google Technology Holdings LLC | Recognizing accented speech |
KR102388992B1 (ko) * | 2014-07-24 | 2022-04-21 | 하만인터내셔날인더스트리스인코포레이티드 | 단일 음향 모델 및 자동 악센트 검출로 텍스트 규칙 기반 멀티-악센트 음성 인식 |
DE112014007287B4 (de) * | 2014-12-24 | 2019-10-31 | Mitsubishi Electric Corporation | Spracherkennungsvorrichtung und Spracherkennungsverfahren |
US10056080B2 (en) | 2016-10-18 | 2018-08-21 | Ford Global Technologies, Llc | Identifying contacts using speech recognition |
US11043221B2 (en) * | 2017-04-24 | 2021-06-22 | Iheartmedia Management Services, Inc. | Transmission schedule analysis and display |
US10446136B2 (en) * | 2017-05-11 | 2019-10-15 | Ants Technology (Hk) Limited | Accent invariant speech recognition |
CN107481737A (zh) * | 2017-08-28 | 2017-12-15 | 广东小天才科技有限公司 | 一种语音监控的方法、装置及终端设备 |
US10650844B2 (en) * | 2018-01-18 | 2020-05-12 | Wipro Limited | Method and response recommendation system for recommending a response for a voice-based user input |
KR101888059B1 (ko) | 2018-02-12 | 2018-09-10 | 주식회사 공훈 | 문맥 기반 음성 모델 관리 장치 및 그 방법 |
KR20190133100A (ko) * | 2018-05-22 | 2019-12-02 | 삼성전자주식회사 | 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법 |
WO2020014890A1 (zh) * | 2018-07-18 | 2020-01-23 | 深圳魔耳智能声学科技有限公司 | 基于口音的语音识别处理方法、电子设备和存储介质 |
CN109410926A (zh) * | 2018-11-27 | 2019-03-01 | 恒大法拉第未来智能汽车(广东)有限公司 | 语音语义识别方法及系统 |
US11450311B2 (en) | 2018-12-13 | 2022-09-20 | i2x GmbH | System and methods for accent and dialect modification |
US10839788B2 (en) | 2018-12-13 | 2020-11-17 | i2x GmbH | Systems and methods for selecting accent and dialect based on context |
CN109817208A (zh) * | 2019-01-15 | 2019-05-28 | 上海交通大学 | 一种适合各地方言的驾驶员语音智能交互设备及方法 |
JP7225876B2 (ja) * | 2019-02-08 | 2023-02-21 | 富士通株式会社 | 情報処理装置、演算処理装置および情報処理装置の制御方法 |
US11308265B1 (en) * | 2019-10-11 | 2022-04-19 | Wells Fargo Bank, N.A. | Digitally aware neural dictation interface |
CN111028834B (zh) * | 2019-10-30 | 2023-01-20 | 蚂蚁财富(上海)金融信息服务有限公司 | 语音信息提醒方法、装置、服务器和语音信息提醒设备 |
KR20200007983A (ko) * | 2020-01-03 | 2020-01-22 | 엘지전자 주식회사 | 지역적 특징 기반의 음성인식 방법 및 시스템 |
CN112614485A (zh) * | 2020-12-30 | 2021-04-06 | 竹间智能科技(上海)有限公司 | 识别模型构建方法、语音识别方法、电子设备及存储介质 |
JP7509069B2 (ja) * | 2021-03-29 | 2024-07-02 | トヨタ自動車株式会社 | 車両制御システム及び車両制御方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2907728B2 (ja) * | 1994-08-10 | 1999-06-21 | 富士通テン株式会社 | 音声処理装置 |
US5911129A (en) * | 1996-12-13 | 1999-06-08 | Intel Corporation | Audio font used for capture and rendering |
US20080147404A1 (en) * | 2000-05-15 | 2008-06-19 | Nusuara Technologies Sdn Bhd | System and methods for accent classification and adaptation |
JP4296714B2 (ja) * | 2000-10-11 | 2009-07-15 | ソニー株式会社 | ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム |
US6785647B2 (en) * | 2001-04-20 | 2004-08-31 | William R. Hutchison | Speech recognition system with network accessible speech processing resources |
US7668718B2 (en) * | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
US7103542B2 (en) * | 2001-12-14 | 2006-09-05 | Ben Franklin Patent Holding Llc | Automatically improving a voice recognition system |
US20040073425A1 (en) * | 2002-10-11 | 2004-04-15 | Das Sharmistha Sarkar | Arrangement for real-time automatic recognition of accented speech |
JP2004271895A (ja) * | 2003-03-07 | 2004-09-30 | Nec Corp | 複数言語音声認識システムおよび発音学習システム |
US8036893B2 (en) * | 2004-07-22 | 2011-10-11 | Nuance Communications, Inc. | Method and system for identifying and correcting accent-induced speech recognition difficulties |
US7412387B2 (en) * | 2005-01-18 | 2008-08-12 | International Business Machines Corporation | Automatic improvement of spoken language |
US20070094022A1 (en) * | 2005-10-20 | 2007-04-26 | Hahn Koo | Method and device for recognizing human intent |
US7860722B1 (en) * | 2006-01-18 | 2010-12-28 | Securus Technologies, Inc. | System and method for keyword detection in a controlled-environment facility using a hybrid application |
US8725518B2 (en) * | 2006-04-25 | 2014-05-13 | Nice Systems Ltd. | Automatic speech analysis |
JP2008134475A (ja) * | 2006-11-28 | 2008-06-12 | Internatl Business Mach Corp <Ibm> | 入力された音声のアクセントを認識する技術 |
CN101447184B (zh) * | 2007-11-28 | 2011-07-27 | 中国科学院声学研究所 | 基于音素混淆的中英文双语语音识别方法 |
US8380499B2 (en) * | 2008-03-31 | 2013-02-19 | General Motors Llc | Speech recognition adjustment based on manual interaction |
JP2009251388A (ja) * | 2008-04-08 | 2009-10-29 | Denso Corp | 母国語発話装置 |
CN101751919B (zh) * | 2008-12-03 | 2012-05-23 | 中国科学院自动化研究所 | 一种汉语口语重音自动检测方法 |
CN101650943A (zh) * | 2008-12-19 | 2010-02-17 | 中国科学院声学研究所 | 一种非母语语音识别系统及方法 |
JP2011033874A (ja) * | 2009-08-03 | 2011-02-17 | Alpine Electronics Inc | 多言語音声認識装置及び多言語音声認識辞書作成方法 |
CN102117614B (zh) * | 2010-01-05 | 2013-01-02 | 索尼爱立信移动通讯有限公司 | 个性化文本语音合成和个性化语音特征提取 |
US8630860B1 (en) * | 2011-03-03 | 2014-01-14 | Nuance Communications, Inc. | Speaker and call characteristic sensitive open voice search |
US9412369B2 (en) * | 2011-06-17 | 2016-08-09 | Microsoft Technology Licensing, Llc | Automated adverse drug event alerts |
US8825481B2 (en) * | 2012-01-20 | 2014-09-02 | Microsoft Corporation | Subword-based multi-level pronunciation adaptation for recognizing accented speech |
JP5812936B2 (ja) * | 2012-05-24 | 2015-11-17 | 日本電信電話株式会社 | アクセント句境界推定装置、アクセント句境界推定方法及びプログラム |
US9009049B2 (en) * | 2012-06-06 | 2015-04-14 | Spansion Llc | Recognition of speech with different accents |
US9966064B2 (en) * | 2012-07-18 | 2018-05-08 | International Business Machines Corporation | Dialect-specific acoustic language modeling and speech recognition |
CN103699530A (zh) * | 2012-09-27 | 2014-04-02 | 百度在线网络技术(北京)有限公司 | 根据语音输入信息在目标应用中输入文本的方法与设备 |
KR102388992B1 (ko) * | 2014-07-24 | 2022-04-21 | 하만인터내셔날인더스트리스인코포레이티드 | 단일 음향 모델 및 자동 악센트 검출로 텍스트 규칙 기반 멀티-악센트 음성 인식 |
-
2015
- 2015-07-24 KR KR1020177001632A patent/KR102388992B1/ko active IP Right Grant
- 2015-07-24 WO PCT/US2015/042046 patent/WO2016014970A1/en active Application Filing
- 2015-07-24 CN CN201580040890.1A patent/CN106663422B/zh active Active
- 2015-07-24 CA CA2952836A patent/CA2952836A1/en not_active Abandoned
- 2015-07-24 US US15/327,002 patent/US10290300B2/en active Active
- 2015-07-24 JP JP2017503577A patent/JP6585154B2/ja active Active
- 2015-07-24 EP EP15824083.8A patent/EP3172729B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR102388992B1 (ko) | 2022-04-21 |
EP3172729A4 (en) | 2018-04-11 |
CN106663422A (zh) | 2017-05-10 |
EP3172729A1 (en) | 2017-05-31 |
CN106663422B (zh) | 2021-03-30 |
JP2017521724A (ja) | 2017-08-03 |
US20170169814A1 (en) | 2017-06-15 |
US10290300B2 (en) | 2019-05-14 |
EP3172729B1 (en) | 2022-04-20 |
KR20170035905A (ko) | 2017-03-31 |
WO2016014970A1 (en) | 2016-01-28 |
CA2952836A1 (en) | 2016-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6585154B2 (ja) | 単一音響モデルと自動アクセント検出を用いたテキスト規則ベースの複数アクセントの音声認識 | |
US10380992B2 (en) | Natural language generation based on user speech style | |
JP6543460B2 (ja) | 音声認識問い合わせ応答システム | |
US9905228B2 (en) | System and method of performing automatic speech recognition using local private data | |
US9601111B2 (en) | Methods and systems for adapting speech systems | |
US9558739B2 (en) | Methods and systems for adapting a speech system based on user competance | |
US9502030B2 (en) | Methods and systems for adapting a speech system | |
US11928390B2 (en) | Systems and methods for providing a personalized virtual personal assistant | |
US20190279613A1 (en) | Dialect and language recognition for speech detection in vehicles | |
CN104123936A (zh) | 对话系统自动训练方法、对话系统及用于车辆的控制装置 | |
US20150379995A1 (en) | Systems and methods for a navigation system utilizing dictation and partial match search | |
US10950229B2 (en) | Configurable speech interface for vehicle infotainment systems | |
JP2017090612A (ja) | 音声認識制御システム | |
JP6295884B2 (ja) | 情報提案システム | |
US20200320997A1 (en) | Agent apparatus, agent apparatus control method, and storage medium | |
US9715878B2 (en) | Systems and methods for result arbitration in spoken dialog systems | |
CN117672226A (zh) | 本地化语音辨识助理 | |
KR20220129366A (ko) | 음성 인식 시스템 및 그 제어 방법 | |
CN111095398A (zh) | 机动车 | |
US20240214332A1 (en) | Chatbot service providing method and chatbot service providing system | |
CN118136003A (zh) | 基于个性化语音唤醒的车辆人机交互方法、装置、电子设备和存储介质 | |
CN116643646A (zh) | 自然语言处理装置及自然语言处理方法 | |
CN116910194A (zh) | 用于处理对话的方法和对话系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180618 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6585154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |