JPH11175094A - 音声認識装置 - Google Patents
音声認識装置Info
- Publication number
- JPH11175094A JPH11175094A JP9338448A JP33844897A JPH11175094A JP H11175094 A JPH11175094 A JP H11175094A JP 9338448 A JP9338448 A JP 9338448A JP 33844897 A JP33844897 A JP 33844897A JP H11175094 A JPH11175094 A JP H11175094A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- recognition
- input
- voice
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
い場合、上記語彙等を効率良く入力することができる音
声認識装置を提供することにある。 【解決手段】 入力したい語彙等が誤認識で入力できな
い場合は、入力したい語彙等の上位概念や、それを補足
説明する語彙や文章を入力、あるいは付加して入力する
手段を設ける。例えば、地名入力等で誤認識のために入
力できない場合は、その地名の上位概念である都道府県
名を入力、あるいは付加して入力する手段を設け、人名
入力では、姓の入力ができないときには、名前も付加し
て入力する手段を設ける。また、複合語の入力では、構
成している単語などを個別に順次音声入力する手段を設
ける。 【効果】 入力したい語彙や文章が誤認識で入力できな
い場合、上記語彙等を効率良く入力することができる音
声認識装置を提供することができる。
Description
り、入力したい語彙や文章が誤認識で入力できない場
合、上記語彙等を効率良く入力することができる音声認
識装置に関する。
る音声入力フローの概念を示す図である。本図では、地
名入力のタスクにおける音声入力の手順を、ユーザの入
力とシステムからの応答の形態で表現している。ユーザ
からの入力が「東仙台(ひがしせんだい)」であり、認
識結果のシステムの応答が「東千住」と誤認識であった
場合を想定している。従来の方法では、誤認識の場合
は、ユーザの「いいえ」等の応答に対応して、例えば第
2位の認識結果を出力したり(対応1)、再度入力を促
し、再度音声認識を実行して、正解を求め直す(対応
2)などの手順が実行されていた。
従来の音声認識システムを検討したところ、入力したい
語彙や文章が誤認識で入力できない場合、上記語彙等を
効率良く入力することが困難な場合があることを発見し
た。
彙や文章が誤認識で入力できない場合、上記語彙等を効
率良く入力することができる音声認識装置を提供するこ
とにある。
に、本願発明では、入力したい語彙や文章が誤認識で入
力できない場合は、入力したい語彙や文章の上位概念
や、それを補足説明する語彙や文章を入力、あるいは付
加して入力する手段を設ける。例えば、地名入力等で誤
認識のために入力できない場合は、その地名の上位概念
である都道府県名を入力、あるいは付加して入力する手
段を設け、人名入力では、姓の入力ができないときに
は、名前も付加して入力する手段を設ける。入力したい
語彙や文章の上位概念や、それを補足説明する語彙や文
章を入力、あるいは付加して入力する手段を設けること
により、入力したい語彙の上位概念や補足説明を付加す
ることで、入力すべき内容の候補を絞り込み、認識率の
向上を図ることができる。
では、構成している単語などを個別に順次音声入力する
手段を設ける。構成している単語などを個別に順次音声
入力する手段を設けることにより、認識候補を絞り込
み、又は複合語を構成しているサブセットの単語等に分
解して入力することで、複合語を構成している単語間の
リエゾン(発音上の結合)をなくし、認識率の向上を図
ることができる。
説明する。
入力フローの概念を示す図である。例1は地名入力をタ
スクにした場合であって、誤認識を起こしたときには、
従来ように再度同じ内容の発声をするのではなく、例え
ば、「仙台市東仙台」のように東仙台の上位概念である
仙台市を付加してに入力すること(方式1)や、「東」
「仙台」のように入力内容が複合語から構成されている
場合は、複合語を構成している単語等を区切って発声す
ること(方式2)、または「仙台市」あるいは「仙台市
の」と発声してから「東仙台」と再度入力すること(方
式3)などが考えられる。この結果、方式1では、仙台
市の中に属している地名や駅名へと認識候補を絞り込む
ことが可能となり、等価的に認識率を向上させることに
なる。方式2では、複合語を構成しているサブセットの
単語等に分解して入力することで、複合語を構成してい
る単語間のリエゾン(発音上の結合)をなくし、認識率
を向上させることになる。次に、例2として、人名入力
のタスクを考える。ユーザからの入力発声が「長島(な
がしま)」であって、認識結果のシステムからの出力が
「中島」であったと想定している。この場合、本発明で
は、「長島茂雄」のように姓と名を連結して入力するこ
と(方式1)や、「巨人(の)長島」のように所属名を
付加して入力すること(方式2)、または「巨人
(の)」と発声してから「長島」と区切って発声するこ
と(方式3)などを提案している。
い語彙の上位概念や補足説明等の音声とを識別するボタ
ンを設け、該識別ボタンを一時的に、又は継続的に押し
ながら、該入力したい語彙の上位概念や補足説明等の音
声を入力することも考えられる。該識別ボタンを設ける
ことにより、入力したい語彙等のみを入力する場合と、
該入力したい語彙の上位概念や補足説明等を付加して入
力する場合とを選択することが可能となり、音声認識シ
ステムに柔軟性を持たせることが可能となる。
きには、従来ように再度同じ内容の発声をするのではな
く、例えば、「仙台市東仙台」のように東仙台の上位概
念である仙台市を付加してに入力すること(方式1)
や、「東」「仙台」のように入力内容が複合語から構成
されている場合は、複合語を構成している単語等を区切
って発声すること(方式2)、または「仙台市」あるい
は「仙台市の」と発声してから「東仙台」と再度入力す
ること(方式3)こと等を取り上げたが、最初の入力か
ら、上記方式1乃至方式3の方式で音声入力を行って
も、上述と同様の効果を得ることができる。以下の実施
例においても同様である。
名の階層的な関係を示す図である。図で示すように、一
般的には「都道府県名」があって、その下位の概念とし
て「市区町村名」があり、さらにその下位の概念として
「地区名」がある。具体的には、「宮城県」「仙台市」
「東仙台」のような階層的な関係がある。従って、地名
の場合は、「地区名」の上位概念は、「市区町村名」で
あり、さらに「市区町村名」の上位概念は「都道府県
名」となっている。
た、人名の階層的な構成を示す図である。一般的には
「所属」があって、その下位の概念として「苗字名」が
あり、さらにその下位の概念として「名前」がある。具
体的には、「巨人軍」「長島」「茂雄」のような階層的
な関係がある。従って、人名の場合は、「名前」の上位
概念は、「苗字名」であり、さらに「苗字名」の上位概
念は「所属」となっている。所属としては、「どこそこ
の誰さん」のように、地名等になる場合も考えられる。
の一実施例を詳細に示すブロック図である。使用者10
0によって発声された音声信号10を入力として、音声
認識部200にて音声認識が実行される。音声認識部2
00の具体的な構成の一実施例としては、音声入力部2
10にてアナログの音声情報がデジタルの音声波形情報
へと変換される。その後、音声分析部220にて、音声
の特徴パラメータが抽出される。音声パラメータに関し
ては、文献「音声情報処理の基礎」(斉藤収三、中田和
男共著、オーム社)に示されているように、例えば線形
予測分析により求まるLPCケプストラムなどがある。
その後、照合・判定部230にて、入力音声の照合が実
行され、認識結果30が出力される。出力結果30は、
例えば表示応答部300にて、使用者(ユーザ)に提示
され、認識結果の良否が使用者から音声やキーボードな
どにより入力される。表示応答部300は、例えば通常
のモニターやスピーカなどである。使用者からの良否の
応答は350にて入力され、応答判定部400にて、本
発明で提案する上位概念を付加した入力発声等の手順が
実行される,その結果、450にて再度使用者100に
提示され、本は爪にの手順にて、正解が得られるまで発
声と認識実行が行われ、認識結果999を得ることにな
る。
細に示すブロック図である。入力音声10はLPF(Lo
w Pass Filter)2101とA/Dコンバータ2102
にて、例えば12kHz、16bitでサンプリングでされて、音
声のアナログ信号10が、デジタル信号20へと変換さ
れる。LPFは、サンプリングでの折り返し雑音が入る
のを防ぐために用いられ、通常はサンプリング周波数の
半分以下のカットオフ周波数を持つ。例えば、12kHzサ
ンプリングの場合は、LPFのカットオフ周波数は6kHz
以下となる。
細に示すブロック図である。音声のデジタル信号20を
入力として、まず相関関数算出部2210にて、LPC
分析の入力情報である音声信号の自己相関関数が算出さ
れる。この際、LPC分析の次数nであれば、少なくと
も相関関数の次数は n 以上が必要となる。 n は、音声
信号サンプルの n 点の違いである。音声信号をxt ( t
サンプル点)とすれば、i 次の自己相関関数 Ri は、次
のように求められる。
声情報処理の基礎」(斉藤収三、中田和男共著、オーム
社)に詳細に記述されているように、音声のスペクトラ
ム情報を表現するLPCパラメータであるLPC係数
(αパラメータ)が求められる。さらに、ケプストラム
係数変換部2230にて、音声認識のパラメータとして
優れているLPCケプストラムがαパラメータから変換
して求められる。さらに、音声認識では、ケプストラム
の差分情報である回帰係数が回帰係数算出部2240に
て算出され、音声認識に使う音声パラメータ30が出力
される。従って、音声パラメータ30の実施例として
は、例えば、次のようになっている。また、パワー情報
とパワー情報の回帰係数も音声パラメータとして使用さ
れることもある。
例を詳細に示すブロック図である。本発明では、音声照
合方式の例としては、連続型ヒドン・マルコフ・モデル
(HMMs: Hidden Markov Models)を使用した場合を考え
る。連続型ヒドン・マルコフ・モデルに関しては、文献
「確率モデルによる音声認識」(中川聖一著、(社)電
子情報通信学会編)に詳細に説明されている。図4にて
詳細に説明したように、入力音声信号をサンプリング
し、音声分析にて得られた音声パラメータを時間軸に並
べて表現した音声の特徴パターンを入力として、音響モ
デル2340を参照しながら、確率分布計算部2310
にて、入力音声の短時間分析の結果の特徴パターンに対
して音響モデルの分布確率が計算される。更に、確率累
積部2320にて、単語辞書2350に記述された単語
の系列に対応した音響モデルの確率分布が累積されて、
単語辞書の各エントリィの累積確率が求まる。その後、
判定部2330にて、確率がもっとも高い単語エントリ
ィが第1次の認識結果40として出力される。本発明で
は、単語認識を例にして説明したが、例えば文節認識や
文章認識も、単語辞書を文節や文章の文字系列とするこ
とで、単語認識と同様にして容易に実現される。
辞書構成の一実施例の詳細を示す図である。本実施例で
は、地名を表現する辞書の構成に関してであり、都道府
県名と市区町村名とともに、地区名が単語番号の順に記
述されている。本発明を用いた音声認識実行にあたって
は、まず地区名だけの単語辞書による認識が実行され、
誤認識された場合は、システムからの指示により市区町
村名や都道府県名を付加した形での音声入力がなされ、
システムではまず都道府県名や市区町村名の認識が実行
され、その認識結果の都道府県名や市区町村名に属して
いる地区名だけでの認識が実行される。図9での例で
は、宮城県と仙台市が特定されれば、単語辞書番号が1
1ではじまる地区名だけでの認識が実行されることにな
る。この結果、最初の認識での対象である全地区名の一
部が認識対象として絞り込まれ、結果として認識率の向
上に寄与することになる。例えば、関東地方の1都6県
の例では、7都道府県には約650市区町村名があり、
各市区町村名に平均として50の地区名があるとすれ
ば、地区名だけの総数は約3万となり、3万語彙の認識
システムが必要となる。しかし、本発明の結果、都道府
県名と市区町村名が入力されれば、まず7語の認識、そ
の後、その都道府県名に属している約100語以下の市
区町村名の認識、最終として認識された市区町村名に属
する約50地区名の認識で済むことになり、結果として
は100語の認識システムで地区名の認識が可能とな
る。また、本発明のように、最初はトータルの3万語の
認識から始まって、単語を最終的に約50語に絞り込ま
れることが可能となり、認識率の向上が図られる。
応用した時のインタフェースの一概念図を示す図であ
る。カーナビゲーション装置500は、表示部510、
スピーカ520、イァフォンジャク530、セレクタ5
40、及びマイクロフォン550で少なくとも構成され
ている。マイクロフォン550から入力された音声は認
識実行され、結果が表示部510や、スピーカ520に
て出力される。この結果、誤認識の場合は、本発明の応
答手順を経て、正解認識が得られるように進行される。
スピーカ520とイァフォンジャク530は、システム
からの応答音声を出力する装置として働く。
カーナビゲーションの構成の一実施例を示す図である。
少なくとも、カーナビゲーションシステムのおいては、
自車位置検出部500、画面情報描画・表示部600、
音声処理・出力部700にて構成される。自車位置検出
部500はGPS(Geographic Positioning System)信
号50を入力として、GPS受信部510にてGPS信
号が受信され、さらに位置補正がGPS位置補正部52
0にて行われる。また、タイヤ回転情報60から、タイ
ヤ回転算出部530、走行距離算出部540にて、タイ
ヤ回転と走行距離都の関係が算出され、位置変換部55
0にて、走行距離から換算した位置情報が求められる。
さらに、ジャイロ情報70から、ジャイロ情報受信部5
60、ジャイロ位置変換部570を経て、自車位置が求
められる。以上の位置情報が位置補正・統合部580に
て統合され、最終的に精度の高い自車位置が求められ
る。その結果、画面情報描画・表示部600において、
自車位置が画面上の地図の中に対応した形で表示され
る。この際、地図画面などの画面を作成する画面作成部
610、画面描画部620にて、画面が描画される。一
方、音声処理・出力部700では、音声信号10を入力
として、音声入力制御部710、音声認識部720、結
果出力部730にて、入力された音声の認識が実行さ
れ、認識結果90が出力される。音声人認識部720
は、図5の音声認識部200と同等である。また、認識
結果の確認や、交通情報の読み上げなどの合成音声は、
制御信号15をもとに、音声出力制御部740、音声合
成部750、合成音出力部760にて、音声信号95が
生成されて出力される。
メールの宛名入力システムのインタフェースの一概念を
示す図である。本実施例では、音声機能としては、メー
ルの読み上げと、メール送信時の宛名を音声で入力する
機能を持っている。本発明は後者の音声による宛名入力
に関してであり、宛名名を辞書として登録する宛名選択
と、送信時に宛名を音声で入力するメールアドレス入力
の2つが機能的にはある。宛名選択の処理のフローは、
アドレス帳の検索、宛名指定、認識用単語辞書書式への
変換、単語辞書とメールアドレス対応表の作成となって
いる。この結果、認識時に使用する単語辞書が構成され
る。メールアドレス入力の処理のフローは、認識処理そ
のものであり、まずA/D変換により入力音声をデジタ
ル音声に変換し、その後音声分析、連続HMMによる照
合、判定、最後に認識結果の表示となっている。その
際、音響モデルコードブックと音響モデルパラメータと
が用いられる。認識結果は、本実施例では、5候補出力
され、1位の場合は指示なしで、2位以下の場合は正解
の指示をもって、送信すべき相手のメールアドレスが入
力される。
メールの宛名入力システムの構成の一実施例を示すブロ
ック図である。まず、全体の構成として、PC/WSと
ソフト800で構成されている。具体的には、ソフトウ
ェアから使用者側に存在するアプリケーションAP81
0、その下のPC/WSのハード側に存在するソフトウ
ェアとして、例えばGraphics820、電話とのインタフ
ェースTel I/F830、音声認識部840、音声合成部
850、Audio I/F860、さらに、これらのソフトウ
ェアを実行するマルチメディア対応OS870、そして
マルチメディア対応ハードウェア880で構成されてい
る。音声認識ブロック840は、音声20を入力とし
て、例えばPCに標準的に装備されているSoundBoard8
410で音声がA/D変換され、PCソフトウェアにて
SoundBoardの品質の違いを補正するAudio Calibration
とNoise Canceller8420、音声認識のエンジンであ
る音声認識部8430、そして音響モデルとご単語辞書
が格納されているメモリ8450にて構成されている。
この結果、認識結果90が出力される。
す認識率評価の一結果を示す概念図である。認識単語の
語彙数を2000まで想定し、従来の方式と本発明によ
る認識率の改善を示している。例えば、関東地方の1都
6県に存在する約650市町村名を認識語彙とした場
合、市町村名だけで入力すると、認識語彙数が計650
単語の認識となり、現状では、約92%の認識率とな
る。しかし、東京都や県名を付加して入力した場合は、
1都6県計7単語認識のあとに付随する地名の語彙数約
100語認識となる。この結果、認識率は約99%とな
り、約7%の認識率の向上が見込まれる。
誤認識で入力できない場合、上記語彙等を効率良く入力
することができる音声認識装置を提供することができ
る。従来の音声認識システムでは、音声入力だけでは入
力完了ができなかったような場合でも、音声入力の機能
だけで入力したい内容を入力できるので、効率の良い音
声認識利用のシステム及び装置の提供が可能となる。
ーの概念を示す図。
を持ったシステムの音声入力フローの概念を示す図。
施例を詳細に示すブロック図。
ック図。
ック図。
ブロック図。
す図。
ェースの一概念図を示す図。
ブロック図。
ムのインタフェースの一概念を示す図。
示すブロック図。
00、音声入力部210、LPF2110、A/D21
20、音声信号(デジタル)20、音声分析部220、
相関関数算出部2210、LPC分析部2220、ケプ
ストラム係数変換部2230、回帰係数算出部224
0、音声パラメータ30、照合・判定部230、確率分
布計算部2310、確率累積部2320、判定部233
0、音響モデル2340、単語辞書2350、認識候補
40、表示応答部300、良否入力部350、応答判定
部400、定時部450、認識結果90、カーナビゲー
ション装置5000、表示部5100、スピーカ520
0、イアホンジャック5300、セレクタ540、マイ
クロホン5500、さらにカーナビゲーションにおける
GPS信号50、GPS受信部510、GPS位置補正
部520、タイヤ回転情報60、タイヤ回転算出部53
0、走行距離算出部540、位置変換部550、ジャイ
ロ情報70、ジャイロ情報受信部560、ジャイロ位置
変換部570、位置補正・統合部580、画面情報描画
・表示部600、画面作成部610、画面描画部62
0、音声処理・出力部700、音声入力制御部710、
音声認識部720、結果出力部730、制御信号15、
音声出力制御部740、音声合成部750、做静穏出力
部760、音声信号95、最後にメール宛名入力システ
ムにおける、PC/WSとソフト800、アプリケーシ
ョンAP810、Graphics820、電話インタフェース
(Tel I/F)830、音声認識部840、音声合成部85
0、Audio I/F860、マルチメディア対応OS87
0、マルチメディア対応ハードウェア880、音声認識
ブロック840、SoundBoard8410、PCソフトウェ
ア内のAudio Calibration、Noise Cancellaer842
0、音声認識エンジン8430、メモリ8440。
Claims (11)
- 【請求項1】入力音声を認識する手段を有する音声認識
装置において、 認識対象の音声の内容の上位概念を入力させる手段を有
すること特徴とする音声認識装置。 - 【請求項2】請求項1に記載の音声認識装置において、
入力された上記認識の音声の内容の上位概念を用いて、
上記認識対象の音声に対する認識候補を絞り込む手段を
有することを特徴とする音声認識装置。 - 【請求項3】請求項1又は請求項2の何れかに記載の音
声認識装置において、上記認識対象の音声の内容の上位
概念は音声により入力させることを特徴とする音声認識
装置。 - 【請求項4】請求項1又は請求項2記載の音声認識装置
において、上記認識対象の音声の内容が土地名、又は地
名である場合に、上記認識対象の音声の内容の上位概念
は市町村名、又は都道府県名であることを特徴とする音
声認識装置。 - 【請求項5】請求項1又は請求項2記載の音声認識装置
において、上記認識対象の音声の内容が人名である場合
に、上記認識対象の音声の内容の上位概念は上記人名の
所属部署、又は居住地名であることを特徴とする音声認
識装置。 - 【請求項6】請求項3記載の音声認識装置において、上
記認識対象の音声の内容の上位概念の音声と上記認識対
象の音声とを連続的に入力させることを特徴とする音声
入力方法。 - 【請求項7】請求項3記載の音声認識装置において、上
記認識対象の音声の内容の上位概念の音声と、上記認識
対象の音声とを一定の間隔を設けて入力させることを特
徴とする音声認識装置。 - 【請求項8】請求項3、請求項6、又は請求項7の何れ
かに記載の音声認識装置において、上記認識対象の音声
の内容の上位概念の音声と、上記認識対象の音声とを識
別するボタンを有し、該識別ボタンを一時的に、又は継
続的に押しながら、上記認識対象の音声の内容の上位概
念の音声を入力させることを特徴とする音声認識装置。 - 【請求項9】入力音声を認識する手段を有する音声認識
装置において、 認識対象の音声の内容を含んだ語彙、または文章を入力
させる手段を有することを特徴とする音声認識装置。 - 【請求項10】請求項9記載の音声認識装置において、
上記認識対象の音声の内容が姓である場合に、上記認識
対象の音声の内容を含んだ語彙は上記姓と名とからなる
ことを特徴とした音声認識装置。 - 【請求項11】入力音声を認識する手段を有する音声認
識装置において、 認識対象の音声の内容を構成する語彙に分解して、上記
分解した語彙ごとに入力させることを特徴とする音声認
識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33844897A JP3671636B2 (ja) | 1997-12-09 | 1997-12-09 | 音声認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33844897A JP3671636B2 (ja) | 1997-12-09 | 1997-12-09 | 音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11175094A true JPH11175094A (ja) | 1999-07-02 |
JP3671636B2 JP3671636B2 (ja) | 2005-07-13 |
Family
ID=18318256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33844897A Expired - Fee Related JP3671636B2 (ja) | 1997-12-09 | 1997-12-09 | 音声認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3671636B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002108389A (ja) * | 2000-09-29 | 2002-04-10 | Matsushita Electric Ind Co Ltd | 音声による個人名称検索、抽出方法およびその装置と車載ナビゲーション装置 |
JP2002287792A (ja) * | 2001-03-27 | 2002-10-04 | Denso Corp | 音声認識装置 |
JP2003527631A (ja) * | 2000-03-15 | 2003-09-16 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための装置及び方法 |
JPWO2019163011A1 (ja) * | 2018-02-21 | 2020-10-01 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
-
1997
- 1997-12-09 JP JP33844897A patent/JP3671636B2/ja not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003527631A (ja) * | 2000-03-15 | 2003-09-16 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための装置及び方法 |
JP4928701B2 (ja) * | 2000-03-15 | 2012-05-09 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | 目的案内システム内に定義されている入力ダイアログを使って目的地を言語入力するための方法 |
JP2002108389A (ja) * | 2000-09-29 | 2002-04-10 | Matsushita Electric Ind Co Ltd | 音声による個人名称検索、抽出方法およびその装置と車載ナビゲーション装置 |
JP2002287792A (ja) * | 2001-03-27 | 2002-10-04 | Denso Corp | 音声認識装置 |
JP4604377B2 (ja) * | 2001-03-27 | 2011-01-05 | 株式会社デンソー | 音声認識装置 |
JPWO2019163011A1 (ja) * | 2018-02-21 | 2020-10-01 | 三菱電機株式会社 | 表示制御装置および表示制御方法 |
US11243741B2 (en) | 2018-02-21 | 2022-02-08 | Mitsubishi Electric Corporation | Display control device and display control method |
Also Published As
Publication number | Publication date |
---|---|
JP3671636B2 (ja) | 2005-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6910012B2 (en) | Method and system for speech recognition using phonetically similar word alternatives | |
EP1936606B1 (en) | Multi-stage speech recognition | |
EP2560158B1 (en) | Operating system and method of operating | |
KR100679042B1 (ko) | 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템 | |
JP4816409B2 (ja) | 認識辞書システムおよびその更新方法 | |
EP2196989B1 (en) | Grammar and template-based speech recognition of spoken utterances | |
US7826945B2 (en) | Automobile speech-recognition interface | |
US9911408B2 (en) | Dynamic speech system tuning | |
US20130080172A1 (en) | Objective evaluation of synthesized speech attributes | |
US20070156405A1 (en) | Speech recognition system | |
US9123327B2 (en) | Voice recognition apparatus for recognizing a command portion and a data portion of a voice input | |
JPH09500223A (ja) | 多言語音声認識システム | |
EP0852374A2 (en) | Method and system for speaker-independent recognition of user-defined phrases | |
WO2008072413A1 (ja) | 音声認識装置 | |
US20070038453A1 (en) | Speech recognition system | |
US20070136060A1 (en) | Recognizing entries in lexical lists | |
US7240008B2 (en) | Speech recognition system, program and navigation system | |
WO2006093092A1 (ja) | 会話システムおよび会話ソフトウェア | |
EP1024476A1 (en) | Speech recognizing device and method, navigation device, portable telephone, and information processor | |
JP3825526B2 (ja) | 音声認識装置 | |
JP2004163541A (ja) | 音声応答装置 | |
JP3911178B2 (ja) | 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体 | |
JP3671636B2 (ja) | 音声認識装置 | |
CN115168563A (zh) | 一种基于意图识别的机场服务引导方法、系统及装置 | |
JP2001141500A (ja) | 車載エージェント処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050411 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090428 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090428 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100428 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110428 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |