JP4705023B2 - 音声認識装置、音声認識方法、及びプログラム - Google Patents

音声認識装置、音声認識方法、及びプログラム Download PDF

Info

Publication number
JP4705023B2
JP4705023B2 JP2006514478A JP2006514478A JP4705023B2 JP 4705023 B2 JP4705023 B2 JP 4705023B2 JP 2006514478 A JP2006514478 A JP 2006514478A JP 2006514478 A JP2006514478 A JP 2006514478A JP 4705023 B2 JP4705023 B2 JP 4705023B2
Authority
JP
Japan
Prior art keywords
word
unregistered
unregistered word
speech recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006514478A
Other languages
English (en)
Other versions
JPWO2005122144A1 (ja
Inventor
純幸 沖本
剛 井上
貴史 續木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006514478A priority Critical patent/JP4705023B2/ja
Publication of JPWO2005122144A1 publication Critical patent/JPWO2005122144A1/ja
Application granted granted Critical
Publication of JP4705023B2 publication Critical patent/JP4705023B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、音声認識に基づくマン・マシン・インタフェースに用いられる音声認識装置に関し、特に、未登録語発声に対する応答技術に関する。
従来、利用者に使い易い機器コントロールのための入力フロントエンドとして、音声認識技術を応用したものが存在する。一般に、音声認識では、非特許文献1に述べられているように発話された音声と、あらかじめ音声認識用辞書に定められた単語群の標準パタンそれぞれとの比較を行ない、最も近いものを認識結果とするという方法が採られる。
しかし、機器の利用者は、音声認識が対象としている単語群を全て覚えている訳ではないため、音声認識が対象としていない単語を発話するという事が起こりうる。このような場合において、上述したような音声認識の基本的枠組では、音声認識用辞書内の最も近い単語を結果として返すので、必然的に誤認識を生じてしまうという問題がある。このような問題に対して、音声認識用辞書に存在しない単語(未登録語)の利用者による発話を検出する方法が考案されている。
例えば、特許文献1においては、入力音声と音声認識用辞書の各単語との類似度を求めると共に、単位標準パタンを結合したパタンから参照類似度を求めて、各単語に求められた類似度を補正し、この補正類似度が一定のしきい値に満たなければ、利用者の発話を未登録語とみなすという方法が記載されている。
また、特許文献2においては、音素HMM(Hidden Markov Model)と、ガーベジHMMとを用いて、未登録語を、少ない処理量で高精度に検出する方法が記載されている。
そして、利用者による未登録語の発話を検出した際に、そのことを利用者に、ビープ音等の警告音にて示したり、「それはありません」等の発話内容を代名詞で言い換えた応答出力によって示したりすることが容易に考えられる。
しかし、このような応答を返すだけでは、利用者にとっては不十分である。なぜなら、この応答から、自らが発話した単語が、たまたま認識されなかったのか、未登録語であるのかを明瞭に切り分けることができないからである。
このため、利用者は、納得がいくか、または、諦めるまで、発音に一層の注意を払いながら発話を続けざるを得ず、音声入力による機器コントロールの利便性を低下させてしまうといった問題が起こる。
このような問題に対して、特許文献3では、利用者による未登録語の発話が検出されると、状況に応じて機器が受理可能な単語の一覧を、利用者に提示する方法が記載されている。これによれば利用者は、機器に認識される単語を知らなくても、未登録語を発話するたびに、その状況で発話可能な単語を教示されるため、何度も同じ単語の発話を繰り返すことなく、思いの動作を実現することが可能である。
また、特許文献4では、従来の音声認識用辞書に相当する内部辞書と、従来の音声認識用辞書では未登録語となる単語を多数格納した外部辞書とを合わせて、音声認識用辞書として音声認識を行ない、外部辞書に含まれる単語が認識結果となった場合には、これが未登録語であることを同時に提示するという方法が記載されている。これによれば、例えば「松下太郎」という単語が外部辞書に含まれている状態で、「松下太郎」と利用者が発話すると、「松下太郎はおりません。」といった応答が可能となる。
特許第2808906号公報 特許第2886117号公報 特許第3468572号公報 特開平9−230889号公報 鹿野清宏、中村哲、伊勢史郎,「ディジタル信号処理シリーズ5:音声・音情報のディジタル信号処理」,昭晃堂,1997年11月10日,p.45,53
しかしながら、上記特許文献3の方法では、受理可能な単語の数が非常に多くなった場合に、多数の単語の中から利用者が所望の単語を探す必要を生じさせ、利用者にとって見落としや煩わしさの原因となりうる。例えば、利用者がそのシステムに存在しない「松下太郎」という人物名を発話し、受理可能な単語の中から人物検索により「松下太郎」を探そうとした際に、検索可能な人物名として100名の名前が一覧表示されたとすると、利用者は、そのリストの中に「松下太郎」がいるのかいないのか、また、「松下太郎」の代わりの人物がいるのかいないのかを確認しなければならない。このような場合に、利用者は、「松下太郎」を見落としてしまうおそれがあり、また、「松下太郎」を探し出すのは、煩わしい作業であるとともに、容易ではない。
また、上記特許文献4の方法において、前述したような応答を良好に返すには、未登録語単語辞書としての外部辞書に、非常に多くの単語を登録する必要があるが、このような大語彙の辞書を用いて音声認識を行なった場合には、類似する多くの単語が登録されているが故に認識誤りが発生し易くなるという背反する問題が生じる。この結果、例えば「松下太郎」という利用者の発話に対して、「松下徹はおりません。」といった応答や、「松下徹ですね。」といった応答を返してしまい、利用者は無用の混乱に陥ったり、再発話を余儀なくされてしまうという問題が起こりうる。
そこで、本発明は、かかる問題に鑑みなされたものであり、利用者が無益な再発話を試みる状況を減らすことができる音声認識装置を提供することを目的とする。
上記目的を達成するために、本発明に係る音声認識装置は、発話された音声を認識する音声認識装置であって、音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、前記発話された音声と、音響の単位となるサブワードを組み合わせてなる系列との類似度を求める参照類似度計算手段と、前記音声認識手段の照合結果と前記参照類似度計算手段の算出結果とに基づいて、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、前記未登録語を記憶する未登録語単語記憶手段と、前記未登録語判定手段で未登録語と判定された場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する未登録語候補検索手段と、前記検索結果を表示する結果表示手段とを備えることを特徴とする。
ここで、前記音声認識装置は、前記未登録語単語記憶手段に記憶されていない未登録語群を記憶する未登録語単語サーバと通信する通信手段を備え、前記通信手段が前記未登録単語サーバから前記未登録語群を受信することによって、前記未登録語単語記憶手段に記憶されている未登録語を更新するとしてもよい。
なお、本発明は、このような音声認識装置として実現することができるだけでなく、このような音声認識装置が備える特徴的な手段をステップとする音声認識方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
本発明によれば、利用者による音声認識が不成立となる未登録語単語の発話を利用者に提示すると同時に、それが認識誤りによるものでないことも利用者に判り易く提示することができる。
また、本発明によれば、本来の目的である音声認識辞書内の単語の発話に対する認識率を低下させることがない。
さらに、未登録語候補を検索するための未登録語単語記憶手段は、非常に大きなものとなり、また常にメンテナンスが必要となるが、この機能をサーバとして機器から切り離すことで、機器の製造コストを下げることを可能とすると同時に、未登録語単語記憶手段のメンテナンスコストも下げることが可能になる。
上記目的を達成するために、本発明に係る音声認識装置は、発話された音声を認識して当該認識の結果を提示する音声認識装置であって、音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算手段と、前記音声認識手段照合された前記登録語と前記発話された音声との類似度前記参照類似度計算手段で求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、前記未登録語を記憶する未登録語単語記憶手段と、前記未登録語判定手段で未登録語と判定された場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する未登録語候補検索手段と、前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示手段とを備えることを特徴とする。
これによって、利用者の発話した単語が未登録語である場合に、未登録語候補を検索して提示するので、利用者は、未登録語候補の中に自身の発話した単語が含まれていることを確認するだけで未登録語発話を自覚することができる。また、未登録語単語候補の検索を、音声認識辞書内の単語比較と別に行なうので、音声認識そのものの性能を低下させることがない。
ここで、前記未登録語候補検索手段は、複数の未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索するとしてもよい。
この構成によれば、未登録語候補を1単語に絞り込まないので、未登録語候補の検索について高精度が要求されず、ハードウェアリソースを低く抑えることができる。
また、前記未登録語単語記憶手段は、前記未登録語の属するカテゴリに応じて、前記カテゴリごとに分類して前記未登録語を記憶しているとするのが好ましく、前記音声認識装置は、さらに、前記発話された音声に基づいて、前記未登録語の属するカテゴリを判定する未登録語クラス判定手段を備え、また、前記未登録語候補検索手段は、前記未登録語クラス判定手段の判定結果に基づいて、前記未登録語候補を、前記未登録語単語記憶手段における分類されたカテゴリの中から検索するのがより好ましい。
これによって、未登録語候補の検索範囲を未登録語のカテゴリに応じて絞り込むので、利用者が本来意図していなかったカテゴリの単語を未登録語候補として提示するのを防止することができる。また、検索範囲を絞り込むので、未登録語候補の検索精度を向上させることも可能となる。
また、前記音声認識装置は、さらに、前記カテゴリに関する情報を取得する情報取得手段を備え、前記未登録語候補検索手段は、前記情報取得手段が取得した情報に基づいて、前記未登録語候補を、前記未登録語単語記憶手段における分類されたカテゴリの中から検索するとしてもよい。
この構成によれば、発音的には類似するが、状況から見て発話されたとは考えにくい未登録語単語の候補を出力させないので、提示する未登録語候補数を削減し、利用者に未登録語候補を判り易く提示する音声認識装置が実現される。
さらに、前記未登録語候補検索手段は、前記発話された音声との類似する度合いを数値化した未登録語スコアを計算することにより、前記未登録語候補を検索し、前記結果表示部は、前記検索結果として、前記未登録語候補とその未登録語スコアとを表示し、また、前記結果表示部は、前記未登録語スコアに応じて、前記未登録語候補の表示を変更するのが好ましい。
これによって、未登録語候補の提示において、未登録語候補を数値化し、また、未登録語候補として、もっともらしいものを強調することにより、利用者に未登録語候補を判り易く提示することができるという効果を奏する。
また、前記未登録語単語記憶手段に記憶されている未登録語は、所定の条件下で更新されるとしてもよい。
これによって、日々増加する固有人名や番組のタイトル等の未登録語単語に対して、これを素早く未登録語単語記憶手段に反映させることが可能になる。
ここで、前記音声認識装置は、前記未登録語単語記憶手段に記憶されていない未登録語群を記憶する未登録語単語サーバと通信する通信手段を備え、前記通信手段が前記未登録単語サーバから前記未登録語群を受信することによって、前記未登録語単語記憶手段に記憶されている未登録語を更新するとしてもよい。
これによって、外部のサーバから新たな未登録語が提供されるので、日々増加する固有人名や固有タイトルのような未登録語について、これらを未登録語単語記憶手段に登録する手間を利用者に要求することなく、未登録語単語記憶手段を最適な状態に保つことができる。
また、前記音声認識用単語記憶手段に記憶されている登録語は、所定の条件下で更新されるとしてもよい。
これによって、登録語の使用頻度の時間変動に追従して、高い使用頻度が見込まれる比較的少数の登録語のみを前記音声認識用単語記憶手段に記憶させておくことができるので、認識時間を短縮すると共に良好な認識率を得ることが容易となる。
また、本発明は、このような音声認識装置として実現することができるだけでなく、音声認識システムとして実現することもできる。すなわち、発話された音声を認識する音声認識システムであって、前記音声認識システムは、発話された音声を認識して当該認識の結果を提示する音声認識装置と、前記音声認識装置に登録されていない未登録語を検索する未登録語検索サーバとを備え、前記音声認識装置は、音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算手段と、前記音声認識手段照合された前記登録語と前記発話された音声との類似度前記参照類似度計算手段で求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、前記未登録語判定手段で未登録語と判定された場合に、前記未登録検索サーバに、前記発話された音声に対応すると思われる未登録語候補の検索を要求する検索要求送信手段と、前記未登録語検索サーバから前記未登録語候補の検索結果を取得する検索結果受信手段と、前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示手段とを備え、前記未登録語検索サーバは、前記未登録語を記憶する未登録語単語記憶手段と、前記検索要求送信手段から前記検索要求を受信する検索要求受信手段と、前記検索要求受信手段が前記検索要求を受信した場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する未登録語候補検索手段と、前記検索結果を前記音声認識装置に送信する検索結果送信手段とを備えることを特徴とするとしてもよい。
この構成によれば、音声認識インタフェースをコンパクトに実現することを可能とすると同時に、未登録語単語格納部のメンテナンスコストを下げることができるという効果を奏する。また、常に更新が必要とされる未登録語単語記憶手段を、複数の機器に対して1つにまとめることが可能となり、メンテナンスのコストを下げることもできる。
なお、本発明は、このような音声認識装置として実現することができるだけでなく、このような音声認識装置が備える特徴的な手段をステップとする音声認識方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以下、本発明を実施するための最良の形態について、図1から図21を参照しながら詳細に説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る音声認識装置の機能的な構成を示すブロック図である。
図1に示す音声認識装置100は、マン・マシン・インタフェースの1つとして用いられ、利用者から音声入力を受け付け、入力された音声の認識結果を出力する装置であり、音声認識部101、音声認識語彙格納部102、参照類似度計算部103、未登録語判定部104、未登録語候補検索部105、未登録語単語格納部106、および、結果表示部107を備える。
音声認識部101は、入力音声を取り込んでその発話内容を認識する処理部である。
音声認識語彙格納部102は、音声認識部101で認識する語彙を規定し格納するハードディスク等の記憶装置である。この音声認識語彙格納部102は、各単語の標準的な音響パタンを標準パタンとして、または、各単語の音響パタンをHMM(Hidden Markov Model)やニューラルネットと呼ばれるモデルで表現したものを格納している。この音声認識語彙格納部102は、あるいは、より短い音響単位ごとのパタンを表現した標準パタンや、HMMやニューラルネットなどのモデルで表現したものを格納しており、音声認識時には単語ごとに単語パタンや単語モデルを合成して、音声認識部101に提供する。
参照類似度計算部103は、入力音声が未登録語であるか否かを判定するために用いる参照類似度の計算を行なう処理部である。この参照類似度計算部103は、サブワードと呼ばれる単語よりも短い音響単位のパタンやモデルを任意に組み合わせて、入力音声に最も類似度が高くなるサブワード系列の探索を行ない、その最大類似度を求める。
未登録語判定部104は、上記音声認識部101および参照類似度計算部103の双方の結果を基に、利用者の発話内容が未登録語であるか否かを判定する。この未登録語判定部104は、利用者の発話内容が音声認識語彙格納部102に格納されている単語、すなわち、登録語である場合には、発話内容を認識したという認識結果を結果表示部107に出力し、音声認識語彙格納部102に格納されていない単語、すなわち、未登録語である場合には、発話内容が未登録語であるという判定結果を未登録語候補検索部105に出力する。
未登録語候補検索部105は、利用者の発話内容が未登録語と判定された際に、その発話内容から未登録語単語の検索を行なう処理部である。
未登録語単語格納部106は、上記未登録語候補検索部105における未登録語検索の対象となる多数の単語を格納するハードディスク等の記憶装置である。
なお、未登録語候補検索部105は、未登録語単語格納部106に格納される非常に多くの語彙の中から未登録語単語を検索することを想定しているため、後述するように、音声認識部101とは異なる、より簡素で高速な(つまり計算時間が短い)方法を用いて検索を行うことが好ましい。
結果表示部107は、CRTディスプレイや液晶ディスプレイ等の表示装置であり、未登録語判定部104から出力される認識結果を示す画面や、判定結果および未登録語単語の検索結果を示す画面を表示することで、利用者の発話内容が認識されたか否か、未登録語であるか否かを利用者に提示する。
次に、このように構成された音声認識装置100の動作について説明する。
図2は、音声認識装置100の処理動作を示すフローチャートである。
まず、音声認識装置100は、利用者の発話した音声の入力を受け付けると(S10)、音声認識部101において、入力音声に基づき、音声認識語彙格納部102の中から入力音声に類似する単語を認識する(S12)。ここで、より具体的には、音声認識部101は、音声認識語彙格納部102に格納された各単語の標準パタンまたは単語モデルと、入力音声とを照合して、単語ごとに入力音声との類似度を計算し、類似度の高いものを候補として抽出する。また、このとき、音声認識装置100は、参照類似度計算部103において、入力音声に最も近いサブワード系列の探索を行ない、その類似度を参照類似度として求める(S14)。
次に、音声認識装置100は、未登録語判定部104において、音声認識部101で求められた1位候補の単語(最も類似度の高い候補の単語)の類似度と、参照類似度計算部103で求められた参照類似度とを比較し、その比較結果が所定の閾値以内であるかを判断する(S16)。ここにいう所定の閾値とは、利用者の発話内容を、登録語であるか未登録語であるか判別するための閾値であり、登録語を発話した多数のサンプル音声と、未登録語を発話した多数のサンプル音声を用いて、音声認識部101および参照類似度計算部103それぞれによる類似度を求めて、これらの統計的分布から最適な閾値が決定される。
ここで、未登録語判定部104は、音声認識部101の1位候補単語の類似度と参照類似度計算部103による参照類似度とが、事前に統計的に定めた閾値以内である場合(S16のYes)、利用者の発話内容を音声認識語彙格納部102に含まれる単語(登録語)であると判定する(S18)。その後、音声認識装置100は、結果表示部107を介して、認識結果を利用者に提示し(S26)、処理動作を終了する。
一方、未登録語判定部104は、音声認識部101の1位候補単語の類似度と参照類似度計算部103による参照類似度とが、事前に統計的に定めた閾値を超えている場合(S16のNo)、利用者の発話内容を音声認識語彙格納部102に含まれない単語(未登録語)であると判定し(S20)、判定結果を未登録語候補検索部105に出力する。
未登録語判定部104で、利用者の発話内容が未登録語であると判定されると、音声認識装置100は、未登録語候補検索部105において、その発話内容から未登録語単語の検索を行なう(S22)。このとき、未登録語候補検索部105は、参照類似度計算部103で得られたサブワード系列と、未登録語単語格納部106に格納された多数の未登録語単語それぞれとを比較して、類似度に関連するスコアである未登録語スコアを求めることにより、スコアの高い未登録語、すなわち、利用者の発話内容と思われる未登録語を検索する。そして、未登録語候補検索部105は、利用者の発話内容と思われる未登録語の候補を、例えば、スコアの高いものから降順に複数語抽出し(S24)、その未登録語スコアと共に結果表示部107に出力する。その後、音声認識装置100は、結果表示部107を介して、判定結果と、抽出された未登録語の候補およびその未登録語スコアとを、利用者に提示し(S26)、処理動作を終了する。
ところで、一般に音声認識装置100は、音声認識装置100をマン・マシン・インタフェースの入力装置として利用するアプリケーションに応じて、認識する単語すなわち音声認識語彙が規定される。例えば、音声認識を入力手段として番組検索を行うアプリケーションの場合、検索対象の番組名や検索の際キーとなる出演者名などが音声認識語彙として規定されることになる。
このような応用を想定した上で本音声認識装置100は、利用者による発話内容が音声認識語彙格納部102に含まれる単語であるか否かによって異なる表示を行なう。
つまり、発話内容が音声認識語彙格納部102に含まれる単語である場合には、上述したように、音声認識語彙格納部102に格納された各単語の標準パタンまたは単語モデルと、入力音声との照合が音声認識部101で行なわれ、単語ごとの類似度が計算され類似度の高いものから降順に上位候補が得られ、その内容が結果表示部107に出力される。
具体的な例として、音声認識語彙格納部102に「松下太郎」という単語が存在すると仮定して、利用者が「マツシタタロウ」と発話した場合の例を図3に示す。またこの時、参照類似度計算部103では、入力音声に最も近いサブワード系列の探索が行なわれて、その類似度が参照類似度として求められる。
図4には、利用者による「マツシタタロウ」という発話に対する参照類似度計算部103の出力例を示す。
図3および図4に示した例では、1位候補の類似度“2041”と、参照類似度“2225”の差は、事前に統計的に求めておいた閾値(例えば、“200”)より小さいことから、未登録語判定部104は、利用者の発話内容は登録語であると判定する。発話内容の判定結果は、未登録語ではなかったので、この場合、未登録語候補検索部105は、未登録語検索を行なわず、そのまま認識結果を結果表示部107に出力し、結果表示部107を介して、認識結果として「松下太郎」が正しく表示される。図5に、この結果表示部107における結果表示の一例を示す。
図5に例示される形式の認識結果を見た利用者は、自身の発話内容が登録語であったことを一目で知ることができる。
他方、利用者による発話内容が音声認識語彙格納部102に存在しない単語である場合でも、音声認識部101は、音声認識語彙格納部102に格納された各単語との照合を行ない、単語ごとに類似度を求め、類似度の高いものから降順に上位候補を出力する。しかし、この場合、発話内容は音声認識語彙に含まれない単語であるため、これら候補の中に発話内容に一致する単語は存在しないことになるので、その出力例は、図6に示すようなものとなる。ここでは、先に述べた場合と同様に利用者の発話内容は「マツシタタロウ」であるが、音声認識語彙格納部102には、この単語、すなわち、「松下太郎」という単語は含まれていないとしている。
また、このとき、参照類似度計算部103では、入力音声に最も類似するサブワード列の探索とその類似度の計算が行なわれるが、これは発話内容が音声認識語彙に含まれているか否かには全く影響を受けない。この結果、参照類似度計算部103の出力は、図7に示すように、発話内容が音声認識語彙に含まれている場合の出力例(図4参照)と同様の出力となる。
続いて、未登録語判定部104は、上述したように、音声認識部101による1位候補の類似度と、参照類似度計算部103による参照類似度とを比較する。発話内容が音声認識語彙に含まれない場合では、この両者の類似度は大きく異なり、それらの差は予め定めた閾値より大きくなるため、これを根拠として、未登録語判定部104は、発話内容を未登録語と判定する。例えば、図6および図7に示した例では、音声認識部101における1位候補の類似度“1431”と、参照類似度“2225”とは、大きくかけ離れており、その差は予め定められた閾値(例えば、“200”)より大きいので、未登録語判定部104は、利用者の発話内容を未登録語と判定する。
未登録語判定部104で、利用者の発話内容が未登録語であると判定されると、未登録語候補検索部105は、参照類似度計算部103において得られたサブワード系列と、未登録語単語格納部106に格納された多数の未登録語単語それぞれとの比較を行ない、類似度に関連するスコアである未登録語スコアを算出する。そして、未登録語候補検索部105は、未登録語単語の中から、未登録語スコアの高い順に上位5つの候補を抽出して、その未登録語スコアと一緒に結果表示部107に出力する。
図8は、未登録語候補検索部105が、利用者の「マツシタタロウ」という発話に対して、参照類似度計算部103で得られたサブワード列「マツシマカノウ」に基づいて、未登録語を検索した結果の例を示す図である。ここで、未登録単語格納部106には「松下太郎」が格納されているとしている。
このように、未登録語候補検索部105による検索結果は、これらの単語が未登録語であるという情報と共に、結果表示部107に送られ、利用者の発話が未登録語として認識されたことが利用者に伝えられる。図8に示した例では、図9に示す結果が出力される。図9に例示される形式の認識結果を見た利用者は、自身の発話内容がシステムにとって未知であったことを、一目で知ることができる。
このような結果表示方法とすることによって、利用者の発話した内容が画面に表示されているため、利用者は、発話が正しく認識されたかどうかを疑う必要なく、正しく認識された単語が音声認識語彙に含まれていなかったことを明確に知ることができるようになる。
また、このような結果表示方法とした場合、未登録語候補として複数の単語を表示することになるので、利用者は、自らが発話した単語を捜すことが必要となる。しかし、出力される候補の数が少なければ、その手間は僅かで済む。しかも、このような未登録語候補の表示は、表示された単語について、未登録語であるがために、その後の処理を行なうことはできないことの表明を意図したものであるため、複数の未登録語候補の中から、利用者の発話した単語を利用者に選ばせるという手間は起こりえない。したがって、未登録語候補として複数候補を表示することのデメリットは非常に少ないといえる。
また、音声認識システムを実装する観点から見れば、未登録語候補を1単語に絞り込まなくてもよいということは、未登録語候補検索部105における検索精度は、高精度が要求されるわけではなく、また、その検索精度を実現するためのハードウェアリソースも低く抑えられる等、大きなメリットとなり得る。しかも、たとえ検索精度があまり高くなかったとしても、複数候補を表示することによって、利用者が発話した単語がその中に高い確率で含まれることとなり、利用者から見ても、その単語が未登録語であるが故に繰り返し発話を試みても無益であると知る上で、大きな実用性が得られる。
以下では、未登録語候補検索部105の動作について、より具体的に説明する。
本実施の形態1における未登録語候補検索部105では、未登録語候補の検索手法として、音素編集距離に基づく値を用いる。
この検索手法は、2つの単語をそれぞれ音素記号で表記した場合に、一方の単語の音素記号列を編集して、もう一方の音素記号列に書き換える作業を想定した場合に、何ステップの変更作業が必要であるかをカウントするものである。
この例を図10に示す。図10には、音素記号列“ABCDEF”(系列1)と、音素記号列“AXBYDF”(系列2)とが示されており、系列2から系列1に書き換えるために、必要なステップ(編集距離)は、挿入(挿入誤り)、置換(置換誤り)、削除(脱落誤り)の編集作業が各1回ずつ必要であることが示されている。すなわち、図10に示す例では、系列2から系列1に書き換える作業に必要な編集距離は、3(挿入1+置換1+削除1)となる。
未登録語候補検索部105では、参照類似度計算部103により求められたサブワード系列の音素記号列表現と、未登録語単語格納部106に格納された単語の音素記号列に対して、上述したような編集距離の計算を行ない、さらに、これを長さで正規化したものを1から引いて未登録語スコアとする。未登録語候補検索部105は、この処理を未登録語単語格納部106に格納された全ての単語に対して行ない、未登録語スコアの高い単語から降順に未登録語候補として抽出し、結果表示部107に出力する。先の図8に示した図は、このようにして得られた未登録語候補とその未登録語スコアの例である。
このように未登録語の検索手法を、音素系列の比較によって実現することの利点は、非常に多くの語彙が格納される未登録語単語格納部106に対する全探索を軽い処理で行なうことで、未登録語検索に必要な計算リソース(計算時間、計算に要するメモリ量、プロセッサ負荷、消費電力等)を小さく抑える点にある。これにより、例えば携帯情報端末装置といった計算リソースが制限されやすい装置においても、短時間のうちに未登録語候補を検索して利用者に表示して、利用者に軽快な使用感を与えることができる。
その反面、探索を簡便に行なうことによる検索精度の低下が懸念されるが、上述したように、未登録語候補は、複数の候補を出力することが許されているため、上位候補を複数出力することで利用者が発話した単語がその中に含まれる確率を高め、検索精度の低下に対応させることができる。また、未登録語検索を音声認識部101とは独立に実行することで、音声認識部101の認識処理に悪影響を与えないという効果も有する。
なお、本実施の形態1においては、未登録語判定のために参照類似度計算部103を設けたが、これは必須要件ではなく、音響モデルにガベッジモデルを加えるなど、その他の未登録語判定の手法を利用することも可能である。
また、本実施の形態1で説明した音声認識部101、音声認識語彙格納部102、および、参照類似度計算部103を代替して、図11に示すような未知発話検出装置を用いることもできる。
図11は、未知発話検出装置の機能的な構成を示すブロック図である。
音声片パタン格納部111は、入力音声の特徴パラメータとのマッチングに用いられる、標準的な音声の音声片を格納する。
ここで、音声片とは、音声の母音区間の後半部分と、これに後続する子音区間の前半部分とを連接したVCパタン、および、子音区間の後半部分と、これに後続する母音区間の前半部分とを連接したCVパタンの集合を意味している。ただし、音声片は、この他にも日本語をローマ字標記した場合のアルファベット1文字1文字にほぼ相当する音素の集合、日本語をひらがな標記した場合のひらがな1文字1文字にほぼ相当するモーラの集合、複数のモーラの連鎖を意味するサブワードの集合、さらに、これらの集合の混合集合であってもよい。
単語辞書格納部112は、上記音声片を連結して音声認識語彙の単語パタンを合成するための規則を格納する。
単語マッチング部113は、特徴パラメータの時系列で表現された入力音声と、上記合成された単語パタンとを比較し、その類似性に対応する、尤度を単語ごとに求める。
遷移確率格納部114は、音声片同士を任意に結合する場合における、結合の自然さを連続値で表現する遷移確率を格納する。ここでは、遷移確率として音素の2gram確率を用いる。音素の2gram確率とは、先行する音素xの後に、音素yが接続する確率P(y|x)を意味するもので、多数の日本語テキストデータなどを用いて事前に求めておく。ただし、遷移確率は、これ以外にモーラの2gram確率、サブワードの2gram確率、あるいは、これらの混合の2gram確率であってもよく、また2gram確率以外にも、3gram確率などであってもよい。
音声系列マッチング部115は、上記音声片パタンを任意に結合してできるパタンと、特徴パラメータの時系列として表現された入力音声との尤度を、上記遷移確率を考慮して計算し、得られた最大尤度とする。
候補スコア差計算部116は、上記単語マッチング部113で計算された単語ごとの尤度のうち、最も高い値を得た単語(1位候補)と次に高い値を得た単語(2位候補)の尤度の差を単語の長さで正規化して計算する。
候補・音素系列間類似度計算部117は、1位候補と2位候補の音響的な類似性を求めるため、1位候補の音素系列と2位候補の音素系列の系列間の距離を計算する。
候補・音声系列スコア差計算部118は、1位候補の尤度と、上記音声系列マッチング部115で計算された参照尤度との差を単語の長さで正規化して計算する。
候補・音声系列・音素系列類似度計算部119は、1位候補と、上記音声系列マッチング部115によって最適系列とされた系列の音響的な類似性を、各音素系列間の距離として計算する。
そして、このような未知発話検出装置を用いるとした場合、未登録語判定部104は、上記、候補スコア差計算部116、候補・音素系列間類似度計算部117、候補・音声系列スコア差計算部118、および、候補・音声系列・音素系列類似度計算部119で求められた各値を総合して、入力音声が未登録語であるか否かを判定する。このように、複数の未登録語検出のための尺度を統計的に組み合わせて判定することで、未登録語の判定精度が向上する。なお、ここでは、未登録語判定部104で用いる尺度として、4つの尺度を挙げたが、これ以外にも、各単語候補の尤度そのものや、その分布、また、単語区間内での局所スコアの変動量、単語を構成する音素の持続時間情報などの尺度も併用することも可能である。
また、この場合、複数の尺度を元に未登録語を判定する手法として、事前に多数の認識結果の事例を用いて求めた線型判別式を利用する。しかし、これ以外にも、ニューラルネットワーク、決定木、SVM(サポート・ベクトル・マシン)など、いわゆる学習機械の利用も有効である。
また、未登録語候補検索部105においては、音素系列間の編集距離に基づいた未登録語検索方法について述べたが、音素間の編集距離の定義として、挿入誤り、脱落誤り、置換誤りを全て編集距離“1”とするのではなく、実験的に得られたそれら誤りの発生確率に基づいた連続値を距離とすることも効果的である。
さらに、未登録語単語格納部106に、音声認識語彙格納部102と同様のフォーマットのデータを格納しておき、未登録語候補検索部105では、音声認識部101と同様に入力音声のパラメータから直接単語の照合を行なって、未登録語候補およびそれらの未登録語スコアを出力するという方法も可能である。このような構成とした場合、未登録語検索に要するリソースは増大する反面、未登録語の検索精度が向上するという効果が得られる。また、この場合においても、本発明の特長である、目的単語に対する認識率を低下させないという効果は維持されることになる。
さらに、未登録語単語格納部106に含まれる単語と、音声認識語彙格納部102に含まれる単語は重なりがないことを前提に説明をしてきたが、未登録語単語格納部106に格納される単語は、音声認識語彙格納部102に含まれる単語であっても良いものとし、代わりに未登録語候補検索部105において、音声認識語彙格納部102に含まれる単語が検索された場合には、これを除外して結果表示部107に出力するとしてもよい。このようにすることで、音声認識語彙格納部102の内容に関わらず未登録語単語格納部106の語彙を確定することが可能となり、未登録語単語格納部106のメンテナンスが容易になるという効果が得られる。
また、本実施の形態1では、入力発声は単語発声であるものとして説明を述べてきたが、入力発声は文発声であっても構わない。この場合、未登録語判定部104において、文発声中に未登録語単語が含まれていないか、含まれている場合には、どの位置に未登録語単語があるかを判定する処理が必要となるが、その他の動作は全く同様である。
また、本実施の形態1では、未登録語候補検索部105は、5語の未登録語候補を出力するものとして説明したが、未登録語候補検索部105の未登録語検索精度に応じて、これを変更することは有効であり、また、各未登録語の類似度に応じて出力する候補数を、未登録語候補検索部105で可変としてもよい。したがって、未登録語候補検索部105の検索精度または検索された未登録語の未登録語スコアによっては、出力される未登録語候補の数は1つとなる場合もある。このような構成とすることで、候補リストに発話した単語があるか否かを、利用者に判断させる場合に、無用な負荷を利用者にかけずに済むという効果が得られる。
さらに、図9に示した出力の例では、全ての未登録語候補が同様に表示される例を示したが、結果表示部107における表示は、未登録語候補の未登録語スコアに応じてフォントサイズを変更するとしたり、字体をボールドにしたり、色を変更したりするといった手法によって、利用者の発話内容と思われる候補をより強調することも可能である。これによって、発話単語をリストから探す際の利用者の負荷を軽減する効果が得られる。
(実施の形態2)
次に、本発明の実施の形態2に係る音声認識装置について説明する。
図12は、本実施の形態2に係る音声認識装置の機能的な構成を示すブロック図である。
図12に示すように、音声認識装置200は、音声認識部101、音声認識語彙格納部102、参照類似度計算部103、未登録語判定部104、未登録語候補検索部105、および、結果表示部107を備えている点で、上記実施の形態1に係る音声認識装置100と共通する。しかし、本実施の形態2に係る音声認識装置200は、未登録語クラス判定部201および未登録語クラス別単語格納部202を備えている点で、上記実施の形態1に係る音声認識装置100と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態1と共通する各部には、同一の符号を付して、その説明を省略する。
未登録語クラス判定部201は、発話された単語が未登録語である場合に、利用者による発話内容やシステムの利用状況から、未登録語がどのようなカテゴリに属するものか判定を行なう処理部である。
未登録語クラス別単語格納部202は、未登録語単語をカテゴリ毎に分類して格納するハードディスク等の記憶装置である。
続いて、本実施の形態2に係る音声認識装置200の動作について述べる。
本実施の形態2においても、利用者の発話内容が音声認識語彙格納部102に含まれる単語である場合、その動作は実施の形態1に示したものと同様である。
利用者の発話が未登録語であった場合には、参照類似度計算部103による参照類似度に基づいて、未登録語判定部104において未登録語判定が行なわれる。同時に未登録語クラス判定部201において、前記未登録語がどのようなカテゴリに属する単語であるかの判定が行なわれる。ここで、未登録語のカテゴリとは、たとえば図13に示すように、芸能人名のような固有人名、番組タイトルのような固有タイトル名、名所・観光地のような固有地名などを指す。なお、未登録語クラス判定部201における未登録語カテゴリの判定方法については後述する。
利用者の発話した単語が未登録語であり、かつ、その単語がどのようなカテゴリに属する単語であるか推定されると、未登録語候補検索部105で未登録語の検索が行なわれる。この際、未登録語候補検索部105は、未登録語クラス判定部201によるクラス判定結果に基づいて、未登録語クラス別単語格納部202の検索範囲を絞り込んで、未登録語の検索を行なう。このようにして、音声認識装置200は未登録語候補を取得すると、実施の形態1の場合と同様に結果表示部107を介して未登録語候補を利用者に提示する。
ここで、未登録語クラス判定部201の動作について、詳細に述べる。
利用者による発話が文発声である場合には、認識された文中の未登録語の前後の情報から、未登録語カテゴリの判定を行なうことができる。例えば、利用者の発話が「○○の出演している番組が見たい」であった場合には、「○○」は固有人名クラスの未登録語であるとみなし、「明日の△△を録画して」という発話に対しては、△△は番組タイトルクラスの未登録語であるとみなす。このように文の前後のコンテキストから、目的個所の単語のクラスを推定するモデルとしては、未登録語クラスを含んだクラスNグラム言語モデルの利用が可能である。未登録語クラスを含んだクラスNグラム言語モデルを利用する場合の未登録語クラス判定部の機能構成を図14に示す。
図14に示すように、クラスNグラム言語モデルを利用する場合の未登録語クラス判定部201aは、単語列仮説生成部211と、クラスNグラム生成蓄積部221と、クラス依存単語Nグラム生成蓄積部231とを備える。
単語列仮説生成部211は、単語および未登録語クラスの系列を評価するクラスNグラムと、未登録語クラスを構成する単語列を評価するクラス依存単語Nグラムとを参照して単語照合結果から単語列仮説を生成し、認識結果を取得する。
クラスNグラム生成蓄積部221は、言語的な確率の対数値である言語尤度を未登録語クラスを含む文脈に付与するためのクラスNグラムを生成し、生成したクラスNグラムを蓄積する。
クラス依存単語Nグラム生成蓄積部231は、言語的な確率の対数値である言語尤度を未登録語クラス内の単語系列に付与するためのクラス依存単語Nグラムを生成し、生成したクラス依存単語Nグラムを蓄積する。
図15に、クラスNグラム生成蓄積部221の機能構成を示す。
図15に示すように、クラスNグラム生成蓄積部221は、認識対象となる文表現がテキストとして予め多数蓄積された文表現コーパス蓄積部222と、文表現を形態素解析する文表現用形態素解析部223と、単語列クラス定義を参照して形態素結果から、単語や未登録語クラスの連鎖の統計量を求めてクラスNグラムを生成するクラスNグラム生成部224と、クラスNグラムを蓄積し、単語列仮説生成部211に出力するクラスNグラム蓄積部225とから構成される。
文表現コーパス蓄積部222は、認識対象となる文表現のデータライブラリを予め多数蓄積する。
文表現用形態素解析部223は、文表現コーパス蓄積部222が蓄積している「明日の天気予報を録画して」などの比較的長い文表現であるテキストから、意味を有する最小の言語単位である形態素を解析する。
クラスNグラム生成部224は、形態素に解析されたテキストに含まれる単語列を抽出し、後述するクラス依存単語Nグラム生成蓄積部231から入力される未登録語クラスを参照し、該当する未登録語クラスが存在する場合は、テキストに含まれる未登録語クラスを仮想的な単語に置き換え、単語又は未登録語クラスの連鎖の統計量を求めることで単語又は未登録語クラスの連鎖とその確率とを対応付けたクラスNグラムを生成する。クラスNグラム生成部224によって生成されたクラスNグラムは、クラスNグラム蓄積部225に蓄積される。
このように各単語連鎖の頻度を計測しておくことで、条件付き確率を計算でき、また、未登録語クラスは仮想的に1単語として扱うことができ、単語ごとに条件付き確率が付加された言語モデルとなる。
続いて、図16に、クラス依存単語Nグラム生成蓄積部231の機能構成を示す。
図16に示すように、クラス依存単語Nグラム生成蓄積部231は、クラスコーパス蓄積部232と、クラス用形態素解析部233と、クラス依存単語Nグラム生成部234と、クラス依存単語Nグラム蓄積部235と、未登録語クラス定義生成部236と、未登録語クラス定義蓄積部237とから構成される。
クラスコーパス蓄積部232は、意味的な性質や、構文的な性質が同一である未登録語(例えば、テレビ番組のタイトルや、人名等)のデータライブラリを予め蓄積する。
クラス用形態素解析部233は、クラスコーパスを形態素解析する。具体的には、クラス用形態素解析部122は、クラスコーパス蓄積部121が蓄積している「MMM天気予報」の様なテレビ番組名などの比較的短く、共通の性質を持つ未登録語を、形態素単位に解析する。
クラス依存単語Nグラム生成部234は、形態素解析結果を処理し、単語の連鎖の統計量を求めて、単語列とその確率とを対応付けた情報であるクラス依存単語Nグラムを生成する。
クラス依存単語Nグラム蓄積部235は、クラス依存単語Nグラム生成部234が生成したクラス依存単語Nグラムを蓄積する。このクラス依存単語Nグラム蓄積部235に蓄積されたクラス依存単語Nグラムは、音声認識の際に単語列仮説生成部211に参照される。
未登録語クラス定義生成部236は、クラスコーパスの形態素解析結果から共通の性質を持つ未登録語をクラスとして定義した未登録語クラスの定義を生成する。すなわち、共通の性質を持つ未登録語を形態素解析し、得られた単語列を未登録語クラスの単語列とするクラスの定義を生成する。
未登録語クラス定義蓄積部237は、未登録語クラス定義生成部236が生成した未登録語クラス定義を蓄積する。この未登録語クラス定義は、上記クラスNグラムの生成の際にクラスNグラム生成蓄積部221のクラスNグラム生成部224によって参照される。
以上のような構成を有する未登録語クラス判定部201aにおいて利用されるクラスNグラム言語モデルでは、一般的に、I個の単語からなる単語系列W1...WIの生起する確率を単語n連鎖の確率を用いて、下記の数式1のように定式化する。
Figure 0004705023
ここで、W1、W2、...、WIは個々の単語を表わし、C1、C2、...、CIはそれぞれ対応する単語の属するクラスを意味する。
従って、P(Cj|Cj-n+1,...,Cj-1)は、単語クラスのn連鎖が生起する確率を意味し、P(Wj|Cj)はこのクラスCjから具体的な単語Wjが生起する確率を意味する。ここで、クラスとは、単語の品詞や、さらにそれを細分化した単位など、単語の接続性を考慮したまとまりを意味する。
なお、このような一般的なクラスNグラム言語モデルを用いる場合、Wjは未登録語であるため、未登録語クラスに対してP(Wj|Cj)を予め求めておくことはできない。未登録語のためのP(Wj|Cj)を持つモデルの1つが、上記図14〜16によって機能構成を示した、未登録語単語Wjをより小さく基本的な単語の連鎖としてモデル化する方法である(特願2003−276844号「連続音声認識装置および連続音声認識方法」参照。)。
このようなモデルを用いて未登録語のカテゴリを判定するモデルとする場合には、判定を行なう未登録語のカテゴリごとに「未登録語固有人名クラス」、「未登録語固有番組クラス」のようにクラスを定義して言語モデルのトレーニングを行なう。
このようなトレーニングによるn=3とした言語モデルの例を図17に示す。この例に示された言語モデルを用いると、「○○を録画」の生起する確率は、「○○」を固有番組名クラスの単語と考えた場合、
Figure 0004705023
となる。
これに対して、「○○」を固有人名クラスと考えた場合、
Figure 0004705023
となる。
すなわち、この場合、「○○」を固有番組名クラスと考えた方が、生起確率が高くなることから、これを固有番組名クラスと判定することができる。
全く同様に、「△△の出演」の生起する確率は、「△△」を固有番組名クラスと考えた場合、
Figure 0004705023
となる。
これに対して、「△△」を固有人名クラスと考えた場合には、
Figure 0004705023
となる。
すなわち、「△△」を固有人名クラスと考えた方が、生起確率が高くなることから、これを固有人名クラスと判定することができる。
このように、本実施の形態2に係る音声認識装置200によれば、例えば、利用者の発話が「今日の“松下太郎”の出ている番組」であって「松下太郎」が未登録語であった場合、「松下太郎」を固有人名のクラスに属する未登録語と推定し、未登録語クラス別単語格納部202中の、固有人名クラスの未登録語単語格納部から未登録語候補の検索を行なう。そして、その検索の結果として取得した複数の未登録語候補を結果表示部107を介して利用者に提示し、既に示した図9のような応答を行なう。
これに対して、利用者の発話が「明日の“太陽を撃て”を録画して」であって、「太陽を撃て」が未登録語であった場合、「太陽を撃て」を固有番組名クラスに属する未登録語と推定し、未登録語クラス別単語格納部202中の、固有番組名クラスの未登録語単語格納部から未登録語候補の検索を行なう。そして、その検索の結果として取得した複数の未登録語候補、例えば、図18に示すような未登録語固有番組クラスの単語候補を、結果表示部107を介して利用者に提示する。
このように未登録語の検索範囲を未登録語のカテゴリに応じて絞り込むことによる効果は、例えば、人物検索をしているにもかかわらず番組名を提示するといった、利用者が本来意図していなかったカテゴリの単語を未登録語として提示し、利用者を惑わせてしまうのを防止することができる点と、検索範囲を絞り込むことで未登録語の検索精度が向上する点を挙げることができる。
なお、本実施の形態2では、未登録語クラス判定部における未登録語カテゴリの判定方法として、クラスNグラム言語モデルを用いた判定方法の例を示した。このような判定方法以外にも、この未登録語提示手段を搭載した音声認識システムを音声対話システムの入力インタフェースとして用いるような場合において、対話の文脈情報を利用する方法が可能である。この方法では、音声対話システムの対話管理部において、対話履歴情報から利用者が発話する可能性の高い単語カテゴリに関する推定情報を生成し、これを未登録語クラス判定部に伝達する。未登録語クラス判定部は、伝達された単語カテゴリに関する推定情報から、未登録語単語のカテゴリの判定を行なう。このような構成とする場合の未登録語クラス判定部のブロック図を、図19に示す。
この場合、未登録語クラス判定部201bは、外部アプリケーションから発話単語のカテゴリを取得する単語カテゴリ情報受信部241と、単語カテゴリ情報受信部241の取得したカテゴリに基づいて、未登録語と判定された単語のカテゴリを決定する未登録語クラス決定部242とを備えている。このような構成を採ることによる効果は、未登録語カテゴリの判定をクラスNグラム言語モデルを用いて行なう場合には、期待される入力発声が文発声でなければならなかったのに対して、対話管理部などアプリケーションでの推定結果を用いることで、入力音声が単語発声であってもカテゴリの判定ができることが挙げられる。
(実施の形態3)
続いて、本発明の実施の形態3に係る音声認識装置について説明する。
図20は、本実施の形態3に係る音声認識装置の機能的な構成を示すブロック図である。
図20に示すように、音声認識装置300は、音声認識部101、音声認識語彙格納部102、参照類似度計算部103、未登録語判定部104、未登録語候補検索部105、および、結果表示部107を備えている点で、上記実施の形態1等に係る音声認識装置100等と共通する。しかし、本実施の形態3に係る音声認識装置300は、ネットワーク302を介して未登録語単語サーバ303と接続される未登録語単語格納部301を備えている点で、上記実施の形態1等に係る音声認識装置100等と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態1等と共通する各部には、同一の符号を付して、その説明を省略する。
未登録語単語格納部301は、未登録語候補検索部105における未登録語検索の対象となる多数の未登録語を格納すると同時に、通信手段によってその格納情報を更新する機能を有する。
ネットワーク302は、インターネットや電話回線等の通信網である。
未登録語単語サーバ303は、必要な最新の未登録語単語を格納し、クライアント(ここでは、音声認識装置300)からのリクエストに対して、これらの情報を提供するサーバ装置である。
次に、このように構成される音声認識装置300の動作を説明する。
本実施の形態3における、利用者の発話に対する音声認識装置の出力のフローは、実施の形態1に示したものと同様である。実施の形態3における相異点は、未登録語候補検索部105が参照する未登録語単語格納部301のメンテナンス方法にある。
本実施の形態3において、未登録語単語格納部301は任意に更新可能なものとなっている。すなわち、固有人名や固有番組名など、日々変化し増加する単語を固定的に保持していたのでは、未登録語候補検索時に利用者の発話単語を検索できないという事態が起こり得る。例えば、テレビ放送における番組改変の時期や、プロスポーツにおける新しいシーズンの開始時期などにおいては、放映される番組タイトルに新しいタイトルが現われたり、新しい芸能人や新しいスポーツ選手名が登場したりするようになり、これらは未登録語となる。
そのため、未登録語単語格納部301に格納される単語を更新可能とし、これらの新しい未登録語を未登録語単語格納部301に格納することで、未登録語候補検索時に利用者が発話する単語を検索できないという事態を回避することができる。
未登録語単語格納部301に格納される単語の更新作業は、具体的には以下のようにして行なう。
未登録語単語格納部301に登録されていない未登録語が急増すると考えられる日を予め定めておき、この日が来ると自動的に未登録語単語更新要求を、電話回線やインターネットなどのネットワーク302を経由して、未登録語単語サーバ303に送信する。あるいは、常に未登録語単語格納部301が予め定められたスケジュールに従って更新を行なうだけでなく、未登録語登録の不足を感じた利用者が更新要求を行なうことによって、未登録語単語格納部301から未登録語単語サーバ303へ更新要求を送信する。さらにまた、未登録語単語格納部301が、常時、能動的に更新要求を未登録語単語サーバ303に送信するだけでなく、一定量の未登録語が追加されたことを検出した未登録語単語サーバ303が、各クライアントの未登録語単語格納部301へ更新情報を送信するとしてもよい。更新要求を受けた、または、新規の未登録語が規定量に達して更新が必要と判断した未登録語単語サーバ303は、追加された単語に関する情報を、クライアントの未登録語単語格納部301へ返信する。
このようにすれば、未登録語単語は、未登録語単語サーバ303上でのみ正しくメンテナンスされておればよく、各クライアントは、未登録語単語サーバ303にアクセスするための通信手段だけ有していれば、常に未登録語単語格納部301を最適な状態に維持することができる。
また、このように、外部のサーバから新たな未登録語を提供することにより、日々増加する固有人名や固有タイトルのような未登録語について、これらを未登録語単語格納部301に登録する手間を利用者に要求することなく、未登録語単語格納部301を最適な状態に保つことが可能となるという効果を得ることができる。
なお、本実施の形態3では、最適にメンテナンスされた、単語を更新する作業専用の未登録語単語サーバ303に従って未登録語単語格納部301が格納する単語を更新するものとしたが、更新作業専用に特化されていないサーバが持つ情報を使って、単語更新することも可能である。
例えば、テレビ放送においては、EPG(Electronic Program Guide)と呼ばれる電子番組表が放送波に合わせて送信されている。ここに記録された出演者名や番組タイトルを自動抽出し、これを未登録語単語格納部301に格納することが可能である。同様にインターネットのWEBサービスでは、芸能人に関する情報が記載されたサイトや、番組に関する情報が記載されたサイトなどが多数存在する。これらを順次巡回することで必要な情報を収集し、未登録語単語格納部301に格納することも可能である。さらに利用者による過去の未登録語参照履歴から、利用者が発話する可能性の少ないジャンル、たとえばプロ野球選手名、外国映画俳優名、日本映画タイトルなどのジャンル情報を予め抽出しておき、これら抽出されたジャンルの未登録語は、未登録語単語サーバ303から取得しないようにすることも可能である。これにより、未登録語単語格納部301を無用に肥大化させるのを防ぐという効果を得ることもできる。
また、音声認識語彙格納部102に格納される単語を更新する変形も考えられる。この変形の具体例として、図外に設けられるサーバが、利用者によって近い将来に発話される可能性が高いと考えられる単語を選択し、選択された単語に関して音声認識語彙格納部102の内容を更新してもよい。そのような単語として、例えば、この音声認識装置300が録画予約システムに適用される場合、前述したEPGに記録された出演者名や番組タイトルの中から1週間以内に放送予定の番組に関連する単語を好適に用いることができる。そして、そのサーバは、抽出された単語の認識に音声認識部101が用いる情報を生成し、生成された情報で音声認識語彙格納部102の内容を更新する。
このような更新操作は、未登録語単語サーバ303からネットワーク302を経由して未登録語単語格納部301の内容を更新する操作と、全く同様に行うことができる。好ましくは、日々、過去の放送予定となった番組に関連する単語の認識用の情報を削除すると共に、1週間先の放送予定の番組に関連する単語の認識用の情報を追加してもよい。
この構成によれば、登録語の使用頻度が予め知られた時間変動を見せる場合に、その変動に追従して外部から与えられる認識用の情報(音声認識語彙)を用いて、高い使用頻度が見込まれる比較的少数の認識用情報のみを音声認識語彙格納部102に記憶させておくことができるので、認識時間を短縮すると共に良好な認識率を得ることが容易となる。
(実施の形態4)
さらに続いて、本発明の実施の形態4に係る音声認識装置について説明する。
図21は、本発明の実施の形態4に係る音声認識装置の機能的な構成を示すブロック図である。
図21に示すように、音声認識装置400は、音声認識部101、音声認識語彙格納部102、参照類似度計算部103、未登録語判定部104、および、結果表示部107を備えている点で、上記実施の形態1〜3に係る音声認識装置100等と共通する。しかし、本実施の形態4に係る音声認識装置400は、ネットワーク402を介して未登録語検索サーバ403と接続される未登録語検索要求送受信部401を備えている点で、上記実施の形態1〜3に係る音声認識装置100等と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態1等と共通する各部には、同一の符号を付して、その説明を省略する。
未登録語検索要求送受信部401は、ネットワーク402を経由して、未登録語の検索要求を未登録語検索サーバ403に送信し、未登録語検索サーバ403から未登録語の検索結果を受信する処理部であり、通信インタフェース等によって実現される。この未登録語検索要求送受信部401は、未登録語の検索が必要となった場合に、実施の形態1で述べたような参照類似度計算部103で求めたサブワード系列や、入力音声の未登録語部分のパラメータなど、未登録語発話個所の発話内容を表わす情報をネットワーク402を経由して未登録語検索サーバ403に送信し、また、未登録語検索サーバからの返信を未登録語検索結果として、結果表示部107に出力する。
ネットワーク402は、インターネットや電話回線等の通信網である。
未登録語検索サーバ403は、クライアント(音声認識装置400)からの要求に応じて未登録語の検索を行なうサーバ装置であり、未登録語検索部404と未登録語単語格納部405とを備える。
未登録語検索部404は、未登録語検索を行なう処理部であるとともに、未登録語に関する情報をネットワーク402を介してクライアントから受信し、その検索結果をネットワーク402を経由して返信する通信機能も有している。
未登録語単語格納部405は、未登録語単語に関する情報を格納するハードディスク等の記憶装置である。
次に、このように構成される音声認識装置400の動作を説明する。
本実施の形態4における、利用者の発話に対する音声認識装置の出力のフローは、実施の形態1に示したものと同様である。実施の形態4における相異点は、実施の形態1における未登録語候補検索部105を内部に持たずに、未登録語候補の検索作業を外部のサーバに委託する点である。
すなわち、利用者による発話に未登録語が含まれていたと判断された場合には、参照類似度計算部103で求められた未登録語個所のサブワード系列を、未登録語検索要求送受信部401が未登録語検索サーバ403に送信する。クライアントから未登録語個所のサブワード系列を受信した未登録語検索部404は、未登録語単語格納部405に格納された単語群から、利用者により発話された未登録語の検索を行なう。ここで、サブワード系列を用いて未登録語を検索する方法は、上記した実施の形態1で図10を用いて説明した方法などが有効である。このようにして得られた検索結果は、未登録語候補としてネットワーク402を経由して未登録語検索要求送受信部401に返される。未登録語検索要求送受信部401は、返信された未登録語検索結果を結果表示部107に渡し、結果表示部107を介して利用者の発話した単語が未登録語であったことを利用者に提示する。
以上のように、未登録語検索を行なう処理を外部のサーバに代替して行なわせ、リモートに配置することにより、日々変化し、また増大する未登録語単語格納部のメンテナンスを一元化して、維持コストを低く抑えることが可能になるという効果を得ることができる。
また、大語彙のリストの中から目的の単語の検索を行なうには、大きな計算リソースが必要であるところ、このような作業を外部に委託することにより、音声認識装置自体のハードウェア構成をコンパクトにすることができるという効果も得られる。
また反対に、サーバ側では一般に比較的大きなハードウェア構成とすることが可能であるから、携帯端末等のクライアント側に搭載するのは、ハードウェア構成として難しいような未登録語の検索アルゴリズムを実装することが可能となり、未登録語の検索精度を高めることも実現可能となりうる。
なお、上記実施の形態4では、未登録語検索のための検索データとしてサブワード系列を用いる例を示したが、実施の形態1でも述べたように、利用者による発話音声そのものや、そこから抽出した音響パラメータを用いて未登録語検索を行なうように、未登録語検索サーバを実現することも可能である。
本発明は、機器への入力手段として音声認識技術を利用する種々の電子機器、例えばテレビ、ビデオ等のAV機器、カーナビゲーションシステムなどの車載器、PDAや携帯電話などの携帯端末器等に利用することができ、その産業上の利用可能性は、非常に広く、かつ、大きい。
図1は、本発明の実施の形態1に係る音声認識装置の機能的な構成を示すブロック図である。 図2は、本実施の形態1に係る音声認識装置の動作を示すフローチャートである。 図3は、本実施の形態1に係る認識語彙発話時の音声認識部の出力例を示す図である。 図4は、本実施の形態1に係る認識語彙発話時の参照類似度計算部の出力例を示す図である。 図5は、本実施の形態1に係る認識語彙発話時の結果表示例を示す図である。 図6は、本実施の形態1に係る未登録語発話時の音声認識部の出力例を示す図である。 図7は、本実施の形態1に係る未登録語発話時の参照類似度計算部の出力例を示す図である。 図8は、本実施の形態1に係る未登録語候補検索部の出力例を示す図である。 図9は、本実施の形態1に係る未登録語発話時の結果表示例を示す図である。 図10は、本実施の形態1に係る未登録語検索時の音素系列間類似度の計算方法を示す図である。 図11は、未知発話検出装置の機能的な構成を示すブロック図である。 図12は、本発明の実施の形態2に係る音声認識装置の機能的な構成を示すブロック図である。 図13は、本実施の形態2に係る未登録語カテゴリの例を示す図である。 図14は、クラスNグラム言語モデルを利用する未登録語クラス判定部の機能構成を示すブロック図である。 図15は、クラスNグラム生成蓄積部の機能構成を示すブロック図である。 図16は、クラス依存単語Nグラム生成蓄積部の機能構成を示すブロック図である。 図17は、本実施の形態2に係る未登録語クラス判定のためのクラスNグラム言語モデルの例を示す図である。 図18は、本実施の形態2に係る異なるクラスの未登録語の発話時の結果表示例を示す図である。 図19は、本実施の形態2に係る外部アプリケーションから未登録語クラス判定のための情報を取得する、未登録語クラス判定部の構成を示す図である。 図20は、本発明の実施の形態3に係る音声認識装置の機能的な構成を示すブロック図である。 図21は、本発明の実施の形態4に係る音声認識装置の機能的な構成を示すブロック図である。
符号の説明
100、200、300、400 音声認識装置
101 音声認識部
102 音声認識語彙格納部
103 参照類似度計算部
104 未登録語判定部
105 未登録語候補検索部
106、301 未登録語単語格納部
107 結果表示部
111 音声片パタン格納部
112 単語辞書格納部
113 単語マッチング部
114 遷移確率格納部
115 音声系列マッチング部
116 候補スコア差計算部
117 候補・音素系列間類似度計算部
118 候補・音声系列スコア差計算部
119 候補・音声系列・音素系列類似度計算部
201、201a、201b 未登録語クラス判定部
202 未登録語クラス別単語格納部
211 単語列仮説生成部
221 クラスNグラム生成蓄積部
222 文表現コーパス蓄積部
223 文表現用形態素解析部
224 クラスNグラム生成部
225 クラスNグラム蓄積部
231 クラス依存単語Nグラム生成蓄積部
232 クラスコーパス蓄積部
233 クラス用形態素解析部
234 クラス依存単語Nグラム生成部
235 クラス依存単語Nグラム蓄積部
236 未登録語クラス定義生成部
237 未登録語クラス定義蓄積部
241 単語カテゴリ情報受信部
242 未登録語クラス決定部
302、402 ネットワーク(通信手段)
303 未登録語単語サーバ
401 未登録語検索要求送受信部
403 未登録語検索サーバ
404 未登録語検索部
405 未登録語単語格納部

Claims (17)

  1. 発話された音声を認識して当該認識の結果を提示する音声認識装置であって、
    音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、
    前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、
    前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算手段と、
    前記音声認識手段照合された前記登録語と前記発話された音声との類似度前記参照類似度計算手段で求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、
    前記未登録語を記憶する未登録語単語記憶手段と、
    前記未登録語判定手段で未登録語と判定された場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する未登録語候補検索手段と、
    前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示手段とを備える
    ことを特徴とする音声認識装置。
  2. 前記未登録語候補検索手段は、
    複数の未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する
    ことを特徴とする請求項1記載の音声認識装置。
  3. 前記未登録語単語記憶手段は、
    前記未登録語の属するカテゴリに応じて、前記カテゴリごとに分類して前記未登録語を記憶している
    ことを特徴とする請求項1または2記載の音声認識装置。
  4. 前記音声認識装置は、さらに、
    前記発話された音声に基づいて、前記未登録語の属するカテゴリを判定する未登録語クラス判定手段を備える
    ことを特徴とする請求項3記載の音声認識装置。
  5. 前記未登録語候補検索手段は、
    前記未登録語クラス判定手段の判定結果に基づいて、前記未登録語候補を、前記未登録語単語記憶手段における分類されたカテゴリの中から検索する
    ことを特徴とする請求項4記載の音声認識装置。
  6. 前記音声認識装置は、さらに、
    前記カテゴリに関する情報を取得する情報取得手段を備え、
    前記未登録語候補検索手段は、
    前記情報取得手段が取得した情報に基づいて、前記未登録語候補を、前記未登録語単語記憶手段における分類されたカテゴリの中から検索する
    ことを特徴とする請求項3記載の音声認識装置。
  7. 前記結果表示手段は、
    前記未登録語候補検索手段における検索結果から前記音声認識用単語記憶手段に記憶されている登録語を除外して、前記検索結果を表示する
    ことを特徴とする請求項1記載の音声認識装置。
  8. 前記未登録語候補検索手段は、前記発話された音声との類似する度合いを数値化した未登録語スコアを計算することにより、前記未登録語候補を検索する
    ことを特徴とする請求項1記載の音声認識装置。
  9. 前記結果表示部は、前記検索結果として、前記未登録語候補とその未登録語スコアとを表示する
    ことを特徴とする請求項8記載の音声認識装置。
  10. 前記結果表示部は、前記未登録語スコアに応じて、前記未登録語候補の表示を変更する
    ことを特徴とする請求項9記載の音声認識装置。
  11. 前記未登録語単語記憶手段に記憶されている未登録語は、所定の条件下で更新される
    ことを特徴とする請求項1記載の音声認識装置。
  12. 前記音声認識装置は、さらに、
    前記未登録語単語記憶手段に記憶されていない未登録語群を記憶する未登録語単語サーバと通信する通信手段を備え、
    前記通信手段が前記未登録単語サーバから前記未登録語群を受信することによって、前記未登録語単語記憶手段に記憶されている未登録語を更新する
    ことを特徴とする請求項11記載の音声認識装置。
  13. 前記音声認識用単語記憶手段に記憶されている登録語は、所定の条件下で更新される
    ことを特徴とする請求項1記載の音声認識装置。
  14. 発話された音声を認識して当該認識の結果を提示する音声認識システムであって、
    前記音声認識システムは、
    発話された音声を認識する音声認識装置と、前記音声認識装置に登録されていない未登録語を検索する未登録語検索サーバとを備え、
    前記音声認識装置は、
    音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、
    前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、
    前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算手段と、
    前記音声認識手段照合された前記登録語と前記発話された音声との類似度前記参照類似度計算手段で求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、
    前記未登録語判定手段で未登録語と判定された場合に、前記未登録検索サーバに、前記発話された音声に対応すると思われる未登録語候補の検索を要求する検索要求送信手段と、
    前記未登録語検索サーバから前記未登録語候補の検索結果を取得する検索結果受信手段と、
    前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示手段とを備え、
    前記未登録語検索サーバは、
    前記未登録語を記憶する未登録語単語記憶手段と、
    前記検索要求送信手段から前記検索要求を受信する検索要求受信手段と、
    前記検索要求受信手段が前記検索要求を受信した場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語単語記憶手段に記憶されている未登録語の中から検索する未登録語候補検索手段と、
    前記検索結果を前記音声認識装置に送信する検索結果送信手段とを備える
    ことを特徴とする音声認識システム。
  15. 発話された音声を認識して当該認識の結果を提示する音声認識装置と、前記音声認識装置に登録されていない未登録語を検索する未登録語検索サーバとから構成される音声認識システムにおける音声認識装置であって、
    音声認識のための語彙を定義し、登録語として記憶する音声認識用単語記憶手段と、
    前記発話された音声と、前記音声認識用単語記憶手段に記憶されている登録語とを照合する音声認識手段と、
    前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算手段と、
    前記音声認識手段照合された前記登録語と前記発話された音声との類似度前記参照類似度計算手段で求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語記憶手段に記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定手段と、
    前記未登録語判定手段で未登録語と判定された場合に、前記未登録検索サーバに、前記発話された音声に対応すると思われる未登録語候補の検索を要求する検索要求送信手段と、
    前記未登録語検索サーバから前記未登録語候補の検索結果を取得する検索結果受信手段と、
    前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示手段とを備える
    ことを特徴とする音声認識装置。
  16. 発話された音声を認識して当該認識の結果を提示する音声認識方法であって、
    前記発話された音声と、音声認識のための語彙を定義し、登録語として記憶する音声認識用単語データベースに記憶されている登録語とを照合する音声認識ステップと、
    前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算ステップと、
    前記音声認識ステップにおいて照合された前記登録語と前記発話された音声との類似度前記参照類似度計算ステップにおいて求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語データベースに記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定ステップと、
    前記未登録語判定ステップで未登録語と判定された場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語を記憶する未登録語単語データベースに記憶されている未登録語の中から検索する未登録語候補検索ステップと、
    前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示ステップとを含む
    ことを特徴とする音声認識方法。
  17. 発話された音声を認識して当該認識の結果を提示する音声認識装置のためのプログラムであって、
    前記発話された音声と、音声認識のための語彙を定義し、登録語として記憶する音声認識用単語データベースに記憶されている登録語とを照合する音声認識ステップと、
    前記発話された音声との類似度が最も高くなる、音響の単位となるサブワードを組み合わせてなる系列を探索し、当該探索された系列に関する参照類似度を求める参照類似度計算ステップと、
    前記音声認識ステップにおいて照合された前記登録語と前記発話された音声との類似度と、前記参照類似度計算ステップにおいて求められた前記参照類似度とを比較することで、前記発話された音声が、前記音声認識用単語データベースに記憶されている登録語であるか、記憶されていない未登録語であるかを判定する未登録語判定ステップと、
    前記未登録語判定ステップで未登録語と判定された場合に、前記発話された音声に基づいて、前記発話された音声に対応すると思われる未登録語候補を、前記未登録語を記憶する未登録語単語データベースに記憶されている未登録語の中から検索する未登録語候補検索ステップと、
    前記発話された音声が未登録語である旨とともに、前記検索結果を表示する結果表示ステップとをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2006514478A 2004-06-10 2005-06-02 音声認識装置、音声認識方法、及びプログラム Expired - Fee Related JP4705023B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006514478A JP4705023B2 (ja) 2004-06-10 2005-06-02 音声認識装置、音声認識方法、及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004173147 2004-06-10
JP2004173147 2004-06-10
PCT/JP2005/010183 WO2005122144A1 (ja) 2004-06-10 2005-06-02 音声認識装置、音声認識方法、及びプログラム
JP2006514478A JP4705023B2 (ja) 2004-06-10 2005-06-02 音声認識装置、音声認識方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2005122144A1 JPWO2005122144A1 (ja) 2008-04-10
JP4705023B2 true JP4705023B2 (ja) 2011-06-22

Family

ID=35503310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006514478A Expired - Fee Related JP4705023B2 (ja) 2004-06-10 2005-06-02 音声認識装置、音声認識方法、及びプログラム

Country Status (3)

Country Link
US (1) US7813928B2 (ja)
JP (1) JP4705023B2 (ja)
WO (1) WO2005122144A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070132834A1 (en) * 2005-12-08 2007-06-14 International Business Machines Corporation Speech disambiguation in a composite services enablement environment
KR100717385B1 (ko) * 2006-02-09 2007-05-11 삼성전자주식회사 인식 후보의 사전적 거리를 이용한 인식 신뢰도 측정 방법및 인식 신뢰도 측정 시스템
JPWO2007097390A1 (ja) 2006-02-23 2009-07-16 日本電気株式会社 音声認識システム、音声認識結果出力方法、及び音声認識結果出力プログラム
US8688451B2 (en) * 2006-05-11 2014-04-01 General Motors Llc Distinguishing out-of-vocabulary speech from in-vocabulary speech
JPWO2007138875A1 (ja) * 2006-05-31 2009-10-01 日本電気株式会社 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム
US7881928B2 (en) * 2006-09-01 2011-02-01 International Business Machines Corporation Enhanced linguistic transformation
CN101558443B (zh) * 2006-12-15 2012-01-04 三菱电机株式会社 声音识别装置
US20080154600A1 (en) * 2006-12-21 2008-06-26 Nokia Corporation System, Method, Apparatus and Computer Program Product for Providing Dynamic Vocabulary Prediction for Speech Recognition
KR100897554B1 (ko) * 2007-02-21 2009-05-15 삼성전자주식회사 분산 음성인식시스템 및 방법과 분산 음성인식을 위한 단말기
EP2136358A4 (en) * 2007-03-16 2011-01-19 Panasonic Corp LANGUAGE ANALYSIS DEVICE, LANGUAGE ANALYSIS PROCEDURE, LANGUAGE ANALYSIS PROGRAM AND SYSTEM INTEGRATION CIRCUIT
KR101300839B1 (ko) 2007-12-18 2013-09-10 삼성전자주식회사 음성 검색어 확장 방법 및 시스템
US8756527B2 (en) * 2008-01-18 2014-06-17 Rpx Corporation Method, apparatus and computer program product for providing a word input mechanism
JP5024154B2 (ja) * 2008-03-27 2012-09-12 富士通株式会社 関連付け装置、関連付け方法及びコンピュータプログラム
KR101427686B1 (ko) * 2008-06-09 2014-08-12 삼성전자주식회사 프로그램 선택 방법 및 그 장치
JP5050175B2 (ja) * 2008-07-02 2012-10-17 株式会社国際電気通信基礎技術研究所 音声認識機能付情報処理端末
JP2010154397A (ja) * 2008-12-26 2010-07-08 Sony Corp データ処理装置、データ処理方法、及び、プログラム
JP5692493B2 (ja) * 2009-02-05 2015-04-01 セイコーエプソン株式会社 隠れマルコフモデル作成プログラム、情報記憶媒体、隠れマルコフモデル作成システム、音声認識システム及び音声認識方法
US9659559B2 (en) * 2009-06-25 2017-05-23 Adacel Systems, Inc. Phonetic distance measurement system and related methods
KR20110006004A (ko) * 2009-07-13 2011-01-20 삼성전자주식회사 결합인식단위 최적화 장치 및 그 방법
US20150279354A1 (en) * 2010-05-19 2015-10-01 Google Inc. Personalization and Latency Reduction for Voice-Activated Commands
US8522283B2 (en) 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
JP5739718B2 (ja) * 2011-04-19 2015-06-24 本田技研工業株式会社 対話装置
JP5642037B2 (ja) * 2011-09-22 2014-12-17 株式会社東芝 検索装置、検索方法およびプログラム
JP5853653B2 (ja) * 2011-12-01 2016-02-09 ソニー株式会社 サーバ装置、情報端末及びプログラム
JP5675722B2 (ja) * 2012-07-23 2015-02-25 東芝テック株式会社 認識辞書処理装置及び認識辞書処理プログラム
US9311914B2 (en) * 2012-09-03 2016-04-12 Nice-Systems Ltd Method and apparatus for enhanced phonetic indexing and search
JP6221301B2 (ja) * 2013-03-28 2017-11-01 富士通株式会社 音声処理装置、音声処理システムおよび音声処理方法
US10170114B2 (en) * 2013-05-30 2019-01-01 Promptu Systems Corporation Systems and methods for adaptive proper name entity recognition and understanding
JP6100101B2 (ja) * 2013-06-04 2017-03-22 アルパイン株式会社 音声認識を利用した候補選択装置および候補選択方法
US9384731B2 (en) * 2013-11-06 2016-07-05 Microsoft Technology Licensing, Llc Detecting speech input phrase confusion risk
US9653071B2 (en) * 2014-02-08 2017-05-16 Honda Motor Co., Ltd. Method and system for the correction-centric detection of critical speech recognition errors in spoken short messages
JP5921601B2 (ja) * 2014-05-08 2016-05-24 日本電信電話株式会社 音声認識辞書更新装置、音声認識辞書更新方法、プログラム
CN107112007B (zh) * 2014-12-24 2020-08-07 三菱电机株式会社 语音识别装置及语音识别方法
US9392324B1 (en) 2015-03-30 2016-07-12 Rovi Guides, Inc. Systems and methods for identifying and storing a portion of a media asset
JP6744025B2 (ja) * 2016-06-21 2020-08-19 日本電気株式会社 作業支援システム、管理サーバ、携帯端末、作業支援方法およびプログラム
US9984688B2 (en) * 2016-09-28 2018-05-29 Visteon Global Technologies, Inc. Dynamically adjusting a voice recognition system
WO2018173295A1 (ja) * 2017-03-24 2018-09-27 ヤマハ株式会社 ユーザインタフェース装置及び方法、並びに音操作システム
CN107103903B (zh) * 2017-05-05 2020-05-29 百度在线网络技术(北京)有限公司 基于人工智能的声学模型训练方法、装置及存储介质
CN107240395B (zh) * 2017-06-16 2020-04-28 百度在线网络技术(北京)有限公司 一种声学模型训练方法和装置、计算机设备、存储介质
CN107293296B (zh) * 2017-06-28 2020-11-20 百度在线网络技术(北京)有限公司 语音识别结果纠正方法、装置、设备及存储介质
US20190147855A1 (en) * 2017-11-13 2019-05-16 GM Global Technology Operations LLC Neural network for use in speech recognition arbitration
KR102455067B1 (ko) * 2017-11-24 2022-10-17 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109034040B (zh) * 2018-07-19 2021-11-23 北京影谱科技股份有限公司 一种基于演员表的人物识别方法、装置、设备和介质
CN109325227A (zh) * 2018-09-14 2019-02-12 北京字节跳动网络技术有限公司 用于生成修正语句的方法和装置
US11024310B2 (en) 2018-12-31 2021-06-01 Sling Media Pvt. Ltd. Voice control for media content search and selection
KR20210033167A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 전자장치 및 그 음성인식 제어방법
WO2022198474A1 (en) * 2021-03-24 2022-09-29 Sas Institute Inc. Speech-to-analytics framework with support for large n-gram corpora
US11875780B2 (en) * 2021-02-16 2024-01-16 Vocollect, Inc. Voice recognition performance constellation graph

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092494A (ja) * 1999-09-24 2001-04-06 Mitsubishi Electric Corp 音声認識装置、音声認識方法および音声認識プログラム記録媒体
JP2001236089A (ja) * 1999-12-17 2001-08-31 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置、音声認識装置、情報検索処理装置及びかな漢字変換装置
JP2002297179A (ja) * 2001-03-29 2002-10-11 Fujitsu Ltd 自動応答対話システム
JP2002540479A (ja) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クライアントサーバ音声認識

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5127055A (en) * 1988-12-30 1992-06-30 Kurzweil Applied Intelligence, Inc. Speech recognition apparatus & method having dynamic reference pattern adaptation
JP2808906B2 (ja) * 1991-02-07 1998-10-08 日本電気株式会社 音声認識装置
JPH06282293A (ja) 1993-03-29 1994-10-07 Sony Corp 音声認識装置
JP3468572B2 (ja) 1994-03-22 2003-11-17 三菱電機株式会社 対話処理装置
JP2886117B2 (ja) * 1995-09-11 1999-04-26 株式会社エイ・ティ・アール音声翻訳通信研究所 音声認識装置
JP3459712B2 (ja) * 1995-11-01 2003-10-27 キヤノン株式会社 音声認識方法及び装置及びコンピュータ制御装置
JPH09230889A (ja) 1996-02-23 1997-09-05 Hitachi Ltd 音声認識応答装置
US6195641B1 (en) * 1998-03-27 2001-02-27 International Business Machines Corp. Network universal spoken language vocabulary
JP2000259645A (ja) * 1999-03-05 2000-09-22 Fuji Xerox Co Ltd 音声処理装置及び音声データ検索装置
WO2000058942A2 (en) 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition
JP4543294B2 (ja) * 2000-03-14 2010-09-15 ソニー株式会社 音声認識装置および音声認識方法、並びに記録媒体
JP2002215670A (ja) * 2001-01-15 2002-08-02 Omron Corp 音声応答装置、音声応答方法、音声応答プログラム、音声応答プログラムを記録した記録媒体および予約システム
JP2002358095A (ja) 2001-03-30 2002-12-13 Sony Corp 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JP2003044091A (ja) 2001-07-31 2003-02-14 Ntt Docomo Inc 音声認識システム、携帯情報端末、音声情報処理装置、音声情報処理方法および音声情報処理プログラム
JP4072718B2 (ja) * 2002-11-21 2008-04-09 ソニー株式会社 音声処理装置および方法、記録媒体並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002540479A (ja) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クライアントサーバ音声認識
JP2001092494A (ja) * 1999-09-24 2001-04-06 Mitsubishi Electric Corp 音声認識装置、音声認識方法および音声認識プログラム記録媒体
JP2001236089A (ja) * 1999-12-17 2001-08-31 Atr Interpreting Telecommunications Res Lab 統計的言語モデル生成装置、音声認識装置、情報検索処理装置及びかな漢字変換装置
JP2002297179A (ja) * 2001-03-29 2002-10-11 Fujitsu Ltd 自動応答対話システム

Also Published As

Publication number Publication date
US7813928B2 (en) 2010-10-12
US20080167872A1 (en) 2008-07-10
WO2005122144A1 (ja) 2005-12-22
JPWO2005122144A1 (ja) 2008-04-10

Similar Documents

Publication Publication Date Title
JP4705023B2 (ja) 音声認識装置、音声認識方法、及びプログラム
US7421387B2 (en) Dynamic N-best algorithm to reduce recognition errors
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US7124080B2 (en) Method and apparatus for adapting a class entity dictionary used with language models
US8380505B2 (en) System for recognizing speech for searching a database
JP6251958B2 (ja) 発話解析装置、音声対話制御装置、方法、及びプログラム
US7974844B2 (en) Apparatus, method and computer program product for recognizing speech
US8401840B2 (en) Automatic spoken language identification based on phoneme sequence patterns
KR100998566B1 (ko) 음성인식을 이용한 언어 번역 방법 및 장치
US11024298B2 (en) Methods and apparatus for speech recognition using a garbage model
US20060009965A1 (en) Method and apparatus for distribution-based language model adaptation
JP4680714B2 (ja) 音声認識装置および音声認識方法
EP1551007A1 (en) Language model creation/accumulation device, speech recognition device, language model creation method, and speech recognition method
EP1617409B1 (en) Multimodal method to provide input to a computing device
JP5824829B2 (ja) 音声認識装置、音声認識方法及び音声認識プログラム
US8285542B2 (en) Adapting a language model to accommodate inputs not found in a directory assistance listing
US20050187767A1 (en) Dynamic N-best algorithm to reduce speech recognition errors
JP4634156B2 (ja) 音声対話方法および音声対話装置
KR102580904B1 (ko) 음성 신호를 번역하는 방법 및 그에 따른 전자 디바이스
JP4764203B2 (ja) 音声認識装置及び音声認識プログラム
JP5243325B2 (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
JP3911178B2 (ja) 音声認識辞書作成装置および音声認識辞書作成方法、音声認識装置、携帯端末器、音声認識システム、音声認識辞書作成プログラム、並びに、プログラム記録媒体
JP5124012B2 (ja) 音声認識装置及び音声認識プログラム
JP4986301B2 (ja) 音声認識処理機能を用いたコンテンツ検索装置、プログラム及び方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110310

R150 Certificate of patent or registration of utility model

Ref document number: 4705023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees