JP2000089781A - 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体 - Google Patents

音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体

Info

Publication number
JP2000089781A
JP2000089781A JP10254419A JP25441998A JP2000089781A JP 2000089781 A JP2000089781 A JP 2000089781A JP 10254419 A JP10254419 A JP 10254419A JP 25441998 A JP25441998 A JP 25441998A JP 2000089781 A JP2000089781 A JP 2000089781A
Authority
JP
Japan
Prior art keywords
speaker
data
voice
words
model data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10254419A
Other languages
English (en)
Other versions
JP3000999B1 (ja
Inventor
Yasunaga Miyazawa
康永 宮沢
Mitsuhiro Inazumi
満広 稲積
Hiroshi Hasegawa
浩 長谷川
Masahisa Ikejiri
昌久 池尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP10254419A priority Critical patent/JP3000999B1/ja
Priority to US09/378,997 priority patent/US6446039B1/en
Application granted granted Critical
Publication of JP3000999B1 publication Critical patent/JP3000999B1/ja
Publication of JP2000089781A publication Critical patent/JP2000089781A/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/285Memory allocation or algorithm optimisation to reduce hardware requirements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 メモリ容量やCPUの処理能力に大きな制約
のあるなかで、高い認識性能を得るようにする。 【解決手段】 認識可能な複数の単語のうち、幾つかの
単語を登録単語として選び、それぞれの登録単語を認識
対象話者が発話し、その音声データから各登録単語ごと
の登録単語データ101を作成してRAM10に保存
し、前記認識対象話者から当該登録単語が発話された場
合には、当該登録単語データ101を用いて音声認識
し、それ以外の認識可能な単語が発話された場合には、
特定話者群音声モデルデータ92を用いて音声認識す
る。さらに、前記登録単語データと前記特定話者群音声
モデルデータとを用いて話者学習処理を行い、前記登録
単語以外の認識可能単語を認識する際は、話者学習後の
データを用い話者適応して音声認識する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、認識可能な単語の
うち特定の単語については話者が登録可能として話者適
応処理を可能とすることで認識性能の向上を図った音声
認識方法および音声認識装置並びに音声認識処理プログ
ラムを記録した記録媒体に関する。
【0002】
【従来の技術】近年、音声認識技術を利用した電子機器
が様々な分野で用いられ、その一つとして、音声時計と
呼ばれる時計がある。この音声時計は、音声によって現
在時刻の設定やアラーム時刻の設定が可能であり、ま
た、装置側からは現在時刻を音声によって知らせること
ができるようになっている。
【0003】このような音声時計は、実用品としてだけ
ではなく、子供向けの玩具として用いられることも多
く、装置自体のコストをできるだけ低く押さえることが
望まれる。このため、使用するCPUの処理能力やメモ
リの容量などには大きな制約があり、その制約のもとで
如何に高性能な機能を持たせるかが重要な課題の一つと
なっている。
【0004】従来、この種の音声認識を用いた装置は、
不特定話者を対象とした音声認識を可能とするものも多
いが、この不特定話者を対象とした音声認識を可能とす
るには、規模の大きい標準話者音声モデルデータが必要
となり、大容量のROMを必要としたり、処理能力の高
いCPUが必要となって、結局はコストの高いものとな
ってしまうのが実情であった。
【0005】また、不特定話者を対象とするといって
も、装置の種類によっては、実際に使用する年代や男女
の性別などは、ある程度は限られたものとなることも多
く、結果的には、ある範囲に限られた標準話者モデルデ
ータがあれば済むということにもなる。このため、規模
の大きな標準話者音声モデルデータを持っていても無駄
が多く、また、広い範囲の不特定話者に対応できるとい
うことは、逆に言えば、それぞれの範囲の話者に対して
平均的に対応できるということでもあり、認識率の面で
も問題があった。
【0006】これに対応するものとして、あらかじめ用
意された複数の認識可能単語について不特定話者認識を
可能とするとともに、特定話者に対してはその特定話者
の音声を登録して登録型の音声認識を可能とする機能を
有する比較的安価な音声認識用LS1も存在する。
【0007】このような音声認識用LSIは、確かに、
不特定話者の音声に対しても予め用意された単語につい
ては認識を可能とし、しかも、ある特定の話者に対して
はその特定話者の音声データを登録することができるの
で、幅広い話者に対しての高性能な音声認識が実現可能
となると思われる。
【0008】
【発明が解決しようとする課題】しかし、このような従
来の音声認識用のLSIは、登録された特定話者に対す
る音声認識は、高い認識率での認識が可能となるが、不
特定話者に対する音声認識は、話者の男女の性別や年齢
が幅広いと、認識率は大きく低下するのが一般的であ
る。
【0009】また、不特定話者に対しての認識率を向上
させるために、話者に数10単語程度を発話してもら
い、その音声データに基づいて話者適応を行う機能を有
するものもある。
【0010】しかし、この話者適応機能は、一般には、
大容量のメモリや処理能力の高いCPUを有した装置に
適用されることが多く、玩具や、日用品などのように、
低価格が強く要求され、メモリの容量やCPUの処理能
力に大きな制約のある装置への適用は困難な場合が多
い。
【0011】そこで本発明は、特定の単語についてはそ
の装置を使用する話者がその特定の単語を発話して得ら
れた音声データを登録するとともに、この登録データと
前記標準話者音声モデルデータを用いて話者適応を行う
ことで、装置を使用する話者(認識対象話者)に対する
音声認識率を大幅に向上させることを目的としている。
【0012】
【課題を解決するための手段】前述した目的を達成する
ために、本発明の音声認識方法は、不特定複数話者の音
声データから作成された標準話者音声モデルデータを有
し、予め定められた複数の単語を認識可能とする音声認
識方法において、前記認識可能な複数の単語のうち、幾
つかの単語を登録単語として選び、それぞれの登録単語
を認識対象話者が発話し、その音声データから各登録単
語ごとの登録単語データを作成して保存し、前記認識対
象話者から当該登録単語が発話された場合には、当該登
録単語データを用いて音声認識し、それ以外の認識可能
な単語が発話された場合には、前記標準話者音声モデル
データを用いて音声認識するようにしている。
【0013】また、前記認識可能な複数の単語は、それ
ぞれ単語の種類に応じて複数に区分され、それぞれの区
分対応の単語セットとして用意されており、装置側はそ
の時点の動作場面においてどの単語セットに属する単語
を認識するかが設定されていて、現時点ではどの単語セ
ットに属する単語が入力される場面かを判断し、その判
断結果に基づき当該場面にて入力された単語の認識を行
うようにしている。
【0014】また、前記認識対象話者を、年齢や性別な
どに基づいて予め設定した範囲に絞り込み、当該範囲に
属する不特定複数話者の音声データから特定話者群音声
モデルデータを作成し、これを前記標準話者群音声モデ
ルデータとして保存するようにしてもよい。
【0015】さらに、前記認識対象話者は、音声の特徴
に基づく複数の話者群から構成され、前記特定話者群音
声モデルデータは、それぞれの話者群に属する不特定複
数話者の音声データから作成された前記複数の話者群対
応の特定話者群音声モデルデータから構成されたものと
してもよい。
【0016】また、前記登録単語データと前記標準話者
音声モデルデータまたは前記特定話者群音声モデルデー
タとを用いて話者学習処理を行い、前記登録単語以外の
認識可能単語を認識する際は、前記話者学習後のデータ
を用い適応処理して音声認識するようにしている。
【0017】さらに、その話者学習処理は、前記標準話
者音声モデルデータまたは前記特定話者群音声モデルデ
ータに基づいて作成されたいずれかのコードブックとコ
ードブックマッピング法とにより入力話者用のコードブ
ックを作成し、さらに、その入力話者コードブックをユ
ニバーサルコードブックを用いてベクトル量子化して量
子化入力話者コードブックを作成するようにしてもよ
い。
【0018】また、本発明の音声認識装置は、不特定複
数話者の音声データから作成された標準話者音声モデル
データを有し、予め定められた複数の単語を認識可能と
する音声認識装置において、少なくとも、話者の発話し
て得られた音声を分析する音声分析手段と、前記認識可
能な複数の単語のうち、幾つかの単語を登録単語として
選び、それぞれの登録単語を認識対象話者が発話して得
られた音声データから各登録単語ごとに作成された登録
単語データと、前記認識対象話者から当該登録単語が発
話された場合には、当該登録単語データを用いて音声認
識し、それ以外の認識可能な単語が発話された場合に
は、前記標準話者音声モデルデータを用いて音声認識す
る制御部とを有する構成としている。
【0019】このような音声認識装置において、前記認
識可能な複数の単語は、それぞれ単語の種類に応じて複
数に区分され、それぞれの区分対応の単語セットとして
用意されており、装置側はその時点の動作場面において
どの単語セットに属する単語を認識するかが設定されて
いて、現時点ではどの単語セットに属する単語が入力さ
れる場面かを判断し、その判断結果に基づき当該場面に
て入力された単語の認識を行うようにしている。
【0020】また、前記認識対象話者を、年齢や性別な
どに基づいて予め設定した範囲に絞り込み、当該範囲に
属する不特定複数話者の音声データから特定話者群音声
モデルデータを作成し、これを前記標準話者群音声モデ
ルデータとして保存するようにしてもよい。
【0021】さらに、前記認識対象話者は、音声の特徴
に基づく複数の話者群から構成され、前記特定話者群音
声モデルデータは、それぞれの話者群に属する不特定複
数話者の音声データから作成された前記複数の話者群対
応の特定話者群音声モデルデータから構成されるように
してもよい。
【0022】また、本発明の音声認識装置において、前
記登録単語データと前記標準話者音声モデルデータまた
は前記特定話者群音声モデルデータとを用いて話者学習
処理を行い、前記登録単語以外の認識可能単語を認識す
る際は、前記話者学習後のデータを用い話者適応して音
声認識するようにしている。
【0023】そして、その話者適学習理は、前記標準話
者音声モデルデータまたは前記特定話者群音声モデルデ
ータに基づいて作成されたいずれかのコードブックとコ
ードブックマッピング法により作成された入力話者用の
コードブックを作成し、さらに、その入力話者コードブ
ックをユニバーサルコードブックを用いてベクトル量子
化して量子化入力話者コードブックを作成するようにし
てもよい。
【0024】また、本発明の音声認識処理プログラムを
記録した記録媒体は、不特定複数話者の音声データから
作成された標準話者音声モデルデータを有し、予め定め
られた複数の単語を認識可能とする音声認識処理プログ
ラムを記録した記録媒体であって、その処理プログラム
は、前記認識可能な複数の単語のうち登録単語として選
ばれた幾つかの単語について、認識対象話者が発話して
得られた音声データから各登録単語ごとの登録単語デー
タを作成して保存する手順と、前記認識対象話者から当
該登録単語が発話された場合には、当該登録単語データ
を用いて音声認識し、それ以外の認識可能な単語が発話
された場合には、前記標準話者音声モデルデータを用い
て音声認識する手順とを含むものである。
【0025】そして、前記認識可能な複数の単語は、そ
れぞれ単語の種類に応じて複数に区分され、それぞれの
区分対応の単語セットとして用意されており、装置側は
その時点の動作場面においてどの単語セットに属する単
語を認識するかが設定されていて、現時点ではどの単語
セットに属する単語が入力される場面かを判断し、その
判断結果に基づき当該場面にて入力された単語の認識を
行うようにしている。
【0026】また、前記認識対象話者を年齢や性別など
に基づいて予め設定した範囲に絞り込み、当該範囲に属
する不特定複数話者の音声データから特定話者群音声モ
デルデータを作成し、これを前記標準話者群音声モデル
データとして保存する手順を含むようにしてもよい。
【0027】そして、前記特定話者群音声モデルデータ
を作成し、これを前記標準話者群音声モデルデータとし
て保存する手順において、認識対象話者は、音声の特徴
に基づく複数の話者群から構成され、前記特定話者群音
声モデルデータは、それぞれの話者群に属する不特定複
数話者の音声データから前記複数の話者群対応の特定話
者群音声モデルデータを作成するようにしてもよい。
【0028】さらに、前記登録単語データと前記標準話
者音声モデルデータまたは前記特定話者群音声モデルデ
ータとを用いて話者学習処理を行う手順を有し、前記登
録単語以外の認識可能単語を認識する際は、前記話者学
習後のデータを用い話者適応して音声認識するようにし
ている。
【0029】そして、その話者学習処理は、前記標準話
者音声モデルデータまたは前記特定話者群音声モデルデ
ータに基づいて作成されたいずれかのコードブックとコ
ードブックマッピング法により入力話者用のコードブッ
クを作成し、さらに、その入力話者コードブックをユニ
バーサルコードブックを用いてベクトル量子化して量子
化入力話者コードブックを作成する処理を含むようにし
てもよい。
【0030】このように本発明は、予め用意された認識
可能な複数の単語のうち、幾つかの単語を登録単語とし
て選び、それぞれの登録単語を認識対象となる話者が発
話し、その音声データから各登録単語ごとの登録単語デ
ータを作成して保存するようにしている。この登録単語
は主として使用頻度の高い単語が選ばれる。使用頻度の
高い単語は、様々な状況で発話される可能性が高く、た
とえば、装置に対し離れた位置から入力されるようなこ
とも多い。このように、装置から離れた位置から入力し
た場合でも、確実に認識されることが要求される。
【0031】そこで、認識可能な複数のうちの幾つかの
単語として、たとえば、使用頻度の高い単語を登録単語
としておけば、これらの単語に対しての認識性能を向上
させることができ、認識可能単語全体から見た認識率の
向上にもつながり、使い勝手のよいものとなる。
【0032】なお、本発明では、装置側はその時点の動
作場面に応じ、現時点ではどの単語セットの単語を入力
する場面かを判断し、その判断結果に基づき当該場面に
て入力された単語の認識を行うようにしている。したが
って、たとえば、複数の登録単語は同じ単語セットに属
し、この単語セットに属する単語は、これらの単語が入
力される場面が決められているので、その単語セット内
の単語だけの認識処理を行えばよいので、高い認識率が
得られる。
【0033】さらに、このように幾つかの単語を登録単
語とし、話者対応の登録単語データを作成することによ
り、この登録単語データと標準話者音声モデルデータま
たは特定話者群者音声モデルデータとを用いて話者学習
処理を行うことができる。これにより、登録単語以外の
認識可能単語についても、認識時には話者学習後のデー
タを用い話者適応して音声認識することが可能となり、
登録単語のみならず認識可能単語全体について認識率を
大幅に向上させることができる。
【0034】さらに、本発明の話者適応処理は、標準話
者音声モデルデータまたは特定話者群者音声モデルデー
タに基づいて作成されたいずれかのコードブックとコー
ドブックマッピング法におり入力話者用コードブックを
作成し、さらに、その入力話者コードブックを、広い範
囲の話者から作成されたユニバーサルコードブックを用
いてベクトル量子化して量子化入力話者コードブックを
作成する処理を含み、認識時には、この量子化入力話者
コードブックを用いて話者学習処理を行うようにしてい
る。
【0035】このように、データ量を大幅に削減された
量子化入力話者コードブックを用いて話者適応処理が可
能となるので、これらを保存する記憶手段(RAM)を
小規模なものとすることができ、また、認識処理に必要
な演算量を大幅に少なくすることができるので、制御部
(CPU)にかかる処理負担を大幅に減らすことがで
き、小さな処理能力のCPUで対応することができるよ
うになる。
【0036】また、本発明では、認識対象とする話者
を、年齢や性別などに基づいて予め設定した範囲に絞り
込み、当該範囲に属する不特定複数話者の音声データか
ら特定話者群音声モデルデータを作成して保存し、この
特定話者群音声モデルデータを用いて前記認識対象とす
る話者の入力した音声を認識するようにしている。
【0037】これは、装置の使用者が、たとえば、主に
子供であるとか、主に女性であるというようにある範囲
に限られている場合に効果を発揮する。
【0038】このように認識対象とする話者をある範囲
に絞ることができる場合には、あらゆる範囲の話者に対
応できる標準話者音声モデルデータを用いても無駄が多
く、認識率もあまり期待できない。そこで、不特定特定
話者のうち認識対象とする話者を年齢や性別などに基づ
いて予め設定した範囲に絞り込み、その範囲に属する複
数の話者の音声データから特定話者群音声モデルデータ
として作成し、この特定話者群音声モデルデータを用い
て前記音声認識対象とする話者の入力した音声を認識す
るようにしている。
【0039】これにより、ある範囲の話者群に対応する
特定話者群音声モデルデータを持てばよいので、従来の
あらゆる話者に対応できるように作成された標準話者音
声モデルデータに比べると、データ量を大幅に少なくす
ることができる。これにより、それを保存する記憶手段
の記憶容量は小さいもので済み、また、CPUにかかる
認識処理の負担も少なくすることができる。しかも、特
定の話者群に対応した音声モデルデータであるので、認
識性能も大幅に向上する。
【0040】また、このようなある範囲の話者群に対応
する特定話者群音声モデルデータを、幾つか用意するこ
ともできる。たとえば、成人男性用、成人女性用、子供
用など幾つかの話者群に対応して用意することも可能で
ある。これによれば、1つの装置を家族で使用するよう
な場合にも対応できる。
【0041】このように、幾つかの話者群対応の特定話
者群音声モデルデータを持ったとしても、それがある範
囲内に限定されていれば、あらゆる範囲の話者に対応で
きるように作成された標準話者音声モデルデータを持つ
よりは、音声モデルデータの規模をを小さくでき、しか
も、それぞれの話者群に対応した特定話者群音声モデル
データであるので、認識性能も大幅に向上する。
【0042】
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照しながら説明する。なお、この実施の形態では、
音声認識装置の1つの例として、音声時計装置を例にし
て説明する。この音声時計装置(以下では単に装置と表
現する場合もある)は、現在時刻やアラーム時刻の設定
を話者の発話する音声によって行うことが可能で、か
つ、装置側からの時刻の告知も音声によって行うことが
でき、さらに、話者との間で簡単な内容の会話をも可能
とする玩具的な要素の強い装置であるとする。
【0043】図1は本発明の実施の形態である音声時計
装置を構成するに必要な各構成要素を示すブロック図で
ある。まず、図1に示される構成を概略的に説明し、そ
のあとで、本発明の実施の形態を説明する上で特に必要
な部分について詳細に説明する。
【0044】この音声時計装置は、大きく分けると、音
声入力部としてのマイクロホン1と音声入力用アンプ
(マイクアンプという)2、A/D変換部3、音声分析
部4、各種処理を行う制御部(CPU)5、D/A変換
部6、音声出力部としての音声出力用アンプ7とスピー
カ8、第1の記憶手段としてのROM9、第2の記憶手
段としてのRAM10、ユーザが装置に対して各種の設
定を行うための操作部11、時刻信号を発生する計時手
段12などから構成されている。
【0045】音声分析部4は、A/D変換された音声信
号を演算機を用いて短時間ごとに分析し、ピッチ周期な
どを得るとともに、音声の特徴を表す特徴データ(LP
Cケプストラム係数が一般的)を時系列データとして出
力する。
【0046】制御部5は、音声認識、学習、登録、音声
出力など以下に説明する各種の処理を行うもので、これ
らの処理については、のちに行う動作説明のなかで順次
説明する。
【0047】ROM9は、出力音声データ91、特定話
者群音声モデルデータ92、この特定話者群音声モデル
データ92を基にして作成されたコードブック(特定話
者群コードブックという)93、さらにはユニバーサル
コードブック94などを格納する。
【0048】前記出力音声データ91は装置側から話者
に対しての応答や問いかけを行うための発話内容に対す
る音声データであり、この具体的な内容についても後述
する動作例のなかで説明する。
【0049】また、特定話者群音声モデルデータ92
は、ある範囲に絞られた認識対象話者に対する標準話者
音声モデルデータである。たとえば、認識対象話者を子
供に絞った場合は、不特定多数の子供の音声データから
作成された標準話者音声モデルデータである。
【0050】ただし、この実施の形態では、成人男性、
成人女性、子供の3つの話者群を設定し、成人男性を話
者群A、成人女性を話者群B、子供を話者群Cというよ
うに区分する。そして、話者群Aに属する不特定多数の
成人男性の音声データから作成した第1の特定話者群音
声モデルデータMD1、話者群Bに属する不特定多数の
成人女性の音声データから作成した第2の特定話者群音
声モデルデータMD2、話者群Cに属する不特定多数の
子供の音声データから作成した第3の特定話者群音声モ
デルデータMD3を有しているものとする。
【0051】そして、これら第1〜第3の特定話者群音
声モデルデータMD1,MD2,MD3は、予め定めら
れた認識可能単語からなる幾つかの単語セットw1,w
2,w3,・・・からなっており、単語セットw1に格
納されている特定話者群音声モデルデータは、装置との
間で交わされる会話のなかで、特に使用される頻度の高
いと思われる単語(この場合、「おはよう」、「ただい
ま」、「こんにちは」、「おやすみ」、「何時」、「ア
ラーム」といった単語であるとする)に対する特定話者
群音声モデルデータである。この単語セットw1内のそ
れぞれの単語に対する特定話者群音声モデルデータは、
のちに説明する話者学習処理を行うためとしても用いら
れる。
【0052】単語セットw2に格納されている特定話者
群音声モデルデータは、ここでは、「1時」、「2
時」、「3時」、・・・、「12時」といった時間の単
位を表す単語に対する特定話者群音声モデルデータで
り、また、単語セットw3に格納されている特定話者群
音声モデルデータは、ここでは、「1分」、「2分」、
「3分」、・・・、「59分」といった分の単位を表す
単語に対する特定話者群音声モデルデータであるとす
る。
【0053】この他、「はい」や「いいえ」といった肯
定・否定を表す単語や、話者と装置との間で会話を行う
に必要な単語に対する特定話者群音声モデルデータなど
もここでは図示されていない単語セットとして設けられ
ている。
【0054】また、特定話者群コードブック93は、第
1の特定話者群音声モデルデータMD1に基づいて作成
された第1の特定話者群コードブックCB1、第2の特
定話者群音声モデルデータMD2に基づいて作成された
第2の特定話者群コードブックCB2、第3の特定話者
群音声モデルデータMD3に基づいて作成された第3の
特定話者群コードブックCB3を有している。
【0055】ところで、前述の単語セットw1に属する
「おはよう」、「ただいま」、「こんにちは」、「おや
すみ」、「何時」、「アラーム」といった単語は、ここ
では、登録単語としても用いられ、認識対象話者、つま
り、この装置を使用するそれぞれの話者(ここでは、話
者#1、話者#2、話者#3の3人の話者とする)が、
上述の登録単語を発話することによって、それぞれの特
徴データを登録単語データ101としてRAM10に保
存することができるようになっている。
【0056】この登録単語データ101は、話者#1用
の登録単語データRD1、話者#2用の登録単語データ
RD2、話者#3用の登録単語データRD3というよう
に、その装置を使用すると思われる各話者ごとに保存さ
れる。
【0057】なお、このように、装置を使用すると思わ
れる各話者ごとに、幾つかの単語について登録単語デー
タを作成する機能は、ユーザによって任意に行うことが
できる。したがって、その機能を用いて登録単語データ
を作成して保存することも可能であるが、必ずしも、そ
の機能を用いる必要はない。この機能を実行するには操
作部11によって所定のモード設定を行って登録する
が、その登録方法などについてはのちに説明する。
【0058】RAM10にはこの他に、話者#1用とし
て作成された量子化後の入力話者コードブックVQ1、
話者#2用として作成された量子化後の入力話者コード
ブックVQ2、話者#3用として作成された量子化後の
入力話者コードブックVQ3が格納されるが、これらの
各コードブックについてはのちに説明する。
【0059】本発明の実施の形態における装置の特徴の
一つとして、装置を使用する使用者をある範囲に絞り、
その範囲内に属する不特定多数の話者の音声データから
作った特定話者群音声モデルデータを作成し、その特定
話者群音声モデルデータを用いて装置の使用者の発する
音声を認識処理するということが挙げられる。
【0060】これを実現するために、この実施の形態で
は、使用者を話者群A(成人男性)、話者群B(成人女
性)、話者群C(子供)に分けて、それぞれの話者群に
属する不特定多数の話者の音声データから作った第1〜
第3の特定話者群音声モデルデータMD1,MD2,M
D3を有している。
【0061】このように、装置を使用する使用者をある
範囲に絞って、その範囲に属する不特定多数の話者の音
声データから作った標準話者音声モデルデータ(この実
施の形態では第1〜第3の特定話者群音声モデルデータ
MD1,MD2,MD3)を用いることにより、あらゆ
る話者を想定した不特定話者用の標準話者音声モデルデ
ータを持つ場合に比べて標準話者音声モデルデータの規
模を大幅に小さくすることができ、ROM9のメモリサ
イズを小さくすることができ、また、制御部(CPU)
5の処理負担を小さくすることができる。
【0062】しかも、それぞれの話者群に対応した特定
話者群音声モデルデータ(第1〜第3の特定話者群音声
モデルデータMD1,MD2,MD3)を用いての音声
認識を行うので、あらゆる話者を想定した不特定話者用
の標準話者音声モデルデータを用いた場合に比べて高い
認識率が得られる。
【0063】なお、その時点で発話する話者に対してど
の特定話者群音声モデルデータを選択するかは、たとえ
ば、操作部11に話者群を指定するためのボタンを用意
し、装置の使用者がたとえば子供であれば、話者群Cを
指定するためのボタンを操作してから音声の入力を行う
ようにすることもできる。
【0064】このように、話者群の指定操作がなされる
と、制御部5がそれを判断して、対応する特定話者群音
声モデルデータを用いて音声認識を行うようにする。た
とえば、話者群Cを指定するためのボタンが操作された
場合には、制御部5がそれを判断して、特定話者群音声
モデルデータMD3を用いて音声認識を行うようにす
る。
【0065】また、これとは別に、装置の使用者が話者
群の設定操作を行うことなく、入力された音声のピッチ
周期情報(音声分析部4が音声分析する際に得られるピ
ッチ周期情報)を基に、制御部5が入力音声の話者群を
判定して、その判定結果に基づいて対応する特定話者群
音声モデルデータを用いて音声認識を行うようにするこ
とも可能である。
【0066】図2はこのように話者に応じた音声モデル
データを用いて音声認識処理を行うフローチャートを示
すもので、話者の発話した音声の入力を行い(ステップ
s1)、音声入力があるか否かを判断し(ステップs
2)、音声入力があれば、音声分析部4によって、入力
音声に対して音声分析を行う(ステップs3)。そし
て、その分析結果に基づき制御部5によって、その音声
がどの話者群に属するかを判定し(ステップs4)、判
定された話者群に対応する音声モデルデータを選択して
(ステップs5)、音声認識処理を行う(ステップs
6)。そして、その認識結果に基づく所定の処理を行う
(ステップs7)。この所定の処理というのは、時刻設
定やアラーム設定などその装置の行うべき様々な処理で
ある。
【0067】また、この実施の形態では、ある特定の単
語については、その装置を使用する使用者がその特定の
単語を発話してその音声データを登録し、この登録デー
タと前述の特定話者群音声モデルデータを用いて話者学
習処理を行うことも可能としている。以下、これについ
て説明する。
【0068】この話者学習処理を行うために、この実施
の形態では、特定の単語として、「おはよう」、「ただ
いま」、「こんにちは」、「おやすみ」、「何時」、
「アラーム」といった前述の単語セットw1に属する単
語(これらの単語を登録単語という)を、使用者(話
者)に発話してもらい、話者の発話して得られた各登録
単語に対する音声データによって登録単語データを作成
しそれをRAM10に登録する。このとき、たとえば、
その装置を1つの家族で使用するような場合は、その家
族(たとえば、父親、母親、その子供)が一人ずつ複数
の登録単語について順次発話して得られたそれぞれの音
声データによって登録単語データを作成してそれぞれ登
録する。
【0069】具体的には、たとえば、父親(話者#1と
する)が発話して得られた各登録単語に対するそれぞれ
の音声データによって作成された各登録単語対応の登録
単語データは、話者#1用の登録単語データRD1とし
て保存され、母親(話者#2とする)が発話して得られ
た各登録単語に対する音声データによって作成された各
登録単語対応の登録単語データは、話者#2用の登録単
語データRD2として保存され、子供(話者#3とす
る)が発話して得られた各登録単語に対するそれぞれの
音声データによって作成された各登録単語対応の登録単
語データは、話者#3用の登録単語データRD3として
保存される。この登録は次のようにして行う。
【0070】まず、操作部11によって登録単語を登録
するためのモード設定を行う。そして、話者#1の指定
を行い、話者#1が前述したそれぞれの登録単語を順次
発話する。そして、この話者#1が発話して得られた各
登録単語に対する音声データによって各登録単語対応の
登録単語データRD1を作成する。そして、この登録単
語データRD1と特定話者群音声モデルデータ(この場
合は、特定話者群音声モデルデータMD1)に基づい
て、話者#1に対する写像関数を作成する。
【0071】続いて、話者#2の指定を行い、話者#2
が前述したそれぞれの登録単語を順次発話する。そし
て、この話者#2が発話して得られた各登録単語に対す
る音声データによって、各登録単語対応の登録単語デー
タRD2を作成する。そして、この登録単語データRD
2と特定話者群音声モデルデータ(この場合は、特定話
者群音声モデルデータMD2)に基づいて、話者#2に
対する写像関数を作成する。
【0072】さらに、続いて、話者#3の指定を行い、
話者#3が前述したそれぞれの登録単語を順次発話す
る。そして、この話者#3が発話して得られた各登録単
語に対する音声データによって各登録単語対応の登録単
語データRD1を作成する。そして、この登録単語デー
タRD3と特定話者群音声モデルデータ(この場合は、
特定話者群音声モデルデータMD3)に基づいて、話者
#3に対する写像関数を作成する。
【0073】このようにして、登録すべき話者の音声デ
ータの登録が終了する。そして、それぞれの写像関数と
第1〜第3の特定話者群コードブックCB1,CB2,
CB3(コードブックサイズはそれぞれ256サイズと
する)を用いて、話者#1、話者#2、話者#3それぞ
れの入力話者コードブックを作成する。このようにして
入力話者コードブックを作成する方法をコードブックマ
ッピングと呼ぶ。
【0074】この場合、話者#1は父親、話者#2は母
親、話者#3はその子供であるので、父親用の入力話者
コードブック、母親用の入力話者コードブック、子供用
の入力話者コードブックが作成されることになる。な
お、この実施の形態では、さらにこれら入力話者コード
ブックのデータ量を少なくするために、予め用意された
ユニバーサルコードブック94を使用してベクトル量子
化を行う。
【0075】このユニバーサルコードブック94は、大
人から子供まで全ての話者を含むような幅広い層の話者
から得られたコードブックであり、たとえば、1024
あるいは2048といった大きなサイズを有しており、
このユニバーサルコードブック94でベクトル量子化
し、そのユニバーサルコードブック94のコード番号の
みによるコードブック(256サイズ)を作成する。
【0076】このように、ユニバーサルコードブック9
4のコード番号のみによるコードブックとすることによ
り、大幅にデータ量の削減が図れる。
【0077】ちなみに、装置に使用されるRAM10と
して32キロバイト程度のRAMを使うとすると、前述
の入力話者コードブックでは、1つのコードブックにつ
いて、256×10(この10はLPCケプストラム係
数の次元数であって、ここでは10次元とした場合であ
る)で、2560個の係数を保存する必要があり、1つ
の係数をショート型で保存した場合、2バイト×256
0の合計約5キロバイトが必要となる。
【0078】したがって、このコードブックを仮りに4
つ作るとなると、それだけで約20キロバイトの容量を
必要とすることになり、RAM10の多くを占有してし
まい、その他の処理に支障をきたすことになる。
【0079】これに対処するために、前述したように、
ユニバーサルコードブック94でベクトル量子化して、
そのユニバーサルコードブック94のコード番号のみに
よるベクトル量子化された入力話者コードブックを作成
する。なお、以下では、このベクトル量子化された入力
話者コードブックを量子化コードブックと呼び、話者#
1に対応する量子化されたコードブックを量子化コード
ブックVQ1、話者#2に対応する量子化された入力話
者コードブックを量子化コードブックVQ2、話者#3
に対応する量子化された入力話者コードブックを量子化
コードブックVQ3と呼ぶことにする。
【0080】これによって、ある一人の話者に対する量
子化入力話者コードブック(たとえば、量子化入力話者
コードブックVQ1)は、256個のコード番号を保存
すればよく、各コード番号をショート型で保存させたば
あい、2バイト×256の合計約0.5キロバイトの容量
で済むため、コードブックとして必要なメモリ容量は、
前述した量子化前の入力話者コードブックに比べて1/
10となる。
【0081】なお、このユニバーサルコードブック94
は、前述した各入力話者ごとの登録単語データRD1,
RD2,RD3の量子化にも用いることができる。
【0082】図3はこの実施の形態である音声時計装置
の外観構成を示すものである。前述したようにこの実施
の形態における音声時計装置は、玩具的な要素の強いも
のであり、実際には、その外観は人気アニメーションの
キャラクタなどが用いられるが、その外観は本発明とは
直接関係しないので、ここでは、単純な形状のもので説
明を行う。
【0083】図3において、音声時計装置の筺体50に
は、図1で示されたマイクロホン1、スピーカ8、装置
に対して様々な設定を行ったり、何らかの動作を行うた
めにその都度操作される各種操作ボタン(詳細は後述す
る)を有する操作部11が設けられる。
【0084】この操作部11は、たとえば、電源スイッ
チSW、話者群指定ボタンBT1,BT2,BT3、話
者指定ボタンBT11,BT12,BT13、認識モー
ドか登録モードかを切り替えるモード切替スイッチ(機
能については後述する)MSW、装置側からの問いかけ
に対して話者がボタンの操作で肯定(「はい」)または
否定(「いいえ」)の入力が可能な肯定ボタンBT21
と否定ボタンBT22(これの具体的な動作例について
はのちに説明する)、音量調節スイッチVSWなどが設
けられている。
【0085】なお、話者群指定ボタンBT1,BT2,
BT3は、その装置を使用する使用者の話者群を指定す
るもので、話者群指定ボタンBT1は話者群として成人
男性(話者群A)を指定し、話者群指定ボタンBT2は
話者群として成人女性(話者群B)を指定し、話者群指
定ボタンBT3は話者群として子供(話者群C)を指定
するものである。
【0086】また、話者指定ボタンBT11,BT1
2,BT13は、その装置を使用する使用者を話者とし
て指定するもので、ここでは、3人の使用者(話者#
1、話者#2、話者#3)を指定できるようになってい
る。
【0087】なお、図3で示される操作部11には上述
したような各種スイッチや、各種操作ボタンが設けられ
るが、これは、この実施の形態を説明する上で必要なス
イッチ類や操作ボタンをすべて設けた例であるが、これ
らは全て設ける必要はなく、装置の有する機能などに応
じて適宜必要なスイッチや操作ボタンのみを設ければよ
い。また、電源スイッチswなどのスイッチ類は、操作
部11内ではなく、操作ボタン類とは別にして設けるよ
うにしてもよい。
【0088】また、この図3で示される構成は説明を行
う上での一例であって、マイクロホン1やスピーカ8、
操作部11の配置、さらには、操作部11内の各種スイ
ッチ類や操作ボタンなどの配置もこれに限られるもので
はない。
【0089】ここで、登録モードと認識モードについて
の説明を行う。この登録モードと認識モードのいずれか
のモード設定は、モード切替スイッチMSWによって行
う。
【0090】登録モードは、その装置を使用する各話者
(この場合、話者#1,#2,#3)が予め決められた
複数の登録単語を発話し、それぞれの音声データから作
成した登録単語データを登録単語データRD1,RD
2,RD3として登録するとともに、この登録単語デー
タRD1,RD2,RD3を用いて話者学習処理を行
い、最終的に話者#1用の量子化コードブックVQ1、
話者#2用の量子化コードブックVQ2、話者#3用の
量子化コードブックVQ3の作成を行う。
【0091】登録モードとした場合の具体的な処理につ
いて説明する。ここでは、前述したように、父親(話者
#1)、母親(話者#2)、その子供(話者#3)がそ
れぞれの登録単語を発話して得られた登録単語データを
登録するものとする。
【0092】まず、操作部11の話者指定ボタンBT1
1を操作し、話者#1の登録モードとして、話者#1
(父親)が前述した登録単語を順次発話する。これによ
り、話者#1に対する登録単語の登録データRD1が作
成されるとともに、写像関数が作成され、さらに、ユニ
バーサルコードブック94でベクトル量子化され、その
ユニバーサルコードブック94のコード番号による話者
#1の量子化入力話者コードブックVQ1が作成され
る。
【0093】続いて、操作部11の話者指定ボタンBT
12を操作し、話者#2の登録モードとして、話者#2
(母親)が前述した登録単語を順次発話する。これによ
り、話者#2に対する登録単語の登録データRD2が作
成されるとともに、写像関数が作成され、さらに、ユニ
バーサルコードブック94でベクトル量子化され、その
ユニバーサルコードブック94のコード番号による話者
#2の量子化入力話者コードブックVQ2が作成され
る。
【0094】さらに続いて、話者指定ボタンBT13を
操作し、話者#3の登録モードとして、話者#3(子
供)が前述した登録単語を順次発話する。これにより、
話者#3に対する登録単語の登録データRD3が作成さ
れるとともに、写像関数が作成され、さらに、ユニバー
サルコードブック94でベクトル量子化され、そのユニ
バーサルコードブック94のコード番号による話者#3
の量子化入力話者コードブックVQ3が作成される。
【0095】なお、このとき、登録単語データRD1,
RD2,RD3もこのユニバーサルコードブック94を
用いてベクトル量子化され、以下では、登録単語データ
RD1,RD2,RD3も量子化されたデータであると
する。
【0096】次に認識モードについて説明する。この認
識モードは、この場合、第1〜第3の特定話者群音声モ
デルデータMD1,MD2,MD3、話者#1〜話者#
3用の登録単語データRD1,RD2,RD3、話者#
1〜話者#3用の量子化コードブックVQ1,VQ2,
VQ3のいずれかを、状況に応じて用いて音声認識する
モードである。
【0097】たとえば、モード切替スイッチMSWを認
識モードとした場合、まず、使用する話者がどの話者群
であるかの設定を行う。たとえば、使用する話者がたと
えば話者#3(子供)であれば、話者群Cを指定するた
めの話者群指定ボタンBT3を操作してから音声の入力
を行う。これにより、制御部5では第3の特定話者群音
声モデルデータMD3を用いて音声認識を行う。
【0098】このように、使用する話者によって話者群
の指定操作がなされると、制御部5がそれを判断して、
対応する特定話者群音声モデルデータを用いて音声認識
を行うことができる。
【0099】このように、使用者をある特定の話者群に
絞り、その話者群に属する話者の音声データから作った
特定話者群音声モデルデータを用いて音声認識すること
により、あらゆる話者を想定した大規模な標準話者音声
モデルデータを用いて音声認識を行う場合に比べて、高
い認識率での音声認識が可能となる。また、幾つかの話
者群だけの特定話者群音声モデルデータを持てばよいの
で、音声モデルデータそのものの規模を大幅に小さくす
ることができ、ROM9のメモリサイズを小さくするこ
とができ、また、制御部(CPU)5にかかる処理負担
を小さくすることができる。
【0100】また、話者がどの話者群であるかの判定
は、入力音声を音声分析して得られるピッチ周期情報に
より装置側で自動的に知ることが可能であり、さらに、
入力された音声データと登録単語データとのマッチング
をとることにより得られる類似度を用いて話者がどの話
者群であるかの判定を行う方法もある。なお、ここで
は、ピッチ周期情報のみにより話者群を判定する場合に
ついて述べる。
【0101】つまり、父親、母親、子供の3人の話者で
考えたとき、子供のピッチ周期が最も短く、次に母親が
短く、父親のピッチ周期はこの3人の中では最も長くな
るのが普通であり、そのピッチ周期情報から、その入力
話者が話者#1、話者#2、話者#3のうちのどの話者
であるかを特定することができる。
【0102】このようにして、たとえば、入力話者が話
者#1であると判定された場合には、その話者#1に対
応する登録単語データRD1や、話者学習処理によって
作成された量子化入力話者コードブックVQ1を用いて
音声認識を行う。つまり、話者#1の発話した単語が登
録単語である場合には、話者#1に対応する登録単語デ
ータRD1によって音声認識され、それ以外の単語につ
いては、量子化入力話者コードブックVQ1を用いて音
声認識される。また、登録単語データが作成されてな
く、話者学習処理がなされていない場合には、 特定話
者群音声モデルデータ92を用いて音声認識する。
【0103】なお、本発明では、装置と話者の間で行わ
れる会話の手順として、最初に、話者が前述した登録単
語のうちいずれかの登録単語を発話するようにしてい
る。つまり、装置側では、最初に、単語セットw1に属
する登録単語を認識するような会話手順が設定されてい
る。このように、本発明では、装置側はその時点の動作
場面に応じ、現時点ではどの単語セットの単語を入力す
る場面かを把握している。そして、そのときの場面にて
入力された単語の認識処理を行う。
【0104】したがって、会話の始まりとして、装置に
対し、たとえば、話者#1がまず登録単語の一つとして
の「アラーム」と発話したとすると、その「アラーム」
についての音声分析を行い、それによって得られるピッ
チ周期情報により装置側では話者の特定を行う。この場
合は、入力話者は話者#1であると判定し、入力音声に
対し話者#1用の登録単語データRD1を用いて音声認
識処理することにより、発話された音声が「アラーム」
であったことが認識される。
【0105】このようにして、入力話者が登録単語を入
力することにより、装置側では、その入力話者がどの話
者であるかを判定し、その登録単語についての認識を行
う。そして、それ以降に入力される音声が登録単語以外
の単語(単語セットw1以外の単語)である場合は、話
者判定を行うことなく音声認識動作を行う。
【0106】たとえば、現在の装置側の動作場面が登録
単語を認識する場面であって、この場面において登録単
語の認識処理が終了したあと、次の場面として、単語セ
ットw2やw3などを(単語セットw2とする)認識す
る場面に移るというように設定されていたとすれば、そ
の単語セットw2の認識は、話者適応による音声認識処
理として、話者#1用の量子化コードブックVQ1と第
1の特定話者群コードブックCB1と第1の特定話者群
音声モデルデータMD1(単語セットw2に対応する音
声モデルデータ)を用いて行いての音声認識処理を行
う。
【0107】図4はこれまで説明した話者学習処理を可
能とした音声認識処理の全体的な処理手順を説明するフ
ローチャートである。なお、この図4で示されるフロー
チャートは、話者をある一人の話者に限定した場合の処
理手順を示すものである。
【0108】図4において、まず、認識モードか登録モ
ードかを判定し(ステップs11)、登録モードである
場合には、話者の発話した登録単語に対する音声入力を
行い(ステップs12)、音声入力があるか否かを判断
し(ステップs13)、音声入力があれば、入力された
音声の音声分析を行い(ステップs14)、入力音声デ
ータを登録単語データとして登録する(ステップs1
5)。
【0109】そして、登録すべき単語についての音声デ
ータの入力が終了したか否かを判断し(ステップs1
6)、終了していれば、入力された音声に対する音声デ
ータがどの話者群に属するかを判断し(ステップs1
7)、前述したような話者学習処理(入力話者コードブ
ックを作成し、最終的には量子化コードブックの作成)
を行う(ステップs18)。
【0110】一方、ステップs11において認識モード
であると判定した場合には、話者の発話した音声入力を
行い(ステップs19)、音声入力があるか否かを判断
し(ステップs20)、音声入力があれば、入力された
音声の音声区間を検出して音声分析を行う(ステップs
21)。
【0111】そして、話者学習処理が行われているか否
かを判定し(ステップs22)、話者学習処理が行われ
ていなければ不特定話者音声認識(この実施の形態では
特定話者群音声モデルデータ92(このときの入力話者
に対応して用意された特定話者群音声モデルデータであ
り、入力話者が話者#1であれば第1の特定話者群音声
モデルデータ)よる音声認識処理を行い(ステップs2
3)、話者学習処理が行われていればステップs24以
降の処理を行う。
【0112】ステップs24では入力された音声に対す
る音声データが登録単語データであるか否かを判定し、
登録単語データである場合には登録型の音声認識処理と
してここでは登録単語データ101(このときの入力話
者の音声により作成された登録単語データであり、入力
話者が話者#1であれば話者#1用の登録単語データR
D1)を使用しての音声認識処理を行う(ステップs2
5)。
【0113】また、登録単語データでない場合には話者
適応型の音声認識処理として、ここでは当該入力話者の
音声に基づいて作成された量子化コードブック(入力話
者が話者#1であれば話者#1用の量子化コードブック
VQ1)と特定話者群コードブック(入力話者が話者#
1であれば第1の特定話者群コードブックCB1)と特
定話者群音声モデルデータ(入力話者が話者#1であれ
ば第1の特定話者群音声モデルデータMD1)を使用し
ての音声認識処理を行う(ステップs26)。
【0114】ところで、この装置の場合、認識可能な単
語は、前述したように、単語セットw1,w2,w3と
いうように複数の単語セットからなり、前述したよう
に、装置側では、現在、どの単語セットが入力される場
面であるかを把握している。たとえば、単語セットw1
(登録単語)を入力する場面が終わって、現在は、単語
セットw2(「1時」、「2時」など時の単位)を入力
する場面であるというように、現在、どのような場面で
あるかを把握している。
【0115】したがって、前述のステップs24におい
て、入力された音声に対する音声データが登録単語デー
タであるか否かの判定は、現在、どのような場面である
かにより、登録単語が入力される場面であれば、入力さ
れる単語データは登録単語データであるとして、それに
対応した処理を行う。
【0116】そして、このように音声認識処理が終了す
るとその認識結果に基づく所定の処理を行う(ステップ
s27)。
【0117】なお、図4で示した処理はある特定の一人
の話者についての処理であったが、たとえば、前述した
ように話者#1、話者#2、話者#3というように複数
の話者が存在する場合には、図5のフローチャートで示
されるように、登録モード時においては、音声入力のス
テップs1の前段に話者指定(たとえば、話者#1、話
者#2、話者#3の指定)を行うステップs28を追加
する。したがって、この場合は、登録単語データは、図
1に示されるように、話者#1〜#3用の登録単語デー
タRD1,RD2,RD3が作成され、量子化コードブ
ックも話者#1〜#3用の量子化コードブックVQ1,
VQ2,VQ3が作成される。
【0118】一方、認識モード時においては、ステップ
s21の音声分析処理の後段に、入力話者がたとえば、
話者#1、話者#2、話者#3のどの話者であるかを判
定する話者判定処理(ステップs29)を追加する。
【0119】そして、このときの音声認識処理は、登録
単語の場合には、話者#1、話者#2、話者#3の音声
データを基に作成された話者#1、話者#2、話者#3
用の登録単語データRD1,RD2,RD3のいずれか
を用いて音声認識し、登録単語でない場合には、話者#
1用の量子化コードブックVQ1と第1の特定話者群コ
ードブックCB1と第1の特定話者群音声モデルデータ
MD1、話者#2用の量子化コードブックVQ2と第2
の特定話者群コードブックCB2と第2の特定話者群音
声モデルデータMD2、話者#3用の量子化コードブッ
クVQ3と第3の特定話者群コードブックCB3と第3
の特定話者群音声モデルデータMD3のいずれかの組を
用いて音声認識する。
【0120】なお、以上説明した認識モードにおける処
理は、登録単語を登録した場合の処理であるが、登録単
語の登録を行わない状態でも同様に認識処理が可能とな
る。この場合は、登録単語データRD101が作成され
ないので、特定話者群音声モデルデータ92を使用して
の音声認識となる。
【0121】次に、アラーム時刻の設定を行う際の装置
と話者との会話例を、図6の状態遷移図を参照しながら
説明する。なお、図6において、括弧内の発話内容は装
置を使用する話者の発話する内容である。まず、装置側
からは、「アラーム時刻を、午前、7時、30分という
ように発話して下さい」というように、発話する内容の
一例を挙げて話者に発話を促す(ステップs31)。こ
れにより、話者(ここでは話者#1)が、設定したい時
刻として「午前」、「1時」、「20分」と発話したと
する(ステップs32)。
【0122】ここでの発話内容は、「午前」、「1
時」、「20分」というように、3つの単語を1つのセ
ットとして、各単語間にわずかな間をおいて連続的な発
話がなされる。そして、装置側では、それぞれの単語に
ついて連続的に音声認識を行う。その認識結果として、
装置側から、「午前、1時、20分ですか? ハイかイ
イエで答えて下さい」というように応答する(ステップ
s33)。
【0123】この認識結果が正しければ、話者#1は
「はい」と応答し(ステップs34)、装置側からは、
「アラーム時刻を午前1時20分にセットしました」と
いうような発話内容を発する(ステップs35)。一
方、認識結果が間違っていれば、話者#1は「いいえ」
と応答し(ステップs36)、装置側からは、「それで
は順番に聞きます」というような内容の発話を行う(ス
テップs37)。
【0124】そして、まず、「午前ですか?」というよ
うに「午前」か「午後」かを確かめる内容を発話する
(ステップs38)。
【0125】それに対して、話者#1は、午前でよけれ
ば、「はい」と応答し(ステップs39)、間違ってい
れば(午前でなければ)、「いいえ」と応答する(ステ
ップs40)。この「午前」と「午後」の場合は、二者
択一であるので、もし、話者#1側の応答が「いいえ」
であった場合には、もう一方の単語で確定することがで
きる。つまり、装置側による最初の問いかけが「午前」
であって、話者側が「いいえ」と応答した場合には、
「午後」が確定される。
【0126】なお、「午前」と「午後」の他に、たとえ
ば、「正午」が加わって、「午前」、「午後」、「正
午」の3つのうち、いずれかを確定する場合に、たとえ
ば、装置側「午前ですか」、話者側「いいえ」、装置側
「午後ですか」、話者側「いいえ」となって、「正午」
が確定されることになる。このように、3単語程度であ
れば、話者側からの「はい」または「いいえ」の応答を
2〜3回繰り返すことで、短時間に所望の単語の確定を
行うことができる。
【0127】このようにして、「午前」か「午後」かの
確定が行われると、次に、「時」の単位の確定を行う。
この場合、話者#1の入力した単語は「1時」である。
これに対して、装置側から、たとえば、「1時」に対す
る認識候補の第1位から第n位までのうち、ステップs
41にて第1位候補として「1時ですか」が発話された
とすれば、話者#1は「はい」と応答し(ステップs4
2)、「1時」が確定し、分の単位の確認処理(ステッ
プs51)に入る。
【0128】しかし、ステップs41にて装置側から第
1位候補として、たとえば、「7時」が出力されたとす
れば、話者#1は「いいえ」と応答する(ステップs4
3)。これにより、装置側から、第2位候補が出力され
(ステップs44)、その第2位候補として、たとえ
ば、「8時」が出力されたとすると、それが正しけれ
ば、話者#1は「はい」と応答し(ステップs45)、
間違っていれば、「いいえ」と応答する(ステップs4
6)。
【0129】ここでは、「いいえ」であるので、さら
に、装置側からは第3位候補として、たとえば、「1
時」が出力されたとする(ステップs47)。それが正
しければ、話者#1は「はい」と応答し(ステップs4
8)、間違っていれば、「いいえ」と応答する(ステッ
プs49)。ここでは、話者#1は「はい」と応答する
ので、その時点で「1時」が確定し、分の単位の確認処
理(ステップs51)に入る。
【0130】また、もし、第3位候補でも、「いいえ」
であった場合には、装置側から話者#1に対して、たと
えば、「もう一度、何時か言ってください」というよう
に、再度、「時」の単位の音声入力を促すようにする
(ステップs50)。これによって、話者#1は再度、
時の単位の発話(この場合「1時」)を行い、ステップ
41に戻る。
【0131】なお、再度、「時」の単位について音声入
力を行ってそれを認識するとき、すでに、「いいえ」で
否定された単語(前述の場合、「7時」、「8時」な
ど)は、認識候補から外すようにする。
【0132】また、「分」の単位についても「時」の単
位で説明したステップs31〜s50と同様の処理にて
行うことができる。そして、最終的に確定したら、装置
側からは「アラーム時刻を午前1時20分にセットしま
した」というような発話がなされる(ステップs3
5)。
【0133】このような処理は、アラーム設定だけでは
なく、現在時刻の設定も同様の処理で行える。
【0134】なお、前述の処理のなかで第1候補が話者
によって否定された場合、装置側からは、第2候補、第
3候補、・・・というように認識候補順に発話するので
はなく、たとえば、「1時」が否定された場合には、
「2時」、「3時」、・・・というように認識候補順と
は無関係に時刻を表す数字の順番に従って発話すること
もできる。
【0135】このような処理を行うことにより、時刻設
定などを行う際、話者は「午前」、「何時」、「何分」
を1まとまりの音声として連続的に発話することがで
き、これにより、時刻設定のための音声入力操作が簡単
なものとなる。しかも、これらの一連の音声が正しく音
声認識されれば、その時点で時刻設定が終了し、もし、
間違っていた場合は、一つ一つの単語ごとに正否を確か
めながら、正しく認識されるまで、認識動作が行われる
ので、最終的には確実に正しい時刻の設定が行え、利便
性と確実性の両方を兼ね備えた時刻設定が行える。
【0136】このような連続した単語を認識する処理
は、時刻だけではなく、複数の単語から構成されていて
それぞれの単語間にわずかな間をおいて連続的に発話さ
れるような音声を認識する場合に広く適用できる。
【0137】図7は、複数の単語として第1番目〜第n
番目までのn個の単語から構成され、それぞれの単語間
にわずかな間をおいて連続的に発話されるような音声を
認識(ここでは連続単語認識という)する際の処理手順
を説明するフローチャートである。この図7に示す処理
手順について簡単に説明する。なお、ここでは、n個か
らなる連続単語として、3つの単語(第1番目の単語、
第2番目の単語、第3番目の単語という)から構成され
ているものとする。また、これら第1番目の単語、第2
番目の単語、第3番目の単語それぞれの認識を行う際、
認識候補は第m位までの認識候補を出力するが、ここで
は、mは1から3までの値をとるものとする。
【0138】図7において、まず、話者の発話した複数
の単語からなる連続単語について認識を行う(ステップ
s61)。そして、認識結果を出力し(ステップs6
2)、その認識結果に対する話者からの「はい」または
「いいえ」の認識を行う(ステップs63)。ここで、
話者の応答が「はい」であれば(ステップs64)、そ
の認識結果を連続単語全体として確定し(ステップs6
5)、その時点で認識処理は終了する。
【0139】一方、話者の応答が「いいえ」であれば、
第1番目の単語の認識処理に入る。この第1番目の単語
の認識処理は、まず、第m位候補(ここではm=1)を
出力し(ステップs66)、それに対する話者の「は
い」または「いいえ」を認識する(ステップs67)。
ここで、話者の応答が「はい」であれば(ステップs6
8)、その第1位候補を第1番目の単語として確定し
(ステップs69)、第2番目の単語についての処理に
入る(ステップs70)。
【0140】一方、話者の応答が「いいえ」であれば、
mが設定値(この場合は、設定値はm=3)であるか否
かを判断する(ステップs71)。ここでは、まだ、設
定値でないので、ステップs66に処理が戻り、今度
は、m=2として第2位の候補を出力する。
【0141】そして、それに対する話者の「はい」また
は「いいえ」を認識する(ステップs67)。ここで、
話者の応答が「はい」であれば(ステップs68)、第
2位候補を第1番目の単語として確定し(ステップs6
9)、第2番目の単語についての処理に入る(ステップ
s70)。また、話者の応答が「いいえ」であれば、ス
テップs71の判断を行う。
【0142】このように、話者の応答が「はい」であれ
ばその時点における認識候補によって第1番目の単語が
確定されるが、話者の応答が「いいえ」であれば、次の
認識候補について同様の処理を行う。そして、この場
合、第3位の候補でも正しく認識されなかった場合は、
その第1番目の単語をもう一度発話してもらうように話
者に対して要求する(ステップs72)。そして、話者
が、再度、その第1番目の単語を発話した内容につい
て、同様の動作を繰り返す。
【0143】なお、前述の図6の例で説明したように、
話者が再度、第1番目の単語を発話してその音声入力を
行い、それを認識するとき、すでに、「いいえ」で否定
された単語は、認識候補から外すようにする。
【0144】このようにして、第1番目の単語について
の認識処理が終了すると、次は、第2番目の単語につい
ての認識処理(ステップs70)に入り、この第2番目
の単語についての認識処理が終了すると、次は、第3番
目の単語についての認識処理(ステップs73)に入
る。なお、これら、第2番目と第3番目の単語について
の認識処理は、第1番目の単語の認識処理と同様である
ので、その説明は省略する。
【0145】ところで、以上のような音声入力操作を行
う際、話者と装置側の音声入力部(マイクロホン)との
距離は、認識性能という面から考えると重要な要素とな
る。そこで、この実施の形態では、話者の音声入力操作
の状況に応じて、音声入力部の音声入力ゲイン、つま
り、マイクアンプ2の音声入力ゲインを切り替える制御
を行う。この制御は、前述した各種処理の制御とともに
制御部5で行う。以下、これについて説明する。
【0146】このマイクアンプ2の音声入力ゲイン(以
下では、単にゲインという)制御は、音声入力を行う場
面がどのような場面であるかを判断して、その場面に応
じてゲインを大きくしたり小さくしたりする制御であ
る。
【0147】たとえば、装置が動作をなす上で特に高い
認識率を要求される音声が入力される場面か、それ以外
の音声の入力される場面かを判断して、装置が動作をな
す上で特に高い認識率を要求される音声が入力される場
面である場合には、それ以外の音声が入力される場面に
比べて、音声入力ゲインを小さくするというような制御
を行う。
【0148】具体的には、音声の特徴量が複数の単語間
で相互に類似していて誤認識されやすい単語に対する音
声が入力される場面、単語登録を行う場面、話者学習を
行う場面などが考えられ、このような場面では、音声入
力ゲインを小さくするような制御を行う。
【0149】誤認識されやすい単語に対する音声が入力
される場面というのは、この装置の場合、アラーム時刻
や現在時刻の設定時において、時刻入力(午前、何時、
何分)を行う場面が考えられる。このような時刻設定
は、たとえば、「1時」と「7時」などのように、音声
の特徴量が類似していて誤認識され易い音声が多く、し
かも、時刻設定は正確になされることが要求される。
【0150】したがって、このような音声入力を行う際
は、マイクアンプ2のゲインを小さくして、話者にマイ
クに近づいて発話してもらう。
【0151】一方、装置に対して呼びかけを行ったりす
る場面では、ゲインを大きくして、話者が装置から離れ
たところから音声の入力を可能とする。これは、装置に
対して少し距離を置いた状態で、装置との会話を行うよ
うな場合に便利なものとするためである。
【0152】このゲインを大きくする場面は、たとえ
ば、「おはよう」、「ただいま」、「おやすみ」、「何
時」、「アラーム」といった登録されている単語(単語
セットw1に属する単語)などを入力するような場面で
あり、このような場面において入力されるこの種の単語
は、前述の時刻情報(単語セットw2やw1)に比べる
と、同じ単語セットw1に属する他の単語間で誤認識さ
れにくく、認識対象単語数も、この場合、数単語である
ためそれほど多くはない。また、装置に対して気軽に呼
びかけるような内容であることから、ゲインを高くして
装置から離れた位置からでも入力できる法が好ましいも
のとなる。
【0153】このように、どのような単語が入力される
場面であるかによって、それに適した音声入力ゲインを
設定する。
【0154】前述したように、誤認識されやすい単語に
対する音声が入力される場面、単語登録を行う場面、話
者学習を行う場面などでは、マイクアンプ2のゲインを
小さくし、話者にマイクロホン1の近くで発話させるこ
とによって、話者の口元とマイクロホン1の距離は、話
者によってあまり大きくは変化しないで、ほぼ同じよう
な距離となることが多い。これにより、S/N比がよく
なるとともに、ダイナミックレンジが小さくなり、この
状況での発話内容は高い認識率で認識される。
【0155】このように、音声入力を行うときの状況に
よって、マイクアンプ2のゲインを制御し、それに応じ
た音声入力を行うようにするために、装置側から何らか
の通知を行う。その通知内容としては、たとえば、「も
う少しマイクロホンに近づいて話して下さい」とか「も
う少し大きな声で話して下さい」、あるいは、「もう少
し小さな声で話して下さい」といった内容であり、これ
らの内容を装置側から出力するようにする。
【0156】制御部5は、現在の音声入力がどのような
状況での音声入力であるか(たとえば、話者が単に装置
に呼びかけを行っているのか、登録単語を入力している
のか、時刻設定を行っているのかなど)を把握すること
ができるので、それに応じて、マイクアンプ2のゲイン
を切り替え制御するとともに、話者に対してマイクアン
プ2のゲインに応じた発話を行わせるような内容を出力
することが可能となる。
【0157】たとえば、誤認識されやすい単語に対する
音声が入力される場面、単語登録を行う場面、話者学習
を行う場面などでは、マイクアンプ2のゲインを小さく
するとともに、装置側から、「もう少しマイクロホンに
近づいて話して下さい」といった内容を出力する。これ
により、話者は自然にマイクロホンに近づいて発話する
ようになり、これによってS/N比が良くなるととも
に、ダイナミックレンジが小さくなるので、認識性能を
高めることができる。
【0158】図8は以上説明した話者の音声入力操作の
状況に応じてマイクアンプ2のゲインを切り替える制御
を行う例を説明するフローチャートであり、ここでは、
前述の図4の処理を行う際にゲインを切り替える例につ
いて説明する。
【0159】図8において、認識モードであるか登録モ
ードであるかの判定を行う(ステップs81)。この判
定において、登録モードである場合、マイクアンプ2の
ゲインを小さくするようにゲイン切り替えを行い(ステ
ップs82)、切り替えられたゲインによって音声入力
を行う(ステップs83)。この音声入力を行うステッ
プs83から話者学習処理までのステップs89は、図
4の音声入力を行うステップs12から話者学習処理ま
でのステップs18と同じであるので、ここではその説
明は省略する。
【0160】一方、認識モードである場合には、場面に
応じてマイクアンプ2のゲインを切り替える。その切り
替えは、音声入力を行う場面がゲインを大きくする場面
であるか否かを判定し(ステップs90)、ゲインを大
きくする場面であれば、マイクアンプ2のゲインを大き
くするようにゲイン切り替えを行い(ステップs9
1)、ゲインを小さくする場面であれば、マイクアンプ
2のゲインを小さくするようにゲイン切り替えを行う
(ステップs92)。
【0161】なお、ステップs90におけるゲインを大
きくする場面というのは、前述したように、呼びかけを
行うような音声入力を行う場面であり、これに対して、
ゲインを小さくする場面というのは、登録単語を入力す
る際や、アラーム時刻や現在時刻の設定時において、時
刻入力(午前、何時、何分)を行うような誤認識される
可能性が高かったり、特に高い認識率を得ようとする場
合などである。
【0162】そして、このように、そのときの場面に応
じてゲインの設定を行って音声入力を行う(ステップs
93)。この音声入力(ステップs93)から所定の処
理(ステップs101)までは、図4の音声入力(ステ
ップs19)から所定の処理(ステップ27)までと同
じであるので、ここではその説明は省略する。
【0163】また、このような音声によるコマンドを装
置が受け付けて、そのコマンドに応じた動作を行うもの
にあって、個々の話者の声質や話し方の特徴によって良
好に認識される話者と認識率が低い話者が存在すること
が多い。
【0164】このように、特に認識率の悪い話者のため
に、装置側からは質問形式の発話内容を出力し、話者は
それを聞いて、肯定する場合は肯定を意味するボタンを
操作し、否定する場合は否定を意味するボタンを操作す
ることにより、「はい」または「いいえ」を認識させる
のと同等の動作を行うことを可能とする。
【0165】すなわち、話者が装置に対して設定したい
情報(設定情報という)に対し、装置側から質問形式で
その設定情報としての候補を1つ1つ順番に出力し、1
つの候補が出力される都度、出力された候補について肯
定を意味するボタンまたは否定を意味するボタンのいず
れかのボタン入力を受け付け、肯定を意味するボタン入
力を受け付けたときは、当該候補を前記設定情報として
確定し、否定を意味するボタン入力を受け付けたとき
は、次の候補を出力する。
【0166】このボタン操作による肯定または否定の入
力を可能とするのは、認識率の悪い話者に対しての助け
とするためであり、これをここではヘルプモードとい
う。以下、このヘルプモードについて説明する。
【0167】装置側の操作部11には、肯定を意味する
肯定ボタンBT21と否定を意味する否定ボタンBT2
2を設ける。つまり、話者によって肯定ボタンBT21
が押されると、制御部5では肯定であると判断し、否定
ボタンBT22が押されると制御部5では否定であると
判断する。
【0168】そして、ヘルプモードとするには、これま
で説明してきた通常の認識モードにおいて、たとえば、
肯定ボタンBT21と否定ボタンBT22が同時に数秒
(2秒程度)以上押されることにより、制御部5がそれ
を検出してヘルプモードの設定がなされたと判定し、ヘ
ルプモードへの移行を行う。なお、このヘルプモードへ
の移行は、肯定ボタンBT21と否定ボタンBT22が
同時に数秒以上押されるという条件に限られるものでは
なく、他の方法でもよい。
【0169】このようにして、ヘルプモードに入ると、
装置側では音声認識動作は行わず、話者によって、肯定
ボタンBT21か否定ボタンBT22のいずれかが押さ
れたことを検知して、それに応じて処理を進行して行
く。
【0170】図9はこのヘルプモードを備えた場合の認
識処理を説明するフローチャートである。図9におい
て、M1は通常の認識モード時における処理手順、M2
はヘルプモード時における処理手順であり、通常の認識
モードM1からヘルプモードM2への移行は肯定ボタン
BT21と否定ボタンBT22が同時に数秒(2秒程
度)以上押されるボタン割り込み(ステップs110)
によって移行する。なお、この図9に示される通常の認
識モードM1における音声入力(ステップs121)か
ら所定の処理(ステップs127)まで処理は、図2で
示したステップs1〜s7までの処理と同様であるので
ここではその説明は省略する。
【0171】今、通常の認識モードにより認識を行って
いるとし、この通常の認識モードにおいて、肯定ボタン
BT21と否定ボタンBT22による割り込みが発生し
たとする(ステップs110)。
【0172】これにより、ヘルプモードの設定がなされ
たか否かを判断し(ステップs111)、ヘルプモード
の設定であれば、ヘルプモードであることを話者に通知
する(ステップs112)。なお、ステップs112に
よるヘルプモードの設定か否かは、ここでは、肯定ボタ
ンBT21と否定ボタンBT22が同時に数秒(2秒程
度)以上押されたか否かによって判断する。
【0173】このようにして、ヘルプモードM2への移
行がなされると、肯定ボタンBT21または否定ボタン
BT22の入力待ち状態となり(ステップs113)、
肯定ボタンBT21または否定ボタンBT22のいずれ
かが押されたか否かを判断し(ステップs114)、押
されたボタンが肯定ボタンBT21または否定ボタンB
T22のいずれかであるか、あるいは、押された状態が
どの程度継続しているかなどの判断を行い(ステップs
115)、それに対する所定の処理を行う(ステップs
116)。
【0174】たとえば、話者が装置に対して設定したい
情報としての候補を、それでよいかどうかを話者に問い
かける質問形式で装置側から1つ1つ出力し、1つの候
補が出力される都度、出力された候補について肯定ボタ
ンBT21または否定ボタンBT22のいずれかのボタ
ン入力を受け付け、肯定ボタンBT21の入力を受け付
けたときは、当該候補を前記設定情報として確定し、否
定ボタンBT22の入力を受け付けたときは、次の候補
を出力する。なお、この具体的な処理内容についてはの
ちに説明する。
【0175】そして、ヘルプモードが終了かどうかを判
断し(ステップs117)、終了していなければステッ
プs113に戻り、終了していれば、通常の認識モード
M1に戻る。
【0176】以下に具体的な操作例について図10の状
態遷移図を参照しながら説明する。なお、図10におい
て、括弧内の操作は話者の行う操作である。
【0177】装置側からは、まず、「ヘルプモードとな
りました」というように、ヘルプモードとなったことを
話者に知らせる(ステップs131)。つづいて、装置
側からは、「現在時刻の設定ですか」というように、話
者が装置に対して設定したい情報を発話する(ステップ
s132)。この発話内容を話者が肯定する場合は、肯
定ボタンBT21を押し(ステップs133)、それに
よって、現在時刻設定モードに入る(ステップs13
4)。
【0178】また、現在時刻設定でなければ、否定ボタ
ンBT22を押す(ステップs135)。これにより、
装置側からは、「アラーム時刻の設定ですか」というよ
うな内容を発話する(ステップs136)。この発話内
容を話者が肯定する場合は、肯定ボタンBT21を押し
(ステップs137)、それによって、アラーム時刻設
定モードに入る(ステップs138)。また、アラーム
時刻設定でなければ、否定ボタンBT22を押す(ステ
ップs139)。
【0179】このように、装置側からの1つ1つの質問
について、話者は「はい」または「いいえ」と応答する
代わりに、肯定ボタンBT21または否定ボタンBT2
2を押す。これにより、装置側では、そのボタン操作に
応じて処理を進めて行く。質問内容は、以上の2つだけ
ではなく、その他にも、たとえば、「登録単語入力を行
いますか」などがあるが、この図10ではこれらの処理
についての図示は省略されている。
【0180】また、肯定ボタンBT21と否定ボタンB
T22を誤って操作したときは、肯定ボタンBT21と
否定ボタンBT22を瞬間的に同時操作することによっ
て、1つ前の質問に戻れるようにする。
【0181】前述した現在時刻設定モード(ステップs
134)について簡単に説明する。肯定ボタンBT21
または否定ボタンBT22を用いての現在時刻設定は、
まず、装置側から、「午前」か否かを質問する。これに
対して、話者が肯定ボタンBT21を押せば午前が確定
し、否定ボタンBT22を押せば「午後」が確定する。
【0182】午前または午後が確定した後は、装置側か
らは、まず、「1時ですか」と質問し、話者の設定した
い時刻の時間の単位が「1時」であれば、肯定ボタンB
T21を押し、これにより、1時が確定する。また、1
時でなければ否定ボタンBT22を押す。これにより、
装置側から「2時ですか」と質問し、話者の設定したい
時刻の時間の単位が「2時」であれば、肯定ボタンBT
21を押し、これにより、2時が確定する。また、2時
でなければ否定ボタンBT22を押す。
【0183】このような手順は時間の単位が確定するま
で行われる。そして、時間の単位が確定すると、次に、
分の単位の処理に入る。
【0184】分の単位の動作も基本的には、前述した時
の単位の動作と同じであるのでここではその説明は省略
する。ただし、分の単位は、1分から始まって1分刻み
に59分まですべて発話するのは操作が面倒であるし、
多くの時間がかかる。特に、話者の設定したい分単位に
時刻が分台の終わりの方(たとえば、59分)である
と、多くの時間がかかる。
【0185】そこで、分の単位の設定モード時おいて
は、否定ボタンBT22が押され続けた場合には、装置
側からは、たとえば、「10分」、(1秒おいて)、
「20分」、(1秒おいて)、「30分」、・・・とい
うように、1秒ごとに、10分単位で音声出力し、装置
側から「50分」と発話したところで、話者が否定ボタ
ンBT22の操作をやめると50分を基点に、通常の動
作に戻り、装置側が「51分」と発話すると、否定ボタ
ンBT22を押して、次に「52分」と発話すると、否
定ボタンBT22を押すという動作を行って、「59
分」で肯定ボタンBT21を押して、59分を設定する
というような設定方法としてもよい。
【0186】以上のように、時刻設定は、設定に多くの
時間を要する場合もあり、少しでも設定に要する時間を
短縮するために、装置側から音声の出力中にも肯定ボタ
ンBT21、否定ボタンBT22の入力を受け付けるよ
うにする。その他、使い勝手をよくするために、肯定ボ
タンBT21、否定ボタンBT22の押し方(連続押
し、同時押しなど)でそれに対応した機能をなすような
設定としておき、装置側から、音声による使い方の説明
などを行うようにすることもできる。
【0187】このように、話者が装置に対して設定した
い情報(設定情報)を発話したときその設定情報が装置
側で正しく認識されない場合には、ヘルプモードの設定
を可能とすることによって、装置側から質問形式で前記
設定情報としての候補を1つ1つ順番に出力し、1つの
候補が出力される都度、肯定ボタンBT21の入力を受
け付けたときは、当該候補を前記設定情報として確定
し、否定ボタンBT22の入力を受け付けたときは、次
の候補を出力することで、話者が装置に対して設定した
い情報をボタン操作で設定することができる。
【0188】これにより、個々の話者の声質や話し方の
特徴によって良好に認識されない場合でも、時刻設定な
どある程度の情報設定は十分可能となる。また、話すこ
とが不自由な人でも時刻設定などを容易に行うことがで
きる。
【0189】ところで、これまで説明したこの実施の形
態における音声時計装置は、現在時刻が話者の設定した
アラーム時刻になったとき、話者が鳴り止めを行うま
で、装置側からは現在時刻を出力し続けるようにする。
たとえば、設定されたアラームが、午前1時20分であ
るとし、その時刻に到達すると、装置側からは、「午前
1時20分です」と発話し、その1分経過後に、「午前
1時21分です」と発話し、さらに、1分経過後に、
「午前1時22分です」というように、1分刻みで現在
時刻を発話する。これを話者が鳴り止め操作を行うまで
続ける。なお、1分刻みでなくてもよく、たとえば10
秒ごとに現在時刻を発話するようにしてもよい。
【0190】さらに、このアラームを発するとき、時刻
だけではなく「早くおきなさい」といった言葉や、言葉
と音楽を合成して出力することも可能である。
【0191】また、話者からの鳴り止め操作としては、
装置から前述したような時刻の発話があったあと、話者
が何らかの音声を発することにより行う方法や、ボタン
を操作する方法などがある。
【0192】話者が何らかの音声を発することにより鳴
り止めさせるには、話者の入力した音声のレベルが一定
以上あり、しかも、その一定以上のレベルが一定の長さ
の場合に鳴り止めとする。なお、このときは、音声認識
は行わない。また、これとは別に、話者が予め決めたあ
る特定の単語を発話し、それを装置側で認識した場合に
のみ鳴り止めとするということもできる。また、音声を
入力する代わりにボタン操作で鳴り止めを行う際は、専
用のボタンを設けることも可能であるが、前述した肯定
ボタンBT21や否定ボタンBT22で代用することも
できる。
【0193】さらに、音量調節スイッチVSWが設けら
れている場合には、その音量調節スイッチVSWをオフ
とすることによって鳴り止めとすることもできる。
【0194】この音量調節スイッチVSWは、装置側か
らの出力音声の音量を調整するスイッチであり、操作部
11によってこの音量調節スイッチVSWを調節するこ
とにより音声出力用アンプ7が制御され、出力音声の大
きさを設定できる。この音量調節の具体例としては、た
とえば、出力音声を「大」、「中」、「小」というよう
に切替設定することが可能であり、さらに、音声の全く
出ない状態とする「オフ」とすることもできるようにな
っている。
【0195】このような音声認識機能を有した装置を家
庭内で使用する場合、テレビジョンから発せられる音
声、家庭内の人間の会話などにより、音声時計がいちい
ち反応して、不用意に音声を発するのを防止する役目を
果たしている。なお、音量調節スイッチVSWをオフし
た場合、消費電力を少なくするために、アンプなど周辺
回路への電源供給を停止して、制御部(CPU)5をス
リープ状態とする。そして、音量調節スイッチVSWが
オンとなると、CPU割り込みでCPUを動作させ、周
辺回路への電力供給を行う。
【0196】さらに、本発明の実施の形態では、話者の
入力する音声に対する応答内容は、複数用意し、それを
ランダムに変えて出力することも可能としている。これ
は、ユーザを飽きさせないための配慮であり、たとえ
ば、、話者が「おはよう」と入力したときの装置側から
の応答内容を複数用意しておき、「おはよう」に対する
複数の応答内容のなかからランダムに応答内容を選択し
て出力するようにする。
【0197】これにより、ユーザはその装置を長期間使
用していても飽きることが少なくなる。
【0198】なお、本発明は以上説明した実施の形態に
限定されるものではなく、本発明の要旨を逸脱しない範
囲で種々変形実施可能となるものである。
【0199】その1つとして、認識可能な複数の単語の
うち、幾つかの単語を登録単語として選び、それぞれの
登録単語を認識対象話者が発話し、その音声データから
各登録単語ごとの登録単語データを作成して保存し、前
記認識対象話者から当該登録単語が発話された場合に
は、当該登録単語データを用いて音声認識し、それ以外
の認識可能な単語が発話された場合には、前記標準話者
音声モデルデータを用いて音声認識する処理を実現する
際、前述の実施の形態では、図1に示すように、前記認
識対象話者を、年齢や性別などに基づいて予め設定した
範囲に絞り込み、当該範囲に属する不特定多数話者の音
声データから特定話者群音声モデルデータ92(第1〜
第3の特定話者群音声モデルデータMD1,MC2,M
D3からなっている)を作成して、それを前記標準話者
音声モデルデータとして保存した場合の例で説明した
が、これに限られることなく、図11に示すように、従
来から用いられているあらゆる範囲の話者に対応できる
標準話者音声モデルデータそのものを用いた場合にも適
用できる。
【0200】この図11の例で示される標準話者音声モ
デルデータ95は、前述したように、特定話者群に対応
した音声モデルデータではなく、あらゆる範囲の話者に
対応できる標準話者音声モデルデータである。これに伴
い、図1で示された第1〜第3の特定話者群コードブッ
クCB1,CB2,CB3も、この場合は、標準話者音
声モデルデータ95に基づいて作成された標準話者コー
ドブック96となる。
【0201】その他の処理手順については図1の場合と
同じであるので、ここではその説明は省略する。
【0202】このような構成であっても、本発明が行お
うとする基本的な処理は可能となる。すなわち、認識可
能な複数の単語のうち、幾つかの単語を登録単語として
選び、それぞれの登録単語を認識対象話者が発話し、そ
の音声データから各登録単語ごとの登録単語データRD
1,RD2,RD3を作成してRAM10に保存し、前
記認識対象話者から当該登録単語が発話された場合に
は、当該登録単語データRD1,RD2,RD3を用い
て音声認識し、それ以外の認識可能な単語が発話された
場合には、前記標準話者音声モデルデータ95を用いて
音声認識する。
【0203】また、前述の実施の形態で示した音声時計
は、前述の実施の形態で説明したような様々な機能を有
したものとすることも勿論可能であるが、これらの機能
は、すべて必要なものではない。したがって、操作部1
1に設けられる各種のスイッチや操作用のボタンなど
も、その機能を働かせるに必要なボタンのみを設ければ
よい。また、前述の実施の形態で説明した各種処理内容
は、実施の形態で説明された内容に限られるものではな
い。たとえば、話者学習処理としては、前述の実施の形
態では、ユニバーサルコードブック94を用いて量子化
コードブックVQ1,VQ2,VQ3を作成し、認識時
にはこの量子化コードブックを用いて話者適応するよう
にしたが、これに限らず、登録単語データRD1,RD
2,RD3と第1〜第3の特定話者群者音声モデルデー
タMD1,MD2.MD3から作成した写像関数を用い
て話者適応することもでき、また、この写像関数と第1
〜第3の特定話者群コードブックCB1,CB2,CB
3により作成された入力話者コードブック(ユニバーサ
ルコードブック94を用いてベクトル量子化する前のコ
ードブック)を用いて話者適応することも可能である。
【0204】さらに、前述の実施の形態では、複数の話
者群に属する話者(話者#1、#2、#3)が1つの装
置を使用することを想定した例であるため、特定話者群
音声モデルデータもそれに対応して第1〜第3の特定話
者群音声モデルデータMD1,MD2.MD3を設けた
が、装置の種類によっては、使用者をある1つの話者群
に属する話者(たとえば子供)のみを対象とできる場合
もあり、このような場合には、特定話者群音声モデルデ
ータもそれに対応して1つの特定話者群音声モデルデー
タのみを持てばよく、これによれば、ROM9の容量を
より一層小さくすることができ、制御部5の処理能力も
小さいもので済み、その他、RAM10の容量も小さい
もの出よく、装置全体のコストを大幅に小さく押さえる
ことが可能となる。
【0205】さらに、前述の実施に形態では、各種のモ
ード設定などを操作部に設けられた各種ボタンによって
行う例を示したが、ボタンは全く設けずに、全て音声に
よって設定可能とすることもできる。
【0206】また、以上説明した本発明の処理を行う処
理プログラムは、フロッピィディスク、光ディスク、ハ
ードディスクなどの記録媒体に記録させておくことがで
き、本発明はその記録媒体をも含むものである。また、
ネットワークから処理プログラムを得るようにしてもよ
い。
【0207】
【発明の効果】以上説明したように本発明では、予め用
意された認識可能な複数の単語のうち、幾つかの単語を
登録単語として選び、それぞれの登録単語を認識対象と
なる話者が発話し、その音声データから各登録単語ごと
の登録単語データを作成して保存するようにしている。
特に、登録単語として使用頻度の高い単語を選ぶことに
より、これらの単語に対しての認識性能を向上させるこ
とができ、認識可能単語全体から見た認識率の向上にも
つながり、使い勝手のよいものとなる。
【0208】さらに、このように幾つかの単語を登録単
語として話者が対応の登録単語データを作成することに
より、この登録単語データと標準話者音声モデルデータ
または特定話者群音声モデルデータとを用いて話者学習
処理を行うことができる。これにより、登録単語以外の
認識可能単語についても、話者学習されたデータを用い
話者適応による音声認識が可能となり、登録単語のみな
らず認識可能単語全体について認識率を大幅に向上させ
ることができる。
【0209】また、標準話者音声モデルデータまたは特
定話者群音声モデルデータに基づいて作成されたいずれ
かのコードブックにコードマッピングして作成された入
力話者用コードブックを作成し、さらに、その入力話者
コードブックを、広い範囲の話者から作成されたユニバ
ーサルコードブックを用いてベクトル量子化して量子化
入力話者コードブックを作成して、認識時にはこの量子
化入力話者コードブックを用いて話者適応による認識処
理を行うようにしている。このように、データ量を大幅
に削減された量子化入力話者コードブックを用いて話者
適応による認識処理が可能となるので、これらを保存す
る記憶手段(RAM)を小規模なものとすることがで
き、また、認識処理に必要な演算量を大幅に少なくする
ことができるので、制御部(CPU)にかかる処理負担
を大幅に減らすことができ、小さな処理能力のCPUで
対応することができるようになる。
【0210】また、本発明では、認識対象とする話者
を、年齢や性別などに基づいて予め設定した範囲に絞り
込み、当該範囲に属する不特定多数話者の音声データか
ら特定話者群音声モデルデータを作成して保存し、この
特定話者群音声モデルデータを用いて前記認識対象とす
る話者の入力した音声を認識するようにしている。これ
により、ある範囲の話者群に対応する特定話者群音声モ
デルデータのみを持てばよいので、従来のあらゆる範囲
の話者に対応できるように作成された標準話者音声モデ
ルデータに比べると、そのデータ量を大幅に少なくする
ことができる。したがって、その特定話者群音声モデル
データを保存するメモリ(ROM)の記憶容量は小さい
もので済み、また、CPUにかかる認識処理の負担も少
なくすることができ、メモリの容量やCPUの処理能力
に大きな制約のある安価な製品に適した音声認識技術で
あるといえる。しかも、特定の話者群に対応した特定話
者群音声モデルデータであるので、認識性能も大幅に向
上する。
【0211】また、本発明は、このようなある特定の範
囲の話者群に対応する特定話者群音声モデルデータを、
幾つか用意することもできる。たとえば、成人男性用、
成人女性用、子供用など幾つかの話者群に対応して用意
することも可能である。これによれば、1つの装置を家
族で使用するような場合にも対応できる。このように、
幾つかの話者群対応の特定話者群音声モデルデータを持
ったとしても、あらゆる範囲の話者に対応できるように
作成された標準話者音声モデルデータを持つよりは、音
声モデルデータの規模をを小さくでき、しかも、それぞ
れの話者群に対応した音声モデルデータであるので、認
識性能も大幅に向上する。
【図面の簡単な説明】
【図1】本発明の音声認識装置の実施の形態を説明する
ブロック図。
【図2】話者に対応した音声モデルデータ(特定話者群
音声モデルデータ)を用いて音声認識処理を行う例を説
明するフローチャート。
【図3】本発明の実施の形態である音声時計装置の外観
を概略的に示す図。
【図4】話者学習処理を可能とした音声認識処理の全体
的な処理手順を説明するフローチャートであり、特定の
一人の話者に対する処理手順を説明するフローチャート
である。
【図5】話者学習処理を可能とした音声認識処理の全体
的な処理手順を説明するフローチャートであり、複数の
話者に対する処理手順を説明するフローチャートであ
る。
【図6】本発明の実施の形態における連続した3単語
(「午前」、「1時」、「20分」)の認識処理を説明
する状態遷移図。
【図7】図7で示した3単語の認識処理を一般的な連続
単語認識処理として適用する場合の処理手順を説明する
フローチャート。
【図8】話者の音声入力操作の状況に応じてマイクアン
プのゲイン切り替えを含む処理手順を説明するフローチ
ャート。
【図9】ヘルプモードを備えた音声認識処理手順を説明
するフローチャート。
【図10】音声認識処理について本発明の実施の形態に
おけるヘルプモード(肯定ボタンと否定ボタンによる
「はい」または「いいえ」の入力モード)を説明する状
態遷移図。
【図11】本発明の音声認識装置の他の実施の形態の構
成を説明するブロック図である。
【符号の説明】
1 マイクロホン 2 音声入力用アンプ(マイクアンプ) 3 A/D変換部 4 音声分析部 5 制御部(CPU) 6 D/A変換部 7 音声出力用アンプ 8 スピーカ 9 ROM 10 RAM 11 操作部 12 計時手段 91 出力音声データ 92 特定話者群者音声モデルデータ 93 特定話者群コードブック 94 ユニバーサルコードブック 95 標準話者音声モデルデータ 93 標準話者コードブック 101 登録単語データ MD1,MD2,MD3 第1〜第3の特定話者群音声
モデルデータ CB1,CB2,CB3 第1〜第3の特定話者群コー
ドブック RD1,RD2,RD3 話者#1〜話者#3用の登録
単語データ VQ1,VQ2,VQ3 話者#1〜話者#3用の量子
化コードブック
【手続補正書】
【提出日】平成11年9月13日(1999.9.1
3)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】
【課題を解決するための手段】本願発明の音声認識方法
は、不特定複数話者の音声データから作成された標準話
者音声モデルデータを有し、予め定められた複数の単語
を認識可能とする音声認識方法において、前記認識可能
な複数の単語のうち、幾つかの単語を登録単語として選
び、それぞれの登録単語を認識対象話者が発話し、その
音声データから各登録単語ごとの登録単語データを作成
して保存し、かつ、その登録単語データと前記標準話者
音声モデルデータまたは年齢や性別など予め設定された
範囲に属する不特定複数話者の音声データから作成され
た特定話者音声モデルデータとを用いて話者学習処理を
行い、前記認識対象話者から前記登録単語が発話された
場合には、前記登録単語データを用いて音声認識し、前
記登録単語以外の認識可能単語を認識する際は、前記話
者学習処理後のデータを用い話者適応して音声認識し、
前記話者学習処理は、前記標準話者音声モデルデータま
たは前記特定話者音声モデルデータに基づいて作成され
たいずれかのコードブックとコードブックマッピング法
によって入力話者用のコードブックを作成し、さらに、
その入力話者コードブックをユニバーサルコードブック
を用いてベクトル量子化して量子化入力話者コードブッ
クを作成する処理を含むことを特徴としている。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0013
【補正方法】変更
【補正内容】
【0013】また、本発明の音声認識装置は、不特定複
数話者の音声データから作成された標準話者音声モデル
データを有し、予め定められた複数の単語を認識可能と
する音声認識装置において、少なくとも、話者の発話し
て得られた音声を分析する音声分析手段と、前記認識可
能な複数の単語のうち、幾つかの単語を登録単語として
選び、それぞれの登録単語を認識対象話者が発話して得
られた音声データから各登録単語ごとに作成された登録
単語データと、その登録単語データと前記標準話者音声
モデルデータまたは年齢や性別など予め設定された範囲
に属する不特定複数話者の音声データから作成された特
定話者音声モデルデータとを用いて話者学習処理を行
い、前記認識対象話者から当該登録単語が発話された場
合には、前記登録単語データを用いて音声認識し、前記
登録単語以外の認識可能単語を認識する際は、前記話者
学習処理後のデータを用い話者適応して音声認識する制
御部とを有し、前記話者学習処理は、前記標準話者音声
モデルデータまたは前記特定話者音声モデルデータに基
づいて作成されたいずれかのコードブックとコードブッ
クマッピング法によって入力話者用のコードブックを作
成し、さらに、その入力話者コードブックをユニバーサ
ルコードブックを用いてベクトル量子化して量子化入力
話者コードブックを作成する処理を含むことを特徴とし
ている。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0014
【補正方法】変更
【補正内容】
【0014】また、本発明の音声認識処理プログラムを
記録した記録媒体は、不特定複数話者の音声データから
作成された標準話者音声モデルデータを有し、予め定め
られた複数の単語を認識可能とする音声認識処理プログ
ラムを記録した記録媒体であって、その処理プログラム
は、前記認識可能な複数の単語のうち登録単語として選
ばれた幾つかの単語について、認識対象話者が発話して
得られた音声データから各登録単語ごとの登録単語デー
タを作成して保存する手順と、その登録単語データと前
記標準話者音声モデルデータまたは年齢や性別など予め
設定された範囲に属する不特定複数話者の音声データか
ら作成された特定話者音声モデルデータとを用いて話者
学習処理を行う手順と、前記認識対象話者から当該登録
単語が発話された場合には、前記登録単語データを用い
て音声認識し、前記登録単語以外の認識可能単語を認識
する際は、前記話者学習処理後のデータを用い話者適応
して音声認識する手順とを含み、前記話者学習処理は、
前記標準話者音声モデルデータまたは前記特定話者音声
モデルデータに基づいて作成されたいずれかのコードブ
ックとコードブックマッピング法によって入力話者用の
コードブックを作成し、さらに、その入力話者コードブ
ックをユニバーサルコードブックを用いてベクトル量子
化して量子化入力話者コードブックを作成する処理を含
むことを特徴としている。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0015
【補正方法】削除
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0016
【補正方法】削除
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0017
【補正方法】削除
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0018
【補正方法】削除
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0019
【補正方法】削除
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0020
【補正方法】削除
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0021
【補正方法】削除
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0022
【補正方法】削除
【手続補正13】
【補正対象書類名】明細書
【補正対象項目名】0023
【補正方法】削除
【手続補正14】
【補正対象書類名】明細書
【補正対象項目名】0024
【補正方法】削除
【手続補正15】
【補正対象書類名】明細書
【補正対象項目名】0025
【補正方法】削除
【手続補正16】
【補正対象書類名】明細書
【補正対象項目名】0026
【補正方法】削除
【手続補正17】
【補正対象書類名】明細書
【補正対象項目名】0027
【補正方法】削除
【手続補正18】
【補正対象書類名】明細書
【補正対象項目名】0028
【補正方法】削除
【手続補正19】
【補正対象書類名】明細書
【補正対象項目名】0029
【補正方法】削除
───────────────────────────────────────────────────── フロントページの続き (72)発明者 長谷川 浩 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 (72)発明者 池尻 昌久 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 Fターム(参考) 5D015 AA02 BB01 FF05 GG01 GG06 LL10

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 不特定複数話者の音声データから作成さ
    れた標準話者音声モデルデータを有し、予め定められた
    複数の単語を認識可能とする音声認識方法において、 前記認識可能な複数の単語のうち、幾つかの単語を登録
    単語として選び、それぞれの登録単語を認識対象話者が
    発話し、その音声データから各登録単語ごとの登録単語
    データを作成して保存し、前記認識対象話者から当該登
    録単語が発話された場合には、当該登録単語データを用
    いて音声認識し、それ以外の認識可能な単語が発話され
    た場合には、前記標準話者音声モデルデータを用いて音
    声認識することを特徴とする音声認識方法。
  2. 【請求項2】 前記認識可能な複数の単語は、それぞれ
    単語の種類に応じて複数に区分され、それぞれの区分対
    応の単語セットとして用意されており、装置側はその時
    点の動作場面においてどの単語セットに属する単語を認
    識するかが設定されていて、現時点ではどの単語セット
    に属する単語が入力される場面かを判断し、その判断結
    果に基づき当該場面にて入力された単語の認識を行うこ
    とを特徴とする請求項1記載の音声認識方法。
  3. 【請求項3】 前記認識対象話者を、年齢や性別などに
    基づいて予め設定した範囲に絞り込み、当該範囲に属す
    る不特定複数話者の音声データから特定話者群音声モデ
    ルデータを作成し、これを前記標準話者群音声モデルデ
    ータとして保存することを特徴とする請求項1または2
    に記載の音声認識方法。
  4. 【請求項4】 前記認識対象話者は、音声の特徴に基づ
    く複数の話者群から構成され、前記特定話者群音声モデ
    ルデータは、それぞれの話者群に属する不特定複数話者
    の音声データから作成された前記複数の話者群対応の特
    定話者群音声モデルデータからなることを特徴とする請
    求項3記載の音声認識方法。
  5. 【請求項5】 前記登録単語データと前記標準話者音声
    モデルデータまたは前記特定話者群音声モデルデータと
    を用いて話者学習処理を行い、前記登録単語以外の認識
    可能単語を認識する際は、前記話者学習後のデータを用
    い話者適応して音声認識することを特徴とする請求項1
    から4のいずれかに記載の音声認識方法。
  6. 【請求項6】 前記話者学習処理は、前記標準話者音声
    モデルデータまたは前記特定話者群音声モデルデータに
    基づいて作成されたいずれかのコードブックとコードブ
    ックマッピング法によって入力話者用のコードブックを
    作成し、さらに、その入力話者コードブックをユニバー
    サルコードブックを用いてベクトル量子化して量子化入
    力話者コードブックを作成する処理を含むことを特徴と
    する請求項5載の音声認識方法。
  7. 【請求項7】 不特定複数話者の音声データから作成さ
    れた標準話者音声モデルデータを有し、予め定められた
    複数の単語を認識可能とする音声認識装置において、少
    なくとも、 話者の発話して得られた音声を分析する音声分析手段
    と、 前記認識可能な複数の単語のうち、幾つかの単語を登録
    単語として選び、それぞれの登録単語を認識対象話者が
    発話して得られた音声データから各登録単語ごとに作成
    された登録単語データと、 前記認識対象話者から当該登録単語が発話された場合に
    は、当該登録単語データを用いて音声認識し、それ以外
    の認識可能な単語が発話された場合には、前記標準話者
    音声モデルデータを用いて音声認識する制御部と、 を有することを特徴とする音声認識装置。
  8. 【請求項8】 前記認識可能な複数の単語は、それぞれ
    単語の種類に応じて複数に区分され、それぞれの区分対
    応の単語セットとして用意されており、装置側はその時
    点の動作場面においてどの単語セットに属する単語を認
    識するかが設定されていて、現時点ではどの単語セット
    に属する単語が入力される場面かを判断し、その判断結
    果に基づき当該場面にて入力された単語の認識を行うこ
    とを特徴とする請求項7記載の音声認識装置。
  9. 【請求項9】 前記認識対象話者を、年齢や性別などに
    基づいて予め設定した範囲に絞り込み、当該範囲に属す
    る不特定複数話者の音声データから特定話者群音声モデ
    ルデータを作成し、これを前記標準話者群音声モデルデ
    ータとして保存することを特徴とする請求項7または8
    に記載の音声認識装置。
  10. 【請求項10】 前記認識対象話者は、音声の特徴に基
    づく複数の話者群から構成され、前記特定話者群音声モ
    デルデータは、それぞれの話者群に属する不特定複数話
    者の音声データから作成された前記複数の話者群対応の
    特定話者群音声モデルデータからなることを特徴とする
    請求項9記載の音声認識装置。
  11. 【請求項11】 前記登録単語データと前記標準話者音
    声モデルデータまたは前記特定話者群音声モデルデータ
    とを用いて話者学習処理を行い、前記登録単語以外の認
    識可能単語を認識する際は、前記話者学習後のデータを
    用い話者適応して音声認識することを特徴とする請求項
    7から10のいずれかに記載の音声認識装置。
  12. 【請求項12】 前記話者学習処理は、前記標準話者音
    声モデルデータまたは前記特定話者群音声モデルデータ
    に基づいて作成されたいずれかのコードブックとコード
    ブックマッピング法によって入力話者用のコードブック
    を作成し、さらに、その入力話者コードブックをユニバ
    ーサルコードブックを用いてベクトル量子化して量子化
    入力話者コードブックを作成する処理を含むことを特徴
    とする請求項11載の音声認識装置。
  13. 【請求項13】 不特定複数話者の音声データから作成
    された標準話者音声モデルデータを有し、予め定められ
    た複数の単語を認識可能とする音声認識処理プログラム
    を記録した記録媒体であって、その処理プログラムは、 前記認識可能な複数の単語のうち登録単語として選ばれ
    た幾つかの単語について、認識対象話者が発話して得ら
    れた音声データから各登録単語ごとの登録単語データを
    作成して保存する手順と、 前記認識対象話者から当該登録単語が発話された場合に
    は、当該登録単語データを用いて音声認識し、それ以外
    の認識可能な単語が発話された場合には、前記標準話者
    音声モデルデータを用いて音声認識する手順と、 を含むことを特徴とする音声認識処理プログラムを記録
    した記録媒体。
  14. 【請求項14】 前記認識可能な複数の単語は、それぞ
    れ単語の種類に応じて複数に区分され、それぞれの区分
    対応の単語セットとして用意されており、装置側はその
    時点の動作場面においてどの単語セットに属する単語を
    認識するかが設定されていて、現時点ではどの単語セッ
    トに属する単語が入力される場面かを判断し、その判断
    結果に基づき当該場面にて入力された単語の認識を行う
    ことを特徴とする請求項13記載の音声認識処理プログ
    ラムを記録した記録媒体。
  15. 【請求項15】 さらに、前記認識対象話者を、年齢や
    性別などに基づいて予め設定した範囲に絞り込み、当該
    範囲に属する不特定複数話者の音声データから特定話者
    群音声モデルデータを作成し、これを前記標準話者群音
    声モデルデータとして保存する手順を含むことを特徴と
    する請求項13または14に記載の音声認識処理プログ
    ラムを記録した記録媒体。
  16. 【請求項16】 前記特定話者群音声モデルデータを作
    成し、これを前記標準話者群音声モデルデータとして保
    存する手順において、認識対象話者は、音声の特徴に基
    づく複数の話者群から構成され、前記特定話者群音声モ
    デルデータは、それぞれの話者群に属する不特定複数話
    者の音声データから前記複数の話者群対応の特定話者群
    音声モデルデータを作成することを特徴とする請求項1
    5に記載の音声認識処理プログラムを記録した記録媒
    体。
  17. 【請求項17】 さらに、前記登録単語データと前記標
    準話者音声モデルデータまたは前記特定話者群音声モデ
    ルデータとを用いて話者学習処理を行う手順を有し、前
    記登録単語以外の認識可能単語を認識する際は、前記話
    者学習後のデータを用い話者適応して音声認識すること
    を特徴とする請求項13から16のいずれかに記載の音
    声認識処理プログラムを記録した記録媒体。
  18. 【請求項18】 前記話者学習処理は、前記標準話者音
    声モデルデータまたは前記特定話者群音声モデルデータ
    に基づいて作成されたいずれかのコードブックとコード
    ブックマッピング法により入力話者用のコードブックを
    作成し、さらに、その入力話者コードブックをユニバー
    サルコードブックを用いてベクトル量子化して量子化入
    力話者コードブックを作成する処理を含むことを特徴と
    する請求項17に記載の音声認識処理プログラムを記録
    した記録媒体。
JP10254419A 1998-09-08 1998-09-08 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体 Expired - Fee Related JP3000999B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10254419A JP3000999B1 (ja) 1998-09-08 1998-09-08 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体
US09/378,997 US6446039B1 (en) 1998-09-08 1999-08-23 Speech recognition method, speech recognition device, and recording medium on which is recorded a speech recognition processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10254419A JP3000999B1 (ja) 1998-09-08 1998-09-08 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP11259085A Division JP3050232B2 (ja) 1999-09-13 1999-09-13 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP3000999B1 JP3000999B1 (ja) 2000-01-17
JP2000089781A true JP2000089781A (ja) 2000-03-31

Family

ID=17264726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10254419A Expired - Fee Related JP3000999B1 (ja) 1998-09-08 1998-09-08 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体

Country Status (2)

Country Link
US (1) US6446039B1 (ja)
JP (1) JP3000999B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286174A (ja) * 2006-04-13 2007-11-01 Funai Electric Co Ltd 電子機器

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836761B1 (en) * 1999-10-21 2004-12-28 Yamaha Corporation Voice converter for assimilation by frame synthesis with temporal alignment
JP4950024B2 (ja) * 2005-02-28 2012-06-13 本田技研工業株式会社 会話システムおよび会話ソフトウェア
JP4804052B2 (ja) * 2005-07-08 2011-10-26 アルパイン株式会社 音声認識装置、音声認識装置を備えたナビゲーション装置及び音声認識装置の音声認識方法
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8788256B2 (en) 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8849199B2 (en) 2010-11-30 2014-09-30 Cox Communications, Inc. Systems and methods for customizing broadband content based upon passive presence detection of users
US20120136658A1 (en) * 2010-11-30 2012-05-31 Cox Communications, Inc. Systems and methods for customizing broadband content based upon passive presence detection of users
US9466301B2 (en) * 2012-11-07 2016-10-11 Kenneth John Lannes System and method for linear frequency translation, frequency compression and user selectable response time
US20140129236A1 (en) * 2012-11-07 2014-05-08 Kenneth John Lannes System and method for linear frequency translation, frequency compression and user selectable response time
US9412358B2 (en) 2014-05-13 2016-08-09 At&T Intellectual Property I, L.P. System and method for data-driven socially customized models for language generation
KR101663865B1 (ko) * 2014-06-20 2016-10-07 위선정 양액 토양 겸용 화분 및 상기 양액 토양 겸용 화분에 적용되는 화분 받침 부재 및 화분 내부 부재
KR101727113B1 (ko) * 2014-11-18 2017-04-14 위선정 장수 화분 및 상기 장수 화분용 호기성 미생물 배양기
US10685666B2 (en) * 2018-04-06 2020-06-16 Intel Corporation Automatic gain adjustment for improved wake word recognition in audio systems
CA3191994A1 (en) 2020-09-07 2022-03-10 Matthieu LIM Secure communication system with speaker recognition by voice biometrics for user groups such as family groups
CN112786055A (zh) * 2020-12-25 2021-05-11 北京百度网讯科技有限公司 资源挂载方法、装置、设备、存储介质及计算机程序产品

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5521035A (en) 1978-07-31 1980-02-14 Tokyo Shibaura Electric Co Control system using voice
JPS56140398A (en) 1980-04-04 1981-11-02 Tokyo Shibaura Electric Co Voice recognizing method
JPS5722300A (en) 1980-07-15 1982-02-05 Fujitsu Ltd Word voice recognizing and processing system
JPS5763599A (en) 1980-10-03 1982-04-17 Seiko Instr & Electronics Voice input device
JPS5764298A (en) 1980-10-06 1982-04-19 Nippon Denso Co Voice recognizing device
JPS5764295A (en) 1980-10-07 1982-04-19 Tokyo Shibaura Electric Co Voice recognizing device
JPS58224392A (ja) 1982-06-23 1983-12-26 株式会社日立製作所 音声認識方式
JPS5993500A (ja) 1982-11-19 1984-05-29 富士通株式会社 音声認識装置
JPS59193500A (ja) 1983-04-18 1984-11-02 富士通株式会社 音声認識部の不特定、特定切り換え方式
JPS6045298A (ja) 1983-08-22 1985-03-11 富士通株式会社 単語音声認識装置
JPS60129795A (ja) 1983-12-16 1985-07-11 沖電気工業株式会社 音声認識方式
JPS60162298A (ja) 1984-02-02 1985-08-24 松下電器産業株式会社 音声認識装置
JPS6170594A (ja) 1984-09-14 1986-04-11 日立電子エンジニアリング株式会社 不特定話者音声認識方法
JPS6227719A (ja) 1985-07-29 1987-02-05 Alps Electric Co Ltd 液晶表示素子
JPS6257037A (ja) 1985-09-06 1987-03-12 Hitachi Ltd 計算機システムの異常検出方式
JPH01309099A (ja) 1987-06-04 1989-12-13 Ricoh Co Ltd 音声応答装置
JPS6465600A (en) 1987-09-07 1989-03-10 Nec Corp Unspecified speaker voice recognition equipment
JPS6488500A (en) 1987-09-29 1989-04-03 Toshiba Corp Voice recognition equipment
JPH01113799A (ja) 1987-10-27 1989-05-02 Citizen Watch Co Ltd 音声認識時計
JP2989231B2 (ja) 1989-10-05 1999-12-13 株式会社リコー 音声認識装置
JPH04158397A (ja) * 1990-10-22 1992-06-01 A T R Jido Honyaku Denwa Kenkyusho:Kk 声質変換方式
JPH04280299A (ja) 1991-03-08 1992-10-06 Ricoh Co Ltd 音声認識装置
JP3251034B2 (ja) 1991-07-22 2002-01-28 株式会社フジクラ 酸化物超電導導体およびその製造方法
JPH0926799A (ja) 1995-07-12 1997-01-28 Aqueous Res:Kk 音声認識装置
US6029124A (en) * 1997-02-21 2000-02-22 Dragon Systems, Inc. Sequential, nonparametric speech recognition and speaker identification
US5930753A (en) * 1997-03-20 1999-07-27 At&T Corp Combining frequency warping and spectral shaping in HMM based speech recognition
JP2965537B2 (ja) * 1997-12-10 1999-10-18 株式会社エイ・ティ・アール音声翻訳通信研究所 話者クラスタリング処理装置及び音声認識装置
JP2986792B2 (ja) * 1998-03-16 1999-12-06 株式会社エイ・ティ・アール音声翻訳通信研究所 話者正規化処理装置及び音声認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286174A (ja) * 2006-04-13 2007-11-01 Funai Electric Co Ltd 電子機器

Also Published As

Publication number Publication date
US6446039B1 (en) 2002-09-03
JP3000999B1 (ja) 2000-01-17

Similar Documents

Publication Publication Date Title
JP3000999B1 (ja) 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体
US10943606B2 (en) Context-based detection of end-point of utterance
CN110634483B (zh) 人机交互方法、装置、电子设备及存储介质
US10540970B2 (en) Architectures and topologies for vehicle-based, voice-controlled devices
JP3968133B2 (ja) 音声認識対話処理方法および音声認識対話装置
JP3674990B2 (ja) 音声認識対話装置および音声認識対話処理方法
US6839670B1 (en) Process for automatic control of one or more devices by voice commands or by real-time voice dialog and apparatus for carrying out this process
JP2019117623A (ja) 音声対話方法、装置、デバイス及び記憶媒体
KR20190042918A (ko) 전자 장치 및 그의 동작 방법
CN112513833A (zh) 用于基于预先合成的对话提供人工智能服务的电子设备和方法
US20230197078A1 (en) Multiple virtual assistants
CN112201246B (zh) 基于语音的智能控制方法、装置、电子设备及存储介质
JPH11312391A (ja) 音声認識システム
US11579841B1 (en) Task resumption in a natural understanding system
WO2023109129A1 (zh) 语音数据的处理方法及装置
US10143027B1 (en) Device selection for routing of communications
JP2000089780A (ja) 音声認識方法および音声認識装置
JP3001000B1 (ja) 音声認識装置における連続単語認識方法および音声認識装置における連続単語認識処理プログラムを記録した記録媒体
CN109166572A (zh) 机器人阅读的方法和阅读机器人
JP3050232B2 (ja) 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体
KR20050015585A (ko) 향상된 음성인식 장치 및 방법
JP3045169B2 (ja) 音声認識装置における連続単語認識方法および音声認識装置における連続単語認識処理プログラムを記録した記録媒体
CN117882131A (zh) 多个唤醒词检测
JP3695168B2 (ja) 音声認識装置、音声入力ゲイン設定方法及び入力ゲイン設定処理プログラムを記録した記憶媒体
US11172527B2 (en) Routing of communications to a device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19991012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101112

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101112

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111112

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111112

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121112

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121112

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees