JPH08328585A - 自然言語処理装置および自然言語処理方法、並びに音声認識装置および音声認識方法 - Google Patents

自然言語処理装置および自然言語処理方法、並びに音声認識装置および音声認識方法

Info

Publication number
JPH08328585A
JPH08328585A JP7133762A JP13376295A JPH08328585A JP H08328585 A JPH08328585 A JP H08328585A JP 7133762 A JP7133762 A JP 7133762A JP 13376295 A JP13376295 A JP 13376295A JP H08328585 A JPH08328585 A JP H08328585A
Authority
JP
Japan
Prior art keywords
similarity
voice
examples
recognition
natural language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7133762A
Other languages
English (en)
Other versions
JP3716870B2 (ja
Inventor
Koji Asano
康治 浅野
Masao Watari
雅男 渡
Makoto Akaha
誠 赤羽
Tetsuya Kagami
徹也 加賀美
Kazuo Ishii
和夫 石井
Miyuki Tanaka
幸 田中
Yasuhiko Kato
靖彦 加藤
Hiroshi Tsunoda
弘史 角田
Hiroaki Ogawa
浩明 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13376295A priority Critical patent/JP3716870B2/ja
Priority to US08/654,893 priority patent/US5991721A/en
Publication of JPH08328585A publication Critical patent/JPH08328585A/ja
Application granted granted Critical
Publication of JP3716870B2 publication Critical patent/JP3716870B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment

Abstract

(57)【要約】 【目的】 音声の認識率を向上させる。 【構成】 用例検索部5では、用例データベース8に記
憶されている複数の用例それぞれと、認識部4から出力
される複数の認識結果候補との類似度が計算され、その
類似度を最も高くする用例が選択され、その用例を用い
て、最終的な音声認識結果が求められる。この場合にお
いて、用例検索部5は、いままでに選択した用例による
文脈に基づいて重みを付けて、類似度を計算する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば文字や音声で入
力された言語を処理し、その認識や翻訳などを行う場合
などに用いて好適な自然言語処理装置および自然言語処
理方法、並びに音声認識装置および音声認識方法に関す
る。
【0002】
【従来の技術】従来より、例えばコンピュータなどを用
いて人間の用いる文字言語、音声言語の処理(以下、適
宜、これらを総称して自然言語処理という)を行うため
の研究が数多くなされている。しかしながら、これらの
研究の多くで採用されている自然言語を処理する方法
は、専門家があらかじめ自然言語において現れる様々な
言語現象を文法規則という抽象化した形で記述し、その
規則に基づいて処理を行うというものであったため、文
法規則の記述の困難性に起因する問題があった。
【0003】即ち、人間どうしの行うコミュニケーショ
ンの過程で現れる様々な言語現象を、完全に網羅するよ
うな抽象的な文法規則を記述することは、専門家であっ
ても、ほとんど不可能に近く、このため、文法規則によ
って網羅されていない言語現象が現れた場合には、誤っ
た処理が行われることがあった。そして、このような文
法規則によって網羅されていない言語現象が見つかった
場合、文法規則をどのように修正すれば良いかは一般に
分かりにくく、このため、文法規則の修正によって、こ
れまで正常に処理されていた言語現象が処理できなくな
るなどの弊害が生じる問題があった。
【0004】そこで、最近では、このような弊害を根本
的に解消すべく、用例を利用した自然言語処理の研究が
盛んに行われている。これは、抽象的な文法規則に代え
て、大量の用例を登録した用例データベースを用意し、
処理すべきテキストデータなどが入力されると、用例デ
ータベースの中から、入力されたテキストデータに類似
している用例を検索し、その用例に基づいて自然言語処
理を行うというものである。
【0005】例えば、特開平3−276367号公報に
は、このような自然言語処理を適用した用例主導型機械
翻訳装置が開示されている。この翻訳装置では、原文の
用例とその対訳例との組を、用例データベースに多数登
録しておき、入力文として、所定の言語で記述された原
文が入力されると、その原文に最も類似して用例が用例
データベースから検索され、その結果得られた用例の対
訳例にしたがって、原文の翻訳が行われるようになされ
ている。
【0006】また、用例を利用した自然言語処理を適用
した音声言語処理では、通常の連続音声認識装置を用
い、入力された音声の音声認識結果を確定した後、その
音声認識結果を入力文として、これに最も類似する用例
を、用例データベースから検索し、その用例を用いて、
翻訳などが行われるようになされている。
【0007】
【発明が解決しようとする課題】ところで、人間がコミ
ュニケーションの手段として自然言語を用いる場合に
は、個々の文が有する意味には、文脈あるいは対話履歴
というべき、それまでの話の流れが反映されることが普
通であり、従って、この文脈(対話履歴)は、自然言語
処理にあたって、重要な要素であると考えられる。
【0008】しかしながら、上述したような、従来の用
例を利用する方法では、入力文を処理するのに用いる用
例を検索する際の、入力文と用例との類似度の計算が、
単語を、その意味の類似性(概念)に基づいて木構造に
階層化したシソーラスを用いて、単語のシソーラス上で
の意味上の類似性のみを対象にして行われるようになさ
れており、文脈は考慮されていなかった。このため、入
力文を処理するのに真に適切な用例が検索されるかどう
かが不明であった。
【0009】また、従来の音声言語処理においては、他
の自然言語処理の前に音声認識処理を行い、その結果得
られる音声認識結果を確定した後、その音声認識結果に
最も類似する用例を検索し、その用例を用いて、機械翻
訳などの自然言語処理が施されるようになされているた
め、音声認識結果が誤っている場合には、正しい翻訳結
果を得ることが困難となる課題があった。
【0010】さらに、従来の音声言語処理では、音声認
識処理の結果得られる音声認識結果候補の、いわば確か
らしさというべき尤度が考慮されておらず、やはり入力
文を処理するのに真に適切な用例が検索されるかどうか
が不明であった。
【0011】本発明は、このような状況に鑑みてなされ
たものであり、自然言語処理に際し、入力文を処理する
のに、より適切な用例を選択することができるように
し、これにより自然言語処理の精度を向上させることが
できるようにするものである。
【0012】
【課題を解決するための手段】本発明の自然言語処理装
置は、複数の用例を記憶している用例記憶手段と、用例
記憶手段に記憶されている用例それぞれと、入力文との
類似度を計算し、その類似度を最も高くする用例を選択
する選択手段とを備え、選択手段が、いままでに選択し
た用例による文脈に基づいて重みを付けて、類似度を計
算することを特徴とする。
【0013】この自然言語処理装置においては、用例記
憶手段に、次の処理に用いられる可能性のある用例を予
測するための予測情報をさらに記憶させておき、選択手
段には、予測情報に基づいて、重みを付けさせることが
できる。また、用例記憶手段には、予測情報として、用
例を次の処理に用いられる可能性のある用例と対応付け
たものを記憶させておき、選択手段には、前回の処理で
用いられた用例と対応付けられている用例に対する類似
度が高くなるように、または前回の処理で用いられた用
例と対応付けられていない用例に対する類似度が低くな
るように、重みを付けさせることができる。用例記憶手
段には、次の処理に用いられる可能性のある用例を学習
により求めたものを、用例と対応付けて記憶させておく
ことができる。また、用例記憶手段には、予測情報を、
所定の場面ごとに用いるべきものに分類して記憶させて
おき、選択手段には、場面に応じた予測情報を用いさせ
ることができる。
【0014】本発明の自然言語処理方法は、複数の用例
を記憶している用例記憶手段を備え、入力文を、その入
力文と最も類似する用例を用いて処理する自然言語処理
装置の自然言語処理方法であって、用例記憶手段に記憶
されている用例それぞれと、入力文との類似度を計算
し、その類似度を最も高くする用例を選択するときに、
いままでに選択した用例による文脈に基づいて重みを付
けて、類似度を計算することを特徴とする。
【0015】本発明の音声認識装置は、音声を音響分析
し、その特徴パラメータを抽出する抽出手段と、抽出手
段より出力される特徴パラメータに基づいて音声の認識
を行い、複数の認識結果候補と、それぞれの尤度とを求
める認識結果候補算出手段と、複数の用例を記憶してい
る用例記憶手段と、複数の認識結果候補それぞれと、用
例記憶手段に記憶されている用例それぞれとの言語的な
類似度である言語的類似度を計算する言語的類似度計算
手段と、複数の認識結果候補それぞれと、用例記憶手段
に記憶されている用例それぞれとの総合的な類似度であ
る総合類似度を、言語的類似度および尤度に基づいて計
算する総合類似度計算手段と、総合類似度を最も高くす
る用例を選択する選択手段と、選択手段により選択され
た用例に基づいて、音声の認識結果を求める認識結果算
出手段とを備えることを特徴とする。
【0016】この音声認識装置においては、総合類似度
計算手段には、言語的類似度と尤度とを、所定の割合で
加算することにより総合類似度を計算させることができ
る。また、総合類似度計算手段には、言語的類似度と尤
度とを加算するときの所定の割合を動的に変化させるこ
とができる。
【0017】本発明の音声認識方法は、複数の用例を記
憶している用例記憶手段を備え、文音声認識を行う音声
認識装置の音声認識方法であって、音声を音響分析し、
その特徴パラメータを抽出し、特徴パラメータに基づい
て音声の認識を行い、複数の認識結果候補と、それぞれ
の尤度とを求め、複数の認識結果候補それぞれと、用例
記憶手段に記憶されている用例それぞれとの言語的な類
似度である言語的類似度を計算し、複数の認識結果候補
それぞれと、用例記憶手段に記憶されている用例それぞ
れとの総合的な類似度である総合類似度を、言語的類似
度および尤度に基づいて計算し、総合類似度を最も高く
する用例を選択し、その用例に基づいて、音声の認識結
果を求めることを特徴とする。
【0018】
【作用】本発明の自然言語処理装置においては、用例記
憶手段は、複数の用例を記憶しており、選択手段は、用
例記憶手段に記憶されている用例それぞれと、入力文と
の類似度を計算し、その類似度を最も高くする用例を選
択するようになされている。さらに、選択手段は、いま
までに選択した用例による文脈に基づいて重みを付け
て、類似度を計算するようになされている。
【0019】本発明の自然言語処理方法においては、用
例記憶手段に記憶されている用例それぞれと、入力文と
の類似度を計算し、その類似度を最も高くする用例を選
択するときに、いままでに選択した用例による文脈に基
づいて重みを付けて、類似度を計算するようになされて
いる。
【0020】本発明の音声認識装置においては、抽出手
段は、音声を音響分析し、その特徴パラメータを抽出
し、認識結果候補算出手段は、抽出手段より出力される
特徴パラメータに基づいて音声の認識を行い、複数の認
識結果候補と、それぞれの尤度とを求めるようになされ
ている。用例記憶手段は、複数の用例を記憶しており、
言語的類似度計算手段は、複数の認識結果候補それぞれ
と、用例記憶手段に記憶されている用例それぞれとの言
語的な類似度である言語的類似度を計算するようになさ
れている。総合類似度計算手段は、複数の認識結果候補
それぞれと、用例記憶手段に記憶されている用例それぞ
れとの総合的な類似度である総合類似度を、言語的類似
度および尤度に基づいて計算し、選択手段は、総合類似
度を最も高くする用例を選択するようになされている。
認識結果算出手段は、選択手段により選択された用例に
基づいて、音声の認識結果を求めるようになされてい
る。
【0021】本発明の音声認識方法においては、音声を
音響分析し、その特徴パラメータを抽出し、特徴パラメ
ータに基づいて音声の認識を行い、複数の認識結果候補
と、それぞれの尤度とを求め、複数の認識結果候補それ
ぞれと、用例記憶手段に記憶されている用例それぞれと
の言語的な類似度である言語的類似度を計算し、複数の
認識結果候補それぞれと、用例記憶手段に記憶されてい
る用例それぞれとの総合的な類似度である総合類似度
を、言語的類似度および尤度に基づいて計算し、総合類
似度を最も高くする用例を選択し、その用例に基づい
て、音声の認識結果を求めるようになされている。
【0022】
【実施例】以下に、本発明の実施例を説明するが、その
前に、特許請求の範囲に記載の発明の各手段と以下の実
施例との対応関係を明らかにするために、各手段の後の
括弧内に、対応する実施例(但し、一例)を付加して、
本発明の特徴を記述すると、次のようになる。
【0023】即ち、請求項1に記載の自然言語処理装置
は、入力文を、その入力文と最も類似する用例を用いて
処理する自然言語処理装置であって、複数の用例を記憶
している用例記憶手段(例えば、図1に示す用例データ
ベース8など)と、用例記憶手段に記憶されている用例
それぞれと、入力文との類似度を計算し、その類似度を
最も高くする用例を選択する選択手段(例えば、図1に
示す用例検索部5など)とを備え、選択手段は、いまま
でに選択した用例による文脈に基づいて重みを付けて、
類似度を計算することを特徴とする。
【0024】請求項6に記載の自然言語処理方法は、複
数の用例を記憶している用例記憶手段(例えば、図1に
示す用例データベース8など)を備え、入力文を、その
入力文と最も類似する用例を用いて処理する自然言語処
理装置の自然言語処理方法であって、用例記憶手段に記
憶されている用例それぞれと、入力文との類似度を計算
し、その類似度を最も高くする用例を選択するときに、
いままでに選択した用例による文脈に基づいて重みを付
けて、類似度を計算することを特徴とする。
【0025】請求項7に記載の音声認識装置は、文音声
認識を行う音声認識装置であって、音声を音響分析し、
その特徴パラメータを抽出する抽出手段(例えば、図5
に示す分析部3など)と、抽出手段より出力される特徴
パラメータに基づいて音声の認識を行い、複数の認識結
果候補と、それぞれの尤度とを求める認識結果候補算出
手段(例えば、図5に示す認識部14など)と、複数の
用例を記憶している用例記憶手段(例えば、図5に示す
用例データベース8など)と、複数の認識結果候補それ
ぞれと、用例記憶手段に記憶されている用例それぞれと
の言語的な類似度である言語的類似度を計算する言語的
類似度計算手段(例えば、図6に示すプログラムの処理
ステップS12など)と、複数の認識結果候補それぞれ
と、用例記憶手段に記憶されている用例それぞれとの総
合的な類似度である総合類似度を、言語的類似度および
尤度に基づいて計算する総合類似度計算手段(例えば、
図6に示すプログラムの処理ステップS13など)と、
総合類似度を最も高くする用例を選択する選択手段(例
えば、図6に示すプログラムの処理ステップS14な
ど)と、選択手段により選択された用例に基づいて、音
声の認識結果を求める認識結果算出手段(例えば、図5
に示す用例検索部15など)とを備えることを特徴とす
る。
【0026】請求項10に記載の音声認識方法は、複数
の用例を記憶している用例記憶手段(例えば、図5に示
す用例データベース8など)を備え、文音声認識を行う
音声認識装置の音声認識方法であって、音声を音響分析
し、その特徴パラメータを抽出し、特徴パラメータに基
づいて音声の認識を行い、複数の認識結果候補と、それ
ぞれの尤度とを求め、複数の認識結果候補それぞれと、
用例記憶手段に記憶されている用例それぞれとの言語的
な類似度である言語的類似度を計算し、複数の認識結果
候補それぞれと、用例記憶手段に記憶されている用例そ
れぞれとの総合的な類似度である総合類似度を、言語的
類似度および尤度に基づいて計算し、総合類似度を最も
高くする用例を選択し、その用例に基づいて、音声の認
識結果を求めることを特徴とする。
【0027】なお、勿論この記載は、各手段を上記した
ものに限定することを意味するものではない。
【0028】図1は、本発明を適用した音声翻訳装置の
一実施例の構成を示している。なお、この音声翻訳装置
は、大きく分けて、音声を認識する音声認識装置10
と、その音声認識結果を、所定の言語に翻訳する翻訳装
置20とから構成されている。そして、音声認識装置1
0は、例えば日本語および英語の両方の音声の文音声認
識(会話音声認識、あるいは音声理解)を行うことがで
きるようになされており、翻訳装置20も、音声認識結
果を、日本語および英語の両方に翻訳することができる
ようになされている。従って、この音声翻訳装置は、日
本語で入力された音声の英語への翻訳、および英語で入
力された音声の日本語への翻訳の両方を行うことができ
るようになされている。
【0029】音声入力部1は、そこに入力される、いわ
ば空気の波である音声を、電気的な波である音声信号に
変換する、例えばマイクなどと、そのマイクから出力さ
れる音声信号を増幅するアンプなどで構成されている。
AD変換部2は、音声入力部1から出力されるアナログ
の音声信号を、所定のクロックのタイミングでサンプリ
ングして量子化を行い、ディジタルの音声信号(ディジ
タルデータ)に変換するようになされている。
【0030】分析部3は、AD変換部2より出力される
音声信号を音響分析し、これにより、例えば所定の帯域
ごとの音声のパワーや、線形予測係数(LPC)、ケプ
ストラム係数などの音声の特徴パラメータを抽出するよ
うになされている。即ち、分析部3は、例えばフィルタ
バンクにより、音声信号を所定の帯域ごとにフィルタリ
ングし、そのフィルタリング結果を整流平滑化すること
で、所定の帯域ごとの音声のパワーを求めるようになさ
れている。あるいは、分析部3は、入力された音声に対
し、例えば線形予測分析処理を施すことで、線形予測係
数を求め、またその線形予測係数からケプストラム係数
を求めるようになされている。
【0031】分析部3で求められた特徴パラメータは、
そのまま、あるいは、そこで必要に応じてベクトル量子
化されて、認識部4に出力されるようになされている。
【0032】認識部4は、分析部3からの特徴パラメー
タ(あるいは、特徴パラメータをベクトル量子化して得
られるシンボル)に基づき、例えばダイナミックプログ
ラミング(DP)マッチング法や、隠れマルコフモデル
(HMM)などの音声認識アルゴリズムにしたがい、後
述する言語モデル記憶部6および単語辞書7を参照し
て、例えば文音声認識を行い、複数の文単位の音声認識
結果候補(以下、適宜、文候補という)を求めて、用例
検索部5に出力するようになされている。
【0033】用例検索部5は、認識部4から供給される
複数の文候補それぞれを、例えばそこから助詞を削除す
ることなどにより、自立語のみでなる単語列に変換する
ようになされている。そして、用例検索部5は、その複
数の文候補それぞれの単語列(以下、適宜、入力単語列
という)と、後述する用例データベース8に記憶されて
いる用例それぞれとの類似度を計算し、その類似度を最
も高くする用例を選択するようになされている。そし
て、その選択した用例に基づいて、音声入力部1に入力
された音声の認識結果(文)を決定するようになされて
いる。
【0034】なお、用例検索部5における類似度の計算
は、後述するようにシソーラス記憶部9に記憶されてい
るシソーラスを用い、いままでに選択した用例による文
脈に基づいて重みを付けて行われるようになされてい
る。
【0035】言語モデル記憶部6は、例えばバイグラム
(Bigram)やトリグラム(Trigram)などの統計的言語
モデルなどを記憶しており、認識部4は、上述したよう
な音声認識処理を、言語モデル記憶部6に記憶されてい
る言語モデルにより緩い言語的制約をかけ、その制約の
下、例えばビタビ(Viterbi)アルゴリズムを用いたビ
ームサーチなどにより、適当に枝刈しながら行うように
なされている。そして、その結果残った複数の音声認識
結果候補としての複数の文候補を、用例検索部5に出力
するようになされている。
【0036】単語辞書7には、音声認識の対象とする単
語の見出し(例えば、「発明」という単語であれば「発
明」という見出し)およびその音韻情報(読み)、さら
に必要ならば単語の品詞その他の情報が対応付けられて
記憶(登録)されている。なお、単語辞書7には、少な
くとも、後述する用例データベース8に記憶されている
用例を構成する単語が記憶されている。認識部4では、
この単語辞書6に記憶されている単語を対象として、音
声認識が行われるようになされている。
【0037】用例データベース8には、複数の用例が記
憶(登録)されている。この用例は、例えば新聞に掲載
されている文章や、アナウンサが読み上げる原稿に記載
の文章などなどに基づいて作成される。シソーラス記憶
部9は、少なくとも単語辞書7に登録されている単語
を、その概念ごとに分類して記憶している。本実施例で
は、シソーラス記憶部9には、後述する図2に示すよう
に、単語を、その概念に基づいて木構造に階層化したシ
ソーラスが記憶されている。
【0038】以上の各ブロックから、音声認識装置10
が構成されている。
【0039】一方、翻訳装置20は、翻訳部11および
対訳辞書12から構成されている。翻訳部11は、音声
認識装置10(用例検索部5)より出力される音声認識
結果の言語を、対訳辞書43を参照しながら、他の言語
に翻訳するようになされている。なお、翻訳部11は、
例えば音声合成装置(図示せず)を内蔵しており、そこ
で、翻訳結果に対応する合成音を生成して出力するよう
になされている。対訳辞書43は、例えば日本語の単語
と、それを英語に訳した英単語(あるいは英単語列)と
を対応付けて記憶している。
【0040】なお、言語モデル記憶部6、単語辞書7、
用例データベース8、およびシソーラス記憶部9には、
例えば日本語および英語の両方に関するものが記憶され
ており、これにより、音声認識装置10では、上述した
ように日本語および英語のいずれの音声も認識すること
ができるようになされている。また、翻訳部11では、
日本語または英語の音声認識結果が入力された場合に
は、それぞれを、英語または日本語に翻訳するようにな
されている。
【0041】以上のように構成される音声翻訳装置にお
いては、音声入力部1に入力された音声は、AD変換部
2、さらには分析部3を介することにより特徴パラメー
タ(あるいはシンボル)とされて、認識部4に出力され
る。認識部4では、分析部3の出力を用いて、例えばH
MMにしたがい、音声認識処理が行われる。
【0042】ここで、HMMについて簡単に説明する。
HMMは、非決定有限状態オートマトンとして定義さ
れ、そのモデルは、幾つかの状態と、その状態間の遷移
を表すパスから構成される。このようなモデルにおい
て、各状態からの状態の遷移過程はマルコフ過程とさ
れ、また、状態が遷移するときにはシンボルが1つ出力
されるものとして、モデルの学習が行われる。いま、モ
デルが有する状態がN個あり、モデル(状態)から出力
されるシンボルの種類がK個あるとすると、この学習で
は、多数の学習データを用い、状態が、状態iから状態
jに遷移する確率(状態遷移確率)aijと、そのときに
シンボルykが出力される確率(出力シンボル確率)bi
j(yk)が求められる(但し、0<i,j<N+1,0
<k<K+1)。
【0043】なお、HMMのパラメータには、最初に状
態iにいる確率(初期状態確率)πiもあるが、音声認
識では、状態が、自分自身か、あるいは自身より右側の
状態にしか遷移しないleft-to-rightモデルが、通常用
いられるので、初期状態は、モデルの最も左側の状態と
される(最初に、最も左側の状態にいる確率が1とさ
れ、他の状態にいる確率は0とされる)。このため、通
常は、学習において、初期状態確率を求める必要はな
い。
【0044】一方、認識時には、学習の結果得られた状
態遷移確率および出力シンボル確率を用いて、分析部3
から出力されるシンボル系列が観測(生起)される確率
(生起確率)が計算され、その確率の高いものが認識結
果候補(あるいは認識結果)とされる。
【0045】本実施例では、認識部4には、あらかじめ
学習を行うことにより得られた、例えば音素単位のモデ
ル(音素モデル)が記憶されており、認識部4は、単語
辞書7に登録されている単語の音韻情報を参照して、音
素モデルを連結し、単語辞書7に登録されている単語の
モデルを作成する。そして、このモデルを用いて、上述
したように生起確率を計算し、その確率の高い単語を求
める。
【0046】なお、認識部4には、音素モデルではな
く、例えば単語単位のモデル(単語モデル)を記憶させ
ておき、そのモデルをそのまま用いて、連続音声認識さ
せるようにすることも可能である。
【0047】さらに、認識部4は、上述したような処理
を、言語モデル記憶部6に記憶されているバイグラム、
トリグラムにより緩い言語的制約をかけ、その制約の
下、例えばビタビアルゴリズムを用いたビームサーチな
どにより、適当に枝刈しながら行う。この場合、認識部
4において、文候補を得るまでのサーチスペースが絞り
込まれるので、音声認識装置10の音声認識処理におけ
る演算量の低減、さらにはその処理の高速化を図ること
ができる。
【0048】また、認識部4でかけられる言語モデルに
よる制約は緩いため、そこで得られる文候補の中には、
文法的、意味的に正しいものだけでなく、誤ったものも
含まれると考えられるが、そのようなものは、後段の用
例検索部5で計算される類似度が低くなるため、最終的
な音声認識結果とはされる確率は非常に少ない。
【0049】なお、バイグラム、トリグラムは、例えば
1次、2次のマルコフ過程のモデルで、音素、音節、単
語などの連鎖確率を大量のテキストデータベースを基に
して学習したものであり、自然言語の局所的な性質を精
度良く近似することのできるモデルとして知られてい
る。
【0050】また、言語的制約は、言語モデルによる
他、例えば有限状態ネットワークなどを用いてかけるよ
うにすることも可能である。
【0051】以上のような言語的制約の下、得られた複
数の文候補は、用例検索部5に出力され、上述したよう
に単語列に変換される。さらに、用例検索部5は、複数
の単語列(入力単語列)それぞれと、用例データベース
8に記憶されている用例それぞれとの類似度を計算し、
その類似度を最も高くする用例を選択する。
【0052】ここで、本実施例では、類似度の計算は、
例えば、前述した特開平3−276367号に開示され
ているような、単語を、その意味の類似性(概念)に基
づいて木構造に階層化したシソーラスを用いて行われ
る。即ち、入力単語列を構成する、ある単語と、その単
語に対応する、用例を構成する単語とが、同一のカテゴ
リに属すると考えられる概念の階層が第k階層であった
場合に、これらの単語間の概念的な類似性を表す単語類
似度を、(k−1)/n(但し、nは、シソーラスの階
層数)とし、入力単語列を構成する単語それぞれと、用
例を構成する単語それぞれとについての単語類似度を積
算する。そして、その積算結果を、入力単語列と、用例
との類似度とする。
【0053】具体的には、例えば、いま、シソーラス記
憶部9に、図2に示すようなシソーラスが記憶されてい
るものとした場合、以下のようにして類似度が計算され
る。
【0054】但し、図2においては、長方形で囲んであ
るものは概念を表し、楕円で囲んであるものが単語を表
す。同図では、最も上の階層(第4階層)に属する概念
が、「性状」、「変動」、「人物」、「社会」、「物
品」、その他に分類されており、そのうちの、例えば概
念「変動」は、それに含まれる概念「増減」、「経
過」、その他に分類されている。さらに、例えば概念
「経過」は、それに含まれる概念「経過」、「到来」、
その他に分類されており、そのうちの、例えば概念「到
来」には、その範疇にある単語「訪問する」、その他が
属するものとされている。
【0055】また、図2においては、最も下の概念の階
層を第1階層とし、下から2番目の概念の階層を第2階
層とし、以下同様にして、下から3番目の概念の階層、
または最も上の概念の階層を、それぞれ第3階層、また
は第4階層としている。図2のシソーラスは4階層(の
概念)で構成されるから、シソーラスを第1階層までさ
かのぼることにより概念が一致する単語どうしの単語類
似度は0(=(1−1)/4)となり、また、シソーラ
スを第2階層までさかのぼることにより概念が一致する
単語どうしの類似度は1/4(=(2−1)/4)とな
る。以下同様に、シソーラスを第3または第4階層まで
さかのぼることにより概念が一致する単語どうしの単語
類似度は1/2または3/4となる。
【0056】例えば、いま、認識部4から、文候補「私
は学校へ行く」が用例検索部5に出力され、そこで、こ
の文候補が、上述したように助詞で分離されることによ
り、入力単語列(「私」、「学校」、「行く」)とされ
た場合、この入力単語列(「私」、「学校」、「行
く」)と、例えば用例「彼は会社を訪問する」との類似
度は、次のように計算される。
【0057】即ち、まず入力単語列(「私」、「学
校」、「行く」)を構成する単語「私」、「学校」、
「行く」それぞれと、用例「彼は会社を訪問する」を構
成する、「私」、「学校」、「行く」に対応する単語
「彼」、「会社」、「訪問する」それぞれとの単語類似
度が計算される。
【0058】ここで、単語XとYとの単語類似度を、d
(X,Y)と表すと、単語「私」と「彼」とは、第2階
層までさかのぼることにより概念「人称」に一致するの
で、単語類似度d(「私」,「彼」)は1/4となる。
また、単語「学校」と「会社」とは、第2階層までさか
のぼることにより概念「施設」に一致するので、単語類
似度d(「学校」,「会社」)は1/4となる。さら
に、単語「行く」と「訪問する」とは、やはり第2階層
までさかのぼることにより概念「経過」に一致するの
で、単語類似度d(「行く」,「訪問する」)は1/4
となる。
【0059】以上の単語類似度を積算すると、その積算
値は3/4(=1/4+1/4+1/4)となり、これ
が、入力単語列(「私」、「学校」、「行く」)と用例
「彼は会社を訪問する」との類似度とされる。
【0060】また、この入力単語列(「私」、「学
校」、「行く」)と、例えば用例「これは木でできてい
る」との類似度は、次のように計算される。
【0061】即ち、入力単語列(「私」、「学校」、
「行く」)を構成する単語「私」、「学校」、「行く」
それぞれと、用例「これは木でできている」を構成す
る、「私」、「学校」、「行く」に対応する単語「こ
れ」、「木」、「できる」(「できている」は「でき
る」とされる)それぞれとの単語類似度d(「私」,
「これ」)、d(「学校」,「木」)、d(「行く」,
「できる」)は、上述したようにして、3/4,3/
4,2/4と計算され、その結果、入力単語列
(「私」、「学校」、「行く」)と用例「これは木でで
きている」との類似度は8/4(3/4+3/4+2/
4)と求められる。
【0062】以上のようにして、用例データベース8に
登録されているすべての用例について、複数の文候補
(入力単語列)それぞれに対する類似度が計算される。
【0063】その後、用例検索部5では、類似度が最も
高い用例と入力単語列とが選択される(以下、選択され
た用例または入力単語列を、それそれ選択用例または選
択単語列という)。
【0064】そして、用例検索部5は、選択用例を構成
する単語のうち、選択単語列を構成する単語に対応する
ものを、その選択単語列を構成する単語に、それぞれ置
き換え、文音声認識結果として出力する。
【0065】即ち、例えば、いま、説明を簡単にするた
めに、用例として「彼は会社を訪問する」および「これ
は木でできている」が用例データベース8に記憶されて
おり、入力単語列として、(「私」、「学校」、「行
く」)が得られたとすると、上述したように、入力単語
列(「私」、「学校」、「行く」)と、用例「彼は会社
を訪問する」または「これは木でできている」それぞれ
との類似度は、3/4または8/4となる。本実施例で
は、類似度が高い場合というのは、類似度の値が小さい
場合であり(これは、図2において、シソーラスを構成
する最も下の概念の階層から、第1階層、第2階層、・
・・としたためで、これとは逆に、シソーラスを構成す
る最も上の概念の階層から、第1階層、第2階層、・・
・とすれば、類似度が高い場合というのは、類似度の値
が大きい場合となる)、従って、用例選択部5では、入
力単語列(「私」、「学校」、「行く」)と用例「彼は
会社を訪問する」とが選択される。
【0066】そして、用例検索部5では、選択用例「彼
は会社を訪問する」を構成する単語のうち、選択単語列
(「私」、「学校」、「行く」)を構成する単語に対応
するもの、即ち「私」、「学校」、「行く」に対応する
「彼」、「会社」、「訪問する」が、その選択単語列を
構成する単語「私」、「学校」、「行く」に、それぞれ
置き換えられ、さらに必要に応じて助詞の変換がなさ
れ、その結果得られる「私は学校に行く」が文音声認識
結果として出力される。
【0067】この音声認識結果は、翻訳部11に供給さ
れ、翻訳部11では、用例検索部5からの音声認識結果
「私は学校に行く」が、対訳辞書12を参照して、例え
ば英文「I go to school」に英訳される。そして、この
英訳文「I go to school」に対応する合成音が生成され
て出力される。
【0068】なお、以上においては、音声が日本語で入
力された場合について説明したが、英語で、例えば音声
「I go to school」が入力された場合についても、音声
認識装置10または翻訳装置20において、上述の場合
と同様にして音声認識または翻訳がなされ、その結果得
られる「私は学校に行く」が合成音で出力される。
【0069】ところで、用例検索部5では、上述のよう
な類似度の計算にあたって、いままでに選択された用例
による文脈に基づく重みが付されるようになされてい
る。即ち、用例データベース8には、用例とともに、例
えば今回選択された用例から考えて次の音声認識処理に
用いられる可能性のある用例を予測するための予測情報
が記憶されており、用例検索部5では、その予測情報に
基づいて、類似度に重みが付けられるようになされてい
る。
【0070】具体的には、用例データベース8には、予
測情報として、用例を次の音声認識処理に用いられる
(次の音声認識処理で選択される)可能性のある用例と
対応付けたものが記憶されており、用例検索部5は、前
回の音声認識処理で用いられた用例と対応付けられてい
る用例に対する類似度が高くなるように、または前回の
音声認識処理で用いられた用例と対応付けられていない
用例に対する類似度が低くなるように、重みを付けるよ
うになされている。
【0071】ここで、用例データベース8には、用例
を、次の音声認識処理に用いられる可能性のある用例と
対応付けたものが、例えば図3に示すように表形式で記
述されて記憶されている。この表は、その左欄に記述さ
れた用例が前回用いられた場合に、今回用いられる可能
性の高い用例を右欄に記述したもので、左欄から右欄の
方向に用例を見た場合に、その2つの用例による文脈
が、人の発話または対話において現れ得るようなものと
されている。従って、図3の表の左欄から右欄の方向
は、発話または対話の流れを表しているということがで
きる。以下、適宜、このような発話または対話の流れを
表現する、いわば脚本というべき表の左欄と右欄との組
み合わせの記述を、スクリプトという。
【0072】図3の実施例では、用例「チェックインを
お願いします。」に続いて用いられる可能性の高い用例
として、例えば「お客様のお名前をどうぞ。」、「ご予
約はされていますか。」、および「この用紙にご記入を
お願いします。」が登録されている。また、用例「部屋
はありますか。」に続いて用いられる可能性の高い用例
として、例えば「ございます。」、「ございませ
ん。」、および「満室です。」が登録されている。
【0073】例えば、いま、図3に示した表が用例デー
タベース8に登録されている場合において、米国のホテ
ルのフロントで、日本語で「チェックインをお願いしま
す。」と発話し、音声認識装置10において、入力音声
「チェックインをお願いします。」が、用例「チェック
インをお願いします」を用いて音声認識されたとする。
この場合、音声認識装置10からは、音声認識結果とし
て、「チェックインをお願いします。」が出力され、こ
れが、翻訳部11で英訳され、例えば「Checkin, pleas
e.」が合成音で出力される。
【0074】そして、この合成音を聞いたホテルのフロ
ントの者が、英語で「お客様のお名前をどうぞ。」と発
話したとする(例えば、「May I have your name, plea
se.」と発話したとする)。この入力音声は、音声認識
装置10において、上述したように類似度を最も高くす
る用例が選択されて音声認識されるが、この場合、類似
度には、スクリプトを参照して、前回の音声認識処理で
用いられた用例「チェックインをお願いします。」と対
応付けられている用例(図3に示した実施例において
は、「お客様のお名前をどうぞ。」、「ご予約はされて
いますか。」、および「この用紙にご記入をお願いしま
す。」)に対する類似度が高くなるように、重みが付さ
れる。
【0075】即ち、この場合、音声認識装置10の用例
検索部5では、図4のフローチャートに示すように、ま
ず最初に、ステップS1において、前回の音声認識処理
で用いられた用例「チェックインをお願いします。」と
対応付けられている用例(スクリプト)「お客様のお名
前をどうぞ。」、「ご予約はされていますか。」、およ
び「この用紙にご記入をお願いします。」が選択され、
ステップS2に進み、上述したように、シソーラスを用
いて、認識部4が出力する複数の文候補それぞれと、用
例データベース8に記憶されている複数の用例それぞれ
との類似度が計算される。
【0076】そして、ステップS3に進み、ステップS
1で選択された用例(スクリプト)に対応する類似度が
高くされ、ステップS4に進む。ステップS4では、最
も類似度を高くする用例および文候補が選択され、以
下、上述したようにして最終的な音声認識結果が求めら
れる。
【0077】従って、ステップS2の段階で、用例「チ
ェックインをお願いします。」に対する類似度が最も高
くなくても、ステップS3の処理により、その類似度が
高くされ、その結果、用例「チェックインをお願いしま
す。」に対する類似度を最も高くすることができる。
【0078】以上のように、単語のシソーラス上での意
味上の類似性のみだけでなく、前回用いられた用例によ
る文脈に基づいて、対話(あるいは発話)の流れを考慮
して、類似度を求めるようにしたので、従来の場合よ
り、音声認識処理を行うのに適切な用例を得ることがで
き、その結果、音声認識処理の精度、即ち音声の認識率
を向上させることができる。
【0079】なお、図3において、表の右欄に記述した
用例は、ホテルのフロントの者が発話すると予測される
ものであるから、実際には、英語で記述されている(例
えば、「お客様のお名前をどうぞ。」は、「May I have
your name, please.」と記述されている)。
【0080】また、上述の場合には、前回の音声認識処
理で用いられた用例と対応付けられている用例に対する
類似度が高くなるように、類似度に重みを付けるように
したが、この他、類似度には、前回の音声認識処理で用
いられた用例と対応付けられていない用例に対する類似
度が低くなるように、重みを付けるようにすることも可
能である。
【0081】さらに、上述の場合においては、前回の音
声認識処理で用いられた用例と対応付けられている用例
に対する類似度が高くなるように、類似度に重みを付け
るようにしたが、この他、さらにそれ以前の処理で用い
られた用例に基づいて、類似度に重みを付けるようにす
ることも可能である。即ち、例えば宿泊客が、既に名乗
っており、そのような音声の認識のための用例を既に用
いている場合には、相手の名前を尋ねるときに発する音
声を認識するための用例(例えば、図3に示した「お客
様のお名前をどうぞ。」など)に対する類似度を低くす
る重みを付けるようにすることが可能である。
【0082】また、用例データベース8には、図3に示
した表(スクリプト)を、例えばホテルや、レストラ
ン、空港などの所定の場面ごとに用いるべきものに分類
して記憶させておき、用例検索部5には、図1の音声翻
訳装置が用いられる場面に応じた表(スクリプト)を用
いて、処理を行わせるようにすることができる。この場
合、音声認識処理に用いるスクリプトが限定されるの
で、さらなる音声認識性能の改善および計算量の削減を
図ることができる。なお、音声翻訳装置がどのような場
面で利用されているかは、図示せぬ操作部を操作するこ
とにより、装置に認識させるようにすることが可能であ
る。また、発話の内容から、音声翻訳装置がどのような
場面で利用されているかを、装置に認識させるようにす
ることもできる。即ち、例えば音声「部屋はあります
か。」などが入力された場合には、ホテルでの発話また
は対話の流れを反映した表を用いて、また、例えば音声
「メニューを見せて下さい。」などが入力された場合に
は、レストランでの発話または対話の流れを反映した表
を用いて、用例検索部5に処理を行わせるようにするこ
とができる。
【0083】さらに、用例データベース8には、次の処
理に用いられる可能性のある用例を学習により求めたも
のを記憶させておくようにすることができる。この場
合、学習の際に、大量の学習用データを用いて、次の処
理で、各用例が用いられる確率を求めておくようにし、
その確率に応じて、類似度を高くするまたは低くする重
みを調整することで、より処理に適した用例の選択を行
うことが可能となる。
【0084】また、翻訳部11における翻訳の方法につ
いては特に言及しなかったが、翻訳部11では、例えば
上述した特開平3−276367号公報に開示されてい
る翻訳方法により翻訳を行うようにすることが可能であ
る。この場合、用例データベース8は、用例検索部5と
翻訳部11とで共用することが可能である。さらに、翻
訳部11では、用例検索部5における場合と同様に、類
似度の計算にあたって、いままでに選択された用例によ
る文脈に基づく重みを付すようにすることも可能であ
る。この場合、翻訳の精度を向上させることができる。
なお、翻訳部11における翻訳の方法は、特開平3−2
76367号公報に開示されているものに限定されるも
のではない。
【0085】次に、図5は、本発明を適用した音声翻訳
装置の他の実施例の構成を示している。なお、図中、図
1における場合と対応する部分については、同一の符号
を付してある。即ち、この音声翻訳装置は、認識部4ま
たは用例検索部5に代えて、それぞれ認識部14または
用例検索部15が設けられている他は、図1の音声翻訳
装置と同様に構成されている。
【0086】認識部14は、例えば図1の認識部4にお
ける場合と同様にして音声認識を行い、複数の文候補
を、用例検索部15に出力するようになされている。さ
らに、認識部14は、複数の文候補それぞれに加えて、
その確からしさを示す尤度(例えば、HMMにより音声
認識を行う場合には、上述した生起確率)も、用例検索
部5に出力するようになされている。
【0087】用例検索部15は、やはり図1の用例検索
部5と同様に、認識部14から供給される複数の文候補
それぞれを入力単語列に変換し、用例データベース8に
記憶されている用例それぞれとの類似度を計算して、そ
の類似度を最も高くする用例を選択するようになされて
いる。そして、その選択した用例に基づいて、音声入力
部1に入力された音声の認識結果(文)を決定するよう
になされている。但し、用例検索部15における類似度
の計算は、認識部14から供給される複数の文候補それ
ぞれの尤度を考慮して行われるようになされている。
【0088】以上のように構成される音声翻訳装置で
は、音声が入力されると、音声入力部1,AD変換部
2、分析部3、および認識部14において、図1の音声
翻訳装置と同様の処理が行われ、これにより認識部14
からは、複数の文候補が、用例検索部15に出力され
る。さらに、認識部14からは、複数の文候補それぞれ
の尤度も用例検索部15に出力される。
【0089】用例検索部15では、図6のフローチャー
トに示すように、まず最初に、ステップS11におい
て、認識部14からの複数の文候補(文認識候補)と、
それぞれの尤度が受信され、入力単語列に変換される。
そして、ステップS12に進み、複数の文候補それぞれ
と、用例データベース8に記憶されている用例それぞれ
との類似度が、シソーラス、さらに必要に応じてスクリ
プトを用いて計算される(スクリプトを用いることは必
須ではないが、用いた方が、類似度の精度が向上させる
ことができる)。
【0090】ここで、ステップS12で求められる類似
度は、文法的、意味的な正しさを表しており、即ち、い
わば言語的な正しさを表しており、以下、適宜、言語的
類似度という。また、これに対し、認識部14から出力
される尤度は、音響的な処理の結果得られた複数の認識
結果候補それぞれの正しさを表しており、以下、適宜、
音響的類似度という。
【0091】その後、ステップS13に進み、複数の認
識結果候補それぞれと、用例データベース8に記憶され
ている複数の用例それぞれとの総合的な類似度である総
合類似度が、言語的類似度および音響的類似度に基づい
て計算される。
【0092】ここで、総合類似度は、例えば言語的類似
度および音響的類似度を用いて表現される多項式にした
がって計算される。即ち、総合類似度は、言語的類似度
と音響的類似度とを、所定の割合で加算することにより
計算される。具体的には、例えば、いま総合類似度、言
語的類似度、または音響的類似度を、それぞれSg,S
l、またはSsとするとき、総合類似度Sgは、次式にし
たがって計算される。
【0093】 Sg=αSl+(1−α)Ss ・・・(1) 但し、αは、0<α<1の範囲のいずれかの実数値をと
る。
【0094】式(1)にしたがって、総合類似度を算出
した後は、ステップS14に進み、総合類似度を最も高
くする用例および文候補が選択され、以下、図1におけ
る場合と同様の処理が行われることにより、翻訳結果が
出力される。
【0095】なお、式(1)による総合的類似度の計算
は、複数の文候補それぞれについて、言語的類似度を最
も高くする用例についてだけ行えば良い。また、総合的
類似度の計算は、言語的類似度および音響的類似度を正
規化してから行うのが好ましい。
【0096】以上のように、最終的な音声認識結果を得
るのに用いる用例を選択する際に、言語的類似度だけで
なく、認識部4において得られる音響的類似度(尤度)
を考慮するようにしたので、言語的類似度だけを考慮す
る場合に比較して、より適切な用例を選択することが可
能となり、その結果、音声の認識率を向上させることが
できる。
【0097】即ち、逆にいえば、最終的な音声認識結果
を得るのに、音響的類似度だけでなく、言語的類似度を
考慮するようにしたので、何らかの原因で(例えば、雑
音などにより)、本来正しい文候補の音響的類似度が低
くなっても、言語的類似度を考慮することで、その総合
類似度を高くすることができ、本来正しい文候補が誤っ
たものであるとされることを防止することが可能とな
る。
【0098】なお、式(1)における言語的類似度と音
響的類似度とを加算するときの割合であるαは、動的に
変化させることができる。即ち、音声翻訳装置が使用さ
れる環境における雑音レベルが高い場合には、音響的類
似度の信頼性が低下すると考えられる。そこで、周囲の
雑音レベルを検出するようにし、それが高い場合には、
αの値を大きくすることで、総合類似度に対し、音響的
類似度が寄与する割合を低下させるとともに、言語的類
似度が寄与する割合を増加させるようにする。また、雑
音レベルが低い場合には、αの値を元に戻すようにす
る。このようにすることで、環境の変化に対する装置の
耐性を向上させることができる。
【0099】以上のように、類似度(総合類似度)の計
算にあたって、シソーラスに基づく類似度に加えて、い
ままで用いられた用例による文脈や、音響的類似度を考
慮するようにしたので、用例の選択の精度、ひいては音
声処理(自然言語処理)の精度を向上させることができ
る。
【0100】以上、本発明を音声翻訳装置に適用した場
合について説明したが、本発明は、その他、例えば音声
認識装置や機械翻訳装置などの、自然言語処理を必要と
するあらゆる装置に適用可能である。
【0101】なお、本実施例においては、日本語を英語
に翻訳するようにしたが、日本語以外の言語を翻訳した
り、また、英語以外の言語に翻訳するようにすることが
可能である。
【0102】また、本実施例では、認識部4(認識部1
4についても同様)において、言語モデルによる制約の
下、文候補を得て、用例検索部5(用例検索部15につ
いても同様)において、それを単語列に分離するように
したが、この他、認識部4では、例えば言語モデルによ
る制約なしで連続音声認識を行い、用例検索部5では、
その結果得られる単語を組み合わせて単語列を構成する
ようにすることも可能である。
【0103】さらに、本実施例では、入力単語列に助詞
を含ませないようにしたが、用例検索部5には、助詞を
含ませた入力単語列を処理させるようにすることも可能
である。
【0104】また、本実施例においては、翻訳結果を合
成音で出力するようにしたが、この他、翻訳結果は、表
示するようにすることも可能である。
【0105】
【発明の効果】本発明の自然言語処理装置および自然言
語処理方法によれば、用例記憶手段に記憶されている用
例それぞれと、入力文との類似度を計算し、その類似度
を最も高くする用例を選択するときに、いままでに選択
した用例による文脈に基づいて重みを付けて、類似度が
計算される。従って、類似度の精度が向上するので、よ
り処理に適した用例を選択することが可能となる。
【0106】本発明の音声認識装置および音声認識方法
によれば、複数の認識結果候補と、それぞれの尤度とが
求められ、複数の認識結果候補それぞれと、用例記憶手
段に記憶されている用例それぞれとの言語的な類似度で
ある言語的類似度が計算される。さらに、複数の認識結
果候補それぞれと、用例記憶手段に記憶されている用例
それぞれとの総合的な類似度である総合類似度が、言語
的類似度および尤度に基づいて計算される。そして、総
合類似度を最も高くする用例が選択され、その用例に基
づいて、音声の認識結果が求められる。従って、音声の
認識率を向上させることができる。
【図面の簡単な説明】
【図1】本発明を適用した音声翻訳装置の第1実施例の
構成を示すブロック図である。
【図2】シソーラスを示す図である。
【図3】用例データベース8に記憶されている表を示す
図である。
【図4】用例検索部5の動作を説明するフローチャート
である。
【図5】本発明を適用した音声翻訳装置の第2実施例の
構成を示すブロック図である。
【図6】用例検索部15の動作を説明するフローチャー
トである。
【符号の説明】
1 音声入力部 2 AD変換部 3 分析部 4 認識部 5 用例検索部 6 言語モデル記憶部 7 単語辞書 8 用例データベース 9 シソーラス記憶部 10 音声認識装置 11 翻訳部 12 対訳辞書 14 認識部 15 用例検索部 20 翻訳装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 加賀美 徹也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 石井 和夫 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 加藤 靖彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 角田 弘史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小川 浩明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 入力文を、その入力文と最も類似する用
    例を用いて処理する自然言語処理装置であって、 複数の前記用例を記憶している用例記憶手段と、 前記用例記憶手段に記憶されている用例それぞれと、前
    記入力文との類似度を計算し、その類似度を最も高くす
    る前記用例を選択する選択手段とを備え、 前記選択手段は、いままでに選択した前記用例による文
    脈に基づいて重みを付けて、前記類似度を計算すること
    を特徴とする自然言語処理装置。
  2. 【請求項2】 前記用例記憶手段は、次の処理に用いら
    れる可能性のある前記用例を予測するための予測情報を
    さらに記憶しており、 前記選択手段は、前記予測情報に基づいて、前記重みを
    付けることを特徴とする請求項1に記載の自然言語処理
    装置。
  3. 【請求項3】 前記用例記憶手段は、前記予測情報とし
    て、前記用例を次の処理に用いられる可能性のある前記
    用例と対応付けたものを記憶しており、 前記選択手段は、前回の処理で用いられた前記用例と対
    応付けられている前記用例に対する前記類似度が高くな
    るように、または前回の処理で用いられた前記用例と対
    応付けられていない前記用例に対する前記類似度が低く
    なるように、前記重みを付けることを特徴とする請求項
    2に記載の自然言語処理装置。
  4. 【請求項4】 前記用例記憶手段は、次の処理に用いら
    れる可能性のある前記用例を学習により求めたものを、
    前記用例と対応付けて記憶していることを特徴とする請
    求項3に記載の自然言語処理装置。
  5. 【請求項5】 前記用例記憶手段は、前記予測情報を、
    所定の場面ごとに用いるべきものに分類して記憶してお
    り、 前記選択手段は、場面に応じた前記予測情報を用いるこ
    とを特徴とする請求項2に記載の自然言語処理装置。
  6. 【請求項6】 複数の用例を記憶している用例記憶手段
    を備え、入力文を、その入力文と最も類似する前記用例
    を用いて処理する自然言語処理装置の自然言語処理方法
    であって、 前記用例記憶手段に記憶されている用例それぞれと、前
    記入力文との類似度を計算し、その類似度を最も高くす
    る前記用例を選択するときに、いままでに選択した前記
    用例による文脈に基づいて重みを付けて、前記類似度を
    計算することを特徴とする自然言語処理方法。
  7. 【請求項7】 文音声認識を行う音声認識装置であっ
    て、 音声を音響分析し、その特徴パラメータを抽出する抽出
    手段と、 前記抽出手段より出力される前記特徴パラメータに基づ
    いて前記音声の認識を行い、複数の認識結果候補と、そ
    れぞれの尤度とを求める認識結果候補算出手段と、 複数の用例を記憶している用例記憶手段と、 前記複数の認識結果候補それぞれと、前記用例記憶手段
    に記憶されている用例それぞれとの言語的な類似度であ
    る言語的類似度を計算する言語的類似度計算手段と、 前記複数の認識結果候補それぞれと、前記用例記憶手段
    に記憶されている用例それぞれとの総合的な類似度であ
    る総合類似度を、前記言語的類似度および尤度に基づい
    て計算する総合類似度計算手段と、 前記総合類似度を最も高くする前記用例を選択する選択
    手段と、 前記選択手段により選択された前記用例に基づいて、前
    記音声の認識結果を求める認識結果算出手段とを備える
    ことを特徴とする音声認識装置。
  8. 【請求項8】 前記総合類似度計算手段は、前記言語的
    類似度と尤度とを、所定の割合で加算することにより前
    記総合類似度を計算することを特徴とする請求項7に記
    載の音声認識装置。
  9. 【請求項9】 前記総合類似度計算手段は、前記言語的
    類似度と尤度とを加算するときの前記所定の割合を動的
    に変化させることを特徴とする請求項8に記載の音声認
    識装置。
  10. 【請求項10】 複数の用例を記憶している用例記憶手
    段を備え、文音声認識を行う音声認識装置の音声認識方
    法であって、 音声を音響分析し、その特徴パラメータを抽出し、 前記特徴パラメータに基づいて前記音声の認識を行い、
    複数の認識結果候補と、それぞれの尤度とを求め、 前記複数の認識結果候補それぞれと、前記用例記憶手段
    に記憶されている用例それぞれとの言語的な類似度であ
    る言語的類似度を計算し、 前記複数の認識結果候補それぞれと、前記用例記憶手段
    に記憶されている用例それぞれとの総合的な類似度であ
    る総合類似度を、前記言語的類似度および尤度に基づい
    て計算し、 前記総合類似度を最も高くする前記用例を選択し、その
    用例に基づいて、前記音声の認識結果を求めることを特
    徴とする音声認識方法。
JP13376295A 1995-05-31 1995-05-31 音声認識装置および音声認識方法 Expired - Fee Related JP3716870B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP13376295A JP3716870B2 (ja) 1995-05-31 1995-05-31 音声認識装置および音声認識方法
US08/654,893 US5991721A (en) 1995-05-31 1996-05-29 Apparatus and method for processing natural language and apparatus and method for speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13376295A JP3716870B2 (ja) 1995-05-31 1995-05-31 音声認識装置および音声認識方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005208593A Division JP2006012179A (ja) 2005-07-19 2005-07-19 自然言語処理装置および自然言語処理方法

Publications (2)

Publication Number Publication Date
JPH08328585A true JPH08328585A (ja) 1996-12-13
JP3716870B2 JP3716870B2 (ja) 2005-11-16

Family

ID=15112365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13376295A Expired - Fee Related JP3716870B2 (ja) 1995-05-31 1995-05-31 音声認識装置および音声認識方法

Country Status (2)

Country Link
US (1) US5991721A (ja)
JP (1) JP3716870B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999063456A1 (fr) * 1998-06-04 1999-12-09 Matsushita Electric Industrial Co., Ltd. Dispositif de preparation de regles de conversion du langage, dispositif de conversion du langage et support d'enregistrement de programme
WO2000049523A1 (fr) * 1999-02-18 2000-08-24 Sony Corporation Procede de traduction et dispositif de traduction
US6917920B1 (en) 1999-01-07 2005-07-12 Hitachi, Ltd. Speech translation device and computer readable medium
JP2005250071A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
US7117223B2 (en) 2001-08-09 2006-10-03 Hitachi, Ltd. Method of interpretation service for voice on the phone
JP2012014042A (ja) * 2010-07-02 2012-01-19 Mitsubishi Electric Corp 音声入力インタフェース装置及び音声入力方法
JP2012022251A (ja) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp 音声検索インタフェース装置及び音声入力検索方法
JP2013540304A (ja) * 2010-08-26 2013-10-31 グーグル・インコーポレーテッド 入力テキスト文字列の変換
JP2014232268A (ja) * 2013-05-30 2014-12-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識における読み精度を改善するシステム、方法、およびプログラム
JP2016206487A (ja) * 2015-04-24 2016-12-08 日本電信電話株式会社 音声認識結果整形装置、方法及びプログラム
CN111078849A (zh) * 2019-12-02 2020-04-28 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2744277B1 (fr) * 1996-01-26 1998-03-06 Sextant Avionique Procede de reconnaissance vocale en ambiance bruitee, et dispositif de mise en oeuvre
DE19636739C1 (de) * 1996-09-10 1997-07-03 Siemens Ag Verfahren zur Mehrsprachenverwendung eines hidden Markov Lautmodelles in einem Spracherkennungssystem
JP3531468B2 (ja) * 1998-03-30 2004-05-31 株式会社日立製作所 文書処理装置及び方法
US6434524B1 (en) * 1998-09-09 2002-08-13 One Voice Technologies, Inc. Object interactive user interface using speech recognition and natural language processing
US6266642B1 (en) 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6278968B1 (en) 1999-01-29 2001-08-21 Sony Corporation Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6356865B1 (en) * 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6442524B1 (en) 1999-01-29 2002-08-27 Sony Corporation Analyzing inflectional morphology in a spoken language translation system
US6282507B1 (en) 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6243669B1 (en) 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6374224B1 (en) * 1999-03-10 2002-04-16 Sony Corporation Method and apparatus for style control in natural language generation
US6735592B1 (en) 2000-11-16 2004-05-11 Discern Communications System, method, and computer program product for a network-based content exchange system
US7403938B2 (en) * 2001-09-24 2008-07-22 Iac Search & Media, Inc. Natural language query processing
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
JP4059025B2 (ja) * 2002-07-12 2008-03-12 日本電気株式会社 着信側情報表示システムおよび通信端末
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
ES2277693B1 (es) * 2003-03-31 2008-06-16 Gines Sanchez Gomez Procedimiento y sistema de traduccion de idiomas por frases homologas .
US7383172B1 (en) 2003-08-15 2008-06-03 Patrick William Jamieson Process and system for semantically recognizing, correcting, and suggesting domain specific speech
JP3890326B2 (ja) * 2003-11-07 2007-03-07 キヤノン株式会社 情報処理装置、情報処理方法ならびに記録媒体、プログラム
JP4075067B2 (ja) * 2004-04-14 2008-04-16 ソニー株式会社 情報処理装置および情報処理方法、並びに、プログラム
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7620549B2 (en) 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
US7634409B2 (en) 2005-08-31 2009-12-15 Voicebox Technologies, Inc. Dynamic speech sharpening
JP2007114413A (ja) * 2005-10-19 2007-05-10 Toshiba Corp 音声非音声判別装置、音声区間検出装置、音声非音声判別方法、音声区間検出方法、音声非音声判別プログラムおよび音声区間検出プログラム
JP4188989B2 (ja) * 2006-09-15 2008-12-03 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識プログラム
JP4282704B2 (ja) * 2006-09-27 2009-06-24 株式会社東芝 音声区間検出装置およびプログラム
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US20090198579A1 (en) * 2008-02-01 2009-08-06 Lewis Robert C Keyword tracking for microtargeting of mobile advertising
JP4950930B2 (ja) * 2008-04-03 2012-06-13 株式会社東芝 音声/非音声を判定する装置、方法およびプログラム
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8589161B2 (en) 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
WO2011059997A1 (en) 2009-11-10 2011-05-19 Voicebox Technologies, Inc. System and method for providing a natural language content dedication service
US11841912B2 (en) 2011-05-01 2023-12-12 Twittle Search Limited Liability Company System for applying natural language processing and inputs of a group of users to infer commonly desired search results
US8326862B2 (en) * 2011-05-01 2012-12-04 Alan Mark Reznik Systems and methods for facilitating enhancements to search engine results
US9805718B2 (en) * 2013-04-19 2017-10-31 Sri Internaitonal Clarifying natural language input using targeted questions
US9460088B1 (en) * 2013-05-31 2016-10-04 Google Inc. Written-domain language modeling with decomposition
CN107003996A (zh) 2014-09-16 2017-08-01 声钰科技 语音商务
US9898459B2 (en) 2014-09-16 2018-02-20 Voicebox Technologies Corporation Integration of domain information into state transitions of a finite state transducer for natural language processing
CN107003999B (zh) 2014-10-15 2020-08-21 声钰科技 对用户的在先自然语言输入的后续响应的系统和方法
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
WO2018023106A1 (en) 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
US20180203238A1 (en) * 2017-01-18 2018-07-19 Marshall Leroy Smith, JR. Method of education and simulation learning
JP2019106054A (ja) * 2017-12-13 2019-06-27 株式会社東芝 対話システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58145998A (ja) * 1982-02-25 1983-08-31 ソニー株式会社 音声過渡点検出方法
AU586167B2 (en) * 1984-05-25 1989-07-06 Sony Corporation Speech recognition method and apparatus thereof
JP2609173B2 (ja) * 1990-03-26 1997-05-14 株式会社エイ・ティ・アール自動翻訳電話研究所 用例主導型機械翻訳方法
JPH0535878A (ja) * 1991-07-26 1993-02-12 Sony Corp ニユーラルネツトワーク
JPH0561496A (ja) * 1991-08-30 1993-03-12 Sony Corp 音声認識装置
JPH05134694A (ja) * 1991-11-15 1993-05-28 Sony Corp 音声認識装置
JP3741156B2 (ja) * 1995-04-07 2006-02-01 ソニー株式会社 音声認識装置および音声認識方法並びに音声翻訳装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7321850B2 (en) 1998-06-04 2008-01-22 Matsushita Electric Industrial Co., Ltd. Language transference rule producing apparatus, language transferring apparatus method, and program recording medium
WO1999063456A1 (fr) * 1998-06-04 1999-12-09 Matsushita Electric Industrial Co., Ltd. Dispositif de preparation de regles de conversion du langage, dispositif de conversion du langage et support d'enregistrement de programme
US7072826B1 (en) 1998-06-04 2006-07-04 Matsushita Electric Industrial Co., Ltd. Language conversion rule preparing device, language conversion device and program recording medium
US6917920B1 (en) 1999-01-07 2005-07-12 Hitachi, Ltd. Speech translation device and computer readable medium
US7047195B2 (en) 1999-01-07 2006-05-16 Hitachi, Ltd. Speech translation device and computer readable medium
WO2000049523A1 (fr) * 1999-02-18 2000-08-24 Sony Corporation Procede de traduction et dispositif de traduction
US7117223B2 (en) 2001-08-09 2006-10-03 Hitachi, Ltd. Method of interpretation service for voice on the phone
JP4528540B2 (ja) * 2004-03-03 2010-08-18 日本電信電話株式会社 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP2005250071A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP2012014042A (ja) * 2010-07-02 2012-01-19 Mitsubishi Electric Corp 音声入力インタフェース装置及び音声入力方法
JP2012022251A (ja) * 2010-07-16 2012-02-02 Mitsubishi Electric Corp 音声検索インタフェース装置及び音声入力検索方法
JP2013540304A (ja) * 2010-08-26 2013-10-31 グーグル・インコーポレーテッド 入力テキスト文字列の変換
US10133737B2 (en) 2010-08-26 2018-11-20 Google Llc Conversion of input text strings
JP2014232268A (ja) * 2013-05-30 2014-12-11 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識における読み精度を改善するシステム、方法、およびプログラム
JP2016206487A (ja) * 2015-04-24 2016-12-08 日本電信電話株式会社 音声認識結果整形装置、方法及びプログラム
CN111078849A (zh) * 2019-12-02 2020-04-28 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN111078849B (zh) * 2019-12-02 2023-07-25 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置

Also Published As

Publication number Publication date
JP3716870B2 (ja) 2005-11-16
US5991721A (en) 1999-11-23

Similar Documents

Publication Publication Date Title
JP3716870B2 (ja) 音声認識装置および音声認識方法
CN111933129B (zh) 音频处理方法、语言模型的训练方法、装置及计算机设备
JP3741156B2 (ja) 音声認識装置および音声認識方法並びに音声翻訳装置
JP6188831B2 (ja) 音声検索装置および音声検索方法
Lee Voice dictation of mandarin chinese
JP4543294B2 (ja) 音声認識装置および音声認識方法、並びに記録媒体
US6973427B2 (en) Method for adding phonetic descriptions to a speech recognition lexicon
US7590533B2 (en) New-word pronunciation learning using a pronunciation graph
KR100883657B1 (ko) 음성 인식 기반의 음악 검색 방법 및 장치
US7421387B2 (en) Dynamic N-best algorithm to reduce recognition errors
JP3696231B2 (ja) 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
US10170107B1 (en) Extendable label recognition of linguistic input
Sainath et al. No need for a lexicon? evaluating the value of the pronunciation lexica in end-to-end models
US20070225980A1 (en) Apparatus, method and computer program product for recognizing speech
US20050187767A1 (en) Dynamic N-best algorithm to reduce speech recognition errors
JP2006012179A (ja) 自然言語処理装置および自然言語処理方法
US20040006469A1 (en) Apparatus and method for updating lexicon
KR20130126570A (ko) 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
JP4600706B2 (ja) 音声認識装置および音声認識方法、並びに記録媒体
JPH09134192A (ja) 統計的言語モデル生成装置及び音声認識装置
Qiu et al. Context-aware neural confidence estimation for rare word speech recognition
KR100487718B1 (ko) 영역 외 코퍼스를 이용한 영역 종속적 훈련 코퍼스 보강시스템 및 그 방법
Ma et al. Low-frequency word enhancement with similar pairs in speech recognition
Furui Steps toward natural human-machine communication in the 21st century
Unnikrishnan et al. Non-uniform Region Based Features for Automatic Language Identification

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080909

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090909

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100909

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110909

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110909

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120909

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130909

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees