JP4437047B2 - 音声対話装置 - Google Patents
音声対話装置 Download PDFInfo
- Publication number
- JP4437047B2 JP4437047B2 JP2004044798A JP2004044798A JP4437047B2 JP 4437047 B2 JP4437047 B2 JP 4437047B2 JP 2004044798 A JP2004044798 A JP 2004044798A JP 2004044798 A JP2004044798 A JP 2004044798A JP 4437047 B2 JP4437047 B2 JP 4437047B2
- Authority
- JP
- Japan
- Prior art keywords
- keyword
- user
- utterance
- understanding
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Description
従って、理解度が高い利用者には簡潔な応答による対話制御を実行し、一方理解度が低い利用者には詳細かつ丁寧な応答による対話制御を実行することで、利用者のレベルに従って適切な対話制御を実行し、利用者の利便性を向上させる音声対話装置を実現することができるという効果が得られる。また、自由発音特有の意味を持たない言葉の入力を許容することで、利用者の発話に対するプレッシャーを極力排除することができるという効果が得られる。また、特に入力された音声の総音数と重要なキーワードの音数との比較により理解度を推定することで、音数の取りうる幅が大きな言葉や、語尾に付く丁寧語の影響を受けることなく正確に理解度を算出し、適切な対話制御を実行することができるという効果が得られる。
従って、請求項1と同様に、利用者のレベルに従って適切な対話制御を実行し、利用者の利便性を向上させる音声対話装置を実現することができるという効果が得られる。また、自由発音特有の意味を持たない言葉の入力を許容することで、利用者の発話に対するプレッシャーを極力排除することができるという効果が得られる。また、特に音声の入力が開始されてから終了するまでの総発話時間とキーワードが発話されていたキーワード発話継続時間との比較により理解度を推定することで、どのような言葉にも対応し、音数が識別しにくい言葉についても、発話された音声に対する意味のある言葉の割合から正確に理解度を算出して、適切な対話制御を実行することができるという効果が得られる。
従って、請求項1と同様に、利用者のレベルに従って適切な対話制御を実行し、利用者の利便性を向上させる音声対話装置を実現することができるという効果が得られる。また、自由発音特有の意味を持たない言葉の入力を許容することで、利用者の発話に対するプレッシャーを極力排除することができるという効果が得られる。また、特に所定のキーワードの発話に標準的に要するキーワード基準発話時間と利用者が重要なキーワード自体を発話するのに要したキーワード発話継続時間との比較により理解度を推定することで、発話全体を検査するまでもなく、重要なキーワードのみを確認するだけで、正確に理解度を算出して適切な対話制御を実行することができるという効果が得られる。
従って、対話制御における理解度の判定精度を向上させ、入力された音声の内容や状態に影響を受けずに正確に理解度を算出し、適切な対話制御を実行することができるという効果が得られる。
従って、車両を運転することで負担がかかっている利用者についても、その時の利用者の状態に応じて正確に理解度を算出し、適切な対話制御を実行することができるという効果が得られる。また、利用者の利便性を向上させ、車両搭載に適した音声対話装置を実現することができるという効果が得られる。
図1は、本発明の第1の実施例の音声対話装置の全体構成を示すブロック図である。
図1において、本実施例の音声対話装置は、利用者の音声を入力するためのマイク1を備えており、マイク1から入力された利用者の音声は信号処理部2へ入力される。
信号処理部2は、音声認識を実行して入力された音声を認識語に変換したり、該認識語から利用者の対話における理解度を算出し、理解度に基づいて対話の制御を行うと共に、対話の制御に基づいて応答文の生成を実行する処理部であって、信号処理部2において生成された応答文は音声合成部3とディスプレイ4へ入力される。また、音声合成部3は、信号処理部2において生成された応答文をスピーカ5へ出力する。一方、ディスプレイ4は、信号処理部2において生成された応答文を画面に表示する。
次に、図面を参照して本実施例の音声対話装置の信号処理部2の詳細について説明する。図2は、本実施例の音声対話装置の信号処理部2の構成を示すブロック図である。
図2において、マイク1から入力された音声は、まず発話区間検出部21に入力され、発話区間検出部21において、音声対話装置の発話に基づいて利用者の発話区間(開始時刻と終了時刻)の検出が行われる。次に、入力された音声は、音声認識部22へ入力され、音声認識部22において音声認識が実行されることにより認識語(テキスト)に変換される。
また、利用者の音声と発話区間の情報、及び認識語は、時刻認識語結合部24へ入力され、時刻認識語結合部24は、それぞれの認識語に対して認識語が発話された時刻情報を結合して、認識語とそれに対応する時刻情報を、後述する時刻キーワード結合部27へ出力する。
これに対し、認識語カウント部26は、キーワードの音素の数(音数)と、キーワードも含めた全認識語の音素の数(総音数)をカウントし、認識語及びキーワードの音素の数に関する情報を、キーワードが同定された認識語と共に時刻キーワード結合部27へ出力する。
また、応答文生成部30は、対話制御部29の制御に合わせて、必要な応答文を生成して出力する処理部である。
次に、本実施例において理解度計算部28が理解度Rを算出するための理解度推定パラメータについて説明する。
図3は、発話例と理解度推定パラメータを算出するための要素との関係を示す図である。なお、図3は、横軸を時刻、縦軸を音声のパワーとして示した図であって、音声対話装置の音声合成部3による発話と利用者の発話の両方を示している。
次に、図面を参照して、理解度計算部28における理解度推定パラメータs1の算出手順について説明する。図4は、理解度計算部28における理解度推定パラメータs1の算出手順を示すフローチャートである。
図4において、まず理解度計算部28は、音声対話装置の音声合成部3による発話が終了した時刻t0を取得する(ステップS1)。
次に、利用者によって重要なキーワードの発話が開始された時刻t1を取得する(ステップS2)。
また、キーワード出現時間dを算出することができたら、キーワード出現時間dが所定時間Tdより短いか否かを判定する(ステップS4)。
また、ステップS4において、キーワード出現時間dが所定時間Td以上である(d≧Td)場合(ステップS4のNO)、対話における利用者の理解度は低いと推定して、理解度推定パラメータs1に「0」を設定(s1=0)する(ステップS6)。
次に、図面を参照して、理解度計算部28における理解度推定パラメータs2の算出手順について説明する。図5は、理解度計算部28における理解度推定パラメータs2の算出手順を示すフローチャートである。
図5において、まず理解度計算部28は、利用者が単一の発話を開始してから終了するまでに入力された総音数p0を取得する(ステップS11)。
次に、利用者によって発話された重要なキーワードの音数p1を取得する(ステップS12)。
そして、入力された総音数p0に占めるキーワードの音数p1の割合(p1/p0)が例えば0.5以上であるか否かを判定する(ステップS13)。
また、ステップS13において、入力された総音数p0に占めるキーワードの音数p1の割合(p1/p0)が0.5未満である場合(ステップS13のNO)、対話における利用者の理解度は低いと推定して、理解度推定パラメータs2に「0」を設定(s2=0)する(ステップS15)。
次に、本実施例における理解度計算部28の理解度Rの算出手順について説明する。理解度計算部28において、理解度Rは上述の理解度推定パラメータs1、s2を用いて算出される。具体的に説明すると、本実施例では、理解度推定パラメータs1、s2を組み合わせて、理解度Rを下記(1)式により算出する。従って、本実施例において、理解度RはR=0、R=1、R=2の3つの状態のいずれかとして算出される。
次に、図面を参照して本実施例の音声対話装置の理解度Rに基づく対話進行フローについて説明する。図6は、本実施例の音声対話装置の理解度Rに基づく対話進行フローを示すフローチャートである。
図6において、まず信号処理部2は、対話の中で音声合成部3を介してスピーカ5から音声入力を促すメッセージを出力し、利用者に音声入力を求める(ステップS21)。
そして、信号処理部2は、対話制御部29において、算出された理解度Rに基づく対話制御を実行し、対話の流れを決定する(ステップS24)。
具体的には、理解度R=0の場合(ステップS24:R=0)、利用者の理解度は低いと推定され、再入力を要求する必要があるので、信号処理部2は、ステップS21へ戻り、再度入力を促すメッセージを出力する。
また、音声認識した認識語(テキスト)が正しいと利用者によって確認されなかった場合(ステップS27のNO)、ステップS21へ戻り、再度入力を促すメッセージを出力する。
更に、理解度R=2の場合(ステップS24:R=2)、利用者の理解度は高いと推定され、すぐに次のステップに進めば良いので、信号処理部2は、入力から得られた認識語(テキスト)を確認せずに次のステップへ進む。
本実施例における装置構成、及び信号処理部の詳細は、第1の実施例と同一なので、ここでは説明を省略する。
次に、本実施例において理解度計算部28が理解度Rを算出するための理解度推定パラメータについて説明する。
具体的には、図3に示す理解度推定パラメータを算出するための各要素に対して、理解度推定パラメータs1は、第1の実施例と同様に、キーワード出現時間dを変数に持つ関数として示される。一方、理解度推定パラメータs3は、利用者が単一の発話を開始してから終了するまでの総発話時間T2に占める利用者が重要なキーワード自体を発話するのに要したキーワード発話継続時間Tkの割合、すなわち”Tk/T2”を変数に持つ関数として示される。
次に、図面を参照して、理解度計算部28における理解度推定パラメータs3の算出手順について説明する。図7は、理解度計算部28における理解度推定パラメータs3の算出手順を示すフローチャートである。
図7において、まず理解度計算部28は、利用者が単一の発話を開始してから終了するまでの総発話時間T2を取得する(ステップS31)。
次に、利用者が重要なキーワード自体を発話するのに要したキーワード発話継続時間Tkを取得する(ステップS32)。
そして、利用者の総発話時間T2に占めるキーワード発話継続時間Tkの割合(Tk/T2)が例えば0.5以上であるか否かを判定する(ステップS33)。
また、ステップS33において、利用者の総発話時間T2に占めるキーワード発話継続時間Tkの割合(Tk/T2)が0.5未満である場合(ステップS33のNO)、対話における利用者の理解度は低いと推定して、理解度推定パラメータs3に「0」を設定(s3=0)する(ステップS35)。
次に、本実施例における理解度計算部28の理解度Rの算出手順について説明する。理解度計算部28において、理解度Rは上述の理解度推定パラメータs1、s3を用いて算出される。具体的に説明すると、本実施例では、理解度推定パラメータs1、s3を組み合わせて、理解度Rを下記(2)式により算出する。従って、本実施例においても、理解度RはR=0、R=1、R=2の3つの状態のいずれかとして算出される。
また、本実施例の音声対話装置も、理解度Rが算出できたら、第1の実施例で図6を参照して説明した理解度Rに基づく対話進行フローに基づいて、対話制御を実行する。
本実施例における装置構成、及び信号処理部の詳細は、第1の実施例と同一なので、ここでは説明を省略する。
但し、本実施例では、キーワードデータベース25に記憶されたキーワードには、キーワード毎に、それぞれキーワードを発話するのに要する標準的な時間であるキーワード基準発話時間が記憶されているものとする。また、キーワード判定部23は、入力された認識語から所定のキーワードを抽出すると共に、認識語のキーワード部分にタグを付与して、キーワードを同定済みの認識語を、該キーワードのキーワード基準発話時間と共に認識語カウント部26へ出力し、キーワード基準発話時間は、更に認識語カウント部26及び時刻キーワード結合部27を介して、理解度計算部28へ出力されるものとする。
次に、本実施例において理解度計算部28が理解度Rを算出するための理解度推定パラメータについて説明する。
具体的には、図3に示す理解度推定パラメータを算出するための各要素に対して、理解度推定パラメータs1は、第1の実施例と同様に、キーワード出現時間dを変数に持つ関数として示される。一方、理解度推定パラメータs4は、所定のキーワードを発話するのに要する標準的な時間であるキーワード基準発話時間Dsに対する利用者が該キーワード自体を発話するのに要した時間であるキーワード発話継続時間Tkの比率、すなわち”Tk/Ds”を変数に持つ関数として示される。
次に、図面を参照して、理解度計算部28における理解度推定パラメータs4の算出手順について説明する。図8は、理解度計算部28における理解度推定パラメータs4の算出手順を示すフローチャートである。
図8において、まず理解度計算部28は、入力された重要なキーワードを発話するのに要する標準的な時間であるキーワード基準発話時間Dsを取得する(ステップS41)。
次に、利用者がこの重要なキーワード自体を発話するのに要したキーワード発話継続時間Tkを取得する(ステップS42)。
そして、キーワードを発話するのに要するキーワード基準発話時間Dsに占めるキーワード発話継続時間Tkの割合(Tk/Ds)が例えば1.0以下であるか否かを判定する(ステップS43)。
また、ステップS43において、キーワードを発話するのに要するキーワード基準発話時間Dsに占めるキーワード発話継続時間Tkの割合(Tk/Ds)が1.0より大きい場合(ステップS43のNO)、対話における利用者の理解度は低いと推定して、理解度推定パラメータs4に「0」を設定(s4=0)する(ステップS45)。
次に、本実施例における理解度計算部28の理解度Rの算出手順について説明する。理解度計算部28において、理解度Rは上述の理解度推定パラメータs1、s4を用いて算出される。具体的に説明すると、本実施例では、理解度推定パラメータs1、s4を組み合わせて、理解度Rを下記(3)式により算出する。従って、本実施例においても、理解度RはR=0、R=1、R=2の3つの状態のいずれかとして算出される。
また、本実施例の音声対話装置も、理解度Rが算出できたら、第1の実施例で図6を参照して説明した理解度Rに基づく対話進行フローに基づいて、対話制御を実行する。
22 音声認識部(音声認識手段)
23 キーワード判定部(キーワード判定手段)
25 キーワードデータベース(キーワード基準発話時間記憶手段)
26 認識語カウント部(入力音数計測手段)
27 時刻キーワード結合部(キーワード出現時間計測手段、総発話時間計測手段、キーワード発話継続時間計測手段)
28 理解度計算部(キーワード出現時間計測手段、総発話時間計測手段、キーワード発話継続時間計測手段、理解度判定手段)
29 対話制御部(対話制御手段)
S1〜S3 キーワード出現時間計測手段
S11〜S12 入力音数計測手段
S31 総発話時間計測手段
S32、S42 キーワード発話継続時間計測手段
S4〜S6、S13〜S15、S33〜S35、S43〜S45 理解度判定手段
Claims (5)
- 利用者が発話する音声を入力するための音声入力手段と、
入力された音声の認識処理を行う音声認識手段と、
認識された前記利用者の音声から所定のキーワードを抽出するキーワード判定手段と、
認識された前記利用者の音声について音数を計測する入力音数計測手段と、
利用者の発話によって入力された総音数に占める前記キーワードの音数の割合に基づいて、対話における前記利用者の理解度を判定する理解度判定手段と、
前記利用者の理解度に応じて対話応答を制御する対話制御手段と
を備えたことを特徴とする音声対話装置。 - 利用者が発話する音声を入力するための音声入力手段と、
入力された音声の認識処理を行う音声認識手段と、
認識された前記利用者の音声から所定のキーワードを抽出するキーワード判定手段と、
前記利用者が発話を開始してから終了するまでの総発話時間を計測する総発話時間計測手段と、
前記利用者が前記キーワード自体を発話するのに要したキーワード発話継続時間を計測するキーワード発話継続時間計測手段と、
前記総発話時間に占める前記キーワード発話継続時間の割合に基づいて、対話における前記利用者の理解度を判定する理解度判定手段と、
前記利用者の理解度に応じて対話応答を制御する対話制御手段と
を備えたことを特徴とする音声対話装置。 - 利用者が発話する音声を入力するための音声入力手段と、
入力された音声の認識処理を行う音声認識手段と、
認識された前記利用者の音声から所定のキーワードを抽出するキーワード判定手段と、
前記キーワードを発話するのに要する標準的な時間をキーワード基準発話時間として前記キーワード毎に記憶したキーワード基準発話時間記憶手段と、
前記利用者が前記キーワード自体を発話するのに要したキーワード発話継続時間を計測するキーワード発話継続時間計測手段と、
前記キーワード基準発話時間に対する前記キーワード発話継続時間の比率に基づいて、対話における前記利用者の理解度を判定する理解度判定手段と、
前記利用者の理解度に応じて対話応答を制御する対話制御手段と
を備えたことを特徴とする音声対話装置。 - 利用者が発話する音声を入力するための音声入力手段と、
入力された音声の認識処理を行う音声認識手段と、
認識された前記利用者の音声から所定のキーワードを抽出するキーワード判定手段に加えて、
更に、認識された前記利用者の音声について音数を計測する入力音数計測手段、
あるいは前記利用者に発話を要求してから該利用者が前記キーワードを発話するまでのキーワード出現時間を計測するキーワード出現時間計測手段、
あるいは前記利用者が発話を開始してから終了するまでの総発話時間を計測する総発話時間計測手段及び前記利用者が前記キーワード自体を発話するのに要したキーワード発話継続時間を計測するキーワード発話継続時間計測手段、
あるいは前記キーワードを発話するのに要する標準的な時間をキーワード基準発話時間として前記キーワード毎に記憶したキーワード基準発話時間記憶手段及び前記利用者が前記キーワード自体を発話するのに要したキーワード発話継続時間を計測するキーワード発話継続時間計測手段の内の少なくとも2組以上の手段と、
利用者の発話によって入力された総音数に占める前記キーワードの音数の割合と、前記キーワード出現時間の長さと、前記総発話時間に占める前記キーワード発話継続時間の割合と、前記キーワード基準発話時間に対する前記キーワード発話継続時間の比率の内の少なくとも2つ以上を組合わせた結果に基づいて、対話における前記利用者の理解度を判定する理解度判定手段と、
前記利用者の理解度に応じて対話応答を制御する対話制御手段と
を備えたことを特徴とする音声対話装置。 - 搭載された車両の走行環境を判定する走行環境判定部を備え、
前記理解度判定手段が、前記走行環境判定部が判定する前記車両の走行環境に応じて、対話における前記利用者の理解度を判定するためのしきい値を変更する
ことを特徴とする請求項1から請求項4のいずれかに記載の音声対話装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004044798A JP4437047B2 (ja) | 2004-02-20 | 2004-02-20 | 音声対話装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004044798A JP4437047B2 (ja) | 2004-02-20 | 2004-02-20 | 音声対話装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005234331A JP2005234331A (ja) | 2005-09-02 |
JP4437047B2 true JP4437047B2 (ja) | 2010-03-24 |
Family
ID=35017336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004044798A Expired - Fee Related JP4437047B2 (ja) | 2004-02-20 | 2004-02-20 | 音声対話装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4437047B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9620109B2 (en) | 2014-02-25 | 2017-04-11 | Samsung Electronics Co., Ltd. | Apparatus and method for generating a guide sentence |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5331657B2 (ja) * | 2009-11-19 | 2013-10-30 | 株式会社富士通アドバンストエンジニアリング | 音声シナリオ設定プログラム及び音声シナリオ設定装置 |
US8781825B2 (en) * | 2011-08-24 | 2014-07-15 | Sensory, Incorporated | Reducing false positives in speech recognition systems |
JP6585733B2 (ja) * | 2015-11-17 | 2019-10-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
JP6974073B2 (ja) * | 2017-08-29 | 2021-12-01 | 京セラ株式会社 | 電子機器、充電台、コミュニケーションシステム、方法、およびプログラム |
JP7044156B2 (ja) * | 2018-05-15 | 2022-03-30 | 富士通株式会社 | 生成プログラム、生成方法および情報処理装置 |
JP7475909B2 (ja) * | 2020-03-17 | 2024-04-30 | 三菱電機インフォメーションネットワーク株式会社 | ユーザ端末装置、プログラム及びリテラシレベル推定システム |
-
2004
- 2004-02-20 JP JP2004044798A patent/JP4437047B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9620109B2 (en) | 2014-02-25 | 2017-04-11 | Samsung Electronics Co., Ltd. | Apparatus and method for generating a guide sentence |
Also Published As
Publication number | Publication date |
---|---|
JP2005234331A (ja) | 2005-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8370149B2 (en) | Speech synthesis system, speech synthesis program product, and speech synthesis method | |
CN107967916B (zh) | 确定语音关系 | |
US8886534B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition robot | |
JP5154363B2 (ja) | 車室内音声対話装置 | |
US20190051306A1 (en) | Voice recognition device | |
EP1357541A2 (en) | Speaker adaptation for speech recognition | |
JP4859982B2 (ja) | 音声認識装置 | |
JP5200712B2 (ja) | 音声認識装置、音声認識方法及びコンピュータプログラム | |
KR20160119274A (ko) | 핫워드 적합성을 결정하는 방법 및 장치 | |
JP4940887B2 (ja) | 音声入力支援プログラム、音声入力支援装置、音声入力支援方法 | |
KR20230150377A (ko) | 대화 동안 텍스트 음성 변환에서의 즉각적인 학습 | |
JP5431282B2 (ja) | 音声対話装置、方法、プログラム | |
JP4437047B2 (ja) | 音声対話装置 | |
JP6459330B2 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
KR101283271B1 (ko) | 어학 학습 장치 및 어학 학습 방법 | |
JP4440502B2 (ja) | 話者認証システム及び方法 | |
JP2004251998A (ja) | 対話理解装置 | |
US20110218809A1 (en) | Voice synthesis device, navigation device having the same, and method for synthesizing voice message | |
JP5375612B2 (ja) | 周波数軸伸縮係数推定装置とシステム方法並びにプログラム | |
JP2008026721A (ja) | 音声認識装置、音声認識方法、および音声認識用プログラム | |
JP6852029B2 (ja) | ワード検出システム、ワード検出方法及びワード検出プログラム | |
JP4178931B2 (ja) | 音声認識装置 | |
JP2005283646A (ja) | 音声認識率推定装置 | |
JP2019032400A (ja) | 発話判定プログラム、発話判定方法、及び発話判定装置 | |
JP5895501B2 (ja) | 音声認識装置および音声認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091218 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100104 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140108 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |