JP4950024B2 - 会話システムおよび会話ソフトウェア - Google Patents

会話システムおよび会話ソフトウェア Download PDF

Info

Publication number
JP4950024B2
JP4950024B2 JP2007505922A JP2007505922A JP4950024B2 JP 4950024 B2 JP4950024 B2 JP 4950024B2 JP 2007505922 A JP2007505922 A JP 2007505922A JP 2007505922 A JP2007505922 A JP 2007505922A JP 4950024 B2 JP4950024 B2 JP 4950024B2
Authority
JP
Japan
Prior art keywords
unit
language
order
primary
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007505922A
Other languages
English (en)
Other versions
JPWO2006093092A1 (ja
Inventor
幹生 中野
博 奥乃
和範 駒谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2006093092A1 publication Critical patent/JPWO2006093092A1/ja
Application granted granted Critical
Publication of JP4950024B2 publication Critical patent/JP4950024B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本発明は、ユーザの発話を認識し、かつ、ユーザに対して発話を出力するシステム、およびユーザとの会話に必要な機能をコンピュータに付与するソフトウェアに関する。
ユーザおよびシステムの会話に際して、周辺雑音等の諸原因によって、システムによるユーザの発話認識に誤り(聞き誤り)が生じる可能性がある。このため、システムにおいてユーザの発話内容を確認するための発話を出力する技術が提案されている(たとえば、特開2002−351492号公報参照)。当該システムによれば、単語の「属性」「属性値」および「属性値間距離」が定義され、共通の属性を有しながら属性値が異なり、かつ、当該属性値の偏差(属性値間距離)が閾値以上となるような複数の単語が同一のユーザとの会話中に認識された場合、当該単語を確認するための発話が出力される。
しかし、前記システムによれば、聞き誤りが生じた場合、属性値間距離が不適当に評価される場合がある。このため、ユーザが「A」と発話したにもかかわらず、システムがユーザの発話は「A」と音響的に近い「B」であると認識しているという齟齬が解消されないまま、会話が進行してしまう可能性があった。
そこで、本発明は、ユーザの発話と、認識された発話との齟齬をより適当に解消しながら、当該ユーザと会話しうるシステム、および当該会話機能をコンピュータに対して付与するソフトウェアを提供することを解決課題とする。
前記課題を解決するための本発明の会話システムは、ユーザの発話を認識する第1発話部と、発話を出力する第2発話部とを備えている会話システムであって、前記第1発話部により認識された発話に含まれている1次入力言語単位に音響的に類似する言語単位を第1辞書DBから検索可能であることを要件として、当該1次入力言語単位に関連する複数の言語単位を第2辞書DBから検索して複数の1次出力言語単位として認識する第1処理部と、前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数の1次出力言語単位から1つを選定し、当該選定した1次出力言語単位に基づいてユーザの真意を問う1次質問を生成して前記第2発話部に出力させ、当該1次質問に対する前記ユーザの回答として前記第1発話部により認識された1次回答に基づき、当該ユーザの真意と前記1次入力言語単位との整合および不整合を判別する第2処理部とを備えていることを特徴とする。
第1発話部により認識された発話に含まれている「1次入力言語単位」に音響的に類似する言語単位が第1辞書DBから検索されうる場合、1次入力言語単位ではなく他の言語単位がユーザの発話に含まれていた可能性がある。すなわち、この場合、第1発話部が1次入力言語単位について聴き違えをした可能性が多少なりともある。この点に鑑みて1次入力言語単位に関連する複数の「1次出力言語単位」が第2辞書DBから検索される。
また、複数の1次出力言語単位の中から、認識難易度を表す因子に基づき1次出力言語単位が選定され、当該選定された1次出力言語単位に応じた「1次質問」が生成されて出力される。このため、当該選定された1次出力言語単位のユーザにとっての認識を容易にすることができる。これにより、ユーザの真意と1次入力言語単位との整合および不整合を判別する観点から適当な1次質問が生成される。そして、1次質問に対するユーザの発話として認識された「1次回答」に基づき、当該ユーザの真意と1次入力言語単位との整合および不整合が判別される。これにより、ユーザの発話(真意)と、システムにおいて認識された発話との齟齬をより確実に抑制しながら、当該ユーザとシステムとの会話が可能となる。
なお「言語単位」とは、文字、単語、複数の単語より構成される文章、短い文章より構成される長い文章等を意味する。
さらに、本発明の会話システムは、前記第2処理部が、前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれの観念的な認識難易度もしくは所定範囲における出現頻度を表す第1因子、および音響的な認識難易度もしくは所定数の他の言語単位との音響距離の最低平均値を表す第2因子のうち一方または両方に基づき、前記複数の1次出力言語単位から1つを選定することを特徴とする。
本発明の会話システムによれば、当該選定された1次出力言語単位のユーザにとっての観念的または音響的な認識を容易にすることができる。これにより、ユーザの真意と1次入力言語単位との整合および不整合の別を確認する観点から適当な1次質問が生成される。
また、本発明の会話システムは、前記第2処理部が前記1次入力言語単位と、前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれとの音響距離に基づき、当該複数の1次出力言語単位から1つを選定することを特徴とする。
本発明の会話システムによれば、複数の1次出力言語単位の中から、1次入力言語単位との音響距離に基づき1次出力言語単位が選定されるので、当該選定された1次出力言語単位の1次入力言語単位とのユーザにとっての聴覚的な識別を容易にすることができる。
さらに、本発明の会話システムは、前記第1処理部が、前記1次入力言語単位とこれに音響的に類似する言語単位との相違部分を含む第1種言語単位と、当該相違部分の本来の読み方と異なる読み方を表す第2種言語単位と、他の言語体系において当該相違部分に対応する言語単位の読み方を表す第3種言語単位と、当該相違部分に含まれる1つの音素を表す第4種言語単位と、前記1次入力言語単位と概念的に類似する第5種言語単位とのうち、一部または全部を前記1次出力言語単位として認識することを特徴とする。
また、本発明の会話システムは、前記第1処理部が、第k種言語単位群(k=1〜5)から複数の言語単位を前記複数の1次出力言語単位として認識することを特徴とする。
本発明の会話システムによれば、1次質問の生成基礎である1次出力言語単位の選択肢の幅が広げられるので、ユーザの真意および1次入力言語単位の整合および不整合を判別する観点から最適な1次質問が生成されうる。
さらに、本発明の会話システムは、前記第2処理部により前記ユーザの真意とi次入力言語単位(i=1,2,‥)とが整合していないと判定された場合、前記第1処理部が、前記i次入力言語単位に音響的に類似する言語単位を前記第1辞書DBから検索してi+1次入力言語単位として認識し、前記i+1次入力言語単位に関連する言語単位を前記第2辞書DBから検索してi+1次出力言語単位として認識し、かつ、前記第2処理部が、前記第1処理部により認識された前記i+1次出力言語単位に基づき、前記ユーザの真意を問うi+1次質問を生成して前記第2発話部に出力させ、当該i+1次質問に対する前記ユーザの回答として前記第1発話部により認識されたi+1次回答に基づき、当該ユーザの真意と前記i+1次入力言語単位との整合および不整合を判別する特徴とする。
本発明の会話システムによれば、第1発話部により認識された発話に含まれているi次入力言語単位に音響的に類似する言語単位としての「i+1次入力言語単位」がユーザの発話に含まれていた可能性があることに鑑みて、i+1次入力言語単位に関連する「i+1次出力言語単位」が第2辞書DBから検索される。また、i+1次出力言語単位に基づいて「i+1次質問」が生成されて出力される。そして、i+1次質問に対するユーザの発話として認識された「i+1次回答」に基づき、当該ユーザの真意とi+1次入力言語単位との整合および不整合が判別される。このように、複数回にわたってユーザの真意を問うための質問が当該ユーザに向けて投げかけられる。これにより、ユーザの発話(真意)とシステムにおいて認識された発話との齟齬をさらに確実に抑制しながら、当該ユーザとシステムとの会話が可能となる。
また、本発明の会話システムは、前記第1処理部が複数のi+1次出力言語単位を認識し、前記第2処理部が、前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数のi+1次出力言語単位から1つを選定し、当該選定したi+1次出力言語単位に基づいて前記i+1次質問を生成することを特徴とする。
本発明の会話システムによれば、複数のi+1次出力言語単位の中から、認識難易度を表す因子に基づきi+1次出力言語単位が選定されるので、当該選定されたi+1次出力言語単位のユーザにとっての認識を容易にすることができる。これにより、ユーザの真意とi+1次入力言語単位との整合および不整合を判別する観点から適当なi+1次質問が生成される。
さらに、本発明の会話システムは、前記第2処理部が、前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれの観念的な認識難易度もしくは所定範囲における出現頻度を表す第1因子、および音響的な認識難易度もしくは所定数の他の言語単位との音響距離の最低平均値を表す第2因子のうち一方または両方に基づき、当該複数のi+1次出力言語単位から1つを選定することを特徴とする。
本発明の会話システムによれば、当該選定されたi+1次出力言語単位のユーザにとっての観念的または音響的な認識を容易にすることができる。これにより、ユーザの真意とi+1次入力言語単位との整合および不整合を判別する観点から適当なi+1次質問が生成される。
また、本発明の会話システムは、前記第2処理部が前記i次入力言語単位と前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれとの音響距離、および前記i+1次入力言語単位と前記複数のi+1次出力言語単位のそれぞれとの音響距離のうち一方または両方に基づき、当該複数のi+1次出力言語単位から1つを選定することを特徴とする。
本発明の会話システムによれば、複数のi+1次出力言語単位の中から、i次入力言語単位との音響距離に基づきi+1次出力言語単位が選定されうるので、当該選定されたi+1次出力言語単位のi次入力言語単位との音響的な識別を容易にすることができる。さらに、複数のi+1次出力言語単位の中から、i+1次入力言語単位との音響距離に基づきi+1次出力言語単位が選定されうるので、当該選定されたi+1次出力言語単位のi+1次入力言語単位との音響的な識別を容易にすることができる。
さらに、本発明の会話システムは、前記第1処理部が、前記i+1次入力言語単位およびこれに音響的に類似する言語単位の相違部分を含む第1種言語単位と、当該相違部分の本来の読み方と異なる読み方を表す第2種言語単位と、他の言語体系において当該相違部分に対応する言語単位の読み方を表す第3種言語単位と、当該相違部分に含まれる1つの音素を表す第4種言語単位と、前記i+1次入力言語単位と概念的に類似する第5種言語単位とのうち、一部または全部を2次出力言語単位として認識することを特徴とする。
また、本発明の会話システムは、前記第1処理部が、第k種言語単位群(k=1〜5)から複数の言語単位を前記複数のi+1次出力言語単位として認識することを特徴とする。
本発明の会話システムによれば、i+1次質問の生成基礎としてのi+1次出力言語単位の選択肢の幅が広げられるので、ユーザの先の発話とi+1次入力言語単位との整合および不整合を判別する観点から最適なi+1次質問が生成されうる。
さらに、本発明の会話システムは、前記第2処理部により前記ユーザの真意とj次入力言語単位(j≧2)とが整合していないと判定された場合、前記第2処理部が、前記ユーザの再度の発話を促す質問を生成して、これを前記第2発話部に出力させることを特徴とする。
本発明の会話システムによれば、逐次出力される質問によってはユーザの真意が確認できないような場合、あらためてその真意を確認することができる。
前記課題を解決するための本発明の会話ソフトウェアは、ユーザの発話を認識する第1発話機能と、発話を出力する第2発話機能とを有するコンピュータの記憶機能に格納される会話ソフトウェアであって、前記第1発話機能により認識された発話に含まれている1次入力言語単位に音響的に類似する言語単位を第1辞書DBから検索可能であることを要件として、当該1次入力言語単位に関連する複数の言語単位を第2辞書DBから検索して複数の1次出力言語単位として認識する第1処理機能と、前記第1処理機能により認識された前記複数の1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数の1次出力言語単位から1つを選定し、当該選定した1次出力言語単位に基づいてユーザの真意を問う1次質問を生成して前記第2発話機能によって出力し、当該1次質問に対する前記ユーザの回答として前記第1発話機能により認識された1次回答に基づき、当該ユーザの真意と前記1次入力言語単位との整合および不整合を判別する第2処理機能とを前記コンピュータに付与することを特徴とする。
本発明の会話ソフトウェアによれば、ユーザの発話(またはその真意)と、システムにおいて認識された発話との齟齬をより確実に抑制しながら、当該ユーザと会話する機能が当該コンピュータに付与される。
また、本発明の会話ソフトウェアは、前記第2処理機能によりユーザの真意とi次入力言語単位(i=1,2,‥)とが整合していないと判定された場合、前記第1処理機能として、前記i次入力言語単位に音響的に類似する言語単位を前記第1辞書DBから検索してi+1次入力言語単位として認識し、前記i+1次入力言語単位に関連する言語単位を前記第2辞書DBから検索してi+1次出力言語単位として認識する機能と、前記第2処理機能として、前記第1処理機能により認識されたi+1次出力言語単位に基づき、ユーザの真意を問うi+1次質問を生成して前記第2発話機能によって出力、当該i+1次質問に対する前記ユーザの回答として前記第1発話機能により認識されたi+1次回答に基づき、当該ユーザの真意と前記i+1次入力言語単位との整合および不整合を判別する機能とを前記コンピュータに対して付与することを特徴とする。
本発明の会話ソフトウェアによれば、ユーザの真意を問う質問が複数回にわたって生成する機能が前記コンピュータに対して付与される。したがって、当該ユーザの真意をより正確に把握し、ユーザの発話とシステムにおいて認識された発話との齟齬をより確実に抑制しながら、当該ユーザと会話する機能が当該コンピュータに付与される。
本発明の会話システムおよび会話ソフトウェアの実施形態について図面を用いて説明する。
図1は本発明の会話システムの構成例示図であり、図2は本発明の会話システムおよび会話ソフトウェアの機能例示図である。
図1に示されている会話システム(以下「システム」という。)100は、自動車に搭載されたナビゲーションシステム(ナビシステム)10に組み込まれた、ハードウェアとしてのコンピュータと、当該コンピュータのメモリに格納された本発明の「会話ソフトウェア」とにより構成されている。
会話システム100は、第1発話部101と、第2発話部102と、第1処理部111と、第2処理部112と、第1辞書DB121と、第2辞書DB122とを備えている。
第1発話部101は、マイクロフォン(図示略)等により構成され、入力音声に基づいて隠れマルコフモデル法等、公知の手法にしたがってユーザの発話を認識する。
第2発話部102は、スピーカ(図示略)等により構成され、音声(または発話)を出力する。
第1処理部111は、第1発話部101により認識された発話に含まれている1次入力言語単位に音響的に類似する言語単位を第1辞書DB121から検索可能であることを要件として1次入力言語単位に関連する複数種類の言語単位を第2辞書DB122から検索して1次出力言語単位として認識する。さらに、第1処理部111は、後述するように必要に応じてより高次の出力言語単位を認識する。
第2処理部112は、1次入力言語単位に基づき、第1処理部111により認識された複数種類の1次出力言語単位の中から1つを選定する。また、第2処理部112は、選定した1次出力言語単位に基づき、ユーザの真意を問う1次質問を生成して第2発話部102に出力させる。さらに、第2処理部112は、当該1次質問に対するユーザの回答として第1発話部101により認識された1次回答に基づき、該ユーザの真意と1次入力言語単位との整合および不整合を判別する。また、第2処理部112は、後述するように必要に応じてより高次の質問を生成し、かつ、高次の回答に基づいてユーザの真意を確認する。
第1辞書DB121は、第1処理部111によりi+1次入力言語単位(i=1,2,‥)として認識されうる複数の言語単位を記憶保持している。
第2辞書DB122は、第1処理部111によりi次出力言語単位として認識されうる複数の言語単位を記憶保持している。
前記構成の会話システム100の機能について、図2を用いて説明する。
まず、ユーザが目的地設定のためにナビシステム10を操作したことに応じて、第2発話部102が「目的地はどこですか」という初期発話を出力する(図2/S1)。初期発話に応じてユーザが目的地を表す単語を口にすると、第1発話部101がこの発話を認識する(図2/S2)。このとき、入力言語単位、出力言語単位、質問および回答の次数を表す指数iが「1」に設定される(図2/S3)。
また、第1処理部111が、第1発話部101により認識された発話を言語単位列に変換し、この言語単位列から第1辞書DB121において「地域名称」や「建築物名称」等に分類されている言語単位を抽出してi次入力言語単位xiとして認識する(図2/S4)。言語単位列から抽出される言語単位の分類は、ナビ装置1がユーザにその目的地までの案内ルートを提示するといったドメインに基づいている。
さらに、第1処理部111が、i次入力言語単位xiと音響的に類似する言語単位を第1辞書DB121から検索可能であるか否か、すなわち、当該音響類似単語が第1辞書DB121に記憶されているか否かを判定する(図2/S5)。ここで、言語単位xiおよびxjが音響的に類似するとは、次式(1)によって定義される音響距離pd(xi,xj)が閾値ε未満であることを意味する。
pd(xi,xi
=ed(xi,xj)/ln[min(|xi|,|xj|)+1]‥(1)
式(1)において|x|は言語単位xに含まれている音素(または音韻)の数である。音素とは、1つの言語で用いられる音を弁別機能の見地から規定された最小単位を意味する。
また、ed(xi,xj)は言語単位xiおよびxjの編集距離であり、言語単位xiの音素列を言語単位xjの音素列に変換するための音素の挿入、削除、置換に際して、モーラ(日本語の発音の最小単位を意味する。)または音素の数が変化する場合のコストを「1」、モーラや音素の数が変化しない場合のコストを「2」として、DPマッチングにより求められる。
第1処理部111はi次入力言語単位xiに音響的に類似する言語単位が第1辞書DB121に登録されていると判定した場合(図2/S5‥YES)、i次入力言語単位xiに関連する複数種類のi次出力言語単位yki=yk(xi)(k=1〜5)を第2辞書DB122から検索する(図2/S6)。
具体的には、第1処理部111はi次入力言語単位xiにおける当該音響類似言語単位ziとの相違部分δi=δ(xi,zi)を含む言語単位を第2辞書DB122から検索して、第1種のi次出力言語単位y1i=y1(xi)として認識する。たとえばi次入力言語単位xiが「Boston」という地名を表す単語であり、音響類似言語単位ziが「Austin」という地名を表す単語である場合、相違部分δiとしてi次入力言語単位xiの頭文字である「b」が抽出される。また、この相違部分δiを含む言語単位として「bravo」が検索される。
また、第1処理部111は当該相違部分δiの読み方(本来の読み方)p1i=p1(δi)と異なる読み方p2i=p2(δi)を第2辞書DB122から検索して、第2種のi次出力言語単位y2i=y2(xi)として認識する。たとえば、日本語では、大半の漢字に「音読み」および「訓読み」という異なる読み方が存在する。このため、相違部分δiである漢字「銀」の本来の読み方が音読み「ギン」である場合、その訓読み「シロガネ」が第2種のi次出力言語単位y2iとして認識される。
さらに、第1処理部111は他の言語単位において当該相違部分δiを意味する言語単位f=f(δi)の読み方p(f)を第2辞書DB122から検索して、第3種のi次出力言語単位y3i=y3(xi)として認識する。たとえば日本語における漢字「銀」が相違部分δiである場合、当該漢字を意味する英単語「silver」の読み方「シルバー」が第3種のi次出力言語単位y3iとして認識される。
また、第1処理部111は当該相違部分δiの読み方p(δi)が複数のモーラ(または音素)により構成されている場合、その中から先頭モーラ等、1つのモーラを表す音素文字、またはモーラを説明する文章を第2辞書DB122から検索し、第4種のi次出力言語単位y4i=y4(xi)として認識する。たとえば、日本語における漢字「西」が相違部分δiである場合、その読み方p(δi)「ニシ」のうち最初のモーラ文字「ニ」が第4種のi次出力言語単位y4iとして認識される。また、日本語のモーラには、清音、半濁音(子音:p)および濁音(子音:g,z,d,b)という区分があるので、この区分を表す「清音」「半濁音」または「濁音」という単語が第4種のi次出力言語単位y4iとして認識される。
さらに、第1処理部111はi次入力言語単位xiと概念的に関連する言語単位を第2辞書DB122から検索して、第5種のi次出力言語単位y5i=y5(xi)として認識する。たとえば、i次入力言語単位xiにより表される目的地を包含する地域を表す言語単位(地名)g=g(xi)が第5種のi次出力言語単位y5iとして認識される。
なお、第k種のi次出力言語単位として、複数の言語単位が認識されてもよい。たとえば、当該相違部分δiが漢字「金」である場合、「故事成語」に分類される「沈黙は金」という文章、および「著名人の名称」に分類される「金●×」という名称がともに第1種のi次出力言語単位y1iとして認識されてもよい。
一方、第1処理部111はi次入力言語単位xiに音響的に類似する言語単位が第1辞書DB121に登録されていないと判定した場合(図2/S5‥NO)、i次入力言語単位xiがユーザの目的地名称を特定する言語単位であるという推定に応じた次の処理が実行される。これにより、たとえば第2発話部102が「それでは、目的地xiまでのルートをご案内いたします」等の発話を出力する。また、ナビシステム10が、i次入力言語単位xiにより特定される目的地までのルートの設定処理を実行する。
続いて、第2処理部112が、第1処理部111によって認識された第1〜第5種のi次出力言語単位ykiの中から1つを選定する(図2/S7)。
具体的には、第2処理部112は各種のi次出力言語単位ykiについて、次式(2)にしたがって1次指数score1(yki)を算出し、このi次指数score1(yki)が最大のi次出力言語単位ykiを選定する。
score1(yk1
=W1・c1(yk1)+W2・c2(yk1)+W3・pd(x1,yk1),
scorei+1(yki+1
=W1・c1(yki+1)+W2・c2(yki+1)+W3・pd(xi,yki+1
+W4・pd(yki,yki+1) ‥(2)
式(2)において、W1〜W4は重み係数である。c1(yki)は第k種のi次出力言語単位ykiの観念的な認識難易度(なじみやすさ)を表す第1因子である。第1因子としては、i次出力言語単位ykiをキーとしたときのインターネット検索エンジンのヒット数や、主要新聞や放送等のマスメディアにおける出現頻度等が採用される。また、c2(yki)は第k種のi次出力言語単位ykiの音響的な認識難易度(発音一意性、ききわけやすさ)を表す第2因子である。第2因子としては、たとえば所定数(たとえば10)の他の言語単位(同音異義語など)との音響距離の最小平均値が採用される。pd(x,y)は、式(1)で定義される、言語単位xおよびyの音響距離である。
続いて、第2処理部112が、選定した1つのi次出力言語単位ykiに基づき、ユーザの真意を問うi次質問Qi=Q(yi)を生成して、第2発話部102に出力させる(図2/S8)。
たとえば、第1種のi次出力言語単位y1iが選定されたことに応じて「目的地名称にはy1iに含まれるδiという文字が含まれますか」等のi次質問Qiが生成される。このi次質問Qiは前記相違部分δiを通じて、i次入力言語単位(たとえば、発話に含まれていた地名や建築物名称)xiの認識の正誤を間接的にユーザに確認するための質問である。
また、第2種のi次出力言語単位y1iが選定されたことに応じて「目的地名称にはp2iと読まれる(または発音される)文字が含まれていますか」等のi次質問Qiが生成される。このi次質問Qiは相違部分δiの本来の読み方p1iとは異なる読み方p2iを通じて、i次入力言語単位xiの認識の正誤を間接的にユーザに確認するための質問である。
さらに、第3種のi次出力言語単位y1iが選定されたことに応じて「目的地名称には外国語(たとえば、日本語から見た英語)でpを意味するδiという文字が含まれていますか」等のi次質問Qiが生成される。このi次質問Qiは他の言語単位において当該相違部分δiを意味する言語単位f=f(δi)の読み方p(f)を通じて、i次入力言語単位xiの認識の正誤を間接的にユーザに確認するための質問である。
また、第4種のi次出力言語単位y1iが選定されたことに応じて「目的地名称には‥番目にp(δi)と発音される文字が含まれていますか」等のi次質問Qiが生成される。このi次質問Qiは相違部分δiの読み方p(δi)の中の1つのモーラを表すモーラを表す文字、またはモーラを説明する文章を通じて、i次入力言語単位xiの認識の正誤を間接的にユーザに確認するための質問である。
さらに、第5種のi次出力言語単位y1iが選定されたことに応じて「目的地はgに含まれていますか」等のi次質問Qiが生成される。このi次質問Qiは、i次入力言語単位xiと概念的に関連する言語単位を通じて、i次入力言語単位xiの認識の正誤を間接的にユーザに確認するための質問である。
さらに、第1発話部101が、i次質問Qiに対するユーザの発話としてi次回答Aiを認識する(図2/S9)。また、第2処理部112が、i次回答Aiが「はい」のように肯定的なものであるか、または「いいえ」のように否定的なものであるかを判定する(図2/S10)。
そして、第2処理部112によりi次回答Aiが肯定的であると判定された場合(図2/S10‥YES)、i次入力言語単位xiがユーザの目的地名称を特定する言語単位であるという推定に応じた次の処理が実行される。
一方、第2処理部112によりi次回答Aiが否定的であると判定された場合(図2/S10‥NO)、指数iが所定数j(>2)未満であるという条件が満たされているか否かが判定される(図2/S11)。そして、当該条件が満たされている場合(図2/S11‥YES)、指数iが1だけ増加され(図2/S12)、その上で前記のS4〜S10の処理が繰り返される。この際、第1処理部111は、i−1次入力言語単位xi-1(i≧2)に音響的に類似する言語単位を第1辞書DB121から検索して、i次入力言語単位xiとして認識する。なお、i次入力言語単位xiとして、i−1次入力言語単位xi-1の音響類似言語単位zi-1が認識されてもよい。また、当該条件が満たされていない場合(図2/S11‥NO)、第2発話部102があらためて初期発話を出力する(図2/S1)等、ユーザとの会話が振り出しに戻ってやり直される。
前記機能を発揮する会話システム100(および会話ソフトウェア)によれば、それぞれのi次出力言語単位ykiについて、観念的な認識難易度を表す第1因子c1、および音響的な認識難易度を表す第2因子c2等に基づき、複数種類のi次出力言語単位ykiの中から1つが選定される(図2/S6,S7)。また、選定された1つのi次出力言語単位ykiに基づきi次質問Qiが生成される(図2/S8)。これにより、ユーザの真意とi次入力言語単位xiの整合および不整合を判別する観点から最適なi次質問Qiが生成されうる。また、ユーザの真意とシステムの認識とに齟齬があると判定された場合、さらなる質問が生成される(図2/S10‥NO,S4〜S10)。したがって、ユーザの発話(真意)と、システム100において認識された発話との齟齬を確実に抑制しながら、当該ユーザとシステム100との会話が可能となる。
さらに、ユーザの真意とj次入力言語単位(j≧2)とが整合していないと判定された場合、ユーザの再度の発話を促す初期質問が生成される(図2/S11‥NO,S1)。これにより、逐次出力される質問によってはユーザの真意が確認できないような場合、あらためてその真意を確認することができる。
前記処理にしたがったユーザおよび会話システム100の第1の会話例を次に示す。Uはユーザの発話を表し、Sは会話システム100の発話を表している。
(第1の会話例)
0: 目的地はどこですか。
0: 金閣寺です。
1: 目的地名称に英語でシルバーを意味する「銀」という文字が含まれていますか。
1: いいえ。
2: では、目的地名称に「沈黙は金」における「金」という文字が含まれていますか。
2: はい。
3: それでは金閣寺までのルートを案内いたします。
システム100の発話S0は初期質問に該当する(図2/S1)。
システム100の発話S1は1次質問Q1に該当する(図2/S8)。この1次質問Q1は、1次入力言語単位x1として「金閣寺」ではなく「銀閣寺」が認識(誤認)されたこと(図2/S4)、音響類似言語単位z1として「金閣寺」が認識されたこと(図2/S5)、2つの言語単位x1およびz1の相違部分δ1である漢字「銀」に関連する5種類の1次出力言語単位y11〜y51が認識されたこと(図2/S6)、および第3種の1次出力言語単位y31として当該相違部分δ1を表す英単語「silver」の日本語における読み方「シルバー」が選定されたこと(図2/S7)に応じて生成されたものである。
システム100の発話S2は2次質問Q2に該当する(図2/S8)。この2次質問Q2は、1次回答A1として認識されたユーザの発話U1が否定的なものであったこと(図2/S10‥NO)、2次入力言語単位x2として「金閣寺」が認識されたこと(図2/S4)、音響類似言語単位z2として「銀閣寺」が認識されたこと(図2/S5)、2つの言語単位x2およびz2の相違部分δ2である漢字「金」に関連する5種類の2次出力言語単位y12〜y52が認識されたこと(図2/S6)、および第1種の2次出力言語単位y12として当該相違部分δ2を含む故事成語「沈黙は金」が選定されたこと(図2/S7)に応じて生成されたものである。
2次回答A2として認識されたユーザの発話U2が肯定的なものであったことに応じて(図2/S10‥YES)、ユーザの目的地が金閣寺であるという判断に応じて、システム100から発話U4が出力される。
これにより、ユーザの目的地が「金閣寺」である一方、システム100により認識された目的地が「銀閣寺」であるといった齟齬が生じたまま、ユーザおよびシステム100の会話が進行する事態が回避される。すなわち、システム100は、ユーザの目的地が金閣寺であることを正確に認識することができる。そして、ナビシステム10は、システム100の当該認識に基づき、金閣寺までの案内ルートの設定等、ユーザの真意に鑑みて適切な処理を実行することができる。
さらに、前記処理にしたがったユーザおよびシステム100の第2の会話例を次に示す。
(第2の会話例)
0: Can you tell me the departure
city?
0: from Austin.
1: Is the first letter of the city “b” in “bravo”?
1: No.
2: Then is the first letter of the city “a” in“alpha”?
2: Yes.
システム100の発話S0は初期質問に該当する(図2/S1)。
システム100の発話S1は1次質問Q1に該当する(図2/S8)。この1次質問Q1は、1次入力言語単位x1として「Austin」ではなく「Boston」が認識(誤認)されたこと(図2/S4)、音響類似言語単位z1として「Austin」が認識されたこと(図2/S5)、2つの言語単位x1およびz1の相違部分δ1である英文字「b」に関連する5種類の1次出力言語単位y11〜y51が認識されたこと(図2/S6)、および第1種の1次出力言語単位y11として当該相違部分δ1を表す英単語「bravo」が選定されたこと(図2/S7)に応じて生成されたものである。
システム100の発話S2は2次質問Q2に該当する(図2/S8)。この2次質問Q2は、1次回答A1として認識されたユーザの発話U1が否定的なものであったこと(図2/S10‥NO)、2次入力言語単位x2として「Austin」が認識されたこと(図2/S4)、音響類似言語単位z2として「Boston」が認識されたこと(図2/S5)、2つの言語単位x2およびz2の相違部分δ2である英文字「a」に関連する5種類の2次出力言語単位y12〜y52が認識されたこと(図2/S6)、および第1種の2次出力言語単位y12として当該相違部分δ2を含む英単語「alpha」が選定されたこと(図2/S7)に応じて生成されたものである。
2次回答A2として認識されたユーザの発話U2が肯定的なものであったことに応じて(図2/S10‥YES)、ユーザの目的地がAustinであるという判断に応じて、システム100から発話が出力される。
これにより、ユーザの目的地が「Austin」である一方、システム100により認識された目的地が「Boston」であるといった齟齬が生じたまま、ユーザおよびシステム100の会話が進行する事態が回避される。すなわち、システム100は、ユーザの目的地がAustinであることを正確に認識することができる。そして、ナビシステム10は、システム100の当該認識に基づき、Austinまでの案内ルートの設定等、ユーザの真意に鑑みて適切な処理を実行することができる。
本発明の会話システムの構成例示図。 本発明の会話システムおよび会話ソフトウェアの機能例示図。

Claims (14)

  1. ユーザの発話を認識する第1発話部と、発話を出力する第2発話部とを備えている会話システムであって、
    前記第1発話部により認識された発話に含まれている1次入力言語単位に音響的に類似する言語単位を第1辞書DBから検索可能であることを要件として、当該1次入力言語単位に関連する複数の言語単位を第2辞書DBから検索して複数の1次出力言語単位として認識する第1処理部と、
    前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数の1次出力言語単位から1つを選定し、当該選定した1次出力言語単位に基づいてユーザの真意を問う1次質問を生成して前記第2発話部に出力させ、当該1次質問に対する前記ユーザの回答として前記第1発話部により認識された1次回答に基づき、当該ユーザの真意と前記1次入力言語単位との整合および不整合を判別する第2処理部とを備えていることを特徴とする会話システム。
  2. 請求項記載の会話システムにおいて、
    前記第2処理部が、前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれの観念的な認識難易度もしくは所定範囲における出現頻度を表す第1因子、および音響的な認識難易度もしくは所定数の他の言語単位との音響距離の最低平均値を表す第2因子のうち一方または両方に基づき、前記複数の1次出力言語単位から1つを選定することを特徴とする会話システム。
  3. 請求項記載の会話システムにおいて、
    前記第2処理部が前記1次入力言語単位と、前記第1処理部により認識された前記複数の1次出力言語単位のそれぞれとの音響距離に基づき、当該複数の1次出力言語単位から1つを選定することを特徴とする会話システム。
  4. 請求項記載の会話システムにおいて、
    前記第1処理部が、
    前記1次入力言語単位とこれに音響的に類似する言語単位との相違部分を含む第1種言語単位と、
    当該相違部分の本来の読み方と異なる読み方を表す第2種言語単位と、
    他の言語体系において当該相違部分に対応する言語単位の読み方を表す第3種言語単位と、
    当該相違部分に含まれる1つの音素を表す第4種言語単位と、
    前記1次入力言語単位と概念的に類似する第5種言語単位とのうち、一部または全部を前記1次出力言語単位として認識することを特徴とする会話システム。
  5. 請求項記載の会話システムにおいて、
    前記第1処理部が、第k種言語単位群(k=1〜5)から複数の言語単位を前記複数の1次出力言語単位として認識することを特徴とする会話システム。
  6. 請求項1記載の会話システムにおいて、
    前記第2処理部により前記ユーザの真意とi次入力言語単位(i=1,2,‥)とが整合していないと判定された場合、
    前記第1処理部が、前記i次入力言語単位に音響的に類似する言語単位を前記第1辞書DBから検索してi+1次入力言語単位として認識し、前記i+1次入力言語単位に関連する言語単位を前記第2辞書DBから検索してi+1次出力言語単位として認識し、かつ、
    前記第2処理部が、前記第1処理部により認識された前記i+1次出力言語単位に基づき、前記ユーザの真意を問うi+1次質問を生成して前記第2発話部に出力させ、当該i+1次質問に対する前記ユーザの回答として前記第1発話部により認識されたi+1次回答に基づき、当該ユーザの真意と前記i+1次入力言語単位との整合および不整合を判別する特徴とする会話システム。
  7. 請求項記載の会話システムにおいて、
    前記第1処理部が複数のi+1次出力言語単位を認識し、
    前記第2処理部が、前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数のi+1次出力言語単位から1つを選定し、当該選定したi+1次出力言語単位に基づいて前記i+1次質問を生成することを特徴とする会話システム。
  8. 請求項記載の会話システムにおいて、
    前記第2処理部が、前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれの観念的な認識難易度もしくは所定範囲における出現頻度を表す第1因子、および音響的な認識難易度もしくは所定数の他の言語単位との音響距離の最低平均値を表す第2因子のうち一方または両方に基づき、当該複数のi+1次出力言語単位から1つを選定することを特徴とする会話システム。
  9. 請求項記載の会話システムにおいて、
    前記第2処理部が前記i次入力言語単位と前記第1処理部により認識された前記複数のi+1次出力言語単位のそれぞれとの音響距離、および前記i+1次入力言語単位と前記複数のi+1次出力言語単位のそれぞれとの音響距離のうち一方または両方に基づき、当該複数のi+1次出力言語単位から1つを選定することを特徴とする会話システム。
  10. 請求項記載の会話システムにおいて、
    前記第1処理部が、
    前記i+1次入力言語単位およびこれに音響的に類似する言語単位の相違部分を含む第1種言語単位と、
    当該相違部分の本来の読み方と異なる読み方を表す第2種言語単位と、
    他の言語体系において当該相違部分に対応する言語単位の読み方を表す第3種言語単位と、
    当該相違部分に含まれる1つの音素を表す第4種言語単位と、
    前記i+1次入力言語単位と概念的に類似する第5種言語単位とのうち、一部または全部を2次出力言語単位として認識することを特徴とする会話システム。
  11. 請求項記載の会話システムにおいて、
    前記第1処理部が、第k種言語単位群(k=1〜5)から複数の言語単位を前記複数のi+1次出力言語単位として認識することを特徴とする会話システム。
  12. 請求項記載の会話システムにおいて、
    前記第2処理部により前記ユーザの真意とj次入力言語単位(j≧2)とが整合していないと判定された場合、
    前記第2処理部が、前記ユーザの再度の発話を促す質問を生成して、これを前記第2発話部に出力させることを特徴とする会話システム。
  13. ユーザの発話を認識する第1発話機能と、発話を出力する第2発話機能とを有するコンピュータの記憶機能に格納される会話ソフトウェアであって、
    前記第1発話機能により認識された発話に含まれている1次入力言語単位に音響的に類似する言語単位を第1辞書DBから検索可能であることを要件として、当該1次入力言語単位に関連する複数の言語単位を第2辞書DBから検索して複数の1次出力言語単位として認識する第1処理機能と、
    前記第1処理機能により認識された前記複数の1次出力言語単位のそれぞれの認識難易度を表す因子に基づき、当該複数の1次出力言語単位から1つを選定し、当該選定した1次出力言語単位に基づいてユーザの真意を問う1次質問を生成して前記第2発話機能によって出力し、当該1次質問に対する前記ユーザの回答として前記第1発話機能により認識された1次回答に基づき、当該ユーザの真意と前記1次入力言語単位との整合および不整合を判別する第2処理機能とを前記コンピュータに付与することを特徴とする会話ソフトウェア。
  14. 請求項13記載の会話ソフトウェアにおいて、
    前記第2処理機能によりユーザの真意とi次入力言語単位(i=1,2,‥)とが整合していないと判定された場合、
    前記第1処理機能として、前記i次入力言語単位に音響的に類似する言語単位を前記第1辞書DBから検索してi+1次入力言語単位として認識し、前記i+1次入力言語単位に関連する言語単位を前記第2辞書DBから検索してi+1次出力言語単位として認識する機能と、
    前記第2処理機能として、前記第1処理機能により認識されたi+1次出力言語単位に基づき、ユーザの真意を問うi+1次質問を生成して前記第2発話機能によって出力、当該i+1次質問に対する前記ユーザの回答として前記第1発話機能により認識されたi+1次回答に基づき、当該ユーザの真意と前記i+1次入力言語単位との整合および不整合を判別する機能とを前記コンピュータに対して付与することを特徴とする会話ソフトウェア。
JP2007505922A 2005-02-28 2006-02-27 会話システムおよび会話ソフトウェア Expired - Fee Related JP4950024B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US65721905P 2005-02-28 2005-02-28
US60/657,219 2005-02-28
PCT/JP2006/303613 WO2006093092A1 (ja) 2005-02-28 2006-02-27 会話システムおよび会話ソフトウェア

Publications (2)

Publication Number Publication Date
JPWO2006093092A1 JPWO2006093092A1 (ja) 2008-08-07
JP4950024B2 true JP4950024B2 (ja) 2012-06-13

Family

ID=36941121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007505922A Expired - Fee Related JP4950024B2 (ja) 2005-02-28 2006-02-27 会話システムおよび会話ソフトウェア

Country Status (4)

Country Link
US (1) US20080065371A1 (ja)
JP (1) JP4950024B2 (ja)
DE (1) DE112006000225B4 (ja)
WO (1) WO2006093092A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751240B2 (en) * 2005-05-13 2014-06-10 At&T Intellectual Property Ii, L.P. Apparatus and method for forming search engine queries based on spoken utterances
JP2010282083A (ja) * 2009-06-05 2010-12-16 Nippon Telegr & Teleph Corp <Ntt> 誤認識訂正装置、方法及びプログラム
US20110131040A1 (en) * 2009-12-01 2011-06-02 Honda Motor Co., Ltd Multi-mode speech recognition
JP6621613B2 (ja) * 2015-08-10 2019-12-18 クラリオン株式会社 音声操作システム、サーバー装置、車載機器および音声操作方法
CN107203265B (zh) * 2017-05-17 2021-01-22 广东美的制冷设备有限公司 信息交互方法和装置
WO2020202314A1 (ja) * 2019-03-29 2020-10-08 株式会社Aill コミュニケーション支援サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
US20220180069A1 (en) * 2019-03-29 2022-06-09 Aill Inc. Communication assistance server, communication assistance system, communication assistance method, and communication assistance program
KR102479379B1 (ko) * 2022-09-19 2022-12-20 헬로칠드런 주식회사 현실세계의 다양한 소리, 이미지를 위치 정보 및 시간 정보와 연계한 홍보 이벤트 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269226A (ja) * 1997-03-25 1998-10-09 Nippon Telegr & Teleph Corp <Ntt> 情報検索後処理方法及び装置
JPH11153998A (ja) * 1997-11-19 1999-06-08 Canon Inc 音声応答装置及びその方法、コンピュータ可読メモリ
JP2003228394A (ja) * 2002-01-31 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> 音声入力を利用する名詞特定装置およびその方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454063A (en) * 1993-11-29 1995-09-26 Rossides; Michael T. Voice input system for data retrieval
US6070140A (en) * 1995-06-05 2000-05-30 Tran; Bao Q. Speech recognizer
US6064958A (en) * 1996-09-20 2000-05-16 Nippon Telegraph And Telephone Corporation Pattern recognition scheme using probabilistic models based on mixtures distribution of discrete distribution
US5995928A (en) * 1996-10-02 1999-11-30 Speechworks International, Inc. Method and apparatus for continuous spelling speech recognition with early identification
US6021384A (en) * 1997-10-29 2000-02-01 At&T Corp. Automatic generation of superwords
JP3000999B1 (ja) * 1998-09-08 2000-01-17 セイコーエプソン株式会社 音声認識方法および音声認識装置ならびに音声認識処理プログラムを記録した記録媒体
US6556970B1 (en) * 1999-01-28 2003-04-29 Denso Corporation Apparatus for determining appropriate series of words carrying information to be recognized
US7013280B2 (en) * 2001-02-27 2006-03-14 International Business Machines Corporation Disambiguation method and system for a voice activated directory assistance system
GB2376335B (en) * 2001-06-28 2003-07-23 Vox Generation Ltd Address recognition using an automatic speech recogniser
US7124085B2 (en) * 2001-12-13 2006-10-17 Matsushita Electric Industrial Co., Ltd. Constraint-based speech recognition system and method
US20050049868A1 (en) * 2003-08-25 2005-03-03 Bellsouth Intellectual Property Corporation Speech recognition error identification method and system
GB0426347D0 (en) * 2004-12-01 2005-01-05 Ibm Methods, apparatus and computer programs for automatic speech recognition
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269226A (ja) * 1997-03-25 1998-10-09 Nippon Telegr & Teleph Corp <Ntt> 情報検索後処理方法及び装置
JPH11153998A (ja) * 1997-11-19 1999-06-08 Canon Inc 音声応答装置及びその方法、コンピュータ可読メモリ
JP2003228394A (ja) * 2002-01-31 2003-08-15 Nippon Telegr & Teleph Corp <Ntt> 音声入力を利用する名詞特定装置およびその方法

Also Published As

Publication number Publication date
US20080065371A1 (en) 2008-03-13
DE112006000225B4 (de) 2020-03-26
WO2006093092A1 (ja) 2006-09-08
JPWO2006093092A1 (ja) 2008-08-07
DE112006000225T5 (de) 2007-12-13

Similar Documents

Publication Publication Date Title
JP5377430B2 (ja) 質問応答データベース拡張装置および質問応答データベース拡張方法
US9911413B1 (en) Neural latent variable model for spoken language understanding
US7529678B2 (en) Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US10170107B1 (en) Extendable label recognition of linguistic input
US7996218B2 (en) User adaptive speech recognition method and apparatus
JP4950024B2 (ja) 会話システムおよび会話ソフトウェア
JP2008233229A (ja) 音声認識システム、および、音声認識プログラム
US20130289987A1 (en) Negative Example (Anti-Word) Based Performance Improvement For Speech Recognition
JP4684409B2 (ja) 音声認識方法及び音声認識装置
JP3660512B2 (ja) 音声認識方法、その装置及びプログラム記録媒体
CN108806691B (zh) 语音识别方法及系统
JPH10274996A (ja) 音声認識装置
JP3444108B2 (ja) 音声認識装置
KR20130126570A (ko) 핵심어에서의 음소 오류 결과를 고려한 음향 모델 변별 학습을 위한 장치 및 이를 위한 방법이 기록된 컴퓨터 판독 가능한 기록매체
JP2006084966A (ja) 発話音声の自動評定装置およびコンピュータプログラム
US20020184022A1 (en) Proofreading assistance techniques for a voice recognition system
JP2005275348A (ja) 音声認識方法、この方法を実施する装置、プログラムおよび記録媒体
EP2608196B1 (en) Combinatorial method for generating filler words
JP3104900B2 (ja) 音声認識方法
JP2965529B2 (ja) 音声認識装置
CN111078937A (zh) 语音信息检索方法、装置、设备和计算机可读存储介质
US8688452B2 (en) Automatic generation of distractors for special-purpose speech recognition grammars
KR100445907B1 (ko) 음성언어 식별 장치 및 방법
JPH0736481A (ja) 補完音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120306

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4950024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees