JP7210933B2 - 情報処理装置、情報処理システム、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7210933B2
JP7210933B2 JP2018152822A JP2018152822A JP7210933B2 JP 7210933 B2 JP7210933 B2 JP 7210933B2 JP 2018152822 A JP2018152822 A JP 2018152822A JP 2018152822 A JP2018152822 A JP 2018152822A JP 7210933 B2 JP7210933 B2 JP 7210933B2
Authority
JP
Japan
Prior art keywords
data
language
text data
answer candidate
misrecognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018152822A
Other languages
English (en)
Other versions
JP2020027514A (ja
Inventor
直也 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018152822A priority Critical patent/JP7210933B2/ja
Publication of JP2020027514A publication Critical patent/JP2020027514A/ja
Application granted granted Critical
Publication of JP7210933B2 publication Critical patent/JP7210933B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法およびプログラムに関する。
近年、様々な場所に自立型の情報端末が設置されており、ユーザは情報端末を操作することで多様なサービスを受けることができる。ある種の情報端末は、音声認識機能およびAI(Artificial Intelligence)機能を有し、音声認識機能がユーザの発話内容を認識し、発話内容の認識結果に応じた処理をAI機能が制御する。例えば、ユーザの発話内容が目的地を示す場合、情報端末は、音声認識機能およびAI機能に基づき、当該目的地までのルートを音声で案内し得る。
上記のAI機能は、通常、1つの言語に対応しており、多言語には対応していない。多言語に対応するための方法に翻訳機能を利用する方法があり、当該方法は例えば特許文献1に開示されている。具体的には、翻訳データベースを用いて第1言語のテキストデータを翻訳して第2言語のテキストデータを得て、当該第2言語のテキストデータに対応する第2言語の応答データを決定し、翻訳データベースを用いて当該第2言語の応答データを翻訳して第1言語の応答データを得て、当該第1言語の応答データを音声出力する方法が考えられる。
しかし、上記の音声認識機能においてユーザの発話内容が誤認識されると、適切な応答データが音声出力されなくなる。特許文献2には、音声認識における誤認識への対策が開示されている。具体的には、特許文献2には、第1言語から第2言語への翻訳を行う翻訳装置に関し、第1言語の音声認識に誤認識がある場合に予め登録している辞書から誤認識文字列に発音が類似する単語を検索し、検索された単語を誤認識文字列の訂正候補とする技術が開示されている。また、特許文献3には、音声認識を行い、音声認識結果に含まれる訂正の対象となる単語(誤認識された単語)を、文脈に応じた他の単語に変換する技術が開示されている。
特開2018-45675号公報 特開2010-164918号公報 特開2017-167247号公報
しかし、特許文献1に記載の技術では、現地の雑音等の影響により、ユーザが意図した単語の発音と異なる発音が認識されてしまった場合、適切な訂正候補が検索されない。また、特許文献2に記載の技術では、意味が通じる単語が得られるが、当該単語は質問に対する回答として相応しいとは限らない。
また、音声認識において、接頭または語尾の言葉の認識が漏れる可能性がある。この場合、目的語が抜け落ちたり、疑問系の文が肯定系の文に間違われたりして、会話が正しく展開されない場合が発生する。また、それぞれの言語によって文法が異なり、どのような言葉が抜け落ちるかの予測が困難であるため、音声データの認識により得られたテキストデータを単に機械翻訳するだけでは、会話が成立しない恐れがあった。特に、発話開始と発話終了を明示的にユーザから指定しない方式では、このようなケースが顕著に発生し得る。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザにより入力された音声データに基づき、ユーザの意図に沿った会話を進めることが可能な、新規かつ改良された情報処理装置、情報処理システム、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、を備え、前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、前記会話制御部は、前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理装置が提供される。
また、上記課題を解決するために、本発明のある観点によれば、ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、を備え、前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、前記会話制御部は、前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、前記誤認識データを含む前記第2言語のテキストデータが得られる度にカウント値を更新し、前記カウント値が所定値に達したことに基づき、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録する、情報処理装置が提供される。
前記会話制御部は、異なるユーザへの質問への回答により前記誤認識データを含む前記第2言語のテキストデータが得られる度に前記カウント値を更新してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、を備え、前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、前記会話制御部は、前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理システムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータが、ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得ることと、前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得ることと、回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力することと、を含み、前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、前記第2言語の会話用テキストデータを出力することは、
前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録することを含み、コンピュータが、前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得ることと、前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成することと、をさらに含む、情報処理方法が提供される。

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、回答候補データベースに事前に記憶されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、を備え、前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、前記会話制御部は、前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理装置として機能させるための、プログラムが提供される。
以上説明した本発明によれば、ユーザにより入力された音声データに基づき、ユーザの意図に沿った会話を進めることが可能である。
本発明の実施形態に係る情報処理システムの概要を示す説明図である。 本発明の実施形態に係るユーザ操作型端末10の外観構成例を示す説明図である。 ユーザ操作型端末10の操作表示部136に表示される画面データのレイアウトの具体例を示す説明図である。 言語選択画面の具体例を示す説明図である。 本発明の実施形態において行われる会話の具体例を示す説明図である。 本発明の実施形態によるユーザ操作型端末10の機能構成を示す説明図である。 本発明の実施形態に係るWebAPサーバ30の機能構成例を示すブロック図である。 回答候補データの具体例を示す説明図である。 AI会話エンジン部312が用いる判断条件表の具体例を示す説明図である。 誤認識データベースの更新を示す説明図である。 誤認識データベースの更新を示す説明図である。 口頭候補データの更新を示す説明図である。 ユーザ操作型端末10の起動動作を示すシーケンス図である。 ユーザ操作型端末10の起動動作を示すシーケンス図である。 ユーザによる言語選択の流れを示すシーケンス図である。 ユーザ操作型端末10とユーザとの間で会話を実現するための流れを示すシーケンス図である。 ユーザ操作型端末10とユーザとの間で会話を実現するための流れを示すシーケンス図である。 次の会話文を取得する処理の詳細な流れを示すフローチャートである。 WebAPサーバ30のハードウェア構成を示したブロック図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成または論理的意義を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成または論理的意義を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
<1.情報処理システムの概要>
本発明の実施形態は、ユーザに多様なサービスを提供するための情報処理システムに関する。以下では、本発明の実施形態がルート案内サービスに適用される例を説明する。なお、本発明の実施形態が適用されるサービスはルート案内サービスに限定されず、本発明の実施形態は任意のサービスに適用可能である。例えば、本発明の実施形態は、座席予約サービスに適用されてもよいし、チケット発券サービスに適用されてもよい。まず、図1を参照しながら、本発明の実施形態に係る情報処理システムの概要を説明する。
図1は、本発明の実施形態に係る情報処理システムの概要を示す説明図である。図1に示すように、ユーザ操作型端末10は、ネットワーク14を介してWebAP(AP:Application)サーバ30と接続されている。
(1)ユーザ操作型端末10
ユーザ操作型端末10は、自立型の情報端末であり、ユーザの発話内容を音声認識機能により認識し、発話内容の認識結果に応じた次の会話文を音声で出力する。本発明の実施形態によるユーザ操作型端末10は多言語に対応しており、ユーザは、複数種類の言語から選択した言語を用いてユーザ操作型端末10との会話を進めることが可能である。なお、ユーザは、音声に代えて、タッチ操作またはジャスチャ操作などの他の操作によってユーザ操作型端末10に情報を入力することも可能である。ここで、図2を参照し、本発明の実施形態によるユーザ操作型端末10の外観構成を説明する。
図2は、本発明の実施形態に係るユーザ操作型端末10の外観構成例を示す説明図である。なお、本発明の実施形態では、図2に示すユーザ操作型端末10を利用する形態を例に説明するが、本発明の実施形態に利用する端末はユーザ操作型端末10に限定されず、任意の端末が利用されてもよい。例えば、アプリケーションがインストールされたスマートフォン、タブレット端末等の携帯型端末、タッチ式サイネージ用のディスプレイ等の情報表示装置が利用されてもよい。
図2に示したように、本発明の実施形態に係るユーザ操作型端末10は、カメラ120、スピーカ124、マイク128、操作表示部136、決済媒体部140およびチケット発券部144を備える。
カメラ120は、人物を撮影する機能を有する検知装置の1つである。例えば、カメラ120は、ユーザ操作型端末10の前にいるユーザを撮影すると、ユーザを撮影した画像を後述するカメラAP154へ送信する。なお、本発明の実施形態では、図2に示すように、操作表示部136の上に1台のカメラ120が設置されているが、カメラ120の台数、及び位置は特に限定されず、ユーザ操作型端末10は任意の台数のカメラ120を任意の位置に備えてもよい。
スピーカ124は、音声を再生する機能を有する。例えば、スピーカ124は、後述するブラウザ158が取得した音声ファイルを再生することで、ユーザの発話内容に応じた次の会話文を音声によりユーザへ伝える。なお、本発明の実施形態では、図2に示すように、カメラ120の左右に1台ずつスピーカ124が設置されているが、スピーカ124の台数、及び位置は特に限定されず、ユーザ操作型端末10は任意の台数のスピーカ124を任意の位置に備えてもよい。なお、ユーザ操作型端末10は、Bluetooth(登録商標)といった近距離無線通信機能を搭載してもよい。ユーザ操作型端末10は、近距離無線通信機能を用いて、同無線通信機能を搭載したワイヤレスイヤホン等のユーザが所持する無線機器に、スピーカ124が再生する音声を送信してもよい。その際、ユーザは、自身の無線機器とユーザ操作型端末10を接続するためのペアリング処理を予め行っておく。上述のように、ユーザが所持する機器が音声の取得、及び再生をすることで、例えば、ユーザは、騒音のある環境下においても次の会話文の音声を容易に認識することができる。
マイク128は、音声データを取得する機能を有する検知装置の1つである。例えば、マイク128は、ユーザが発話した音声を電気的な音声データに変換し、音声データを後述する雑音除去モジュール166へ出力する。また、ユーザ操作型端末10は、複数のマイク128を備えることで音声の到来方向を認識することが可能である。なお、本発明の実施形態では、図2に示すように、操作表示部136の左右に1台ずつマイク128が設置されているが、マイク128の台数、及び位置は特に限定されず、ユーザ操作型端末10は任意の台数のマイク128を任意の位置に備えてもよい。
操作表示部136は、ユーザとの会話文のテキストデータなどを表示する表示部としての機能を有する。また、操作表示部136は、ユーザが操作入力を行うための操作部としての機能を有する。例えば、表示部としての機能は、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置により実現される。また、操作部としての機能は、例えばタッチパネルにより実現される。なお、図2において、ユーザ操作型端末10は、表示部および操作部の機能を一体化した構成としているが、表示部および操作部の機能を分離した構成としてもよい。
決済媒体部140およびチケット発券部144は、ユーザ操作型端末10がチケット発券サービスを提供する機能を有する場合に設けられる。決済媒体部140は、チケット発券のための決済に利用される取引媒体が授受される開口部、および取引媒体に応じた決済処理を行う機能を有する。取引媒体としては、クレジットカードまたは現金が挙げられる。例えば、取引媒体がクレジットカードである場合、決済媒体部140は、挿入されたクレジットカードに記録された情報を読み取る。また、取引媒体が現金である場合、決済媒体部140は、現金の搬送路、現金カセットおよび現金の正当性を鑑別する鑑別部などを有する。入金時に決済媒体部140に投入された現金は、搬送路を介して鑑別部へ搬送され、鑑別部により正常な鑑別結果が得られた場合、金種に応じた現金カセットに搬送される。また、出金時には、現金カセットから現金が繰り出され、鑑別部が繰り出された紙幣を鑑別し、正常な鑑別結果が得られた場合に決済媒体部140に現金が搬送される。なお、電子マネーおよび仮想通貨を取引媒体として利用可能であり、この場合、決済媒体部140はユーザ操作型端末10に設けられなくてもよい。
チケット発券部144は、チケットを発券する機能をする。例えば、チケット発券部144は、ユーザが操作表示部136に表示されたチケットの検索結果から選択したチケットの情報を紙状媒体に印刷し、チケットの情報が印刷された紙状媒体であるチケットを排出する。
(2)WebAPサーバ30
WebAPサーバ30は、ユーザの発話内容に応じた次の会話文を決定する機能を有する情報処理装置である。WebAPサーバ30は、人工知能(AI:Artificial Intelligence)の会話エンジン部を備えており、AI会話エンジン部がユーザの発話内容を解析することで次の会話文を決定する。例えば、WebAPサーバ30は、ネットワーク14を介してユーザ操作型端末10からユーザにより入力された音声データを受信し、当該音声データを認識してテキストデータを得て、当該テキストデータに応じた次の会話文をAI会話エンジン部により決定し、決定した次の会話文をユーザ操作型端末10へ送信する。
ここで、AI会話エンジン部は、ユーザ操作型端末10が対応している多言語のうちの一部の言語に対応している。例えば、AI会話エンジン部は日本語にのみ対応する。この場合、WebAPサーバ30は、中国語の音声データを認識して得られた中国語のテキストデータを翻訳して日本語のテキストデータを得て、AI会話エンジン部は、当該日本語のテキストデータに基づき次の日本語の会話文を決定する。そして、WebAPサーバ30は、当該日本語の会話文を翻訳して中国語の会話文を得て、中国語の会話文をユーザ操作型端末10に送信することにより、中国語の会話文がユーザ操作型端末10から出力される。このように、翻訳処理を活用することにより、AI会話エンジン部が対応していない言語を利用するユーザもユーザ操作型端末10を用いて会話を進めることが可能である。なお、本明細書においては、ユーザが利用する言語を第1言語と称し、AI会話エンジン部が対応している言語を第2言語と称する場合がある。また、以下では、第1言語が中国語であり、第2言語が日本語である例を主に説明する。
(3)ユーザ操作型端末10に表示される画面データのレイアウト
続いて、ユーザ操作型端末10に表示される画面データのレイアウトの具体例を説明し、その後、本発明の実施形態により行われる会話の具体例を説明する。
図3は、ユーザ操作型端末10の操作表示部136に表示される画面データのレイアウトの具体例を示す説明図である。図3に示すように、操作表示部136に表示される画面データのレイアウトには、レイアウト1、レイアウト2、及びレイアウト3の3種類のレイアウトがある。なお、レイアウトの種類は3種類に限定されず、任意の数のレイアウトが用意されてもよい。
各レイアウトは、第1の表示領域、第2の表示領域、第3の表示領域、及び第4の表示領域のいずれかの組み合わせで構成されている。第1の表示領域は、ユーザの会話相手であるAIを示すAI画像(会話相手画像)と、AIは発話した会話文を表示する領域である。第2の表示領域は、ユーザを示す画像と、ユーザが発話した会話文を表示する領域である。第3の表示領域は、サービスを表示する領域である。第3の表示領域に表示されるサービスは、音声入力による選択、及び画面のタッチによる選択が可能なサービスである。第4の表示領域は、処理に関する処理情報、及びサービス情報等を表示する領域である。なお、各表示領域の詳細な構成については後述する。
レイアウト1は、第1の表示領域404、及び第2の表示領域408の組み合わせにより構成されている。レイアウト1は、ユーザとAIが会話を行う画面のレイアウトに用いられる。例えば、レイアウト1は、初期画面のレイアウトに用いられる。また、第3の表示領域に表示するサービスがない場合にも用いられる。
レイアウト2は、第1の表示領域504、及び第2の表示領域508、及び第3の表示領域512の組み合わせにより構成されている。レイアウト2は、サービスを表示する画面のレイアウトに用いられる。例えば、レイアウト2は、ユーザの発話に基づき、AIが検索したサービスを表示する画面のレイアウトに用いられる。
レイアウト3は、第1の表示領域604、及び第4の表示領域608の組み合わせにより構成されている。レイアウト3は、ユーザとの会話が生じない画面のレイアウトに用いられる。例えば、レイアウト3は、決済処理中、またはチケット発券処理中等の画面のレイアウトに用いられる。
なお、第1の表示領域は各レイアウトで用いられているが、レイアウト1で用いられる場合と、レイアウト2、及びレイアウト3で用いられる場合で、第1の表示領域を表示する大きさが異なる。例えば、第1の表示領域は、レイアウト2、及びレイアウト3で用いられる場合、レイアウト1で用いられる場合よりも小さく表示される。その際に、操作表示部136は、第1の表示領域に表示されるAI画像も小さく表示する。
また、図3には、第1の表示領域404および第2の表示領域408の吹出し内に日本語の会話文が示されている。WebAPサーバ30のAI会話エンジン部が日本語に対応しており、ユーザが日本語を利用する場合には、図3に示したように第1の表示領域404および第2の表示領域408の吹出し内に日本語の会話文が示される。一方、ユーザが英語または中国語などの他言語を利用する場合には、第1の表示領域404および第2の表示領域408の吹出し内に、他言語の会話文および日本語の会話文が併記されてもよい。このとき、他言語の会話文の文字サイズは日本語の文字サイズよりも大きいことが望ましい。
(4)会話の具体例
本発明の実施形態においては、まず、ユーザ操作型端末10が言語選択画面を表示し、ユーザが言語選択画面において言語を選択する。図4は、言語選択画面の具体例を示す説明図である。図4に示したように、言語選択画面においては、第1の表示領域404に言語の選択を誘導する会話文を示す吹出し412が配置され、第2の表示領域408に言語を選択するための言語選択ボタンを含む言語選択表示420が配置される。ここで、ユーザが中国語を選択した場合に行われる会話の具体例を説明する。
図5は、本発明の実施形態において行われる会話の具体例を示す説明図である。まず、ユーザ操作型端末10は、ユーザにより中国語が選択されたので、ユーザへの質問を含む会話文を中国語で発話する(C1)。当該質問に対する回答として、ユーザが「目的地を検索する。」という意味の会話文を中国語で発話する(C2)。続いて、ユーザ操作型端末10は、「目的地から検索ですね。どちらまで行かれますか?」という質問を中国語で発話する(C3)。当該質問に対する回答として、ユーザは、「我想去天空樹」と発話する(C4)。ここで、「天空樹」はスカイツリーを意味するが、末尾の「樹」が認識されず、ユーザの発話が「私はスカイラインに行きたいです。」という意味に認識された。
しかし、目的地を問う質問に対する回答候補データとして「スカイライン」は登録されていないので、ユーザ操作型端末10は、ユーザに繰り返しの発話を依頼する会話文を発話する(C5)。ユーザによる繰り返しの発話でも、末尾の「樹」が認識されず、ユーザの発話が「私はスカイラインに行きたいです。」という意味に認識されると(C6)、ユーザ操作型端末10は再度ユーザに繰り返しの発話を依頼する会話文を発話する(C7)。そして、ユーザが「我想去天空樹」と発話し、末尾の「樹」が認識され、ユーザの発話が「私はスカイツリーに行きたいです。」という意味に認識されると(C8)、ユーザ操作型端末10はスカイツリーまでのルートを案内する会話文を中国語で発話する(C9)。
(5)背景
上記のように、ユーザにより入力された音声データがユーザの意図通りに認識されるまでユーザが発話を繰り返すことは、ユーザにとって手間である。本発明の実施形態は、音声データがユーザの意図通りに認識されなくても、ユーザの意図に沿った会話を進めることを可能とする仕組みを提供する。当該仕組みによれば、ユーザが発話した「我想去天空樹」の末尾の「樹」が認識されなかった場合でも、ユーザ操作型端末10がスカイツリーまでのルートを案内する会話文を発話することを可能となる。以下、このような本発明の実施形態によるユーザ操作型端末10およびWebAPサーバ30の構成および動作を順次詳細に説明する。
<2.ユーザ操作型端末の構成例>
図6は、本発明の実施形態によるユーザ操作型端末10の機能構成を示す説明図である。図6に示したように、本発明の実施形態に係るユーザ操作型端末10は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144、制御部150を備える。カメラ120、スピーカ124、マイク128、操作表示部136、決済媒体部140およびチケット発券部144の機能は図2を参照して説明した通りであるので、ここでの詳細な説明を省略する。
通信部132は、ネットワーク14を介して、WebAPサーバ30と各種情報を通信する機能を有する。例えば、通信部132は、ネットワーク14を介して、操作表示部136を介して取得されたユーザの操作情報、およびユーザにより入力された音声データをWebAPサーバ30へ送信する。また、通信部132は、ネットワーク14を介して、次の会話文を示すテキストデータおよび音声ファイルをWebAPサーバ30から受信する。
制御部150は、ユーザ操作型端末10の動作全般を制御する機能を有する。例えば、制御部150は、カメラ120、スピーカ124、マイク128、通信部132、操作表示部136、決済媒体部140、チケット発券部144の制御を行う機能を有する。
また、制御部150は、検知装置がユーザを検知すると、ユーザの音声、及びユーザの画面操作により入力された画面操作情報の両方を受け付け可能な状態で、ユーザ操作型端末10を待機させる機能を有する。ユーザ操作型端末10が音声、及び画面操作情報の両方を受け付け可能な状態であることにより、ユーザは、音声入力による操作、及び画面操作のどちらでもユーザ操作型端末10を操作することが可能である。
さらに、本発明の実施形態に係る制御部150は、カメラAP154、ブラウザ158、WebSocketサーバ162、雑音除去モジュール166、音声認識AP170を備える。
(カメラAP154)
カメラAP154は、人物検知に関する処理を制御する。例えば、カメラAP154は、カメラ120がユーザを撮影した画像をカメラ120から取得すると、取得した画像を解析し、ユーザを検知したか否かを判定する。ユーザを検知したと判定した場合、カメラAP154は、ユーザを検知した旨をブラウザ158、及び音声認識AP170へ通知する。
(ブラウザ158)
ブラウザ158は、画面データを取得し、取得した画面データを操作表示部136に表示させる。例えば、ブラウザ158は、カメラ120がユーザを検知すると、初期画面のWebページURLをWebAPサーバ30から取得し、操作表示部136に初期画面を表示する。また、ブラウザ158は、音声認識AP170からユーザが入力した音声データのテキストデータを取得すると、取得したテキストデータを操作表示部136に表示する。また、ブラウザ158は、次の会話文を示すテキストデータを業務WebAPサーバ304から取得すると、次の会話文を示すテキストデータを操作表示部136に表示する。
また、ブラウザ158は、音声認識に関する通知をする機能を有する。例えば、ブラウザ158は、操作表示部136に初期画面を表示した後、ユーザからの音声受信待ち状態である旨を、WebSocketサーバを介して音声認識AP170へ通知する。また、ブラウザ158は、音声認識に関する指示を行う機能も有する。例えば、ブラウザ158は、音声認識機能をONまたはOFFにすることを音声認識AP170に指示する。
(WebSocketサーバ162)
WebSocketサーバ162は、端末内のAP間での情報の授受を仲介するサーバとしての機能を有する。例えば、WebSocketサーバ162は、ブラウザ158と音声認識AP170の間での情報の授受を仲介する。
(雑音除去モジュール166)
雑音除去モジュール166は、音声データから雑音を除去する機能を有する。例えば、雑音除去モジュール166は、マイク128より取得したユーザの音声データから雑音を除去する。雑音除去処理後、雑音除去モジュール166は、音声データを音声認識AP170へ出力する。
(音声認識AP170)
音声認識AP170は、WebAPサーバ30からユーザの音声データに対応するテキストデータを取得する機能を有する。例えば、音声認識APは、雑音除去モジュール166から音声データを受信すると、受信した音声データをWebAPサーバ30へ送信する。その後、音声認識AP170は、WebAPサーバ30から音声データの認識結果であるテキストデータを受信すると、WebSocketサーバ162を介してブラウザ158へ受信したテキストデータを送信する。
また、音声認識AP170は、音声認識機能のON/OFFを切り替える機能も有する。例えば、音声認識AP170は、ブラウザ158から音声認識機能をONにする旨の指示を受けた場合、音声認識機能をONにする。また、例えば、音声認識AP170は、ブラウザ158から音声認識機能をOFFにする旨の指示を受けた場合、音声認識機能をOFFにする。
<3.WebAPサーバの構成例>
以上、本発明の実施形態によるユーザ操作型端末10の構成を説明した。続いて、図7を参照し、本発明の実施形態によるWebAPサーバ30の構成を説明する。
図7は、本発明の実施形態に係るWebAPサーバ30の機能構成例を示すブロック図である。図7に示したように、本発明の実施形態に係るWebAPサーバ30は、通信部302、業務WebAPサーバ304、多言語音声処理部308、AI会話エンジン部312、記憶部316、発話音声エンジン部320を備える。
(1)通信部302
通信部302は、ネットワーク14を介して、ユーザ操作型端末10と各種情報を通信する機能を有する。例えば、通信部302は、ネットワーク14を介して、ユーザの音声データをユーザ操作型端末10から受信する。また、通信部302は、ネットワーク14を介して、WebAPサーバ30が決定した次の会話文をユーザ操作型端末10へ送信する。
(2)業務WebAPサーバ304
業務WebAPサーバ304は、ユーザ操作型端末10から要求を受信すると、要求に対する応答を返す機能を有する。例えば、業務WebAPサーバ304は、ユーザ操作型端末10のブラウザ158からWebページURLの要求を受信した場合、要求に対応するWebページURLをブラウザ158へ送信する。
また業務WebAPサーバ304は、ユーザ操作型端末10からの要求を受け、WebAPサーバ30のAI会話エンジン部312、及び発話音声エンジン部320から要求に対する応答を取得し、ユーザ操作型端末10へ返す機能も有する。例えば、業務WebAPサーバ304は、ブラウザ158からテキストデータを受信した場合、テキストデータをAI会話エンジン部312へ送信し、テキストデータに対する次の会話文をAI会話エンジン部312から取得する。さらに、業務WebAPサーバ304は、次の会話文を発話音声エンジン部320へ送信し、次の会話文の音声ファイルを発話音声エンジン部320から取得し、取得した音声ファイルをブラウザ158へ送信する。この時、業務WebAPサーバ304は、応答として返せる画面データがある場合、その画面データURLもブラウザ158へ送信する。
(3)多言語音声処理部308
多言語音声処理部308は、音声データをテキストデータに変換する音声認識部の機能、およびテキストデータを翻訳する翻訳部の機能を有する。例えば、多言語音声処理部308は、ユーザ操作型端末10の音声認識AP170からユーザの中国語の音声データを受信すると、中国語の音声データを認識して中国語のテキストデータを得て、中国語のテキストデータを翻訳して日本語のテキストデータを得る。そして、多言語音声処理部308は、日本語のテキストデータをユーザ操作型端末10の音声認識AP170へ送信する。
また、多言語音声処理部308は、業務WebAPサーバ304から日本語の次の会話文のテキストデータを受信すると、日本語の次の会話文のテキストデータを翻訳して中国語の次の会話文のテキストデータを得る。
(4)AI会話エンジン部312、記憶部316
記憶部316は、WebAPサーバ30の動作に用いられる多様なデータを記憶する。例えば、記憶部316は、図7に示したように、会話データベース、回答候補データベース、および誤認識データベースを記憶する。会話データベースは、複数の会話データを格納し、各会話データにおいては、単語と、次の会話文(会話用テキストデータ)が関連付けられている。
回答候補データベースは、複数の回答候補データを格納し、各回答候補データには、質問、回答カテゴリ、回答候補文字列、標準形の文字列、および異表記の文字列が関連付けられる。ここで、図8を参照し、回答候補データの具体例を説明する。
図8は、回答候補データの具体例を示す説明図である。図8には、「どちらまで行かれますか?」という質問、および「観光所」というカテゴリに関連付けられている、5つの回答候補データが示されている。当該5つの回答候補データの各々の回答候補文字列は、「東京タワー」、「スカイツリー」、「河童橋」、「浅草」および「お台場」である。5つの回答候補データの各々には、各回答候補文字列の標準形の文字列として、「東京タワー」、「スカイツリー」、「河童橋」、「浅草」および「お台場」が関連付けられている。図8に示した例では、5つの回答候補データの各々に、各回答候補文字列の異表記の文字列は関連付けられていない。
誤認識データベースは、ユーザへの質問に対する回答として得られた日本語のテキストデータ(以下、回答テキストデータとも称する。)の誤認識に関するデータを格納する。当該誤認識データベースについては図10および図11などを参照して後述する。
AI会話エンジン部312は、回答テキストデータを解析し、ユーザの発話に対する応答となる次の会話文を取得する会話制御部の機能を有する。例えば、AI会話エンジン部312は、業務WebAPサーバ304から回答テキストデータを受信すると、当該回答テキストデータを解析し、次の会話文を記憶部316から取得し、取得した会話文を業務WebAPサーバ304へ送信する。より具体的には、AI会話エンジン部312は、記憶部316の回答候補データベースに事前に格納されている複数の回答候補データのうちで、業務WebAPサーバ304から受信された回答テキストデータに含まれる単語に該当する回答候補データがあるか否かを判定する。そして、AI会話エンジン部312は、回答候補データがある場合には、記憶部316の会話データベースにおいて当該単語に関連付けられている次の会話文を取得し、当該次の会話文を業務WebAPサーバ304へ送信する。
さらに、本発明の実施形態によるAI会話エンジン部312は、記憶部316に記憶される誤認識データベースへの誤認識データの登録、更新などを経て、回答候補データベースに異表記の文字列を登録する機能を有する。具体的には、AI会話エンジン部312は、図9に示す判断条件表に従い、処理を実行する。
図9は、AI会話エンジン部312が用いる判断条件表の具体例を示す説明図である。図9に示したように、判断条件表は、AI会話エンジン部312が処理1~処理4のいずれを行うかを判断するために用いられる。判断条件表の列方向に関し、今回得られた回答テキストデータが同じ質問に対する1度目の発話での回答テキストデータであるか否か、および回答テキストデータに含まれる単語に該当する回答候補データがあるか否か、などにより、該当する列が特定される。また、判断条件表の行方向に関し、回答テキストデータに含まれる単語が誤認識データベースに登録されているか否か、回答テキストデータに含まれる単語の標準形の文字列が誤認識データベースに登録されているか否か、および誤認識回数の閾値越えが発生したか否か、などにより該当する行が特定される。
例えば、今回得られた回答テキストデータが同じ質問に対する1度目または2度目以降の発話での回答テキストデータであり、回答テキストデータに含まれる単語に該当する回答候補データがなく、回答テキストデータに含まれる単語が誤認識データベースに登録されていない場合、AI会話エンジン部312は処理2を実行する。処理2は、回答テキストデータに含まれる単語を誤認識データとして誤認識データベースに新規登録する処理である。
今回得られた回答テキストデータが同じ質問に対する1度目または2度目以降の発話での回答テキストデータであり、回答テキストデータに含まれる単語に該当する回答候補データがなく、回答テキストデータに含まれる単語が誤認識データベースに登録されている場合、AI会話エンジン部312は処理3を実行する。処理3は、誤認識データベースに誤認識データとして登録されている単語の誤認識回数をカウントアップする処理である。
今回得られた回答テキストデータが同じ質問に対する2度目以降の発話での回答テキストデータであり、回答テキストデータに含まれる単語に該当する回答候補データがあり、直近の回答テキストデータに含まれる単語が誤認識データベースに登録されているが当該単語の標準形は登録されていない場合、AI会話エンジン部312は処理1を実行する。処理1は、直近の回答テキストデータに含まれた単語の標準系の文字列として、今回の回答テキストデータに含まれる単語を誤認識データベースに登録する処理である。
今回得られた回答テキストデータが同じ質問に対する1度目または2度目以降の発話での回答テキストデータであり、回答テキストデータに含まれる単語に該当する回答候補データがなく、回答テキストデータに含まれる単語が誤認識データベースに登録されており、当該単語の標準形の文字列も誤認識データベースに登録されており、誤認識回数の閾値超えが発生する場合、AI会話エンジン部312は処理4を実行する。処理4は、誤認識データベースに誤認識データとして登録されている単語の誤認識回数をカウントアップし、かつ、誤認識データベースにおいて当該単語に関連付けられている標準形の文字列を有する回答候補データの異表記の文字列として当該単語を回答候補データベースに登録する予約を行う処理である。
-処理の具体例-
以下、図10~図12を参照し、上述した処理1~処理4の具体例を説明する。
まず、図4を参照して説明したように、C3の質問に対する1度目の発話(C4)において、「私はスカイラインに行きたいです。」という回答テキストデータが得られた場合を考える。この場合、C3の質問および回答カテゴリに関連付けられた複数の回答候補データのいずれにも「スカイライン」が該当しないので、誤認識データベースに「スカイライン」が登録されていない場合、AI会話エンジン部312は、処理2として、図10の上段に示したように誤認識データベースに「スカイライン」に関する誤認識データを新規登録する。
その後、C3の質問と同じ質問(C5)に対する2度目の発話(C6)においても、「私はスカイラインに行きたいです。」という回答テキストデータが得られた場合を考える。この場合、C5の質問および回答カテゴリに関連付けられた複数の回答候補データのいずれにも「スカイライン」が該当せず、誤認識データベースに同じ回答カテゴリで「スカイライン」が登録されているので、AI会話エンジン部312は、処理2として、図10の中段に示したように「スカイライン」の誤認識回数を「1」から「2」にカウントアップする。
さらに、C3の質問と同じ質問(C7)に対する3度目の発話(C8)において、「私はスカイツリーに行きたいです。」という回答テキストデータが得られた場合を考える。この場合、C7の質問および回答カテゴリに関連付けられた回答候補データ「スカイツリー」が回答テキストデータに含まれる「スカイツリー」に該当し、直近の回答テキストデータに含まれる「スカイライン」が誤認識データベースに登録されているが当該単語の標準形は登録されていないので、AI会話エンジン部312は、処理1として、図10の下段に示したように「スカイライン」の回答候補文字列および標準形に「スカイツリー」を登録する。
その後、他のユーザによるユーザ操作型端末10の利用により、誤認識データベースの「スカイライン」の誤認識回数のカウントアップが進み、誤認識回数が誤認識閾値と同一である「10」の状態で「私はスカイラインに行きたいです。」という回答テキストデータが得られた場合を考える。この場合、AI会話エンジン部312は、処理4として、図11の上段に示したように「スカイライン」の誤認識回数を「10」から「11」にカウントアップしつつ、「スカイライン」の標準形の文字列として登録されている「スカイツリー」の異表記の文字列として「スカイライン」を回答候補データベースに登録する予約を行う。図11の上段においては、登録フラグ「1」が「スカイライン」の登録の予約が行われたことを示している。
その後、「スカイツリー」の異表記の文字列として「スカイライン」を回答候補データベースに登録されると、図11の下段に示したように、登録フラグが登録完了を示す「2」に設定される。図12は、「スカイツリー」の異表記の文字列として「スカイライン」を回答候補データベースに登録された状態を示す。
図12に示したように、「スカイツリー」の異表記の文字列として「スカイライン」を回答候補データベースに登録された後に、「私はスカイラインに行きたいです。」という回答テキストデータが得られた場合を考える。この場合、AI会話エンジン部312は、回答テキストデータに含まれる「スカイライン」が「スカイツリー」の誤りであることを、「スカイライン」が「スカイツリー」の異表記の文字列として登録されていることから理解し、「私はスカイツリーに行きたいです。」という回答テキストデータに対応する次の会話文を会話データベースから取得する。
(5)発話音声エンジン部320
発話音声エンジン部320は、発話音声を生成する音声データ生成部である。例えば、発話音声エンジン部320は、業務WebAPサーバ304から中国語の次の会話文のテキストデータを受信すると、次の会話文を解析し、中国語の次の会話文の音声ファイルを生成し、生成した音声ファイルを業務WebAPサーバ304へ送信する。
<4.動作例>
以下では、本発明の実施形態に係るユーザ操作型端末10、及びWebAPサーバ30の動作例について説明する。まず、ユーザ操作型端末10の起動動作について説明する。
(1)起動動作
図13および図14は、ユーザ操作型端末10の起動動作を示すシーケンス図である。まず、図13に示すように、操作表示部136へ起動操作が行われると、操作表示部136が起動通知を音声認識AP170へ送信する(ステップS1000)。音声認識AP170は、起動通知に受信に基づき、WebSocketサーバ162に接続し、ユーザからの音声入力を受け付け可能な状態で待機する(ステップS1004)。また、ブラウザ158は、WebAPサーバ30からWebページURLを取得し、Webページを初期画面として表示する(ステップS1008)。当該初期画面は、図4を参照して説明した言語選択画面であってもよい。
ここで、図14を参照しながらステップS1008の詳細を説明する。図14に示すように、ユーザ操作型端末10のブラウザ158は、WebAPサーバ30の業務WebAPサーバ304にWebページURLを要求する(ステップS1010)。要求を受信した業務WebAPサーバ304は、WebページURLをブラウザ158へ送信する(ステップS1012)。WebページURLを受信したブラウザ158は、WebページURLにアクセスし、Webページを初期画面として表示する(ステップS1014)。
初期画面表示後、図13に示すように、ブラウザ158は、WebSocketサーバ162に接続し、ユーザからの画面操作入力を受け付け可能な状態で待機する(ステップS1018)。また、ブラウザ158は、音声受信待ち状態である旨を音声認識AP170へWebSocketサーバ162を介して通知する(ステップS1022、ステップS1026)。通知を受けた音声認識AP170は、音声受信待ち状態である旨をWebAPサーバ30へ通知する(ステップS1030)。
ここで、図14を参照しながらステップS1030の詳細を説明する。図14に示すように、ユーザ操作型端末10のブラウザ158は、WebAPサーバ30の多言語音声処理部308に音声認識を開始する旨を通知する(ステップS1032)。通知を受けた多言語音声処理部308は、音声データを受け付け可能な状態で待機する。
なお、上記では起動動作が操作表示部136へ起動操作に基づいて行われる例を説明したが、カメラAPがユーザ操作型端末10の前にユーザを検知したことに基づいて起動動作が行われてもよい。
(2)言語選択
続いて、図15を参照し、ユーザによる言語選択の流れを説明する。図15は、ユーザによる言語選択の流れを示すシーケンス図である。まず、初期画面(言語選択画面)においてユーザが言語を選択すると(ステップS1040)、ユーザにより選択された言語を示す翻訳言語IDをブラウザ158が音声認識AP170およびWebAPサーバ30に送信する(ステップS1044、S1048)。
その後、ブラウザ158は、WebAPサーバ30から翻訳言語IDが示す言語で表現された次の会話文のテキストデータ、および音声ファイルURLを受信し(ステップS1052)、次の会話文のテキストデータの表示、および音声出力を制御する(ステップS1056)。S1040において中国語が選択された場合、S1056においては、図5に示したC1の会話文が中国語で表示および音声出力(発話)される。
(3)会話
続いて、図16および図17を参照し、ユーザ操作型端末10とユーザとの間で会話を実現するための流れを説明する。図16および図17は、ユーザ操作型端末10とユーザとの間で会話を実現するための流れを示すシーケンス図である。
まず、図16に示すように、ユーザ操作型端末10のマイク128は、ユーザへの質問に対する回答としてユーザの中国語の音声データを取得すると(ステップS1100)、取得した中国語の音声データを雑音除去モジュール166へ出力する(ステップS1104)。中国語の音声データを取得した雑音除去モジュール166は、中国語の音声データから雑音を除去する処理を行い(ステップS1106)、雑音を除去した中国語の音声データを音声認識AP170へ出力する(ステップS1108)。中国語の音声データを取得した音声認識AP170は、中国語の音声データをWebAPサーバ30へ送信し、WebAPサーバ30から中国語の音声データを表現する中国語のテキストデータ(中国語の回答テキストデータ)および日本語の回答テキストデータを受信する(ステップS1112)。
ここで、図17を参照しながらステップS1112の詳細を説明する。図17に示すように、ユーザ操作型端末10の音声認識AP170は、WebAPサーバ30の多言語音声処理部308に中国語の音声データおよび翻訳言語IDを送信する(ステップS1114)。中国語の音声データおよび翻訳言語IDを受信した多言語音声処理部308は、中国語の音声データを変換して中国語の回答テキストデータを得る処理、および中国語の回答テキストデータを翻訳して日本語の回答テキストデータを得る処理を行い(ステップS1116)、中国語の回答テキストデータおよび日本語の回答テキストデータを音声認識AP170へ送信する(ステップS1118)。
音声認識AP170は、中国語の回答テキストデータおよび日本語の回答テキストデータを受信した後、図16に示すように、中国語の回答テキストデータをブラウザ158へWebSocketサーバ162を介して送信する(ステップS1122、ステップS1126)。中国語の回答テキストデータを受信したブラウザ158は、中国語の回答テキストデータを操作表示部136に表示させる(ステップS1130)。さらに、ブラウザ158は、WebAPサーバ30から中国語の次の会話文のテキストデータと音声ファイルを受信し、中国語の次の会話文のテキストデータの表示、および中国語の次の会話文の音声出力を制御する(ステップS1134)。
ここで、図17を参照しながらステップS1134の詳細を説明する。図17に示すように、ユーザ操作型端末10のブラウザ158は、WebAPサーバ30の業務WebAPサーバ304に日本語の回答テキストデータを送信する(ステップS1136)。業務WebAPサーバ304は、次の会話文を取得するため、日本語の回答テキストデータをAI会話エンジン部312へ送信する(ステップS1138)。AI会話エンジン部312は、日本語の回答テキストデータに対する応答となる次の日本語の会話文を記憶部316の会話データベースから取得し(ステップS1139)、業務WebAPサーバ304へ次の日本語の会話文を送信する(ステップS1140)。
業務WebAPサーバ304は、次の日本語の会話文を多言語音声処理部308に送信し(ステップS1141)、多言語音声処理部308は、次の日本語の会話文を翻訳して、次の中国語の会話文を得る(ステップS1142)。そして、多言語音声処理部308は、次の中国語の会話文を業務WebAPサーバ304に送信する(ステップS1143)。
次の中国語の会話文を受信した業務WebAPサーバ304は、次の中国語の会話文の音声ファイルを発話音声エンジン部320に要求する(ステップS1144)。発話音声エンジン部320は、次の中国語の会話文の音声ファイルを業務WebAPサーバ304へ送信する(ステップS1146)。業務WebAPサーバ304は、次の中国語の会話文の音声ファイルと、次の中国語の会話文のテキストデータをブラウザ158へ送信する(ステップS1148)。ここで、業務WebAPサーバ304は、使用すべきレイアウトを示す情報もブラウザ158へ送信する。
ブラウザ158は、次の中国語の会話文のテキストデータの表示を指定されたレイアウトに従って制御する(ステップS1150)。さらに、ブラウザ158は、次の中国語の会話文の音声ファイルを再生し、応答の内容を音声でユーザへ伝える(ステップS1152)。
(4)次の会話文を取得する処理(ステップS1139)の詳細
ここで、図18を参照し、上述した次の会話文を取得する処理の詳細を説明する。
図18は、次の会話文を取得する処理の詳細な流れを示すフローチャートである。まず、AI会話エンジン部312は、日本語の回答テキストデータにいずれかの回答候補データに該当する単語が含まれるか否かを判断する(ステップS1204)。日本語の回答テキストデータにいずれかの回答候補データに該当する単語が含まれる場合(ステップS1204/Yes)、今回の回答テキストデータを得るに至った質問のやり取りは1度目であるか否かを判断する(ステップS1208)。やり取りが1度目である場合(ステップS1208/Yes)、AI会話エンジン部312は、回答テキストデータに含まれる単語に応じた次の会話文を記憶部316の会話データベースから取得する(ステップS1212)。
一方、日本語の回答テキストデータに含まれる単語がいずれの回答候補データにも該当しない場合(ステップS1204/No)、および、やり取りが2度目以降である場合(ステップS1208/No)、AI会話エンジン部312は、図9を参照して説明した判断条件表に従って、処理1~処理4のいずれかの処理を実行する(ステップS1216)。ここで実行された処理が処理1である場合(ステップS1220/Yes)、AI会話エンジン部312は、回答テキストデータに含まれる単語に応じた次の会話文を記憶部316の会話データベースから取得する(ステップS1212)。一方、実行された処理が処理2~処理4のいずれかの処理である場合(ステップS1220/No)、AI会話エンジン部312は、次の会話文として、「申し訳御座いません。もう一度お話ください。」のように、繰り返しの発話を依頼する会話文を取得する(ステップS1240)。
<5.作用効果>
以上説明した本発明の実施形態によれば、1の回答候補データが標準形の文字列および異表記の文字列を有し得るので、回答テキストデータに標準形の文字列を含まれなくても、回答テキストデータに異表記の文字列が含まれれば、回答テキストデータに含まれる異表記の文字列を標準形の文字列に置き変えて会話を進めることが可能である。
ここで、回答候補データへの異表記の文字列の登録は、実際の質問と回答のやり取りにおいて、ユーザが標準形の文字列を意図したと考えられるが標準形の文字列として認識されなかった単語の実績に基づいて行われる。従って、回答テキストデータに含まれる異表記の文字列を標準形の文字列に置き変えることで、ユーザの意図に沿った会話を進めることが可能である。
<6.ハードウェア構成>
以上、本発明の実施形態を説明した。上述したテキストデータの翻訳および誤認識データベースの管理などの情報処理は、ソフトウェアと、以下に説明するWebAPサーバ30のハードウェアとの協働により実現される。
図19は、WebAPサーバ30のハードウェア構成を示したブロック図である。WebAPサーバ30は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、WebAPサーバ30は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従ってWebAPサーバ30内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、上述した業務WebAPサーバ304、多言語音声処理部308、AI会話エンジン部312および発話音声エンジン部320などの機能が実現され得る。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサー、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。WebAPサーバ30のユーザは、該入力装置208を操作することにより、WebAPサーバ30に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。
ストレージ装置211は、本実施形態にかかるWebAPサーバ30の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、WebAPサーバ30に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
ネットワークインタフェース215は、例えば、ネットワーク14に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<7.むすび>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、情報処理システムの処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理システムの処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、ユーザ操作型端末10およびWebAPサーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述したユーザ操作型端末10およびWebAPサーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
10 ユーザ操作型端末
30 WebAPサーバ
120 カメラ
124 スピーカ
128 マイク
132 通信部
136 操作表示部
140 決済媒体部
144 チケット発券部
150 制御部
154 カメラAP
158 ブラウザ
162 WebSocketサーバ
166 雑音除去モジュール
170 音声認識AP
302 通信部
304 業務WebAPサーバ
308 多言語音声処理部
312 AI会話エンジン部
316 記憶部
320 発話音声エンジン部

Claims (6)

  1. ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、
    前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、
    回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、
    を備え、
    前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、
    前記会話制御部は、
    前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、
    繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、
    前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、
    前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、
    前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、
    前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理装置。
  2. ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、
    前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、
    回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、
    を備え、
    前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、
    前記会話制御部は、
    前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、
    繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、
    前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、
    前記誤認識データを含む前記第2言語のテキストデータが得られる度にカウント値を更新し、
    前記カウント値が所定値に達したことに基づき、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録する、情報処理装置。
  3. 前記会話制御部は、異なるユーザへの質問への回答により前記誤認識データを含む前記第2言語のテキストデータが得られる度に前記カウント値を更新する、請求項2に記載の情報処理装置。
  4. ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、
    前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、
    回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、
    を備え、
    前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、
    前記会話制御部は、
    前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、
    繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、
    前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、
    前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、
    前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、
    前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理システム。
  5. コンピュータが、
    ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得ることと、
    前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得ることと、
    回答候補データベースに事前に格納されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力することと、
    を含み、
    前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、
    前記第2言語の会話用テキストデータを出力することは、
    前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、
    繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、
    前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、
    前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録することを含み、
    コンピュータが、
    前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得ることと、
    前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成することと、
    をさらに含む、情報処理方法。
  6. コンピュータを、
    ユーザへの質問に対する回答として前記ユーザにより入力された第1言語の音声データを認識して前記第1言語のテキストデータを得る音声認識部と、
    前記第1言語のテキストデータを翻訳して第2言語のテキストデータを得る翻訳部と、
    回答候補データベースに事前に記憶されている複数の回答候補データのうちで、前記第2言語のテキストデータに該当する回答候補データがあるか否かを判定し、前記第2言語のテキストデータに該当する回答候補データがある場合には、当該回答候補データに応じた前記第2言語の会話用テキストデータを出力する会話制御部と、
    を備え、
    前記複数の回答候補データは、異なる2以上のテキストデータを有する回答候補データを含み、
    前記会話制御部は、
    前記第2言語のテキストデータに該当する回答候補データがないと判定された場合、前記第2言語のテキストデータに含まれるデータを誤認識データとして誤認識データベースに格納し、
    繰り返される前記ユーザへの前記質問に対する回答により得られた前記第2言語の新たなテキストデータに該当する回答候補データがあるか否かを判定し、
    前記第2言語の新たなテキストデータに該当する回答候補データがある場合には、当該回答候補データを前記誤認識データベースにおいて前記誤認識データに関連付け、
    前記誤認識データを含む前記第2言語のテキストデータが得られた履歴に関して所定の閾値条件が満たされた場合に、前記誤認識データを、当該誤認識データに前記誤認識データベースにおいて関連付けられている回答候補データのテキストデータとして、前記回答候補データベースに登録し、
    前記翻訳部は、前記会話制御部から出力された前記第2言語の会話用テキストデータを翻訳して前記第1言語の会話用テキストデータを得て、
    前記第1言語の会話用テキストデータを用いて、前記ユーザに出力される前記第1言語の音声データを生成する音声データ生成部をさらに備える、情報処理装置として機能させるための、プログラム。
JP2018152822A 2018-08-15 2018-08-15 情報処理装置、情報処理システム、情報処理方法およびプログラム Active JP7210933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018152822A JP7210933B2 (ja) 2018-08-15 2018-08-15 情報処理装置、情報処理システム、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018152822A JP7210933B2 (ja) 2018-08-15 2018-08-15 情報処理装置、情報処理システム、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2020027514A JP2020027514A (ja) 2020-02-20
JP7210933B2 true JP7210933B2 (ja) 2023-01-24

Family

ID=69620161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018152822A Active JP7210933B2 (ja) 2018-08-15 2018-08-15 情報処理装置、情報処理システム、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7210933B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114138968A (zh) * 2021-12-07 2022-03-04 腾讯科技(深圳)有限公司 一种网络热点的挖掘方法、装置、设备及存储介质
CN114881008A (zh) * 2022-04-24 2022-08-09 北京有竹居网络技术有限公司 一种文本生成方法、装置、电子设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181442A (ja) 2003-12-16 2005-07-07 Fuji Electric Holdings Co Ltd 音声対話装置、その方法、プログラム
JP2017068845A (ja) 2015-09-30 2017-04-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報ソースの情報ソース用言語を選択するためのコンピュータ実装方法、コンピュータ・システム、コンピュータ・プログラム製品
JP2017167659A (ja) 2016-03-14 2017-09-21 株式会社東芝 機械翻訳装置、方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263091A (ja) * 1995-03-22 1996-10-11 N T T Data Tsushin Kk 認識装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181442A (ja) 2003-12-16 2005-07-07 Fuji Electric Holdings Co Ltd 音声対話装置、その方法、プログラム
JP2017068845A (ja) 2015-09-30 2017-04-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報ソースの情報ソース用言語を選択するためのコンピュータ実装方法、コンピュータ・システム、コンピュータ・プログラム製品
JP2017167659A (ja) 2016-03-14 2017-09-21 株式会社東芝 機械翻訳装置、方法、およびプログラム

Also Published As

Publication number Publication date
JP2020027514A (ja) 2020-02-20

Similar Documents

Publication Publication Date Title
RU2349969C2 (ru) Синхронное понимание семантических объектов, реализованное с помощью тэгов речевого приложения
CN106104677B (zh) 所识别的语音发起的动作的视觉指示
JP4416643B2 (ja) マルチモーダル入力方法
US9111545B2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
KR101066741B1 (ko) 컴퓨터 시스템과 동적으로 상호작용하기 위한 컴퓨터 구현 방법, 시스템, 및 컴퓨터 판독가능 기록 매체
JP4728905B2 (ja) 音声対話装置および音声対話プログラム
JP6966979B2 (ja) 対話システムの制御方法、対話システム及びプログラム
JP2005055782A (ja) データ入力装置、ハンディターミナル、データ入力方法、プログラム及び記録媒体
CN101998107B (zh) 信息处理装置、会议系统和信息处理方法
CN110085222B (zh) 用于支持语音对话服务的交互装置和方法
JP2006154724A (ja) 対話システム、対話方法、及びコンピュータプログラム
JP7210933B2 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP4236597B2 (ja) 音声認識装置、音声認識プログラムおよび記録媒体。
JP2019023690A (ja) 言語識別装置、言語識別方法、及び言語識別プログラム
JP2004021920A (ja) 情報処理装置、情報処理方法、プログラム、記憶媒体
JP2010026686A (ja) 統合的インタフェースを有する対話型コミュニケーション端末及びそれを用いたコミュニケーションシステム
JP7009940B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2004053825A (ja) 言語識別装置、言語識別方法および言語識別プログラム
JP2008203516A (ja) 情報処理装置および情報処理方法
TWM560646U (zh) 智能語音交易系統
JP2000112610A (ja) コンテンツ表示選択システム及びコンテンツ記録媒体
JP2003140690A (ja) 情報システム、電子機器、プログラム
WO2019142447A1 (ja) 情報処理装置および情報処理方法
JP2010197709A (ja) 音声認識応答方法、音声認識応答システム、及びそのプログラム
JP2021033030A (ja) 音声処理装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7210933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150