JP2020204711A - Registration system - Google Patents
Registration system Download PDFInfo
- Publication number
- JP2020204711A JP2020204711A JP2019112372A JP2019112372A JP2020204711A JP 2020204711 A JP2020204711 A JP 2020204711A JP 2019112372 A JP2019112372 A JP 2019112372A JP 2019112372 A JP2019112372 A JP 2019112372A JP 2020204711 A JP2020204711 A JP 2020204711A
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- answer
- robot
- correction
- log
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、登録システムに関し、対話サービスを提供するロボットによる顧客からの質問に対する回答を登録する登録システムに適用して好適なものである。 The present invention relates to a registration system, and is suitable for application to a registration system for registering answers to questions from customers by a robot that provides an interactive service.
近年、ロボットにおける音声認識、対話、及び翻訳の機能等が向上し、かつ、ロボットのコスト低減が進んでいる。このため、各種店舗や施設等において人との対話サービスを提供する用途でロボットが使用される機会が増加している。対話サービスには、具体的には例えば、通行人や来客等の案内対象者(顧客)に対して音声で案内を行う案内サービス、人と人との仲介として翻訳を実施する翻訳サービス、あるいは、電話での自動音声による応答サービス等がある。 In recent years, the functions of voice recognition, dialogue, and translation in robots have been improved, and the cost of robots has been reduced. For this reason, there are increasing opportunities for robots to be used in various stores and facilities to provide dialogue services with humans. Specifically, the dialogue service includes a guidance service that provides voice guidance to a person (customer) to be guided such as a passerby or a visitor, a translation service that performs translation as an intermediary between people, or a translation service. There is an automatic voice response service over the phone.
対話サービスを提供するロボットに質問への回答を実施させるためには、想定される質問(Q)と回答(A)との組み合わせである対話例(以下、これをQ&A(Question And Answer)と呼ぶ)をロボットにティーチングして、内部の回答データベース(以下、データベースをDBと略記する)に記録(登録)する必要がある。ロボットは、顧客の音声認識結果を基に、回答DBに登録されている質問を検索し、一致率が高い質問に紐付けられた回答を選び、選んだ回答のテキストを音声ファイルにしてスピーカから出力することで、対話の回答を行うことができる。一般に、回答DBへのQ&Aの登録は、ロボットを設置する前に、管理者等のユーザがロボットの役割や設置場所等に応じて想定質問を検討した上で、Q&Aリストを作成して回答DBにインポートする等によって実現される。 In order for the robot that provides the dialogue service to answer the question, an example of dialogue that is a combination of the assumed question (Q) and answer (A) (hereinafter referred to as Q & A (Question And Answer)). ) To the robot and record (register) it in the internal response database (hereinafter, the database is abbreviated as DB). The robot searches the questions registered in the answer DB based on the customer's voice recognition result, selects the answer associated with the question with a high match rate, converts the text of the selected answer into a voice file, and uses the speaker. By outputting, it is possible to answer the dialogue. Generally, when registering Q & A in the answer DB, before installing the robot, a user such as an administrator considers the assumed questions according to the role of the robot, the installation location, etc., and then creates a Q & A list to create the answer DB. It is realized by importing to.
なお、運用中のロボットが適切に役務を果たすためには、質問に対して適切な回答が実施できる必要がある。例えば、事前に作成された想定質問と顧客の質問とがマッチしない場合にはロボットは適切な回答ができない。このため、顧客の質問とロボットの回答結果をログとして集約して分析することにより、どのような質問や回答が不足しているかが分かり、Q&Aリストの拡充を行うことができる。 In addition, in order for the robot in operation to properly perform its duties, it is necessary to be able to provide appropriate answers to the questions. For example, if the presumed question created in advance and the customer's question do not match, the robot cannot give an appropriate answer. Therefore, by aggregating and analyzing customer questions and robot answer results as a log, it is possible to find out what kind of questions and answers are lacking and expand the Q & A list.
例えば特許文献1には、回答DBに登録するQ&Aリストを自動で拡充することができるシステムが開示されている。具体的には、特許文献1に開示されたシステムは、人と人との対話のログを集約し、対話ログの中の音声認識結果が質問か応答かを質問テンプレートと応答テンプレートとのマッチングにより判断し、質問と応答の組み合わせを回答DBに登録し、ロボットが回答するときは、回答DBに登録したQ&Aのうちから最も近い回答を出力する。
For example,
また、対話サービスを提供するロボットによって実施可能な別のサービスとして、顧客とオペレータとの対話の補助が挙げられる。すなわち、ロボットによって十分な案内ができないときに、オペレータによって適切な案内が実施される場合があり、このような場合にロボットは、顧客とオペレータとの補助役に役割を変えて、対話を翻訳することで、オペレータを支援することができる。 Another service that can be performed by a robot that provides a dialogue service is assisting the dialogue between the customer and the operator. That is, when the robot cannot provide sufficient guidance, the operator may provide appropriate guidance. In such a case, the robot changes its role as an assistant between the customer and the operator and translates the dialogue. By doing so, the operator can be assisted.
ところで、ロボットが提供する対話サービスでは、状況の変化によって適切な回答が変わる可能性があるため、回答DBに登録されるQ&Aが適切であるかを、管理者等のユーザが確認し精査するといった人手によるメンテナンスの工程が必要とされる。例えば、ロボットの設置場所が変更されるといった時間的な変化があった場合には、それまでの回答では正しい案内ができなくなることがあり、人手で新たな回答を登録する必要があった。また例えば、ロボットが顧客とオペレータとの対話を補助する際、本来は回答側であるオペレータの発話に顧客の意図確認のための質問が含まれ得るといったように、人と人との対話のなかで発生した音声が質問であるか回答であるかは、話者の役割によっても異なるため判断が難しく、回答DBへの登録内容を人手によって精査する必要があった。さらに、人と人との対話では、話者ごとに異なる話し言葉の特性が含まれるため、個人による回答のバラつきが発生するという問題もあり、属人性を排除するためには人手によるメンテナンスを行うことが好ましかった。 By the way, in the dialogue service provided by the robot, the appropriate answer may change due to changes in the situation, so the user such as the administrator confirms and scrutinizes whether the Q & A registered in the answer DB is appropriate. A manual maintenance process is required. For example, if there is a time change such as a change in the installation location of the robot, it may not be possible to provide correct guidance with the previous answers, and it was necessary to manually register a new answer. Also, for example, when a robot assists a dialogue between a customer and an operator, the utterance of the operator, who is originally the respondent, may include a question for confirming the customer's intention. It is difficult to judge whether the voice generated in the above is a question or an answer because it depends on the role of the speaker, and it is necessary to manually examine the contents registered in the answer DB. Furthermore, since dialogue between people includes different characteristics of spoken language for each speaker, there is also the problem that individual answers vary, so manual maintenance is required to eliminate personality. Was preferred.
しかしながら、特許文献1に開示されたシステムの場合、応答内容の適切さを判断することなく、集約した対話のログに基づいて単純にQ&Aが回答DBに蓄積されていくため、適切でないQ&Aも多く登録されることになり、人手によるQ&Aのメンテナンスに手間が掛かる等、効果的なメンテナンスの実施を困難にするという課題があった。
However, in the case of the system disclosed in
本発明は以上の点を考慮してなされたもので、対話サービスを提供するロボットによる顧客からの質問に対する回答内容の人手によるメンテナンスの効果的な実施を支援することができる登録システムを提案しようとするものである。 The present invention has been made in consideration of the above points, and an attempt is made to propose a registration system that can support effective manual maintenance of the contents of answers to questions from customers by a robot that provides a dialogue service. Is what you do.
かかる課題を解決するため本発明においては、対話サービスを提供するロボットによる顧客からの質問に対する回答を登録する登録システムであって、人と人との対話を音声認識する音声認識部と、前記音声認識部による音声認識結果が対話ログとして登録される対話ログデータベースと、前記質問と、当該質問に対する前記回答との組合せが対話例として予め登録された回答データベースと、前記対話ログデータベースに登録された前記対話ログ及び前記回答データベースに登録された前記対話例に基づいて前記対話例の適切性を判定し、判定結果に応じたルールで前記対話例の修正候補を生成する対話生成部と、前記対話生成部により生成された前記修正候補が掲載された前記対話例修正画面を生成する画面生成部とを設け、前記対話生成部が、前記対話例修正画面上で選択された前記修正候補を前記回答データベースに登録するようにした。 In order to solve such a problem, the present invention is a registration system for registering answers to questions from customers by a robot that provides a dialogue service, a voice recognition unit that recognizes a dialogue between people by voice, and the voice. The dialogue log database in which the voice recognition result by the recognition unit is registered as a dialogue log, the answer database in which the combination of the question and the answer to the question is registered in advance as a dialogue example, and the dialogue log database are registered. A dialogue generation unit that determines the appropriateness of the dialogue example based on the dialogue log and the dialogue example registered in the response database, and generates correction candidates for the dialogue example according to a rule according to the determination result, and the dialogue. A screen generation unit for generating the dialogue example correction screen on which the correction candidate generated by the generation unit is posted is provided, and the dialogue generation unit responds to the correction candidate selected on the dialogue example correction screen. Changed to register in the database.
本発明によれば、対話サービスを提供するロボットによる顧客からの質問に対する回答内容の人手によるメンテナンスの効果的な実施を支援することができる。 According to the present invention, it is possible to support the effective implementation of manual maintenance of the contents of answers to questions from customers by a robot that provides a dialogue service.
以下、本発明の一実施形態に係るロボットの対話登録システムの一例を、図面を参照しながら説明するが、本発明は下記の例に限定されない。 Hereinafter, an example of the robot dialogue registration system according to the embodiment of the present invention will be described with reference to the drawings, but the present invention is not limited to the following examples.
(1)ロボットの対話登録システム1の構成例
図1は、本発明の一実施の形態に係るロボットの対話登録システムの全体構成例を示すブロック図である。図1に示すように、ロボットの対話登録システム1は、ロボット10、ロボット制御装置20、及び操作端末30を備える。ロボット10とロボット制御装置20との間、及びロボット制御装置20と操作端末30との間は、有線LAN(Local Area Network)もしくは無線LAN等の通信網により接続される。
(1) Configuration Example of Robot
ロボット10は、自律移動可能な案内ロボットであり、導入先の施設内の所定の範囲、例えば、ロボット10が設置されるフロア内を移動可能である。そしてロボット10は、施設内の通行人や来客等の案内対象者(顧客)に対して、音声で案内を行うサービスや、走行、ジェスチャー等の動作によって顧客を所定の場所まで案内するサービス等を提供する。本実施の形態では、ロボット10が提供可能な対話サービスとして、顧客と対話しながら案内を行う「案内サービス」と、顧客とオペレータとの対話を翻訳によって支援する「翻訳サービス」とを挙げて説明する。
The
ロボット10は、内部に備えたセンサ(後述するカメラ131やマイクロフォン132等)で検出したセンサデータをロボット制御装置20に転送し、ロボット制御装置20は、受信したセンサデータの内容に応じて、人への案内動作をロボット10に対して指示する。そして、指示を受けたロボット10は、指示内容を出力デバイスを通じて発話、モーション、または移動等の動作を実施することで、回答及び案内を行う。
The
ロボット制御装置20は、ロボット10から受信したセンサデータをもとに、接客ログを作成して保持する。特に、人と人との間の音声対話の識別結果(音声認識結果)については、接客ログの一例として対話ログとして保持する(後述する対話ログDB229)。また、ロボット制御装置20は、対話ログをもとにQ&A修正画面(後述するQ&A修正画面500)を作成する。
The
操作端末30は、ロボット制御装置20が提供するQ&A修正画面にアクセスし、Q&A修正候補の検索、編集、及び登録を行うことができる。
The
(1−1)ロボット10の内部構成例
図2は、図1に示したロボットの制御系の構成例を示すブロック図である。図2に示すように、ロボット10は、CPU(central processing unit)110と、CPU110の制御に基づいて各種処理が実行される記憶装置120、入出力装置130及び通信インタフェース140と、を備える。
(1-1) Example of Internal Configuration of
CPU110は、プロセッサの一例であって、記憶装置120に格納されたプログラムを読み出して実行することにより、例えば、記憶装置120内に示された各機能部(駆動制御部121,対話制御部122,入出力部123)の機能を実現する。
The
記憶装置120は、プログラムやデータを格納する記憶装置であって、RAM(Random Access Memory)等の主記憶装置や、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置で構成される。図2には、記憶装置120の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、駆動制御部121、対話制御部122、及び入出力部123が示されている。
The
駆動制御部121は、ロボット10を自律移動させる際の駆動制御を行う。具体的には例えば、駆動制御部121は、ロボット10が自律移動する際に、ロボット10のカメラ131が撮影した映像や、測域センサ134が光波によって検出した自身の位置等に基づいて、ロボット10の周囲の状況を判断する。そして、駆動制御部121は、判断した内容、及び予め設定された顧客との距離に関するデータ等に基づいて、人や壁等の障害物を避けながらロボット10を自律移動させる。また、駆動制御部121は、ジャイロセンサ133の検出値に基づいてロボット10の機体の傾きを検知し、ロボット10が倒れずに自律移動するための制御を行う。ロボット10の移動中に、カメラ131及び/又は測域センサ134から得た情報に基づいて障害物が検知された場合には、駆動制御部121は、ロボット10の移動を停止させるか、障害物を回避するようにロボット10の動作を制御する。
The
本実施の形態では、ロボット10が移動できる移動可能範囲は、予め決められた所定の範囲内(例えば、施設内)に制限される。つまり、駆動制御部121が判断するロボット10の現在位置は、その移動可能範囲内での位置に留まる。
In the present embodiment, the movable range in which the
対話制御部122は、ロボット制御装置20による指示を受けて、入出力装置130が備えるマイクロフォン132及びスピーカ135を用いて、顧客又はオペレータとの対話動作を、音声を介して行わせる。
In response to an instruction from the
入出力部123は、入出力装置130との間で行われる各種データの入出力動作を実行する他、通信インタフェース140を介してロボット制御装置20との間で行われる各種データの入出力動作を実行する。
The input /
入出力装置130は、カメラ131、マイクロフォン132、ジャイロセンサ133、測域センサ134、スピーカ135、及び駆動機構136を備える。
The input /
カメラ131は、案内対象者(顧客)を撮影することにより、顧客の顔等の画像情報を取得する。マイクロフォン132(入力手段の一例であって、音声情報を取得可能な他の集音機器であってもよい)は、顧客やオペレータから発生された音声に関する情報である音声情報を取得する。カメラ131で取得された画像情報やマイクロフォン132で取得された音声情報等の各種データは、通信インタフェース140を経由してロボット制御装置20に送信される。
The
ジャイロセンサ133は、ロボット10に加わる角加速度に基づいてロボット10の傾き等を検出する。ジャイロセンサ133は、検出した傾き角を、通信インタフェース140を経由してロボット制御装置20に送信する。
The
測域センサ134は、光波を用いた距離測定に基づいて、ロボット10の位置を特定するとともに、ロボット10の周囲環境を検知するセンサである。測域センサ134は、ロボット10の位置、及び障害物等を含む周囲の空間形状を計測する。測域センサ134は、計測によって得たデータを、通信インタフェース140を経由してロボット制御装置20に送信する。
The
スピーカ135は、対話制御部122で生成された、ロボット10が施設内を案内するために必要な対話用の音声を、外部に出力する。
The
駆動機構136は、駆動制御部121からの指示に基づいてロボット10を移動させる機構である。例えばロボット10が、車輪により移動可能な形態である場合には、駆動機構136は、ロボット10に設けられた車輪を駆動させるモータである。例えばロボット10が、二足歩行が可能な人型の形態である場合には、駆動機構136は、ロボット10に設けられた足に相当する部材を駆動するアクチュエータである。
The
通信インタフェース140は、ネットワークに接続するための装置であって、ロボット制御装置20の通信インタフェース240(後述の図3参照)と、ネットワークを介して接続される。
The
(1−2)ロボット制御装置20の内部構成例
図3は、図1に示したロボット制御装置の制御系の構成例を示すブロック図である。図3に示すように、ロボット制御装置20は、CPU210、記憶装置220及び通信インタフェース240を備える。
(1-2) Example of Internal Configuration of
CPU210は、プロセッサの一例であって、記憶装置220に格納されたプログラムを読み出して実行することにより、例えば、図3の記憶装置220内に示された各機能部(音声認識部221,画像認識部222,サービス制御部223,対話制御部224,翻訳制御部225,画面生成部226,対話生成部227)の機能を実現する。
The
記憶装置220は、プログラムやデータを格納する記憶装置であって、RAM等の主記憶装置と、HDDやSSD等の補助記憶装置とで構成される。図3には、記憶装置220の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、音声認識部221、画像認識部222、サービス制御部223、対話制御部224、翻訳制御部225、画面生成部226、及び対話生成部227が示され、記憶装置220の補助記憶装置に格納されるデータ群の一例として、回答DB228、対話ログDB229、及び除外候補DB230が示されている。なお、図3に示した各種DBは、ネットワークを介してロボット制御装置20(通信インタフェース240)と通信可能な外部の記憶手段で実現されてもよい。
The
音声認識部221は、ロボット10から送信されて通信インタフェース240が受領した音声データに対して、音声認識を行い、話者(顧客やオペレータ)の発話言語によるテキスト(文字列)に変換するテキスト変換を実施する。以後、このテキスト変換によって生成されるテキストを「音声テキスト」と称することがある。
The
音声認識部221によるテキスト変換に用いられる言語の設定方法の一例として、顧客(案内対象者)の発話言語を設定する場合には、顧客へのサービス開始時に顧客の発話内容を受信し、その言語が予め登録された複数種類の言語の何れに最も近いかを判断することで、顧客の発話言語を特定し、設定することができる。また、別の一例として、オペレータの発話言語を設定する場合には、予めオペレータの使用言語を設定してもよいし、顧客の発話言語の設定と同様の方法を用いてもよい。
As an example of the language setting method used for text conversion by the
なお、音声認識部221は、音声データの音声特徴量を分析し、音声特徴量が予め登録されている特徴量と一致するかを判断することにより、話者が顧客であるかオペレータであるかを識別することができる。
The
画像認識部222は、ロボット10から送信されて通信インタフェース240が受領した画像データを基に、顔特徴を有した分類器によって人物検知を実施する。画像認識部222は、顔の特徴量が予め登録されている特徴量と一致するか判断することによって、話者が顧客であるかオペレータであるかを識別することができる。
The
サービス制御部223は、音声認識部221が検出した音声テキストや、画像認識部222が検出した人物検知結果に応じて、ロボット10への接客動作の指示、対話制御部224への直接対話の指示、または翻訳制御部225への対話仲介の指示等を実施する。
The
サービス制御部223は、ロボット制御装置20が内部状態として持つ「サービスモード」を判断及び設定することができる。サービス制御部223によってサービスモードが所定のモードに設定されることにより、ロボット制御装置20はロボット10を当該モードに基づいて制御し、ロボット10は当該モードに応じたサービスを顧客に提供することができる。
The
本実施の形態では、ロボット制御装置20が持つ内部状態の具体例として、「案内サービスモード」、「翻訳サービスモード」、及び「Q&A修正モード」が説明される。このうち、対話サービスに関連するサービスモードの具体例として、ロボット10が案内サービスを提供する場合に設定される「案内サービスモード」と、ロボット10が翻訳サービスを提供する場合に設定される「翻訳サービスモード」とが用意されている。また、「Q&A修正モード」は、人手(管理者等のユーザ)によるQ&Aのメンテナンスを行う際に設定されるモードである。詳細は後述するが、Q&A修正モードでは、操作端末30から参照するQ&A修正画面に「Q&Aの修正候補」が表示され、ユーザが選択したQ&Aの修正候補を回答DB228に登録することができる。
In the present embodiment, "guidance service mode", "translation service mode", and "Q & A correction mode" will be described as specific examples of the internal state of the
詳細は図6を参照しながら後述するが、サービス制御部223は、サービスモードを「案内サービスモード」と判断した場合には、対話制御部224に、音声テキストを基にした顧客との直接対話(回答)の実施を指示する。一方、サービス制御部223は、サービスモードを「翻訳サービスモード」と判断した場合には、翻訳制御部225に、音声テキストと、話者が顧客かオペレータかを識別した結果に基づく話者判定結果とを通知し、顧客とオペレータとの対話を翻訳によって仲介する対話仲介の実施を指示する。
The details will be described later with reference to FIG. 6, but when the
対話制御部224は、音声テキストを基に回答DB228を検索し、検索結果に応じて回答を出力する。具体的には、対話制御部224は、回答DB228において上記音声テキストと類似または一致する想定質問(Q)が登録されているかを検索し、該当する想定質問(Q)があった場合には、回答DB228で想定質問(Q)に紐付けて登録されている回答(A)を出力し、該当する想定質問(Q)がなかった場合には、予め用意された所定の回答を出力する。対話制御部224によって出力される回答は、音声合成を実施して音声ファイルに変換した上で、ロボット10に転送される。この結果、ロボット10では、転送された音声ファイルをスピーカ135で出力することで、顧客の質問に対する回答を実施することができる。
The
翻訳制御部225は、音声テキストと話者判定結果に基づいて、顧客とオペレータの相互翻訳を実施する。すなわち、翻訳制御部225は、顧客の発話言語はオペレータの発話言語に翻訳して出力し、オペレータの発話言語は顧客の発話言語に翻訳して出力する。具体的には例えば、顧客が英語で発話し、オペレータが日本語で発話する場合、翻訳制御部225は、顧客の発話結果を英語から日本語に翻訳し、音声合成を実施して音声ファイルに変換した上でロボット10に転送する。この結果、ロボット10では、転送された音声ファイルをスピーカ135で出力することで、顧客の発話内容を翻訳してオペレータに伝えることができる。なお、顧客とオペレータの発話内容及び翻訳結果は、対話ログDB229に格納される。
The
画面生成部226は、所定の表示装置(本例では操作端末30のディスプレイ331とするが、その他に設けられた表示装置でもよい)に表示する画面を生成する。具体的には例えば、画面生成部226は、ロボット制御装置20が操作端末30から所定のアクセス要求(Q&A修正要求)を受信した際に、回答DB228で管理されるQ&Aを登録及び修正可能なQ&A修正画面を出力する。Q&A修正画面は、例えばGUI(Graphical User Interface)で提供され、画面の詳細内容は、図10を参照しながら後述する。
The
対話生成部227は、Q&A修正画面からの操作を通じて管理者等のユーザがQ&Aを修正することができる「Q&A修正モード」において、Q&Aの修正候補を自動生成し出力する。対話生成部227は、操作端末30におけるユーザの操作によってQ&A修正画面上での検索要求を受信した場合に、回答DB228、対話ログDB229、及び除外候補DB230にアクセスして各DBの検索を実施し、追加または修正するQ&Aの修正候補を自動作成し、修正候補ごとに優先度スコアを算出する。そして、対話生成部227によって生成(作成及び算出)された結果が、検索結果としてQ&A修正画面に表示される。
The
回答DB228は、対話サービスにおいてロボット10が回答するためのQ&Aを保持する。具体的には、回答DB228には、想定される質問とその回答との組み合わせが登録される(Q&Aデータ)。前述したように、回答DB228は、対話制御部224や対話生成部227からの検索を受け付ける。
The
図4は、Q&Aデータの一例を説明するための図である。図4に例示したQ&Aデータ410は、回答DB228に格納される情報であって、想定される質問が記録される質問(Q)411と、当該行(レコード)の質問に対応する回答が記録される回答(A)412と、当該レコードの質問(Q)411及び回答(A)412の何れかが最後に編集(登録や修正等)されたときのタイムスタンプが記録される編集時間413と、を備えて構成される。回答DB228は、質問(Q)411と回答(A)412を含むQ&Aデータ410を保持することによって、行(レコード)単位で、想定されるQ&Aの組み合わせを登録することができる。また、編集時間413は、後述する優先度スコア算出処理で参照される。
FIG. 4 is a diagram for explaining an example of Q & A data. The Q &
具体的には図4の場合、データ行の1行目のQ&Aを見ると、「お手洗いはどこですか?」という日本語の質問(Q)411に対して、「ここを直進して左に進んでいただくと、ございます。」という日本語の回答(A)412が登録されている。また、データ行の2行目のQ&Aを見ると、1行目と同じ内容だが英語によるQ&Aが登録されている。このように回答DB228では、個々のQ&Aの組み合わせは同一言語で登録されるものの、全体としては、翻訳制御部225で翻訳可能な複数種類の言語によるQ&Aを登録することができる。
Specifically, in the case of Fig. 4, when looking at the Q & A on the first line of the data line, in response to the Japanese question (Q) 411, "Where is the restroom?", "Go straight here and turn left. The Japanese answer (A) 412, "If you proceed, there is." Is registered. Also, looking at the Q & A on the second line of the data line, the Q & A in English is registered with the same content as the first line. As described above, in the
対話ログDB229は、ロボット10で行われた接客のログ、具体的には、案内サービスにおける対話の結果や、翻訳サービスにおける翻訳の結果を集約したログを保持する。前述したように、対話ログDB229は、対話生成部227からの検索を受け付ける。
The
除外候補DB230は、Q&A修正モードにおいて除外すると設定されたQ&Aに関する情報を保持する。具体的には、除外候補DB230は、対話生成部227によって生成されてQ&A修正画面に表示された検索結果において「除外」と設定されたQ&Aについて、例えば、当該Q&AのQ(質問)を保持する。前述したように、除外候補DB230は、対話生成部227からの検索を受け付ける。
The
通信インタフェース240は、ネットワークに接続するための装置であって、操作端末30の通信インタフェース340(後述の図5参照)と、ネットワークを介して接続される。
The
(1−3)操作端末30の内部構成例
図5は、図1に示した操作端末の制御系の構成例を示すブロック図である。図5に示すように、操作端末30は、例えば汎用的なPCであり、CPU310と、CPU310の制御に基づいて各種処理が実行される記憶装置320、入出力装置330、及び通信インタフェース340と、を備える。
(1-3) Example of Internal Configuration of
CPU310は、プロセッサの一例であって、記憶装置320に格納されたプログラムを読み出して実行することにより、例えば、記憶装置320内に示された各機能部(ブラウザ321,入出力部322)の機能を実現する。
The
記憶装置320は、プログラムやデータを格納する記憶装置であって、RAM等の主記憶装置や、HDDやSSD等の補助記憶装置で構成される。図5には、記憶装置320の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、ブラウザ321及び入出力部322が示されている。
The
ブラウザ321は、通信インタフェース340を介してロボット制御装置20にアクセスし、画面生成部226から出力されたQ&A修正画面の情報を受信し、当該情報に基づいて、入出力装置330のディスプレイ331においてQ&A修正画面を表示する。ブラウザ321で表示されたQ&A修正画面は、表示された項目をキーボード332やマウス333で操作することにより、Q&Aの登録及び修正を実施することができる。
The
通信インタフェース340は、ネットワークに接続するための装置であって、ロボット制御装置20の通信インタフェース240と、ネットワークを介して接続される。
The
(2)対話サービス
以下では、ロボット10が対話サービス(案内サービス、翻訳サービス)を提供する際に行われる処理の詳細を説明する。
(2) Dialogue Service The details of the processing performed when the
(2−1)サービスモード決定処理
図6は、サービスモード決定処理の処理手順例を示すフローチャートである。図6に示すサービスモード決定処理は、ロボット10と人(顧客)との対話を通じて、ロボット10が提供する対話サービスを決定する処理であって、ロボット10においてカメラ131が撮影した画像に基づく人物検知や、マイクロフォン132が取得した音声情報に基づく割り込み検知が行われた場合に、人(顧客)との対話を通じて以下のシーケンスが実施される。
(2-1) Service Mode Determination Process FIG. 6 is a flowchart showing an example of a processing procedure of the service mode determination process. The service mode determination process shown in FIG. 6 is a process of determining the dialogue service provided by the
図6によればまず、ロボット10がサービス決定を顧客に問いかける処理を実施する(ステップS11)。具体的には例えば、ロボット制御装置20のサービス制御部223がロボット10の対話制御部122に、顧客にサービスの選択を促処理の実施を指示し、当該指示を受けて対話制御部122が、ロボット10のスピーカ135を用いて「案内サービスですか?翻訳サービスですか?」等のように発話させることで、顧客にサービスの選択を促す。なお、ステップS12で顧客にサービスの選択を促す指示は、音声によるものに限定されず、タッチディスプレイ等にサービスの選択肢を表示し、顧客にタッチして選択させるようにする等でもよい。
According to FIG. 6, first, the
次のステップS12において、サービス制御部223は、ステップS11で顧客から選択されたサービスが案内サービスであるか否かを判定する。選択されたサービスが案内サービスであると判定した場合には(ステップS12のYES)、ステップS13に進み、選択されたサービスが案内サービスではない、すなわち翻訳サービスであると判定した場合には(ステップS12のNO)、ステップS14に進む。
In the next step S12, the
ステップS13では、サービス制御部223がロボット制御装置20の内部状態を「案内サービスモード」に設定した上で、ロボット10による顧客への案内サービスを実施する。案内サービスモードにおけるロボット制御装置20は、自らが実施できる案内サービスの選択肢を提示することで、以降、顧客との対話によって顧客要望をヒアリングし、回答DB228に登録されたQ&Aを用いて接客を実施する。
In step S13, the
一方、ステップS14では、サービス制御部223が、ロボット制御装置20の内部状態を「翻訳サービスモード」に設定した上で、ロボット10による顧客への翻訳サービスを実施する。ここで、翻訳サービスを実施する場合、ロボット10は、ロボット10が設置されている施設を管理するオペレータと顧客との間の対話を、翻訳によって支援する。そこで、翻訳サービスモードが設定されたときは、ロボット制御装置20の通信インタフェース240を介して(具体的には、電話、メール、またはランプ表示等の何らかの報知手段を用いて)、翻訳サービスを実施する旨をオペレータに通知することが好ましい。
On the other hand, in step S14, the
ステップS14に次ぐステップS15では、サービス制御部223は、話者となる顧客及びオペレータを識別するための設定処理(顧客識別設定)を実施する。顧客識別設定について詳しく説明する。翻訳サービスを実施する際には、顧客の発話言語とオペレータの発話言語との間で相互翻訳の処理が行われるため、ロボット制御装置20は、話者が顧客なのかオペレータなのか、また、それぞれの話者がどの言語で発話するのかを識別できる必要がある。そのため、顧客識別処理においてサービス制御部223は、まず、ロボット10から所定の音声出力を行って顧客にヒアリングを実施し、応答した顧客の発話に基づいて、話者(顧客)の発話言語と方向とを識別し、記録する。さらにサービス制御部223は、オペレータにもヒアリングを実施し、応答したオペレータの発話に基づいて、話者(オペレータ)の発話言語と方向とを識別し、記録する。ここで、「話者の方向」とは、例えばロボット10を基準としたときの各話者の相対的な方向(あるいは位置)を意味し、各話者の相対的な方向を設定することによって、以後の対話において話者が顧客であるかオペレータであるかを識別できるようになる。なお、本実施の形態は、方向(位置)に基づいて話者の識別を行うことに限定されるものではなく、他の方法、例えば話者の音声の特徴解析を行う等して、話者を識別可能な設定を行うようにしてもよい。また、ステップS15で顧客及びオペレータにヒアリングする指示は、音声によるものに限定されず、タッチディスプレイ等にサービスの選択肢を表示し、顧客にタッチして選択させるようにする等としてもよい。
In step S15 following step S14, the
また、ステップS15では、事前にオペレータの情報を設定しておくことで、オペレータへのヒアリング処理をスキップすることができる。詳しくは、オペレータが、事前に発話言語、顔の特徴量、あるいは音声特徴量等をロボット制御装置20に登録しておくことにより、ロボット制御装置20は、オペレータの画像もしくは音声によって、ロボット10に対面している2人(顧客、オペレータ)のうち、何れがオペレータであるかを特定することができる。
Further, in step S15, by setting the operator information in advance, the hearing process with the operator can be skipped. Specifically, the operator registers the spoken language, facial features, voice features, and the like in the
上記したように、ステップS13の処理が完了すると、ロボット制御装置20において案内サービスの開始準備が整うため、以降、ロボット10は、顧客と対話しながら案内を行う案内サービスを実施することができる。案内サービスにおける処理の流れは、図7を参照しながら後述する。また、ステップS15の処理が完了すると、ロボット制御装置20において翻訳サービスの開始準備が整うため、以降、ロボット10は、顧客とオペレータとの対話を相互翻訳によって支援する翻訳サービスを実施することができる。翻訳サービスにおける処理の流れは、図8を参照しながら後述する。
As described above, when the process of step S13 is completed, the
(2−2)案内サービス
図7は、直接対話処理の処理手順例を示すフローチャートである。図7に示す直接対話処理は、サービスモードが案内サービスモードに設定されているときに、ロボット10が人(顧客)との対話を通じて案内サービスを実施する処理である。
(2-2) Guidance Service FIG. 7 is a flowchart showing an example of a processing procedure for direct dialogue processing. The direct dialogue process shown in FIG. 7 is a process in which the
図7によればまず、ロボット10が顧客の音声を受信すると、ロボット制御装置20の音声認識部221が、ロボット10から送信された音声データに対してテキスト変換を行うことにより、音声テキストを生成する(ステップS21)。
According to FIG. 7, first, when the
次に、対話制御部224は、ステップS21で生成された音声テキストから「えーと・・・」や「あのー・・・」等のフィラーを除去した上で、除去後の音声テキストに基づいて回答DB228に登録された質問を検索し、該当する質問に紐付けられた回答を取得する(ステップS22)。なお、音声テキストからのフィラー除去は音声認識部221が実施してもよい。また、フィラー除去後の音声テキストには、例えば日本語の言い回し等のバラつき(揺らぎ)が含まれ得るため、対話制御部224は、フィラー除去後の音声テキストに対して更に形態素解析を実施した上で、同様に形態素解析が実施された回答DB228内の質問に対してステップS22の検索を実施することが好ましい。なお、上記説明では、対話制御部224がフィラー除去及び形態素解析を実施するとしたが、ロボット制御装置20の他の機能部(例えば音声認識部221)が実施するようにしてもよい。
Next, the
次いでステップS23では、対話制御部224は、ステップS22の検索によって有効な回答が取得されたか否かを判定する。有効な回答が取得できた場合は(ステップS23のYES)、ステップS24に進み、有効な回答が取得できなかった場合は(ステップS23のNO)、ステップS25に進む。
Next, in step S23, the
ステップS24では、対話制御部224は、ステップS22で取得した回答を音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は顧客の質問に対して適切な回答を発話することができる。
In step S24, the
一方、ステップS25の場合は、ステップS22で有効な回答が取得できていないため、対話制御部224は、例えば「もう一度言って頂けますか?」等のような、予め定められたヒアリング内容(固定回答)を音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は顧客に対して、再質問の要求を発話することができる。なお、ステップS25で出力させるヒアリング内容は、上記例に限定されるものではなく、例えば「わかりません」や「質問を変えてください」等のように、今回の質問には回答できない旨をロボット10に発話させるものであってもよい。
On the other hand, in the case of step S25, since a valid answer has not been obtained in step S22, the
そして、ステップS24またはステップS25の処理後は、ステップS21に戻り、ロボット10が顧客による次の音声を受信すると、再びステップS21以降の処理が繰り返されることで、顧客とロボット10との対話を続けることができる。
Then, after the processing of step S24 or step S25, the process returns to step S21, and when the
以上のように、直接対話処理では、顧客の質問に対する回答は、回答DB228に登録されたQ&Aの検索に基づいて決定される。そのため、ロボット10が顧客に対して効果的な接客のサービス(案内サービス)を提供するためには、ロボット制御装置20の回答DB228に、様々な質問(あらゆる質問)に対応するQ&Aが登録されていることが求められる。
As described above, in the direct dialogue process, the answer to the customer's question is determined based on the search of the Q & A registered in the answer DB228. Therefore, in order for the
(2−3)翻訳サービス
図8は、対話仲介処理の処理手順例を示すフローチャートである。図8に示す対話仲介処理は、サービスモードが翻訳サービスモードに設定されているときに、ロボット10が人(顧客)と人(オペレータ)との対話を翻訳によって仲介する翻訳サービスを実施する処理である。
(2-3) Translation service FIG. 8 is a flowchart showing an example of a processing procedure for dialogue mediation processing. The dialogue mediation process shown in FIG. 8 is a process in which the
図8によればまず、ロボット10は、顧客の音声を検知すると、音声割り込みがあったとして、ロボット制御装置20の音声認識部221に音声データを転送する(ステップS31)。そしてロボット制御装置20では、サービス制御部223が、図6のステップS15で設定された顧客識別設定に基づいて、受信した音声データの話者(顧客かオペレータか)及びその発話言語を識別する。具体的には、サービス制御部223は、音声データが発話された方向(話者の方向)に基づいて、話者が顧客かオペレータかを識別することができる。
According to FIG. 8, when the
次に、ステップS32では、音声認識部221(サービス制御部223でもよい)は、ステップS31の識別結果を判定する。話者が顧客であると判定した場合には(ステップS32のYES)、ステップS33に進み、話者が顧客ではない、すなわちオペレータであると判定した場合には(ステップS32のNO)、ステップS35に進む。 Next, in step S32, the voice recognition unit 221 (which may be the service control unit 223) determines the identification result of step S31. If it is determined that the speaker is a customer (YES in step S32), the process proceeds to step S33, and if it is determined that the speaker is not a customer, that is, an operator (NO in step S32), step S35. Proceed to.
ステップS33に進んだ場合、音声認識部221は、受信した顧客の音声データに対して、顧客の発話言語で音声認識(テキスト変換)を行うことにより、音声テキストを生成する。さらに、翻訳制御部225が、生成された音声テキストをオペレータの発話言語に翻訳する(顧客とオペレータの発話言語とが一致する場合には、翻訳しなくてもよい)。
When the process proceeds to step S33, the
そして、次のステップS34では、例えばサービス制御部223が、ステップS33で生成された音声テキストとその翻訳結果を、顧客の質問(Q)としてデータに保持する。ステップS34の処理が終了すると、後述するステップS38に進む。
Then, in the next step S34, for example, the
一方、ステップS35に進んだ場合、音声認識部221は、受信したオペレータの音声データに対して、オペレータの発話言語で音声認識(テキスト変換)を行うことにより、音声テキストを生成する。さらに、翻訳制御部225が、生成された音声テキストを話者の発話言語に翻訳する(顧客とオペレータの発話言語とが一致する場合には、翻訳しなくてもよい)。
On the other hand, when the process proceeds to step S35, the
そして、次のステップS36では、例えばサービス制御部223が、ステップS35で生成された音声テキストとその翻訳結果を、オペレータの回答(A)としてデータに保持する。
Then, in the next step S36, for example, the
さらに、次のステップS37において、例えばサービス制御部223が、以前のステップS34で保持された顧客の質問(Q)の音声テキスト及び翻訳結果と、ステップS36で保持されたオペレータの回答(A)の音声テキスト及び翻訳結果と、を組み合わせてQ&Aを作成し、対話ログDB229に登録する(対話ログデータ)。対話ログDB229に登録した後、サービス制御部223は、保持していた各データを削除し、ステップS38に進む。
Further, in the next step S37, for example, the
ステップS37におけるQ&Aの作成についてより詳しく説明すると、顧客の質問(Q)とオペレータの回答(A)とでは、発話言語が異なる場合があるため、このとき、翻訳前の顧客の質問(すなわち、質問(Q)の音声テキスト)と翻訳後のオペレータの回答(すなわち、回答(A)の翻訳結果)とを1つの組み合わせとし、翻訳後の顧客の質問(すなわち、質問(Q)の翻訳結果)と翻訳前のオペレータの回答(すなわち、回答(A)の音声テキスト)とを1つの組み合わせとする。ステップS37では、上記のようにして同じ言語によるQ&Aが作成され、対話ログDB229に登録される。 Explaining the creation of the Q & A in step S37 in more detail, the customer's question (Q) and the operator's answer (A) may have different utterance languages. Therefore, at this time, the customer's question before translation (that is, the question) (Q) voice text) and the translated operator's answer (that is, the translation result of answer (A)) are combined into one combination, and the translated customer's question (that is, the translation result of question (Q)) The operator's answer before translation (that is, the voice text of answer (A)) is used as one combination. In step S37, a Q & A in the same language is created as described above and registered in the dialogue log DB229.
図9は、対話ログデータの一例を説明するための図である。図9の場合、対話ログDB229に保存される対話ログデータは、言語によってテーブルが分けられている。具体的には、図9(A)には、対話ログを日本語で収集した対話ログデータ420が例示され、図9(B)には、対話ログを英語で収集した対話ログデータ430が例示されている。
FIG. 9 is a diagram for explaining an example of dialogue log data. In the case of FIG. 9, the dialogue log data stored in the
対話ログデータ420は、当該レコードのログを収集したタイムスタンプが記録されるログ日時421と、顧客の質問が記録される質問(Q)422と、オペレータの回答が記録される回答(A)423と、を備えて構成される。対話ログデータ430におけるデータ構造(ログ日時431,質問(Q)432,回答(A)433)は、対話ログデータ420と同様であるため、説明を省略する。
The
対話ログDB229は、上記のように言語別に対話ログデータ420,430を格納することにより、顧客とオペレータとの対話内容から、質問と回答の組み合わせを抽出し、更に同一言語に翻訳したものを、対話ログとして保持することができる。
The dialogue log DB229 stores the
そして、前述したように、ステップS34またはステップS37の処理後は、ステップS38の処理が行われる。ステップS38では、対話制御部224が、直前に翻訳された翻訳結果(具体的には、ステップS34経由の場合は、ステップS33による質問(Q)の翻訳結果であり、ステップS37経由の場合は、ステップS35による回答(A)の翻訳結果)のテキストを、音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は、直前に発話した一方の話者の発話内容を、他方の話者の発話言語に翻訳して発話することができる。
Then, as described above, after the processing of step S34 or step S37, the processing of step S38 is performed. In step S38, the
そして、ステップS38の処理後は、ステップS31に戻り、ロボット10が次の音声割り込みを検出すると、再びステップS31以降の処理が繰り返されることで、顧客とオペレータとの対話を相互翻訳によって支援することができる。
Then, after the processing of step S38, the process returns to step S31, and when the
なお、詳細な記載は省略するが、対話仲介処理においても、直接対話処理の場合と同様に、音声テキスト(あるいはその翻訳結果)に対して、対話制御部224(または音声認識部221等)がフィラー除去や形態素解析を実施することが好ましい。フィラー除去や形態素解析を実施することにより、不要な発話内容や揺らぎを排したQ&Aを対話ログDB229に登録することができる。
Although detailed description is omitted, in the dialogue mediation process as well as in the case of the direct dialogue process, the dialogue control unit 224 (or the
(3)Q&A修正モード
以下では、Q&A修正モードにおける処理について詳しく説明する。前述したように、「Q&A修正モード」は、ロボットの対話登録システム1において、人手(管理者等のユーザ)によるQ&Aのメンテナンスが行われる際に、ロボット制御装置20の内部状態に設定されるモードであり、ユーザは、操作端末30から、ロボット制御装置20が提供するGUI(Q&A修正画面)にアクセスすることができる。
(3) Q & A correction mode The processing in the Q & A correction mode will be described in detail below. As described above, the "Q & A correction mode" is a mode that is set to the internal state of the
図10は、Q&A修正画面の具体例を示す図である。また、図11は、Q&Aのメンテナンスにおける人手による操作手順例を示すフローチャートである。 FIG. 10 is a diagram showing a specific example of the Q & A correction screen. Further, FIG. 11 is a flowchart showing an example of a manual operation procedure in Q & A maintenance.
図10に示したQ&A修正画面500は、検索条件入力欄510と、検索ボタン520と、検索結果表示欄530と、一括反映ボタン540と、を備えて構成される。このQ&A修正画面500を参照しながら、図11に示した手順を説明する。
The Q &
図11によればまず、ユーザは、操作端末30を操作して、メンテナンス対象のQ&Aを絞り込むための検索条件をQ&A修正画面500の検索条件入力欄510に入力し、検索条件の入力が終了した後は、検索ボタン520をクリックすることによって、ロボット制御装置20に対してQ&A修正候補の出力を要求する(ステップS41)。検索条件の入力において、より具体的には、ユーザは、ログ日付の範囲や言語等を指定する。
According to FIG. 11, first, the user operates the
ステップS41でQ&A修正候補の出力が要求されると、ロボット制御装置20の対話生成部227及び画面生成部226が修正候補作成処理を実行する。詳細は図12等を参照して後述するが、修正候補作成処理では、対話生成部227が、対話ログDB229に格納された対話ログと、回答DB228に格納された回答とに基づいて、回答DB228に格納されている回答の適切性(適切な度合い)を判定し、判定結果に応じたルールでQ&Aの修正候補を生成し、それぞれの修正候補の優先度を算出した上で出力する。そして画面生成部226が、Q&A修正画面500の検索結果表示欄530に、対話生成部227から出力されたQ&Aの修正候補に関する情報を優先度の高い順に表示する。
When the output of the Q & A correction candidate is requested in step S41, the
ここで、図10に示したように、検索結果表示欄530は、質問531、回答532、回答533、分類534、反映チェックボックス535、及び除外チェックボックス536の表示項目を有している。このうち、質問531及び回答532は、対話ログを整形して自動生成された質問及び回答であり、回答533は、対話ログDB229に保持された対話ログの回答である。そこで、回答532と回答533とを比較することによって、修正候補作成処理において対話生成部227がどのように当該回答を修正したのかを確認することができる。また、分類534には、対応する修正候補の適切性の分類結果(後述する図12のステップS55を参照)が表示される。
Here, as shown in FIG. 10, the search
ステップS41の後、ユーザは、Q&A修正画面500の検索結果表示欄530の表示内容(具体的には、質問531〜分類534)を確認し、ユーザの判断で操作端末30を操作して、反映チェックボックス535または除外チェックボックス536にチェックを入れる(ステップS42)。具体的には、ユーザは、自動生成された質問531が、ロボット10が回答すべき質問である(回答対象である)と判断した場合には、反映チェックボックス535にチェックを入れる。一方、ユーザは、質問531はロボット10が回答する必要がない質問である(回答対象ではない)と判断した場合は、除外チェックボックス536にチェックを入れる。なお、ユーザが判断を保留したい場合は、何れのチェックボックスにもチェックしないとしてもよい。
After step S41, the user confirms the display contents (specifically,
次いで、ユーザは、ステップS42で反映チェックボックス535にチェックを入れたレコードについて、自動生成されたQ&A(質問531,回答532)を確認し、言い回しやQ&Aの内容が適切でない場合には、検索結果表示欄530の該当欄にテキスト入力する等の編集を行ってQ&A(質問531,回答532)を修正した上で、一括反映ボタン540をクリックする(ステップS43)。
Next, the user confirms the automatically generated Q & A (
ステップS43で一括反映ボタン540が選択(クリック)されると、ロボット制御装置20の対話生成部227は、検索結果表示欄530において反映チェックボックス535にチェックが付けられたレコードのQ&A(質問531,回答532)を回答DB228に登録し、検索結果表示欄530において除外チェックボックス536にチェックが付けられたレコードのQ(質問531)を除外候補DB230に登録する。なお、反映の選択に基づいて回答DB228にQ&Aを登録する際、同一の質問(Q)が回答DB228に存在する場合には、反映が選択されたQ&A(質問531,回答532)で更新することが好ましい。
When the
以上、ステップS41〜S43の手順が実施されることで、ユーザによって反映が必要と判断されたQ&Aが回答DB228に新たに登録されるため、ロボット10は、案内サービスにおいて、顧客に適切な回答を行うことができるようになる。
As described above, by executing the steps S41 to S43, the Q & A determined to be reflected by the user is newly registered in the
また、除外候補DB230に登録されたQ(質問)は、以降の修正候補作成処理において修正候補として選択されないため、Q&A修正候補として出力されないが、時間経過に伴うロボット10の環境の変化等を考慮すると、一定期間が経過した後は再び修正候補として選択されるようにすることが好ましい。この場合、ロボット制御装置20(例えば対話生成部227)は、除外候補DB230に登録されているデータに対して、所定の時間(例えば日付)によるローテーションを実施し、除外候補DB230に登録されてから所定期間が経過した場合には、Q(質問)のデータを削除すればよい。また、除外候補DB230からQ(質問)のデータを削除する処理は、ユーザが実施を指示できるとしてもよい。
Further, the Q (question) registered in the
(3−1)修正候補作成処理
次に、修正候補作成処理について詳しく説明する。
(3-1) Correction candidate creation process Next, the correction candidate creation process will be described in detail.
図12は、修正候補作成処理の処理手順例を示すフローチャートである。図11のステップS41で述べたように、人手によるQ&Aのメンテナンス(Q&A修正モード)において、Q&A修正画面500の検索条件入力欄510が入力され、検索ボタン520がクリックされた場合に、ロボット制御装置20(対話生成部227,画面生成部226)によって修正候補作成処理が実行される。
FIG. 12 is a flowchart showing a processing procedure example of the correction candidate creation process. As described in step S41 of FIG. 11, in the manual Q & A maintenance (Q & A correction mode), when the search
図12によればまず、対話生成部227は、操作端末30からQ&A修正候補の出力要求(図11のステップS41参照)を受信すると、検索条件入力欄510に入力された検索条件で、対話ログDB229の検索を実施する(ステップS51)。
According to FIG. 12, first, when the
ステップS51における対話ログDB229の検索は、1つの質問(Q)を順次抽出する処理であって、以下に詳しく説明する。まず、対話生成部227は、対話ログDB229に格納されている対話ログデータについて、例えば上から順に1行(レコード)を参照し、参照レコードに記録されている質問(Q)を抽出する(図9参照)。そして、上記抽出した質問(Q)を対話ログDB229から検索された質問として、ステップS52〜S56の処理が行われる。その後、ステップS57で全ての対話ログについて検索が完了したかが判定されるが、このとき、質問(Q)の抽出を行っていないレコードが対話ログDB229に残っていた場合は、ステップS57でNOと判定され、次の1レコード(例えば次行のレコード)を参照し、この参照レコードに記録されている質問(Q)が抽出されてステップS52〜S56の処理が行われる。このようにループ処理が繰り返されることで、最終的には対話ログDB229に登録されている全てのレコードに対して質問(Q)の検索が行われ、ステップS57でYESと判定される。
The search of the dialogue log DB229 in step S51 is a process of sequentially extracting one question (Q), which will be described in detail below. First, the
ステップS51で対話ログDB229から質問(Q)を検索した後、対話生成部227は、対話ログDB229から検索された質問(Q)について、除外候補DB230を検索する(ステップS52)。
After searching the question (Q) from the
そして、対話生成部227は、ステップS52の検索において、ステップS51で検索された質問(Q)が除外候補DB230に登録されている質問と一致するか否かを判定する(ステップS53)。ステップS53において一致すると判定した場合(ステップS53のYES)、除外候補DB230に登録されている質問はQ&A修正候補の対象とはしないことから、ステップS54〜S56の処理をスキップしてステップS57に進む。一方、ステップS53において一致しないと判定した場合は(ステップS53のNO)、Q&A修正候補の対象にしてもよいことから、ステップS54に進む。
Then, in the search in step S52, the
ステップS54において、対話生成部227は、対話ログDB229から検索された質問(Q)をキーとして、回答DB228に登録されているQ&Aを検索する。さらに、対話生成部227は、ステップS51,S54における検索の結果に基づいて、対応するQ&Aをその適切性に応じたカテゴリに分類する分類処理を実施する(ステップS55)。
In step S54, the
ここで、ステップS55で行われる、分類処理について説明する。なお、以下の説明では、対話ログDB229から検索された質問を「Q1」とし、Q1に対応する回答を「A1」とし、「Q1」をキーとして回答DB228から検索された質問を「Q2」とし、Q2に対応する回答を「A2」と称する。A1は対話ログDB229に登録されており、A2は回答DB228に登録されている。 Here, the classification process performed in step S55 will be described. In the following explanation, the question searched from the dialogue log DB229 is referred to as "Q1", the answer corresponding to Q1 is referred to as "A1", and the question searched from the answer DB228 using "Q1" as a key is referred to as "Q2". , The answer corresponding to Q2 is referred to as "A2". A1 is registered in the dialogue log DB229, and A2 is registered in the answer DB228.
ステップS55で回答DB228に登録されたQ&Aを分類する際、対話生成部227はまず、Q1,Q2,A1,A2に対して形態素解析を実施し、それぞれの文を文節に分ける。
When classifying the Q & A registered in the
次に、対話生成部227は、形態素解析された結果に基づいて、Q1とQ2の一致度を表す「F1」と、A1とA2の一致度を表す「F2」を算出する。一致度F1は、例えば以下の式1によって算出される。算出されたF値が大きいほど、Q1とQ2の類似性が高いことを意味し、F値が小さいほど、Q1とQ2の類似性が低いことを意味する。なお、一致度F2はQ1,Q2をA1,A2に置き換えることで、同様に式1を用いて算出することができる。
最後に、対話生成部227は、式1を用いて算出されたF1とF2の組み合わせに基づいて、Q&Aを分類する。分類の判定基準については、図13を参照しながら後述する。
Finally, the
図12の説明に戻る。ステップS55で分類処理を行った後、対話生成部227は、分類結果に基づいてQ&Aを自動生成する(ステップS56)。Q&Aを自動生成する手順(ルール)については、図13を参照しながら後述する。
Returning to the description of FIG. After performing the classification process in step S55, the
次いで、ステップS57では、対話生成部227は、ステップS51で前述したように、全ての対話ログについて検索が完了したか否かを判定し、完了と判定した場合は(ステップS57のYES)、ステップS58に進む。一方、検索の処理途中、すなわち対話ログDB229に未検索の対話ログが残っていると判定した場合は(ステップS57のNO)、対話生成部227は、次の対話ログ(質問(Q))を検索してステップS52に戻って処理を繰り返す。
Next, in step S57, as described above in step S51, the
ステップS58において、対話生成部227は、ステップS56で自動生成したそれぞれのQ&Aに対して、修正の優先度を示すスコア(優先度スコア)を算出し、算出された優先度スコアの降順で、対話ログごとにステップS54〜S56の処理を実行して得られた結果(検索結果)をソートする。優先度スコアを算出する手順(優先度スコア算出処理)については、図14を参照しながら後述する。
In step S58, the
次に、対話生成部227は、ステップS58でソートされた検索結果を出力し、画面生成部226が、出力された情報を、Q&A修正画面500の検索結果表示欄530に表示する(ステップS59)。この結果、検索結果表示欄530には、修正の優先度が高い順に検索結果(Q&Aの修正候補に関する情報)が表示される。
Next, the
(3−2)分類の判定基準とQ&A自動生成のルール
図13は、分類の判定基準とQ&A自動生成のルールを定めた判定マトリクスを示す図である。図13に示したように、判定マトリクス440には、F1類似度とF2類似度との組み合わせに応じて、Q&Aの分類や自動生成のルールが定められている。ここで、F1類似度は、一致度F1を所定の閾値を基準として区分したものであり、Q1とQ2の質問としての類似度合いを示す。同様に、F2類似度は、一致度F2を所定の閾値を基準として区分したものであり、A1とA2の回答としての類似度合いを示す。本例では、F1類似度及びF2類似度は、類似度が高い順に、「大」、「中」、「小」の3種類を用いる。
(3-2) Classification Judgment Criteria and Q & A Automatic Generation Rule FIG. 13 is a diagram showing a judgment matrix in which classification judgment criteria and Q & A automatic generation rules are defined. As shown in FIG. 13, in the
本例では、Q&Aの分類先のカテゴリとして、「回答誤り」、「回答誤り可能性有り」、「回答無し」、「同義語/言い回し不足」、及び「回答所有」の5種類のカテゴリが用意されており、何れのカテゴリに分類されるかによって、Q&Aの自動生成ルールも定まる。以下ではカテゴリごとに詳しく説明する。 In this example, there are five categories of Q & A classification destinations: "Answer error", "Answer error possibility", "No answer", "Synonyms / insufficient wording", and "Answer possession". The Q & A automatic generation rule is also determined depending on which category it is classified into. Each category will be described in detail below.
第1の組み合わせとして、F1類似度が大きく、F2類似度が小さい場合は(F1類似度(大)かつF2類似度(小))、「回答誤り」のカテゴリと分類する。これは、顧客による質問Q1と、回答DB228に登録された想定質問Q2との類似度が高い(一致する)にも拘わらず、オペレータの回答A1と回答DB228に登録された回答A2とが異なる状況であり、このとき回答DB228に登録された回答A2が誤っている可能性が高いため、「回答誤り」のカテゴリと分類する。
As the first combination, when the F1 similarity is large and the F2 similarity is small (F1 similarity (large) and F2 similarity (small)), it is classified into the category of "answer error". This is a situation in which the operator's answer A1 and the answer A2 registered in the
カテゴリが「回答誤り」の場合は、回答DB228に登録された回答A2よりも、オペレータによる回答A1のほうが正しい可能性が高い。また、音声認識された結果である顧客質問のQ1よりも、人手で事前に判断し回答DB228に登録されたQ2のほうが、文章として整形されている。したがって、Q2とA1を用いてQ&Aの修正候補を自動生成する(Q=Q2,A=A1)。
When the category is "answer error", there is a high possibility that the answer A1 by the operator is more correct than the answer A2 registered in the answer DB228. In addition, Q2, which is manually determined in advance and registered in the
第2の組み合わせとして、F1類似度が大きく、F2類似度が中ぐらいの場合は(F1類似度(大)かつF2類似度(中))、「回答誤り可能性有り」のカテゴリに分類する。第2の組み合わせの場合は、第1の組み合わせの場合と同様に、回答DB228に登録された回答A2が誤っている可能性がある。そこで、カテゴリが「回答誤り可能性有り」の場合は、第1の組み合わせの「回答誤り」と同様に、Q2とA1を用いてQ&Aの修正候補を自動生成する(Q=Q2,A=A1)。
As the second combination, when the F1 similarity is large and the F2 similarity is medium (F1 similarity (large) and F2 similarity (medium)), it is classified into the category of "possible answer error". In the case of the second combination, as in the case of the first combination, the answer A2 registered in the
第3の組み合わせとして、F1類似度が小さく、F2類似度も小さい場合は(F1類似度(小)かつF2類似度(小))、「回答無し」のカテゴリに分類する。これは、顧客による質問Q1に該当する想定質問Q2が回答DB228に登録されていないことを意味する。このため、カテゴリが「回答無し」の場合は、顧客による質問Q1とオペレータによる回答A1とを用いて、Q&Aの修正候補を自動生成する(Q=Q1,A=A1)。
As a third combination, when the F1 similarity is small and the F2 similarity is also small (F1 similarity (small) and F2 similarity (small)), it is classified into the category of "no answer". This means that the assumed question Q2 corresponding to the question Q1 by the customer is not registered in the
第4の組み合わせとして、F1類似度が中程度で、F2類似度が大きい場合は(F1類似度(中)かつF2類似度(大))、「同義語/言い回し不足」のカテゴリに分類する。これは、オペレータによる回答A1と回答DB228に登録されている回答A2との類似度が高い(一致する)一方、顧客による質問Q1と回答DB228に登録されている想定質問Q2とがやや類似しているという状況である。この場合、回答DB228に登録されている想定質問Q2において、同義語や言い回しの対応が不足していると判断されるため、「同義語/言い回し不足」のカテゴリに分類する。そしてカテゴリが「同義語/言い回し不足」の場合は、顧客による質問Q1と回答DB228に登録されている回答A2とを用いて、Q&Aの修正候補を自動生成する(Q=Q1,A=A2)。
As a fourth combination, when the F1 similarity is medium and the F2 similarity is large (F1 similarity (medium) and F2 similarity (large)), it is classified into the category of "synonyms / insufficient wording". This is because the answer A1 by the operator and the answer A2 registered in the answer DB228 have a high degree of similarity (match), while the question Q1 by the customer and the assumed question Q2 registered in the answer DB228 are slightly similar. The situation is that there is. In this case, since it is determined that the correspondence of synonyms and phrases is insufficient in the assumed question Q2 registered in the
第5の組み合わせとして、F1類似度が大きく、F2類似度も大きい場合は(F1類似度(大)かつF2類似度(大))、顧客とオペレータとの会話(Q1,A1)が既に回答DB228に登録されている(Q2,A2)ことを意味するので、「回答所有」のカテゴリに分類する。カテゴリが「回答所有」の場合は、Q&Aの修正候補の自動生成は実施する必要がない。 As a fifth combination, when the F1 similarity is large and the F2 similarity is also large (F1 similarity (large) and F2 similarity (large)), the conversation between the customer and the operator (Q1, A1) has already been answered DB228. Since it means that it is registered in (Q2, A2), it is classified into the category of "answer possession". If the category is "Owned answer", it is not necessary to automatically generate correction candidates for Q & A.
なお、Q&Aの修正候補を自動生成する際に共通して行われる処理を補足する。顧客による質問Q1とオペレータによる回答A1を用いる場合には、Q1,A1は音声認識結果であるため、対話生成部227(ロボット制御装置20の他の機能部でもよい)は、「えーと・・・」や「あのー・・・」等のフィラーを除去して生成を実施する。また、A1は、人による言い回しのバラつきが発生する可能性があるため、対話生成部227は、文章を形態素解析し整形した上で、出力を実施する。例えば、動詞の活用形において、「行け」等の命令形を検出した場合は、「お越しになってください」といった敬語表現への変換を実施する。
It should be noted that the processing commonly performed when automatically generating correction candidates for Q & A is supplemented. When the question Q1 by the customer and the answer A1 by the operator are used, since Q1 and A1 are voice recognition results, the dialogue generation unit 227 (may be another functional unit of the robot control device 20) is "um ... , "Ah ..." and other fillers are removed to carry out the generation. In addition, since there is a possibility that the wording of A1 may vary depending on the person, the
以上、図13の判定マトリクス440を参照しながら詳述したように、対話生成部227によって分類されたカテゴリに応じたルールで自動生成された「Q&Aの修正候補」には、回答DB228に登録されているQ&Aを修正したもの(具体的にはQ=Q1で自動作成されたもの)と、回答DB228には登録されていない新規のQ&A(具体的にはQ=Q2で自動作成されたもの)とが含まれる。本実施の形態では、このような「Q&Aの修正候補」が検索結果表示欄530に表示され、ユーザによる反映の選択を経て回答DB228に登録される。したがって、本実施の形態における「Q&Aの修正候補」は、回答DB228に登録されているQ&Aに対する修正あるいは回答DB228への新規登録の候補である。
As described above, as described in detail with reference to the
また、本実施の形態に係る対話登録システム1では、前述したように、翻訳サービスモードで人と人との対話が異なる言語で行われた場合には、翻訳制御部225によって発話が相互翻訳され、翻訳結果が言語を統一して対話ログDB229に格納し、また、回答DB228でも同一言語に統一されたQ&Aが登録されることから、対話ログDB229及び回答DB228に保持された情報に基づいて対話生成部227が自動生成した「Q&Aの修正候補」も同一言語に統一されたQ&Aとなる。すなわち、Q&A修正画面500の検索結果表示欄530においても、同一言語に統一されたQ&Aの修正候補が表示されるため、適切なQ&Aの組み合わせを提示できるとともに、メンテナンスを行うユーザが修正候補を反映するか否かを判断し易くすることができる。
Further, in the
(3−3)優先度スコア算出処理
図14は、優先度スコア算出処理の処理手順例を示すフローチャートである。図14に示した優先度スコア算出処理は、図12のステップS56で自動生成されたQ&Aの修正候補について、修正の優先度を示す優先度スコアを算出する処理(ステップS57)であって、対話生成部227によって実行される。
(3-3) Priority Score Calculation Process FIG. 14 is a flowchart showing a processing procedure example of the priority score calculation process. The priority score calculation process shown in FIG. 14 is a process (step S57) for calculating a priority score indicating the priority of correction for the correction candidates of the Q & A automatically generated in step S56 of FIG. 12, and is a dialogue. It is executed by the
図14によれば、対話生成部227は、ステップS61〜S69において、回答DB228に登録されたQ&Aの分類結果(図12のステップS55)に応じて、分類結果に関する優先度を示すパラメータAfの値を設定する。Afの設定値α1〜α5は、予め設定された定数であるが、分類ごとの修正の優先度に応じた関係性を有する。具体的には、修正の優先度を、「回答誤り>回答無し>回答誤り可能性有り>同義語/言い回し不足>回答所有」とした場合には、α1>α2>α3>α4>α5の関係性を有する。
According to FIG. 14, in steps S61 to S69, the
Afが設定された後、対話生成部227は、回答DB228を参照し、回答DB228に格納されているQ&Aデータのうち、算出対象のQ&Aに対応するQ&Aの登録日時(図4の編集時間413に相当)を取得する(ステップS70)。
After the Af is set, the
次に、対話生成部227は、経過時間に関する優先度を示すパラメータTfの値を算出する(ステップS71)。具体的には、対話生成部227は、ステップS70で取得した登録日時と現在日時との差分から経過日数を算出し、経過日数に所定の係数β1を乗ずることによって、Tfの値を算出する。ここで、Tfを「経過日数×β1」で算出する理由は、過去に登録されたQ&Aであるほど(経過日数が長いほど)、案内対象の施設が変更される等の状況の変化が生じている可能性が高く、正しい回答も変化している可能性が高いため、修正の優先度を高くするべきだからである。
Next, the
次いで、対話生成部227は、質問の多重度を示すパラメータNとして、指定された検索期間において顧客から同一の質問が実施された回数を取得する(ステップS72)。上記のようにパラメータNを取得する理由は、Q&Aが何度も質問される内容であるほど、早期に回答を用意することで、ロボット10による案内サービスを効果的にすることが期待できるからである。
Next, the
そして最後に、対話生成部227は、ステップS61〜S72で算出または取得されたAf,Tf,Nを用いて、最終的な優先度スコアMfを算出する(ステップS73)。優先度スコアMfは、具体的には以下の式2によって算出される。
以上に説明したように、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいて、ユーザから指定された検索条件に該当するQ&Aに関して回答DB228へのQ&Aの修正候補の自動生成を実施し、早期に修正が必要な候補から順に、Q&A修正画面500の検索結果表示欄530に表示することができるため、人手(ユーザ)によるQ&Aのメンテナンスの効果的な実施を支援することができる。
As described above, the robot
また、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいてQ&Aの修正候補が自動生成され、ユーザの選択によって回答DB228に登録されることで、事前に想定されていなかったドメインのQ&Aを拡充することができ、対話サービスの質を向上させることができる。また、人手でメンテナンスを実施するユーザの作業負担を軽減することもできる。
Further, in the robot
また、本実施の形態に係るロボットの対話登録システム1は、図13の判定マトリクス440を参照しながら説明したように、修正候補作成処理においてQ&Aの分類先が「同義語/言い回し不足」のカテゴリであるときは、顧客による質問Q1と回答DB228に登録されている回答A2とを用いてQ&Aの修正候補を自動生成することで、人によって言い回しが異なる等の属人性の問題を解消することができる。また、Q&Aの修正候補の生成で、顧客による質問Q1やオペレータによる回答A1といった音声認識結果を用いる場合には、フィラー除去や形態素解析を用いた整形を行うことによって、生成するQ&Aから更に属人性を排除することができる。この結果、人手によるメンテナンスにおいてユーザ負担を軽減する効果に期待できる。
Further, in the robot
また、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいて、Q&A修正画面500の検索結果表示欄530に表示されたQ&Aの修正候補のうち、ユーザが除外チェックボックス536をチェックしたQ&Aについては、以降の検索対象から除外することができる。これにより、以降の人手によるメンテナンスにおいて、修正不要なQ&Aの修正候補が表示されることがなくなり、ユーザによるメンテナンスの効率化を図ることができる。
Further, in the robot
なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。例えば、上記の実施の形態では、ロボットの対話登録システム1は、ロボット10、ロボット制御装置20、及び操作端末30から構成されるとして説明したが、本発明に係るロボットの対話登録システムの構成はこれに限定されるものではなく、ロボット制御装置20が、操作端末30に代えてユーザに表示する機能やユーザからの入力を受ける機能を備えたり、ロボット10にロボット制御装置20及び操作端末30の機能を搭載したりする等、ロボットの対話登録システムの主要な構成が1または2の装置にまとめられてもよい。
The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the embodiment with another configuration. For example, in the above embodiment, the robot
また、本発明を適用可能なシーンやシチュエーションも、上記した実施の形態に限定されるものではない。例えば、上記の実施の形態では、人(顧客)と人(オペレータ)との対話をロボット10が翻訳によって支援する翻訳サービスのシチュエーションで対話登録システム1の説明を行ったが、本発明はこれに限定されるものではなく、コールセンタ等における顧客とオペレータによる案内サービスの音声認識結果に基づいて、併用するチャットボットのQ&Aを成長させる等、その他のシーンにも適用可能である。なお、上記コールセンタのシチュエーションに適用する場合には、電話の発信元が顧客であり、電話の受信先がオペレータになるため、図6のステップS15に示した顧客を識別する処理は実行不要となる。
Further, the scenes and situations to which the present invention can be applied are not limited to the above-described embodiments. For example, in the above embodiment, the
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
また、図面において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実施には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, in the drawings, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines are necessarily shown in the product. In practice it may be considered that almost all configurations are interconnected.
1 対話登録システム
10 ロボット
20 ロボット制御装置
30 操作端末
110,210,310 CPU
120,220,320 記憶装置
121 駆動制御部
122 対話制御部
123 入出力部
130,330 入出力装置
131 カメラ
132 マイクロフォン
133 ジャイロセンサ
134 測域センサ
135 スピーカ
136 駆動機構
140,240,340 通信インタフェース
221 音声認識部
222 画像認識部
223 サービス制御部
224 対話制御部
225 翻訳制御部
226 画面生成部
227 対話生成部
228 回答DB
229 対話ログDB
230 除外候補DB
321 ブラウザ
322 入出力部
331 ディスプレイ
332 キーボード
333 マウス
410 Q&Aデータ
420,430 対話ログデータ
440 判定マトリクス
500 Q&A修正画面
510 検索条件入力欄
520 検索ボタン
530 検索結果表示欄
540 一括反映ボタン
1
120, 220, 320
229 Dialogue log DB
230 Exclusion candidate DB
321
Claims (7)
人と人との対話を音声認識する音声認識部と、
前記音声認識部による音声認識結果が対話ログとして登録される対話ログデータベースと、
前記質問と、当該質問に対する前記回答との組合せが対話例として予め登録された回答データベースと、
前記対話ログデータベースに登録された前記対話ログ及び前記回答データベースに登録された前記対話例に基づいて前記対話例の適切性を判定し、判定結果に応じたルールで前記対話例の修正候補を生成する対話生成部と、
前記対話生成部により生成された前記修正候補が掲載された前記対話例修正画面を生成する画面生成部と
を備え、
前記対話生成部は、
前記対話例修正画面上で選択された前記修正候補を前記回答データベースに登録する
ことを特徴とするロボットの対話登録システム。 A registration system that registers answers to customer questions by robots that provide dialogue services.
A voice recognition unit that recognizes human-to-human dialogue,
A dialogue log database in which the voice recognition result by the voice recognition unit is registered as a dialogue log, and
An answer database in which a combination of the question and the answer to the question is registered in advance as an example of dialogue,
The appropriateness of the dialogue example is determined based on the dialogue log registered in the dialogue log database and the dialogue example registered in the response database, and correction candidates of the dialogue example are generated according to the rules according to the determination result. Dialog generator and
A screen generation unit for generating the dialogue example correction screen on which the correction candidates generated by the dialogue generation unit are posted is provided.
The dialogue generation unit
The dialogue example A robot dialogue registration system characterized in that the correction candidates selected on the correction screen are registered in the answer database.
前記対話ログにおける前記質問及び前記対話例における前記質問の一致度と、当該対話ログにおける前記回答及び前記対話例における前記回答との一致度とに基づいて前記対話例を前記適切性に応じたカテゴリに分類し、
生成した前記修正候補のそれぞれについて、対応する前記対話例の分類先の前記カテゴリと、当該対話例が前記回答データベースに登録されてからの経過時間と、当該対話例における前記質問が前記顧客からされた回数とに基づいて、修正の優先度を算出し、
算出した前記優先度に応じた順番で各前記修正候補を前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。 The dialogue generation unit
A category according to the appropriateness of the dialogue example based on the degree of agreement between the question in the dialogue log and the question in the dialogue example and the degree of agreement between the answer in the dialogue log and the answer in the dialogue example. Classified into
For each of the generated modification candidates, the category to which the corresponding dialogue example is classified, the elapsed time since the dialogue example was registered in the answer database, and the question in the dialogue example are asked by the customer. Calculate the modification priority based on the number of times
The robot dialogue registration system according to claim 1, wherein each of the correction candidates is posted on the dialogue example correction screen in an order according to the calculated priority.
人と人との対話の音声データから質問及び回答を識別してそれぞれテキストに変換し、変換した前記テキストに対してフィラーの除去又は形態素解析を実施して前記テキストを整形する
ことを特徴とする請求項1に記載のロボットの対話登録システム。 The voice recognition unit
It is characterized in that questions and answers are identified from voice data of human-to-human dialogue, converted into texts, and the converted texts are shaped by removing fillers or performing morphological analysis. The robot dialogue registration system according to claim 1.
前記修正候補を生成する際、前記ルールに従って前記対話ログの回答から前記修正候補の回答を生成する場合には、前記対話ログの回答に所定の整形処理を実施したものを前記修正候補の回答とし、
前記画面生成部は、
前記整形処理の前後の回答の表示を含む態様で、前記修正候補が掲載された前記Q&A修正画面を生成する
ことを特徴とする請求項1に記載のロボットの対話登録システム。 The dialogue generation unit
When generating the correction candidate, when the answer of the correction candidate is generated from the answer of the dialogue log according to the rule, the answer of the dialogue log obtained by performing a predetermined shaping process is regarded as the answer of the correction candidate. ,
The screen generator
The robot dialogue registration system according to claim 1, wherein the Q & A correction screen on which the correction candidates are posted is generated in a mode including display of answers before and after the shaping process.
前記対話ログにおける前記質問及び前記対話例における前記質問の一致度と、当該対話ログにおける前記回答及び当該対話例における前記回答との一致度とに基づいて、当該対話例を前記適切性に応じたカテゴリに分類し、
前記画面生成部は、
各前記修正候補の分類先の前記カテゴリを当該前記修正候補と対応付けて前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。 The dialogue generation unit
Based on the degree of agreement between the question in the dialogue log and the question in the dialogue example, and the degree of agreement between the answer in the dialogue log and the answer in the dialogue example, the dialogue example was adapted to the appropriateness. Categorize and
The screen generator
The robot dialogue registration system according to claim 1, wherein the category of the classification destination of each of the modification candidates is associated with the modification candidate and posted on the dialogue example modification screen.
前記対話生成部は、
同一の言語に統一された前記対話ログ及び前記対話例に基づいて前記修正候補を生成し、
前記画面生成部は、
統一された前記言語の前記修正候補を前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。 When the dialogue is performed in a different language, the voice recognition result of the dialogue is translated by the voice recognition unit to unify the language, and the translation result is stored in the dialogue log database as the dialogue log. With a translation control unit
The dialogue generation unit
The correction candidate is generated based on the dialogue log and the dialogue example unified in the same language.
The screen generator
The robot dialogue registration system according to claim 1, wherein the correction candidate of the unified language is posted on the dialogue example correction screen.
前記対話生成部は、
前記対話例修正画面において編集された前記修正候補が選択された場合に、編集後の当該修正候補を前記回答データベースに登録する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The user can edit the correction candidate displayed on the dialogue example correction screen on the dialogue example correction screen.
The dialogue generation unit
The robot dialogue registration system according to claim 1, wherein when the edited modification candidate is selected on the dialogue example modification screen, the edited modification candidate is registered in the answer database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112372A JP2020204711A (en) | 2019-06-17 | 2019-06-17 | Registration system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019112372A JP2020204711A (en) | 2019-06-17 | 2019-06-17 | Registration system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020204711A true JP2020204711A (en) | 2020-12-24 |
Family
ID=73837958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019112372A Pending JP2020204711A (en) | 2019-06-17 | 2019-06-17 | Registration system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020204711A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022107933A (en) * | 2021-01-12 | 2022-07-25 | 智久 末重 | dialogue system |
JP7289169B1 (en) | 2022-12-22 | 2023-06-09 | アンカーデザイン株式会社 | Information processing device, method, program, and system |
-
2019
- 2019-06-17 JP JP2019112372A patent/JP2020204711A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022107933A (en) * | 2021-01-12 | 2022-07-25 | 智久 末重 | dialogue system |
JP7339615B2 (en) | 2021-01-12 | 2023-09-06 | 智久 末重 | dialogue system |
JP7289169B1 (en) | 2022-12-22 | 2023-06-09 | アンカーデザイン株式会社 | Information processing device, method, program, and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10319381B2 (en) | Iteratively updating parameters for dialog states | |
US11380327B2 (en) | Speech communication system and method with human-machine coordination | |
US8515736B1 (en) | Training call routing applications by reusing semantically-labeled data collected for prior applications | |
KR100563365B1 (en) | Hierarchical Language Model | |
US10771627B2 (en) | Personalized support routing based on paralinguistic information | |
JP4880258B2 (en) | Method and apparatus for natural language call routing using reliability scores | |
US20190332680A1 (en) | Multi-lingual virtual personal assistant | |
CN1310207C (en) | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input | |
JP4510953B2 (en) | Non-interactive enrollment in speech recognition | |
US6839667B2 (en) | Method of speech recognition by presenting N-best word candidates | |
US20150288818A1 (en) | Method and apparatus for predicting intent in ivr using natural language queries | |
US20130166279A1 (en) | System and method for recognizing a user voice command in noisy environment | |
JP2001506382A (en) | Pattern recognition registration in distributed systems | |
JP2019053126A (en) | Growth type interactive device | |
US20200066259A1 (en) | Intelligence-driven virtual assistant for automated idea documentation | |
CN110415679B (en) | Voice error correction method, device, equipment and storage medium | |
CN108305618B (en) | Voice acquisition and search method, intelligent pen, search terminal and storage medium | |
CN104299623A (en) | Automated confirmation and disambiguation modules in voice applications | |
JP7107229B2 (en) | Information processing device, information processing method, and program | |
Granell et al. | Multimodal crowdsourcing for transcribing handwritten documents | |
KR20220081120A (en) | Artificial intelligence call center system and method for providing system-based service | |
JP2020204711A (en) | Registration system | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
JP5844375B2 (en) | Object search system and object search method | |
KR20180121120A (en) | A machine learning based voice ordering system that can combine voice, text, visual interfaces to purchase products through mobile divices |