JP2020204711A - Registration system - Google Patents

Registration system Download PDF

Info

Publication number
JP2020204711A
JP2020204711A JP2019112372A JP2019112372A JP2020204711A JP 2020204711 A JP2020204711 A JP 2020204711A JP 2019112372 A JP2019112372 A JP 2019112372A JP 2019112372 A JP2019112372 A JP 2019112372A JP 2020204711 A JP2020204711 A JP 2020204711A
Authority
JP
Japan
Prior art keywords
dialogue
answer
robot
correction
log
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019112372A
Other languages
Japanese (ja)
Inventor
辰徳 大原
Tatsunori Ohara
辰徳 大原
匡平 本村
Kyohei MOTOMURA
匡平 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Building Systems Co Ltd filed Critical Hitachi Ltd
Priority to JP2019112372A priority Critical patent/JP2020204711A/en
Publication of JP2020204711A publication Critical patent/JP2020204711A/en
Pending legal-status Critical Current

Links

Images

Abstract

To effectively maintain, by persons, details of answers to questions from customers by a robot which provides interactive service.SOLUTION: The present invention relates to a registration system which registers answers to questions from customers by a robot which provides interactive service, and a robot control device includes: a speech recognition part which recognizes speeches of an interaction between persons; an interaction log database in which speech recognition results by the speech recognition part are registered as an interaction log; an answer database in which combinations of questions and answers to the questions are registered as interaction examples in advance; an interaction generation part which determines propriety of the interaction examples based upon the interaction log registered in the interaction log database and the interaction examples registered in the answer database, and generates correction candidates for interaction examples according to a rule based upon the determination results; and a screen generation part which generates an interaction example correction screen where the correction candidates generated by the interaction generation part are represented. The interaction generation part registers correction candidates selected on the interaction example correction screen in the answer database.SELECTED DRAWING: Figure 3

Description

本発明は、登録システムに関し、対話サービスを提供するロボットによる顧客からの質問に対する回答を登録する登録システムに適用して好適なものである。 The present invention relates to a registration system, and is suitable for application to a registration system for registering answers to questions from customers by a robot that provides an interactive service.

近年、ロボットにおける音声認識、対話、及び翻訳の機能等が向上し、かつ、ロボットのコスト低減が進んでいる。このため、各種店舗や施設等において人との対話サービスを提供する用途でロボットが使用される機会が増加している。対話サービスには、具体的には例えば、通行人や来客等の案内対象者(顧客)に対して音声で案内を行う案内サービス、人と人との仲介として翻訳を実施する翻訳サービス、あるいは、電話での自動音声による応答サービス等がある。 In recent years, the functions of voice recognition, dialogue, and translation in robots have been improved, and the cost of robots has been reduced. For this reason, there are increasing opportunities for robots to be used in various stores and facilities to provide dialogue services with humans. Specifically, the dialogue service includes a guidance service that provides voice guidance to a person (customer) to be guided such as a passerby or a visitor, a translation service that performs translation as an intermediary between people, or a translation service. There is an automatic voice response service over the phone.

対話サービスを提供するロボットに質問への回答を実施させるためには、想定される質問(Q)と回答(A)との組み合わせである対話例(以下、これをQ&A(Question And Answer)と呼ぶ)をロボットにティーチングして、内部の回答データベース(以下、データベースをDBと略記する)に記録(登録)する必要がある。ロボットは、顧客の音声認識結果を基に、回答DBに登録されている質問を検索し、一致率が高い質問に紐付けられた回答を選び、選んだ回答のテキストを音声ファイルにしてスピーカから出力することで、対話の回答を行うことができる。一般に、回答DBへのQ&Aの登録は、ロボットを設置する前に、管理者等のユーザがロボットの役割や設置場所等に応じて想定質問を検討した上で、Q&Aリストを作成して回答DBにインポートする等によって実現される。 In order for the robot that provides the dialogue service to answer the question, an example of dialogue that is a combination of the assumed question (Q) and answer (A) (hereinafter referred to as Q & A (Question And Answer)). ) To the robot and record (register) it in the internal response database (hereinafter, the database is abbreviated as DB). The robot searches the questions registered in the answer DB based on the customer's voice recognition result, selects the answer associated with the question with a high match rate, converts the text of the selected answer into a voice file, and uses the speaker. By outputting, it is possible to answer the dialogue. Generally, when registering Q & A in the answer DB, before installing the robot, a user such as an administrator considers the assumed questions according to the role of the robot, the installation location, etc., and then creates a Q & A list to create the answer DB. It is realized by importing to.

なお、運用中のロボットが適切に役務を果たすためには、質問に対して適切な回答が実施できる必要がある。例えば、事前に作成された想定質問と顧客の質問とがマッチしない場合にはロボットは適切な回答ができない。このため、顧客の質問とロボットの回答結果をログとして集約して分析することにより、どのような質問や回答が不足しているかが分かり、Q&Aリストの拡充を行うことができる。 In addition, in order for the robot in operation to properly perform its duties, it is necessary to be able to provide appropriate answers to the questions. For example, if the presumed question created in advance and the customer's question do not match, the robot cannot give an appropriate answer. Therefore, by aggregating and analyzing customer questions and robot answer results as a log, it is possible to find out what kind of questions and answers are lacking and expand the Q & A list.

例えば特許文献1には、回答DBに登録するQ&Aリストを自動で拡充することができるシステムが開示されている。具体的には、特許文献1に開示されたシステムは、人と人との対話のログを集約し、対話ログの中の音声認識結果が質問か応答かを質問テンプレートと応答テンプレートとのマッチングにより判断し、質問と応答の組み合わせを回答DBに登録し、ロボットが回答するときは、回答DBに登録したQ&Aのうちから最も近い回答を出力する。 For example, Patent Document 1 discloses a system that can automatically expand the Q & A list registered in the response DB. Specifically, the system disclosed in Patent Document 1 aggregates logs of dialogues between people, and matches a question template with a response template to determine whether the speech recognition result in the dialogue log is a question or a response. Judgment is made, the combination of question and response is registered in the answer DB, and when the robot answers, the closest answer from the Q & A registered in the answer DB is output.

また、対話サービスを提供するロボットによって実施可能な別のサービスとして、顧客とオペレータとの対話の補助が挙げられる。すなわち、ロボットによって十分な案内ができないときに、オペレータによって適切な案内が実施される場合があり、このような場合にロボットは、顧客とオペレータとの補助役に役割を変えて、対話を翻訳することで、オペレータを支援することができる。 Another service that can be performed by a robot that provides a dialogue service is assisting the dialogue between the customer and the operator. That is, when the robot cannot provide sufficient guidance, the operator may provide appropriate guidance. In such a case, the robot changes its role as an assistant between the customer and the operator and translates the dialogue. By doing so, the operator can be assisted.

特開2000−339314号公報Japanese Unexamined Patent Publication No. 2000-339314

ところで、ロボットが提供する対話サービスでは、状況の変化によって適切な回答が変わる可能性があるため、回答DBに登録されるQ&Aが適切であるかを、管理者等のユーザが確認し精査するといった人手によるメンテナンスの工程が必要とされる。例えば、ロボットの設置場所が変更されるといった時間的な変化があった場合には、それまでの回答では正しい案内ができなくなることがあり、人手で新たな回答を登録する必要があった。また例えば、ロボットが顧客とオペレータとの対話を補助する際、本来は回答側であるオペレータの発話に顧客の意図確認のための質問が含まれ得るといったように、人と人との対話のなかで発生した音声が質問であるか回答であるかは、話者の役割によっても異なるため判断が難しく、回答DBへの登録内容を人手によって精査する必要があった。さらに、人と人との対話では、話者ごとに異なる話し言葉の特性が含まれるため、個人による回答のバラつきが発生するという問題もあり、属人性を排除するためには人手によるメンテナンスを行うことが好ましかった。 By the way, in the dialogue service provided by the robot, the appropriate answer may change due to changes in the situation, so the user such as the administrator confirms and scrutinizes whether the Q & A registered in the answer DB is appropriate. A manual maintenance process is required. For example, if there is a time change such as a change in the installation location of the robot, it may not be possible to provide correct guidance with the previous answers, and it was necessary to manually register a new answer. Also, for example, when a robot assists a dialogue between a customer and an operator, the utterance of the operator, who is originally the respondent, may include a question for confirming the customer's intention. It is difficult to judge whether the voice generated in the above is a question or an answer because it depends on the role of the speaker, and it is necessary to manually examine the contents registered in the answer DB. Furthermore, since dialogue between people includes different characteristics of spoken language for each speaker, there is also the problem that individual answers vary, so manual maintenance is required to eliminate personality. Was preferred.

しかしながら、特許文献1に開示されたシステムの場合、応答内容の適切さを判断することなく、集約した対話のログに基づいて単純にQ&Aが回答DBに蓄積されていくため、適切でないQ&Aも多く登録されることになり、人手によるQ&Aのメンテナンスに手間が掛かる等、効果的なメンテナンスの実施を困難にするという課題があった。 However, in the case of the system disclosed in Patent Document 1, since Q & A is simply accumulated in the response DB based on the aggregated dialogue log without judging the appropriateness of the response content, there are many inappropriate Q & A. Since it will be registered, there is a problem that it is difficult to carry out effective maintenance, such as the time and effort required for manual Q & A maintenance.

本発明は以上の点を考慮してなされたもので、対話サービスを提供するロボットによる顧客からの質問に対する回答内容の人手によるメンテナンスの効果的な実施を支援することができる登録システムを提案しようとするものである。 The present invention has been made in consideration of the above points, and an attempt is made to propose a registration system that can support effective manual maintenance of the contents of answers to questions from customers by a robot that provides a dialogue service. Is what you do.

かかる課題を解決するため本発明においては、対話サービスを提供するロボットによる顧客からの質問に対する回答を登録する登録システムであって、人と人との対話を音声認識する音声認識部と、前記音声認識部による音声認識結果が対話ログとして登録される対話ログデータベースと、前記質問と、当該質問に対する前記回答との組合せが対話例として予め登録された回答データベースと、前記対話ログデータベースに登録された前記対話ログ及び前記回答データベースに登録された前記対話例に基づいて前記対話例の適切性を判定し、判定結果に応じたルールで前記対話例の修正候補を生成する対話生成部と、前記対話生成部により生成された前記修正候補が掲載された前記対話例修正画面を生成する画面生成部とを設け、前記対話生成部が、前記対話例修正画面上で選択された前記修正候補を前記回答データベースに登録するようにした。 In order to solve such a problem, the present invention is a registration system for registering answers to questions from customers by a robot that provides a dialogue service, a voice recognition unit that recognizes a dialogue between people by voice, and the voice. The dialogue log database in which the voice recognition result by the recognition unit is registered as a dialogue log, the answer database in which the combination of the question and the answer to the question is registered in advance as a dialogue example, and the dialogue log database are registered. A dialogue generation unit that determines the appropriateness of the dialogue example based on the dialogue log and the dialogue example registered in the response database, and generates correction candidates for the dialogue example according to a rule according to the determination result, and the dialogue. A screen generation unit for generating the dialogue example correction screen on which the correction candidate generated by the generation unit is posted is provided, and the dialogue generation unit responds to the correction candidate selected on the dialogue example correction screen. Changed to register in the database.

本発明によれば、対話サービスを提供するロボットによる顧客からの質問に対する回答内容の人手によるメンテナンスの効果的な実施を支援することができる。 According to the present invention, it is possible to support the effective implementation of manual maintenance of the contents of answers to questions from customers by a robot that provides a dialogue service.

本発明の一実施の形態に係るロボットの対話登録システムの全体構成例を示すブロック図である。It is a block diagram which shows the whole structure example of the dialogue registration system of the robot which concerns on one Embodiment of this invention. 図1に示したロボットの制御系の構成例を示すブロック図である。It is a block diagram which shows the structural example of the control system of the robot shown in FIG. 図1に示したロボット制御装置の制御系の構成例を示すブロック図である。It is a block diagram which shows the structural example of the control system of the robot control apparatus shown in FIG. Q&Aデータの一例を説明するための図である。It is a figure for demonstrating an example of Q & A data. 図1に示した操作端末の制御系の構成例を示すブロック図である。It is a block diagram which shows the structural example of the control system of the operation terminal shown in FIG. サービスモード決定処理の処理手順例を示すフローチャートである。It is a flowchart which shows the processing procedure example of the service mode determination processing. 直接対話処理の処理手順例を示すフローチャートである。It is a flowchart which shows the processing procedure example of the direct dialogue processing. 対話仲介処理の処理手順例を示すフローチャートである。It is a flowchart which shows the processing procedure example of the dialogue mediation processing. 対話ログデータの一例を説明するための図である。It is a figure for demonstrating an example of a dialogue log data. Q&A修正画面の具体例を示す図である。It is a figure which shows the specific example of the Q & A correction screen. Q&Aのメンテナンスにおける人手による操作手順例を示すフローチャートである。It is a flowchart which shows an example of a manual operation procedure in maintenance of Q & A. 修正候補作成処理の処理手順例を示すフローチャートである。It is a flowchart which shows the processing procedure example of the correction candidate creation processing. 分類の判定基準とQ&Aの自動生成ルールを定めた判定マトリクスを示す図である。It is a figure which shows the judgment matrix which defined the judgment standard of classification and the automatic generation rule of Q & A. 優先度スコア算出処理の処理手順例を示すフローチャートである。It is a flowchart which shows the processing procedure example of the priority score calculation process.

以下、本発明の一実施形態に係るロボットの対話登録システムの一例を、図面を参照しながら説明するが、本発明は下記の例に限定されない。 Hereinafter, an example of the robot dialogue registration system according to the embodiment of the present invention will be described with reference to the drawings, but the present invention is not limited to the following examples.

(1)ロボットの対話登録システム1の構成例
図1は、本発明の一実施の形態に係るロボットの対話登録システムの全体構成例を示すブロック図である。図1に示すように、ロボットの対話登録システム1は、ロボット10、ロボット制御装置20、及び操作端末30を備える。ロボット10とロボット制御装置20との間、及びロボット制御装置20と操作端末30との間は、有線LAN(Local Area Network)もしくは無線LAN等の通信網により接続される。
(1) Configuration Example of Robot Dialogue Registration System 1 FIG. 1 is a block diagram showing an overall configuration example of a robot dialogue registration system according to an embodiment of the present invention. As shown in FIG. 1, the robot dialogue registration system 1 includes a robot 10, a robot control device 20, and an operation terminal 30. The robot 10 and the robot control device 20 and the robot control device 20 and the operation terminal 30 are connected by a communication network such as a wired LAN (Local Area Network) or a wireless LAN.

ロボット10は、自律移動可能な案内ロボットであり、導入先の施設内の所定の範囲、例えば、ロボット10が設置されるフロア内を移動可能である。そしてロボット10は、施設内の通行人や来客等の案内対象者(顧客)に対して、音声で案内を行うサービスや、走行、ジェスチャー等の動作によって顧客を所定の場所まで案内するサービス等を提供する。本実施の形態では、ロボット10が提供可能な対話サービスとして、顧客と対話しながら案内を行う「案内サービス」と、顧客とオペレータとの対話を翻訳によって支援する「翻訳サービス」とを挙げて説明する。 The robot 10 is a guide robot that can move autonomously, and can move within a predetermined range in the facility where the robot 10 is introduced, for example, in the floor where the robot 10 is installed. Then, the robot 10 provides a service of providing voice guidance to a guide target person (customer) such as a passerby or a visitor in the facility, a service of guiding the customer to a predetermined place by an action such as running or a gesture, and the like. provide. In the present embodiment, as the dialogue service that can be provided by the robot 10, a "guidance service" that provides guidance while interacting with the customer and a "translation service" that supports the dialogue between the customer and the operator by translation are described. To do.

ロボット10は、内部に備えたセンサ(後述するカメラ131やマイクロフォン132等)で検出したセンサデータをロボット制御装置20に転送し、ロボット制御装置20は、受信したセンサデータの内容に応じて、人への案内動作をロボット10に対して指示する。そして、指示を受けたロボット10は、指示内容を出力デバイスを通じて発話、モーション、または移動等の動作を実施することで、回答及び案内を行う。 The robot 10 transfers sensor data detected by an internal sensor (camera 131, microphone 132, etc., which will be described later) to the robot control device 20, and the robot control device 20 transfers a person according to the content of the received sensor data. The robot 10 is instructed to guide the robot 10. Then, the robot 10 that has received the instruction gives an answer and guidance by performing an operation such as utterance, motion, or movement through the output device.

ロボット制御装置20は、ロボット10から受信したセンサデータをもとに、接客ログを作成して保持する。特に、人と人との間の音声対話の識別結果(音声認識結果)については、接客ログの一例として対話ログとして保持する(後述する対話ログDB229)。また、ロボット制御装置20は、対話ログをもとにQ&A修正画面(後述するQ&A修正画面500)を作成する。 The robot control device 20 creates and holds a customer service log based on the sensor data received from the robot 10. In particular, the identification result (voice recognition result) of the voice dialogue between people is held as a dialogue log as an example of the customer service log (dialogue log DB229 described later). Further, the robot control device 20 creates a Q & A correction screen (Q & A correction screen 500 described later) based on the dialogue log.

操作端末30は、ロボット制御装置20が提供するQ&A修正画面にアクセスし、Q&A修正候補の検索、編集、及び登録を行うことができる。 The operation terminal 30 can access the Q & A correction screen provided by the robot control device 20 to search, edit, and register the Q & A correction candidate.

(1−1)ロボット10の内部構成例
図2は、図1に示したロボットの制御系の構成例を示すブロック図である。図2に示すように、ロボット10は、CPU(central processing unit)110と、CPU110の制御に基づいて各種処理が実行される記憶装置120、入出力装置130及び通信インタフェース140と、を備える。
(1-1) Example of Internal Configuration of Robot 10 FIG. 2 is a block diagram showing a configuration example of the control system of the robot shown in FIG. As shown in FIG. 2, the robot 10 includes a CPU (central processing unit) 110, a storage device 120 for executing various processes under the control of the CPU 110, an input / output device 130, and a communication interface 140.

CPU110は、プロセッサの一例であって、記憶装置120に格納されたプログラムを読み出して実行することにより、例えば、記憶装置120内に示された各機能部(駆動制御部121,対話制御部122,入出力部123)の機能を実現する。 The CPU 110 is an example of a processor, and by reading and executing a program stored in the storage device 120, for example, each functional unit (drive control unit 121, dialogue control unit 122, The function of the input / output unit 123) is realized.

記憶装置120は、プログラムやデータを格納する記憶装置であって、RAM(Random Access Memory)等の主記憶装置や、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の補助記憶装置で構成される。図2には、記憶装置120の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、駆動制御部121、対話制御部122、及び入出力部123が示されている。 The storage device 120 is a storage device for storing programs and data, and is composed of a main storage device such as a RAM (Random Access Memory) and an auxiliary storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive). Will be done. FIG. 2 shows a drive control unit 121, an interactive control unit 122, and an input / output unit 123 as an example of a functional configuration in which a function is realized by executing a program stored in the main storage device of the storage device 120. There is.

駆動制御部121は、ロボット10を自律移動させる際の駆動制御を行う。具体的には例えば、駆動制御部121は、ロボット10が自律移動する際に、ロボット10のカメラ131が撮影した映像や、測域センサ134が光波によって検出した自身の位置等に基づいて、ロボット10の周囲の状況を判断する。そして、駆動制御部121は、判断した内容、及び予め設定された顧客との距離に関するデータ等に基づいて、人や壁等の障害物を避けながらロボット10を自律移動させる。また、駆動制御部121は、ジャイロセンサ133の検出値に基づいてロボット10の機体の傾きを検知し、ロボット10が倒れずに自律移動するための制御を行う。ロボット10の移動中に、カメラ131及び/又は測域センサ134から得た情報に基づいて障害物が検知された場合には、駆動制御部121は、ロボット10の移動を停止させるか、障害物を回避するようにロボット10の動作を制御する。 The drive control unit 121 performs drive control when the robot 10 is autonomously moved. Specifically, for example, the drive control unit 121 is a robot based on an image taken by the camera 131 of the robot 10 when the robot 10 moves autonomously, a position of itself detected by the range sensor 134 by a light wave, and the like. Judge the surrounding situation of 10. Then, the drive control unit 121 autonomously moves the robot 10 while avoiding obstacles such as people and walls, based on the determined contents and preset data regarding the distance to the customer. Further, the drive control unit 121 detects the inclination of the robot 10 based on the detection value of the gyro sensor 133, and controls the robot 10 to move autonomously without falling. If an obstacle is detected based on the information obtained from the camera 131 and / or the range sensor 134 while the robot 10 is moving, the drive control unit 121 stops the movement of the robot 10 or the obstacle. The operation of the robot 10 is controlled so as to avoid the above.

本実施の形態では、ロボット10が移動できる移動可能範囲は、予め決められた所定の範囲内(例えば、施設内)に制限される。つまり、駆動制御部121が判断するロボット10の現在位置は、その移動可能範囲内での位置に留まる。 In the present embodiment, the movable range in which the robot 10 can move is limited to a predetermined range (for example, in a facility) determined in advance. That is, the current position of the robot 10 determined by the drive control unit 121 remains within the movable range.

対話制御部122は、ロボット制御装置20による指示を受けて、入出力装置130が備えるマイクロフォン132及びスピーカ135を用いて、顧客又はオペレータとの対話動作を、音声を介して行わせる。 In response to an instruction from the robot control device 20, the dialogue control unit 122 causes the input / output device 130 to perform a dialogue operation with a customer or an operator via voice by using the microphone 132 and the speaker 135.

入出力部123は、入出力装置130との間で行われる各種データの入出力動作を実行する他、通信インタフェース140を介してロボット制御装置20との間で行われる各種データの入出力動作を実行する。 The input / output unit 123 executes various data input / output operations performed with the input / output device 130, and also performs various data input / output operations performed with the robot control device 20 via the communication interface 140. Execute.

入出力装置130は、カメラ131、マイクロフォン132、ジャイロセンサ133、測域センサ134、スピーカ135、及び駆動機構136を備える。 The input / output device 130 includes a camera 131, a microphone 132, a gyro sensor 133, a range sensor 134, a speaker 135, and a drive mechanism 136.

カメラ131は、案内対象者(顧客)を撮影することにより、顧客の顔等の画像情報を取得する。マイクロフォン132(入力手段の一例であって、音声情報を取得可能な他の集音機器であってもよい)は、顧客やオペレータから発生された音声に関する情報である音声情報を取得する。カメラ131で取得された画像情報やマイクロフォン132で取得された音声情報等の各種データは、通信インタフェース140を経由してロボット制御装置20に送信される。 The camera 131 acquires image information such as the face of the customer by photographing the person to be guided (customer). The microphone 132 (an example of the input means, which may be another sound collecting device capable of acquiring voice information) acquires voice information which is information related to voice generated from a customer or an operator. Various data such as image information acquired by the camera 131 and voice information acquired by the microphone 132 are transmitted to the robot control device 20 via the communication interface 140.

ジャイロセンサ133は、ロボット10に加わる角加速度に基づいてロボット10の傾き等を検出する。ジャイロセンサ133は、検出した傾き角を、通信インタフェース140を経由してロボット制御装置20に送信する。 The gyro sensor 133 detects the inclination of the robot 10 and the like based on the angular acceleration applied to the robot 10. The gyro sensor 133 transmits the detected tilt angle to the robot control device 20 via the communication interface 140.

測域センサ134は、光波を用いた距離測定に基づいて、ロボット10の位置を特定するとともに、ロボット10の周囲環境を検知するセンサである。測域センサ134は、ロボット10の位置、及び障害物等を含む周囲の空間形状を計測する。測域センサ134は、計測によって得たデータを、通信インタフェース140を経由してロボット制御装置20に送信する。 The range sensor 134 is a sensor that identifies the position of the robot 10 and detects the surrounding environment of the robot 10 based on the distance measurement using light waves. The range sensor 134 measures the position of the robot 10 and the shape of the surrounding space including obstacles and the like. The range sensor 134 transmits the data obtained by the measurement to the robot control device 20 via the communication interface 140.

スピーカ135は、対話制御部122で生成された、ロボット10が施設内を案内するために必要な対話用の音声を、外部に出力する。 The speaker 135 outputs the dialogue voice generated by the dialogue control unit 122, which is necessary for the robot 10 to guide the inside of the facility, to the outside.

駆動機構136は、駆動制御部121からの指示に基づいてロボット10を移動させる機構である。例えばロボット10が、車輪により移動可能な形態である場合には、駆動機構136は、ロボット10に設けられた車輪を駆動させるモータである。例えばロボット10が、二足歩行が可能な人型の形態である場合には、駆動機構136は、ロボット10に設けられた足に相当する部材を駆動するアクチュエータである。 The drive mechanism 136 is a mechanism for moving the robot 10 based on an instruction from the drive control unit 121. For example, when the robot 10 is in a form movable by wheels, the drive mechanism 136 is a motor for driving the wheels provided on the robot 10. For example, when the robot 10 has a humanoid form capable of bipedal walking, the drive mechanism 136 is an actuator that drives a member corresponding to a foot provided on the robot 10.

通信インタフェース140は、ネットワークに接続するための装置であって、ロボット制御装置20の通信インタフェース240(後述の図3参照)と、ネットワークを介して接続される。 The communication interface 140 is a device for connecting to a network, and is connected to the communication interface 240 of the robot control device 20 (see FIG. 3 described later) via the network.

(1−2)ロボット制御装置20の内部構成例
図3は、図1に示したロボット制御装置の制御系の構成例を示すブロック図である。図3に示すように、ロボット制御装置20は、CPU210、記憶装置220及び通信インタフェース240を備える。
(1-2) Example of Internal Configuration of Robot Control Device 20 FIG. 3 is a block diagram showing a configuration example of a control system of the robot control device shown in FIG. As shown in FIG. 3, the robot control device 20 includes a CPU 210, a storage device 220, and a communication interface 240.

CPU210は、プロセッサの一例であって、記憶装置220に格納されたプログラムを読み出して実行することにより、例えば、図3の記憶装置220内に示された各機能部(音声認識部221,画像認識部222,サービス制御部223,対話制御部224,翻訳制御部225,画面生成部226,対話生成部227)の機能を実現する。 The CPU 210 is an example of a processor, and by reading and executing a program stored in the storage device 220, for example, each functional unit (speech recognition unit 221, image recognition) shown in the storage device 220 of FIG. 3 The functions of the unit 222, the service control unit 223, the dialogue control unit 224, the translation control unit 225, the screen generation unit 226, and the dialogue generation unit 227) are realized.

記憶装置220は、プログラムやデータを格納する記憶装置であって、RAM等の主記憶装置と、HDDやSSD等の補助記憶装置とで構成される。図3には、記憶装置220の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、音声認識部221、画像認識部222、サービス制御部223、対話制御部224、翻訳制御部225、画面生成部226、及び対話生成部227が示され、記憶装置220の補助記憶装置に格納されるデータ群の一例として、回答DB228、対話ログDB229、及び除外候補DB230が示されている。なお、図3に示した各種DBは、ネットワークを介してロボット制御装置20(通信インタフェース240)と通信可能な外部の記憶手段で実現されてもよい。 The storage device 220 is a storage device for storing programs and data, and is composed of a main storage device such as a RAM and an auxiliary storage device such as an HDD or SSD. FIG. 3 shows, as an example of the functional configuration in which the function is realized by executing the program stored in the main storage device of the storage device 220, the voice recognition unit 221 and the image recognition unit 222, the service control unit 223, and the dialogue control unit 224. , Translation control unit 225, screen generation unit 226, and dialogue generation unit 227 are shown, and answer DB228, dialogue log DB229, and exclusion candidate DB230 are shown as an example of a data group stored in the auxiliary storage device of the storage device 220. Has been done. The various DBs shown in FIG. 3 may be realized by an external storage means capable of communicating with the robot control device 20 (communication interface 240) via a network.

音声認識部221は、ロボット10から送信されて通信インタフェース240が受領した音声データに対して、音声認識を行い、話者(顧客やオペレータ)の発話言語によるテキスト(文字列)に変換するテキスト変換を実施する。以後、このテキスト変換によって生成されるテキストを「音声テキスト」と称することがある。 The voice recognition unit 221 performs voice recognition on the voice data transmitted from the robot 10 and received by the communication interface 240, and converts the voice data into text (character string) in the spoken language of the speaker (customer or operator). To carry out. Hereinafter, the text generated by this text conversion may be referred to as "speech text".

音声認識部221によるテキスト変換に用いられる言語の設定方法の一例として、顧客(案内対象者)の発話言語を設定する場合には、顧客へのサービス開始時に顧客の発話内容を受信し、その言語が予め登録された複数種類の言語の何れに最も近いかを判断することで、顧客の発話言語を特定し、設定することができる。また、別の一例として、オペレータの発話言語を設定する場合には、予めオペレータの使用言語を設定してもよいし、顧客の発話言語の設定と同様の方法を用いてもよい。 As an example of the language setting method used for text conversion by the voice recognition unit 221, when the utterance language of the customer (guidance target person) is set, the utterance content of the customer is received at the start of the service to the customer, and the language is received. By determining which of the plurality of pre-registered languages is closest to, the customer's utterance language can be specified and set. Further, as another example, when setting the utterance language of the operator, the language used by the operator may be set in advance, or the same method as the setting of the utterance language of the customer may be used.

なお、音声認識部221は、音声データの音声特徴量を分析し、音声特徴量が予め登録されている特徴量と一致するかを判断することにより、話者が顧客であるかオペレータであるかを識別することができる。 The voice recognition unit 221 analyzes the voice feature amount of the voice data and determines whether the voice feature amount matches the feature amount registered in advance, so that the speaker is a customer or an operator. Can be identified.

画像認識部222は、ロボット10から送信されて通信インタフェース240が受領した画像データを基に、顔特徴を有した分類器によって人物検知を実施する。画像認識部222は、顔の特徴量が予め登録されている特徴量と一致するか判断することによって、話者が顧客であるかオペレータであるかを識別することができる。 The image recognition unit 222 performs person detection by a classifier having facial features based on the image data transmitted from the robot 10 and received by the communication interface 240. The image recognition unit 222 can identify whether the speaker is a customer or an operator by determining whether the feature amount of the face matches the feature amount registered in advance.

サービス制御部223は、音声認識部221が検出した音声テキストや、画像認識部222が検出した人物検知結果に応じて、ロボット10への接客動作の指示、対話制御部224への直接対話の指示、または翻訳制御部225への対話仲介の指示等を実施する。 The service control unit 223 instructs the robot 10 to serve customers and directs dialogue to the dialogue control unit 224 according to the voice text detected by the voice recognition unit 221 and the person detection result detected by the image recognition unit 222. , Or an instruction to mediate dialogue to the translation control unit 225.

サービス制御部223は、ロボット制御装置20が内部状態として持つ「サービスモード」を判断及び設定することができる。サービス制御部223によってサービスモードが所定のモードに設定されることにより、ロボット制御装置20はロボット10を当該モードに基づいて制御し、ロボット10は当該モードに応じたサービスを顧客に提供することができる。 The service control unit 223 can determine and set the "service mode" that the robot control device 20 has as an internal state. When the service mode is set to a predetermined mode by the service control unit 223, the robot control device 20 controls the robot 10 based on the mode, and the robot 10 can provide a service according to the mode to the customer. it can.

本実施の形態では、ロボット制御装置20が持つ内部状態の具体例として、「案内サービスモード」、「翻訳サービスモード」、及び「Q&A修正モード」が説明される。このうち、対話サービスに関連するサービスモードの具体例として、ロボット10が案内サービスを提供する場合に設定される「案内サービスモード」と、ロボット10が翻訳サービスを提供する場合に設定される「翻訳サービスモード」とが用意されている。また、「Q&A修正モード」は、人手(管理者等のユーザ)によるQ&Aのメンテナンスを行う際に設定されるモードである。詳細は後述するが、Q&A修正モードでは、操作端末30から参照するQ&A修正画面に「Q&Aの修正候補」が表示され、ユーザが選択したQ&Aの修正候補を回答DB228に登録することができる。 In the present embodiment, "guidance service mode", "translation service mode", and "Q & A correction mode" will be described as specific examples of the internal state of the robot control device 20. Among these, as specific examples of the service mode related to the dialogue service, the "guidance service mode" set when the robot 10 provides the guidance service and the "translation" set when the robot 10 provides the translation service. "Service mode" is prepared. In addition, the "Q & A correction mode" is a mode set when performing Q & A maintenance manually (user such as an administrator). Although the details will be described later, in the Q & A correction mode, "Q & A correction candidates" are displayed on the Q & A correction screen referenced from the operation terminal 30, and the Q & A correction candidates selected by the user can be registered in the answer DB 228.

詳細は図6を参照しながら後述するが、サービス制御部223は、サービスモードを「案内サービスモード」と判断した場合には、対話制御部224に、音声テキストを基にした顧客との直接対話(回答)の実施を指示する。一方、サービス制御部223は、サービスモードを「翻訳サービスモード」と判断した場合には、翻訳制御部225に、音声テキストと、話者が顧客かオペレータかを識別した結果に基づく話者判定結果とを通知し、顧客とオペレータとの対話を翻訳によって仲介する対話仲介の実施を指示する。 The details will be described later with reference to FIG. 6, but when the service control unit 223 determines that the service mode is the "guidance service mode", the service control unit 224 directly talks with the customer based on the voice text to the dialogue control unit 224. Instruct the implementation of (answer). On the other hand, when the service control unit 223 determines that the service mode is the "translation service mode", the service control unit 225 tells the translation control unit 225 the voice text and the speaker determination result based on the result of identifying whether the speaker is a customer or an operator. And instruct the implementation of dialogue mediation that mediates the dialogue between the customer and the operator by translation.

対話制御部224は、音声テキストを基に回答DB228を検索し、検索結果に応じて回答を出力する。具体的には、対話制御部224は、回答DB228において上記音声テキストと類似または一致する想定質問(Q)が登録されているかを検索し、該当する想定質問(Q)があった場合には、回答DB228で想定質問(Q)に紐付けて登録されている回答(A)を出力し、該当する想定質問(Q)がなかった場合には、予め用意された所定の回答を出力する。対話制御部224によって出力される回答は、音声合成を実施して音声ファイルに変換した上で、ロボット10に転送される。この結果、ロボット10では、転送された音声ファイルをスピーカ135で出力することで、顧客の質問に対する回答を実施することができる。 The dialogue control unit 224 searches the answer DB 228 based on the voice text, and outputs the answer according to the search result. Specifically, the dialogue control unit 224 searches for whether a hypothetical question (Q) similar to or matching the voice text is registered in the answer DB 228, and if there is a corresponding hypothetical question (Q), if there is a corresponding hypothetical question (Q), The answer (A) registered in association with the assumed question (Q) in the answer DB 228 is output, and if there is no corresponding assumed question (Q), a predetermined answer prepared in advance is output. The answer output by the dialogue control unit 224 is transferred to the robot 10 after performing voice synthesis and converting it into a voice file. As a result, the robot 10 can answer the customer's question by outputting the transferred audio file to the speaker 135.

翻訳制御部225は、音声テキストと話者判定結果に基づいて、顧客とオペレータの相互翻訳を実施する。すなわち、翻訳制御部225は、顧客の発話言語はオペレータの発話言語に翻訳して出力し、オペレータの発話言語は顧客の発話言語に翻訳して出力する。具体的には例えば、顧客が英語で発話し、オペレータが日本語で発話する場合、翻訳制御部225は、顧客の発話結果を英語から日本語に翻訳し、音声合成を実施して音声ファイルに変換した上でロボット10に転送する。この結果、ロボット10では、転送された音声ファイルをスピーカ135で出力することで、顧客の発話内容を翻訳してオペレータに伝えることができる。なお、顧客とオペレータの発話内容及び翻訳結果は、対話ログDB229に格納される。 The translation control unit 225 performs mutual translation between the customer and the operator based on the voice text and the speaker determination result. That is, the translation control unit 225 translates the customer's utterance language into the operator's utterance language and outputs it, and translates the operator's utterance language into the customer's utterance language and outputs it. Specifically, for example, when the customer speaks in English and the operator speaks in Japanese, the translation control unit 225 translates the customer's utterance result from English to Japanese, performs voice synthesis, and creates a voice file. After conversion, it is transferred to the robot 10. As a result, the robot 10 can translate the customer's utterance content and convey it to the operator by outputting the transferred audio file to the speaker 135. The utterance contents and translation results of the customer and the operator are stored in the dialogue log DB229.

画面生成部226は、所定の表示装置(本例では操作端末30のディスプレイ331とするが、その他に設けられた表示装置でもよい)に表示する画面を生成する。具体的には例えば、画面生成部226は、ロボット制御装置20が操作端末30から所定のアクセス要求(Q&A修正要求)を受信した際に、回答DB228で管理されるQ&Aを登録及び修正可能なQ&A修正画面を出力する。Q&A修正画面は、例えばGUI(Graphical User Interface)で提供され、画面の詳細内容は、図10を参照しながら後述する。 The screen generation unit 226 generates a screen to be displayed on a predetermined display device (in this example, the display 331 of the operation terminal 30 is used, but other display devices may be provided). Specifically, for example, when the robot control device 20 receives a predetermined access request (Q & A correction request) from the operation terminal 30, the screen generation unit 226 can register and correct the Q & A managed by the response DB 228. Output the correction screen. The Q & A correction screen is provided by, for example, a GUI (Graphical User Interface), and the detailed contents of the screen will be described later with reference to FIG.

対話生成部227は、Q&A修正画面からの操作を通じて管理者等のユーザがQ&Aを修正することができる「Q&A修正モード」において、Q&Aの修正候補を自動生成し出力する。対話生成部227は、操作端末30におけるユーザの操作によってQ&A修正画面上での検索要求を受信した場合に、回答DB228、対話ログDB229、及び除外候補DB230にアクセスして各DBの検索を実施し、追加または修正するQ&Aの修正候補を自動作成し、修正候補ごとに優先度スコアを算出する。そして、対話生成部227によって生成(作成及び算出)された結果が、検索結果としてQ&A修正画面に表示される。 The dialogue generation unit 227 automatically generates and outputs Q & A correction candidates in the "Q & A correction mode" in which a user such as an administrator can correct the Q & A through an operation from the Q & A correction screen. When the dialogue generation unit 227 receives a search request on the Q & A correction screen by the user's operation on the operation terminal 30, the dialogue generation unit 227 accesses the response DB 228, the dialogue log DB 229, and the exclusion candidate DB 230 to search each DB. , Automatically create correction candidates for Q & A to be added or corrected, and calculate the priority score for each correction candidate. Then, the result generated (created and calculated) by the dialogue generation unit 227 is displayed on the Q & A correction screen as a search result.

回答DB228は、対話サービスにおいてロボット10が回答するためのQ&Aを保持する。具体的には、回答DB228には、想定される質問とその回答との組み合わせが登録される(Q&Aデータ)。前述したように、回答DB228は、対話制御部224や対話生成部227からの検索を受け付ける。 The answer DB 228 holds a Q & A for the robot 10 to answer in the dialogue service. Specifically, the combination of the expected question and the answer is registered in the answer DB 228 (Q & A data). As described above, the response DB 228 accepts searches from the dialogue control unit 224 and the dialogue generation unit 227.

図4は、Q&Aデータの一例を説明するための図である。図4に例示したQ&Aデータ410は、回答DB228に格納される情報であって、想定される質問が記録される質問(Q)411と、当該行(レコード)の質問に対応する回答が記録される回答(A)412と、当該レコードの質問(Q)411及び回答(A)412の何れかが最後に編集(登録や修正等)されたときのタイムスタンプが記録される編集時間413と、を備えて構成される。回答DB228は、質問(Q)411と回答(A)412を含むQ&Aデータ410を保持することによって、行(レコード)単位で、想定されるQ&Aの組み合わせを登録することができる。また、編集時間413は、後述する優先度スコア算出処理で参照される。 FIG. 4 is a diagram for explaining an example of Q & A data. The Q & A data 410 illustrated in FIG. 4 is information stored in the answer DB 228, in which the question (Q) 411 in which the expected question is recorded and the answer corresponding to the question in the line (record) are recorded. Answer (A) 412, and edit time 413 in which the time stamp when any of the question (Q) 411 and answer (A) 412 of the record was last edited (registered, modified, etc.) is recorded. Is configured with. By holding the Q & A data 410 including the question (Q) 411 and the answer (A) 412, the answer DB 228 can register the expected combination of Q & A in line (record) units. Further, the edit time 413 is referred to in the priority score calculation process described later.

具体的には図4の場合、データ行の1行目のQ&Aを見ると、「お手洗いはどこですか?」という日本語の質問(Q)411に対して、「ここを直進して左に進んでいただくと、ございます。」という日本語の回答(A)412が登録されている。また、データ行の2行目のQ&Aを見ると、1行目と同じ内容だが英語によるQ&Aが登録されている。このように回答DB228では、個々のQ&Aの組み合わせは同一言語で登録されるものの、全体としては、翻訳制御部225で翻訳可能な複数種類の言語によるQ&Aを登録することができる。 Specifically, in the case of Fig. 4, when looking at the Q & A on the first line of the data line, in response to the Japanese question (Q) 411, "Where is the restroom?", "Go straight here and turn left. The Japanese answer (A) 412, "If you proceed, there is." Is registered. Also, looking at the Q & A on the second line of the data line, the Q & A in English is registered with the same content as the first line. As described above, in the answer DB 228, although the combination of individual Q & A is registered in the same language, as a whole, the Q & A in a plurality of kinds of languages that can be translated by the translation control unit 225 can be registered.

対話ログDB229は、ロボット10で行われた接客のログ、具体的には、案内サービスにおける対話の結果や、翻訳サービスにおける翻訳の結果を集約したログを保持する。前述したように、対話ログDB229は、対話生成部227からの検索を受け付ける。 The dialogue log DB 229 holds a log of customer service performed by the robot 10, specifically, a log that aggregates the results of dialogue in the guidance service and the results of translation in the translation service. As described above, the dialogue log DB 229 accepts a search from the dialogue generation unit 227.

除外候補DB230は、Q&A修正モードにおいて除外すると設定されたQ&Aに関する情報を保持する。具体的には、除外候補DB230は、対話生成部227によって生成されてQ&A修正画面に表示された検索結果において「除外」と設定されたQ&Aについて、例えば、当該Q&AのQ(質問)を保持する。前述したように、除外候補DB230は、対話生成部227からの検索を受け付ける。 The exclusion candidate DB 230 holds information about the Q & A set to be excluded in the Q & A modification mode. Specifically, the exclusion candidate DB 230 holds, for example, the Q (question) of the Q & A for the Q & A generated by the dialogue generation unit 227 and set as "exclusion" in the search result displayed on the Q & A correction screen. .. As described above, the exclusion candidate DB 230 accepts the search from the dialogue generation unit 227.

通信インタフェース240は、ネットワークに接続するための装置であって、操作端末30の通信インタフェース340(後述の図5参照)と、ネットワークを介して接続される。 The communication interface 240 is a device for connecting to a network, and is connected to the communication interface 340 of the operation terminal 30 (see FIG. 5 described later) via the network.

(1−3)操作端末30の内部構成例
図5は、図1に示した操作端末の制御系の構成例を示すブロック図である。図5に示すように、操作端末30は、例えば汎用的なPCであり、CPU310と、CPU310の制御に基づいて各種処理が実行される記憶装置320、入出力装置330、及び通信インタフェース340と、を備える。
(1-3) Example of Internal Configuration of Operation Terminal 30 FIG. 5 is a block diagram showing a configuration example of a control system of the operation terminal shown in FIG. As shown in FIG. 5, the operation terminal 30 is, for example, a general-purpose PC, and includes a CPU 310, a storage device 320 that executes various processes under the control of the CPU 310, an input / output device 330, and a communication interface 340. To be equipped.

CPU310は、プロセッサの一例であって、記憶装置320に格納されたプログラムを読み出して実行することにより、例えば、記憶装置320内に示された各機能部(ブラウザ321,入出力部322)の機能を実現する。 The CPU 310 is an example of a processor, and by reading and executing a program stored in the storage device 320, for example, the functions of each function unit (browser 321 and input / output unit 322) shown in the storage device 320. To realize.

記憶装置320は、プログラムやデータを格納する記憶装置であって、RAM等の主記憶装置や、HDDやSSD等の補助記憶装置で構成される。図5には、記憶装置320の主記憶装置に格納されたプログラムの実行によって機能が実現される機能構成の一例として、ブラウザ321及び入出力部322が示されている。 The storage device 320 is a storage device for storing programs and data, and is composed of a main storage device such as a RAM and an auxiliary storage device such as an HDD or SSD. FIG. 5 shows a browser 321 and an input / output unit 322 as an example of a functional configuration in which a function is realized by executing a program stored in the main storage device of the storage device 320.

ブラウザ321は、通信インタフェース340を介してロボット制御装置20にアクセスし、画面生成部226から出力されたQ&A修正画面の情報を受信し、当該情報に基づいて、入出力装置330のディスプレイ331においてQ&A修正画面を表示する。ブラウザ321で表示されたQ&A修正画面は、表示された項目をキーボード332やマウス333で操作することにより、Q&Aの登録及び修正を実施することができる。 The browser 321 accesses the robot control device 20 via the communication interface 340, receives the information on the Q & A correction screen output from the screen generator 226, and based on the information, Q & A on the display 331 of the input / output device 330. Display the correction screen. On the Q & A correction screen displayed by the browser 321, Q & A registration and correction can be performed by operating the displayed items with the keyboard 332 and the mouse 333.

通信インタフェース340は、ネットワークに接続するための装置であって、ロボット制御装置20の通信インタフェース240と、ネットワークを介して接続される。 The communication interface 340 is a device for connecting to a network, and is connected to the communication interface 240 of the robot control device 20 via the network.

(2)対話サービス
以下では、ロボット10が対話サービス(案内サービス、翻訳サービス)を提供する際に行われる処理の詳細を説明する。
(2) Dialogue Service The details of the processing performed when the robot 10 provides the dialogue service (guidance service, translation service) will be described below.

(2−1)サービスモード決定処理
図6は、サービスモード決定処理の処理手順例を示すフローチャートである。図6に示すサービスモード決定処理は、ロボット10と人(顧客)との対話を通じて、ロボット10が提供する対話サービスを決定する処理であって、ロボット10においてカメラ131が撮影した画像に基づく人物検知や、マイクロフォン132が取得した音声情報に基づく割り込み検知が行われた場合に、人(顧客)との対話を通じて以下のシーケンスが実施される。
(2-1) Service Mode Determination Process FIG. 6 is a flowchart showing an example of a processing procedure of the service mode determination process. The service mode determination process shown in FIG. 6 is a process of determining the dialogue service provided by the robot 10 through a dialogue between the robot 10 and a person (customer), and is a person detection based on an image taken by the camera 131 in the robot 10. Or, when interrupt detection is performed based on the voice information acquired by the microphone 132, the following sequence is executed through a dialogue with a person (customer).

図6によればまず、ロボット10がサービス決定を顧客に問いかける処理を実施する(ステップS11)。具体的には例えば、ロボット制御装置20のサービス制御部223がロボット10の対話制御部122に、顧客にサービスの選択を促処理の実施を指示し、当該指示を受けて対話制御部122が、ロボット10のスピーカ135を用いて「案内サービスですか?翻訳サービスですか?」等のように発話させることで、顧客にサービスの選択を促す。なお、ステップS12で顧客にサービスの選択を促す指示は、音声によるものに限定されず、タッチディスプレイ等にサービスの選択肢を表示し、顧客にタッチして選択させるようにする等でもよい。 According to FIG. 6, first, the robot 10 performs a process of asking the customer for a service decision (step S11). Specifically, for example, the service control unit 223 of the robot control device 20 instructs the dialogue control unit 122 of the robot 10 to execute a processing for prompting the customer to select a service, and the dialogue control unit 122 receives the instruction. By using the speaker 135 of the robot 10 to speak such as "is it a guidance service? Is it a translation service?", The customer is encouraged to select a service. The instruction for prompting the customer to select a service in step S12 is not limited to voice, and the service options may be displayed on a touch display or the like so that the customer can touch and select the service.

次のステップS12において、サービス制御部223は、ステップS11で顧客から選択されたサービスが案内サービスであるか否かを判定する。選択されたサービスが案内サービスであると判定した場合には(ステップS12のYES)、ステップS13に進み、選択されたサービスが案内サービスではない、すなわち翻訳サービスであると判定した場合には(ステップS12のNO)、ステップS14に進む。 In the next step S12, the service control unit 223 determines whether or not the service selected by the customer in step S11 is a guidance service. If it is determined that the selected service is a guidance service (YES in step S12), the process proceeds to step S13, and if it is determined that the selected service is not a guidance service, that is, it is a translation service (step). NO) in S12, the process proceeds to step S14.

ステップS13では、サービス制御部223がロボット制御装置20の内部状態を「案内サービスモード」に設定した上で、ロボット10による顧客への案内サービスを実施する。案内サービスモードにおけるロボット制御装置20は、自らが実施できる案内サービスの選択肢を提示することで、以降、顧客との対話によって顧客要望をヒアリングし、回答DB228に登録されたQ&Aを用いて接客を実施する。 In step S13, the service control unit 223 sets the internal state of the robot control device 20 to the "guidance service mode", and then the robot 10 executes the guidance service to the customer. The robot control device 20 in the guidance service mode presents the options of the guidance service that it can implement, and thereafter, hears the customer's request through dialogue with the customer and performs customer service using the Q & A registered in the answer DB 228. To do.

一方、ステップS14では、サービス制御部223が、ロボット制御装置20の内部状態を「翻訳サービスモード」に設定した上で、ロボット10による顧客への翻訳サービスを実施する。ここで、翻訳サービスを実施する場合、ロボット10は、ロボット10が設置されている施設を管理するオペレータと顧客との間の対話を、翻訳によって支援する。そこで、翻訳サービスモードが設定されたときは、ロボット制御装置20の通信インタフェース240を介して(具体的には、電話、メール、またはランプ表示等の何らかの報知手段を用いて)、翻訳サービスを実施する旨をオペレータに通知することが好ましい。 On the other hand, in step S14, the service control unit 223 sets the internal state of the robot control device 20 to the "translation service mode", and then performs the translation service to the customer by the robot 10. Here, when the translation service is implemented, the robot 10 supports the dialogue between the operator who manages the facility in which the robot 10 is installed and the customer by translation. Therefore, when the translation service mode is set, the translation service is provided via the communication interface 240 of the robot control device 20 (specifically, using some notification means such as telephone, mail, or lamp display). It is preferable to notify the operator to that effect.

ステップS14に次ぐステップS15では、サービス制御部223は、話者となる顧客及びオペレータを識別するための設定処理(顧客識別設定)を実施する。顧客識別設定について詳しく説明する。翻訳サービスを実施する際には、顧客の発話言語とオペレータの発話言語との間で相互翻訳の処理が行われるため、ロボット制御装置20は、話者が顧客なのかオペレータなのか、また、それぞれの話者がどの言語で発話するのかを識別できる必要がある。そのため、顧客識別処理においてサービス制御部223は、まず、ロボット10から所定の音声出力を行って顧客にヒアリングを実施し、応答した顧客の発話に基づいて、話者(顧客)の発話言語と方向とを識別し、記録する。さらにサービス制御部223は、オペレータにもヒアリングを実施し、応答したオペレータの発話に基づいて、話者(オペレータ)の発話言語と方向とを識別し、記録する。ここで、「話者の方向」とは、例えばロボット10を基準としたときの各話者の相対的な方向(あるいは位置)を意味し、各話者の相対的な方向を設定することによって、以後の対話において話者が顧客であるかオペレータであるかを識別できるようになる。なお、本実施の形態は、方向(位置)に基づいて話者の識別を行うことに限定されるものではなく、他の方法、例えば話者の音声の特徴解析を行う等して、話者を識別可能な設定を行うようにしてもよい。また、ステップS15で顧客及びオペレータにヒアリングする指示は、音声によるものに限定されず、タッチディスプレイ等にサービスの選択肢を表示し、顧客にタッチして選択させるようにする等としてもよい。 In step S15 following step S14, the service control unit 223 performs a setting process (customer identification setting) for identifying the customer and the operator who are speakers. The customer identification setting will be described in detail. When the translation service is provided, mutual translation processing is performed between the customer's utterance language and the operator's utterance language. Therefore, the robot control device 20 determines whether the speaker is the customer or the operator, and each of them. It is necessary to be able to identify in which language the speaker speaks. Therefore, in the customer identification process, the service control unit 223 first outputs a predetermined voice from the robot 10 to conduct a hearing with the customer, and based on the utterance of the customer who responded, the utterance language and direction of the speaker (customer). And record. Further, the service control unit 223 also conducts a hearing with the operator, identifies and records the utterance language and direction of the speaker (operator) based on the utterance of the operator who responded. Here, the "speaker direction" means, for example, the relative direction (or position) of each speaker with respect to the robot 10, and by setting the relative direction of each speaker. , It becomes possible to identify whether the speaker is a customer or an operator in the subsequent dialogue. It should be noted that the present embodiment is not limited to identifying the speaker based on the direction (position), but is performed by another method, for example, analyzing the characteristics of the speaker's voice. You may make a setting that can identify. Further, the instruction to hear the customer and the operator in step S15 is not limited to the one by voice, and the service options may be displayed on the touch display or the like so that the customer can touch and select.

また、ステップS15では、事前にオペレータの情報を設定しておくことで、オペレータへのヒアリング処理をスキップすることができる。詳しくは、オペレータが、事前に発話言語、顔の特徴量、あるいは音声特徴量等をロボット制御装置20に登録しておくことにより、ロボット制御装置20は、オペレータの画像もしくは音声によって、ロボット10に対面している2人(顧客、オペレータ)のうち、何れがオペレータであるかを特定することができる。 Further, in step S15, by setting the operator information in advance, the hearing process with the operator can be skipped. Specifically, the operator registers the spoken language, facial features, voice features, and the like in the robot control device 20 in advance, so that the robot control device 20 can be transferred to the robot 10 by the operator's image or voice. It is possible to identify which of the two people (customer, operator) facing each other is the operator.

上記したように、ステップS13の処理が完了すると、ロボット制御装置20において案内サービスの開始準備が整うため、以降、ロボット10は、顧客と対話しながら案内を行う案内サービスを実施することができる。案内サービスにおける処理の流れは、図7を参照しながら後述する。また、ステップS15の処理が完了すると、ロボット制御装置20において翻訳サービスの開始準備が整うため、以降、ロボット10は、顧客とオペレータとの対話を相互翻訳によって支援する翻訳サービスを実施することができる。翻訳サービスにおける処理の流れは、図8を参照しながら後述する。 As described above, when the process of step S13 is completed, the robot control device 20 is ready to start the guidance service. Therefore, after that, the robot 10 can carry out the guidance service while interacting with the customer. The flow of processing in the guidance service will be described later with reference to FIG. 7. Further, when the process of step S15 is completed, the robot control device 20 is ready to start the translation service. Therefore, after that, the robot 10 can implement a translation service that supports the dialogue between the customer and the operator by mutual translation. .. The flow of processing in the translation service will be described later with reference to FIG.

(2−2)案内サービス
図7は、直接対話処理の処理手順例を示すフローチャートである。図7に示す直接対話処理は、サービスモードが案内サービスモードに設定されているときに、ロボット10が人(顧客)との対話を通じて案内サービスを実施する処理である。
(2-2) Guidance Service FIG. 7 is a flowchart showing an example of a processing procedure for direct dialogue processing. The direct dialogue process shown in FIG. 7 is a process in which the robot 10 executes a guidance service through a dialogue with a person (customer) when the service mode is set to the guidance service mode.

図7によればまず、ロボット10が顧客の音声を受信すると、ロボット制御装置20の音声認識部221が、ロボット10から送信された音声データに対してテキスト変換を行うことにより、音声テキストを生成する(ステップS21)。 According to FIG. 7, first, when the robot 10 receives the customer's voice, the voice recognition unit 221 of the robot control device 20 performs text conversion on the voice data transmitted from the robot 10 to generate voice text. (Step S21).

次に、対話制御部224は、ステップS21で生成された音声テキストから「えーと・・・」や「あのー・・・」等のフィラーを除去した上で、除去後の音声テキストに基づいて回答DB228に登録された質問を検索し、該当する質問に紐付けられた回答を取得する(ステップS22)。なお、音声テキストからのフィラー除去は音声認識部221が実施してもよい。また、フィラー除去後の音声テキストには、例えば日本語の言い回し等のバラつき(揺らぎ)が含まれ得るため、対話制御部224は、フィラー除去後の音声テキストに対して更に形態素解析を実施した上で、同様に形態素解析が実施された回答DB228内の質問に対してステップS22の検索を実施することが好ましい。なお、上記説明では、対話制御部224がフィラー除去及び形態素解析を実施するとしたが、ロボット制御装置20の他の機能部(例えば音声認識部221)が実施するようにしてもよい。 Next, the dialogue control unit 224 removes fillers such as "um ..." and "uh ..." from the voice text generated in step S21, and then answers DB228 based on the voice text after removal. The question registered in is searched, and the answer associated with the corresponding question is acquired (step S22). The voice recognition unit 221 may remove the filler from the voice text. Further, since the voice text after removing the filler may contain variations (fluctuations) such as Japanese wording, the dialogue control unit 224 further performs morphological analysis on the voice text after removing the filler. Therefore, it is preferable to carry out the search in step S22 for the question in the answer DB 228 in which the morphological analysis has been similarly performed. In the above description, the dialogue control unit 224 performs filler removal and morphological analysis, but other functional units of the robot control device 20 (for example, voice recognition unit 221) may perform the filler removal and morphological analysis.

次いでステップS23では、対話制御部224は、ステップS22の検索によって有効な回答が取得されたか否かを判定する。有効な回答が取得できた場合は(ステップS23のYES)、ステップS24に進み、有効な回答が取得できなかった場合は(ステップS23のNO)、ステップS25に進む。 Next, in step S23, the dialogue control unit 224 determines whether or not a valid answer has been obtained by the search in step S22. If a valid answer can be obtained (YES in step S23), the process proceeds to step S24, and if a valid answer cannot be obtained (NO in step S23), the process proceeds to step S25.

ステップS24では、対話制御部224は、ステップS22で取得した回答を音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は顧客の質問に対して適切な回答を発話することができる。 In step S24, the dialogue control unit 224 voice-synthesizes the answer obtained in step S22, converts it into a voice file, transfers it to the robot 10, and reproduces it from the speaker 135. By performing such processing, the robot 10 can utter an appropriate answer to the customer's question.

一方、ステップS25の場合は、ステップS22で有効な回答が取得できていないため、対話制御部224は、例えば「もう一度言って頂けますか?」等のような、予め定められたヒアリング内容(固定回答)を音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は顧客に対して、再質問の要求を発話することができる。なお、ステップS25で出力させるヒアリング内容は、上記例に限定されるものではなく、例えば「わかりません」や「質問を変えてください」等のように、今回の質問には回答できない旨をロボット10に発話させるものであってもよい。 On the other hand, in the case of step S25, since a valid answer has not been obtained in step S22, the dialogue control unit 224 has a predetermined hearing content (fixed) such as "Can you say it again?" Answer) is voice-synthesized, converted into a voice file, transferred to the robot 10, and reproduced from the speaker 135. By performing such processing, the robot 10 can utter a request for re-questioning to the customer. The content of the hearing output in step S25 is not limited to the above example, and the robot indicates that it cannot answer this question, for example, "I don't know" or "Please change the question". It may be the one that makes 10 speak.

そして、ステップS24またはステップS25の処理後は、ステップS21に戻り、ロボット10が顧客による次の音声を受信すると、再びステップS21以降の処理が繰り返されることで、顧客とロボット10との対話を続けることができる。 Then, after the processing of step S24 or step S25, the process returns to step S21, and when the robot 10 receives the next voice by the customer, the processing after step S21 is repeated again to continue the dialogue between the customer and the robot 10. be able to.

以上のように、直接対話処理では、顧客の質問に対する回答は、回答DB228に登録されたQ&Aの検索に基づいて決定される。そのため、ロボット10が顧客に対して効果的な接客のサービス(案内サービス)を提供するためには、ロボット制御装置20の回答DB228に、様々な質問(あらゆる質問)に対応するQ&Aが登録されていることが求められる。 As described above, in the direct dialogue process, the answer to the customer's question is determined based on the search of the Q & A registered in the answer DB228. Therefore, in order for the robot 10 to provide an effective customer service (guidance service) to the customer, Q & A corresponding to various questions (all questions) is registered in the answer DB 228 of the robot control device 20. It is required to be.

(2−3)翻訳サービス
図8は、対話仲介処理の処理手順例を示すフローチャートである。図8に示す対話仲介処理は、サービスモードが翻訳サービスモードに設定されているときに、ロボット10が人(顧客)と人(オペレータ)との対話を翻訳によって仲介する翻訳サービスを実施する処理である。
(2-3) Translation service FIG. 8 is a flowchart showing an example of a processing procedure for dialogue mediation processing. The dialogue mediation process shown in FIG. 8 is a process in which the robot 10 executes a translation service that mediates a dialogue between a person (customer) and a person (operator) by translation when the service mode is set to the translation service mode. is there.

図8によればまず、ロボット10は、顧客の音声を検知すると、音声割り込みがあったとして、ロボット制御装置20の音声認識部221に音声データを転送する(ステップS31)。そしてロボット制御装置20では、サービス制御部223が、図6のステップS15で設定された顧客識別設定に基づいて、受信した音声データの話者(顧客かオペレータか)及びその発話言語を識別する。具体的には、サービス制御部223は、音声データが発話された方向(話者の方向)に基づいて、話者が顧客かオペレータかを識別することができる。 According to FIG. 8, when the robot 10 detects the customer's voice, it assumes that there is a voice interrupt and transfers the voice data to the voice recognition unit 221 of the robot control device 20 (step S31). Then, in the robot control device 20, the service control unit 223 identifies the speaker (customer or operator) of the received voice data and its utterance language based on the customer identification setting set in step S15 of FIG. Specifically, the service control unit 223 can identify whether the speaker is a customer or an operator based on the direction in which the voice data is uttered (the direction of the speaker).

次に、ステップS32では、音声認識部221(サービス制御部223でもよい)は、ステップS31の識別結果を判定する。話者が顧客であると判定した場合には(ステップS32のYES)、ステップS33に進み、話者が顧客ではない、すなわちオペレータであると判定した場合には(ステップS32のNO)、ステップS35に進む。 Next, in step S32, the voice recognition unit 221 (which may be the service control unit 223) determines the identification result of step S31. If it is determined that the speaker is a customer (YES in step S32), the process proceeds to step S33, and if it is determined that the speaker is not a customer, that is, an operator (NO in step S32), step S35. Proceed to.

ステップS33に進んだ場合、音声認識部221は、受信した顧客の音声データに対して、顧客の発話言語で音声認識(テキスト変換)を行うことにより、音声テキストを生成する。さらに、翻訳制御部225が、生成された音声テキストをオペレータの発話言語に翻訳する(顧客とオペレータの発話言語とが一致する場合には、翻訳しなくてもよい)。 When the process proceeds to step S33, the voice recognition unit 221 generates voice text by performing voice recognition (text conversion) on the received voice data of the customer in the spoken language of the customer. Further, the translation control unit 225 translates the generated voice text into the utterance language of the operator (if the utterance language of the customer and the operator match, the translation does not have to be performed).

そして、次のステップS34では、例えばサービス制御部223が、ステップS33で生成された音声テキストとその翻訳結果を、顧客の質問(Q)としてデータに保持する。ステップS34の処理が終了すると、後述するステップS38に進む。 Then, in the next step S34, for example, the service control unit 223 holds the voice text generated in step S33 and the translation result thereof in the data as a customer question (Q). When the process of step S34 is completed, the process proceeds to step S38 described later.

一方、ステップS35に進んだ場合、音声認識部221は、受信したオペレータの音声データに対して、オペレータの発話言語で音声認識(テキスト変換)を行うことにより、音声テキストを生成する。さらに、翻訳制御部225が、生成された音声テキストを話者の発話言語に翻訳する(顧客とオペレータの発話言語とが一致する場合には、翻訳しなくてもよい)。 On the other hand, when the process proceeds to step S35, the voice recognition unit 221 generates voice text by performing voice recognition (text conversion) on the received voice data of the operator in the spoken language of the operator. Further, the translation control unit 225 translates the generated voice text into the utterance language of the speaker (if the utterance language of the customer and the operator match, the translation does not have to be performed).

そして、次のステップS36では、例えばサービス制御部223が、ステップS35で生成された音声テキストとその翻訳結果を、オペレータの回答(A)としてデータに保持する。 Then, in the next step S36, for example, the service control unit 223 holds the voice text generated in step S35 and the translation result thereof in the data as the operator's answer (A).

さらに、次のステップS37において、例えばサービス制御部223が、以前のステップS34で保持された顧客の質問(Q)の音声テキスト及び翻訳結果と、ステップS36で保持されたオペレータの回答(A)の音声テキスト及び翻訳結果と、を組み合わせてQ&Aを作成し、対話ログDB229に登録する(対話ログデータ)。対話ログDB229に登録した後、サービス制御部223は、保持していた各データを削除し、ステップS38に進む。 Further, in the next step S37, for example, the service control unit 223 determines the voice text and translation result of the customer question (Q) held in the previous step S34 and the operator's answer (A) held in step S36. A Q & A is created by combining the voice text and the translation result, and registered in the dialogue log DB229 (dialogue log data). After registering in the dialogue log DB 229, the service control unit 223 deletes each of the held data and proceeds to step S38.

ステップS37におけるQ&Aの作成についてより詳しく説明すると、顧客の質問(Q)とオペレータの回答(A)とでは、発話言語が異なる場合があるため、このとき、翻訳前の顧客の質問(すなわち、質問(Q)の音声テキスト)と翻訳後のオペレータの回答(すなわち、回答(A)の翻訳結果)とを1つの組み合わせとし、翻訳後の顧客の質問(すなわち、質問(Q)の翻訳結果)と翻訳前のオペレータの回答(すなわち、回答(A)の音声テキスト)とを1つの組み合わせとする。ステップS37では、上記のようにして同じ言語によるQ&Aが作成され、対話ログDB229に登録される。 Explaining the creation of the Q & A in step S37 in more detail, the customer's question (Q) and the operator's answer (A) may have different utterance languages. Therefore, at this time, the customer's question before translation (that is, the question) (Q) voice text) and the translated operator's answer (that is, the translation result of answer (A)) are combined into one combination, and the translated customer's question (that is, the translation result of question (Q)) The operator's answer before translation (that is, the voice text of answer (A)) is used as one combination. In step S37, a Q & A in the same language is created as described above and registered in the dialogue log DB229.

図9は、対話ログデータの一例を説明するための図である。図9の場合、対話ログDB229に保存される対話ログデータは、言語によってテーブルが分けられている。具体的には、図9(A)には、対話ログを日本語で収集した対話ログデータ420が例示され、図9(B)には、対話ログを英語で収集した対話ログデータ430が例示されている。 FIG. 9 is a diagram for explaining an example of dialogue log data. In the case of FIG. 9, the dialogue log data stored in the dialogue log DB 229 is divided into tables according to the language. Specifically, FIG. 9A exemplifies the dialogue log data 420 in which the dialogue log is collected in Japanese, and FIG. 9B exemplifies the dialogue log data 430 in which the dialogue log is collected in English. Has been done.

対話ログデータ420は、当該レコードのログを収集したタイムスタンプが記録されるログ日時421と、顧客の質問が記録される質問(Q)422と、オペレータの回答が記録される回答(A)423と、を備えて構成される。対話ログデータ430におけるデータ構造(ログ日時431,質問(Q)432,回答(A)433)は、対話ログデータ420と同様であるため、説明を省略する。 The dialogue log data 420 includes a log date and time 421 in which the time stamp for collecting the log of the record is recorded, a question (Q) 422 in which the customer's question is recorded, and an answer (A) 423 in which the operator's answer is recorded. And are configured with. Since the data structure (log date and time 431, question (Q) 432, answer (A) 433) in the dialogue log data 430 is the same as that of the dialogue log data 420, the description thereof will be omitted.

対話ログDB229は、上記のように言語別に対話ログデータ420,430を格納することにより、顧客とオペレータとの対話内容から、質問と回答の組み合わせを抽出し、更に同一言語に翻訳したものを、対話ログとして保持することができる。 The dialogue log DB229 stores the dialogue log data 420 and 430 for each language as described above, extracts a combination of questions and answers from the dialogue contents between the customer and the operator, and further translates them into the same language. It can be retained as a dialogue log.

そして、前述したように、ステップS34またはステップS37の処理後は、ステップS38の処理が行われる。ステップS38では、対話制御部224が、直前に翻訳された翻訳結果(具体的には、ステップS34経由の場合は、ステップS33による質問(Q)の翻訳結果であり、ステップS37経由の場合は、ステップS35による回答(A)の翻訳結果)のテキストを、音声合成して音声ファイルに変換し、ロボット10に転送してスピーカ135から再生させる。このような処理が行われることで、ロボット10は、直前に発話した一方の話者の発話内容を、他方の話者の発話言語に翻訳して発話することができる。 Then, as described above, after the processing of step S34 or step S37, the processing of step S38 is performed. In step S38, the dialogue control unit 224 is the translation result translated immediately before (specifically, if it is via step S34, it is the translation result of the question (Q) by step S33, and if it is via step S37, it is the translation result. The text of the answer (A) translated in step S35) is voice-synthesized, converted into a voice file, transferred to the robot 10, and reproduced from the speaker 135. By performing such processing, the robot 10 can translate the utterance content of one speaker who has spoken immediately before into the utterance language of the other speaker and speak.

そして、ステップS38の処理後は、ステップS31に戻り、ロボット10が次の音声割り込みを検出すると、再びステップS31以降の処理が繰り返されることで、顧客とオペレータとの対話を相互翻訳によって支援することができる。 Then, after the processing of step S38, the process returns to step S31, and when the robot 10 detects the next voice interrupt, the processing after step S31 is repeated again to support the dialogue between the customer and the operator by mutual translation. Can be done.

なお、詳細な記載は省略するが、対話仲介処理においても、直接対話処理の場合と同様に、音声テキスト(あるいはその翻訳結果)に対して、対話制御部224(または音声認識部221等)がフィラー除去や形態素解析を実施することが好ましい。フィラー除去や形態素解析を実施することにより、不要な発話内容や揺らぎを排したQ&Aを対話ログDB229に登録することができる。 Although detailed description is omitted, in the dialogue mediation process as well as in the case of the direct dialogue process, the dialogue control unit 224 (or the voice recognition unit 221 etc.) responds to the voice text (or its translation result). It is preferable to remove the filler and perform morphological analysis. By removing the filler and performing the morphological analysis, it is possible to register the Q & A excluding unnecessary utterance contents and fluctuations in the dialogue log DB229.

(3)Q&A修正モード
以下では、Q&A修正モードにおける処理について詳しく説明する。前述したように、「Q&A修正モード」は、ロボットの対話登録システム1において、人手(管理者等のユーザ)によるQ&Aのメンテナンスが行われる際に、ロボット制御装置20の内部状態に設定されるモードであり、ユーザは、操作端末30から、ロボット制御装置20が提供するGUI(Q&A修正画面)にアクセスすることができる。
(3) Q & A correction mode The processing in the Q & A correction mode will be described in detail below. As described above, the "Q & A correction mode" is a mode that is set to the internal state of the robot control device 20 when the Q & A maintenance is performed manually (user such as an administrator) in the robot dialogue registration system 1. The user can access the GUI (Q & A correction screen) provided by the robot control device 20 from the operation terminal 30.

図10は、Q&A修正画面の具体例を示す図である。また、図11は、Q&Aのメンテナンスにおける人手による操作手順例を示すフローチャートである。 FIG. 10 is a diagram showing a specific example of the Q & A correction screen. Further, FIG. 11 is a flowchart showing an example of a manual operation procedure in Q & A maintenance.

図10に示したQ&A修正画面500は、検索条件入力欄510と、検索ボタン520と、検索結果表示欄530と、一括反映ボタン540と、を備えて構成される。このQ&A修正画面500を参照しながら、図11に示した手順を説明する。 The Q & A correction screen 500 shown in FIG. 10 includes a search condition input field 510, a search button 520, a search result display field 530, and a batch reflection button 540. The procedure shown in FIG. 11 will be described with reference to the Q & A correction screen 500.

図11によればまず、ユーザは、操作端末30を操作して、メンテナンス対象のQ&Aを絞り込むための検索条件をQ&A修正画面500の検索条件入力欄510に入力し、検索条件の入力が終了した後は、検索ボタン520をクリックすることによって、ロボット制御装置20に対してQ&A修正候補の出力を要求する(ステップS41)。検索条件の入力において、より具体的には、ユーザは、ログ日付の範囲や言語等を指定する。 According to FIG. 11, first, the user operates the operation terminal 30 to input the search condition for narrowing down the Q & A to be maintained in the search condition input field 510 of the Q & A correction screen 500, and the input of the search condition is completed. After that, by clicking the search button 520, the robot control device 20 is requested to output the Q & A correction candidate (step S41). More specifically, when inputting search conditions, the user specifies a range of log dates, a language, and the like.

ステップS41でQ&A修正候補の出力が要求されると、ロボット制御装置20の対話生成部227及び画面生成部226が修正候補作成処理を実行する。詳細は図12等を参照して後述するが、修正候補作成処理では、対話生成部227が、対話ログDB229に格納された対話ログと、回答DB228に格納された回答とに基づいて、回答DB228に格納されている回答の適切性(適切な度合い)を判定し、判定結果に応じたルールでQ&Aの修正候補を生成し、それぞれの修正候補の優先度を算出した上で出力する。そして画面生成部226が、Q&A修正画面500の検索結果表示欄530に、対話生成部227から出力されたQ&Aの修正候補に関する情報を優先度の高い順に表示する。 When the output of the Q & A correction candidate is requested in step S41, the dialogue generation unit 227 and the screen generation unit 226 of the robot control device 20 execute the correction candidate creation process. The details will be described later with reference to FIG. 12 and the like, but in the correction candidate creation process, the dialogue generation unit 227 uses the dialogue log stored in the dialogue log DB 229 and the answer stored in the response DB 228 based on the response DB 228. The appropriateness (appropriate degree) of the answer stored in is determined, correction candidates for Q & A are generated according to the rules according to the judgment result, the priority of each correction candidate is calculated, and then output. Then, the screen generation unit 226 displays the information regarding the Q & A correction candidates output from the dialogue generation unit 227 in the search result display field 530 of the Q & A correction screen 500 in descending order of priority.

ここで、図10に示したように、検索結果表示欄530は、質問531、回答532、回答533、分類534、反映チェックボックス535、及び除外チェックボックス536の表示項目を有している。このうち、質問531及び回答532は、対話ログを整形して自動生成された質問及び回答であり、回答533は、対話ログDB229に保持された対話ログの回答である。そこで、回答532と回答533とを比較することによって、修正候補作成処理において対話生成部227がどのように当該回答を修正したのかを確認することができる。また、分類534には、対応する修正候補の適切性の分類結果(後述する図12のステップS55を参照)が表示される。 Here, as shown in FIG. 10, the search result display field 530 has display items of question 531, answer 532, answer 533, classification 534, reflection check box 535, and exclusion check box 536. Of these, question 531 and answer 532 are questions and answers automatically generated by shaping the dialogue log, and answer 533 is the answer of the dialogue log held in the dialogue log DB229. Therefore, by comparing the answer 532 and the answer 533, it is possible to confirm how the dialogue generation unit 227 corrected the answer in the correction candidate creation process. Further, in the classification 534, the classification result of the appropriateness of the corresponding correction candidate (see step S55 of FIG. 12 described later) is displayed.

ステップS41の後、ユーザは、Q&A修正画面500の検索結果表示欄530の表示内容(具体的には、質問531〜分類534)を確認し、ユーザの判断で操作端末30を操作して、反映チェックボックス535または除外チェックボックス536にチェックを入れる(ステップS42)。具体的には、ユーザは、自動生成された質問531が、ロボット10が回答すべき質問である(回答対象である)と判断した場合には、反映チェックボックス535にチェックを入れる。一方、ユーザは、質問531はロボット10が回答する必要がない質問である(回答対象ではない)と判断した場合は、除外チェックボックス536にチェックを入れる。なお、ユーザが判断を保留したい場合は、何れのチェックボックスにもチェックしないとしてもよい。 After step S41, the user confirms the display contents (specifically, questions 531 to 534) of the search result display field 530 of the Q & A correction screen 500, operates the operation terminal 30 at the user's discretion, and reflects the display contents. Check the check box 535 or the exclusion check box 536 (step S42). Specifically, when the user determines that the automatically generated question 531 is a question to be answered by the robot 10 (it is an answer target), the user checks the reflection check box 535. On the other hand, when the user determines that the question 531 is a question that the robot 10 does not need to answer (it is not an answer target), the user checks the exclusion check box 536. If the user wants to withhold the judgment, he / she may not check any of the check boxes.

次いで、ユーザは、ステップS42で反映チェックボックス535にチェックを入れたレコードについて、自動生成されたQ&A(質問531,回答532)を確認し、言い回しやQ&Aの内容が適切でない場合には、検索結果表示欄530の該当欄にテキスト入力する等の編集を行ってQ&A(質問531,回答532)を修正した上で、一括反映ボタン540をクリックする(ステップS43)。 Next, the user confirms the automatically generated Q & A (question 531 and answer 532) for the record for which the reflection check box 535 is checked in step S42, and if the wording or the content of the Q & A is not appropriate, the search result. After editing the Q & A (question 531 and answer 532) by inputting text in the corresponding field of the display field 530, click the batch reflection button 540 (step S43).

ステップS43で一括反映ボタン540が選択(クリック)されると、ロボット制御装置20の対話生成部227は、検索結果表示欄530において反映チェックボックス535にチェックが付けられたレコードのQ&A(質問531,回答532)を回答DB228に登録し、検索結果表示欄530において除外チェックボックス536にチェックが付けられたレコードのQ(質問531)を除外候補DB230に登録する。なお、反映の選択に基づいて回答DB228にQ&Aを登録する際、同一の質問(Q)が回答DB228に存在する場合には、反映が選択されたQ&A(質問531,回答532)で更新することが好ましい。 When the batch reflection button 540 is selected (clicked) in step S43, the dialogue generation unit 227 of the robot control device 20 asks Q & A (question 531) of the record in which the reflection check box 535 is checked in the search result display field 530. Answer 532) is registered in the answer DB 228, and Q (question 531) of the record in which the exclusion check box 536 is checked in the search result display field 530 is registered in the exclusion candidate DB 230. When registering a Q & A in the answer DB 228 based on the selection of reflection, if the same question (Q) exists in the answer DB 228, update it with the Q & A (question 531 and answer 532) selected for reflection. Is preferable.

以上、ステップS41〜S43の手順が実施されることで、ユーザによって反映が必要と判断されたQ&Aが回答DB228に新たに登録されるため、ロボット10は、案内サービスにおいて、顧客に適切な回答を行うことができるようになる。 As described above, by executing the steps S41 to S43, the Q & A determined to be reflected by the user is newly registered in the answer DB 228, so that the robot 10 gives an appropriate answer to the customer in the guidance service. You will be able to do it.

また、除外候補DB230に登録されたQ(質問)は、以降の修正候補作成処理において修正候補として選択されないため、Q&A修正候補として出力されないが、時間経過に伴うロボット10の環境の変化等を考慮すると、一定期間が経過した後は再び修正候補として選択されるようにすることが好ましい。この場合、ロボット制御装置20(例えば対話生成部227)は、除外候補DB230に登録されているデータに対して、所定の時間(例えば日付)によるローテーションを実施し、除外候補DB230に登録されてから所定期間が経過した場合には、Q(質問)のデータを削除すればよい。また、除外候補DB230からQ(質問)のデータを削除する処理は、ユーザが実施を指示できるとしてもよい。 Further, the Q (question) registered in the exclusion candidate DB 230 is not output as a Q & A correction candidate because it is not selected as a correction candidate in the subsequent correction candidate creation process, but the change in the environment of the robot 10 with the passage of time is taken into consideration. Then, after a certain period of time has passed, it is preferable that the correction candidate is selected again. In this case, the robot control device 20 (for example, the dialogue generation unit 227) rotates the data registered in the exclusion candidate DB 230 at a predetermined time (for example, a date), and after the data is registered in the exclusion candidate DB 230. When the predetermined period has passed, the Q (question) data may be deleted. Further, the process of deleting the Q (question) data from the exclusion candidate DB 230 may be instructed by the user.

(3−1)修正候補作成処理
次に、修正候補作成処理について詳しく説明する。
(3-1) Correction candidate creation process Next, the correction candidate creation process will be described in detail.

図12は、修正候補作成処理の処理手順例を示すフローチャートである。図11のステップS41で述べたように、人手によるQ&Aのメンテナンス(Q&A修正モード)において、Q&A修正画面500の検索条件入力欄510が入力され、検索ボタン520がクリックされた場合に、ロボット制御装置20(対話生成部227,画面生成部226)によって修正候補作成処理が実行される。 FIG. 12 is a flowchart showing a processing procedure example of the correction candidate creation process. As described in step S41 of FIG. 11, in the manual Q & A maintenance (Q & A correction mode), when the search condition input field 510 of the Q & A correction screen 500 is input and the search button 520 is clicked, the robot control device 20 (dialogue generation unit 227, screen generation unit 226) executes the correction candidate creation process.

図12によればまず、対話生成部227は、操作端末30からQ&A修正候補の出力要求(図11のステップS41参照)を受信すると、検索条件入力欄510に入力された検索条件で、対話ログDB229の検索を実施する(ステップS51)。 According to FIG. 12, first, when the dialogue generation unit 227 receives the output request of the Q & A correction candidate (see step S41 in FIG. 11) from the operation terminal 30, the dialogue log is entered in the search condition input field 510 with the search condition. A search for DB229 is performed (step S51).

ステップS51における対話ログDB229の検索は、1つの質問(Q)を順次抽出する処理であって、以下に詳しく説明する。まず、対話生成部227は、対話ログDB229に格納されている対話ログデータについて、例えば上から順に1行(レコード)を参照し、参照レコードに記録されている質問(Q)を抽出する(図9参照)。そして、上記抽出した質問(Q)を対話ログDB229から検索された質問として、ステップS52〜S56の処理が行われる。その後、ステップS57で全ての対話ログについて検索が完了したかが判定されるが、このとき、質問(Q)の抽出を行っていないレコードが対話ログDB229に残っていた場合は、ステップS57でNOと判定され、次の1レコード(例えば次行のレコード)を参照し、この参照レコードに記録されている質問(Q)が抽出されてステップS52〜S56の処理が行われる。このようにループ処理が繰り返されることで、最終的には対話ログDB229に登録されている全てのレコードに対して質問(Q)の検索が行われ、ステップS57でYESと判定される。 The search of the dialogue log DB229 in step S51 is a process of sequentially extracting one question (Q), which will be described in detail below. First, the dialogue generation unit 227 refers to one line (record) in order from the top, for example, with respect to the dialogue log data stored in the dialogue log DB 229, and extracts the question (Q) recorded in the reference record (FIG. 9). Then, the processes of steps S52 to S56 are performed by using the extracted question (Q) as a question searched from the dialogue log DB229. After that, it is determined in step S57 whether the search for all the dialogue logs is completed. At this time, if the record for which the question (Q) has not been extracted remains in the dialogue log DB229, NO in step S57. Is determined, the next one record (for example, the record of the next line) is referred to, the question (Q) recorded in this reference record is extracted, and the processes of steps S52 to S56 are performed. By repeating the loop process in this way, the question (Q) is finally searched for all the records registered in the dialogue log DB229, and YES is determined in step S57.

ステップS51で対話ログDB229から質問(Q)を検索した後、対話生成部227は、対話ログDB229から検索された質問(Q)について、除外候補DB230を検索する(ステップS52)。 After searching the question (Q) from the dialogue log DB 229 in step S51, the dialogue generation unit 227 searches the exclusion candidate DB 230 for the question (Q) searched from the dialogue log DB 229 (step S52).

そして、対話生成部227は、ステップS52の検索において、ステップS51で検索された質問(Q)が除外候補DB230に登録されている質問と一致するか否かを判定する(ステップS53)。ステップS53において一致すると判定した場合(ステップS53のYES)、除外候補DB230に登録されている質問はQ&A修正候補の対象とはしないことから、ステップS54〜S56の処理をスキップしてステップS57に進む。一方、ステップS53において一致しないと判定した場合は(ステップS53のNO)、Q&A修正候補の対象にしてもよいことから、ステップS54に進む。 Then, in the search in step S52, the dialogue generation unit 227 determines whether or not the question (Q) searched in step S51 matches the question registered in the exclusion candidate DB 230 (step S53). If it is determined in step S53 that they match (YES in step S53), the question registered in the exclusion candidate DB 230 is not the target of the Q & A correction candidate, so the process of steps S54 to S56 is skipped and the process proceeds to step S57. .. On the other hand, if it is determined in step S53 that they do not match (NO in step S53), the Q & A correction candidate may be the target, so the process proceeds to step S54.

ステップS54において、対話生成部227は、対話ログDB229から検索された質問(Q)をキーとして、回答DB228に登録されているQ&Aを検索する。さらに、対話生成部227は、ステップS51,S54における検索の結果に基づいて、対応するQ&Aをその適切性に応じたカテゴリに分類する分類処理を実施する(ステップS55)。 In step S54, the dialogue generation unit 227 searches the Q & A registered in the answer DB 228 using the question (Q) searched from the dialogue log DB 229 as a key. Further, the dialogue generation unit 227 performs a classification process of classifying the corresponding Q & A into categories according to its appropriateness based on the search results in steps S51 and S54 (step S55).

ここで、ステップS55で行われる、分類処理について説明する。なお、以下の説明では、対話ログDB229から検索された質問を「Q1」とし、Q1に対応する回答を「A1」とし、「Q1」をキーとして回答DB228から検索された質問を「Q2」とし、Q2に対応する回答を「A2」と称する。A1は対話ログDB229に登録されており、A2は回答DB228に登録されている。 Here, the classification process performed in step S55 will be described. In the following explanation, the question searched from the dialogue log DB229 is referred to as "Q1", the answer corresponding to Q1 is referred to as "A1", and the question searched from the answer DB228 using "Q1" as a key is referred to as "Q2". , The answer corresponding to Q2 is referred to as "A2". A1 is registered in the dialogue log DB229, and A2 is registered in the answer DB228.

ステップS55で回答DB228に登録されたQ&Aを分類する際、対話生成部227はまず、Q1,Q2,A1,A2に対して形態素解析を実施し、それぞれの文を文節に分ける。 When classifying the Q & A registered in the answer DB 228 in step S55, the dialogue generation unit 227 first performs morphological analysis on Q1, Q2, A1 and A2, and divides each sentence into clauses.

次に、対話生成部227は、形態素解析された結果に基づいて、Q1とQ2の一致度を表す「F1」と、A1とA2の一致度を表す「F2」を算出する。一致度F1は、例えば以下の式1によって算出される。算出されたF値が大きいほど、Q1とQ2の類似性が高いことを意味し、F値が小さいほど、Q1とQ2の類似性が低いことを意味する。なお、一致度F2はQ1,Q2をA1,A2に置き換えることで、同様に式1を用いて算出することができる。

Figure 2020204711
Next, the dialogue generation unit 227 calculates "F1" indicating the degree of agreement between Q1 and Q2 and "F2" indicating the degree of agreement between A1 and A2 based on the result of the morphological analysis. The degree of agreement F1 is calculated by, for example, the following equation 1. The larger the calculated F value, the higher the similarity between Q1 and Q2, and the smaller the F value, the lower the similarity between Q1 and Q2. The degree of coincidence F2 can be similarly calculated using Equation 1 by replacing Q1 and Q2 with A1 and A2.
Figure 2020204711

最後に、対話生成部227は、式1を用いて算出されたF1とF2の組み合わせに基づいて、Q&Aを分類する。分類の判定基準については、図13を参照しながら後述する。 Finally, the dialogue generation unit 227 classifies the Q & A based on the combination of F1 and F2 calculated using Equation 1. The criteria for classification will be described later with reference to FIG.

図12の説明に戻る。ステップS55で分類処理を行った後、対話生成部227は、分類結果に基づいてQ&Aを自動生成する(ステップS56)。Q&Aを自動生成する手順(ルール)については、図13を参照しながら後述する。 Returning to the description of FIG. After performing the classification process in step S55, the dialogue generation unit 227 automatically generates a Q & A based on the classification result (step S56). The procedure (rule) for automatically generating the Q & A will be described later with reference to FIG.

次いで、ステップS57では、対話生成部227は、ステップS51で前述したように、全ての対話ログについて検索が完了したか否かを判定し、完了と判定した場合は(ステップS57のYES)、ステップS58に進む。一方、検索の処理途中、すなわち対話ログDB229に未検索の対話ログが残っていると判定した場合は(ステップS57のNO)、対話生成部227は、次の対話ログ(質問(Q))を検索してステップS52に戻って処理を繰り返す。 Next, in step S57, as described above in step S51, the dialogue generation unit 227 determines whether or not the search has been completed for all the dialogue logs, and if it is determined to be complete (YES in step S57), step. Proceed to S58. On the other hand, if it is determined that an unsearched dialogue log remains in the dialogue log DB 229 during the search process (NO in step S57), the dialogue generation unit 227 asks the next dialogue log (question (Q)). The search is performed, the process returns to step S52, and the process is repeated.

ステップS58において、対話生成部227は、ステップS56で自動生成したそれぞれのQ&Aに対して、修正の優先度を示すスコア(優先度スコア)を算出し、算出された優先度スコアの降順で、対話ログごとにステップS54〜S56の処理を実行して得られた結果(検索結果)をソートする。優先度スコアを算出する手順(優先度スコア算出処理)については、図14を参照しながら後述する。 In step S58, the dialogue generation unit 227 calculates a score (priority score) indicating the priority of correction for each Q & A automatically generated in step S56, and interacts in descending order of the calculated priority score. The results (search results) obtained by executing the processes of steps S54 to S56 are sorted for each log. The procedure for calculating the priority score (priority score calculation process) will be described later with reference to FIG.

次に、対話生成部227は、ステップS58でソートされた検索結果を出力し、画面生成部226が、出力された情報を、Q&A修正画面500の検索結果表示欄530に表示する(ステップS59)。この結果、検索結果表示欄530には、修正の優先度が高い順に検索結果(Q&Aの修正候補に関する情報)が表示される。 Next, the dialogue generation unit 227 outputs the search results sorted in step S58, and the screen generation unit 226 displays the output information in the search result display field 530 of the Q & A correction screen 500 (step S59). .. As a result, in the search result display column 530, search results (information regarding correction candidates for Q & A) are displayed in descending order of priority for correction.

(3−2)分類の判定基準とQ&A自動生成のルール
図13は、分類の判定基準とQ&A自動生成のルールを定めた判定マトリクスを示す図である。図13に示したように、判定マトリクス440には、F1類似度とF2類似度との組み合わせに応じて、Q&Aの分類や自動生成のルールが定められている。ここで、F1類似度は、一致度F1を所定の閾値を基準として区分したものであり、Q1とQ2の質問としての類似度合いを示す。同様に、F2類似度は、一致度F2を所定の閾値を基準として区分したものであり、A1とA2の回答としての類似度合いを示す。本例では、F1類似度及びF2類似度は、類似度が高い順に、「大」、「中」、「小」の3種類を用いる。
(3-2) Classification Judgment Criteria and Q & A Automatic Generation Rule FIG. 13 is a diagram showing a judgment matrix in which classification judgment criteria and Q & A automatic generation rules are defined. As shown in FIG. 13, in the determination matrix 440, rules for Q & A classification and automatic generation are defined according to the combination of the F1 similarity and the F2 similarity. Here, the degree of similarity with F1 is a division of the degree of agreement F1 with reference to a predetermined threshold value, and indicates the degree of similarity as a question between Q1 and Q2. Similarly, the F2 similarity degree is a division of the degree of agreement F2 based on a predetermined threshold value, and indicates the degree of similarity as an answer between A1 and A2. In this example, three types of F1 similarity and F2 similarity are used in descending order of similarity: "large", "medium", and "small".

本例では、Q&Aの分類先のカテゴリとして、「回答誤り」、「回答誤り可能性有り」、「回答無し」、「同義語/言い回し不足」、及び「回答所有」の5種類のカテゴリが用意されており、何れのカテゴリに分類されるかによって、Q&Aの自動生成ルールも定まる。以下ではカテゴリごとに詳しく説明する。 In this example, there are five categories of Q & A classification destinations: "Answer error", "Answer error possibility", "No answer", "Synonyms / insufficient wording", and "Answer possession". The Q & A automatic generation rule is also determined depending on which category it is classified into. Each category will be described in detail below.

第1の組み合わせとして、F1類似度が大きく、F2類似度が小さい場合は(F1類似度(大)かつF2類似度(小))、「回答誤り」のカテゴリと分類する。これは、顧客による質問Q1と、回答DB228に登録された想定質問Q2との類似度が高い(一致する)にも拘わらず、オペレータの回答A1と回答DB228に登録された回答A2とが異なる状況であり、このとき回答DB228に登録された回答A2が誤っている可能性が高いため、「回答誤り」のカテゴリと分類する。 As the first combination, when the F1 similarity is large and the F2 similarity is small (F1 similarity (large) and F2 similarity (small)), it is classified into the category of "answer error". This is a situation in which the operator's answer A1 and the answer A2 registered in the answer DB 228 are different from each other even though the customer's question Q1 and the assumed question Q2 registered in the answer DB 228 have a high degree of similarity (match). At this time, since there is a high possibility that the answer A2 registered in the answer DB 228 is incorrect, it is classified into the category of "answer error".

カテゴリが「回答誤り」の場合は、回答DB228に登録された回答A2よりも、オペレータによる回答A1のほうが正しい可能性が高い。また、音声認識された結果である顧客質問のQ1よりも、人手で事前に判断し回答DB228に登録されたQ2のほうが、文章として整形されている。したがって、Q2とA1を用いてQ&Aの修正候補を自動生成する(Q=Q2,A=A1)。 When the category is "answer error", there is a high possibility that the answer A1 by the operator is more correct than the answer A2 registered in the answer DB228. In addition, Q2, which is manually determined in advance and registered in the answer DB 228, is shaped as a sentence rather than Q1 of the customer question, which is the result of voice recognition. Therefore, Q & A correction candidates are automatically generated using Q2 and A1 (Q = Q2, A = A1).

第2の組み合わせとして、F1類似度が大きく、F2類似度が中ぐらいの場合は(F1類似度(大)かつF2類似度(中))、「回答誤り可能性有り」のカテゴリに分類する。第2の組み合わせの場合は、第1の組み合わせの場合と同様に、回答DB228に登録された回答A2が誤っている可能性がある。そこで、カテゴリが「回答誤り可能性有り」の場合は、第1の組み合わせの「回答誤り」と同様に、Q2とA1を用いてQ&Aの修正候補を自動生成する(Q=Q2,A=A1)。 As the second combination, when the F1 similarity is large and the F2 similarity is medium (F1 similarity (large) and F2 similarity (medium)), it is classified into the category of "possible answer error". In the case of the second combination, as in the case of the first combination, the answer A2 registered in the answer DB 228 may be incorrect. Therefore, when the category is "possible answer error", Q & A correction candidates are automatically generated using Q2 and A1 as in the case of the first combination "answer error" (Q = Q2, A = A1). ).

第3の組み合わせとして、F1類似度が小さく、F2類似度も小さい場合は(F1類似度(小)かつF2類似度(小))、「回答無し」のカテゴリに分類する。これは、顧客による質問Q1に該当する想定質問Q2が回答DB228に登録されていないことを意味する。このため、カテゴリが「回答無し」の場合は、顧客による質問Q1とオペレータによる回答A1とを用いて、Q&Aの修正候補を自動生成する(Q=Q1,A=A1)。 As a third combination, when the F1 similarity is small and the F2 similarity is also small (F1 similarity (small) and F2 similarity (small)), it is classified into the category of "no answer". This means that the assumed question Q2 corresponding to the question Q1 by the customer is not registered in the answer DB 228. Therefore, when the category is "no answer", the correction candidate of Q & A is automatically generated by using the question Q1 by the customer and the answer A1 by the operator (Q = Q1, A = A1).

第4の組み合わせとして、F1類似度が中程度で、F2類似度が大きい場合は(F1類似度(中)かつF2類似度(大))、「同義語/言い回し不足」のカテゴリに分類する。これは、オペレータによる回答A1と回答DB228に登録されている回答A2との類似度が高い(一致する)一方、顧客による質問Q1と回答DB228に登録されている想定質問Q2とがやや類似しているという状況である。この場合、回答DB228に登録されている想定質問Q2において、同義語や言い回しの対応が不足していると判断されるため、「同義語/言い回し不足」のカテゴリに分類する。そしてカテゴリが「同義語/言い回し不足」の場合は、顧客による質問Q1と回答DB228に登録されている回答A2とを用いて、Q&Aの修正候補を自動生成する(Q=Q1,A=A2)。 As a fourth combination, when the F1 similarity is medium and the F2 similarity is large (F1 similarity (medium) and F2 similarity (large)), it is classified into the category of "synonyms / insufficient wording". This is because the answer A1 by the operator and the answer A2 registered in the answer DB228 have a high degree of similarity (match), while the question Q1 by the customer and the assumed question Q2 registered in the answer DB228 are slightly similar. The situation is that there is. In this case, since it is determined that the correspondence of synonyms and phrases is insufficient in the assumed question Q2 registered in the answer DB 228, it is classified into the category of "synonyms / insufficient phrases". Then, when the category is "synonyms / insufficient wording", the correction candidate of Q & A is automatically generated by using the question Q1 by the customer and the answer A2 registered in the answer DB228 (Q = Q1, A = A2). ..

第5の組み合わせとして、F1類似度が大きく、F2類似度も大きい場合は(F1類似度(大)かつF2類似度(大))、顧客とオペレータとの会話(Q1,A1)が既に回答DB228に登録されている(Q2,A2)ことを意味するので、「回答所有」のカテゴリに分類する。カテゴリが「回答所有」の場合は、Q&Aの修正候補の自動生成は実施する必要がない。 As a fifth combination, when the F1 similarity is large and the F2 similarity is also large (F1 similarity (large) and F2 similarity (large)), the conversation between the customer and the operator (Q1, A1) has already been answered DB228. Since it means that it is registered in (Q2, A2), it is classified into the category of "answer possession". If the category is "Owned answer", it is not necessary to automatically generate correction candidates for Q & A.

なお、Q&Aの修正候補を自動生成する際に共通して行われる処理を補足する。顧客による質問Q1とオペレータによる回答A1を用いる場合には、Q1,A1は音声認識結果であるため、対話生成部227(ロボット制御装置20の他の機能部でもよい)は、「えーと・・・」や「あのー・・・」等のフィラーを除去して生成を実施する。また、A1は、人による言い回しのバラつきが発生する可能性があるため、対話生成部227は、文章を形態素解析し整形した上で、出力を実施する。例えば、動詞の活用形において、「行け」等の命令形を検出した場合は、「お越しになってください」といった敬語表現への変換を実施する。 It should be noted that the processing commonly performed when automatically generating correction candidates for Q & A is supplemented. When the question Q1 by the customer and the answer A1 by the operator are used, since Q1 and A1 are voice recognition results, the dialogue generation unit 227 (may be another functional unit of the robot control device 20) is "um ... , "Ah ..." and other fillers are removed to carry out the generation. In addition, since there is a possibility that the wording of A1 may vary depending on the person, the dialogue generation unit 227 morphologically analyzes the sentence, shapes it, and then outputs the sentence. For example, if an imperative form such as "go" is detected in the inflected form of a verb, it is converted to a honorific expression such as "please come".

以上、図13の判定マトリクス440を参照しながら詳述したように、対話生成部227によって分類されたカテゴリに応じたルールで自動生成された「Q&Aの修正候補」には、回答DB228に登録されているQ&Aを修正したもの(具体的にはQ=Q1で自動作成されたもの)と、回答DB228には登録されていない新規のQ&A(具体的にはQ=Q2で自動作成されたもの)とが含まれる。本実施の形態では、このような「Q&Aの修正候補」が検索結果表示欄530に表示され、ユーザによる反映の選択を経て回答DB228に登録される。したがって、本実施の形態における「Q&Aの修正候補」は、回答DB228に登録されているQ&Aに対する修正あるいは回答DB228への新規登録の候補である。 As described above, as described in detail with reference to the determination matrix 440 of FIG. 13, the “Q & A correction candidates” automatically generated by the rules according to the categories classified by the dialogue generation unit 227 are registered in the answer DB 228. A modified version of the Q & A (specifically, automatically created with Q = Q1) and a new Q & A not registered in the answer DB228 (specifically, automatically created with Q = Q2). And are included. In the present embodiment, such "Q & A correction candidates" are displayed in the search result display field 530, and are registered in the response DB 228 after the user selects the reflection. Therefore, the "Q & A modification candidate" in the present embodiment is a candidate for modification to the Q & A registered in the answer DB 228 or a new registration in the answer DB 228.

また、本実施の形態に係る対話登録システム1では、前述したように、翻訳サービスモードで人と人との対話が異なる言語で行われた場合には、翻訳制御部225によって発話が相互翻訳され、翻訳結果が言語を統一して対話ログDB229に格納し、また、回答DB228でも同一言語に統一されたQ&Aが登録されることから、対話ログDB229及び回答DB228に保持された情報に基づいて対話生成部227が自動生成した「Q&Aの修正候補」も同一言語に統一されたQ&Aとなる。すなわち、Q&A修正画面500の検索結果表示欄530においても、同一言語に統一されたQ&Aの修正候補が表示されるため、適切なQ&Aの組み合わせを提示できるとともに、メンテナンスを行うユーザが修正候補を反映するか否かを判断し易くすることができる。 Further, in the dialogue registration system 1 according to the present embodiment, as described above, when the dialogue between people is performed in different languages in the translation service mode, the utterances are mutually translated by the translation control unit 225. , The translation result is stored in the dialogue log DB229 in a unified language, and the Q & A unified in the same language is also registered in the answer DB 228. Therefore, the dialogue is based on the information held in the dialogue log DB 229 and the answer DB 228. The "Q & A correction candidates" automatically generated by the generation unit 227 are also Q & A unified in the same language. That is, since the Q & A correction candidates unified in the same language are also displayed in the search result display field 530 of the Q & A correction screen 500, an appropriate Q & A combination can be presented and the maintenance user reflects the correction candidates. It is possible to make it easier to determine whether or not to do so.

(3−3)優先度スコア算出処理
図14は、優先度スコア算出処理の処理手順例を示すフローチャートである。図14に示した優先度スコア算出処理は、図12のステップS56で自動生成されたQ&Aの修正候補について、修正の優先度を示す優先度スコアを算出する処理(ステップS57)であって、対話生成部227によって実行される。
(3-3) Priority Score Calculation Process FIG. 14 is a flowchart showing a processing procedure example of the priority score calculation process. The priority score calculation process shown in FIG. 14 is a process (step S57) for calculating a priority score indicating the priority of correction for the correction candidates of the Q & A automatically generated in step S56 of FIG. 12, and is a dialogue. It is executed by the generation unit 227.

図14によれば、対話生成部227は、ステップS61〜S69において、回答DB228に登録されたQ&Aの分類結果(図12のステップS55)に応じて、分類結果に関する優先度を示すパラメータAfの値を設定する。Afの設定値α1〜α5は、予め設定された定数であるが、分類ごとの修正の優先度に応じた関係性を有する。具体的には、修正の優先度を、「回答誤り>回答無し>回答誤り可能性有り>同義語/言い回し不足>回答所有」とした場合には、α1>α2>α3>α4>α5の関係性を有する。 According to FIG. 14, in steps S61 to S69, the dialogue generation unit 227 values the parameter Af indicating the priority regarding the classification result according to the classification result of the Q & A registered in the answer DB 228 (step S55 in FIG. 12). To set. The set values α1 to α5 of Af are preset constants, but have a relationship according to the priority of modification for each classification. Specifically, when the priority of correction is "Answer error> No answer> Possibility of answer error> Synonyms / Insufficient wording> Answer possession", the relationship of α1> α2> α3> α4> α5 Has sex.

Afが設定された後、対話生成部227は、回答DB228を参照し、回答DB228に格納されているQ&Aデータのうち、算出対象のQ&Aに対応するQ&Aの登録日時(図4の編集時間413に相当)を取得する(ステップS70)。 After the Af is set, the dialogue generation unit 227 refers to the answer DB 228, and among the Q & A data stored in the answer DB 228, the registration date and time of the Q & A corresponding to the Q & A to be calculated (at the edit time 413 in FIG. 4). (Equivalent) is acquired (step S70).

次に、対話生成部227は、経過時間に関する優先度を示すパラメータTfの値を算出する(ステップS71)。具体的には、対話生成部227は、ステップS70で取得した登録日時と現在日時との差分から経過日数を算出し、経過日数に所定の係数β1を乗ずることによって、Tfの値を算出する。ここで、Tfを「経過日数×β1」で算出する理由は、過去に登録されたQ&Aであるほど(経過日数が長いほど)、案内対象の施設が変更される等の状況の変化が生じている可能性が高く、正しい回答も変化している可能性が高いため、修正の優先度を高くするべきだからである。 Next, the dialogue generation unit 227 calculates the value of the parameter Tf indicating the priority with respect to the elapsed time (step S71). Specifically, the dialogue generation unit 227 calculates the number of elapsed days from the difference between the registration date and time acquired in step S70 and the current date and time, and calculates the value of Tf by multiplying the number of elapsed days by a predetermined coefficient β1. Here, the reason for calculating Tf by "elapsed days x β1" is that the Q & A registered in the past (the longer the elapsed days), the more the facilities to be guided are changed, and the situation changes. This is because the correct answer is likely to have changed, and the correction should be prioritized.

次いで、対話生成部227は、質問の多重度を示すパラメータNとして、指定された検索期間において顧客から同一の質問が実施された回数を取得する(ステップS72)。上記のようにパラメータNを取得する理由は、Q&Aが何度も質問される内容であるほど、早期に回答を用意することで、ロボット10による案内サービスを効果的にすることが期待できるからである。 Next, the dialogue generation unit 227 acquires the number of times the same question is asked by the customer in the designated search period as the parameter N indicating the multiplicity of questions (step S72). The reason for acquiring the parameter N as described above is that it can be expected that the guidance service by the robot 10 will be effective by preparing the answer as soon as the Q & A is asked many times. is there.

そして最後に、対話生成部227は、ステップS61〜S72で算出または取得されたAf,Tf,Nを用いて、最終的な優先度スコアMfを算出する(ステップS73)。優先度スコアMfは、具体的には以下の式2によって算出される。

Figure 2020204711
なお、式2によって算出された優先度スコアMfは、Mfの値が大きいほど、回答DB228に現在登録されているQ&Aを修正する必要性が高いことを意味する。 Finally, the dialogue generation unit 227 calculates the final priority score Mf using Af, Tf, and N calculated or acquired in steps S61 to S72 (step S73). Specifically, the priority score Mf is calculated by the following equation 2.
Figure 2020204711
The priority score Mf calculated by Equation 2 means that the larger the value of Mf, the higher the need to correct the Q & A currently registered in the answer DB 228.

以上に説明したように、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいて、ユーザから指定された検索条件に該当するQ&Aに関して回答DB228へのQ&Aの修正候補の自動生成を実施し、早期に修正が必要な候補から順に、Q&A修正画面500の検索結果表示欄530に表示することができるため、人手(ユーザ)によるQ&Aのメンテナンスの効果的な実施を支援することができる。 As described above, the robot dialogue registration system 1 according to the present embodiment automatically generates Q & A correction candidates to the answer DB 228 regarding the Q & A corresponding to the search condition specified by the user in the Q & A correction mode. Since it can be displayed in the search result display field 530 of the Q & A correction screen 500 in order from the candidate that needs to be corrected at an early stage, it is possible to support the effective implementation of Q & A maintenance by humans (users). ..

また、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいてQ&Aの修正候補が自動生成され、ユーザの選択によって回答DB228に登録されることで、事前に想定されていなかったドメインのQ&Aを拡充することができ、対話サービスの質を向上させることができる。また、人手でメンテナンスを実施するユーザの作業負担を軽減することもできる。 Further, in the robot dialogue registration system 1 according to the present embodiment, Q & A correction candidates are automatically generated in the Q & A correction mode and registered in the answer DB 228 by the user's selection, so that the domain is not expected in advance. Q & A can be expanded and the quality of dialogue service can be improved. In addition, it is possible to reduce the workload of the user who performs maintenance manually.

また、本実施の形態に係るロボットの対話登録システム1は、図13の判定マトリクス440を参照しながら説明したように、修正候補作成処理においてQ&Aの分類先が「同義語/言い回し不足」のカテゴリであるときは、顧客による質問Q1と回答DB228に登録されている回答A2とを用いてQ&Aの修正候補を自動生成することで、人によって言い回しが異なる等の属人性の問題を解消することができる。また、Q&Aの修正候補の生成で、顧客による質問Q1やオペレータによる回答A1といった音声認識結果を用いる場合には、フィラー除去や形態素解析を用いた整形を行うことによって、生成するQ&Aから更に属人性を排除することができる。この結果、人手によるメンテナンスにおいてユーザ負担を軽減する効果に期待できる。 Further, in the robot dialogue registration system 1 according to the present embodiment, as described with reference to the determination matrix 440 of FIG. 13, the Q & A classification destination is the category of "synonymous word / insufficient wording" in the correction candidate creation process. In this case, by automatically generating Q & A correction candidates using the customer's question Q1 and the answer A2 registered in the answer DB228, it is possible to solve the problem of personality such as different wording depending on the person. it can. In addition, when using voice recognition results such as question Q1 by the customer and answer A1 by the operator in the generation of correction candidates for Q & A, by performing shaping using filler removal and morphological analysis, further personality is obtained from the generated Q & A. Can be excluded. As a result, the effect of reducing the burden on the user in manual maintenance can be expected.

また、本実施の形態に係るロボットの対話登録システム1は、Q&A修正モードにおいて、Q&A修正画面500の検索結果表示欄530に表示されたQ&Aの修正候補のうち、ユーザが除外チェックボックス536をチェックしたQ&Aについては、以降の検索対象から除外することができる。これにより、以降の人手によるメンテナンスにおいて、修正不要なQ&Aの修正候補が表示されることがなくなり、ユーザによるメンテナンスの効率化を図ることができる。 Further, in the robot dialogue registration system 1 according to the present embodiment, in the Q & A correction mode, the user checks the exclusion check box 536 among the Q & A correction candidates displayed in the search result display field 530 of the Q & A correction screen 500. The Q & A that has been performed can be excluded from the subsequent search targets. As a result, in the subsequent manual maintenance, correction candidates for Q & A that do not need to be corrected are not displayed, and the efficiency of maintenance by the user can be improved.

なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。例えば、上記の実施の形態では、ロボットの対話登録システム1は、ロボット10、ロボット制御装置20、及び操作端末30から構成されるとして説明したが、本発明に係るロボットの対話登録システムの構成はこれに限定されるものではなく、ロボット制御装置20が、操作端末30に代えてユーザに表示する機能やユーザからの入力を受ける機能を備えたり、ロボット10にロボット制御装置20及び操作端末30の機能を搭載したりする等、ロボットの対話登録システムの主要な構成が1または2の装置にまとめられてもよい。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to add / delete / replace a part of the configuration of the embodiment with another configuration. For example, in the above embodiment, the robot dialogue registration system 1 has been described as being composed of the robot 10, the robot control device 20, and the operation terminal 30, but the configuration of the robot dialogue registration system according to the present invention is The robot control device 20 is not limited to this, and the robot control device 20 is provided with a function of displaying to the user or a function of receiving input from the user in place of the operation terminal 30, and the robot 10 is equipped with the robot control device 20 and the operation terminal 30. The main configurations of the robot interactive registration system, such as being equipped with functions, may be integrated into one or two devices.

また、本発明を適用可能なシーンやシチュエーションも、上記した実施の形態に限定されるものではない。例えば、上記の実施の形態では、人(顧客)と人(オペレータ)との対話をロボット10が翻訳によって支援する翻訳サービスのシチュエーションで対話登録システム1の説明を行ったが、本発明はこれに限定されるものではなく、コールセンタ等における顧客とオペレータによる案内サービスの音声認識結果に基づいて、併用するチャットボットのQ&Aを成長させる等、その他のシーンにも適用可能である。なお、上記コールセンタのシチュエーションに適用する場合には、電話の発信元が顧客であり、電話の受信先がオペレータになるため、図6のステップS15に示した顧客を識別する処理は実行不要となる。 Further, the scenes and situations to which the present invention can be applied are not limited to the above-described embodiments. For example, in the above embodiment, the dialogue registration system 1 has been described in the situation of a translation service in which the robot 10 supports the dialogue between a person (customer) and a person (operator) by translation. It is not limited to this, and can be applied to other scenes such as growing the Q & A of the chatbot to be used together based on the voice recognition result of the guidance service by the customer and the operator at the call center or the like. In the case of applying to the above call center situation, since the call source is the customer and the call recipient is the operator, the process of identifying the customer shown in step S15 of FIG. 6 does not need to be executed. ..

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、図面において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実施には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, in the drawings, the control lines and information lines are shown as necessary for explanation, and not all the control lines and information lines are necessarily shown in the product. In practice it may be considered that almost all configurations are interconnected.

1 対話登録システム
10 ロボット
20 ロボット制御装置
30 操作端末
110,210,310 CPU
120,220,320 記憶装置
121 駆動制御部
122 対話制御部
123 入出力部
130,330 入出力装置
131 カメラ
132 マイクロフォン
133 ジャイロセンサ
134 測域センサ
135 スピーカ
136 駆動機構
140,240,340 通信インタフェース
221 音声認識部
222 画像認識部
223 サービス制御部
224 対話制御部
225 翻訳制御部
226 画面生成部
227 対話生成部
228 回答DB
229 対話ログDB
230 除外候補DB
321 ブラウザ
322 入出力部
331 ディスプレイ
332 キーボード
333 マウス
410 Q&Aデータ
420,430 対話ログデータ
440 判定マトリクス
500 Q&A修正画面
510 検索条件入力欄
520 検索ボタン
530 検索結果表示欄
540 一括反映ボタン
1 Dialogue registration system 10 Robot 20 Robot control device 30 Operation terminal 110, 210, 310 CPU
120, 220, 320 Storage device 121 Drive control unit 122 Dialogue control unit 123 Input / output unit 130, 330 Input / output device 131 Camera 132 Microphone 133 Gyro sensor 134 Range sensor 135 Speaker 136 Drive mechanism 140, 240, 340 Communication interface 221 Voice Recognition unit 222 Image recognition unit 223 Service control unit 224 Dialogue control unit 225 Translation control unit 226 Screen generation unit 227 Dialogue generation unit 228 Answer DB
229 Dialogue log DB
230 Exclusion candidate DB
321 Browser 322 Input / output section 331 Display 332 Keyboard 333 Mouse 410 Q & A data 420,430 Dialogue log data 440 Judgment matrix 500 Q & A correction screen 510 Search condition input field 520 Search button 530 Search result display field 540 Batch reflection button

Claims (7)

対話サービスを提供するロボットによる顧客からの質問に対する回答を登録する登録システムであって、
人と人との対話を音声認識する音声認識部と、
前記音声認識部による音声認識結果が対話ログとして登録される対話ログデータベースと、
前記質問と、当該質問に対する前記回答との組合せが対話例として予め登録された回答データベースと、
前記対話ログデータベースに登録された前記対話ログ及び前記回答データベースに登録された前記対話例に基づいて前記対話例の適切性を判定し、判定結果に応じたルールで前記対話例の修正候補を生成する対話生成部と、
前記対話生成部により生成された前記修正候補が掲載された前記対話例修正画面を生成する画面生成部と
を備え、
前記対話生成部は、
前記対話例修正画面上で選択された前記修正候補を前記回答データベースに登録する
ことを特徴とするロボットの対話登録システム。
A registration system that registers answers to customer questions by robots that provide dialogue services.
A voice recognition unit that recognizes human-to-human dialogue,
A dialogue log database in which the voice recognition result by the voice recognition unit is registered as a dialogue log, and
An answer database in which a combination of the question and the answer to the question is registered in advance as an example of dialogue,
The appropriateness of the dialogue example is determined based on the dialogue log registered in the dialogue log database and the dialogue example registered in the response database, and correction candidates of the dialogue example are generated according to the rules according to the determination result. Dialog generator and
A screen generation unit for generating the dialogue example correction screen on which the correction candidates generated by the dialogue generation unit are posted is provided.
The dialogue generation unit
The dialogue example A robot dialogue registration system characterized in that the correction candidates selected on the correction screen are registered in the answer database.
前記対話生成部は、
前記対話ログにおける前記質問及び前記対話例における前記質問の一致度と、当該対話ログにおける前記回答及び前記対話例における前記回答との一致度とに基づいて前記対話例を前記適切性に応じたカテゴリに分類し、
生成した前記修正候補のそれぞれについて、対応する前記対話例の分類先の前記カテゴリと、当該対話例が前記回答データベースに登録されてからの経過時間と、当該対話例における前記質問が前記顧客からされた回数とに基づいて、修正の優先度を算出し、
算出した前記優先度に応じた順番で各前記修正候補を前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The dialogue generation unit
A category according to the appropriateness of the dialogue example based on the degree of agreement between the question in the dialogue log and the question in the dialogue example and the degree of agreement between the answer in the dialogue log and the answer in the dialogue example. Classified into
For each of the generated modification candidates, the category to which the corresponding dialogue example is classified, the elapsed time since the dialogue example was registered in the answer database, and the question in the dialogue example are asked by the customer. Calculate the modification priority based on the number of times
The robot dialogue registration system according to claim 1, wherein each of the correction candidates is posted on the dialogue example correction screen in an order according to the calculated priority.
前記音声認識部は、
人と人との対話の音声データから質問及び回答を識別してそれぞれテキストに変換し、変換した前記テキストに対してフィラーの除去又は形態素解析を実施して前記テキストを整形する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The voice recognition unit
It is characterized in that questions and answers are identified from voice data of human-to-human dialogue, converted into texts, and the converted texts are shaped by removing fillers or performing morphological analysis. The robot dialogue registration system according to claim 1.
前記対話生成部は、
前記修正候補を生成する際、前記ルールに従って前記対話ログの回答から前記修正候補の回答を生成する場合には、前記対話ログの回答に所定の整形処理を実施したものを前記修正候補の回答とし、
前記画面生成部は、
前記整形処理の前後の回答の表示を含む態様で、前記修正候補が掲載された前記Q&A修正画面を生成する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The dialogue generation unit
When generating the correction candidate, when the answer of the correction candidate is generated from the answer of the dialogue log according to the rule, the answer of the dialogue log obtained by performing a predetermined shaping process is regarded as the answer of the correction candidate. ,
The screen generator
The robot dialogue registration system according to claim 1, wherein the Q & A correction screen on which the correction candidates are posted is generated in a mode including display of answers before and after the shaping process.
前記対話生成部は、
前記対話ログにおける前記質問及び前記対話例における前記質問の一致度と、当該対話ログにおける前記回答及び当該対話例における前記回答との一致度とに基づいて、当該対話例を前記適切性に応じたカテゴリに分類し、
前記画面生成部は、
各前記修正候補の分類先の前記カテゴリを当該前記修正候補と対応付けて前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The dialogue generation unit
Based on the degree of agreement between the question in the dialogue log and the question in the dialogue example, and the degree of agreement between the answer in the dialogue log and the answer in the dialogue example, the dialogue example was adapted to the appropriateness. Categorize and
The screen generator
The robot dialogue registration system according to claim 1, wherein the category of the classification destination of each of the modification candidates is associated with the modification candidate and posted on the dialogue example modification screen.
前記対話が異なる言語で行われた場合に、前記音声認識部による前記対話の音声認識結果に翻訳を実施して言語を統一し、前記翻訳の結果を前記対話ログとして前記対話ログデータベースに格納する翻訳制御部をさらに備え、
前記対話生成部は、
同一の言語に統一された前記対話ログ及び前記対話例に基づいて前記修正候補を生成し、
前記画面生成部は、
統一された前記言語の前記修正候補を前記対話例修正画面に掲載する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
When the dialogue is performed in a different language, the voice recognition result of the dialogue is translated by the voice recognition unit to unify the language, and the translation result is stored in the dialogue log database as the dialogue log. With a translation control unit
The dialogue generation unit
The correction candidate is generated based on the dialogue log and the dialogue example unified in the same language.
The screen generator
The robot dialogue registration system according to claim 1, wherein the correction candidate of the unified language is posted on the dialogue example correction screen.
前記ユーザは、前記対話例修正画面において、当該対話例修正画面に表示された前記修正候補を編集でき、
前記対話生成部は、
前記対話例修正画面において編集された前記修正候補が選択された場合に、編集後の当該修正候補を前記回答データベースに登録する
ことを特徴とする請求項1に記載のロボットの対話登録システム。
The user can edit the correction candidate displayed on the dialogue example correction screen on the dialogue example correction screen.
The dialogue generation unit
The robot dialogue registration system according to claim 1, wherein when the edited modification candidate is selected on the dialogue example modification screen, the edited modification candidate is registered in the answer database.
JP2019112372A 2019-06-17 2019-06-17 Registration system Pending JP2020204711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019112372A JP2020204711A (en) 2019-06-17 2019-06-17 Registration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019112372A JP2020204711A (en) 2019-06-17 2019-06-17 Registration system

Publications (1)

Publication Number Publication Date
JP2020204711A true JP2020204711A (en) 2020-12-24

Family

ID=73837958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019112372A Pending JP2020204711A (en) 2019-06-17 2019-06-17 Registration system

Country Status (1)

Country Link
JP (1) JP2020204711A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022107933A (en) * 2021-01-12 2022-07-25 智久 末重 dialogue system
JP7289169B1 (en) 2022-12-22 2023-06-09 アンカーデザイン株式会社 Information processing device, method, program, and system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022107933A (en) * 2021-01-12 2022-07-25 智久 末重 dialogue system
JP7339615B2 (en) 2021-01-12 2023-09-06 智久 末重 dialogue system
JP7289169B1 (en) 2022-12-22 2023-06-09 アンカーデザイン株式会社 Information processing device, method, program, and system

Similar Documents

Publication Publication Date Title
US10319381B2 (en) Iteratively updating parameters for dialog states
US11380327B2 (en) Speech communication system and method with human-machine coordination
US8515736B1 (en) Training call routing applications by reusing semantically-labeled data collected for prior applications
KR100563365B1 (en) Hierarchical Language Model
US10771627B2 (en) Personalized support routing based on paralinguistic information
JP4880258B2 (en) Method and apparatus for natural language call routing using reliability scores
US20190332680A1 (en) Multi-lingual virtual personal assistant
CN1310207C (en) System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP4510953B2 (en) Non-interactive enrollment in speech recognition
US6839667B2 (en) Method of speech recognition by presenting N-best word candidates
US20150288818A1 (en) Method and apparatus for predicting intent in ivr using natural language queries
US20130166279A1 (en) System and method for recognizing a user voice command in noisy environment
JP2001506382A (en) Pattern recognition registration in distributed systems
JP2019053126A (en) Growth type interactive device
US20200066259A1 (en) Intelligence-driven virtual assistant for automated idea documentation
CN110415679B (en) Voice error correction method, device, equipment and storage medium
CN108305618B (en) Voice acquisition and search method, intelligent pen, search terminal and storage medium
CN104299623A (en) Automated confirmation and disambiguation modules in voice applications
JP7107229B2 (en) Information processing device, information processing method, and program
Granell et al. Multimodal crowdsourcing for transcribing handwritten documents
KR20220081120A (en) Artificial intelligence call center system and method for providing system-based service
JP2020204711A (en) Registration system
US11615787B2 (en) Dialogue system and method of controlling the same
JP5844375B2 (en) Object search system and object search method
KR20180121120A (en) A machine learning based voice ordering system that can combine voice, text, visual interfaces to purchase products through mobile divices