JP4798577B2 - Dialogue support system - Google Patents

Dialogue support system Download PDF

Info

Publication number
JP4798577B2
JP4798577B2 JP2006017512A JP2006017512A JP4798577B2 JP 4798577 B2 JP4798577 B2 JP 4798577B2 JP 2006017512 A JP2006017512 A JP 2006017512A JP 2006017512 A JP2006017512 A JP 2006017512A JP 4798577 B2 JP4798577 B2 JP 4798577B2
Authority
JP
Japan
Prior art keywords
user
operator
dialogue
information
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006017512A
Other languages
Japanese (ja)
Other versions
JP2007199997A (en
JP2007199997A5 (en
Inventor
法明 光永
崇行 神田
智史 小泉
昌裕 塩見
敬宏 宮下
雄一郎 吉川
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006017512A priority Critical patent/JP4798577B2/en
Publication of JP2007199997A publication Critical patent/JP2007199997A/en
Publication of JP2007199997A5 publication Critical patent/JP2007199997A5/ja
Application granted granted Critical
Publication of JP4798577B2 publication Critical patent/JP4798577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Description

この発明は、対話支援システムに関し、たとえばロボットを介して人と人とが対話する際の対話を支援する、対話支援システムに関する。   The present invention relates to a dialog support system, for example, a dialog support system that supports a dialog when a person interacts with a person via a robot.

従来のこの種のシステムの一例が、特許文献1に開示されている。この従来技術によれば、利用者が相手と対話する際に、制御部が相手のプロフィールをデータベースから取得し、その取得されたプロフィールは、表示部に表示される。これによって、対話の活発化が図られる。
特開2003−157224号公報
An example of a conventional system of this type is disclosed in Patent Document 1. According to this prior art, when a user interacts with a partner, the control unit acquires the partner's profile from the database, and the acquired profile is displayed on the display unit. As a result, the dialogue is activated.
JP 2003-157224 A

しかし、従来技術では、利用者が操作する情報機器としてパソコン,携帯端末,インターネットテレビが想定されている。パソコンや携帯端末では、対面する対象が無機的であることから、たとえば子供が対話を進めるにあたって抵抗感を覚え、対話の活発化が阻害される可能性がある。また、インターネットテレビでは、相手の顔が表示されることから、相手の顔の印象や表情の変化に敏感に反応する利用者にとっては、対話の活発化が阻害される可能性がある。     However, in the prior art, a personal computer, a portable terminal, and an Internet television are assumed as information devices operated by the user. In personal computers and mobile terminals, since the object to be faced is inorganic, for example, a child may feel resistance when proceeding with a dialogue, and activation of the dialogue may be hindered. In addition, since the other party's face is displayed on the Internet TV, activation of the dialogue may be hindered for users who react sensitively to changes in the other party's face impression and facial expression.

それゆえに、この発明の主たる目的は、このような阻害感を排除して対話の活発化を図ることができる、新規な対話支援システムを提供することである。     Therefore, a main object of the present invention is to provide a novel dialogue support system capable of eliminating such a sense of hindrance and activating dialogue.

請求項1の発明に従う対話支援システム(10)は、ユーザ(CS)と対面するロボット(12)と、対話支援情報を管理するデータベースサーバ(16)と、オペレータ(OP)によって操作される端末装置(18)とを備え、ロボットおよび端末装置を介してオペレータがユーザと対話するシステムである。ロボットは、ユーザを識別する識別手段(12b)、およびユーザとオペレータとの間の対話処理を実行する第1対話処理手段(S9)を備え、データベースサーバは識別手段の識別結果に適合する対話支援情報を抽出する抽出手段(S23, S25)を備え、そして端末装置は、抽出手段によって抽出された対話支援情報をオペレータに提示する提示手段(S47)、およびユーザとオペレータとの間の対話処理を実行する第2対話処理手段(S55)を備える。 The dialogue support system (10) according to the invention of claim 1 includes a robot (12) facing a user (CS), a database server (16) for managing dialogue support information, and a terminal device operated by an operator (OP). (18), in which the operator interacts with the user via the robot and the terminal device. The robot includes an identification unit (12b) for identifying a user and a first interaction processing unit (S9) for executing a dialogue process between the user and the operator, and the database server supports dialogue support that matches the identification result of the identification unit Extraction means (S23, S25) for extracting information, and the terminal device provides presentation means (S47) for presenting the dialogue support information extracted by the extraction means to the operator, and dialogue processing between the user and the operator. Second dialog processing means (S55) to be executed is provided.

ロボットはユーザと対面し、データベースサーバは対話支援情報を管理し、そして端末装置はオペレータによって操作される。ロボットに関しては、識別手段がユーザを識別し、第1対話処理手段がユーザとオペレータとの間の対話処理を実行する。データベースサーバに関しては、抽出手段が識別手段の識別結果に適合する対話支援情報を抽出する。端末装置に関しては、提示手段が抽出手段によって抽出された対話支援情報をオペレータに提示し、第2対話処理手段がユーザとオペレータとの間の対話処理を実行する。   The robot faces the user, the database server manages the dialogue support information, and the terminal device is operated by the operator. With respect to the robot, the identification unit identifies the user, and the first dialogue processing unit executes dialogue processing between the user and the operator. As for the database server, the extraction means extracts dialogue support information that matches the identification result of the identification means. As for the terminal device, the presenting means presents the dialog support information extracted by the extracting means to the operator, and the second dialog processing means executes the dialog processing between the user and the operator.

つまり、オペレータは端末装置を操作する一方、ユーザはロボットと対面する。また、オペレータとユーザとの間で対話を行うにあたって、対話支援情報が端末装置を通してオペレータに提示される。オペレータが対話支援情報を参照して発したメッセージは、ロボットを通してユーザに伝えられる。また、ユーザがロボットに向けて発したメッセージは、端末装置を通してオペレータに伝えられる。このように、オペレータは対話支援情報を参照し、ユーザはロボットと向き合うため、オペレータ主導の活発な対話が実現される。   That is, the operator operates the terminal device while the user faces the robot. Further, when a dialogue is performed between the operator and the user, dialogue support information is presented to the operator through the terminal device. A message issued by the operator referring to the dialogue support information is transmitted to the user through the robot. A message issued by the user to the robot is transmitted to the operator through the terminal device. Thus, since the operator refers to the dialogue support information and the user faces the robot, an active dialogue led by the operator is realized.

請求項2の発明に従う対話支援システムは、請求項1に従属し、第1対話処理手段は、オペレータからの指示を音声およびジャスチャの少なくとも一方によってユーザに伝えるとともに、ユーザからの情報を音声およびジェスチャの少なくとも一方によってオペレータに伝える。 The dialogue support system according to the invention of claim 2 is dependent on claim 1, and the first dialogue processing means transmits an instruction from the operator to the user by at least one of voice and gesture, and information from the user is voice and gesture. by at least one of Ru communicated to the operator.

請求項3の発明に従う対話支援システムは、請求項1または2に従属し、第2対話処理手段は、ロボットを介して伝えられるユーザからの対話情報とデータベースサーバからの対話支援情報とをオペレータに伝えるとともに、対話情報および対話支援情報に基づいてオペレータがロボットを介してユーザに伝える情報を入力する。   The dialogue support system according to the invention of claim 3 is dependent on claim 1 or 2, and the second dialogue processing means sends the dialogue information from the user and the dialogue support information from the database server transmitted to the operator to the operator. Information is transmitted to the user via the robot based on the dialogue information and the dialogue support information.

この発明によれば、オペレータは対話支援情報を参照し、ユーザはロボットと向き合うため、オペレータ主導による活発な対話が実現される。   According to the present invention, since the operator refers to the dialogue support information and the user faces the robot, an active dialogue led by the operator is realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の対話支援システム10は、タグTGが埋め込まれた会員カードCDを所持するユーザCSと対面するコミュニケーションロボット(以下、単に「ロボット」という)12と、ユーザCSを含む複数のユーザの個人情報と追加情報とを管理するデータベースサーバ16と、オペレータOPによって操作される端末装置18とを備える。ロボット12,データベースサーバ16および端末装置18のいずれも、公衆インターネット網14に接続される。ユーザCSおよびオペレータOPの対話は、このような対話支援システム10を利用することで実現される。   Referring to FIG. 1, a dialogue support system 10 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 12 facing a user CS holding a member card CD in which a tag TG is embedded, and a user CS. A database server 16 for managing personal information and additional information of a plurality of users, and a terminal device 18 operated by an operator OP. All of the robot 12, the database server 16, and the terminal device 18 are connected to the public Internet network 14. The dialogue between the user CS and the operator OP is realized by using such a dialogue support system 10.

ロボット12は人間型であり、頭部に眼カメラ12aおよびスピーカ12cを有し、胸部および腹部にマイク12dおよびタグリーダ12bをそれぞれ有する。ユーザCSの姿は眼カメラ12aによって捉えられ、ユーザCSの発話音声はマイク12dによって捉えられる。また、オペレータOPの発話音声はスピーカ12cから出力され、タグTGの情報はタグリーダ12bによって読み取られる。端末装置18は、オペレータOPの発話音声を取り込むマイク18aと、ユーザCSの発話音声を出力するスピーカ18bと、ユーザCSの姿を映し出すモニタ18cを備える。 Robot 12 is humanoid, head to have eye camera 12a and a speaker 12c, each having a microphone 12d and tag reader 12b to the chest and abdomen. The appearance of the user CS is captured by the eye camera 12a, and the voice of the user CS is captured by the microphone 12d. Further, the voice of the operator OP is output from the speaker 12c, and the information on the tag TG is read by the tag reader 12b. The terminal device 18 includes a microphone 18a that captures the speech of the operator OP, a speaker 18b that outputs the speech of the user CS, and a monitor 18c that reflects the appearance of the user CS.

図2を参照して、ロボット12は、全体の制御のためのCPU12jを含む。このCPU12jには、バス12nを介して、センサ入出力ボード12e,音声入出力ボード12f,メモリ12g,モータ制御ボード12hおよび無線LANボード12kが接続される。   Referring to FIG. 2, the robot 12 includes a CPU 12j for overall control. The CPU 12j is connected to a sensor input / output board 12e, an audio input / output board 12f, a memory 12g, a motor control board 12h, and a wireless LAN board 12k via a bus 12n.

センサ入出力ボード12eは、たとえばDSP(Digital Signal Processor)で構成され、眼カメラ12aから出力された画像データとタグリーダ12bによって読み取られたタグ情報とを、CPU12jに入力する。 Sensor output board 12e is, for example, a DSP (Digital Signal Processor), and a tag information read by the image data and the tag reader 12b outputted from the eye camera 12a, and inputs the CPU12j.

スピーカ12cには、音声入出力ボード12fを介して、CPU12jから音声データが与えられ、その音声データに対応する音声が出力される。マイク12cから入力されたユーザCSの音声に対応する音声データは、音声入出力ボード12fを介して、CPU12jに取り込まれる。   The speaker 12c is supplied with audio data from the CPU 12j via the audio input / output board 12f, and outputs audio corresponding to the audio data. The voice data corresponding to the voice of the user CS input from the microphone 12c is taken into the CPU 12j via the voice input / output board 12f.

メモリ12gは、図示しないが、ROM,HDDやRAMを含み、ROMやHDDにはこのロボット12を全体的に制御するためのプログラム等の各種データが予め書き込まれている。RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用される。   Although not shown, the memory 12g includes a ROM, a HDD, and a RAM, and various data such as a program for controlling the robot 12 as a whole are written in the ROM and the HDD in advance. The RAM is used as a temporary storage memory and a working memory.

モータ制御ボード12hもDSPで構成され、CPU12jからの制御データに従ってロボット12の動作を行わしめる。各種モータ(右腕モータ系,左腕モータ系,頭部モータ系,腰モータ系,車輪モータ系,右眼球モータ系,および左眼球モータ系)を駆動する。   The motor control board 12h is also constituted by a DSP, and operates the robot 12 in accordance with control data from the CPU 12j. Various motors (right arm motor system, left arm motor system, head motor system, waist motor system, wheel motor system, right eye motor system, and left eye motor system) are driven.

無線LANボード12kは、I/F12mを介して公衆インターネット網14(図1参照)と接続される。スピーカ12cから出力すべき音声メッセージおよびマイク12dから取り込まれた音声メッセージの各々に対応する音声データやカメラ12aからのユーザCSの映像信号、タグリーダ12bからのタグ情報などは、このI/F12mを介して送受信される。   The wireless LAN board 12k is connected to the public Internet network 14 (see FIG. 1) via the I / F 12m. The voice data corresponding to each of the voice message to be output from the speaker 12c and the voice message taken in from the microphone 12d, the video signal of the user CS from the camera 12a, the tag information from the tag reader 12b, etc. are transmitted via this I / F 12m. Sent and received.

データベースサーバ16は、図3に示すように、データベース16a,CPU16b,メモリ16cおよびI/F16dによって構成される。データベース16aは、上述した個人情報および追加情報を記憶する。CPU16bは、メモリ16cに記憶されたプログラムを実行する。I/F16dは、公衆インターネット網14に接続される。   As shown in FIG. 3, the database server 16 includes a database 16a, a CPU 16b, a memory 16c, and an I / F 16d. The database 16a stores the personal information and additional information described above. The CPU 16b executes a program stored in the memory 16c. The I / F 16 d is connected to the public Internet network 14.

通信端末18は、図4に示すように、マイク18a,スピーカ18b,モニタ18c,キーボード18d,メモリ18e,CPU18fおよびI/F18gによって構成される。マイク18aはオペレータOPの音声に対応する音声データを生成し、スピーカ18bはI/F18gから与えられた音声データに対応する音声を出力する。キーボード18dは、オペレータOPによって操作され、CPU18fは、メモリ18eに記憶されたプログラムを実行する。I/F16dは、公衆インターネット網14に接続される。   As shown in FIG. 4, the communication terminal 18 includes a microphone 18a, a speaker 18b, a monitor 18c, a keyboard 18d, a memory 18e, a CPU 18f, and an I / F 18g. The microphone 18a generates voice data corresponding to the voice of the operator OP, and the speaker 18b outputs voice corresponding to the voice data given from the I / F 18g. The keyboard 18d is operated by the operator OP, and the CPU 18f executes the program stored in the memory 18e. The I / F 16 d is connected to the public Internet network 14.

ロボット12,データベースサーバ16および端末装置18の間の情報のやり取りは、図5に示す要領で実行される。ユーザCSがロボット12の前に来ると、タグTGの情報がロボット12のタグリーダ12bによって読み取られる。読み取られたタグ情報つまり人物識別情報は、I/F12mおよび公衆インターネット網14を経て端末装置18に送信される。   The exchange of information among the robot 12, the database server 16, and the terminal device 18 is executed as shown in FIG. When the user CS comes in front of the robot 12, information on the tag TG is read by the tag reader 12b of the robot 12. The read tag information, that is, the person identification information is transmitted to the terminal device 18 via the I / F 12m and the public Internet network 14.

端末装置18は、受信したタグ情報によって識別された人物の照会をデータベースサーバ16に要求する。この照会要求には、受信したタグ情報が含まれる。   The terminal device 18 requests the database server 16 to inquire about the person identified by the received tag information. This inquiry request includes the received tag information.

データベースサーバ16は、送信された照会要求をI/F16dを通して取り込み、取り込まれた照会要求に付加されたタグ情報に適合する個人情報および追加情報をデータベース16aから抽出する。抽出された個人情報および追加情報を含む対話支援情報は、I/F16dおよび公衆インターネット網14を介して端末装置18に送信される。   The database server 16 takes in the transmitted inquiry request through the I / F 16d, and extracts personal information and additional information that match the tag information added to the incorporated inquiry request from the database 16a. The dialogue support information including the extracted personal information and additional information is transmitted to the terminal device 18 via the I / F 16d and the public Internet network 14.

端末装置18は、送信された対話支援情報をI/F18gを通して取り込み、取り込まれた対話支援情報をモニタ18cに表示する。オペレータOPは、こうして提示された対話支援情報を参照して、ユーザCSと対話を進めるための話題を決める。オペレータOPがキーボード18d上で対話開始操作を行うと、マイク18a,スピーカ18bおよびモニタ18cがオンされるとともに、対話開始命令がI/F18gおよび公衆インターネット網14を介してロボット12およびデータベースサーバ16に送信される。   The terminal device 18 fetches the transmitted dialogue support information through the I / F 18g, and displays the fetched dialogue support information on the monitor 18c. The operator OP refers to the dialogue support information presented in this way, and determines a topic for proceeding with the dialogue with the user CS. When the operator OP performs a dialog start operation on the keyboard 18d, the microphone 18a, the speaker 18b, and the monitor 18c are turned on, and a dialog start command is sent to the robot 12 and the database server 16 via the I / F 18g and the public Internet network 14. Sent.

ロボット12は、送信された対話開始命令をI/F12mから取り込んだとき、スピーカ12c,マイク12dおよび眼カメラ12aをオンする。オペレータOPとユーザCSとの間の対話処理は、端末装置18側のマイク18a,スピーカ18bおよびモニタ18cとロボット12側のスピーカ12c,マイク12dおよび眼カメラ12aがオンされた後に開始される。   When the robot 12 fetches the transmitted dialogue start command from the I / F 12m, the robot 12 turns on the speaker 12c, the microphone 12d, and the eye camera 12a. The dialogue process between the operator OP and the user CS is started after the microphone 18a, speaker 18b and monitor 18c on the terminal device 18 side, and the speaker 12c, microphone 12d and eye camera 12a on the robot 12 side are turned on.

オペレータOPとユーザCSとの間で行われた対話の内容を示す音声データ、およびユーザCSの姿(特に顔)を示す画像データは、データベースサーバ16にも与えられる。データベースサーバ16のCPU16bは、端末装置18から受信した対話開始命令に応答して、かかる音声データおよび画像データをユーザCSに関連付けてデータベース16aに蓄積する記録処理を開始する。   The voice data indicating the content of the dialogue performed between the operator OP and the user CS and the image data indicating the appearance (particularly the face) of the user CS are also given to the database server 16. In response to the dialog start command received from the terminal device 18, the CPU 16b of the database server 16 starts a recording process in which such audio data and image data are stored in the database 16a in association with the user CS.

オペレータOPがキーボード18d上で対話終了操作を行うと、マイク18a,スピーカ18bおよびモニタ18cがオフされるとともに、対話終了命令がI/F18gおよび公衆インターネット網14を介してロボット12およびデータベースサーバ16に送信される。ロボット12は、送信された対話終了命令をI/F12mから取り込んだとき、スピーカ12c,マイク12dおよび眼カメラ12aをオフする。これによって、対話処理が終了される。データベースサーバ16は、端末装置18からの対話終了命令に応答して上述の記録処理を終了する。   When the operator OP performs a dialog end operation on the keyboard 18d, the microphone 18a, the speaker 18b, and the monitor 18c are turned off, and a dialog end command is sent to the robot 12 and the database server 16 via the I / F 18g and the public Internet network 14. Sent. The robot 12 turns off the speaker 12c, the microphone 12d, and the eye camera 12a when the transmitted dialogue end command is received from the I / F 12m. As a result, the interactive process is terminated. The database server 16 ends the above-described recording process in response to the dialog end command from the terminal device 18.

このように、オペレータOPは端末装置18を操作する一方、ユーザCSはロボット12と対面する。また、オペレータOPとユーザCSとの間で対話を行うにあたって、ユーザCSに関係する対話支援情報が、端末装置18を通してオペレータOPに提示される。オペレータOPが対話支援情報を参照して発したメッセージは、ロボット12を通してユーザCSに伝えられる。また、ユーザCSがロボット12に向けて発したメッセージは、端末装置18を通してオペレータOPに伝えられる。オペレータOPは対話支援情報を参照し、ユーザCSはロボット12と向き合うため、オペレータOP主導の活発な対話が実現される。また、オペレータOPとユーザCSとの対話内容およびユーザCSの顔画像は、データベースサーバ16のデータベース16aに蓄積される。これによって、ユーザCSがロボット12を訪れる毎にユーザCSの個人情報が充実する。   As described above, the operator OP operates the terminal device 18, while the user CS faces the robot 12. Further, when a dialogue is performed between the operator OP and the user CS, dialogue support information related to the user CS is presented to the operator OP through the terminal device 18. A message issued by the operator OP referring to the dialogue support information is transmitted to the user CS through the robot 12. Further, a message issued by the user CS to the robot 12 is transmitted to the operator OP through the terminal device 18. Since the operator OP refers to the dialogue support information and the user CS faces the robot 12, an active dialogue led by the operator OP is realized. Further, the dialogue contents between the operator OP and the user CS and the face image of the user CS are stored in the database 16 a of the database server 16. As a result, each time the user CS visits the robot 12, personal information of the user CS is enriched.

ロボット12のCPU12jは、メモリ12gに記憶された制御プログラムに従って図6に示す処理を実行する。   The CPU 12j of the robot 12 executes the process shown in FIG. 6 according to the control program stored in the memory 12g.

まずユーザCSが所持するタグTGの情報がタグリーダ12bによって読み取られたか否かをステップS1で判別する。ここでYESであれば、読み取られたタグ情報をステップS3でデータベースサーバ16に送信する。ステップS5では対話開始命令が与えられたか否かを判別し、YESであればステップS7でマイク12d,スピーカ12cおよび眼カメラ12aをオンし、ステップS9で対話処理を実行する。ステップS11では対話終了命令が与えられたか否かを判別し、NOであればステップS9の対話処理を繰り返す一方、YESであればステップS13でマイク12d,スピーカ12cおよび眼カメラ12aをオフし、ステップS1に戻る。   First, it is determined in step S1 whether or not the tag TG information possessed by the user CS has been read by the tag reader 12b. If “YES” here, the read tag information is transmitted to the database server 16 in a step S3. In step S5, it is determined whether or not a dialogue start command is given. If YES, the microphone 12d, speaker 12c and eye camera 12a are turned on in step S7, and dialogue processing is executed in step S9. In step S11, it is determined whether or not a dialogue end command has been given. If NO, the dialogue processing in step S9 is repeated. If YES, microphone 12d, speaker 12c and eye camera 12a are turned off in step S13. Return to S1.

データベースサーバ16のCPU16bは、メモリ16dに記憶された制御プログラムに従って図7に示す処理を実行する。   The CPU 16b of the database server 16 executes the process shown in FIG. 7 according to the control program stored in the memory 16d.

まず、端末装置18から照会要求を受信したか否かをステップS21で判別する。ここでYESであれば、ステップS23でユーザCSの個人情報をデータベース16aから抽出し、ステップS25で抽出された個人情報に基づいて追加情報をデータベース16aから抽出する。ステップS27では、抽出された個人情報および追加情報を含む対話支援情報を端末装置18に送信する。   First, in step S21, it is determined whether or not an inquiry request has been received from the terminal device 18. If YES here, the personal information of the user CS is extracted from the database 16a in step S23, and the additional information is extracted from the database 16a based on the personal information extracted in step S25. In step S27, the dialogue support information including the extracted personal information and additional information is transmitted to the terminal device 18.

ステップS29では端末装置18から対話開始命令を受信したか否かを判別し、YESであればステップS31で記録処理を開始する。端末装置18から対話終了命令を受信すると、ステップS35でYESと判断し、ステップS35で記録処理を終了してからステップS21に戻る。   In step S29, it is determined whether or not a dialogue start command has been received from the terminal device 18. If YES, the recording process is started in step S31. When a dialog end command is received from the terminal device 18, YES is determined in step S35, the recording process is ended in step S35, and the process returns to step S21.

端末装置18のCPU18fは、メモリ18eに記憶された制御プログラムに従って図8および図9に示す処理を実行する。   The CPU 18f of the terminal device 18 executes the processes shown in FIGS. 8 and 9 according to the control program stored in the memory 18e.

まず、タグ情報をロボット12から受信したか否かをステップS41で判別し、YESであれば、受信したタグ情報を含む照会要求をデータベースサーバ16に送信する。データベースサーバ16から対話支援情報を受信するとステップS45でYESと判断し、受信した対話支援情報をステップS47でモニタ18cに表示する。オペレータによって対話開始操作が行われると、ステップS49でYESと判別し、ステップS51で対話開始命令をロボット12およびデータベースサーバ16に送信する。さらに、ステップS53でマイク18a,スピーカ18bおよびモニタ18cをオンし、ステップS55で対話処理を実行する。ステップS57ではオペレータOPによって対話終了操作が行われたか否かを判別し、NOであればステップS55に戻る一方、YESであれば対話終了命令をロボット12およびデータベースサーバ16に送信する。その後、ステップS61でマイク18a,スピーカ18bおよびモニタ18cをオフし、ステップS41に戻る。   First, it is determined in step S41 whether or not tag information has been received from the robot 12. If YES, an inquiry request including the received tag information is transmitted to the database server 16. When the dialog support information is received from the database server 16, it is determined YES in step S45, and the received dialog support information is displayed on the monitor 18c in step S47. When the dialog start operation is performed by the operator, YES is determined in step S49, and a dialog start command is transmitted to the robot 12 and the database server 16 in step S51. Further, the microphone 18a, the speaker 18b, and the monitor 18c are turned on in step S53, and a dialogue process is executed in step S55. In step S57, it is determined whether or not a dialog end operation has been performed by the operator OP. If NO, the process returns to step S55. If YES, a dialog end command is transmitted to the robot 12 and the database server 16. Thereafter, in step S61, the microphone 18a, the speaker 18b, and the monitor 18c are turned off, and the process returns to step S41.

次に、本発明の対話支援システムの実際の使用例について説明する。   Next, an actual usage example of the dialogue support system of the present invention will be described.

対話支援システム10を百貨店に配置する場合(ロボット12は紳士服売り場に配置)、ユーザCSの個人情報としては、住所,氏名,年齢,性別,既婚/未婚の別,前回の来店日時,この売り場での購買履歴,直前5回の来店時の映像などが考えられる。また、追加情報としては、挨拶(住所が遠方の人に対して「遠くからありがとうございます」、一週間以内に来た人に対して「度々ありがとうございます」)や、履歴,年齢,性別から判断したお勧め商品(ネクタイやスーツ)、購買履歴から判断した商品の色などが考えられる。   When the dialogue support system 10 is arranged in a department store (the robot 12 is arranged in a men's clothing department), the personal information of the user CS includes the address, name, age, gender, married / unmarried, last visit date and time, this department Purchase history at the store, videos of the last five visits, and so on. Additional information includes greetings (“Thank you from the distance” for people who are far away, “Thank you often for those who came within a week”), history, age, and gender. The recommended product (tie or suit) judged, the color of the product judged from the purchase history, etc. can be considered.

ユーザCSが他県から初めて訪れた30代の男性である場合、オペレータOPは、「遠くからありがとうございます」の挨拶に続き、紳士服売り場で取り扱う商品の説明、およびこの男性の身形から判断したデザインの商品の提案などを行うことができる。   When the user CS is a man in his 30's who has visited from other prefectures for the first time, the operator OP determines from the explanation of the products handled at the men's clothing department following the greeting “Thank you from the distance” and the figure of this man. You can make proposals for products with the same design.

対話支援システム10を遊園地に配置する場合、個人情報としては、住所,氏名,年齢,性別,既婚/未婚の別,前回の来園日時などが考えられる。また、追加情報としては、お勧めアトラクション(前回から新しく加わったアトラクション,前回満員で乗れなかったアトラクション,今日まだ体験してないアトラクションで空いているもの,混んでいるが年齢,性別から推測されるお勧めのアトラクション)や、聞かれる可能性のある質問の例(帰りの最終電車の時刻,新しいアドラクションのリスト,サーカスの公演予定)が考えられる。   When the dialogue support system 10 is arranged in an amusement park, the personal information may include an address, name, age, sex, married / unmarried, last visit date and time, and the like. Also, as additional information, recommended attractions (attractions that were newly added since the last time, attractions that were not fully boarded at the last time, vacant attractions that have not been experienced yet, crowded but estimated from age, gender (Recommended attractions) and examples of questions that may be asked (time of the last train on the way home, list of new attractions, scheduled circus performance).

ユーザCSの訪問回数が3回目で、2回目の訪問時にはなかったアトラクションが新設されている場合、オペレータOPは、「たびたびのご来場ありがとうございます」に続き、新設されたアトラクションの紹介を行うことができる。   If the visitor visits the user CS for the third time and there is a new attraction that was not present at the second visit, the operator OP will introduce the new attraction following “Thank you for your frequent visits”. Can do.

対話支援システム10を保育園や小学校に配置する場合、個人情報としては、氏名,年齢,誕生日,性別,呼び名(かっちゃん),好きな色,一緒に遊んでいる子供の名前リスト,遅刻と病欠の頻度,保健室に行く頻度,保護者からの注意事項(風邪気味,そばアレルギー),好きなこと(絵を描く),苦手なこと(野菜を食べる)などが考えられる。追加情報としては、好きなことを伸ばすための質問例・指導要領(「何かいい絵がかけた?
」、「今度はどんな絵を描くのかな?」や、苦手を克服するための質問例・指導要領(「野菜畑連れて行く」、「トマトを食べさせる」)が考えられる。
When the dialogue support system 10 is placed in a nursery school or an elementary school, personal information includes: name, age, birthday, gender, call name, favorite color, name list of children playing together, lateness and sickness Frequency, frequency of going to the health room, precautions from parents (cold, soba allergy), favorite things (drawing pictures), poor things (eating vegetables) are considered. For additional information, examples of questions and guidelines for developing what you like ("Did you have a good picture?
"," Now I Do? "And whether to draw any picture, sample questions and guidance guidelines in order to overcome the poor (" take you to the vegetable garden "," eat a tomato ") can be considered.

ユーザCSが1月ぶりにロボット12を訪れた子供で、手にくるまのおもちゃを手に持っている場合、オペレータOPは「ひさしぶり、元気にしてかたな?」の挨拶に始まり、「自動車が好きなの?」などの対話を行うことができる。   When the user CS visits the robot 12 for the first time in January and has a toy car in his hand, the operator OP begins with a greeting saying “How are you doing? "Do you like it?"

なお、この実施例では、ロボット12,データベースサーバ16および端末装置18を1台ずつ準備されるが、データベースサーバ16を1台準備する一方、ロボット12および端末装置18はN台(N:2以上の整数)ずつ準備してもよい。また、この実施例では、タグ情報に基づいてユーザCSを識別するようにしているが、ユーザCSの顔や声によってユーザCSを識別するようにしてもよい。   In this embodiment, the robot 12, the database server 16, and the terminal device 18 are prepared one by one. However, one database server 16 is prepared, while the robot 12 and the terminal device 18 are N (N: 2 or more). Integer)) may be prepared. In this embodiment, the user CS is identified based on the tag information. However, the user CS may be identified by the face or voice of the user CS.

さらに、この実施例では、音声による対話を説明しているが、これに加えて、オペレータOPの操作によってロボット12に身振り,手振りを行わせるようにしてもよい。たとえば、ユーザCSが幼稚園児である場合、ユーザCSを手で抱き締めるような振る舞いが考えられる。   Furthermore, in this embodiment, the dialogue by voice is described, but in addition to this, the robot 12 may be caused to perform gestures and hand gestures by the operation of the operator OP. For example, when the user CS is a kindergarten child, a behavior of hugging the user CS by hand can be considered.

この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図1実施例に適用されるロボットの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the robot applied to the FIG. 1 Example. 図1実施例に適用されるデータベースサーバの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of the internal structure of the database server applied to the FIG. 1 Example. 図1実施例に適用される端末装置の内部構成の一例を示すブロック図である。It is a block diagram which shows an example of an internal structure of the terminal device applied to the FIG. 1 Example. 図1実施例の動作の一部を示す図解図である。It is an illustration figure which shows a part of operation | movement of FIG. 1 Example. 図2実施例に適用されるロボットのCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU of the robot applied to the FIG. 2 Example. 図3実施例に適用されるデータベースサーバのCPUの動作の一部を示すフロー図である。FIG. 5 is a flowchart showing one portion of behavior of a CPU of a database server applied to the embodiment in FIG. 3; 図4実施例に適用される端末装置のCPUの動作の一部を示すフロー図である。FIG. 5 is a flowchart showing a part of the operation of the CPU of the terminal device applied to the embodiment in FIG. 4; 図4実施例に適用される端末装置のCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU of the terminal device applied to the FIG. 4 Example.

符号の説明Explanation of symbols

10 …対話支援システム
12 …ロボット
16 …データベースサーバ
18 …端末装置
DESCRIPTION OF SYMBOLS 10 ... Dialog support system 12 ... Robot 16 ... Database server 18 ... Terminal device

Claims (3)

ユーザと対面するロボットと、対話支援情報を管理するデータベースサーバと、オペレータによって操作される端末装置とを備え、前記ロボットおよび前記端末装置を介して前記オペレータが前記ユーザと対話する対話支援システムであって、
前記ロボットは、前記ユーザを識別する識別手段、および前記ユーザと前記オペレータとの間の対話処理を実行する第1対話処理手段を備え、
前記データベースサーバは前記識別手段の識別結果に適合する対話支援情報を抽出する抽出手段を備え、そして
前記端末装置は、前記抽出手段によって抽出された対話支援情報を前記オペレータに提示する提示手段、および前記ユーザと前記オペレータとの間の対話処理を実行する第2対話処理手段を備える、対話支援システム。
A dialogue support system comprising a robot that faces a user, a database server that manages dialogue support information, and a terminal device operated by an operator, wherein the operator interacts with the user via the robot and the terminal device. And
The robot includes identification means for identifying the user, and first dialogue processing means for executing dialogue processing between the user and the operator,
Presentation means said database server includes an extraction means for extracting a compatible interaction support information to the identification result of the identifying means, and the terminal device, for presenting the interactive assistance information extracted by the extracting unit to the operator, And a dialogue support system comprising second dialogue processing means for executing dialogue processing between the user and the operator.
前記第1対話処理手段は、前記オペレータからの指示を音声およびジャスチャの少なくとも一方によって前記ユーザに伝えるとともに、前記ユーザからの情報を音声およびジェスチャの少なくとも一方によって前記オペレータに伝える、請求項1記載の対話支援システム。   The said 1st dialog processing means conveys the instruction | indication from the said operator to the said user by at least one of an audio | voice and a gesture, and conveys the information from the said user to the said operator by an at least one of an audio | voice and a gesture. Dialogue support system. 前記第2対話処理手段は、前記ロボットを介して伝えられる前記ユーザからの対話情報と前記データベースサーバからの対話支援情報とを前記オペレータに伝えるとともに、前記対話情報および前記対話支援情報に基づいて前記オペレータが前記ロボットを介して前記ユーザに伝える情報を入力する、請求項1または2記載の対話支援システム。   The second dialog processing means transmits the dialog information from the user transmitted through the robot and the dialog support information from the database server to the operator, and based on the dialog information and the dialog support information, The dialogue support system according to claim 1, wherein an operator inputs information to be transmitted to the user via the robot.
JP2006017512A 2006-01-26 2006-01-26 Dialogue support system Active JP4798577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006017512A JP4798577B2 (en) 2006-01-26 2006-01-26 Dialogue support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006017512A JP4798577B2 (en) 2006-01-26 2006-01-26 Dialogue support system

Publications (3)

Publication Number Publication Date
JP2007199997A JP2007199997A (en) 2007-08-09
JP2007199997A5 JP2007199997A5 (en) 2009-02-05
JP4798577B2 true JP4798577B2 (en) 2011-10-19

Family

ID=38454557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006017512A Active JP4798577B2 (en) 2006-01-26 2006-01-26 Dialogue support system

Country Status (1)

Country Link
JP (1) JP4798577B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168333A (en) * 2017-06-26 2017-09-15 上海与德通讯技术有限公司 The management method and server of a kind of robot

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6134894B2 (en) * 2013-09-27 2017-05-31 株式会社国際電気通信基礎技術研究所 Robot control system and robot
US10845975B2 (en) * 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
WO2021229692A1 (en) * 2020-05-12 2021-11-18 富士通株式会社 Avatar control program, avatar control method and information processing device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281567A (en) * 2001-03-14 2002-09-27 Nec Corp Method/system for remote control and program for remote control system
JP3885567B2 (en) * 2001-11-21 2007-02-21 松下電器産業株式会社 Dialog support device and dialog support system
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107168333A (en) * 2017-06-26 2017-09-15 上海与德通讯技术有限公司 The management method and server of a kind of robot

Also Published As

Publication number Publication date
JP2007199997A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
CN110998725B (en) Generating a response in a dialog
JP6440483B2 (en) COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM
EP3367250A1 (en) Information processing system and information processing method
JP2005293052A (en) Robot for dealing with customer
US20130332860A1 (en) User terminal apparatus, server and controlling method thereof
WO2014057704A1 (en) Product information provision system, product information provision device, and product information output device
CN110910887B (en) Voice wake-up method and device
JP4798577B2 (en) Dialogue support system
US20190163961A1 (en) Information processing system, storage medium, and information processing method
JP5142306B1 (en) Product information providing system, product information providing device, and product information output device
JP6048475B2 (en) Content output apparatus and program
WO2020116026A1 (en) Response processing device, response processing method, and response processing program
JP5220953B1 (en) Product information providing system, product information providing device, and product information output device
WO2017175442A1 (en) Information processing device and information processing method
WO2018179745A1 (en) Information processing device, information processing method, and program
JP2016207217A (en) Management apparatus and method of identifying preference
JP5472566B2 (en) Information registration presentation device, information registration presentation system, information registration presentation method, and information registration presentation processing program
JP4891523B2 (en) Auction system
JP5472661B2 (en) Information registration presentation device, information registration presentation system, information registration presentation method, and information registration presentation processing program
JP4741817B2 (en) Audio output device, character image display device, audio output method, and character image display method
JP5925935B1 (en) Management device and preference identification method
JP5041754B2 (en) Still image display switching system
JP6559096B2 (en) Information output system and information output method
JPWO2020075290A1 (en) Customer support system
US11983754B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4798577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250