JP2018161706A - Robot control system and robot control device - Google Patents

Robot control system and robot control device Download PDF

Info

Publication number
JP2018161706A
JP2018161706A JP2017059990A JP2017059990A JP2018161706A JP 2018161706 A JP2018161706 A JP 2018161706A JP 2017059990 A JP2017059990 A JP 2017059990A JP 2017059990 A JP2017059990 A JP 2017059990A JP 2018161706 A JP2018161706 A JP 2018161706A
Authority
JP
Japan
Prior art keywords
robot
dialogue
scenario
control system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017059990A
Other languages
Japanese (ja)
Inventor
作 麻莉子 矢
Mariko YAHAGI
作 麻莉子 矢
宮 将 宏 雨
Masahiro Amamiya
宮 将 宏 雨
田 雄 介 柴
Yusuke Shibata
田 雄 介 柴
内 智 彦 大
Tomohiko Ouchi
内 智 彦 大
川 浩 平 小
Kohei Ogawa
川 浩 平 小
川 雄一郎 吉
Yuichiro Yoshikawa
川 雄一郎 吉
黒 浩 石
Hiroshi Ishiguro
黒 浩 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Zensho Holdings Co Ltd
Original Assignee
Osaka University NUC
Zensho Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Zensho Holdings Co Ltd filed Critical Osaka University NUC
Priority to JP2017059990A priority Critical patent/JP2018161706A/en
Publication of JP2018161706A publication Critical patent/JP2018161706A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot control system and a robot control device which can have a natural dialogue with a robot at a restaurant.SOLUTION: A robot control system includes: a robot 2 which performs movement in response to a command signal to have a dialogue with a customer visiting a restaurant; an operation terminal 3 which generates the command signal for operating the robot 2; a stay state determination part 342 which determines a stay state in the restaurant of the customer; and a movement control part 345 which makes the robot 2 perform preliminary movement based on the stay state of the customer determined by the stay state determination part 342 before the robot 2 is made to perform movement in response to operation of the operation terminal 3.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット制御システムおよびロボット制御装置に関する。   The present invention relates to a robot control system and a robot control apparatus.

近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。   In recent years, there are cases where humanoid robots are used as guides for visitors in restaurants and other public facilities. A technology for performing communication (dialogue) with such a robot using a dedicated operation terminal has been studied. According to this technology, a user can enjoy a dialogue with a robot via an operation terminal, or guide information can be obtained. Can be obtained.

具体的には、飲食店に来店した顧客に対して、飲食店のテーブル席に設置されたロボットとの間で直接的あるいはタブレット等を介して間接的に対話することができるサービスを提供することができる。この場合、顧客に対して推奨メニューを提示したり、雑談をしたりすることで、飲食サービスの満足度を向上させることができる。   Specifically, providing a service that allows a customer who visits a restaurant to directly or indirectly interact with a robot installed at a table seat of the restaurant via a tablet or the like Can do. In this case, the satisfaction of the eating and drinking service can be improved by presenting a recommended menu or chatting with the customer.

特開2015−66623号公報Japanese Patent Laying-Open No. 2015-66623

しかしながら、ユーザがロボットに向けた対話を行った後、ロボットが応答の発話動作を行うまでの間に長いタイムラグがあると、対話の途切れによる違和感をユーザに与えてしまう虞がある。   However, if there is a long time lag between the time when the user performs a dialogue toward the robot and the time when the robot performs a response speech operation, there is a possibility that the user may feel uncomfortable due to the interruption of the dialogue.

本発明はこのような点を考慮してなされたものであり、飲食店におけるロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。   The present invention has been made in consideration of such points, and an object thereof is to provide a robot control system and a robot control apparatus capable of naturally performing a dialogue with a robot in a restaurant without a sense of incongruity.

本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、ロボットを操作する指令信号を生成する操作端末と、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、操作端末の操作に応じた動作をロボットに行わせる前に、滞在状態判断部にて判断された顧客の滞在状態に基づいた事前動作をロボットに行わせる動作制御部と、を備える、ロボット制御システムである。   The present invention determines a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, an operation terminal that generates a command signal for operating the robot, and a staying state of the customer in the restaurant A stay state determination unit, and an operation control unit that causes the robot to perform a pre-operation based on the stay state of the customer determined by the stay state determination unit before causing the robot to perform an operation according to the operation of the operation terminal; A robot control system comprising:

本発明によるロボット制御システムにおいて、動作制御部は、操作端末の操作に応じた動作をロボットが実行可能になるまでの間に、事前動作をロボットに行わせてもよい。   In the robot control system according to the present invention, the motion control unit may cause the robot to perform a preliminary motion before the robot can execute a motion corresponding to the operation of the operation terminal.

本発明によるロボット制御システムにおいて、操作端末の操作に応じた動作は、操作端末の操作に応じた対話動作を含み、事前動作は、顧客の滞在状態に基づいてロボットが行う予め定めた対話動作を含んでもよい。   In the robot control system according to the present invention, the operation according to the operation of the operation terminal includes an interaction operation according to the operation of the operation terminal, and the preliminary operation is a predetermined interaction operation performed by the robot based on the staying state of the customer. May be included.

本発明によるロボット制御システムにおいて、指令信号は、飲食店に来店した顧客が操作端末を操作することで選択された対話シナリオ情報に基づく対話のための選択肢に基づいて生成され、操作端末の操作に応じた動作は、選択された選択肢に基づく対話シナリオの進行に伴ってロボットが行う対話動作を含み、事前動作は、操作端末の操作に応じた対話動作をロボットが開始するまでの間を繋ぐ相槌動作を含んでもよい。   In the robot control system according to the present invention, the command signal is generated based on an option for dialogue based on dialogue scenario information selected by a customer visiting the restaurant operating the operation terminal, and is used to operate the operation terminal. The corresponding action includes a dialog action performed by the robot in accordance with the progress of the dialog scenario based on the selected option, and the prior action is a balance between the time until the robot starts the dialog action according to the operation of the operation terminal. Operations may be included.

本発明によるロボット制御システムにおいて、対話動作は、操作端末の操作に応じてロボットが発話する動作を含み、相槌動作は、ロボットが予め定めた発話を行う動作を含んでもよい。   In the robot control system according to the present invention, the dialogue operation may include an operation in which the robot speaks in response to an operation of the operation terminal, and the interaction operation may include an operation in which the robot performs a predetermined utterance.

本発明によるロボット制御システムにおいて、事前動作は、ロボットの姿勢および外観の少なくとも一方を変化させる動作を含んでもよい。   In the robot control system according to the present invention, the preliminary operation may include an operation of changing at least one of the posture and appearance of the robot.

本発明によるロボット制御システムにおいて、対話動作は、飲食店に来店した顧客との飲食物のメニュー選択に関する対話動作を含んでもよい。   In the robot control system according to the present invention, the interactive operation may include an interactive operation related to menu selection of food and drink with a customer who has visited the restaurant.

本発明によるロボット制御システムにおいて、動作制御部は、選択肢の選択結果によらずロボットに顧客の滞在状態に応じた共通の相槌動作を含む事前動作を行わせてもよい。   In the robot control system according to the present invention, the operation control unit may cause the robot to perform a pre-operation including a common interaction operation according to the staying state of the customer regardless of the selection result of the options.

本発明によるロボット制御システムにおいて、動作制御部は、顧客の飲食店内での滞在時間の経過に応じて変化する相槌動作を含む事前動作を行わせてもよい。   In the robot control system according to the present invention, the operation control unit may perform a preliminary operation including a reciprocal operation that changes in accordance with the elapse of the staying time of the customer in the restaurant.

本発明によるロボット制御システムにおいて、操作端末の操作に応じた動作は、ロボットが発話する第1動作と、第1動作に先だってロボットの姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでおり、事前動作は、ロボットが第2動作を開始する前に行われてもよい。   In the robot control system according to the present invention, the action according to the operation of the operation terminal includes a first action that the robot speaks and a second action that changes at least one of the posture and appearance of the robot prior to the first action. In this case, the preliminary operation may be performed before the robot starts the second operation.

本発明によるロボット制御システムにおいて、動作制御部は、ロボットまたは操作端末の内部に設けられてもよい。   In the robot control system according to the present invention, the motion control unit may be provided inside the robot or the operation terminal.

本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、顧客の飲食店内での滞在状態を判断し、ロボットを操作する操作端末の操作に応じた動作をロボットに行わせる前に、判断した顧客の滞在状態に基づいた事前動作をロボットに行わせる動作制御部を有するロボット制御装置である。   The present invention is a robot control device that transmits a command signal to a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and determines a staying state of the customer in the restaurant The robot control apparatus includes an operation control unit that causes the robot to perform a pre-operation based on the determined stay state of the customer before causing the robot to perform an operation corresponding to the operation of the operation terminal that operates the robot.

本発明によれば、飲食店においてロボットと自然な対話を行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, a natural dialog with a robot can be performed in a restaurant.

第1の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムにおいて、シナリオ制御部を示すブロック図である。It is a block diagram which shows a scenario control part in the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例において、滞在状態に基づいた事前動作の処理を示す図である。It is a figure which shows the process of the prior operation | movement based on a stay state in the operation example of the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例において、着席から注文までの期間中の事前動作をともなう対話の一例を示す図である。In the operation example of the robot control system according to the first embodiment, it is a diagram illustrating an example of a dialogue with a pre-operation during a period from sitting to ordering. 第1の実施形態によるロボット制御システムの動作例において、着席から注文までの期間中の事前動作をともなう対話の他の一例を示す図である。In the operation example of the robot control system by 1st Embodiment, it is a figure which shows another example of the dialogue with the prior operation in the period from a seating to an order. 図7(a)は、第1の実施形態によるロボット制御システムの動作例において、注文から飲食物提供までの期間中の対話例を示す図であり、図7(b)は、図7(a)に続く事前動作をともなう対話例を示す図である。FIG. 7A is a diagram showing an example of dialogue during the period from ordering to food provision in the operation example of the robot control system according to the first embodiment, and FIG. It is a figure which shows the example of a dialogue with the prior operation | movement following). 図8(a)は、第1の実施形態によるロボット制御システムの動作例において、飲食物提供から飲食終了までの期間中の対話例を示す図であり、図8(b)は、図8(a)に続く事前動作をともなう対話例を示す図である。FIG. 8A is a diagram illustrating an example of a dialogue during a period from provision of food and drink to the end of eating and drinking in the operation example of the robot control system according to the first embodiment, and FIG. It is a figure which shows the example of a dialogue with the prior operation following a). 図9(a)は、第2の実施形態によるロボット制御システムの動作例において、選択肢の表示例を示す図であり、図9(b)は、図9(a)に続く事前動作の一例を示す図であり、図9(c)は、図9(b)に続く第2動作の一例を示す図であり、図9(d)は、図9(c)に続く第1動作の一例を示す図である。FIG. 9A is a diagram showing a display example of options in the operation example of the robot control system according to the second embodiment, and FIG. 9B is an example of the preliminary operation following FIG. 9A. FIG. 9C is a diagram showing an example of the second operation following FIG. 9B, and FIG. 9D is an example of the first operation following FIG. 9C. FIG. 第3の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 3rd Embodiment. 第4の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 4th Embodiment.

以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。   Hereinafter, the configuration and operation of a robot control system and a robot control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, This invention is limited to these embodiment, and is not interpreted. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference symbols or similar reference symbols, and repeated description thereof may be omitted. In addition, the dimensional ratio in the drawing may be different from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.

(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(First embodiment)
FIG. 1 is a block diagram showing a robot control system 1 according to the first embodiment. As shown in FIG. 1, the robot control system 1 includes a robot 2, an operation terminal 3 which is an example of a robot control device, a handy terminal 4, and a store system 5 such as a POS (point of sales) system. The robot control system 1 is a system for a restaurant customer (hereinafter referred to as a user) to interact with the robot 2 via an operation terminal 3 that operates the robot 2. The robot 2 in the example of FIG. 1 is a machine having a human-like appearance and interactive function, that is, a humanoid. Note that the robot 2 may have a dissimilar appearance to humans such as animals and characters. Further, the robot 2 may be a virtual robot based on an image displayed on the display unit 35. The robot 2 may be a general-purpose robot that can be programmed in posture, motion, or the like, or may be a robot developed for the robot control system 1.

(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
(Robot 2)
As shown in FIG. 1, the robot 2 includes a robot drive unit 21 and a robot control unit 22 that is an example of a drive control unit. The robot 2 is driven by electric power supplied from a commercial power source. The robot 2 may be a battery-driven type such as a battery.

ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の外観を変化(例えば、眼球部を所定の点灯色で点灯)させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。   The robot drive unit 21 includes, for example, an actuator that drives a part of the robot 2 having a degree of freedom, such as a body part, an arm part, a neck part, an eyeball part, a buttocks part, or a mouth part, and a voice output that outputs the speech voice of the robot 2 And a lighting device for lighting the eyeball portion of the robot 2. By driving the robot drive unit 21 as necessary, the robot 2 speaks, the posture of the robot 2 is changed, or the appearance of the robot 2 is changed (for example, an eyeball unit). Can be turned on with a predetermined lighting color. A drive control signal for controlling the drive of the robot drive unit 21 is input from the robot control unit 22 to the robot drive unit 21. The robot drive unit 21 is driven according to the drive control signal.

ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部22は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。   The robot control unit 22 receives a robot control command, which is an example of a command signal, from the operation terminal 3. The robot control unit 22 generates the drive control signal described above based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21. That is, the robot 2 can operate according to the robot control command to interact with the customer who has visited the restaurant. There are various types of robot control commands depending on the type and control content of the robot drive unit 21 whose drive is to be controlled. For example, the robot control command includes a command for controlling the posture, position, and lighting state of the robot 2 and a command for causing the robot 2 to speak. The command for causing the robot 2 to speak includes data indicating the content of the speech (robot side scenario data described later).

ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。   The robot control unit 22 includes, for example, at least one memory that stores software such as an application program and an operating system that operates the application program, and a CPU (Central Processing Unit) that executes the software stored in the memory. The drive control signal may be generated by the CPU executing software stored in the memory.

(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、方位センサ31と動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。
(Operation terminal 3)
The operation terminal 3 is carried (i.e., held) by the user for operation, and is, for example, a tablet terminal having a touch function. In addition, the operation terminal 3 may be a smartphone, a desktop display type terminal, or the like. As illustrated in FIG. 1, the operation terminal 3 includes an orientation sensor 31 and a motion generation unit 32. The operation terminal 3 is driven by electric power supplied from the built-in battery. The direction sensor 31 detects the direction of the operation terminal 3. The direction sensor 31 outputs a direction detection signal indicating the detected direction of the operation terminal 3 to the motion generation unit 32.

動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。これにより、ロボット2と向き合う状態でユーザがロボット2と対話することができるので、ユーザは、違和感なく自然にロボット2との対話を行うことができ、対話による満足感を向上させることができる。   Based on the direction detection signal from the direction sensor 31, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists. The motion generation unit 32 transmits the generated robot control command to the robot control unit 22 by wireless communication such as WiFi, for example. The robot control unit 22 receives the robot control command from the motion generation unit 32 and outputs a drive control signal corresponding to the received robot control command to the robot drive unit 21, thereby determining the direction in which the operation terminal 3 exists. The drive of the robot drive unit 21 is controlled so that the robot 2 faces. Thereby, since the user can interact with the robot 2 in a state of facing the robot 2, the user can naturally interact with the robot 2 without a sense of incongruity, and satisfaction of the interaction can be improved.

図1に示すように、操作端末3は、対話シナリオ情報を用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。   As shown in FIG. 1, the operation terminal 3 has a scenario DB as a configuration for performing dialogue between the user and the robot 2 using the dialogue scenario information, in addition to the motion generation unit 32 described above. (Database) 33, scenario control unit 34, display unit 35, input unit 36 such as a touch panel, and audio output unit 37.

シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオ情報は、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。   The scenario DB 33 stores a plurality of pieces of dialogue scenario information for carrying out a dialogue between the user and the robot 2. The dialogue scenario information includes a plurality of dialogue scenarios. The dialogue scenario is a story of dialogue exchanged between the user and the robot 2. A customer who enters a restaurant changes a plurality of staying states after entering the restaurant and before leaving the store. Therefore, a separate dialogue scenario is accumulated for each transition state in the scenario DB. Further, when a customer selects a specific option from among a plurality of options while the dialog scenario executed in a certain stay state is in progress, there may be a case of switching to another dialog scenario. Each dialogue scenario is composed of robot-side scenario data that the robot 2 uses for dialogue (ie, utterance) and user-side scenario data that the user uses for dialogue (ie, selection on the operation terminal 3). The user-side scenario data is data that collects user-side options and the like for the utterances of the robot 2 in each dialogue scenario. The user-side scenario data is used for displaying options and the like on the display unit 35 of the operation terminal 3 in accordance with the progress of the conversation scenario. The user can select a specific option from the displayed options using the input unit 36. Then, different (lower) robot-side scenario data different from each other are associated with each of the dialogue scenario options shown in the user-side scenario data. That is, the dialogue scenario information has a tree structure in which robot-side scenario data and user-side scenario data are alternately coupled as nodes. In the tree structure, a predetermined series of nodes ranging from the highest level to the lowest level are managed as basic scenarios used for typical dialogue, for example, and the other node groups are managed as correction scenarios for correcting the basic scenarios. May be.

また、対話シナリオ情報は、飲食店におけるユーザの滞在状態すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。   The dialogue scenario information is divided into a plurality of scenario groups according to status data indicating the staying state of the user in the restaurant, that is, the operation state.

図1の例におけるステータスデータは、ユーザが着席したことを示す第1状態、ユーザが飲食物の注文をしたことを示す第2状態、注文した飲食物がユーザに提供されたことを示す第3状態、ユーザが提供された飲食物の飲食を完了したことを示す第4状態、およびユーザが会計を完了したことを示す第5状態の各状態を示す。これに限られず、ステータスデータは、ユーザが離席したことを示す離席状態、ユーザ同士が会話をしている会話状態、又は、ユーザが食後にデザートを注文した状態などを備えていてもよい。このように、ステータスデータは、時間の経過とともに変化するユーザの状態を示す情報である。   The status data in the example of FIG. 1 includes a first state indicating that the user has been seated, a second state indicating that the user has ordered food and drink, and a third state indicating that the ordered food and beverage has been provided to the user. A state, the 4th state which shows that the food and drink provided by the user were completed, and each state of the 5th state which shows that the user completed accounting are shown. The status data is not limited to this, and the status data may include a leaving state indicating that the user has left the seat, a conversation state in which the users are having a conversation, or a state in which the user has ordered dessert after eating. . Thus, the status data is information indicating the state of the user that changes with the passage of time.

また、図1の例における対話シナリオ情報は、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分されている。各シナリオ群は、ユーザの滞在状態に適したシナリオデータの束であり、滞在状態に合わせた種々のシナリオデータを含む。例えば、ユーザの滞在状態が着席から注文までの滞在状態である場合、シナリオ群には、それぞれの時刻に合わせたメニューを提示するシナリオデータや、大人、小人の人数により対話の内容や、話し方が変化するシナリオデータ、その他様々なシチュエーションに応じたシナリオデータが含まれている。   In addition, the dialogue scenario information in the example of FIG. 1 includes a first scenario group used for dialogue in the period from sitting to order, a second scenario group used for dialogue in the period from order to food provision, and food and drink. It is divided into a third scenario group used for the dialogue between the provision and the end of the meal and a fourth scenario group used for the dialogue between the end of the meal and the accounting. Each scenario group is a bundle of scenario data suitable for the staying state of the user, and includes various scenario data according to the staying state. For example, if the user's staying state is from staying to ordering, the scenario group includes scenario data that presents a menu according to each time, the content of the conversation depending on the number of adults and children, Scenario data that changes, and other scenario data according to various situations are included.

また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。   The robot-side scenario data is associated with an internal state parameter obtained by quantifying the internal state of the robot 2, that is, the psychological state, such as a pseudo emotion or intention of the robot 2. The internal state parameter includes, for example, a positive emotion value (+) obtained by quantifying emotions such as joy and a negative emotion value (−) obtained by quantifying emotions such as sadness.

また、シナリオDB33には、操作端末3の操作に応じた動作をロボット2に行わせる前に、飲食店におけるユーザの滞在状態に基づいた事前動作をロボット2に行わせるための事前動作データが記憶されている。   Further, the scenario DB 33 stores pre-operation data for causing the robot 2 to perform a pre-operation based on the staying state of the user in the restaurant before causing the robot 2 to perform an operation corresponding to the operation of the operation terminal 3. Has been.

事前動作とは、操作端末3の操作に応じた動作をロボット2が行う前に、ユーザの滞在状態に基づいてロボット2が行う予め定めた対話動作を含む動作である。   The pre-operation is an operation including a predetermined interactive operation performed by the robot 2 based on the staying state of the user before the robot 2 performs an operation corresponding to the operation of the operation terminal 3.

操作端末3の操作からこの操作に応じた発話動作をロボット2が実行可能になるまでの間には、タイムラグがある。このタイムラグによる対話の途切れを補間して自然な対話を行うために、操作端末3の操作に応じたロボット2の動作に先立つ事前動作が行われる。事前動作は、操作端末3の操作に応じたロボット2の動作と比較して、操作端末3の操作からのタイムラグが少ない動作である。   There is a time lag between the operation of the operation terminal 3 and the time when the robot 2 can execute the speech operation corresponding to this operation. In order to perform a natural dialogue by interpolating the interruption of the dialogue due to this time lag, a pre-operation prior to the operation of the robot 2 according to the operation of the operation terminal 3 is performed. The preliminary operation is an operation with a small time lag from the operation of the operation terminal 3 as compared with the operation of the robot 2 according to the operation of the operation terminal 3.

事前動作は、相槌動作を含む。相槌動作とは、操作端末3の操作に応じた対話動作をロボット2が開始するまでの間を繋ぐ動作である。相槌動作は、ロボット2が予め定められた発話を行う動作、または、ロボット2が頷く動作(すなわち、頭部を縦方向に振る動作)、もしくはこれらの双方を含む動作である。相槌動作がロボット2の発話動作を含む場合、この発話動作を含む相槌動作をロボット2に行わせるための事前動作データは、発話動作における発話内容を示すデータとなる。この場合、事前動作データは、例えば、「うんうん」、「なるほど」、「へぇ」などの人間同士の会話で日常的に相槌として用いられる発話内容を示すデータとなる。相槌動作がロボット2の頷き動作を含む場合、この頷き動作を含む相槌動作をロボット2に行わせるための事前動作データは、例えば、頷き動作が含まれることを示すデータとなる。頷き動作が含まれることを示すデータは、例えば、頷き“有り”を示すフラグなどであってもよいが、これには限定されず、コンセプトに応じた種々の態様のデータを採用することができる。   The pre-operation includes a mutual operation. The interaction operation is an operation that connects until the robot 2 starts an interactive operation according to the operation of the operation terminal 3. The interaction operation is an operation in which the robot 2 performs a predetermined utterance, an operation in which the robot 2 crawls (that is, an operation that shakes the head in the vertical direction), or an operation that includes both of them. When the interaction operation includes the utterance operation of the robot 2, the pre-operation data for causing the robot 2 to perform the interaction operation including the utterance operation is data indicating the utterance content in the utterance operation. In this case, the pre-operation data is data indicating utterance content that is used as a daily routine in conversations between humans such as “Yes”, “I see”, and “He”. When the interaction operation includes the operation of the robot 2, the pre-operation data for causing the robot 2 to perform the operation of interaction including this operation is, for example, data indicating that the operation of interaction is included. The data indicating that the whirling operation is included may be, for example, a flag indicating whispering “present”, but is not limited thereto, and various types of data according to the concept can be adopted. .

また、事前動作は、相槌動作に替えて、または、相槌動作に加えて、頷き動作以外のロボット2の姿勢および外観の少なくとも一方を変化させる動作を含んでもよい。この場合、ロボット2の姿勢を変化させる動作は、例えば、ロボット2の口部を開閉させる動作であってもよい。また、ロボット2の外観を変化させる動作は、例えば、ロボット2の眼球部を点灯させる動作であってもよい。   In addition, the preliminary operation may include an operation for changing at least one of the posture and appearance of the robot 2 other than the combing motion instead of or in addition to the mating motion. In this case, the operation for changing the posture of the robot 2 may be, for example, an operation for opening and closing the mouth of the robot 2. The operation for changing the appearance of the robot 2 may be an operation for lighting the eyeball portion of the robot 2, for example.

事前動作データは、飲食店におけるユーザの滞在状態すなわちステータスデータに応じて複数に区分されている。図1の例における事前動作データは、着席から注文までの期間における対話に用いられる第1の事前動作データと、注文から飲食物提供までの期間における対話に用いられる第2の事前動作データと、飲食物提供から飲食終了までの間における対話に用いられる第3の事前動作データと、食事終了から会計までの間における対話に用いられる第4の事前動作データとに区分されている。   The pre-operation data is divided into a plurality according to the stay state of the user at the restaurant, that is, status data. The pre-operation data in the example of FIG. 1 includes first pre-operation data used for dialogue in a period from sitting to order, second pre-operation data used for dialogue in a period from order to food provision, The data is divided into third pre-operation data used for the dialogue from the provision of food and drink to the end of the eating and drinking and fourth pre-operation data used for the dialogue from the end of the meal to the accounting.

滞在状態に応じた好適な事前動作をロボット2に行なわせるため、第1〜第4の事前動作データは、それぞれに対応する滞在状態に応じて互いに異なり得る。例えば、第1の事前動作データは、発話動作および頷き動作のうち発話動作のみを含む相槌動作をロボット2に行わせるデータであってもよい。第2の事前動作データは、発話動作および頷き動作の双方を含む相槌動作をロボット2に行わせるデータであってもよい。第3の事前動作データは、頷き動作のみを含む相槌動作をロボット2に行わせるデータであってもよい。   In order to cause the robot 2 to perform a suitable pre-operation according to the stay state, the first to fourth pre-operation data may be different from each other according to the stay state corresponding to each. For example, the first preliminary motion data may be data that causes the robot 2 to perform a conflicting motion including only the speech motion among the speech motion and the whispering motion. The second preliminary motion data may be data that causes the robot 2 to perform a collaborative operation including both the speech operation and the whispering operation. The third preliminary motion data may be data that causes the robot 2 to perform a collaborative motion including only the whispering motion.

なお、ユーザからの対話に応答するタイミングで行われる事前動作ではなく、ロボット2から対話を切り出すタイミングで行われる事前動作に用いる事前動作データについては、不自然とならないように、相槌動作以外の動作(例えば、ロボット2の姿勢および外観の少なくとも一方を変化させる動作)をロボット2に行わせる事前動作データであることが望ましい。   It should be noted that the pre-operation data used for the pre-operation performed at the timing of cutting out the dialogue from the robot 2 is not the pre-operation performed at the timing of responding to the dialogue from the user. It is desirable to be pre-operation data that causes the robot 2 to perform (for example, an operation that changes at least one of the posture and appearance of the robot 2).

シナリオ制御部34は、店舗システム5から出力されたステータスデータに基づいてシナリオおよび相槌動作を制御する。図2は、第1の実施形態によるロボット制御システム1において、シナリオ制御部34を示すブロック図である。図2に示すように、シナリオ制御部34は、受信部341と、滞在状態判断部342と、情報取得部343と、動作制御部の一例である対話制御部345と、を備える。   The scenario control unit 34 controls the scenario and the interaction operation based on the status data output from the store system 5. FIG. 2 is a block diagram showing the scenario control unit 34 in the robot control system 1 according to the first embodiment. As illustrated in FIG. 2, the scenario control unit 34 includes a reception unit 341, a stay state determination unit 342, an information acquisition unit 343, and a dialogue control unit 345 that is an example of an operation control unit.

受信部341は、図2に示すように、店舗システム5から出力されたステータスデータを受信する。ステータスデータは、例えば飲食店の店舗スタッフが携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信された上で、店舗システム5からシナリオ制御部34の受信部341へと送信される。また、ステータスデータは、店舗システム5を経由せずに、ハンディ端末4から直接受信部341を介して操作端末3へと送信されるようにしてもよい。   As shown in FIG. 2, the receiving unit 341 receives status data output from the store system 5. The status data can be input, for example, at the handy terminal 4 for ordering carried by the store staff of the restaurant. The status data is transmitted from the handy terminal 4 to the store system 5 and then transmitted from the store system 5 to the receiving unit 341 of the scenario control unit 34. Further, the status data may be transmitted from the handy terminal 4 directly to the operation terminal 3 via the receiving unit 341 without passing through the store system 5.

滞在状態判断部342は、受信部341を介して受信されたステータスデータに基づいて、ユーザの滞在状態を判断する。例えば、滞在状態判定部342は、受信部341を介してユーザが着席したことを示すステータスデータを受信すると、ユーザが着席後、注文前の滞在状態であると判断する。また、滞在状態判定部342は、受信部341を介してユーザが飲食物を注文したことを示すステータスデータを受信すると、ユーザが注文後、飲食物の提供待ちの滞在状態であると判断する。既述したステータスデータと同様に、滞在状態も、時間の経過とともに変化するユーザの状態を示す情報である。   The stay state determination unit 342 determines the stay state of the user based on the status data received via the reception unit 341. For example, when the stay state determination unit 342 receives status data indicating that the user has been seated via the reception unit 341, the stay state determination unit 342 determines that the stay state before the order is placed after the user is seated. When stay status determination unit 342 receives status data indicating that the user has ordered food and drink via receiving unit 341, stay state determination unit 342 determines that the user is in a stay state waiting for food and drink after the order is placed. Similar to the status data described above, the stay state is information indicating the state of the user that changes over time.

なお、ステータスデータと滞在状態の関連性は、上述したもの以外の構成であってもよい。例えば、店舗スタッフが、ステータスデータとして滞在状態そのものを入力するようにしてもよい。すなわち、ユーザの行為をトリガとして入力するのではなく、状態そのものを入力するものであってもよい。具体的には、店舗スタッフが、着席した、注文した、といった行為を入力するのではなく、着席している状態、注文して飲食物待機中の状態といった状態を直接入力するようにしてもよい。この場合、滞在状態判断部342は、受信したステータスデータそのものを滞在状態であると判断する。   The relationship between the status data and the staying state may be a configuration other than those described above. For example, the store staff may input the stay state itself as the status data. That is, instead of inputting the user's action as a trigger, the state itself may be input. Specifically, the store staff may not directly input the act of being seated or ordered, but directly input the state of being seated or ordering and waiting for food or drink. . In this case, stay state determination unit 342 determines that the received status data itself is a stay state.

情報取得部343は、シナリオDB33から、滞在状態判断部342が判断した滞在状態に応じた事前動作データを取得する。事前動作データを取得するのは、対話制御部345であってもよい。   The information acquisition unit 343 acquires pre-operation data corresponding to the stay state determined by the stay state determination unit 342 from the scenario DB 33. The dialogue control unit 345 may acquire the pre-operation data.

また、情報取得部343は、シナリオDB33から、滞在状態判断部342が判断した滞在状態および後述する対話シナリオ選択信号(図2参照)で選択されたユーザ側の対話の選択肢に応じた対話シナリオ情報を選択して取得する。情報取得部343は、シナリオDB33に格納された滞在状態に応じたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよいし、滞在状態に応じたシナリオ群そのものをシナリオDB33から取得した上で、取得されたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよい。シナリオ群からシナリオデータを選択するのは、対話制御部345であってもよい。   In addition, the information acquisition unit 343 receives, from the scenario DB 33, dialogue scenario information corresponding to the stay state determined by the stay state determination unit 342 and the user's dialog options selected by a dialog scenario selection signal (see FIG. 2) described later. Select to get. The information acquisition unit 343 may select scenario data that responds to the option selected by the user from the scenario group corresponding to the stay state stored in the scenario DB 33, or the scenario group corresponding to the stay state After acquiring itself from the scenario DB 33, scenario data that responds to the option selected by the user may be selected from the acquired scenario group. The dialogue control unit 345 may select the scenario data from the scenario group.

ここで、情報取得部343は、シナリオDB33からシナリオデータを選択するにあたって、既述したように、滞在状態に応じるようにシナリオデータを選択する必要があるだけでなく、操作端末3でユーザが選んだ選択肢に応じるようにシナリオデータを選択する必要がある。このため、操作端末3での選択肢の選択から情報取得部343でのシナリオデータの選択までの間には、シナリオデータの選択処理に要するタイムラグがある。   Here, when selecting the scenario data from the scenario DB 33, the information acquisition unit 343 not only needs to select the scenario data according to the stay state as described above, but also selected by the user at the operation terminal 3. It is necessary to select scenario data according to the choices. For this reason, there is a time lag required for the scenario data selection process between the selection of the option at the operation terminal 3 and the selection of the scenario data at the information acquisition unit 343.

これに対して、シナリオDB33から事前動作データを選択するにあたっては、滞在状態に応じるように事前動作データを選択する必要はあるものの、操作端末3でユーザが選んだ選択肢に応じるように事前動作データを選択する必要はない。すなわち、後述するように、同じ滞在状態の下では、選択肢の選択結果によらず共通の事前動作データを用いた事前動作が行われる。このため、操作端末3での選択肢の選択から情報取得部343での事前動作データの選択までの間には、タイムラグが殆ど無い。   On the other hand, when selecting the pre-operation data from the scenario DB 33, it is necessary to select the pre-operation data according to the staying state, but the pre-operation data according to the option selected by the user at the operation terminal 3. There is no need to choose. That is, as will be described later, under the same stay state, a pre-operation using common pre-operation data is performed regardless of the selection result of the options. For this reason, there is almost no time lag between the selection of the option at the operation terminal 3 and the selection of the pre-operation data at the information acquisition unit 343.

このように、事前動作データの選択には、シナリオデータの選択に要するタイムラグのような遅延が殆ど無いため、後述するように、シナリオデータに基づく対話動作が実行される前に事前動作データに基づく事前動作を実行することができる。   As described above, since selection of the pre-operation data has almost no delay such as a time lag required for selecting the scenario data, as described later, based on the pre-operation data before the interactive operation based on the scenario data is executed. A pre-action can be performed.

また、情報取得部343は、シナリオDB33から対話シナリオ情報を取得するとき、対話シナリオ情報のうちロボット側シナリオデータに対応付けられた内部状態パラメータもシナリオDB33から同時に取得する。   Further, when the information acquisition unit 343 acquires the conversation scenario information from the scenario DB 33, the information acquisition unit 343 also acquires the internal state parameters associated with the robot-side scenario data from the scenario DB 33 at the same time.

また、情報取得部343は、メニュー中にお薦めのメニューがある場合に、当該お薦めのメニューを対話シナリオへと挿入してもよい。情報取得部343は、シナリオDB33その他の記憶部からお薦めのメニューを取得してもよい。   In addition, when there is a recommended menu in the menu, the information acquisition unit 343 may insert the recommended menu into the dialogue scenario. The information acquisition unit 343 may acquire a recommended menu from the scenario DB 33 or other storage unit.

対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた事前動作データを動作生成部32に出力する。事前動作データを出力することで、対話制御部345は、操作端末3の操作に応じた対話動作をロボット2に行わせる前に、滞在状態判断部342にて判断された顧客の滞在状態に基づいた事前動作をロボットに行わせる。また、対話制御部345は、選択肢の選択結果によらずロボット2にユーザの滞在状態に応じた共通の相槌動作を含む事前動作を行わせる。   As illustrated in FIG. 2, the dialogue control unit 345 outputs the pre-operation data corresponding to the stay state acquired by the information acquisition unit 343 to the operation generation unit 32. By outputting the pre-operation data, the dialogue control unit 345 is based on the stay state of the customer determined by the stay state determination unit 342 before causing the robot 2 to perform the dialogue operation according to the operation of the operation terminal 3. Let the robot perform the previous action. In addition, the dialogue control unit 345 causes the robot 2 to perform a pre-operation including a common interaction operation according to the staying state of the user regardless of the selection result of the options.

また、対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ロボット側シナリオデータを動作生成部32に出力する。このとき、対話制御部345は、ロボット側シナリオデータに対応付けられた内部状態パラメータを情報取得部343から取得し、取得された内部状態パラメータをロボット側シナリオデータと同時に動作生成部32に出力する。対話制御部345は、自身が取得した滞在状態に応じた事前動作データおよび対話シナリオ情報を動作生成部32に出力してもよい。   Further, as shown in FIG. 2, the dialogue control unit 345 outputs the robot side scenario data to the motion generation unit 32 among the dialogue scenario information corresponding to the stay state acquired by the information acquisition unit 343. At this time, the dialogue control unit 345 acquires the internal state parameter associated with the robot-side scenario data from the information acquisition unit 343, and outputs the acquired internal state parameter to the motion generation unit 32 simultaneously with the robot-side scenario data. . The dialogue control unit 345 may output pre-action data and dialogue scenario information corresponding to the stay state acquired by itself to the action generation unit 32.

動作生成部32は、図2に示すように、対話制御部345から入力された事前動作データに基づいてロボット2に事前動作を指令するための事前動作用ロボット制御コマンドを生成し、生成された事前動作用ロボット制御コマンドをロボット制御部22に送信する。事前動作用ロボット制御コマンドを送信することで、ロボット2に事前動作を行わせることができる。   As shown in FIG. 2, the motion generation unit 32 generates and generates a preliminary motion robot control command for instructing the robot 2 to perform a preliminary motion based on the preliminary motion data input from the dialogue control unit 345. The robot control command for pre-operation is transmitted to the robot control unit 22. By transmitting the robot control command for pre-operation, the robot 2 can perform pre-operation.

事前動作が発話動作による相槌動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、事前動作データを音声化した音声データを生成および送信する。音声データを送信することで、ロボット2に相槌動作における発話動作を行わせることができる。なお、事前動作用ロボット制御コマンドとして音声データを送信する代わりに、ロボット2内に音声データを格納しておき、動作生成部32が、事前動作用ロボット制御コマンドとしてロボット2内の音声データに紐づけられたIDを送信してもよい。この場合、ロボット2側で、IDに紐づけられた音声データを再生して相槌動作における発話動作を行えばよい。また、事前動作が頷き動作による相槌動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、ロボット2の頷き動作を指令する信号を生成および送信する。また、事前動作がロボット2の姿勢および外観の少なくとも一方を変化させる動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、ロボット2の姿勢および外観の少なくとも一方を変化させる動作を指令する信号を生成および送信する。   In the case where the preliminary motion includes a competing motion by the speech motion, the motion generator 32 generates and transmits voice data obtained by converting the preliminary motion data into speech as at least a part of the robot motion command for preliminary motion. By transmitting the voice data, the robot 2 can perform the speech operation in the conflict operation. Instead of sending voice data as a robot action command for pre-operation, the voice data is stored in the robot 2, and the motion generation unit 32 links the voice data in the robot 2 as a robot control command for pre-action. The attached ID may be transmitted. In this case, the speech data associated with the ID may be reproduced on the robot 2 side to perform the utterance operation in the interaction operation. When the preliminary motion includes a conflicting motion due to the whirling motion, the motion generating unit 32 generates and transmits a signal instructing the whirling motion of the robot 2 as at least a part of the robot motion command for preliminary motion. Further, when the pre-operation includes an operation that changes at least one of the posture and appearance of the robot 2, the operation generation unit 32 uses at least one of the posture and appearance of the robot 2 as at least a part of the robot operation command for pre-operation. Generate and send a signal to command the action to change.

また、動作生成部32は、図2に示すように、対話制御部345から入力されたロボット側シナリオデータに基づいてロボット2に対話動作を指令するための対話動作用ロボット制御コマンドを生成し、生成された対話動作用ロボット制御コマンドをロボット制御部22に送信する。対話動作用ロボット制御コマンドを送信することで、ロボット2に対話動作を行わせることができる。   Further, as shown in FIG. 2, the motion generation unit 32 generates a robot control command for interactive operation for instructing the robot 2 to perform the interactive operation based on the robot-side scenario data input from the dialog control unit 345. The generated robot control command for dialogue operation is transmitted to the robot control unit 22. The robot 2 can be made to perform an interactive operation by transmitting the interactive operation robot control command.

対話動作が発話動作を含む場合、動作生成部32は、対話動作用ロボット制御コマンドの少なくとも一部として、ロボット側シナリオデータを音声化した音声データを生成および送信する。なお、事前動作用ロボット制御コマンドの場合と同様に、対話動作用ロボット制御コマンドとして音声データを送信する代わりに、ロボット2内に音声データを格納しておき、動作生成部32が、対話動作用ロボット制御コマンドとして、ロボット2内の音声データに紐づけられたIDを送信してもよい。また、対話動作がロボット2の姿勢および外観の少なくとも一方を変化させる動作を含む場合、動作生成部32は、対話動作用ロボット制御コマンドの少なくとも一部として、ロボット2の姿勢および外観の少なくとも一方を変化させる動作を指令する信号を生成および送信する。   When the dialogue operation includes an utterance operation, the operation generation unit 32 generates and transmits voice data obtained by converting the robot-side scenario data into speech as at least a part of the robot control command for dialogue operation. As in the case of the robot action command for pre-action, instead of sending the voice data as the robot control command for dialogue action, the voice data is stored in the robot 2 and the action generation unit 32 is used for the dialogue action. An ID associated with voice data in the robot 2 may be transmitted as a robot control command. When the interactive operation includes an operation that changes at least one of the posture and appearance of the robot 2, the operation generation unit 32 uses at least one of the posture and appearance of the robot 2 as at least a part of the robot control command for interactive operation. Generate and send a signal to command the action to change.

対話動作用ロボット制御コマンドの生成において、動作生成部32は、ロボット側シナリオデータに対応付けられた内部パラメータを考慮して、対話動作の内容に、発話音声のトーンや、眼球部の点灯状態やロボット2の姿勢等を含ませる。   In generating the robot control command for interactive operation, the operation generating unit 32 considers the internal parameters associated with the robot-side scenario data, and the content of the interactive operation includes the tone of the utterance voice, the lighting state of the eyeball unit, The posture of the robot 2 is included.

図2に示すように、対話制御部345は、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ユーザ側シナリオデータを画像化して表示部35に出力する。表示部35は、対話制御部345から出力された画像化されたユーザ側シナリオデータに応じた対話の選択肢(図5参照)を表示する。対話制御部345が表示部35に出力するデータは、ユーザ側シナリオデータには限られず、ユーザがメニューを選択する際には、飲食物の画像や動画を表示部35へと出力するようにしてもよい。すなわち、対話に用いる言葉、文字に関する情報だけではなく、適宜、画像、動画等、表示に用いることのできるデータを表示部35へと出力するようにしてもよい。   As shown in FIG. 2, the dialogue control unit 345 images user-side scenario data out of the dialogue scenario information corresponding to the stay state acquired by the information acquisition unit 343 and outputs it to the display unit 35. The display unit 35 displays dialogue options (see FIG. 5) according to the imaged user-side scenario data output from the dialogue control unit 345. The data that the dialogue control unit 345 outputs to the display unit 35 is not limited to the user-side scenario data. When the user selects a menu, the food or drink image or video is output to the display unit 35. Also good. That is, not only information about words and characters used for dialogue, but also data that can be used for display, such as images and moving images, may be output to the display unit 35 as appropriate.

また、これには限られず、必要に応じて操作端末3から音声を出力させたり、操作端末3を振動させたりしてもよく、この場合には、これらの音声データ、振動データ等を出力するようにしてもよい。また、ロボット2が音声を発する場合には、ロボット2が発する音声を文字として表示部35へと併せて出力するようにしてもよい。   In addition, the present invention is not limited to this, and sound may be output from the operation terminal 3 or the operation terminal 3 may be vibrated as necessary. In this case, the sound data, vibration data, and the like are output. You may do it. Further, when the robot 2 utters a sound, the sound uttered by the robot 2 may be output to the display unit 35 as characters.

一方、ユーザは、表示部35に表示されている対話の選択肢に基づき、図2に示すように、入力部36を介して選択肢の選択結果を示す対話シナリオ選択信号をシナリオ制御部34に入力する。   On the other hand, the user inputs a dialogue scenario selection signal indicating the selection result of the options to the scenario control unit 34 via the input unit 36 based on the dialogue options displayed on the display unit 35, as shown in FIG. .

そして、対話制御部345は、入力部36から入力された対話シナリオ選択信号で選択された対話の選択肢に応答するため、既述したように、選択された選択肢に応じて情報取得部343で選択されたロボット側シナリオデータを、動作生成部32に出力する。   Then, the dialog control unit 345 selects the information acquisition unit 343 according to the selected option as described above in order to respond to the dialog option selected by the dialog scenario selection signal input from the input unit 36. The robot side scenario data thus output is output to the motion generation unit 32.

以上のように、第1の実施形態において、対話制御部345は、ステータスデータに基づいて判断された滞在状態に応じて、シナリオDB33に格納されている各種のシナリオデータから適したものを情報取得部343から取得し、動作生成部32、表示部35へと出力する。さらに、対話制御部345は、入力部36から入力された対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された対話シナリオに応答する新たなロボット側シナリオデータをシナリオDB33から選択する。そして、選択された新たなロボット側シナリオデータを、発話のために動作生成部32へと出力する。この処理を繰り返すことにより、ユーザとロボット2との間の対話を行うことが可能となる。   As described above, in the first embodiment, the dialogue control unit 345 obtains information from the various scenario data stored in the scenario DB 33 according to the stay state determined based on the status data. Obtained from the unit 343 and output to the motion generation unit 32 and the display unit 35. Further, the dialogue control unit 345 selects, from the scenario DB 33, new robot-side scenario data that responds to the dialogue scenario selected by the dialogue scenario selection signal in accordance with the dialogue scenario selection signal input from the input unit 36. Then, the selected new robot-side scenario data is output to the motion generation unit 32 for speech. By repeating this process, it is possible to perform a dialogue between the user and the robot 2.

また、対話制御部345は、対話シナリオ選択信号の受信からのタイムラグがあるシナリオデータの選択に先立って、滞在状態に応じた事前動作データをシナリオDB33から速やかに選択して動作生成部32に出力する。この処理を滞在状態の変化に応じて繰り返すことにより、ユーザとロボット2との間で滞在状態に適した途切れがない自然な対話を行うことが可能となる。   In addition, prior to selecting scenario data with a time lag from reception of the dialogue scenario selection signal, the dialogue control unit 345 promptly selects the pre-operation data corresponding to the stay state from the scenario DB 33 and outputs it to the operation generation unit 32. To do. By repeating this process according to the change in the staying state, it is possible to perform a natural dialogue between the user and the robot 2 without any break suitable for the staying state.

以上の構成により、飲食店におけるロボット2との対話を違和感なく自然に行うことが可能となる。   With the above configuration, it is possible to naturally perform a conversation with the robot 2 at a restaurant without a sense of incongruity.

また、飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状態すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオ情報を用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。   In the food service industry, the content of dialogue to be exchanged with the user greatly changes depending on the staying state of the user such as seating, ordering, provision of food and drink, end of meal, accounting, and the like. According to the first embodiment, since the dialogue can be performed using the dialogue scenario information of different scenario groups according to the status data, it is possible to further improve the feeling of dialogue with the robot 2 in the scene where the food service is provided. it can.

また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。   Further, by making the content of the dialogue variable according to the accumulation state of the internal state parameters, it is possible to further improve the feeling of dialogue with the robot 2.

さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。   Furthermore, since the user's utterance can be simulated by outputting the dialogue scenario selected by the user by voice, the feeling of dialogue with the robot 2 can be further improved.

また、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみをシナリオDB33に蓄積し、データ本体はロボット2側に蓄積させることで、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済む。この場合、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。   In addition, only the scenario ID, which is the identification information of the data main body, is stored in the scenario DB 33 among the robot side scenario data, and the data main body is stored on the robot 2 side. The scenario ID is transmitted from the 3 side to the robot 2 side, and the data body corresponding to the scenario ID is output by voice on the robot 2 side. In this case, the data transmission amount can be reduced compared to the case where the data body is transmitted from the operation terminal 3 to the robot 2, and the speed of dialogue can be improved.

(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図3は、第1の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図3のフローチャートは、必要に応じて繰り返される。
(Operation example)
Next, a main operation example of the robot control system 1 of FIG. 1 will be described. FIG. 3 is a flowchart showing an operation example of the robot control system 1 according to the first embodiment. The flowchart of FIG. 3 is repeated as necessary.

図3に示すように、先ず、滞在状態判断部342は、受信部341および店舗システム5を介してハンディ端末4からステータスデータを取得する(ステップS1)。   As shown in FIG. 3, first, the stay state determination unit 342 acquires status data from the handy terminal 4 via the reception unit 341 and the store system 5 (step S1).

ここで、図4は、第1の実施形態によるロボット制御システム1の動作例において、滞在状態に基づいた事前動作の処理を示す図である。図4には、ステータスデータA1〜A5と、ステータスデータA1〜A5に基づいて判断される滞在状態B1〜B4と、滞在状態B1〜B4における事前動作に用いられる事前動作データC1〜C4とが時系列順に示されている。   Here, FIG. 4 is a diagram illustrating a pre-operation process based on the stay state in the operation example of the robot control system 1 according to the first embodiment. FIG. 4 shows status data A1 to A5, stay states B1 to B4 determined based on the status data A1 to A5, and pre-operation data C1 to C4 used for the pre-operation in the stay states B1 to B4. They are shown in sequence order.

図4の例において、滞在状態判断部342は、ユーザが入店または着席したことを示す第1のステータスデータA1、ユーザが飲食物を注文したことを示す第2のステータスデータA2、ユーザに飲食物が提供されたことを示す第3のステータスデータA3、ユーザが飲食を終了したことを示す第4のステータスデータA4、または、ユーザが会計または離席したことを示す第5のステータスデータA5を取得する。   In the example of FIG. 4, the stay state determination unit 342 includes first status data A1 indicating that the user has entered or seated, second status data A2 indicating that the user has ordered food and drink, and eating and drinking to the user. Third status data A3 indicating that an object has been provided, fourth status data A4 indicating that the user has finished eating or drinking, or fifth status data A5 indicating that the user has paid or left get.

ステータスデータの取得後、図3に示すように、滞在状態判断部342は、取得されたステータスデータに基づいてユーザの滞在状態を判断する(ステップS2)。   After acquiring the status data, as shown in FIG. 3, the stay state determination unit 342 determines the stay state of the user based on the acquired status data (step S2).

図4の例において、滞在状態判断部342は、第1のステータスデータA1を取得した場合、現在のユーザの滞在状態が、ユーザが飲食店に入店、又は、着席してから注文をするまでの状態である第1の滞在状態B1であると判断する。第2のステータスデータA2を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが注文した飲食物が提供されるのを待っている状態、すなわち、注文をして飲食物の提供を待機している第2の滞在状態B2であると判断する。第3のステータスデータA3を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食物の飲食を完了するまでの状態、すなわち、飲食中である第3の滞在状態B3であると判断する。第4のステータスデータA4を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食を完了してから退店するまでの状態である第4の滞在状態B4であると判断する。第5のステータスデータA5を取得した場合、滞在状態判断部342は、滞在状態を初期状態すなわちユーザの入店前の状態へと戻すようにしてもよい。   In the example of FIG. 4, when the stay state determination unit 342 acquires the first status data A1, the current stay state of the user is from when the user enters the restaurant or sits down until the user places an order. It is judged that it is the 1st stay state B1 which is the state. When the second status data A2 is acquired, the stay state determination unit 342 is in a state where the current stay state of the user is waiting for the food and drink ordered by the user to be provided, that is, the order is placed. It is determined that the second stay state B2 is waiting for the provision of the object. When the third status data A3 is acquired, the staying state determination unit 342 indicates that the current staying state of the user is the state until the user completes the eating and drinking of the food, that is, the third staying state that is being eaten or consumed. It is determined that it is B3. When the fourth status data A4 is acquired, the staying state determination unit 342 is the fourth staying state B4 in which the current staying state of the user is a state from when the user completes eating and drinking until the user leaves the store. Judge. When the fifth status data A5 is acquired, the stay state determination unit 342 may return the stay state to the initial state, that is, the state before the user enters the store.

滞在状態の判断後、図3に示すように、情報取得部343は、判断された滞在状態が変更されたか否かを判定する(ステップS3)。ここで、滞在状態の変更には、ユーザの入店前の初期状態から第1の滞在状態B1への変更も含まれる。   After determining the stay state, as shown in FIG. 3, the information acquisition unit 343 determines whether or not the determined stay state has been changed (step S3). Here, the change in the stay state includes a change from the initial state before the user enters the store to the first stay state B1.

滞在状態が変更された場合(ステップS3:Yes)、情報取得部343は、変更された滞在状態に応じたシナリオ群をシナリオDB33から選択する(ステップS4)。一方、滞在状態が変更されていない場合(ステップS3:No)、対話制御部345および動作生成部32は、後述する事前動作処理を実行する(ステップS7)。なお、ユーザが入店した直度は、必ず滞在状態が初期状態から第1の滞在状態B1へと変更されるので、ユーザが入店した直後にステップS3の判定結果が否定的(ステップS3:No)となることはない。   When the staying state is changed (step S3: Yes), the information acquisition unit 343 selects a scenario group corresponding to the changed staying state from the scenario DB 33 (step S4). On the other hand, when the stay state has not been changed (step S3: No), the dialogue control unit 345 and the operation generation unit 32 execute a pre-operation process described later (step S7). Since the stay state is always changed from the initial state to the first stay state B1 immediately after the user enters the store, the determination result of step S3 is negative immediately after the user enters the store (step S3: No).

シナリオ群の選択後、情報取得部343は、変更された滞在状態に応じた事前動作データをシナリオDB33から選択する(ステップS5)。なお、事前動作データの選択は、シナリオ群の選択(ステップS4)と前後が入れ替わってもよく、または、シナリオ群の選択と同時でもよい。   After selecting the scenario group, the information acquisition unit 343 selects pre-operation data corresponding to the changed stay state from the scenario DB 33 (step S5). Note that the selection of the pre-operation data may be switched between the scenario group selection (step S4) and before or after the scenario group selection.

図4の例において、情報取得部343は、滞在状態が初期状態から第1の滞在状態B1に変更された場合、第1の滞在状態B1における事前動作に用いられる第1の事前動作データC1を、シナリオDB33から選択する。滞在状態が第1の滞在状態B1から第2の滞在状態B2に変更された場合、情報取得部343は、第2の滞在状態B2における事前動作に用いられる第2の事前動作データC2を、シナリオDB33から選択する。滞在状態が第2の滞在状態B2から第3の滞在状態B3に変更された場合、情報取得部343は、第3の滞在状態B3における事前動作に用いられる第3の事前動作データC3を、シナリオDB33から選択する。滞在状態が第3の滞在状態B3から第4の滞在状態B4に変更された場合、情報取得部343は、第4の滞在状態B4における事前動作に用いられる第4の事前動作データC4を、シナリオDB33から選択する。   In the example of FIG. 4, when the stay state is changed from the initial state to the first stay state B1, the information acquisition unit 343 obtains the first pre-operation data C1 used for the pre-operation in the first stay state B1. , Selected from the scenario DB 33. When the stay state is changed from the first stay state B1 to the second stay state B2, the information acquisition unit 343 uses the second pre-operation data C2 used for the pre-operation in the second stay state B2 as a scenario. Select from DB33. When the stay state is changed from the second stay state B2 to the third stay state B3, the information acquisition unit 343 uses the third pre-operation data C3 used for the pre-operation in the third stay state B3 as a scenario. Select from DB33. When the stay state is changed from the third stay state B3 to the fourth stay state B4, the information acquisition unit 343 uses the fourth pre-operation data C4 used for the pre-operation in the fourth stay state B4 as a scenario. Select from DB33.

事前動作データの選択後、図3に示すように、情報取得部343は、ステップS4で選択されたシナリオ群の中から、入力部36からの対話シナリオ選択信号の入力による対話の進行に応じた現在使用すべきシナリオを選択する(ステップS6)。   After the selection of the pre-operation data, as shown in FIG. 3, the information acquisition unit 343 responds to the progress of the dialogue by inputting the dialogue scenario selection signal from the input unit 36 from the scenario group selected in step S4. A scenario to be used at present is selected (step S6).

シナリオの選択後、対話制御部345および動作生成部32は、選択された事前動作データを用いた事前動作処理を実行する(ステップS7)。具体的には、対話制御部345は、情報取得部343で選択された事前動作データを動作生成部32に出力する。動作生成部32は、対話制御部345から入力された事前動作データに基づいて事前動作用ロボット制御コマンドを生成し、生成された事前動作用ロボット制御コマンドをロボット制御部22に出力する。これにより、事前動作用ロボット制御コマンドに示される事前動作をロボット2に行わせる。   After the scenario is selected, the dialogue control unit 345 and the action generation unit 32 execute a pre-action process using the selected pre-action data (Step S7). Specifically, the dialogue control unit 345 outputs the pre-operation data selected by the information acquisition unit 343 to the operation generation unit 32. The motion generation unit 32 generates a preliminary motion robot control command based on the preliminary motion data input from the dialogue control unit 345, and outputs the generated preliminary motion robot control command to the robot control unit 22. As a result, the robot 2 is caused to perform a pre-movement indicated by the pre-movement robot control command.

事前動作処理後、対話制御部345および動作生成部32は、選択されたシナリオを用いた対話動作処理を実行する(ステップS8)。具体的には、対話制御部345は、情報取得部343で選択されたロボット側シナリオデータを、動作生成部32に出力する。動作生成部32は、対話制御部345から入力されたロボット側シナリオデータに基づいて対話動作用ロボット制御コマンドを生成し、生成された対話動作用ロボット制御コマンドをロボット制御部22に出力する。これにより、対話動作用ロボット制御コマンドに示される対話動作をロボット2に行わせる。また、対話制御部345は、情報取得部343で選択されたロボット側シナリオデータに応答するユーザ側シナリオデータを表示部35に出力することで、ロボット2の対話動作に応答するシナリオの選択肢を表示させる。   After the pre-operation process, the dialogue control unit 345 and the action generation unit 32 execute the dialogue operation process using the selected scenario (step S8). Specifically, the dialogue control unit 345 outputs the robot side scenario data selected by the information acquisition unit 343 to the motion generation unit 32. The motion generation unit 32 generates a dialog control robot control command based on the robot-side scenario data input from the dialog control unit 345, and outputs the generated dialog control robot control command to the robot control unit 22. This causes the robot 2 to perform the interactive operation indicated by the interactive operation robot control command. In addition, the dialogue control unit 345 outputs the user-side scenario data that responds to the robot-side scenario data selected by the information acquisition unit 343 to the display unit 35, thereby displaying the scenario options that respond to the dialogue operation of the robot 2. Let

図5は、第1の実施形態によるロボット制御システム1の動作例において、着席から注文までの期間中の事前動作をともなう対話の一例を示す図である。図5の例において、ロボット2は、第1の滞在状態B1における対話動作として、操作端末3によっておすすめメニュー(図示せず)が選択されたことに応答する「おすすめメニューを選択してくれたんだ。ありがとう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「もちろん!」という選択肢と、「やっぱり変える」という選択肢を表示している。これらの選択肢のうち、図5の例では、「もちろん!」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。   FIG. 5 is a diagram illustrating an example of an interaction with a prior operation during a period from sitting to ordering in the operation example of the robot control system 1 according to the first embodiment. In the example of FIG. 5, the robot 2 responds to selection of a recommended menu (not shown) by the operation terminal 3 as an interactive operation in the first stay state B1. "Thank you!" At this time, the display unit 35 of the operation terminal 3 displays an option “of course!” And an option “change after all” as options for the dialogue in response to the speech operation of the robot 2. Among these options, in the example of FIG. 5, the option “Of course!” Is selected by pressing a touch panel, which is an example of the input unit 36.

そして、選択肢「もちろん!」の選択に応じて、ロボット2は、第1の事前動作データC1に基づく事前動作処理により、事前動作として、「うんうん」という発話動作のみによる相槌動作を行っている。   Then, in response to the selection of the option “Of course!”, The robot 2 performs a collaborative operation based only on the utterance operation “Yes” as the pre-operation by the pre-operation process based on the first pre-operation data C1. .

この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、「おすすめのメニューは、取れたて野菜と柔らかいお肉に特性のソースで味付けしてあるから、グッドチョイスだよ!店員さんを呼んで注文しよう!」という発話動作を行っている。この発話動作は、ユーザの選択肢の選択結果「もちろん!」に応じたシナリオの選択処理を経て行われるため、「もちろん!」の選択からタイムラグがある。   As an interactive action in response to the operation of the operation terminal 3 following this competing action, the robot 2 said, “The recommended menu is a good choice because fresh vegetables and soft meat are seasoned with characteristic sauces. "Let's call a clerk and place an order!" Since this utterance operation is performed through a scenario selection process corresponding to the selection result “of course!” Of the user's option, there is a time lag from the selection of “of course!”.

しかるに、図5の例では、選択肢「もちろん!」の選択と、これに応答する発話動作との間に相槌動作「うんうん」が行われているため、選択肢の選択と発話動作とのタイムラグが、これらの対話の間を繋ぐ相槌という自然な動作で補間されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、着席してから飲食物を注文するまでの間に、ロボット2との間で途切れ感の無い自然な対話を楽しむことができる。   However, in the example of FIG. 5, since the mutual action “Yes” is performed between the selection of the choice “Of course!” And the utterance action in response to this, there is a time lag between the choice of the choice and the utterance action. Interpolated in a natural motion called a reciprocal connection between these dialogues. The user can enjoy a natural dialogue with the robot 2 between the time of sitting and ordering food and drink by performing such a dialogue operation with a mutual action. .

また、飲食物が注文される前の第1の滞在状態B1においては、ロボット2の動き(すなわち姿勢の変化)に気を取られないように、ロボット2の発話と画面表示を重視した対話を進行させることが、所望の注文をすみやかに行ううえで好ましい。図5の例によれば、第1の滞在状態B1に応じた事前動作として、発話動作および頷き動作のうち発話動作のみを含む相槌動作を行うことで、第1の滞在状態B1に適合した事前動作を行うことができる。   Also, in the first stay state B1 before food and drinks are ordered, a dialogue that emphasizes the utterance and screen display of the robot 2 is performed so as not to be distracted by the movement of the robot 2 (ie, change in posture). It is preferable to proceed so that a desired order can be made promptly. According to the example of FIG. 5, as a pre-action according to the first stay state B1, by performing a companion operation including only the utterance operation among the utterance operation and the whispering operation, the advance operation suitable for the first stay state B1 is performed. The action can be performed.

図6は、第1の実施形態によるロボット制御システム1の動作例において、着席から注文までの期間中の事前動作をともなう対話の他の一例を示す図である。図6の例において、ロボット2は、図5の例と同様に、第1の滞在状態B1における対話動作として、「おすすめメニューを選択してくれたんだ。ありがとう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「もちろん!」という選択肢と、「やっぱり変える」という選択肢を表示している。図6の例では、これらの選択肢のうち、図5の例と異なり、「やっぱり変える」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。   FIG. 6 is a diagram illustrating another example of the dialog with the preliminary operation during the period from the seating to the order in the operation example of the robot control system 1 according to the first embodiment. In the example of FIG. 6, the robot 2 performs an utterance operation “Thank you for selecting the recommended menu. Thank you!” As an interactive operation in the first stay state B1 as in the example of FIG. . At this time, the display unit 35 of the operation terminal 3 displays an option “of course!” And an option “change after all” as options for the dialogue in response to the speech operation of the robot 2. In the example of FIG. 6, among these options, unlike the example of FIG. 5, the option “change after all” is selected by pressing the touch panel, which is an example of the input unit 36.

そして、選択肢「やっぱり変える」の選択に応じて、ロボット2は、第1の事前動作データC1に基づく事前動作処理による事前動作として、図5の例と同様に、「うんうん」という発話動作のみによる相槌動作を行っている。この相槌動作に続く対話動作として、ロボット2は、「もういちどメニューを選び直してね。」という発話動作を行っている。   Then, in response to the selection of the option “change after all”, the robot 2 performs only the utterance operation “Yes” as the pre-operation by the pre-operation processing based on the first pre-operation data C1, as in the example of FIG. The mutual action by. As an interactive operation following this interaction operation, the robot 2 performs an utterance operation "Please select a menu again."

図6の例では、図5の例と同じ第1の滞在状態B1の下で、選択肢の選択の結果が図5の例と異なるにもかかわらず、図5の例と同じ相槌動作を行っている。すなわち、対話制御部345は、選択肢の選択結果によらずロボット2にユーザの滞在状態に応じた共通の相槌動作を含む事前動作を行わせている。このように、同じ滞在状態の下で、選択肢の選択結果によらず共通の相槌動作を行うことで、選択肢の選択結果に左右される操作端末3に応じた発話動作よりも迅速に相槌動作を行うことができる。これにより、操作端末3の操作に応じた対話動作に先立った事前動作を確実に行うことができる。   In the example of FIG. 6, under the same first stay state B <b> 1 as in the example of FIG. 5, the same interaction operation as in the example of FIG. 5 is performed even though the selection result is different from the example of FIG. 5. Yes. That is, the dialogue control unit 345 causes the robot 2 to perform a preliminary operation including a common interaction operation according to the user's staying state, regardless of the selection result of the options. In this way, under the same stay state, by performing a common reconciliation operation regardless of the selection result of the option, the reciprocation operation can be performed more quickly than the utterance operation according to the operation terminal 3 that depends on the selection result of the option. It can be carried out. Accordingly, it is possible to reliably perform the preliminary operation prior to the interactive operation according to the operation of the operation terminal 3.

図7(a)は、第1の実施形態によるロボット制御システムの動作例において、注文から飲食物提供までの期間中の対話例を示す図である。図7(b)は、図7(a)に続く事前動作をともなう対話例を示す図である。   FIG. 7A is a diagram illustrating an example of an interaction during a period from ordering to food provision in the operation example of the robot control system according to the first embodiment. FIG. 7B is a diagram showing an example of an interaction with a pre-operation following FIG. 7A.

図7(a)の例において、ロボット2は、第2の滞在状態B2における対話動作として、「料理が来るまでお話しよう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やめとく」という選択肢を表示している。これらの選択肢のうち、図7(a)の例では、「いいよ」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。   In the example of FIG. 7A, the robot 2 performs an utterance operation “Let's talk until a dish comes!” As an interactive operation in the second stay state B2. At this time, the display unit 35 of the operation terminal 3 displays an option “OK” and an option “STOP” as an option for the dialogue in response to the speech operation of the robot 2. Among these options, in the example of FIG. 7A, the option “OK” is selected by pressing a touch panel that is an example of the input unit 36.

図7(a)に続く図7(b)の例において、ロボット2は、図7(a)における選択肢「いいよ」の選択に応じて、第2の事前動作データC2に基づく事前動作として、「うんうん」という発話動作と、頷き動作とによる相槌動作を行っている。   In the example of FIG. 7 (b) following FIG. 7 (a), the robot 2 performs a pre-operation based on the second pre-operation data C2 in response to the selection of the option “OK” in FIG. 7 (a). The utterance movement “Yeung” and the whispering movement are combined.

この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、「では、僕がクイズをだすよ。」という発話動作を行っている。この発話動作は、ユーザの選択肢の選択結果「いいよ」に応じたシナリオの選択処理を経て行われるため、選択肢「いいよ」の選択からタイムラグがある。   As an interactive operation in response to the operation of the operation terminal 3 following this competing operation, the robot 2 performs an utterance operation “I will give you a quiz”. Since this utterance operation is performed through a scenario selection process according to the selection result “good” of the user, there is a time lag from the selection of the choice “good”.

しかるに、図7(a)および図7(b)の例では、選択肢「いいよ」の選択と、これに応答する発話動作との間に、相槌動作として発話動作「うんうん」および頷き動作が行われているため、選択肢の選択と発話動作とのタイムラグが、これらの対話の間を繋ぐ相槌という自然な動作で補間されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、飲食物を注文したから飲食物が提供されるまでの間に、ロボット2との間で途切れ感の無い自然な対話を楽しむことができる   However, in the example of FIG. 7A and FIG. 7B, between the selection of the choice “OK” and the utterance operation in response thereto, the utterance operation “YUN” and the utterance operation are performed as the conflict operation. As a result, the time lag between the choice and the speech operation is interpolated by a natural operation of interaction between these dialogues. By performing such a dialogue operation with a conflicting operation, the user enjoys a natural dialogue with the robot 2 between the time the food is ordered and the food is provided. be able to

また、飲食物の注文後、飲食物が提供される前の第2の滞在状態B2において、ユーザは、特にすることがないため、飲食物の注文前よりもロボット2への関心が高まり易い。このような第2の滞在状態B2においては、発話だけでなくロボット2の動きを交えた豊かな表現による対話を進行させることが、対話による満足感をユーザに与えるうえで好ましい。図7(b)の例によれば、第2の滞在状態B2に応じた事前動作として、発話動作および頷き動作の双方による相槌動作を行うことで、第2の滞在状態B2に適合した事前動作を行うことができる。   In addition, in the second stay state B2 before food or drink is provided after ordering food or drink, the user has no particular need to do so, so the interest in the robot 2 is likely to increase more than before ordering food and drink. In such a second stay state B2, it is preferable for the user to be satisfied with the dialogue by advancing the dialogue with a rich expression that includes not only the utterance but also the movement of the robot 2. According to the example of FIG. 7 (b), the pre-operation adapted to the second stay state B2 by performing the companion operation by both the speech operation and the whisper operation as the pre-operation according to the second stay state B2. It can be performed.

図8(a)は、第1の実施形態によるロボット制御システム1の動作例において、飲食物提供から飲食終了までの期間中の対話例を示す図である。図8(b)は、図8(a)に続く事前動作をともなう対話例を示す図である。   FIG. 8A is a diagram illustrating an example of a conversation during a period from provision of food and drink to termination of food and drink in the operation example of the robot control system 1 according to the first embodiment. FIG. 8B is a diagram showing an example of an interaction with a pre-operation following FIG.

図8(a)の例において、ロボット2は、第3の滞在状態B3における対話動作として、「食事中だから後でお話しよう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やだ」という選択肢を表示している。これらの選択肢のうち、図8(a)の例では、「いいよ」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。   In the example of FIG. 8A, the robot 2 performs an utterance operation of “I will eat later because I am eating!” As the dialogue operation in the third stay state B3. At this time, the display unit 35 of the operation terminal 3 displays an option “OK” and an option “Yada” as options for the dialogue in response to the speech operation of the robot 2. Among these options, in the example of FIG. 8A, the option “OK” is selected by pressing a touch panel, which is an example of the input unit 36.

図8(a)に続く図8(b)の例において、ロボット2は、図8(a)における「いいよ」の選択に応じて、第3の事前動作データC3に基づく事前動作として、頷き動作のみによる相槌動作を行っている。   In the example of FIG. 8B subsequent to FIG. 8A, the robot 2 operates as a preliminary motion based on the third preliminary motion data C3 in response to the selection of “OK” in FIG. 8A. A mutual operation is performed only by the operation.

この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、無言の食事姿勢をとっている。食事姿勢は、基本的に、飲食が終了して第4の滞在状態B4に応じたシナリオが選択されるまで継続する。このように、飲食中は、原則として対話は進行しないが、図8(b)に示すように、メニューの追加が可能な選択肢については、飲食中においても表示部35に選択可能な状態で表示してもよい。   As an interactive operation in response to the operation of the operation terminal 3 following this interaction operation, the robot 2 takes a silent eating posture. The meal posture basically continues until eating and drinking ends and a scenario corresponding to the fourth stay state B4 is selected. In this way, the conversation does not proceed in principle during eating and drinking, but as shown in FIG. 8 (b), options that can be added to the menu are displayed in a selectable state on the display unit 35 even during eating and drinking. May be.

飲食中の第3の滞在状態B3では、ユーザがロボット2の発話内容に気を取られて美味しい料理が冷めてしまわないように飲食に専念してもらうことが、料理への満足感をユーザに与えるうえで好ましい。図8(b)の例によれば、第3の滞在状態B3に応じた事前動作として、頷き動作のみによる相槌動作を行うことで、第3の滞在状態B3に適合した事前動作を行うことができる。   In the third stay state B3 during eating and drinking, it is possible for the user to concentrate on eating and drinking so that the user does not get distracted by the content of the utterances of the robot 2 and cool down the delicious food. It is preferable in giving. According to the example of FIG. 8B, the preliminary operation conforming to the third stay state B3 can be performed by performing the companion operation using only the whirling operation as the pre-operation according to the third stay state B3. it can.

対話動作処理後、図3に示すように、対話制御部345は、入力部36からの対話シナリオ選択信号に基づいて、以降の対話に用いるシナリオが変更されるか否かを判定する(ステップS9)。   After the dialogue operation process, as shown in FIG. 3, the dialogue control unit 345 determines whether or not the scenario used for the subsequent dialogue is changed based on the dialogue scenario selection signal from the input unit 36 (step S9). ).

シナリオを変更する場合(ステップS9:Yes)、情報取得部343は、シナリオ群から新たなシナリオを選択する(ステップS6)。   When changing the scenario (step S9: Yes), the information acquisition unit 343 selects a new scenario from the scenario group (step S6).

シナリオを変更しない場合(ステップS9:No)、情報取得部343は、入力部36からの対話シナリオ選択信号に基づいて、対話を終了させるか否かを判定する(ステップS10)。   When the scenario is not changed (step S9: No), the information acquisition unit 343 determines whether or not to end the dialogue based on the dialogue scenario selection signal from the input unit 36 (step S10).

対話を終了させると判定した場合(ステップS10:Yes)、対話制御部345は、対話を終了させる。対話を終了させないと判定した場合(ステップS10:No)、ステップS1以降の処理を繰り返す。   When it is determined that the dialogue is to be terminated (step S10: Yes), the dialogue control unit 345 terminates the dialogue. If it is determined not to end the dialogue (step S10: No), the processing after step S1 is repeated.

以上述べたように、第1の実施形態によれば、滞在状態に応じた事前動作を前提として操作端末3の操作に応じた対話動作を行うことができるので、飲食店におけるロボット2との対話を、滞在状態に適合した態様で違和感なく自然に行うことができる。   As described above, according to the first embodiment, since it is possible to perform an interactive operation according to the operation of the operation terminal 3 on the premise of a pre-operation according to the stay state, the interaction with the robot 2 in the restaurant Can be performed naturally without a sense of incongruity in a mode suitable for the staying state.

なお、図6〜図9(d)では、異なる滞在状態に応じて変化する相槌動作を含む事前動作の例について説明した。これに対して、対話制御部345は、同じ滞在状態においても、ユーザの飲食店内での滞在時間の経過に応じて変化する相槌動作を含む事前動作を行わせてもよい。例えば、同じ滞在状態の下で、初めのうちは、発話動作と頷き動作との双方による相槌動作を行っていたが、時間が経つにつれて、頷き動作のみによる相槌動作を行ったり、また、相槌動作のスピードを遅くしたりしてもよい。この場合、同じ滞在状態の中での時間変化に応じてより好適な事前動作をロボット2に行わせることが可能となる。   In addition, in FIGS. 6-9 (d), the example of the prior operation | movement containing the interaction operation | movement which changes according to a different stay state was demonstrated. On the other hand, the dialogue control unit 345 may perform a pre-operation including a reciprocal operation that changes according to the elapse of the stay time in the user's restaurant even in the same stay state. For example, under the same staying state, initially, both the speech operation and the whispering operation were performed, but as the time passed, the counseling operation was performed only by the whispering operation, You may slow down the speed. In this case, it is possible to cause the robot 2 to perform a more suitable pre-movement according to the time change in the same staying state.

(第2の実施形態)
次に、ロボットが第1動作と第1動作に先立つ第2動作による対話動作を行う第2の実施形態について説明する。
(Second Embodiment)
Next, a description will be given of a second embodiment in which the robot performs an interactive operation based on a first operation and a second operation prior to the first operation.

図9(a)は、第2の実施形態によるロボット制御システム1の動作例において、選択肢の表示例を示す図である。図9(b)は、図9(a)に続く事前動作の一例を示す図である。図9(c)は、図9(b)に続く第2動作の一例を示す図である。図9(d)は、図9(c)に続く第1動作の一例を示す図である。ここで、第1動作とは、操作端末3の操作に応じたロボット2の発話動作である。   FIG. 9A is a diagram illustrating a display example of options in the operation example of the robot control system 1 according to the second embodiment. FIG. 9B is a diagram illustrating an example of the preliminary operation following FIG. 9A. FIG. 9C is a diagram illustrating an example of the second operation following FIG. 9B. FIG. 9D is a diagram illustrating an example of the first operation following FIG. 9C. Here, the first operation is an utterance operation of the robot 2 according to the operation of the operation terminal 3.

第2の実施形態において、操作端末3の操作に応じた対話動作は、ロボット2が発話する第1動作と、第1動作に先だってロボット2の姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでいる。対話制御部345は、ロボット2が第2動作を開始する前に、ロボット2に事前動作を行わせる。以下、具体例を説明する。   In the second embodiment, the interactive operation according to the operation of the operation terminal 3 includes a first operation that the robot 2 speaks and a second operation that changes at least one of the posture and appearance of the robot 2 prior to the first operation. , Including. The dialogue control unit 345 causes the robot 2 to perform a pre-operation before the robot 2 starts the second operation. Specific examples will be described below.

図9(a)の例において、ロボット2は、第2の滞在状態B2における対話動作処理に応じた対話動作として、「では、僕がクイズをだすよという発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「楽しみ!」という選択肢と、「やだ」という選択肢を表示している。これらの選択肢のうち、図9(a)の例では、「楽しみ!」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。   In the example of FIG. 9A, the robot 2 is performing an utterance operation “I will give a quiz.” As an interactive operation corresponding to the interactive operation process in the second stay state B2. The display unit 35 of the operation terminal 3 displays an option “FUN!” And an option “Yada” as options for dialogue in response to the speech operation of the robot 2. Among these options, in the example of FIG. 9A, the option “Fun!” Is selected by pressing a touch panel, which is an example of the input unit 36.

図9(a)に続く図9(b)の例において、ロボット2は、図9(a)における選択肢「楽しみ!」の選択に応じて、第2の事前動作データC2に基づく事前動作として、「うんうん」という発話動作と、頷き動作とによる相槌動作を行っている。   In the example of FIG. 9 (b) following FIG. 9 (a), the robot 2 performs a pre-operation based on the second pre-operation data C2 in response to the selection of the option “fun” in FIG. 9 (a). The utterance movement “Yeung” and the whispering movement are combined.

この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、先ず、図9(c)に示すように、第2動作の一例である眼球部の点灯を行っている。そして、眼球部の点灯に続く対話動作として、ロボット2は、図9(d)に示すように、第1動作の一例である「僕も楽しみ!では、第1問目!」という発話動作を行っている。   As an interactive operation in response to the operation of the operation terminal 3 following this competing operation, the robot 2 first turns on the eyeball as an example of the second operation as shown in FIG. 9C. Then, as an interactive operation following the lighting of the eyeball unit, the robot 2 performs an utterance operation “I am also looking forward to seeing the first question!” As an example of the first operation as shown in FIG. Is going.

この発話動作(第1動作)は、ユーザの選択肢の選択結果「楽しみ!」に応じたシナリオの選択処理を経て行われるため、眼球部の点灯(第2動作)からタイムラグがある。   Since this utterance operation (first operation) is performed through a scenario selection process according to the selection result “fun!” Of the user's option, there is a time lag from lighting of the eyeball (second operation).

しかるに、図9(a)および図9(b)の例では、眼球部の点灯前に、相槌動作として発話動作「うんうん」および頷き動作が行われているため、眼球部の点灯と発話動作とのタイムラグによる違和感が、相槌動作によって緩和されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、ロボット2との間で違和感のない自然な対話を楽しむことができる。   However, in the example of FIG. 9A and FIG. 9B, the utterance operation “YUN” and the whispering operation are performed as the companion operation before the eyeball portion is lit, so the eyeball portion lighting and the utterance operation are performed. The uncomfortable feeling due to the time lag is alleviated by the mutual action. The user can enjoy a natural dialogue with the robot 2 without any sense of incongruity by performing the dialogue operation with such a mutual action.

(第3の実施形態)
次に、シナリオDB33がクラウド上に存在する第3の実施形態について説明する。図10は、第3の実施形態によるロボット制御システム1を示すブロック図である。上述した実施形態においては、シナリオDB33が操作端末3内に設置されていた。これに対して、第3の実施形態においては、図10に示すように、シナリオDB33が操作端末3の外部に存在する。シナリオ制御部34は、ネットワーク6を介してシナリオDB33と接続される。
(Third embodiment)
Next, a third embodiment in which the scenario DB 33 exists on the cloud will be described. FIG. 10 is a block diagram showing a robot control system 1 according to the third embodiment. In the embodiment described above, the scenario DB 33 is installed in the operation terminal 3. On the other hand, in the third embodiment, as shown in FIG. 10, the scenario DB 33 exists outside the operation terminal 3. The scenario control unit 34 is connected to the scenario DB 33 via the network 6.

シナリオDB33は、操作端末3の外部の所定のサーバに備えられているものでもよく、または、特定のサーバではなく、ネットワーク6により接続される所謂クラウド上に存在するデータベースであってもよい。ネットワーク6と、操作端末3又はシナリオDB33は、有線又は無線の通信を介して接続される。   The scenario DB 33 may be provided in a predetermined server outside the operation terminal 3, or may be a database existing on a so-called cloud connected by the network 6 instead of a specific server. The network 6 and the operation terminal 3 or scenario DB 33 are connected via wired or wireless communication.

第3の実施形態によれば、シナリオDB33を操作端末3内ではなく外部に有することにより、操作端末3の容量を確保することが可能となるとともに、シナリオデータの一元管理をすることも可能となる。さらに、シナリオDB33がクラウド上に存在し、特定多数の編集者がシナリオデータを編集、あるいは、追加することが可能であるように設定することにより、よりバリエーションに富んだ対話内容を選択することも可能となる。   According to the third embodiment, by having the scenario DB 33 outside the operation terminal 3 instead of inside the operation terminal 3, the capacity of the operation terminal 3 can be secured and the scenario data can be centrally managed. Become. Furthermore, by setting the scenario DB 33 on the cloud so that a specific number of editors can edit or add scenario data, it is possible to select more varied dialogue contents. It becomes possible.

(第4の実施形態)
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図11は、第4の実施形態によるロボット制御システム1を示すブロック図である。図11に示すように、動作生成部32、シナリオ制御部34、及び、シナリオDB33は、操作端末3ではなく、ロボット2内に備えられているものとしてもよい。すなわち、主要な制御機能を操作端末3ではなく、ロボット2に備えるようにしてもよい。動作生成部32、及び、シナリオ制御部34の動作は、上述した実施形態における動作と大きく異なることはなく、本実施形態においても、図3に示すフローチャートにしたがって事前動作をともなう対話の処理が実行される。
(Fourth embodiment)
Next, a fourth embodiment in which main control functions are provided on the robot 2 side will be described. FIG. 11 is a block diagram showing a robot control system 1 according to the fourth embodiment. As illustrated in FIG. 11, the motion generation unit 32, the scenario control unit 34, and the scenario DB 33 may be provided in the robot 2 instead of the operation terminal 3. That is, the main control function may be provided not in the operation terminal 3 but in the robot 2. The operations of the operation generation unit 32 and the scenario control unit 34 are not significantly different from the operations in the above-described embodiment, and in this embodiment, a dialogue process with a pre-operation is executed according to the flowchart shown in FIG. Is done.

第4の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2へと送信する通信料を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。なお、動作生成部32は、操作端末3及びロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。   According to the fourth embodiment, the configuration of the operation terminal 3 can be simplified, and the communication fee transmitted from the operation terminal 3 to the robot 2 can be reduced. Therefore, the communication line between the operation terminal 3 and the robot 2 Even when the performance of the robot is low, it is possible to perform a dialogue with the robot 2 without any trouble. The motion generation unit 32 may be provided outside the operation terminal 3 and the robot 2. For example, the motion generation unit 32 may be built in the store system 5 or provided in a communication device separate from the store system 5. May be.

本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。   The aspect of the present invention is not limited to the individual embodiments described above, and includes various modifications that can be conceived by those skilled in the art, and the effects of the present invention are not limited to the contents described above. That is, various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.

1 ロボット制御システム、2 ロボット、22 ロボット制御部、3 操作端末、34 シナリオ制御部   1 Robot control system, 2 Robot, 22 Robot control unit, 3 Operation terminal, 34 Scenario control unit

Claims (12)

飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、
前記ロボットを操作する前記指令信号を生成する操作端末と、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、
前記操作端末の操作に応じた動作を前記ロボットに行わせる前に、前記滞在状態判断部にて判断された前記顧客の滞在状態に基づいた事前動作を前記ロボットに行わせる動作制御部と、を備える、ロボット制御システム。
A robot that operates in response to a command signal to interact with a customer who has visited a restaurant;
An operation terminal for generating the command signal for operating the robot;
A stay state determination unit for determining a stay state of the customer in the restaurant;
An operation control unit for causing the robot to perform a preliminary operation based on the stay state of the customer determined by the stay state determination unit before causing the robot to perform an operation according to the operation of the operation terminal. A robot control system.
前記動作制御部は、前記操作端末の操作に応じた動作を前記ロボットが実行可能になるまでの間に、前記事前動作を前記ロボットに行わせる、請求項1に記載のロボット制御システム。   The robot control system according to claim 1, wherein the operation control unit causes the robot to perform the preliminary operation before the robot can execute an operation according to an operation of the operation terminal. 前記操作端末の操作に応じた動作は、前記操作端末の操作に応じた対話動作を含み、
前記事前動作は、前記顧客の滞在状態に基づいて前記ロボットが行う予め定めた対話動作を含む、請求項1または2に記載のロボット制御システム。
The operation according to the operation of the operation terminal includes a dialogue operation according to the operation of the operation terminal,
The robot control system according to claim 1, wherein the pre-operation includes a predetermined dialogue operation performed by the robot based on a stay state of the customer.
前記指令信号は、前記飲食店に来店した顧客が前記操作端末を操作することで選択された対話シナリオ情報に基づく対話のための選択肢に基づいて生成され、
前記操作端末の操作に応じた動作は、前記選択された選択肢に基づく対話シナリオの進行に伴って前記ロボットが行う対話動作を含み、
前記事前動作は、前記操作端末の操作に応じた対話動作を前記ロボットが開始するまでの間を繋ぐ相槌動作を含む、請求項1乃至3のいずれか一項に記載のロボット制御システム。
The command signal is generated based on options for dialogue based on dialogue scenario information selected by a customer visiting the restaurant operating the operation terminal,
The operation according to the operation of the operation terminal includes a dialogue operation performed by the robot as a dialogue scenario based on the selected option progresses,
4. The robot control system according to claim 1, wherein the pre-operation includes a reciprocal operation that connects until the robot starts an interactive operation according to an operation of the operation terminal. 5.
前記対話動作は、前記操作端末の操作に応じて前記ロボットが発話する動作を含み、
前記相槌動作は、前記ロボットが予め定めた発話を行う動作を含む、請求項4に記載のロボット制御システム。
The interactive operation includes an operation in which the robot speaks in response to an operation of the operation terminal,
The robot control system according to claim 4, wherein the interaction operation includes an operation in which the robot performs a predetermined utterance.
前記事前動作は、前記ロボットの姿勢および外観の少なくとも一方を変化させる動作を含む、請求項1乃至5のいずれか一項に記載のロボット制御システム。   The robot control system according to any one of claims 1 to 5, wherein the preliminary operation includes an operation of changing at least one of a posture and an appearance of the robot. 前記対話動作は、前記飲食店に来店した顧客との飲食物のメニュー選択に関する対話動作を含む、請求項3乃至5のいずれか一項に記載のロボット制御システム。   The robot control system according to any one of claims 3 to 5, wherein the interactive operation includes an interactive operation related to menu selection of food and drink with a customer who has visited the restaurant. 前記動作制御部は、前記選択肢の選択結果によらず前記ロボットに前記顧客の滞在状態に応じた共通の相槌動作を含む前記事前動作を行わせる、請求項4または5に記載のロボット制御システム。   The robot control system according to claim 4 or 5, wherein the operation control unit causes the robot to perform the preliminary operation including a common interaction operation according to a staying state of the customer regardless of a selection result of the option. . 前記動作制御部は、前記顧客の前記飲食店内での滞在時間の経過に応じて変化する前記相槌動作を含む前記事前動作を行わせる、請求項3乃至7のいずれか一項に記載のロボット制御システム。   The robot according to any one of claims 3 to 7, wherein the operation control unit causes the preliminary operation including the interaction operation to change according to the elapse of a staying time of the customer in the restaurant. Control system. 前記操作端末の操作に応じた動作は、前記ロボットが発話する第1動作と、前記第1動作に先だって前記ロボットの姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでおり、
前記事前動作は、前記ロボットが前記第2動作を開始する前に行われる、請求項1乃至9のいずれか一項に記載のロボット制御システム。
The action according to the operation of the operation terminal includes a first action that the robot speaks and a second action that changes at least one of the posture and appearance of the robot prior to the first action.
The robot control system according to any one of claims 1 to 9, wherein the preliminary operation is performed before the robot starts the second operation.
前記動作制御部は、前記ロボットまたは前記操作端末の内部に設けられる、請求項1乃至10のいずれか一項に記載のロボット制御システム。   The robot control system according to claim 1, wherein the motion control unit is provided inside the robot or the operation terminal. 飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して前記指令信号を送信するロボット制御装置であって、
前記顧客の前記飲食店内での滞在状態を判断し、前記ロボットを操作する操作端末の操作に応じた動作を前記ロボットに行わせる前に、判断した前記顧客の滞在状態に基づいた事前動作を前記ロボットに行わせる動作制御部を有するロボット制御装置。
A robot control device that transmits the command signal to a robot that performs an operation according to the command signal in order to interact with a customer who has visited the restaurant,
The staying state of the customer in the restaurant is determined, and before the robot performs an operation according to the operation of the operation terminal for operating the robot, the preliminary operation based on the determined staying state of the customer is performed. A robot control device having an operation control unit to be performed by a robot.
JP2017059990A 2017-03-24 2017-03-24 Robot control system and robot control device Pending JP2018161706A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017059990A JP2018161706A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059990A JP2018161706A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Publications (1)

Publication Number Publication Date
JP2018161706A true JP2018161706A (en) 2018-10-18

Family

ID=63859121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059990A Pending JP2018161706A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Country Status (1)

Country Link
JP (1) JP2018161706A (en)

Similar Documents

Publication Publication Date Title
US11024294B2 (en) System and method for dialogue management
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
WO2018174289A1 (en) Conversation control system, and robot control system
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11468894B2 (en) System and method for personalizing dialogue based on user&#39;s appearances
JP6448971B2 (en) Interactive device
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
CN105989165B (en) The method, apparatus and system of expression information are played in instant messenger
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience
US11267121B2 (en) Conversation output system, conversation output method, and non-transitory recording medium
WO2019161249A1 (en) System and method for visual scene construction based on user communication
WO2018174287A1 (en) Store management system
WO2018174290A1 (en) Conversation control system, and robot control system
JP2018161706A (en) Robot control system and robot control device
JP2018161707A (en) Robot control system and robot control device
WO2018174285A1 (en) Conversation control device and conversation system
JP2018161710A (en) Dialogue control device and robot control system
JP2018161708A (en) Robot control system and robot control device
JP2018161709A (en) Dialogue control system and dialogue control device
JP2018161713A (en) Dialogue control device and robot control system
JP2018161715A (en) Dialogue control device and dialogue system
JP2018161702A (en) Robot control system and robot control device
JP2018161712A (en) Dialogue control device and robot control system