JP2018161702A - Robot control system and robot control device - Google Patents

Robot control system and robot control device Download PDF

Info

Publication number
JP2018161702A
JP2018161702A JP2017059941A JP2017059941A JP2018161702A JP 2018161702 A JP2018161702 A JP 2018161702A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2018161702 A JP2018161702 A JP 2018161702A
Authority
JP
Japan
Prior art keywords
robot
operation terminal
sensor
robot control
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017059941A
Other languages
Japanese (ja)
Inventor
田 雄 介 柴
Yusuke Shibata
田 雄 介 柴
内 智 彦 大
Tomohiko Ouchi
内 智 彦 大
川 浩 平 小
Kohei Ogawa
川 浩 平 小
川 雄一郎 吉
Yuichiro Yoshikawa
川 雄一郎 吉
黒 浩 石
Hiroshi Ishiguro
黒 浩 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Zensho Holdings Co Ltd
Original Assignee
Osaka University NUC
Zensho Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Zensho Holdings Co Ltd filed Critical Osaka University NUC
Priority to JP2017059941A priority Critical patent/JP2018161702A/en
Publication of JP2018161702A publication Critical patent/JP2018161702A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot control system and a robot control device which can improve satisfaction by a dialogue with a robot by simple processing.SOLUTION: A robot control system includes: a robot 2 which performs movement in response to a command signal to have a dialogue with a customer visiting a restaurant; and an operation terminal 3 which is operated by the customer to have a dialogue with the robot 2. The operation terminal 3 includes at least one sensor 31 which detects at least one of a position and direction of the operation terminal 3 held by the customer for operation. The robot 2 includes a drive control part 22 which controls at least one of a position and posture of the robot 2 in response to the command signal generated based on a detection signal of the sensor 31.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット制御システムおよびロボット制御装置に関する。   The present invention relates to a robot control system and a robot control apparatus.

近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。   In recent years, there are cases where humanoid robots are used as guides for visitors in restaurants and other public facilities. A technology for performing communication (dialogue) with such a robot using a dedicated operation terminal has been studied. According to this technology, a user can enjoy a dialogue with a robot via an operation terminal, or guide information can be obtained. Can be obtained.

しかるに、操作端末を介したロボットとの対話において、ロボットがユーザとは無関係の方向を向いたままであると、ユーザがロボットとの対話に参加している感覚(以下、対話感とも呼ぶ)が得られない。対話感が得られないことで、ロボットとの対話による満足感が得られにくい。   However, in a dialogue with the robot via the operation terminal, if the robot remains facing a direction unrelated to the user, a sense that the user is participating in the dialogue with the robot (hereinafter also referred to as a dialogue feeling) is obtained. I can't. The lack of a sense of dialogue makes it difficult to achieve satisfaction through dialogue with the robot.

そこで、これまでにも、対話相手の居場所にロボットの顔を向ける技術として、ロボットに搭載されたカメラによって対話相手を認識する技術が提案されている(例えば、特許文献1参照)。   So far, as a technique for directing the robot's face to the location of the conversation partner, a technique for recognizing the conversation partner with a camera mounted on the robot has been proposed (for example, see Patent Document 1).

特開2016−68197号公報Japanese Patent Laid-Open No. 2006-68197

しかしながら、特許文献1に記載の技術では、対話相手の顔等を認識するための高度な画像認識処理技術が必要となるうえ、ロボットに複数人が対峙している場合には誰が対話相手であるのかを正しく認識できないおそれがある。   However, the technique described in Patent Document 1 requires an advanced image recognition processing technique for recognizing the face or the like of the conversation partner, and who is the conversation partner when multiple people are confronting the robot. May not be recognized correctly.

本発明はこのような点を考慮してなされたものであり、簡易な処理によってロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。   The present invention has been made in consideration of the above points, and an object of the present invention is to provide a robot control system and a robot control apparatus that can naturally interact with a robot with a simple process without a sense of incongruity.

本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットと、ロボットと対話をするために顧客が操作する操作端末と、を備え、操作端末は、操作のために顧客により把持された操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、ロボットは、センサの検出信号に基づいて生成された指令信号に応じて、ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システムである。   The present invention includes a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and an operation terminal that is operated by a customer to interact with the robot. The robot has at least one sensor for detecting at least one of the position and direction of the operation terminal held by the customer, and the robot determines the position and orientation of the robot according to a command signal generated based on the detection signal of the sensor. It is a robot control system which has a drive control part which controls at least one of these.

本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の方向を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、操作端末が存在する方向を向くようにロボットの姿勢を制御してもよい。   In the robot control system according to the present invention, the sensor detects at least the direction of the operation terminal, and the drive control unit faces the direction in which the operation terminal exists in accordance with a command signal generated based on the detection signal of the sensor. In addition, the posture of the robot may be controlled.

本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末が存在する方向を向くようにロボットの胴体、顔および目線の少なくとも一つの向きを制御してもよい。   In the robot control system according to the present invention, the drive control unit may control at least one direction of the body, the face, and the line of sight of the robot so as to face the direction in which the operation terminal exists in accordance with the command signal.

本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の位置を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、ロボットを移動させてロボットの位置を制御してもよい。   In the robot control system according to the present invention, the sensor detects at least the position of the operation terminal, and the drive control unit moves the robot in accordance with a command signal generated based on the detection signal of the sensor to determine the position of the robot. You may control.

本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末の位置にロボットが近づくようにロボットを移動させてもよい。   In the robot control system according to the present invention, the drive control unit may move the robot so that the robot approaches the position of the operation terminal according to the command signal.

本発明によるロボット制御システムにおいて、センサの検出信号に基づいて指令信号を生成する指令信号生成部を備えてもよい。   The robot control system according to the present invention may include a command signal generation unit that generates a command signal based on a detection signal of the sensor.

本発明によるロボット制御システムにおいて、指令信号生成部は、操作端末に備えられていてもよい。   In the robot control system according to the present invention, the command signal generation unit may be provided in the operation terminal.

本発明によるロボット制御システムにおいて、指令信号生成部は、ロボットに備えられていてもよい。   In the robot control system according to the present invention, the command signal generation unit may be provided in the robot.

本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、センサの検出信号に基づいて、ロボットの位置および姿勢の少なくとも一方を制御するための指令信号を生成する指令信号生成部と、生成された指令信号をロボットに対して送信する送信部と、を備える、ロボット制御装置である。   The present invention relates to a robot control device that transmits a command signal to a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and detects at least one of the position and direction of the robot control device At least one sensor that generates a command signal for controlling at least one of the position and orientation of the robot based on the detection signal of the sensor, and transmits the generated command signal to the robot And a transmission unit.

本発明によれば、簡易な処理によってロボットとの対話を違和感なく自然に行うことができる。   According to the present invention, a dialogue with a robot can be naturally performed without a sense of incongruity by simple processing.

第1の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the robot control system by 1st Embodiment. 図3(a)は、第1の実施形態によるロボット制御システムの動作例において、操作端末の方位の変化前のロボットを示す平面図であり、図3(b)は、操作端末の方位の変化後のロボットを示す平面図である。FIG. 3A is a plan view showing the robot before the change of the orientation of the operation terminal in the operation example of the robot control system according to the first embodiment, and FIG. 3B is the change of the orientation of the operation terminal. It is a top view which shows the robot after. 第1の実施形態によるロボット制御システムの動作例において、操作端末が存在する方向を向いたロボットとの対話例を示す図である。It is a figure which shows the example of a dialog with the robot which faced the direction where the operating terminal exists in the operation example of the robot control system by 1st Embodiment. 図5(a)は、第1の実施形態の第1の変形例によるロボット制御システムの動作例において、操作端末の方位の変化前のロボットを示す平面図であり、図5(b)は、操作端末の方位の変化後のロボットを示す平面図である。FIG. 5A is a plan view showing the robot before the change of the orientation of the operation terminal in the operation example of the robot control system according to the first modification of the first embodiment, and FIG. It is a top view which shows the robot after the change of the direction of an operating terminal. 図6(a)は、第1の実施形態の第2の変形例によるロボット制御システムの動作例において、操作端末の方位の変化前のロボットを示す平面図であり、図6(b)は、操作端末の方位の変化後のロボットを示す平面図である。FIG. 6A is a plan view showing the robot before the change of the orientation of the operation terminal in the operation example of the robot control system according to the second modification of the first embodiment, and FIG. It is a top view which shows the robot after the change of the direction of an operating terminal. 第2の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 2nd Embodiment. 第2の実施形態によるロボット制御システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the robot control system by 2nd Embodiment. 図9(a)は、第2の実施形態によるロボット制御システムの動作例において、操作端末の位置の変化前のロボットを示す平面図であり、図9(b)は、操作端末の位置の変化後のロボットを示す平面図である。FIG. 9A is a plan view showing the robot before the change of the position of the operation terminal in the operation example of the robot control system according to the second embodiment, and FIG. 9B is the change of the position of the operation terminal. It is a top view which shows the robot after. 第2の実施形態の変形例によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by the modification of 2nd Embodiment. 第2の実施形態の変形例によるロボット制御システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the robot control system by the modification of 2nd Embodiment. 図12(a)は、第2の実施形態の変形例によるロボット制御システムの動作例において、操作端末の位置および方位の変化前のロボットを示す平面図であり、図12(b)は、操作端末の位置および方位の変化後のロボットを示す平面図である。FIG. 12A is a plan view showing the robot before the change of the position and orientation of the operation terminal in the operation example of the robot control system according to the modification of the second embodiment, and FIG. It is a top view which shows the robot after the change of the position and direction of a terminal. 第3の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 3rd Embodiment. 第3の実施形態によるロボット制御システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the robot control system by 3rd Embodiment. 図15(a)は、第3の実施形態によるロボット制御システムの動作例において、操作端末の傾きの変化前のロボットを示す側面図であり、図15(b)は、操作端末の傾きの変化後のロボットを示す側面図である。FIG. 15A is a side view showing the robot before the change of the tilt of the operation terminal in the operation example of the robot control system according to the third embodiment, and FIG. 15B is the change of the tilt of the operation terminal. It is a side view which shows the robot after. 第4の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 4th Embodiment. 第4の実施形態によるロボット制御システムの動作例を示すシーケンス図である。It is a sequence diagram which shows the operation example of the robot control system by 4th Embodiment.

以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。   Hereinafter, the configuration and operation of a robot control system and a robot control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, This invention is limited to these embodiment, and is not interpreted. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference symbols or similar reference symbols, and repeated description thereof may be omitted. In addition, the dimensional ratio in the drawing may be different from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.

(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(First embodiment)
FIG. 1 is a block diagram showing a robot control system 1 according to the first embodiment. As shown in FIG. 1, the robot control system 1 includes a robot 2, an operation terminal 3 which is an example of a robot control device, a handy terminal 4, and a store system 5 such as a POS (point of sales) system. The robot control system 1 is a system for a restaurant customer (hereinafter referred to as a user) to interact with the robot 2 via an operation terminal 3 that operates the robot 2. The robot 2 in the example of FIG. 1 is a machine having a human-like appearance and interactive function, that is, a humanoid. Note that the robot 2 may have a dissimilar appearance to humans such as animals and characters. Further, the robot 2 may be a virtual robot based on an image displayed on the display unit 35. The robot 2 may be a general-purpose robot that can be programmed in posture, motion, or the like, or may be a robot developed for the robot control system 1.

(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
(Robot 2)
As shown in FIG. 1, the robot 2 includes a robot drive unit 21 and a robot control unit 22 that is an example of a drive control unit. The robot 2 is driven by electric power supplied from a commercial power source. The robot 2 may be a battery-driven type such as a battery.

ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の眼球部を所定の点灯色で点灯させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。   The robot drive unit 21 includes, for example, an actuator that drives a part of the robot 2 having a degree of freedom, such as a body part, an arm part, a neck part, an eyeball part, a buttocks part, or a mouth part, and a voice output that outputs the speech voice of the robot 2 And a lighting device for lighting the eyeball portion of the robot 2. By driving the robot drive unit 21 as necessary, the robot 2 is uttered, the posture of the robot 2 is changed, and the eyeball portion of the robot 2 is illuminated with a predetermined lighting color in order to interact with the user. It can be lit. A drive control signal for controlling the drive of the robot drive unit 21 is input from the robot control unit 22 to the robot drive unit 21. The robot drive unit 21 is driven according to the drive control signal.

ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部21は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。   The robot control unit 22 receives a robot control command, which is an example of a command signal, from the operation terminal 3. The robot control unit 21 generates the drive control signal described above based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21. That is, the robot 2 can operate according to the robot control command to interact with the customer who has visited the restaurant. There are various types of robot control commands depending on the type and control content of the robot drive unit 21 whose drive is to be controlled. For example, the robot control command includes a command for controlling the posture, position, and lighting state of the robot 2 and a command for causing the robot 2 to speak. The command for causing the robot 2 to speak includes data indicating the content of the speech (robot side scenario data described later).

ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。   The robot control unit 22 includes, for example, at least one memory that stores software such as an application program and an operating system that operates the application program, and a CPU (Central Processing Unit) that executes the software stored in the memory. The drive control signal may be generated by the CPU executing software stored in the memory.

(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、センサの一例である方位センサ31と、指令信号生成部および送信部の一例である動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作のために顧客により把持された操作端末3の方向の一例として、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。方位センサ31は、例えば、2軸または3軸タイプの地磁気センサ(すなわち電子コンパス)で構成されている。方位センサ31は、さらに、ジャイロセンサを有していてもよい。このように、本実施形態による方位センサ31は、方位に関する情報を検出する1つ以上のセンサである。例えば、2軸タイプの方位センサ31を内蔵した操作端末3では、操作端末3の表示部35の表示面の向きを方位センサ31にて検出することができる。ユーザが操作端末3を持って移動した場合や、ユーザが操作端末3の表示面の向きを変えた場合は、方位センサ31にて検出される方位が変化し、方位センサ31から出力される方位検出信号も変化する。3軸タイプの方位センサ31は、例えば、三次元空間における操作端末3の基準方向(例えば、表示面の法線方向)を検出する。
(Operation terminal 3)
The operation terminal 3 is carried (i.e., held) by the user for operation, and is, for example, a tablet terminal having a touch function. In addition, the operation terminal 3 may be a smartphone, a desktop display type terminal, or the like. As illustrated in FIG. 1, the operation terminal 3 includes an orientation sensor 31 that is an example of a sensor, and an operation generation unit 32 that is an example of a command signal generation unit and a transmission unit. The operation terminal 3 is driven by electric power supplied from the built-in battery. The direction sensor 31 detects the direction of the operation terminal 3 as an example of the direction of the operation terminal 3 held by the customer for the operation. The direction sensor 31 outputs a direction detection signal indicating the detected direction of the operation terminal 3 to the motion generation unit 32. The direction sensor 31 is composed of, for example, a two-axis or three-axis type geomagnetic sensor (that is, an electronic compass). The direction sensor 31 may further include a gyro sensor. Thus, the direction sensor 31 according to the present embodiment is one or more sensors that detect information related to the direction. For example, in the operation terminal 3 incorporating the two-axis type orientation sensor 31, the orientation sensor 31 can detect the orientation of the display surface of the display unit 35 of the operation terminal 3. When the user moves with the operation terminal 3 or when the user changes the orientation of the display surface of the operation terminal 3, the direction detected by the direction sensor 31 changes and the direction output from the direction sensor 31 The detection signal also changes. The three-axis type orientation sensor 31 detects, for example, the reference direction (for example, the normal direction of the display surface) of the operation terminal 3 in a three-dimensional space.

動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。   Based on the direction detection signal from the direction sensor 31, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists. The motion generation unit 32 transmits the generated robot control command to the robot control unit 22 by wireless communication such as WiFi, for example. The robot control unit 22 receives the robot control command from the motion generation unit 32 and outputs a drive control signal corresponding to the received robot control command to the robot drive unit 21, thereby determining the direction in which the operation terminal 3 exists. The drive of the robot drive unit 21 is controlled so that the robot 2 faces.

上述したように、方位センサ31は、2次元平面の方位または3次元空間の方位を検出するが、いずれの場合であっても、方位センサ31から出力された方位検出信号に基づいて、ロボット2の姿勢を変化させることで、厳密とは言えないまでも、ユーザとロボット2とが向き合うようになる。この状態で、ユーザとロボット2とが対話を行えば、ユーザは違和感なく、より自然にロボット2との対話を行うことができる。これにより、カメラの撮像画像に基づく顔認識のような高度な画像認識処理技術を要することなく、ロボット2との対話感を得ることができる。したがって、簡易な処理によってロボット2との対話による満足感を向上させることができる。   As described above, the azimuth sensor 31 detects the azimuth of the two-dimensional plane or the azimuth of the three-dimensional space. In any case, the robot 2 is based on the azimuth detection signal output from the azimuth sensor 31. By changing the posture, the user and the robot 2 face each other if not strictly. If the user and the robot 2 interact with each other in this state, the user can more naturally interact with the robot 2 without feeling uncomfortable. Thereby, a feeling of interaction with the robot 2 can be obtained without requiring an advanced image recognition processing technique such as face recognition based on a captured image of the camera. Therefore, satisfaction with dialogue with the robot 2 can be improved by simple processing.

図1に示すように、操作端末3は、対話シナリオデータを用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。   As shown in FIG. 1, the operation terminal 3 is configured to perform a dialogue between the user and the robot 2 using the dialogue scenario data. (Database) 33, scenario control unit 34, display unit 35, input unit 36 such as a touch panel, and audio output unit 37.

シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオデータは、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。   The scenario DB 33 stores a plurality of pieces of dialogue scenario information for carrying out a dialogue between the user and the robot 2. The dialogue scenario information includes a plurality of dialogue scenarios. The dialogue scenario is a story of dialogue exchanged between the user and the robot 2. A customer who enters a restaurant changes a plurality of staying states after entering the restaurant and before leaving the store. Therefore, a separate dialogue scenario is accumulated for each transition state in the scenario DB. Further, when a customer selects a specific option from among a plurality of options while the dialog scenario executed in a certain stay state is in progress, there may be a case of switching to another dialog scenario. Each dialogue scenario is composed of robot-side scenario data that the robot 2 uses for dialogue (ie, utterance) and user-side scenario data that the user uses for dialogue (ie, selection on the operation terminal 3). The user-side scenario data is data that collects user-side options and the like for the utterances of the robot 2 in each dialogue scenario. The user-side scenario data is used for displaying options and the like on the display unit 35 of the operation terminal 3 in accordance with the progress of the conversation scenario. The user can select a specific option from the displayed options using the input unit 36. Then, different (lower) robot-side scenario data different from each other are associated with each of the dialogue scenario options shown in the user-side scenario data. That is, the dialogue scenario data has a tree structure in which the robot side scenario data and the user side scenario data are alternately coupled as nodes. In the tree structure, a predetermined series of nodes ranging from the highest level to the lowest level are managed as basic scenarios used for typical dialogue, for example, and the other node groups are managed as correction scenarios for correcting the basic scenarios. May be.

また、例えば飲食店向けの対話シナリオデータは、飲食店におけるユーザの滞在状況すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。図1の例におけるステータスデータは、着席、注文、飲食物提供、食事終了および会計の各状態を示す。対話シナリオデータは、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分することができる。   In addition, for example, dialogue scenario data for restaurants is divided into a plurality of scenario groups according to status data indicating a staying state of a user in a restaurant, that is, an operation state. The status data in the example of FIG. 1 indicates the states of sitting, ordering, food and beverage provision, meal end, and accounting. The dialogue scenario data includes the first scenario group used for dialogue in the period from sitting to order, the second scenario group used for dialogue in the period from order to food provision, and the period from food provision to food end. It can be divided into a third scenario group used for the dialogue in 4 and a fourth scenario group used for the dialogue between the end of the meal and the accounting.

また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。   The robot-side scenario data is associated with an internal state parameter obtained by quantifying the internal state of the robot 2, that is, the psychological state, such as a pseudo emotion or intention of the robot 2. The internal state parameter includes, for example, a positive emotion value (+) obtained by quantifying emotions such as joy and a negative emotion value (−) obtained by quantifying emotions such as sadness.

シナリオ制御部34には、店舗システム5から、既述したステータスデータが入力される。図1の例において、ステータスデータは、飲食店の店員が携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信されたうえで、店舗システム5からシナリオ制御部34に入力される。なお、ステータスデータは、ハンディ端末4による入力によって取得されることに限定されず、ハンディ端末4と異なる取得手段によって取得されてもよい。   The status data described above is input from the store system 5 to the scenario control unit 34. In the example of FIG. 1, the status data can be input from the handy terminal 4 for ordering carried by a restaurant clerk. The status data is transmitted from the handy terminal 4 to the store system 5 and then input from the store system 5 to the scenario control unit 34. The status data is not limited to being acquired by input from the handy terminal 4, and may be acquired by an acquisition unit different from the handy terminal 4.

シナリオ制御部34は、店舗システム5から入力されたステータスデータに応じたシナリオ群に属するロボット側シナリオデータをシナリオDB33から読み出す。ロボット側シナリオデータを読み出すとき、シナリオ制御部34は、ロボット側シナリオデータに対応付けられた内部状態パラメータもシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたロボット側シナリオデータと内部状態パラメータとを動作生成部32に出力する。   The scenario control unit 34 reads the robot side scenario data belonging to the scenario group corresponding to the status data input from the store system 5 from the scenario DB 33. When reading the robot side scenario data, the scenario control unit 34 also reads the internal state parameters associated with the robot side scenario data from the scenario DB 33. Then, the scenario control unit 34 outputs the read robot side scenario data and internal state parameters to the motion generation unit 32.

動作生成部32は、シナリオ制御部34から入力されたロボット側シナリオデータと内部状態パラメータとに基づいて、ロボット側シナリオデータを発話させるためのロボット制御コマンドを生成する。このとき、動作生成部32は、ロボット側シナリオデータに対応付けられた内部状態パラメータを考慮して、ロボット制御コマンドの指令内容に、発話音声のトーンや、眼球の点灯状態やロボット2の姿勢等を含める。   The motion generation unit 32 generates a robot control command for uttering the robot side scenario data based on the robot side scenario data and the internal state parameters input from the scenario control unit 34. At this time, the motion generation unit 32 considers the internal state parameters associated with the robot-side scenario data, and the content of the robot control command includes the tone of the utterance voice, the lighting state of the eyeball, the posture of the robot 2, and the like. Include.

また、動作生成部32は、対話の進行にともなって、シナリオDB33から読み出される内部状態パラメータを蓄積する。蓄積された内部状態パラメータの合計値が閾値に達したとき、動作生成部32は、シナリオ制御部34に、現在対話に用いている対話シナリオ(例えば、基本シナリオ)と異なる対話シナリオ(例えば、補正シナリオ)を示す対話シナリオデータをシナリオDB33から新たに読み出させる。そして、動作生成部32は、新たに読み出された対話シナリオデータを用いた対話を進行させる。なお、操作端末3に照度センサを設け、照度センサで検出された対話空間の明るさに応じて対話に用いられる対話シナリオデータを異ならせてもよい。   Further, the action generation unit 32 accumulates internal state parameters read from the scenario DB 33 as the dialogue progresses. When the total value of the accumulated internal state parameters reaches a threshold value, the action generation unit 32 causes the scenario control unit 34 to have a dialogue scenario (eg, correction) different from the dialogue scenario (eg, basic scenario) currently used for dialogue. Dialog scenario data indicating a scenario) is newly read from the scenario DB 33. Then, the motion generation unit 32 advances the dialogue using the newly read dialogue scenario data. Note that an illuminance sensor may be provided in the operation terminal 3, and the dialogue scenario data used for the dialogue may be varied according to the brightness of the dialogue space detected by the illuminance sensor.

シナリオ制御部34は、ロボット側シナリオデータをシナリオDB33から読み出した後、読み出されたロボット側シナリオデータに応答するユーザ側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたユーザ側シナリオデータを表示部35に出力する。表示部35は、シナリオ制御部34から入力されたユーザ側シナリオデータに基づいて、ユーザ側の対話シナリオの選択肢を表示する。なお、対話シナリオの選択肢は、基本的に複数であるが、対話の段階によっては1つとなるときがあってもよい。   The scenario control unit 34 reads the robot side scenario data from the scenario DB 33 and then reads the user side scenario data responding to the read robot side scenario data from the scenario DB 33. Then, the scenario control unit 34 outputs the read user side scenario data to the display unit 35. The display unit 35 displays user-side dialog scenario options based on the user-side scenario data input from the scenario control unit 34. Although there are basically a plurality of dialogue scenario options, there may be one choice depending on the dialogue stage.

ユーザは、表示部35で表示された対話シナリオの選択肢の中から、入力部36を用いて所望の対話シナリオを選択することができる。すなわち、入力部36は、ユーザによって選択された対話シナリオを示す対話シナリオ選択信号を、シナリオ制御部34および音声出力部37に出力する。   The user can select a desired dialogue scenario using the input unit 36 from the choices of the dialogue scenario displayed on the display unit 35. That is, the input unit 36 outputs a dialogue scenario selection signal indicating a dialogue scenario selected by the user to the scenario control unit 34 and the voice output unit 37.

シナリオ制御部34は、入力部36から入力された対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された対話シナリオに応答する新たなロボット側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出された新たなロボット側シナリオデータを、発話のために動作生成部32に出力する。   In response to the dialogue scenario selection signal input from the input unit 36, the scenario control unit 34 reads new robot-side scenario data that responds to the dialogue scenario selected by the dialogue scenario selection signal from the scenario DB 33. Then, the scenario control unit 34 outputs the read new robot side scenario data to the motion generation unit 32 for speech.

音声出力部37は、入力部36から入力された対話シナリオ選択信号に基づいて、選択された対話シナリオを音声出力する。   The voice output unit 37 outputs the selected dialogue scenario by voice based on the dialogue scenario selection signal input from the input unit 36.

以上の構成により、対話シナリオデータを用いてユーザとロボット2との間での対話を行うことができる。   With the above configuration, a dialogue between the user and the robot 2 can be performed using the dialogue scenario data.

飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状況すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオデータを用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。   In the restaurant service industry, the contents of dialogue to be exchanged with the user greatly change depending on the staying status of the user such as seating, ordering, provision of food and drink, end of meal, accounting, and the like. According to the first embodiment, since the conversation can be performed using the conversation scenario data of different scenarios depending on the status data, it is possible to further improve the feeling of interaction with the robot 2 in the scene where the food service is provided. it can.

また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。   Further, by making the content of the dialogue variable according to the accumulation state of the internal state parameters, it is possible to further improve the feeling of dialogue with the robot 2.

さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。   Furthermore, since the user's utterance can be simulated by outputting the dialogue scenario selected by the user by voice, the feeling of dialogue with the robot 2 can be further improved.

なお、シナリオDB33には、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみを蓄積し、データ本体はロボット2側に蓄積させてもよい。この場合、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済むので、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。   In the scenario DB 33, only the scenario ID that is the identification information of the data main body among the robot side scenario data may be stored, and the data main body may be stored on the robot 2 side. In this case, when the robot 2 is to speak, it is only necessary to transmit the scenario ID from the operation terminal 3 side to the robot 2 side and to output the data body corresponding to the scenario ID by voice on the robot 2 side. As compared with the case where the data body is transmitted from the robot 2 to the robot 2, the amount of data transmission can be reduced, and the speed of dialogue can be improved.

(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図2は、第1の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図2のシーケンスは必要に応じて繰り返される。なお、図2の初期状態において、動作生成部32には、操作端末3が存在する方向をロボット2が向くときの操作端末3の基準方位が設定されている。操作端末3の基準方位は、例えば、ロボット2の起動直後に操作端末3をロボット2に正対させ、このときの方位センサ31からの方位検出信号に基づいて設定してもよい。また、起動直後のロボット2の姿勢は、胴体部、顔および目線のいずれもが正面を向いた状態であってもよい。
(Operation example)
Next, a main operation example of the robot control system 1 of FIG. 1 will be described. FIG. 2 is a sequence diagram illustrating an operation example of the robot control system 1 according to the first embodiment. The sequence of FIG. 2 is repeated as necessary. In the initial state of FIG. 2, a reference orientation of the operation terminal 3 when the robot 2 faces in the direction in which the operation terminal 3 exists is set in the motion generation unit 32. For example, the reference orientation of the operation terminal 3 may be set based on the orientation detection signal from the orientation sensor 31 when the operation terminal 3 is directly opposed to the robot 2 immediately after the robot 2 is activated. Further, the posture of the robot 2 immediately after activation may be a state in which all of the body part, the face, and the line of sight face the front.

そして、初期状態から、図2に示すように、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。ここで、方位センサ31による方位の検出は、例えば、ユーザが既述したユーザ側の対話シナリオを選択したタイミングで行われてもよい。また、方位センサ31による方位の検出は、ロボット2の起動後に所定周期あるいはランダムな周期で繰り返し行われてもよい。   Then, from the initial state, as shown in FIG. 2, first, the direction sensor 31 detects the direction of the operation terminal 3, and outputs a direction detection signal indicating the detected direction to the motion generation unit 32 (step S1). . Here, the detection of the direction by the direction sensor 31 may be performed, for example, at the timing when the user selects the user-side dialog scenario described above. The direction detection by the direction sensor 31 may be repeatedly performed at a predetermined cycle or a random cycle after the robot 2 is started.

操作端末3の方位が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号に基づいて、検出された方位に応じたロボット制御コマンドを生成する(ステップS2)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。このロボット制御コマンドは、動作生成部32に設定されている基準方位と方位センサ31にて検出された方位とのずれが低減する方向にロボット2の姿勢を変化させることを指示するコマンドであってもよい。   After the orientation of the operation terminal 3 is detected, the motion generation unit 32 generates a robot control command corresponding to the detected orientation based on the orientation detection signal input from the orientation sensor 31 (step S2). Specifically, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists. This robot control command is a command for instructing to change the posture of the robot 2 in a direction in which the deviation between the reference orientation set in the motion generation unit 32 and the orientation detected by the orientation sensor 31 is reduced. Also good.

ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。   After generating the robot control command, the motion generation unit 32 transmits the generated robot control command to the robot 2 (step S3).

ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。   When the robot control command is transmitted, the robot control unit 22 of the robot 2 receives the transmitted robot control command (step S4).

ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢の制御を行う(ステップS5)。   After receiving the robot control command, the robot control unit 22 generates a drive control signal based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21, whereby the robot control command The posture of the robot 2 is controlled in accordance with (Step S5).

次に、図2のシーケンスの具体的な適用例について説明する。図3(a)は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図3(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。図4は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方向を向いたロボット2との対話例を示す図である。   Next, a specific application example of the sequence of FIG. 2 will be described. FIG. 3A is a plan view showing the robot 2 before the orientation of the operation terminal 3 is changed in the operation example of the robot control system 1 according to the first embodiment. FIG. 3B is a plan view showing the robot 2 after the orientation of the operation terminal 3 is changed. FIG. 4 is a diagram illustrating an example of interaction with the robot 2 facing the operation terminal 3 in the operation example of the robot control system 1 according to the first embodiment.

図3(a)および図3(b)の例において、ロボット2の胴体部(図4における符号2a)は、台座(図4における符号2b)上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図3(b)に示されるヨー方向Yに回転する自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3の方向を向くことができる。なお、胴体部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、胴体部は、左右方向の軸回りに回転するピッチ方向および前後方向の軸回りに回転するロール方向にも自由度を有していてもよい。   3 (a) and 3 (b), the torso part (reference numeral 2a in FIG. 4) of the robot 2 is supported on a base (reference numeral 2b in FIG. 4) so as to be rotatable about a vertical axis. Has been. That is, the body portion has a degree of freedom to rotate in the yaw direction Y shown in FIG. The body part can turn to the direction of the operation terminal 3 by rotating in the yaw direction Y about the vertical axis by the rotational force of a motor which is an example of the robot drive unit 21. The body portion may be tiltable forward and backward and left and right by a motor. That is, the body portion may have a degree of freedom in the pitch direction that rotates around the axis in the left-right direction and the roll direction that rotates around the axis in the front-rear direction.

図3(a)および図3(b)の例において、動作生成部32は、操作端末3の方位が図3(a)から図3(b)に変化した場合に、方位検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する(図2のステップS2)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御する(図2のステップS5)。   In the example of FIG. 3A and FIG. 3B, the motion generation unit 32 is based on the orientation detection signal when the orientation of the operation terminal 3 changes from FIG. 3A to FIG. Then, a robot control command for directing the body of the robot 2 in the direction in which the operation terminal 3 after the change of direction is present is generated (step S2 in FIG. 2). In response to the robot control command generated by the motion generation unit 32, the robot control unit 22 rotationally drives the body unit of the robot 2 so that the body unit of the robot 2 faces the direction in which the operation terminal 3 after the direction change exists. Control is performed (step S5 in FIG. 2).

図4の例において、ロボット2は、胴体部2aを操作端末3が存在する方向に向けた状態で、ロボット側シナリオデータに基づく発話を行っている。図4の例において、ロボット2は、“注文は何にするか決まった?”と発話している。操作端末3の表示部35は、ロボット側シナリオデータに応答する対話シナリオの選択肢を、入力部36を用いて選択可能な表示態様で表示している。図4の例において、対話シナリオの選択肢は、“メニューを見る”という選択肢と、“ロボにおまかせ”という選択肢である。なお、図4に示すように、複数の対話シナリオの選択肢のうち、飲食店が来店客の便宜を考慮して推奨する選択肢を他の選択肢より強調(例えば、大きく)表示してもよい。   In the example of FIG. 4, the robot 2 performs an utterance based on the robot-side scenario data in a state where the body portion 2 a is oriented in the direction in which the operation terminal 3 exists. In the example of FIG. 4, the robot 2 speaks “What has the order been decided?”. The display unit 35 of the operation terminal 3 displays dialog scenario options that respond to the robot-side scenario data in a display mode that can be selected using the input unit 36. In the example of FIG. 4, the choices of the dialogue scenario are an option of “view menu” and an option of “Leave it to Robo”. As shown in FIG. 4, among the options of a plurality of dialogue scenarios, an option recommended by a restaurant considering the convenience of a visitor may be emphasized (for example, larger) than the other options.

図4に示すように、第1の実施形態によれば、方位センサ31の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けさせるため、操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、ユーザは違和感なく自然にロボット2と対話を楽しむことができる。本実施形態は、操作端末3が元々備えている方位センサ31を利用してロボット2の向きを制御するため、簡易な処理でありながら、ロボット2との対話による満足感を向上させることができる。   As shown in FIG. 4, according to the first embodiment, the operation terminal 3 is operated to direct the body 2 a of the robot 2 in the direction in which the operation terminal 3 exists based on the detection signal of the direction sensor 31. The user who performs the dialogue can interact with the robot 2. Thereby, the user can enjoy the conversation with the robot 2 naturally without a sense of incongruity. In the present embodiment, since the direction of the robot 2 is controlled using the direction sensor 31 originally provided in the operation terminal 3, it is possible to improve the satisfaction by the dialogue with the robot 2 while being a simple process. .

(第1の変形例)
次に、ロボット2の顔だけを操作端末3が存在する方向に向ける第1の変形例について説明する。図5(a)は、第1の実施形態の第1の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図5(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
(First modification)
Next, a first modification in which only the face of the robot 2 is directed in the direction in which the operation terminal 3 exists will be described. FIG. 5A is a plan view showing the robot 2 before the orientation of the operation terminal 3 is changed in the operation example of the robot control system 1 according to the first modification of the first embodiment. FIG. 5B is a plan view showing the robot 2 after the orientation of the operation terminal 3 is changed.

図5(a)および図5(b)の例において、ロボット2の首部(すなわち顔)は、胴体部上に鉛直方向の軸回りに回転可能に支持されている。すなわち、首部は、図5(b)に示されるヨー方向Yに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、ロボット2の顔を操作端末3の方向を向けることができる。なお、首部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、首部は、ピッチ方向およびロール方向にも自由度を有していてもよい。   In the example of FIGS. 5A and 5B, the neck portion (that is, the face) of the robot 2 is supported on the trunk portion so as to be rotatable about a vertical axis. That is, the neck has a degree of freedom in the yaw direction Y shown in FIG. The neck portion can turn the face of the robot 2 toward the operation terminal 3 by rotating in the yaw direction Y around the vertical axis by the rotational force of a motor which is an example of the robot drive unit 21. The neck portion may be tiltable forward and backward and left and right by a motor. That is, the neck portion may have a degree of freedom in the pitch direction and the roll direction.

第1の変形例において、動作生成部32は、図5(a)および図5(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の顔を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の顔が方位変化後の操作端末3が存在する方向を向くようにロボット2の首部を回転駆動制御する。   In the first modification, the motion generation unit 32 detects the face of the robot 2 based on the direction detection signal when the direction of the operation terminal 3 changes as shown in FIGS. 5 (a) and 5 (b). Is generated in the direction in which the operation terminal 3 after the direction change exists. In response to the robot control command generated by the motion generation unit 32, the robot control unit 22 rotationally controls the neck of the robot 2 so that the face of the robot 2 faces the direction in which the operation terminal 3 after the orientation change exists. .

第1の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の顔を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。   According to the first modification, between the robot 2 and the user who operates the operation terminal 3 with the face of the robot 2 facing in the direction in which the operation terminal 3 exists based on the detection signal of the direction sensor 31. Therefore, satisfaction with the dialogue with the robot 2 can be improved by a simple process.

(第2の変形例)
次に、ロボット2の眼球部だけを操作端末3が存在する方向に向ける第2の変形例について説明する。図6(a)は、第1の実施形態の第2の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図6(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
(Second modification)
Next, a second modification in which only the eyeball part of the robot 2 is directed in the direction in which the operation terminal 3 exists will be described. FIG. 6A is a plan view showing the robot 2 before the orientation of the operation terminal 3 is changed in the operation example of the robot control system 1 according to the second modification of the first embodiment. FIG. 6B is a plan view showing the robot 2 after the orientation of the operation terminal 3 is changed.

図6(a)および図6(b)の例において、ロボット2の眼球部2cは、眼球部2cが存在する眼の表面上で移動可能とされている。眼球部2cは、ロボット駆動部21の一例であるモータの回転力によって眼の表面上で移動することで、ロボット2の目線を操作端末3の方向を向けることができる。なお、眼球部2cは、モータによって前後に傾動可能とされていてもよい。すなわち、眼球部2cは、ピッチ方向にも自由度を有していてもよい。   6 (a) and 6 (b), the eyeball part 2c of the robot 2 is movable on the surface of the eye where the eyeball part 2c exists. The eyeball unit 2 c can move the eye of the robot 2 toward the operation terminal 3 by moving on the surface of the eye by the rotational force of a motor that is an example of the robot drive unit 21. The eyeball part 2c may be tiltable back and forth by a motor. That is, the eyeball unit 2c may have a degree of freedom in the pitch direction.

第2の変形例において、動作生成部32は、図6(a)および図6(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の眼球部2cを方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の眼球部2cが方位変化後の操作端末3が存在する方向を向くようにロボット2の眼球部2cを移動制御する。   In the second modification, the motion generation unit 32 detects the eyeball of the robot 2 based on the orientation detection signal when the orientation of the operation terminal 3 changes as shown in FIGS. 6 (a) and 6 (b). A robot control command for directing the unit 2c in the direction in which the operation terminal 3 after the change in direction exists is generated. In response to the robot control command generated by the motion generation unit 32, the robot control unit 22 moves the eyeball unit 2 c of the robot 2 so that the eyeball unit 2 c of the robot 2 faces the direction in which the operation terminal 3 after the orientation change exists. Move control.

第2の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の目線を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を向上させることができる。   According to the second modification, based on the detection signal of the direction sensor 31, the user who operates the operation terminal 3 with the line of sight of the robot 2 in the direction in which the operation terminal 3 exists faces the robot 2. While having a conversation. Thereby, the satisfaction by the dialogue with the robot 2 can be improved by simple processing.

(第2の実施形態)
次に、位置センサの検出信号に基づいてロボット2の位置を制御する第2の実施形態について説明する。図7は、第2の実施形態によるロボット制御システム1を示すブロック図である。
(Second Embodiment)
Next, a second embodiment for controlling the position of the robot 2 based on the detection signal of the position sensor will be described. FIG. 7 is a block diagram showing a robot control system 1 according to the second embodiment.

図7に示すように、第2の実施形態のロボット制御システム1は、方位センサ31の替わりに位置センサ38を有する点で第1の実施形態と異なる。   As shown in FIG. 7, the robot control system 1 according to the second embodiment is different from the first embodiment in that a position sensor 38 is provided instead of the direction sensor 31.

位置センサ38は、操作端末3の位置を検出する。位置センサ38は、検出された操作端末3の位置を示す位置検出信号を動作生成部32に出力する。位置センサ38は、例えば、GPS(Grobal Positioning System)レシーバであってもよい。   The position sensor 38 detects the position of the operation terminal 3. The position sensor 38 outputs a position detection signal indicating the detected position of the operation terminal 3 to the motion generation unit 32. The position sensor 38 may be, for example, a GPS (Grobal Positioning System) receiver.

図8は、第2の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図8のシーケンスは必要に応じて繰り返される。   FIG. 8 is a sequence diagram illustrating an operation example of the robot control system 1 according to the second embodiment. The sequence of FIG. 8 is repeated as necessary.

図8に示すように、第2の実施形態において、先ず、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。位置センサ38による操作端末3の位置の検出タイミングは、第1の実施形態で説明した方位センサ31による操作端末3の方位の検出タイミングと同様であってもよい。   As shown in FIG. 8, in the second embodiment, first, the position sensor 38 detects the position of the operation terminal 3, and outputs a position detection signal indicating the detected position to the operation generation unit 32 (step S6). ). The position detection timing of the operation terminal 3 by the position sensor 38 may be the same as the detection timing of the direction of the operation terminal 3 by the direction sensor 31 described in the first embodiment.

操作端末3の位置が検出された後、動作生成部32は、位置センサ38から入力された位置検出信号に基づいて、検出された位置に応じたロボット制御コマンドを生成する(ステップS21)。具体的には、動作生成部32は、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。例えば、動作生成部32は、操作端末3の位置にロボット2が近づくようにロボット2を移動させるためのロボット制御コマンドを生成してもよい。   After the position of the operation terminal 3 is detected, the motion generation unit 32 generates a robot control command corresponding to the detected position based on the position detection signal input from the position sensor 38 (step S21). Specifically, the motion generation unit 32 generates a robot control command for controlling the position of the robot 2 by moving the robot 2. For example, the motion generation unit 32 may generate a robot control command for moving the robot 2 so that the robot 2 approaches the position of the operation terminal 3.

ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。   After generating the robot control command, the motion generation unit 32 transmits the generated robot control command to the robot 2 (step S3).

ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。   When the robot control command is transmitted, the robot control unit 22 of the robot 2 receives the transmitted robot control command (step S4).

ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の位置の制御を行う(ステップS51)。   After receiving the robot control command, the robot control unit 22 generates a drive control signal based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21, whereby the robot control command The position of the robot 2 is controlled in accordance with (Step S51).

次に、図8のシーケンスの具体的な適用例について説明する。図9(a)は、第2の実施形態によるロボット制御システム1の動作例において、操作端末3の位置の変化前のロボット2を示す平面図である。図9(b)は、操作端末3の位置の変化後のロボット2を示す平面図である。   Next, a specific application example of the sequence of FIG. 8 will be described. FIG. 9A is a plan view showing the robot 2 before the change of the position of the operation terminal 3 in the operation example of the robot control system 1 according to the second embodiment. FIG. 9B is a plan view showing the robot 2 after the change of the position of the operation terminal 3.

図9(a)および図9(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって車両のうち駆動輪を回転させることで、ロボット2を移動させることができる。ロボット2は、車輪以外の機構(例えば、脚機構)によって移動可能とされていてもよい。   In the example of FIG. 9A and FIG. 9B, the robot 2 can be moved by, for example, a plurality of wheels provided at the bottom of the pedestal. The robot 2 can move the robot 2 by rotating driving wheels of the vehicle by the rotational force of a motor that is an example of the robot driving unit 21. The robot 2 may be movable by a mechanism other than wheels (for example, a leg mechanism).

図9(a)および図9(b)の例において、動作生成部32は、操作端末3の位置が図9(b)に示すようにロボット2から遠ざかるように変化した場合に、位置検出信号に基づいて、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図8のステップS21)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図8のステップS51)。   In the example of FIGS. 9A and 9B, the motion generation unit 32 detects the position detection signal when the position of the operation terminal 3 changes away from the robot 2 as shown in FIG. 9B. Based on the above, a robot control command for moving the robot 2 so as to approach the position of the operating terminal 3 after the change is generated (step S21 in FIG. 8). In response to the robot control command generated by the motion generation unit 32, the robot control unit 22 rotationally drives the driving wheels of the robot 2 so that the robot 2 approaches the position of the operation terminal 3 after the change. Are controlled in translation (step S51 in FIG. 8).

第2の実施形態によれば、位置センサ38の検出信号に基づいて、ロボット2と操作端末3との距離を好適な距離に制御した状態でロボット2と対話することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。   According to the second embodiment, since it is possible to interact with the robot 2 in a state in which the distance between the robot 2 and the operation terminal 3 is controlled to a suitable distance based on the detection signal of the position sensor 38, simple processing is possible. This can improve the satisfaction of dialogue with the robot 2.

(変形例)
次に、位置センサおよび方位センサの検出信号に基づいてロボット2の位置および姿勢を制御する第2の実施形態の変形例について説明する。
(Modification)
Next, a modification of the second embodiment that controls the position and posture of the robot 2 based on detection signals from the position sensor and the direction sensor will be described.

図10は、第2の実施形態の変形例によるロボット制御システム1を示すブロック図である。図10に示すように、第2の実施形態の変形例のロボット制御システム1は、位置センサ38に加えて、更に、方位センサ31を有する点で図7の構成と異なる。方位センサ31の構成は、第1の実施形態と同様である。   FIG. 10 is a block diagram showing a robot control system 1 according to a modification of the second embodiment. As shown in FIG. 10, the robot control system 1 according to the modification of the second embodiment is different from the configuration of FIG. 7 in that it further includes an orientation sensor 31 in addition to the position sensor 38. The configuration of the direction sensor 31 is the same as that of the first embodiment.

図11は、第2の実施形態の変形例によるロボット制御システム1の動作例を示すシーケンス図である。図11のシーケンスは必要に応じて繰り返される。   FIG. 11 is a sequence diagram illustrating an operation example of the robot control system 1 according to the modification of the second embodiment. The sequence of FIG. 11 is repeated as necessary.

図11に示すように、変形例において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。なお、ステップS1とステップS6とは、前後が入れ替わってもよく、または、同時でもよい。   As shown in FIG. 11, in the modification, first, the direction sensor 31 detects the direction of the operation terminal 3, and outputs a direction detection signal indicating the detected direction to the motion generation unit 32 (step S1). In addition, the position sensor 38 detects the position of the operation terminal 3 and outputs a position detection signal indicating the detected position to the motion generation unit 32 (step S6). Note that step S1 and step S6 may be interchanged, or may be simultaneous.

操作端末3の方位および位置が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号および位置センサ38から入力された位置検出信号に基づいて、検出された方位および位置に応じたロボット制御コマンドを生成する(ステップS22)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するとともに、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。   After the azimuth and position of the operation terminal 3 are detected, the motion generation unit 32 detects the azimuth and position detected based on the azimuth detection signal input from the azimuth sensor 31 and the position detection signal input from the position sensor 38. A robot control command corresponding to the above is generated (step S22). Specifically, the motion generation unit 32 controls the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists, and sends a robot control command for controlling the position of the robot 2 by moving the robot 2. Generate.

ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。   After generating the robot control command, the motion generation unit 32 transmits the generated robot control command to the robot 2 (step S3).

ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。   When the robot control command is transmitted, the robot control unit 22 of the robot 2 receives the transmitted robot control command (step S4).

ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS52)。   After receiving the robot control command, the robot control unit 22 generates a drive control signal based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21, whereby the robot control command The posture and position of the robot 2 are controlled in accordance with (Step S52).

次に、図11のシーケンスの具体的な適用例について説明する。図12(a)は、第2の実施形態の変形例によるロボット制御システム1の動作例において、操作端末3の位置および方位の変化前のロボット2を示す平面図である。図12(b)は、操作端末3の位置および方位の変化後のロボット2を示す平面図である。   Next, a specific application example of the sequence of FIG. 11 will be described. FIG. 12A is a plan view showing the robot 2 before the change of the position and orientation of the operation terminal 3 in the operation example of the robot control system 1 according to the modification of the second embodiment. FIG. 12B is a plan view showing the robot 2 after the change of the position and orientation of the operation terminal 3.

図3(a)および図3(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2の胴体部は、台座上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図12(b)に示されるヨー方向Yに自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3が存在する方向を向くことができる。   Similar to the examples of FIGS. 3A and 3B, in the examples of FIGS. 12A and 12B, the body of the robot 2 rotates on the pedestal about the vertical axis. Supported as possible. That is, the body portion has a degree of freedom in the yaw direction Y shown in FIG. The body part can turn in the direction in which the operation terminal 3 exists by rotating in the yaw direction Y around the vertical axis by the rotational force of a motor which is an example of the robot drive unit 21.

また、図9(a)および図9(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって駆動輪を回転させることで、ロボット2を移動させることができる。   Similarly to the examples of FIGS. 9A and 9B, in the examples of FIGS. 12A and 12B, the robot 2 includes, for example, a plurality of wheels provided at the bottom of the pedestal. It can be moved by. The robot 2 can move the robot 2 by rotating the drive wheels by the rotational force of a motor that is an example of the robot drive unit 21.

図12(a)および図12(b)の例において、動作生成部32は、操作端末3の方位および位置が図12(a)から図12(b)に変化した場合に、方位検出信号および位置検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるとともに、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図11のステップS22)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御するとともに、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図11のステップS52)。   In the example of FIG. 12A and FIG. 12B, the motion generating unit 32 detects the azimuth detection signal and the azimuth detection signal and Based on the position detection signal, the robot control for directing the body of the robot 2 in the direction in which the operation terminal 3 after the change in direction exists and moving the robot 2 so as to approach the position of the operation terminal 3 after the change A command is generated (step S22 in FIG. 11). In response to the robot control command generated by the motion generation unit 32, the robot control unit 22 rotationally drives the body unit of the robot 2 so that the body unit of the robot 2 faces the direction in which the operation terminal 3 after the direction change exists. In addition to the control, the robot 2 is driven to rotate so that the robot 2 approaches the position of the operation terminal 3 after the change, thereby controlling the translation of the robot 2 (step S52 in FIG. 11).

第2の実施形態の変形例によれば、方位センサ31および位置センサ38の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けるとともにロボット2と操作端末3との距離を好適な距離に制御した状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。   According to the modification of the second embodiment, based on the detection signals of the azimuth sensor 31 and the position sensor 38, the body 2 a of the robot 2 is directed in the direction in which the operation terminal 3 exists and the robot 2, the operation terminal 3, In a state in which the distance is controlled to a suitable distance, a dialogue between the user operating the operation terminal 3 and the robot 2 can be performed. Thereby, the satisfaction by the dialogue with the robot 2 can be further improved by simple processing.

(第3の実施形態)
ユーザが首の傾き方を変えたときに、それに応じてロボットの首の傾き方を変えることができれば、よりロボットに対して近親感を覚えることができる。3軸タイプの方位センサ21を用いれば、操作端末3の3軸方向の回転を検出できるが、ユーザの首の傾き方向であるピッチ方向への操作端末3の回転をより精度よく検出するには、操作端末3に加速度センサを設けるのが望ましい。なお、加速度センサの代わりに傾斜角センサを用いることも可能であるが、以下では加速度センサを用いる例を説明する。図13は、第3の実施形態によるロボット制御システム1を示すブロック図である。図13に示すように、第3の実施形態のロボット制御システム1は、方位センサ31および位置センサ38に加えて、更に、加速度センサ39を有する点で図10の構成と異なる。
(Third embodiment)
If the user changes the direction of the neck tilt, if the user can change the direction of the neck tilt of the robot accordingly, it is possible to feel a closer sense of the robot. If the three-axis type azimuth sensor 21 is used, the rotation of the operation terminal 3 in the three-axis direction can be detected, but in order to detect the rotation of the operation terminal 3 in the pitch direction that is the tilt direction of the user's neck more accurately. The operation terminal 3 is preferably provided with an acceleration sensor. Although an inclination angle sensor can be used instead of the acceleration sensor, an example using an acceleration sensor will be described below. FIG. 13 is a block diagram showing a robot control system 1 according to the third embodiment. As shown in FIG. 13, the robot control system 1 of the third embodiment is different from the configuration of FIG. 10 in that an acceleration sensor 39 is further provided in addition to the direction sensor 31 and the position sensor 38.

加速度センサ39は、操作端末3の傾きを検出する。加速度センサ39は、検出された操作端末3の傾きを示す傾き検出信号を動作生成部32に出力する。なお、操作端末3の傾きは、加速度センサ39自身が検出してもよいし、加速度センサ39の検出信号に基づいて動作生成部32が算出してもよい。   The acceleration sensor 39 detects the tilt of the operation terminal 3. The acceleration sensor 39 outputs a tilt detection signal indicating the detected tilt of the operation terminal 3 to the motion generation unit 32. Note that the inclination of the operation terminal 3 may be detected by the acceleration sensor 39 itself, or may be calculated by the motion generation unit 32 based on the detection signal of the acceleration sensor 39.

図14は、第3の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図14のシーケンスは必要に応じて繰り返される。   FIG. 14 is a sequence diagram illustrating an operation example of the robot control system 1 according to the third embodiment. The sequence of FIG. 14 is repeated as necessary.

図14に示すように、第3の実施形態において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。また、加速度センサ39は、操作端末3の傾きを検出し、検出された傾きを示す傾き検出信号を動作生成部32に出力する(ステップS7)。なお、ステップS1と、ステップS6と、ステップS7とは、前後が入れ替わってもよく、または、同時でもよい。   As shown in FIG. 14, in the third embodiment, first, the direction sensor 31 detects the direction of the operation terminal 3, and outputs a direction detection signal indicating the detected direction to the motion generation unit 32 (step S1). ). In addition, the position sensor 38 detects the position of the operation terminal 3 and outputs a position detection signal indicating the detected position to the motion generation unit 32 (step S6). Further, the acceleration sensor 39 detects the tilt of the operation terminal 3 and outputs a tilt detection signal indicating the detected tilt to the motion generation unit 32 (step S7). Note that step S1, step S6, and step S7 may be interchanged, or may be simultaneous.

操作端末3の方位、位置および傾きが検出された後、動作生成部32は、方位センサ31から入力された方位検出信号、位置センサ38から入力された位置検出信号および加速度センサ39から入力された傾き検出信号に基づいて、検出された方位、位置および傾きに応じたロボット制御コマンドを生成する(ステップS23)。具体的には、動作生成部32は、操作端末3が存在する方向を操作端末3の傾きおよび位置に応じた仰俯角で向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。   After detecting the azimuth, position, and tilt of the operation terminal 3, the motion generation unit 32 receives the azimuth detection signal input from the azimuth sensor 31, the position detection signal input from the position sensor 38, and the acceleration sensor 39. Based on the tilt detection signal, a robot control command corresponding to the detected azimuth, position, and tilt is generated (step S23). Specifically, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so that the direction in which the operation terminal 3 exists is directed at an elevation angle corresponding to the tilt and position of the operation terminal 3. .

ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。   After generating the robot control command, the motion generation unit 32 transmits the generated robot control command to the robot 2 (step S3).

ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。   When the robot control command is transmitted, the robot control unit 22 of the robot 2 receives the transmitted robot control command (step S4).

ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、顔の仰俯角を含めたロボット2の姿勢の制御を行う(ステップS53)。   After receiving the robot control command, the robot control unit 22 generates a drive control signal based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21, thereby The posture of the robot 2 including the depression angle is controlled (step S53).

次に、図14のシーケンスの具体的な適用例について説明する。図15(a)は、第3の実施形態によるロボット制御システム1の動作例において、操作端末3の傾きの変化前のロボット2を示す側面図である。図15(b)は、操作端末3の傾きの変化後のロボット2を示す側面図である。   Next, a specific application example of the sequence of FIG. 14 will be described. FIG. 15A is a side view showing the robot 2 before the change of the tilt of the operation terminal 3 in the operation example of the robot control system 1 according to the third embodiment. FIG. 15B is a side view showing the robot 2 after the inclination of the operation terminal 3 is changed.

図15(a)および図15(b)の例において、ロボット2の首部は、図12(b)に示したヨー方向Yおよび図15(b)に示されるピッチ方向Pに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によってピッチ方向Pに回転することで、ロボット2の顔の仰俯角を操作端末3の傾きおよび位置に応じた角度に制御することができる。   15 (a) and 15 (b), the neck of the robot 2 has a degree of freedom in the yaw direction Y shown in FIG. 12 (b) and the pitch direction P shown in FIG. 15 (b). The neck portion can be controlled to an angle corresponding to the inclination and position of the operation terminal 3 by rotating in the pitch direction P by the rotational force of a motor that is an example of the robot drive unit 21. .

第3の実施形態において、動作生成部32は、図15(a)および図15(b)に示すように操作端末3の傾き(ピッチ方向の傾き)が減少方向に変化した場合に、傾き検出信号に基づいて、ロボット2の首部を俯角方向(すなわち、仰角の減少方向)に回転させるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の首部を俯角方向に回転駆動制御する。また、図示はしないが、動作生成部32は、操作端末3の位置がロボット2から遠ざかる方向に変化した場合には、ロボット2の首部を仰角方向に回転させるためのロボット制御コマンドを生成してもよい。このようにロボット2の首部の仰俯角を制御することで、操作端末3を見るユーザの目線の方向とロボット2の目線の方向とをできるだけ平行に近づけることができる。すなわち、ユーザの目線とロボット2の目線とを合いやすくすることができる。   In the third embodiment, the motion generation unit 32 detects the inclination when the inclination (inclination in the pitch direction) of the operation terminal 3 changes in the decreasing direction as shown in FIGS. 15 (a) and 15 (b). Based on the signal, a robot control command for rotating the neck of the robot 2 in the depression angle direction (that is, the elevation angle decreasing direction) is generated. The robot control unit 22 drives and controls the neck portion of the robot 2 in the depression direction according to the robot control command generated by the motion generation unit 32. Although not shown, the motion generation unit 32 generates a robot control command for rotating the neck of the robot 2 in the elevation direction when the position of the operation terminal 3 changes in a direction away from the robot 2. Also good. By controlling the elevation angle of the neck of the robot 2 in this way, the direction of the line of sight of the user viewing the operation terminal 3 and the direction of the line of sight of the robot 2 can be made as close as possible to each other. That is, it is possible to easily match the user's line of sight with the line of the robot 2.

第3の実施形態によれば、加速度センサ39の検出信号に基づいて、ロボット2の顔をユーザの目線に対応する操作端末3の傾きに応じた仰俯角に傾けた状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。   According to the third embodiment, on the basis of the detection signal of the acceleration sensor 39, the operation terminal 3 is moved in a state where the face of the robot 2 is inclined to an elevation angle corresponding to the inclination of the operation terminal 3 corresponding to the user's line of sight. Since a dialogue between the user who operates and the robot 2 can be performed, satisfaction with the dialogue with the robot 2 can be further improved by a simple process.

(第4の実施形態)
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図16は第4の実施形態によるロボット制御システムを示すブロック図である。図16に示すように、第4の実施形態のロボット制御システム1は、シナリオDB33、シナリオ制御部34および動作生成部32がロボット2側に設けられている点で第1〜第3の実施形態の構成と異なる。なお、図16に示されるセンサ30は、方位センサ31、位置センサ38および加速度センサ39のいずれか1つまたは2つ以上の組合せである。
(Fourth embodiment)
Next, a fourth embodiment in which main control functions are provided on the robot 2 side will be described. FIG. 16 is a block diagram showing a robot control system according to the fourth embodiment. As shown in FIG. 16, the robot control system 1 according to the fourth embodiment is the first to third embodiments in that a scenario DB 33, a scenario control unit 34, and an action generation unit 32 are provided on the robot 2 side. The configuration is different. Note that the sensor 30 illustrated in FIG. 16 is one or a combination of two or more of the orientation sensor 31, the position sensor 38, and the acceleration sensor 39.

図17は、第4の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図17に示すように、第4の実施形態において、先ず、センサ30による検出を行い(ステップS11)、センサ30の検出結果を示すセンサ検出信号をロボット2に送信する(ステップS8)。   FIG. 17 is a sequence diagram illustrating an operation example of the robot control system 1 according to the fourth embodiment. As shown in FIG. 17, in the fourth embodiment, first, detection by the sensor 30 is performed (step S11), and a sensor detection signal indicating the detection result of the sensor 30 is transmitted to the robot 2 (step S8).

センサ検出信号が送信されると、ロボット2の動作生成部32は、送信されたセンサ検出信号を受信する(ステップS9)。   When the sensor detection signal is transmitted, the motion generation unit 32 of the robot 2 receives the transmitted sensor detection signal (step S9).

センサ検出信号が受信された後、動作生成部32は、センサ検出信号を解析することで、操作端末3の方位、位置および傾きの少なくとも1つを検出する(ステップS10)。   After the sensor detection signal is received, the motion generation unit 32 detects at least one of the azimuth, position, and tilt of the operation terminal 3 by analyzing the sensor detection signal (step S10).

操作端末3の方位、位置および傾きの少なくとも1つが検出された後、動作生成部32は、検出された操作端末3の方位、位置、傾きに応じたロボット制御コマンドを生成する(ステップS24)。   After at least one of the azimuth, position, and tilt of the operation terminal 3 is detected, the motion generation unit 32 generates a robot control command corresponding to the detected azimuth, position, and tilt of the operation terminal 3 (step S24).

ロボット制御コマンドが生成された後、ロボット制御部22は、生成されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS54)。   After the robot control command is generated, the robot control unit 22 generates a drive control signal based on the generated robot control command, and outputs the generated drive control signal to the robot drive unit 21, thereby controlling the robot. The posture and position of the robot 2 are controlled according to the command (step S54).

第4の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2に送信する通信量を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。また、第4の実施形態においても、第1の実施形態と同様に、センサ30の検出信号に基づいて、ロボット2の姿勢や位置を操作端末3の方位、位置、傾きに適合するように制御することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。   According to the fourth embodiment, since the configuration of the operation terminal 3 can be simplified and the amount of communication transmitted from the operation terminal 3 to the robot 2 can be reduced, the communication line between the operation terminal 3 and the robot 2 can be reduced. Even when the performance is low, it is possible to interact with the robot 2 without any trouble. Also in the fourth embodiment, similarly to the first embodiment, based on the detection signal of the sensor 30, control is performed so that the posture and position of the robot 2 are adapted to the azimuth, position, and tilt of the operation terminal 3. Therefore, the satisfaction with the dialogue with the robot 2 can be improved by a simple process.

なお、動作生成部32は、操作端末3およびロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。また、操作端末3は、店舗システム5との通信によって飲食物を注文する機能を備えていてもよい。   The motion generation unit 32 may be provided outside the operation terminal 3 and the robot 2. For example, the motion generation unit 32 may be built in the store system 5 or provided in a communication device separate from the store system 5. May be. Further, the operation terminal 3 may have a function of ordering food and drink through communication with the store system 5.

また、ロボット制御システム1は、既述したように飲食サービスに好適に適用することができるが、飲食サービス以外の場面に適用されてもよい。   Moreover, although the robot control system 1 can be suitably applied to the eating and drinking service as described above, it may be applied to scenes other than the eating and drinking service.

本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。   The aspect of the present invention is not limited to the individual embodiments described above, and includes various modifications that can be conceived by those skilled in the art, and the effects of the present invention are not limited to the contents described above. That is, various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.

1 ロボット制御システム、2 ロボット、22 ロボット制御部、3 操作端末、31 方位センサ   1 robot control system, 2 robot, 22 robot control unit, 3 operation terminal, 31 direction sensor

Claims (9)

飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットと、
前記ロボットと対話をするために前記顧客が操作する操作端末と、を備え、
前記操作端末は、操作のために前記顧客により把持された前記操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、
前記ロボットは、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システム。
A robot that operates in response to a command signal to interact with a customer who has visited a restaurant;
An operation terminal operated by the customer to interact with the robot,
The operation terminal has at least one sensor that detects at least one of a position and a direction of the operation terminal held by the customer for operation,
The robot includes a drive control unit that controls at least one of a position and a posture of the robot according to the command signal generated based on a detection signal of the sensor.
前記センサは、少なくとも前記操作端末の方向を検出し、
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記操作端末が存在する方向を向くように前記ロボットの姿勢を制御する、請求項1に記載のロボット制御システム。
The sensor detects at least the direction of the operation terminal,
The robot according to claim 1, wherein the drive control unit controls the posture of the robot so as to face a direction in which the operation terminal exists in accordance with the command signal generated based on a detection signal of the sensor. Control system.
前記駆動制御部は、前記指令信号に応じて、前記操作端末が存在する方向を向くように前記ロボットの胴体、顔および目線の少なくとも一つの向きを制御する、請求項2に記載のロボット制御システム。   The robot control system according to claim 2, wherein the drive control unit controls at least one direction of a body, a face, and a line of sight of the robot so as to face a direction in which the operation terminal exists in accordance with the command signal. . 前記センサは、少なくとも前記操作端末の位置を検出し、
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットを移動させて前記ロボットの位置を制御する、請求項1乃至3のいずれか一項に記載のロボット制御システム。
The sensor detects at least a position of the operation terminal;
The said drive control part moves the said robot according to the said command signal produced | generated based on the detection signal of the said sensor, and controls the position of the said robot. Robot control system.
前記駆動制御部は、前記指令信号に応じて、前記操作端末の位置に前記ロボットが近づくように前記ロボットを移動させる、請求項4に記載のロボット制御システム。   The robot control system according to claim 4, wherein the drive control unit moves the robot so that the robot approaches the position of the operation terminal according to the command signal. 前記センサの検出信号に基づいて前記指令信号を生成する指令信号生成部を備える、請求項1乃至5のいずれか一項に記載のロボット制御システム。   The robot control system according to claim 1, further comprising a command signal generation unit that generates the command signal based on a detection signal of the sensor. 前記指令信号生成部は、前記操作端末に備えられている、請求項6に記載のロボット制御システム。   The robot control system according to claim 6, wherein the command signal generation unit is provided in the operation terminal. 前記指令信号生成部は、前記ロボットに備えられている、請求項6に記載のロボット制御システム。   The robot control system according to claim 6, wherein the command signal generation unit is provided in the robot. 飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットに対して前記指令信号を送信するロボット制御装置であって、
当該ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、
前記センサの検出信号に基づいて、前記ロボットの位置および姿勢の少なくとも一方を制御するための前記指令信号を生成する指令信号生成部と、
前記生成された指令信号を前記ロボットに対して送信する送信部と、を備える、ロボット制御装置。
A robot control device that transmits the command signal to a robot that performs an operation according to the command signal to interact with a customer who has visited a restaurant,
At least one sensor for detecting at least one of the position and direction of the robot controller;
A command signal generation unit that generates the command signal for controlling at least one of the position and posture of the robot based on the detection signal of the sensor;
And a transmitter that transmits the generated command signal to the robot.
JP2017059941A 2017-03-24 2017-03-24 Robot control system and robot control device Pending JP2018161702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017059941A JP2018161702A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059941A JP2018161702A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Publications (1)

Publication Number Publication Date
JP2018161702A true JP2018161702A (en) 2018-10-18

Family

ID=63859118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059941A Pending JP2018161702A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Country Status (1)

Country Link
JP (1) JP2018161702A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210276186A1 (en) * 2019-01-25 2021-09-09 Beijing Magic Pal Technology Co., Ltd. Robot and operating system, control device, control method and storage medium thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210276186A1 (en) * 2019-01-25 2021-09-09 Beijing Magic Pal Technology Co., Ltd. Robot and operating system, control device, control method and storage medium thereof
JP2022519476A (en) * 2019-01-25 2022-03-24 北京妙趣▲フォ▼伴科技有限公司 Robots and their operating systems, controls, control methods and storage media
US11904475B2 (en) * 2019-01-25 2024-02-20 Beijing Magic Pal Technology Co., Ltd. Robot and operating system, control device, control method and storage medium thereof

Similar Documents

Publication Publication Date Title
US10589426B2 (en) Robot
US11024294B2 (en) System and method for dialogue management
US7689319B2 (en) Communication robot control system
JP5429462B2 (en) Communication robot
US7519537B2 (en) Method and apparatus for a verbo-manual gesture interface
JP4512830B2 (en) Communication robot
JP7400923B2 (en) Information processing device and information processing method
US11338429B2 (en) Robot
JP4822319B2 (en) Communication robot and attention control system using the same
EP3732677A1 (en) System and method for artificial intelligence driven automated companion
US20190205390A1 (en) System and Method for Learning Preferences in Dialogue Personalization
US20190251701A1 (en) System and method for identifying a point of interest based on intersecting visual trajectories
KR20200136476A (en) Interactive animation character head system and method
JP2010127779A (en) Information serving apparatus, information serving method and program
US10809715B2 (en) Apparatus, robot, method, and recording medium
JP2007160427A (en) Robot control system
KR20190106925A (en) Ai robot and the control method thereof
JP2018161702A (en) Robot control system and robot control device
WO2018174290A1 (en) Conversation control system, and robot control system
US20230390653A1 (en) Smoothing server for processing user interactions to control an interactive asset
KR20190123604A (en) Robot for advertisement transformable in situation
CN110382174A (en) It is a kind of for executing mood posture with the device with customer interaction
CN211806147U (en) Main control unit based on modular robot and modular robot
CN111278611A (en) Information processing apparatus, information processing method, and program
JP6454041B1 (en) GAME DEVICE AND GAME SYSTEM