JP2018161702A - Robot control system and robot control device - Google Patents
Robot control system and robot control device Download PDFInfo
- Publication number
- JP2018161702A JP2018161702A JP2017059941A JP2017059941A JP2018161702A JP 2018161702 A JP2018161702 A JP 2018161702A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2018161702 A JP2018161702 A JP 2018161702A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operation terminal
- sensor
- robot control
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット制御システムおよびロボット制御装置に関する。 The present invention relates to a robot control system and a robot control apparatus.
近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。 In recent years, there are cases where humanoid robots are used as guides for visitors in restaurants and other public facilities. A technology for performing communication (dialogue) with such a robot using a dedicated operation terminal has been studied. According to this technology, a user can enjoy a dialogue with a robot via an operation terminal, or guide information can be obtained. Can be obtained.
しかるに、操作端末を介したロボットとの対話において、ロボットがユーザとは無関係の方向を向いたままであると、ユーザがロボットとの対話に参加している感覚(以下、対話感とも呼ぶ)が得られない。対話感が得られないことで、ロボットとの対話による満足感が得られにくい。 However, in a dialogue with the robot via the operation terminal, if the robot remains facing a direction unrelated to the user, a sense that the user is participating in the dialogue with the robot (hereinafter also referred to as a dialogue feeling) is obtained. I can't. The lack of a sense of dialogue makes it difficult to achieve satisfaction through dialogue with the robot.
そこで、これまでにも、対話相手の居場所にロボットの顔を向ける技術として、ロボットに搭載されたカメラによって対話相手を認識する技術が提案されている(例えば、特許文献1参照)。 So far, as a technique for directing the robot's face to the location of the conversation partner, a technique for recognizing the conversation partner with a camera mounted on the robot has been proposed (for example, see Patent Document 1).
しかしながら、特許文献1に記載の技術では、対話相手の顔等を認識するための高度な画像認識処理技術が必要となるうえ、ロボットに複数人が対峙している場合には誰が対話相手であるのかを正しく認識できないおそれがある。
However, the technique described in
本発明はこのような点を考慮してなされたものであり、簡易な処理によってロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。 The present invention has been made in consideration of the above points, and an object of the present invention is to provide a robot control system and a robot control apparatus that can naturally interact with a robot with a simple process without a sense of incongruity.
本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットと、ロボットと対話をするために顧客が操作する操作端末と、を備え、操作端末は、操作のために顧客により把持された操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、ロボットは、センサの検出信号に基づいて生成された指令信号に応じて、ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システムである。 The present invention includes a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and an operation terminal that is operated by a customer to interact with the robot. The robot has at least one sensor for detecting at least one of the position and direction of the operation terminal held by the customer, and the robot determines the position and orientation of the robot according to a command signal generated based on the detection signal of the sensor. It is a robot control system which has a drive control part which controls at least one of these.
本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の方向を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、操作端末が存在する方向を向くようにロボットの姿勢を制御してもよい。 In the robot control system according to the present invention, the sensor detects at least the direction of the operation terminal, and the drive control unit faces the direction in which the operation terminal exists in accordance with a command signal generated based on the detection signal of the sensor. In addition, the posture of the robot may be controlled.
本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末が存在する方向を向くようにロボットの胴体、顔および目線の少なくとも一つの向きを制御してもよい。 In the robot control system according to the present invention, the drive control unit may control at least one direction of the body, the face, and the line of sight of the robot so as to face the direction in which the operation terminal exists in accordance with the command signal.
本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の位置を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、ロボットを移動させてロボットの位置を制御してもよい。 In the robot control system according to the present invention, the sensor detects at least the position of the operation terminal, and the drive control unit moves the robot in accordance with a command signal generated based on the detection signal of the sensor to determine the position of the robot. You may control.
本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末の位置にロボットが近づくようにロボットを移動させてもよい。 In the robot control system according to the present invention, the drive control unit may move the robot so that the robot approaches the position of the operation terminal according to the command signal.
本発明によるロボット制御システムにおいて、センサの検出信号に基づいて指令信号を生成する指令信号生成部を備えてもよい。 The robot control system according to the present invention may include a command signal generation unit that generates a command signal based on a detection signal of the sensor.
本発明によるロボット制御システムにおいて、指令信号生成部は、操作端末に備えられていてもよい。 In the robot control system according to the present invention, the command signal generation unit may be provided in the operation terminal.
本発明によるロボット制御システムにおいて、指令信号生成部は、ロボットに備えられていてもよい。 In the robot control system according to the present invention, the command signal generation unit may be provided in the robot.
本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、センサの検出信号に基づいて、ロボットの位置および姿勢の少なくとも一方を制御するための指令信号を生成する指令信号生成部と、生成された指令信号をロボットに対して送信する送信部と、を備える、ロボット制御装置である。 The present invention relates to a robot control device that transmits a command signal to a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and detects at least one of the position and direction of the robot control device At least one sensor that generates a command signal for controlling at least one of the position and orientation of the robot based on the detection signal of the sensor, and transmits the generated command signal to the robot And a transmission unit.
本発明によれば、簡易な処理によってロボットとの対話を違和感なく自然に行うことができる。 According to the present invention, a dialogue with a robot can be naturally performed without a sense of incongruity by simple processing.
以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。 Hereinafter, the configuration and operation of a robot control system and a robot control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, This invention is limited to these embodiment, and is not interpreted. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference symbols or similar reference symbols, and repeated description thereof may be omitted. In addition, the dimensional ratio in the drawing may be different from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.
(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(First embodiment)
FIG. 1 is a block diagram showing a
(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
(Robot 2)
As shown in FIG. 1, the
ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の眼球部を所定の点灯色で点灯させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。
The
ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部21は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。
The
ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。
The
(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、センサの一例である方位センサ31と、指令信号生成部および送信部の一例である動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作のために顧客により把持された操作端末3の方向の一例として、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。方位センサ31は、例えば、2軸または3軸タイプの地磁気センサ(すなわち電子コンパス)で構成されている。方位センサ31は、さらに、ジャイロセンサを有していてもよい。このように、本実施形態による方位センサ31は、方位に関する情報を検出する1つ以上のセンサである。例えば、2軸タイプの方位センサ31を内蔵した操作端末3では、操作端末3の表示部35の表示面の向きを方位センサ31にて検出することができる。ユーザが操作端末3を持って移動した場合や、ユーザが操作端末3の表示面の向きを変えた場合は、方位センサ31にて検出される方位が変化し、方位センサ31から出力される方位検出信号も変化する。3軸タイプの方位センサ31は、例えば、三次元空間における操作端末3の基準方向(例えば、表示面の法線方向)を検出する。
(Operation terminal 3)
The
動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。
Based on the direction detection signal from the
上述したように、方位センサ31は、2次元平面の方位または3次元空間の方位を検出するが、いずれの場合であっても、方位センサ31から出力された方位検出信号に基づいて、ロボット2の姿勢を変化させることで、厳密とは言えないまでも、ユーザとロボット2とが向き合うようになる。この状態で、ユーザとロボット2とが対話を行えば、ユーザは違和感なく、より自然にロボット2との対話を行うことができる。これにより、カメラの撮像画像に基づく顔認識のような高度な画像認識処理技術を要することなく、ロボット2との対話感を得ることができる。したがって、簡易な処理によってロボット2との対話による満足感を向上させることができる。
As described above, the
図1に示すように、操作端末3は、対話シナリオデータを用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。
As shown in FIG. 1, the
シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオデータは、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。
The
また、例えば飲食店向けの対話シナリオデータは、飲食店におけるユーザの滞在状況すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。図1の例におけるステータスデータは、着席、注文、飲食物提供、食事終了および会計の各状態を示す。対話シナリオデータは、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分することができる。 In addition, for example, dialogue scenario data for restaurants is divided into a plurality of scenario groups according to status data indicating a staying state of a user in a restaurant, that is, an operation state. The status data in the example of FIG. 1 indicates the states of sitting, ordering, food and beverage provision, meal end, and accounting. The dialogue scenario data includes the first scenario group used for dialogue in the period from sitting to order, the second scenario group used for dialogue in the period from order to food provision, and the period from food provision to food end. It can be divided into a third scenario group used for the dialogue in 4 and a fourth scenario group used for the dialogue between the end of the meal and the accounting.
また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。
The robot-side scenario data is associated with an internal state parameter obtained by quantifying the internal state of the
シナリオ制御部34には、店舗システム5から、既述したステータスデータが入力される。図1の例において、ステータスデータは、飲食店の店員が携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信されたうえで、店舗システム5からシナリオ制御部34に入力される。なお、ステータスデータは、ハンディ端末4による入力によって取得されることに限定されず、ハンディ端末4と異なる取得手段によって取得されてもよい。
The status data described above is input from the
シナリオ制御部34は、店舗システム5から入力されたステータスデータに応じたシナリオ群に属するロボット側シナリオデータをシナリオDB33から読み出す。ロボット側シナリオデータを読み出すとき、シナリオ制御部34は、ロボット側シナリオデータに対応付けられた内部状態パラメータもシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたロボット側シナリオデータと内部状態パラメータとを動作生成部32に出力する。
The
動作生成部32は、シナリオ制御部34から入力されたロボット側シナリオデータと内部状態パラメータとに基づいて、ロボット側シナリオデータを発話させるためのロボット制御コマンドを生成する。このとき、動作生成部32は、ロボット側シナリオデータに対応付けられた内部状態パラメータを考慮して、ロボット制御コマンドの指令内容に、発話音声のトーンや、眼球の点灯状態やロボット2の姿勢等を含める。
The
また、動作生成部32は、対話の進行にともなって、シナリオDB33から読み出される内部状態パラメータを蓄積する。蓄積された内部状態パラメータの合計値が閾値に達したとき、動作生成部32は、シナリオ制御部34に、現在対話に用いている対話シナリオ(例えば、基本シナリオ)と異なる対話シナリオ(例えば、補正シナリオ)を示す対話シナリオデータをシナリオDB33から新たに読み出させる。そして、動作生成部32は、新たに読み出された対話シナリオデータを用いた対話を進行させる。なお、操作端末3に照度センサを設け、照度センサで検出された対話空間の明るさに応じて対話に用いられる対話シナリオデータを異ならせてもよい。
Further, the
シナリオ制御部34は、ロボット側シナリオデータをシナリオDB33から読み出した後、読み出されたロボット側シナリオデータに応答するユーザ側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたユーザ側シナリオデータを表示部35に出力する。表示部35は、シナリオ制御部34から入力されたユーザ側シナリオデータに基づいて、ユーザ側の対話シナリオの選択肢を表示する。なお、対話シナリオの選択肢は、基本的に複数であるが、対話の段階によっては1つとなるときがあってもよい。
The
ユーザは、表示部35で表示された対話シナリオの選択肢の中から、入力部36を用いて所望の対話シナリオを選択することができる。すなわち、入力部36は、ユーザによって選択された対話シナリオを示す対話シナリオ選択信号を、シナリオ制御部34および音声出力部37に出力する。
The user can select a desired dialogue scenario using the
シナリオ制御部34は、入力部36から入力された対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された対話シナリオに応答する新たなロボット側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出された新たなロボット側シナリオデータを、発話のために動作生成部32に出力する。
In response to the dialogue scenario selection signal input from the
音声出力部37は、入力部36から入力された対話シナリオ選択信号に基づいて、選択された対話シナリオを音声出力する。
The
以上の構成により、対話シナリオデータを用いてユーザとロボット2との間での対話を行うことができる。
With the above configuration, a dialogue between the user and the
飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状況すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオデータを用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。
In the restaurant service industry, the contents of dialogue to be exchanged with the user greatly change depending on the staying status of the user such as seating, ordering, provision of food and drink, end of meal, accounting, and the like. According to the first embodiment, since the conversation can be performed using the conversation scenario data of different scenarios depending on the status data, it is possible to further improve the feeling of interaction with the
また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。
Further, by making the content of the dialogue variable according to the accumulation state of the internal state parameters, it is possible to further improve the feeling of dialogue with the
さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。
Furthermore, since the user's utterance can be simulated by outputting the dialogue scenario selected by the user by voice, the feeling of dialogue with the
なお、シナリオDB33には、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみを蓄積し、データ本体はロボット2側に蓄積させてもよい。この場合、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済むので、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。
In the
(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図2は、第1の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図2のシーケンスは必要に応じて繰り返される。なお、図2の初期状態において、動作生成部32には、操作端末3が存在する方向をロボット2が向くときの操作端末3の基準方位が設定されている。操作端末3の基準方位は、例えば、ロボット2の起動直後に操作端末3をロボット2に正対させ、このときの方位センサ31からの方位検出信号に基づいて設定してもよい。また、起動直後のロボット2の姿勢は、胴体部、顔および目線のいずれもが正面を向いた状態であってもよい。
(Operation example)
Next, a main operation example of the
そして、初期状態から、図2に示すように、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。ここで、方位センサ31による方位の検出は、例えば、ユーザが既述したユーザ側の対話シナリオを選択したタイミングで行われてもよい。また、方位センサ31による方位の検出は、ロボット2の起動後に所定周期あるいはランダムな周期で繰り返し行われてもよい。
Then, from the initial state, as shown in FIG. 2, first, the
操作端末3の方位が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号に基づいて、検出された方位に応じたロボット制御コマンドを生成する(ステップS2)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。このロボット制御コマンドは、動作生成部32に設定されている基準方位と方位センサ31にて検出された方位とのずれが低減する方向にロボット2の姿勢を変化させることを指示するコマンドであってもよい。
After the orientation of the
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
After generating the robot control command, the
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
When the robot control command is transmitted, the
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢の制御を行う(ステップS5)。
After receiving the robot control command, the
次に、図2のシーケンスの具体的な適用例について説明する。図3(a)は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図3(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。図4は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方向を向いたロボット2との対話例を示す図である。
Next, a specific application example of the sequence of FIG. 2 will be described. FIG. 3A is a plan view showing the
図3(a)および図3(b)の例において、ロボット2の胴体部(図4における符号2a)は、台座(図4における符号2b)上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図3(b)に示されるヨー方向Yに回転する自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3の方向を向くことができる。なお、胴体部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、胴体部は、左右方向の軸回りに回転するピッチ方向および前後方向の軸回りに回転するロール方向にも自由度を有していてもよい。
3 (a) and 3 (b), the torso part (reference numeral 2a in FIG. 4) of the
図3(a)および図3(b)の例において、動作生成部32は、操作端末3の方位が図3(a)から図3(b)に変化した場合に、方位検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する(図2のステップS2)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御する(図2のステップS5)。
In the example of FIG. 3A and FIG. 3B, the
図4の例において、ロボット2は、胴体部2aを操作端末3が存在する方向に向けた状態で、ロボット側シナリオデータに基づく発話を行っている。図4の例において、ロボット2は、“注文は何にするか決まった?”と発話している。操作端末3の表示部35は、ロボット側シナリオデータに応答する対話シナリオの選択肢を、入力部36を用いて選択可能な表示態様で表示している。図4の例において、対話シナリオの選択肢は、“メニューを見る”という選択肢と、“ロボにおまかせ”という選択肢である。なお、図4に示すように、複数の対話シナリオの選択肢のうち、飲食店が来店客の便宜を考慮して推奨する選択肢を他の選択肢より強調(例えば、大きく)表示してもよい。
In the example of FIG. 4, the
図4に示すように、第1の実施形態によれば、方位センサ31の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けさせるため、操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、ユーザは違和感なく自然にロボット2と対話を楽しむことができる。本実施形態は、操作端末3が元々備えている方位センサ31を利用してロボット2の向きを制御するため、簡易な処理でありながら、ロボット2との対話による満足感を向上させることができる。
As shown in FIG. 4, according to the first embodiment, the
(第1の変形例)
次に、ロボット2の顔だけを操作端末3が存在する方向に向ける第1の変形例について説明する。図5(a)は、第1の実施形態の第1の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図5(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
(First modification)
Next, a first modification in which only the face of the
図5(a)および図5(b)の例において、ロボット2の首部(すなわち顔)は、胴体部上に鉛直方向の軸回りに回転可能に支持されている。すなわち、首部は、図5(b)に示されるヨー方向Yに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、ロボット2の顔を操作端末3の方向を向けることができる。なお、首部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、首部は、ピッチ方向およびロール方向にも自由度を有していてもよい。
In the example of FIGS. 5A and 5B, the neck portion (that is, the face) of the
第1の変形例において、動作生成部32は、図5(a)および図5(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の顔を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の顔が方位変化後の操作端末3が存在する方向を向くようにロボット2の首部を回転駆動制御する。
In the first modification, the
第1の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の顔を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
According to the first modification, between the
(第2の変形例)
次に、ロボット2の眼球部だけを操作端末3が存在する方向に向ける第2の変形例について説明する。図6(a)は、第1の実施形態の第2の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図6(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
(Second modification)
Next, a second modification in which only the eyeball part of the
図6(a)および図6(b)の例において、ロボット2の眼球部2cは、眼球部2cが存在する眼の表面上で移動可能とされている。眼球部2cは、ロボット駆動部21の一例であるモータの回転力によって眼の表面上で移動することで、ロボット2の目線を操作端末3の方向を向けることができる。なお、眼球部2cは、モータによって前後に傾動可能とされていてもよい。すなわち、眼球部2cは、ピッチ方向にも自由度を有していてもよい。
6 (a) and 6 (b), the eyeball part 2c of the
第2の変形例において、動作生成部32は、図6(a)および図6(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の眼球部2cを方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の眼球部2cが方位変化後の操作端末3が存在する方向を向くようにロボット2の眼球部2cを移動制御する。
In the second modification, the
第2の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の目線を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を向上させることができる。
According to the second modification, based on the detection signal of the
(第2の実施形態)
次に、位置センサの検出信号に基づいてロボット2の位置を制御する第2の実施形態について説明する。図7は、第2の実施形態によるロボット制御システム1を示すブロック図である。
(Second Embodiment)
Next, a second embodiment for controlling the position of the
図7に示すように、第2の実施形態のロボット制御システム1は、方位センサ31の替わりに位置センサ38を有する点で第1の実施形態と異なる。
As shown in FIG. 7, the
位置センサ38は、操作端末3の位置を検出する。位置センサ38は、検出された操作端末3の位置を示す位置検出信号を動作生成部32に出力する。位置センサ38は、例えば、GPS(Grobal Positioning System)レシーバであってもよい。
The
図8は、第2の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図8のシーケンスは必要に応じて繰り返される。
FIG. 8 is a sequence diagram illustrating an operation example of the
図8に示すように、第2の実施形態において、先ず、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。位置センサ38による操作端末3の位置の検出タイミングは、第1の実施形態で説明した方位センサ31による操作端末3の方位の検出タイミングと同様であってもよい。
As shown in FIG. 8, in the second embodiment, first, the
操作端末3の位置が検出された後、動作生成部32は、位置センサ38から入力された位置検出信号に基づいて、検出された位置に応じたロボット制御コマンドを生成する(ステップS21)。具体的には、動作生成部32は、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。例えば、動作生成部32は、操作端末3の位置にロボット2が近づくようにロボット2を移動させるためのロボット制御コマンドを生成してもよい。
After the position of the
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
After generating the robot control command, the
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
When the robot control command is transmitted, the
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の位置の制御を行う(ステップS51)。
After receiving the robot control command, the
次に、図8のシーケンスの具体的な適用例について説明する。図9(a)は、第2の実施形態によるロボット制御システム1の動作例において、操作端末3の位置の変化前のロボット2を示す平面図である。図9(b)は、操作端末3の位置の変化後のロボット2を示す平面図である。
Next, a specific application example of the sequence of FIG. 8 will be described. FIG. 9A is a plan view showing the
図9(a)および図9(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって車両のうち駆動輪を回転させることで、ロボット2を移動させることができる。ロボット2は、車輪以外の機構(例えば、脚機構)によって移動可能とされていてもよい。
In the example of FIG. 9A and FIG. 9B, the
図9(a)および図9(b)の例において、動作生成部32は、操作端末3の位置が図9(b)に示すようにロボット2から遠ざかるように変化した場合に、位置検出信号に基づいて、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図8のステップS21)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図8のステップS51)。
In the example of FIGS. 9A and 9B, the
第2の実施形態によれば、位置センサ38の検出信号に基づいて、ロボット2と操作端末3との距離を好適な距離に制御した状態でロボット2と対話することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
According to the second embodiment, since it is possible to interact with the
(変形例)
次に、位置センサおよび方位センサの検出信号に基づいてロボット2の位置および姿勢を制御する第2の実施形態の変形例について説明する。
(Modification)
Next, a modification of the second embodiment that controls the position and posture of the
図10は、第2の実施形態の変形例によるロボット制御システム1を示すブロック図である。図10に示すように、第2の実施形態の変形例のロボット制御システム1は、位置センサ38に加えて、更に、方位センサ31を有する点で図7の構成と異なる。方位センサ31の構成は、第1の実施形態と同様である。
FIG. 10 is a block diagram showing a
図11は、第2の実施形態の変形例によるロボット制御システム1の動作例を示すシーケンス図である。図11のシーケンスは必要に応じて繰り返される。
FIG. 11 is a sequence diagram illustrating an operation example of the
図11に示すように、変形例において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。なお、ステップS1とステップS6とは、前後が入れ替わってもよく、または、同時でもよい。
As shown in FIG. 11, in the modification, first, the
操作端末3の方位および位置が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号および位置センサ38から入力された位置検出信号に基づいて、検出された方位および位置に応じたロボット制御コマンドを生成する(ステップS22)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するとともに、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。
After the azimuth and position of the
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
After generating the robot control command, the
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
When the robot control command is transmitted, the
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS52)。
After receiving the robot control command, the
次に、図11のシーケンスの具体的な適用例について説明する。図12(a)は、第2の実施形態の変形例によるロボット制御システム1の動作例において、操作端末3の位置および方位の変化前のロボット2を示す平面図である。図12(b)は、操作端末3の位置および方位の変化後のロボット2を示す平面図である。
Next, a specific application example of the sequence of FIG. 11 will be described. FIG. 12A is a plan view showing the
図3(a)および図3(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2の胴体部は、台座上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図12(b)に示されるヨー方向Yに自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3が存在する方向を向くことができる。
Similar to the examples of FIGS. 3A and 3B, in the examples of FIGS. 12A and 12B, the body of the
また、図9(a)および図9(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって駆動輪を回転させることで、ロボット2を移動させることができる。
Similarly to the examples of FIGS. 9A and 9B, in the examples of FIGS. 12A and 12B, the
図12(a)および図12(b)の例において、動作生成部32は、操作端末3の方位および位置が図12(a)から図12(b)に変化した場合に、方位検出信号および位置検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるとともに、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図11のステップS22)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御するとともに、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図11のステップS52)。
In the example of FIG. 12A and FIG. 12B, the
第2の実施形態の変形例によれば、方位センサ31および位置センサ38の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けるとともにロボット2と操作端末3との距離を好適な距離に制御した状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。
According to the modification of the second embodiment, based on the detection signals of the
(第3の実施形態)
ユーザが首の傾き方を変えたときに、それに応じてロボットの首の傾き方を変えることができれば、よりロボットに対して近親感を覚えることができる。3軸タイプの方位センサ21を用いれば、操作端末3の3軸方向の回転を検出できるが、ユーザの首の傾き方向であるピッチ方向への操作端末3の回転をより精度よく検出するには、操作端末3に加速度センサを設けるのが望ましい。なお、加速度センサの代わりに傾斜角センサを用いることも可能であるが、以下では加速度センサを用いる例を説明する。図13は、第3の実施形態によるロボット制御システム1を示すブロック図である。図13に示すように、第3の実施形態のロボット制御システム1は、方位センサ31および位置センサ38に加えて、更に、加速度センサ39を有する点で図10の構成と異なる。
(Third embodiment)
If the user changes the direction of the neck tilt, if the user can change the direction of the neck tilt of the robot accordingly, it is possible to feel a closer sense of the robot. If the three-axis
加速度センサ39は、操作端末3の傾きを検出する。加速度センサ39は、検出された操作端末3の傾きを示す傾き検出信号を動作生成部32に出力する。なお、操作端末3の傾きは、加速度センサ39自身が検出してもよいし、加速度センサ39の検出信号に基づいて動作生成部32が算出してもよい。
The
図14は、第3の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図14のシーケンスは必要に応じて繰り返される。
FIG. 14 is a sequence diagram illustrating an operation example of the
図14に示すように、第3の実施形態において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。また、加速度センサ39は、操作端末3の傾きを検出し、検出された傾きを示す傾き検出信号を動作生成部32に出力する(ステップS7)。なお、ステップS1と、ステップS6と、ステップS7とは、前後が入れ替わってもよく、または、同時でもよい。
As shown in FIG. 14, in the third embodiment, first, the
操作端末3の方位、位置および傾きが検出された後、動作生成部32は、方位センサ31から入力された方位検出信号、位置センサ38から入力された位置検出信号および加速度センサ39から入力された傾き検出信号に基づいて、検出された方位、位置および傾きに応じたロボット制御コマンドを生成する(ステップS23)。具体的には、動作生成部32は、操作端末3が存在する方向を操作端末3の傾きおよび位置に応じた仰俯角で向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。
After detecting the azimuth, position, and tilt of the
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
After generating the robot control command, the
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
When the robot control command is transmitted, the
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、顔の仰俯角を含めたロボット2の姿勢の制御を行う(ステップS53)。
After receiving the robot control command, the
次に、図14のシーケンスの具体的な適用例について説明する。図15(a)は、第3の実施形態によるロボット制御システム1の動作例において、操作端末3の傾きの変化前のロボット2を示す側面図である。図15(b)は、操作端末3の傾きの変化後のロボット2を示す側面図である。
Next, a specific application example of the sequence of FIG. 14 will be described. FIG. 15A is a side view showing the
図15(a)および図15(b)の例において、ロボット2の首部は、図12(b)に示したヨー方向Yおよび図15(b)に示されるピッチ方向Pに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によってピッチ方向Pに回転することで、ロボット2の顔の仰俯角を操作端末3の傾きおよび位置に応じた角度に制御することができる。
15 (a) and 15 (b), the neck of the
第3の実施形態において、動作生成部32は、図15(a)および図15(b)に示すように操作端末3の傾き(ピッチ方向の傾き)が減少方向に変化した場合に、傾き検出信号に基づいて、ロボット2の首部を俯角方向(すなわち、仰角の減少方向)に回転させるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の首部を俯角方向に回転駆動制御する。また、図示はしないが、動作生成部32は、操作端末3の位置がロボット2から遠ざかる方向に変化した場合には、ロボット2の首部を仰角方向に回転させるためのロボット制御コマンドを生成してもよい。このようにロボット2の首部の仰俯角を制御することで、操作端末3を見るユーザの目線の方向とロボット2の目線の方向とをできるだけ平行に近づけることができる。すなわち、ユーザの目線とロボット2の目線とを合いやすくすることができる。
In the third embodiment, the
第3の実施形態によれば、加速度センサ39の検出信号に基づいて、ロボット2の顔をユーザの目線に対応する操作端末3の傾きに応じた仰俯角に傾けた状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。
According to the third embodiment, on the basis of the detection signal of the
(第4の実施形態)
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図16は第4の実施形態によるロボット制御システムを示すブロック図である。図16に示すように、第4の実施形態のロボット制御システム1は、シナリオDB33、シナリオ制御部34および動作生成部32がロボット2側に設けられている点で第1〜第3の実施形態の構成と異なる。なお、図16に示されるセンサ30は、方位センサ31、位置センサ38および加速度センサ39のいずれか1つまたは2つ以上の組合せである。
(Fourth embodiment)
Next, a fourth embodiment in which main control functions are provided on the
図17は、第4の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図17に示すように、第4の実施形態において、先ず、センサ30による検出を行い(ステップS11)、センサ30の検出結果を示すセンサ検出信号をロボット2に送信する(ステップS8)。
FIG. 17 is a sequence diagram illustrating an operation example of the
センサ検出信号が送信されると、ロボット2の動作生成部32は、送信されたセンサ検出信号を受信する(ステップS9)。
When the sensor detection signal is transmitted, the
センサ検出信号が受信された後、動作生成部32は、センサ検出信号を解析することで、操作端末3の方位、位置および傾きの少なくとも1つを検出する(ステップS10)。
After the sensor detection signal is received, the
操作端末3の方位、位置および傾きの少なくとも1つが検出された後、動作生成部32は、検出された操作端末3の方位、位置、傾きに応じたロボット制御コマンドを生成する(ステップS24)。
After at least one of the azimuth, position, and tilt of the
ロボット制御コマンドが生成された後、ロボット制御部22は、生成されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS54)。
After the robot control command is generated, the
第4の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2に送信する通信量を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。また、第4の実施形態においても、第1の実施形態と同様に、センサ30の検出信号に基づいて、ロボット2の姿勢や位置を操作端末3の方位、位置、傾きに適合するように制御することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
According to the fourth embodiment, since the configuration of the
なお、動作生成部32は、操作端末3およびロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。また、操作端末3は、店舗システム5との通信によって飲食物を注文する機能を備えていてもよい。
The
また、ロボット制御システム1は、既述したように飲食サービスに好適に適用することができるが、飲食サービス以外の場面に適用されてもよい。
Moreover, although the
本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。 The aspect of the present invention is not limited to the individual embodiments described above, and includes various modifications that can be conceived by those skilled in the art, and the effects of the present invention are not limited to the contents described above. That is, various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.
1 ロボット制御システム、2 ロボット、22 ロボット制御部、3 操作端末、31 方位センサ 1 robot control system, 2 robot, 22 robot control unit, 3 operation terminal, 31 direction sensor
Claims (9)
前記ロボットと対話をするために前記顧客が操作する操作端末と、を備え、
前記操作端末は、操作のために前記顧客により把持された前記操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、
前記ロボットは、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システム。 A robot that operates in response to a command signal to interact with a customer who has visited a restaurant;
An operation terminal operated by the customer to interact with the robot,
The operation terminal has at least one sensor that detects at least one of a position and a direction of the operation terminal held by the customer for operation,
The robot includes a drive control unit that controls at least one of a position and a posture of the robot according to the command signal generated based on a detection signal of the sensor.
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記操作端末が存在する方向を向くように前記ロボットの姿勢を制御する、請求項1に記載のロボット制御システム。 The sensor detects at least the direction of the operation terminal,
The robot according to claim 1, wherein the drive control unit controls the posture of the robot so as to face a direction in which the operation terminal exists in accordance with the command signal generated based on a detection signal of the sensor. Control system.
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットを移動させて前記ロボットの位置を制御する、請求項1乃至3のいずれか一項に記載のロボット制御システム。 The sensor detects at least a position of the operation terminal;
The said drive control part moves the said robot according to the said command signal produced | generated based on the detection signal of the said sensor, and controls the position of the said robot. Robot control system.
当該ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、
前記センサの検出信号に基づいて、前記ロボットの位置および姿勢の少なくとも一方を制御するための前記指令信号を生成する指令信号生成部と、
前記生成された指令信号を前記ロボットに対して送信する送信部と、を備える、ロボット制御装置。 A robot control device that transmits the command signal to a robot that performs an operation according to the command signal to interact with a customer who has visited a restaurant,
At least one sensor for detecting at least one of the position and direction of the robot controller;
A command signal generation unit that generates the command signal for controlling at least one of the position and posture of the robot based on the detection signal of the sensor;
And a transmitter that transmits the generated command signal to the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017059941A JP2018161702A (en) | 2017-03-24 | 2017-03-24 | Robot control system and robot control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017059941A JP2018161702A (en) | 2017-03-24 | 2017-03-24 | Robot control system and robot control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018161702A true JP2018161702A (en) | 2018-10-18 |
Family
ID=63859118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017059941A Pending JP2018161702A (en) | 2017-03-24 | 2017-03-24 | Robot control system and robot control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018161702A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210276186A1 (en) * | 2019-01-25 | 2021-09-09 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
-
2017
- 2017-03-24 JP JP2017059941A patent/JP2018161702A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210276186A1 (en) * | 2019-01-25 | 2021-09-09 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
JP2022519476A (en) * | 2019-01-25 | 2022-03-24 | 北京妙趣▲フォ▼伴科技有限公司 | Robots and their operating systems, controls, control methods and storage media |
US11904475B2 (en) * | 2019-01-25 | 2024-02-20 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10589426B2 (en) | Robot | |
US11024294B2 (en) | System and method for dialogue management | |
US7689319B2 (en) | Communication robot control system | |
JP5429462B2 (en) | Communication robot | |
US7519537B2 (en) | Method and apparatus for a verbo-manual gesture interface | |
JP4512830B2 (en) | Communication robot | |
JP7400923B2 (en) | Information processing device and information processing method | |
US11338429B2 (en) | Robot | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
EP3732677A1 (en) | System and method for artificial intelligence driven automated companion | |
US20190205390A1 (en) | System and Method for Learning Preferences in Dialogue Personalization | |
US20190251701A1 (en) | System and method for identifying a point of interest based on intersecting visual trajectories | |
KR20200136476A (en) | Interactive animation character head system and method | |
JP2010127779A (en) | Information serving apparatus, information serving method and program | |
US10809715B2 (en) | Apparatus, robot, method, and recording medium | |
JP2007160427A (en) | Robot control system | |
KR20190106925A (en) | Ai robot and the control method thereof | |
JP2018161702A (en) | Robot control system and robot control device | |
WO2018174290A1 (en) | Conversation control system, and robot control system | |
US20230390653A1 (en) | Smoothing server for processing user interactions to control an interactive asset | |
KR20190123604A (en) | Robot for advertisement transformable in situation | |
CN110382174A (en) | It is a kind of for executing mood posture with the device with customer interaction | |
CN211806147U (en) | Main control unit based on modular robot and modular robot | |
CN111278611A (en) | Information processing apparatus, information processing method, and program | |
JP6454041B1 (en) | GAME DEVICE AND GAME SYSTEM |