JP4580226B2 - Robot control system - Google Patents
Robot control system Download PDFInfo
- Publication number
- JP4580226B2 JP4580226B2 JP2004361581A JP2004361581A JP4580226B2 JP 4580226 B2 JP4580226 B2 JP 4580226B2 JP 2004361581 A JP2004361581 A JP 2004361581A JP 2004361581 A JP2004361581 A JP 2004361581A JP 4580226 B2 JP4580226 B2 JP 4580226B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- task
- unit
- data
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、ロボットにタスクを実行させるためのロボット制御システムに関する。 The present invention relates to a robot control system for causing a robot to execute a task.
近年、自律移動可能なロボットにタスク(受付、案内、物品の運搬など)の実行命令を入力し、ロボットにタスクを実行させるシステムが開発されている。 2. Description of the Related Art In recent years, a system has been developed in which an execution command for a task (reception, guidance, article transportation, etc.) is input to an autonomously movable robot, and the robot executes the task.
特許文献1に記載のロボットシステムは、ロボットが入力部を備えており、人がロボットの入力部を介して実行命令を入力することが可能なシステムである。
しかしながら、特許文献1に記載のロボットシステムは、現時点でタスクを実行していないロボットが利用者からのタスクを受けることを想定したシステムであり、タスク実行中のロボットがタスクを受ける場合については開示されていない。
また、新たにロボットが受けたタスクと、既に受けて未実行であるタスクとをどのような順序で実行するか、といったタスク実行順序の最適化についても開示されていない。
However, the robot system described in
Further, the optimization of the task execution order such as the order in which tasks newly received by the robot and tasks already received and not executed are executed is not disclosed.
本発明は、前記した問題を解決すべく創案されたものであり、タスク実行中のロボットがタスクを依頼された場合であっても、好適に対応することが可能なロボット制御システムを提供することを課題とする。 The present invention was devised to solve the above-described problems, and provides a robot control system capable of suitably responding even when a task-executing robot is requested to perform a task. Is an issue.
前記課題を解決するため、本発明の請求項1に記載の発明は、自律移動を行う自律移動手段と、人とのコミュニケーションを行うコミュニケーション手段と、現在位置に関する現在位置データを生成する現在位置データ生成手段と、タスクの実行状況に関する実行状況データを生成する実行状況データ生成手段と、ロボット管理装置との通信を行う通信手段と、を備えたロボットと、前記ロボットに実行させるタスクに関するタスクデータを記憶するタスクデータ記憶部と、前記タスクデータに基づいて、タスクのスケジューリングを行うタスクスケジューリング手段と、スケジューリング結果に基づいて、前記自律移動ロボットにタスクを実行させる実行命令信号を生成する実行命令信号生成手段と、前記ロボットとの通信を行う通信手段と、を備えたロボット管理装置と、を備え、前記実行命令信号に基づいて前記ロボットにタスクを実行させるロボット制御システムであって、前記ロボット管理装置は、前記コミュニケーション手段によるコミュニケーション結果に基づいて、タスクデータを生成するタスクデータ生成手段をさらに備え、前記タスクスケジューリング手段は、コミュニケーション結果に基づいて新たにタスクデータが生成された場合に、前記ロボットの現在位置データおよび実行状況データに基づいて、タスクの再スケジューリングを行い、前記実行命令信号生成手段は、再スケジューリング結果に基づいて、実行命令信号の再生成を行い、前記ロボットがタスクを実行するタスク実行エリアに関する地図データを記憶する地図データ記憶部と、前記ロボットに設けられた、物品を把持する把持部と、をさらに備え、前記ロボットは、前記地図データおよび前記実行命令信号に基づいて、物品を前記把持部によって把持し、運搬し、前記ロボットは、前記実行命令信号に基づいて、物品を受け渡す人を特定する人特定手段を備え、前記人特定手段が、所定時間内に物品を受け渡す人を特定できない場合に、前記ロボットは、前記地図データに基づいて、所定の場所に物品を運搬し、この所定の場所に物品を置くとともに、物品を前記所定の場所に置いた旨を伝える行動報告信号を、前記物品を受け渡す人の端末へ出力することを特徴とする。
In order to solve the above-mentioned problem, the invention according to
また、請求項2に記載の発明は、請求項1に記載のロボット制御システムであって、前記コミュニケーション手段は、周囲の音を集音するマイクと、集音された音から音声を認識する音声認識部と、を備え、前記タスクデータ生成手段は、前記音声認識部による認識結果に基づいて、タスクデータを生成することを特徴とする。
The invention according to
本発明によれば、タスク実行中のロボットがタスクを依頼された場合であっても、新たなタスクを含めて再スケジューリングを行うことができ、タスクの実行順序の最適化を図ることが可能なロボット制御システムを提供することができる。 According to the present invention, even when a robot that is executing a task is requested to perform a task, rescheduling can be performed including a new task, and the task execution order can be optimized. A robot control system can be provided.
以下、本発明の実施形態について、本発明の物品運搬システムを、オフィスをタスク実行エリアとし、オフィス内におけるタスク(物品運搬、案内など)実行に適用したロボット制御システムを例にとり、適宜図面を参照しながら説明する。同様の部分には同一符号を付し、重複する説明を省略する。 Hereinafter, with respect to the embodiments of the present invention, a robot control system in which the article transportation system of the present invention is applied to the execution of tasks (article transportation, guidance, etc.) in the office with the office as a task execution area will be referred to as appropriate. While explaining. Similar parts are denoted by the same reference numerals, and redundant description is omitted.
(ロボット制御システムAの構成)
はじめに、本発明の実施形態に係るロボット制御システムAについて説明する。図1は、本発明の実施形態に係るロボット制御システムを示すシステム構成図である。
図1に示すように、ロボット制御システムAは、タスク実行エリアEAに配置された1台以上(本実施形態では2台)のロボットR(RA,RB)と、これらロボットRA,RBと無線通信によって接続された基地局(例えば、無線LAN)1と、基地局1にルーター2を介して接続されたロボット管理装置(例えば、サーバー)3と、ロボット管理装置3にネットワーク4を介して接続された端末5と、検知対象(人)Hが装着した検知用タグTと、を備えている。
(Configuration of robot control system A)
First, a robot control system A according to an embodiment of the present invention will be described. FIG. 1 is a system configuration diagram showing a robot control system according to an embodiment of the present invention.
As shown in FIG. 1, the robot control system A includes one or more (two in this embodiment) robots R (RA, RB) arranged in the task execution area EA, and wireless communication with these robots RA, RB. Connected to the base station 1 (eg, wireless LAN) 1, the robot management device (eg, server) 3 connected to the
ロボットRは、タスク実行エリアEAに配置されており、タスク実行エリアEA内において自律移動を行い、実行命令信号に基づいてタスク(物品運搬)を実行するものである。なお、このタスク実行エリアEA内には、物品置き場B1が設けられている。ロボットRは、物品を受け渡す人を発見できなかった場合などには、物品置き場B1に物品を置くことができる。 The robot R is arranged in the task execution area EA, performs autonomous movement in the task execution area EA, and executes a task (article transportation) based on an execution command signal. An article storage area B1 is provided in the task execution area EA. When the robot R cannot find a person who delivers the article, the robot R can place the article in the article storage place B1.
ロボット管理装置3は、後記する端末5から入力されるタスクデータに基づき、ロボットRにタスクを実行させるため、このタスクの内容を含む実行命令信号を生成し、ロボットRに出力する。このタスクデータは、ロボットRに実行させるタスクに関するデータであり、例えば、ロボットRに物品を渡す人、ロボットRが物品を渡す人、運搬する物品の種類などを含んでいる。
The
端末5は、ロボット管理装置3にタスクデータを入力するための入力装置であり、デスクトップ型コンピュータ、PHSなどである。また、端末5は、ロボットRから送られたタスク完了報告信号をオペレータが確認可能に出力するための出力(表示)装置でもある。
The terminal 5 is an input device for inputting task data to the
(ロボットRの構成)
続いて、本発明の実施形態に係るロボットRについて説明する。以下の説明において、ロボットRの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる(図2参照)。
本発明の実施形態に係るロボットRは、自律移動型の2足移動ロボットである。このロボットRは、ロボット管理装置3から送信された実行命令信号に基づき、タスクを実行するものである。
(Configuration of robot R)
Next, the robot R according to the embodiment of the present invention will be described. In the following description, the robot R has an X axis in the front-rear direction, a Y axis in the left-right direction, and a Z axis in the up-down direction (see FIG. 2).
The robot R according to the embodiment of the present invention is an autonomous mobile biped mobile robot. The robot R executes a task based on the execution command signal transmitted from the
図2は、図1のロボットの外観を示す模式図である。図2に示すように、ロボットRは、人間と同じように2本の脚部R1(1本のみ図示)により起立、移動(歩行、走行など)し、上体部R2、2本の腕部R3(1本のみ図示)および頭部R4を備え、自律して移動する。また、ロボットRは、これら脚部R1、上体部R2、腕部R3および頭部R4の動作を制御する制御装置搭載部R5を背負う形で背中(上体部R2の後部)に備えている。 FIG. 2 is a schematic diagram showing the appearance of the robot of FIG. As shown in FIG. 2, the robot R stands up and moves (walks, runs, etc.) with two legs R1 (only one is shown) like a human being, and has an upper body R2, two arms. R3 (only one is shown) and a head R4 are provided and move autonomously. Further, the robot R is provided on the back (rear part of the upper body part R2) in a form of carrying a control device mounting part R5 for controlling the operations of the leg part R1, the upper body part R2, the arm part R3 and the head part R4. .
(ロボットRの駆動構造)
続いて、ロボットRの駆動構造について説明する。図3は、図1のロボットの駆動構造を模式的に示す斜視図である。なお、図3における関節部は、当該関節部を駆動する電動モータにより示されている。
(Robot R drive structure)
Next, the drive structure of the robot R will be described. FIG. 3 is a perspective view schematically showing the drive structure of the robot of FIG. In addition, the joint part in FIG. 3 is shown by the electric motor which drives the said joint part.
(脚部R1)
図3に示すように、左右それぞれの脚部R1は、6個の関節部11R(L)〜16R(L)を備えている。左右12個の関節は、股部(脚部R1と上体部R2との連結部分)の脚部回旋用(Z軸まわり)の股関節部11R,11L(右側をR、左側をLとする。また、R,Lを付さない場合もある。以下同じ。)、股部のピッチ軸(Y軸)まわりの股関節部12R,12L、股部のロール軸(X軸)まわりの股関節部13R,13L、膝部のピッチ軸(Y軸)まわりの膝関節部14R,14L、足首のピッチ軸(Y軸)まわりの足首関節部15R,15L、および、足首のロール軸(X軸)まわりの足首関節部16R,16Lから構成されている。そして、脚部R1の下には足部17R,17Lが取り付けられている。
(Leg R1)
As shown in FIG. 3, the left and right leg portions R1 include six
すなわち、脚部R1は、股関節部11R(L),12R(L),13R(L)、膝関節部14R(L)および足首関節部15R(L),16R(L)を備えている。股関節部11R(L)〜13R(L)と膝関節部14R(L)とは大腿リンク21R,21Lで、膝関節部14R(L)と足首関節部15R(L),16R(L)とは下腿リンク22R,22Lで連結されている。
That is, the leg portion R1 includes hip
(上体部R2)
図3に示すように、上体部R2は、ロボットRの基体部分であり、脚部R1、腕部R2および頭部R4と連結されている。すなわち、上体部R2(上体リンク53)は、股関節部11R(L)〜13R(L)を介して脚部R1と連結されている。また、上体部R2は、後記する肩関節部31R(L)〜33R(L)を介して腕部R3と連結されている。また、上体部R2は、後記する首関節部41,42を介して頭部R4と連結されている。
また、上体部R2は、上体回旋用(Z軸まわり)の関節部21を備えている。
(Upper body part R2)
As shown in FIG. 3, the upper body portion R2 is a base portion of the robot R, and is connected to the leg portion R1, the arm portion R2, and the head portion R4. That is, the upper body portion R2 (upper body link 53) is connected to the leg portion R1 via the hip
The upper body R2 includes a joint 21 for upper body rotation (around the Z axis).
(腕部R3)
図3に示すように、左右それぞれの腕部R3は、7個の関節部31R(L)〜37R(L)を備えている。左右14個の関節部は、肩部(腕部R3と上体部R2との連結部分)のピッチ軸(Y軸)まわりの肩関節部31R,31L、肩部のロール軸(X軸)まわりの肩関節部32R,32L、腕部回旋用(Z軸まわり)の肩関節部33R,33L、肘部のピッチ軸(Y軸)まわりの肘関節部34R,34L、手首回旋用(Z軸まわり)の腕関節部35R,35L、手首のピッチ軸(Y軸)まわりの手首関節部36R,36L、および手首のロール軸(X軸)まわりの手首関節部37R,37Lから構成されている。そして、腕部R3の先端には把持部(ハンド)71R,71Lが取り付けられている。
(Arm R3)
As shown in FIG. 3, each of the left and right arm portions R3 includes seven
すなわち、腕部R3は、肩関節部31R(L),32R(L),33R(L)、肘関節部34R(L)、腕関節部35R(L)および手首関節部36R(L),37R(L)を備えている。肩関節部31R(L)〜33R(L)とは肘関節部34R(L)とは上腕リンク54R(L)で、肘関節部34R(L)と手首関節部36R(L),37R(L)とは前腕リンク55R(L)で連結されている。
That is, the arm portion R3 includes the shoulder
(頭部R4)
図3に示すように、頭部R4は、首部(頭部R4と上体部R2との連結部分)のY軸まわりの首関節部41と、首部のZ軸まわりの首関節部42と、を備えている。首関節部41は頭部R4のチルト角を設定するためのものであり、首関節部42は頭部R4のパンを設定するためのものである。
(Head R4)
As shown in FIG. 3, the head R4 includes a neck
このような構成により、左右の脚部R1は合計12の自由度を与えられ、移動中に12個の関節部11R(L)〜16R(L)を適宜な角度で駆動することで、脚部R1に所望の動きを与えることができ、ロボットRが任意に3次元空間を移動することができる。また、左右の腕部R3は合計14の自由度を与えられ、14個の関節部31R(L)〜37R(L)を適宜な角度で駆動することで、ロボットRが所望の作業を行うことができる。
With such a configuration, the left and right leg portions R1 are given a total of 12 degrees of freedom, and the 12
また、足首関節部15R(L),16R(L)と足部17R(L)との間には、公知の6軸力センサ61R(L)が設けられている。6軸力センサ61R(L)は、床面からロボットRに作用する床反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。
A known 6-
また、手首関節部36R(L),37R(L)と把持部71R(L)との間には、公知の6軸力センサ62R(L)が設けられている。6軸力センサ62R(L)は、ロボットRの把持部38R(L)に作用する反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。
Further, a known six-
また、上体部R2には、傾斜センサ63が設けられている。傾斜センサ63は、上体部R2の重力軸(Z軸)に対する傾きと、その角速度と、を検出する。
また、各関節部の電動モータは、その出力を減速・増力する減速機(図示せず)を介して前記した大腿リンク51R(L)、下腿リンク52R(L)などを相対変位させる。これら各関節部の角度は、関節角度検出手段(例えば、ロータリエンコーダ)によって検出される。
Further, an
The electric motors at the joints relatively displace the above-described
制御装置搭載部R5は、後記する自律移動制御部150、把持部制御部160、無線通信部170、主制御部200、バッテリ(図示せず)などを収納している。各センサ61〜63などの検出データは、制御装置等細部R5内の各制御部に送られる。また、各電動モータは、各制御部からの駆動指示信号により駆動される。
The control device mounting unit R5 houses an autonomous movement control unit 150, a gripping
図4は、図1のロボットを示すブロック図である。図4に示すように、ロボットRは、脚部R1、腕部R2および頭部R4に加えて、カメラC,C、スピーカS、マイクMC,MC、画像処理部100、音声処理部110、対象検知部120、自律移動制御部150、把持部制御部160、無線通信部170および主制御部200を備えている。
FIG. 4 is a block diagram showing the robot of FIG. As shown in FIG. 4, in addition to the leg R1, the arm R2, and the head R4, the robot R includes cameras C and C, speakers S, microphones MC and MC, an image processing unit 100, an audio processing unit 110, and a target. A
また、ロボットRは、ジャイロセンサSR1およびGPS受信器SR2を備えている。
ジャイロセンサSR1は、ロボットRの向きに関するデータ(向きデータ)を検出する。また、GPS受信器SR2は、ロボットRの位置に関するデータ(位置データ)を検出する。ジャイロセンサSR1およびGPS受信器SR2が検出したデータは、主制御部200に出力され、ロボットRの行動を決定するために利用されると共に、主制御部200から無線通信部170を介してロボット管理装置3に送信される。
The robot R includes a gyro sensor SR1 and a GPS receiver SR2.
The gyro sensor SR1 detects data (orientation data) related to the orientation of the robot R. The GPS receiver SR2 detects data (position data) related to the position of the robot R. The data detected by the gyro sensor SR1 and the GPS receiver SR2 is output to the
[カメラ]
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部100に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R4の内部に配設される。
[camera]
The cameras C and C are capable of capturing video as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the image processing unit 100. The cameras C and C, the speaker S, and the microphones MC and MC are all disposed inside the head R4.
[画像処理部]
画像処理部100は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部100は、ステレオ処理部101、移動体抽出部102および顔認識部103を備えている。
[Image processing unit]
The image processing unit 100 is a part for recognizing surrounding obstacles and persons in order to process images taken by the cameras C and C and grasp the situation around the robot R from the taken images. The image processing unit 100 includes a stereo processing unit 101, a moving
ステレオ処理部101は、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部102に出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
The stereo processing unit 101 performs pattern matching on the basis of one of the two images taken by the left and right cameras C and C, calculates the parallax of each corresponding pixel in the left and right images, and generates a parallax image. The generated parallax image and the original image are output to the moving
移動体抽出部102は、ステレオ処理部101から出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体は人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部102は、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、その位置に人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部103へ移動体の画像を出力する。
The moving
In order to extract a moving object, the moving
顔認識部103は、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部200に出力されると共に、無線通信部170に出力されて、基地局1を介して、ロボット管理装置3に送信される。
The
The recognized face position is output to the
[スピーカ]
スピーカSは、後記する音声合成部111により生成された音声データに基づき、音声を出力する。
[Speaker]
The speaker S outputs a sound based on the sound data generated by the
[マイク]
マイクMC,MCは、ロボットRの周囲の音を集音するものである。集音された音は、後記する音声認識部112および音源定位部113に出力される。
[Microphone]
The microphones MC and MC collect sounds around the robot R. The collected sound is output to a
[音声処理部]
音声処理部110は、音声合成部111、音声認識部112および音源定位部113を備えている。
[Audio processor]
The voice processing unit 110 includes a
音声合成部111は、主制御部200の発話行動決定手段270(図12参照)が決定し、出力してきた発話行動の指令に基づき、文字情報から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶している文字情報と音声データとの対応関係を利用する。
The
音声認識部112は、マイクMC,MCから音声データが入力され、予め記憶している音声データと文字情報との対応関係に基づき、音声データから文字情報を生成し、主制御部200に出力するものである。
The
音源定位部113は、マイクMC,MC間の音圧差および音の到達時間差に基づいて、音源の位置(ロボットRからの距離および方向)を特定する。
The sound
[対象検知部]
続いて、図4の対象検知部120と、検知用タグTと、について、図5ないし図8を参照して説明する。図5は、図4の対象検知部を示すブロック図である。図6は、図1の検知用タグを示すブロック図である。図7は、対象検知部による探索域を説明するための図であり、(a)は平面図、(b)は側面図である。図8は、対象検知部による周辺領域のエリア分けを説明するための図である。
対象検知部120は、ロボットRの周囲に検知用タグTを備える検知対象Hが存在するか否かを検知すると共に、検知対象Hの存在が検知された場合、当該検知対象Hの位置を特定するものである。
[Target detection unit]
Next, the
The
図5に示すように、この対象検知部120は、制御手段121、電波送受信手段122、発光手段123および記憶手段124を備えている。
As shown in FIG. 5, the
制御手段121は、後記する電波送受信手段122から無線送信される検索信号と、後記する発光手段123から赤外光として出力される方向検査信号とを生成すると共に、検索信号を受信した検知用タグTから送信された受信報告信号を基に、検知対象Hの位置を特定するものである。
ここで、検索信号とは、ロボットRの周囲に検知対象Hが存在するか否かを検知するための信号であり、方向検査信号とは、検知対象HがロボットRを基準としてどの方向に位置するのかを検知するための信号である。
また、受信報告信号とは、検知用タグTが、少なくとも検索信号を受信したことを示す信号である。
The
Here, the search signal is a signal for detecting whether or not the detection target H exists around the robot R, and the direction inspection signal is the direction in which the detection target H is located with respect to the robot R. It is a signal for detecting whether to do.
The reception report signal is a signal indicating that the detection tag T has received at least the search signal.
この制御手段121は、データ処理部121a、暗号化部121b、時分割部121c、復号化部121dおよび電界強度検出部121eを備えている。
The
データ処理部121aは、検索信号および方向検査信号を生成すると共に、検知対象Hの位置を特定するものであり、信号生成部121a1および位置特定部121a2を備えている。
The
信号生成部121a1は、所定時間毎に、若しくはロボットRの主制御部200から電波の発信を命令する信号(発信命令信号)が入力されるたびに、記憶手段124を参照して、対象検知部120が設けられたロボットRに固有の識別番号(以下、ロボットIDという)を取得する。
そして、信号生成部121a1は、当該ロボットIDと、受信報告要求信号とを含んで構成される検索信号を生成する。
ここで、受信報告要求信号とは、検索信号を受信した検知対象H(検知用タグT)に対して、当該検索信号を受信した旨を示す信号(受信報告信号)を生成するように要求する信号である。
The
Then, the
Here, the reception report request signal requests the detection target H (detection tag T) that has received the search signal to generate a signal (reception report signal) indicating that the search signal has been received. Signal.
さらに、信号生成部121a1は、この検索信号を生成する際に、後記する発光手段123から赤外線信号として照射される方向検査信号もまた生成する。
方向検査信号は、発光手段123に設けられた発光部(LED1〜LED8)の総てについて、個別に生成されるものであり、前記したロボットIDと、発光部を特定する識別子(発光部ID)を含んで構成される。
なお、この方向検査信号は、後記する復号化部121dから入力される受信報告信号に発光要求信号が含まれている場合にも生成される。
Further, when generating the search signal, the
The direction inspection signal is individually generated for all of the light emitting units (LED1 to LED8) provided in the light emitting unit 123, and the robot ID and the identifier (light emitting unit ID) for identifying the light emitting unit described above. It is comprised including.
This direction check signal is also generated when a light emission request signal is included in the reception report signal input from the
本実施形態の場合、発光部が合計8つ設けられているので、データ処理部121aは、ロボットIDと発光部IDとから構成される方向検査信号を、合計8つ生成する。
例えば、ロボットIDが「02」であり、発光部(LED1〜LED8)の発光部IDが「L1〜L8」である場合、発光部LED1について生成される方向検索信号は、ロボットID=「02」と、発光部ID=「L1」とを含み、発光部LED2について生成される方向検査信号は、ロボットID=「02」と、発光部ID=「L2」とを含むことになる。
In the case of the present embodiment, since a total of eight light emitting units are provided, the
For example, when the robot ID is “02” and the light emitting unit IDs of the light emitting units (LED1 to LED8) are “L1 to L8”, the direction search signal generated for the light emitting unit LED1 is the robot ID = “02”. And the direction inspection signal generated for the light emitting unit LED2 includes the robot ID = “02” and the light emitting unit ID = “L2”.
そして、信号生成部121a1は、方向検査信号と前記した検索信号とを、暗号化部121bに出力する。
なお、位置特定部121a2は、検索信号を受信した検知用タグTから送信された受信報告信号をもとに、検知対象Dの位置を特定するものであるが、その際にこの位置特定部121a2で行われる処理は、復号化部121dおよび電界強度検出部121eにおける処理と共に、後に詳細に説明する。
Then, the
The
暗号化部121bは、入力された信号を暗号化した後、出力するものである。そして、暗号化部121bは、検索信号の暗号化により得られた検索信号(暗号化検索信号)を、後記する電波送受信手段122に出力する。
これにより、暗号化検索信号は、変調されたのち、電波送受信手段122から無線送信されることになる。
The
As a result, the encrypted search signal is modulated and then wirelessly transmitted from the radio wave transmission / reception means 122.
一方、暗号化部121bは、データ処理部121aから入力された方向検査信号を、同様にして暗号化する。そして、暗号化部121bは、方向検査信号の暗号化により得られた方向検査信号(暗号化方向検査信号)を、後記する時分割部121cに出力する。
On the other hand, the
本実施の形態の場合、方向検査信号は、前記したデータ処理部121aにおいて発光手段123の発光部ごとに一つずつ生成される。
よって、図5に示すように、発光手段123には合計8つの発光部が設けられているので、暗号化部121bには、合計8つの方向検査信号がデータ処理部121aから入力される。
その結果、合計8つの暗号化方向検査信号がこの暗号化部121bにおいて生成され、時分割部121cに出力されることになる。
In the case of the present embodiment, one direction inspection signal is generated for each light emitting unit of the light emitting unit 123 in the
Therefore, as shown in FIG. 5, since the light emitting means 123 is provided with a total of eight light emitting units, a total of eight direction check signals are input to the
As a result, a total of eight encryption direction check signals are generated in the
時分割部121cは、発光手段123の各発光部(LED1〜LED8)の発光順序と、発光タイミングを設定するものである。
具体的には、暗号化部121bから暗号化方向検査信号が入力されると、時分割部121cは、各発光部(LED1〜LED8)の発光順序および発光タイミングを決定し、決定した発光順序および発光タイミングで、暗号化方向検査信号を発光手段123に出力する。
The
Specifically, when the encryption direction inspection signal is input from the
例えば、発光部LED1、発光部LED4、発光部LED7、発光部LED2、発光部LED5、発光部LED8、発光部LED3、そして発光部LED6の順番で、各発光部を0.5秒間隔で発光させる場合、時分割部83は、暗号化方向検査信号を0.5秒間隔で、発光部LED1の変調部、発光部LED4の変調部、発光部LED7の変調部、発光部LED2の変調部、発光部LED5の変調部、発光部LED8の変調部、発光部LED3の変調部、そして発光部LED6の変調部という順番で出力する。
For example, the light emitting units LED1, light emitting unit LED4, light emitting unit LED7, light emitting unit LED2, light emitting unit LED5, light emitting unit LED8, light emitting unit LED3, and light emitting unit LED6 are emitted in the order of 0.5 seconds. In this case, the
本実施の形態の場合、合計8つの暗号化方向検査信号が時分割部121cに入力される。そして、これら暗号化方向検査信号は、前記したデータ処理部121aにおいて、出力される発光部があらかじめ決められている。
したがって、時分割部121cは、暗号化方向検査信号が入力されると、暗号化方向検査信号に含まれる発光部IDを確認し、発光部IDにより特定される発光部に隣接する変調部に向けて、決められた順序およびタイミングで、暗号化方向検査信号を出力する。
例えば、発光部(LED1〜LED8)の発光部IDが「L1〜L8」で規定される場合、時分割部121cは、発光部IDが「L1」である暗号化方向検査信号を、発光部LED1に隣接する変調部に出力し、発光部IDが「L2」である暗号化方向検査信号を、発光部LED2に隣接する変調部に出力することになる。
In the case of the present embodiment, a total of eight encryption direction inspection signals are input to the
Therefore, when the encrypted direction check signal is input, the
For example, when the light emitting unit IDs of the light emitting units (LED1 to LED8) are defined by “L1 to L8”, the
発光手段123は、ロボットRを基準として当該ロボットRの周囲において予め設定された探索域に向けて光を照射するものである。
発光手段123は、複数の発光部(LED1〜LED8)と、各発光部に対応させて設けられた変調部と、を備えている。
The light emitting means 123 emits light toward a search area set in advance around the robot R with the robot R as a reference.
The light emitting means 123 includes a plurality of light emitting units (LED1 to LED8) and a modulation unit provided corresponding to each light emitting unit.
変調部は、時分割部121cから入力された暗号化方向検査信号を、所定の変調方式で変調し、変調信号とするものである。
発光部は、変調信号を赤外線信号(赤外光)として、予め決められた探索域に向けて照射するものである。
The modulation unit modulates the encryption direction check signal input from the
The light emitting unit emits the modulation signal as an infrared signal (infrared light) toward a predetermined search area.
本実施形態では、検知対象Hの位置を特定するために、ロボットRの周囲の領域が複数の探索域に区分されている(図7(a)参照)。そして、この探索域に向けて赤外光を発光する発光部として、発光ダイオードが探索域毎に一つずつ用意されている。 In this embodiment, in order to specify the position of the detection target H, the area around the robot R is divided into a plurality of search areas (see FIG. 7A). One light emitting diode is prepared for each search area as a light emitting unit that emits infrared light toward the search area.
具体的には、図7(a)に示す例の場合、ロボットRを中心として、全周方向、すなわち360度方向に、合計8つの探索域D1〜D8が設定されている。
言い換えると、ロボットRを中心として、ほぼ扇形の探索域D1〜D8がロボットRを取り囲むように複数設定されており、ロボットRは、これら扇形の探索域で囲まれた領域のほぼ中心に位置している。
Specifically, in the case of the example shown in FIG. 7A, a total of eight search areas D1 to D8 are set around the robot R in the entire circumferential direction, that is, in the 360 degree direction.
In other words, a plurality of substantially fan-shaped search areas D1 to D8 are set around the robot R so as to surround the robot R, and the robot R is positioned approximately at the center of the area surrounded by the fan-shaped search areas. ing.
したがって、図7(a)に示す例の場合、各探索域に向けて赤外光の照射が可能となるように、ロボットRの頭部R3には、その外周に沿って合計8つの発光部が、それぞれ対応する探索域に向けて設けられている。 Therefore, in the example shown in FIG. 7A, the head R3 of the robot R has a total of eight light emitting units along its outer periphery so that infrared light can be irradiated toward each search area. Are provided for the corresponding search areas.
また、図7(a)から明らかなように、ロボットRの正面側の探索域D1〜D3は、他の探索域D4〜D8に比べて狭くなるように設定されている。 As is clear from FIG. 7A, the search areas D1 to D3 on the front side of the robot R are set to be narrower than the other search areas D4 to D8.
このように探索域D1〜D8を設定するのは、ロボットRが検知対象Hを検知し、検知対象Hの方向に顔を向ける動作を行う時に、ロボットRの顔の正面(これを視線の方向という)と、検知対象Hの位置とのズレが生じると、ロボットRの視線が自分の方を向いていないと検知対象Hが感じる場合があるという問題を解決するためである。
ここで、この問題を解決する方法の一つとして、探索域の数を多くするという方法が考えられる。しかし、必ずしも全周の探索域の数を増やす必要はなく、前方のみの探索域を増やして、前方側の位置特定を細かくできるようにすることで、検知対象Hの位置する方向にロボットRの視線の方向を向けることができる。また、こうすることにより、発光部の数を少なく構築できる。
The search areas D1 to D8 are set in this way when the robot R detects the detection target H and performs an operation of turning the face in the direction of the detection target H (the direction of the line of sight). This is to solve the problem that the detection target H may feel that the line of sight of the robot R is not facing the user when a deviation from the position of the detection target H occurs.
Here, as a method of solving this problem, a method of increasing the number of search areas can be considered. However, it is not always necessary to increase the number of search areas around the entire circumference, and by increasing the search area only in the front so that the position of the front side can be specified in detail, the robot R can move in the direction in which the detection target H is located. The direction of the line of sight can be turned. In addition, by doing this, the number of light emitting units can be reduced.
そのため、本実施の形態の場合、ロボットRの正面側の探索域D1〜D3の赤外光の照射範囲を狭くすることで、ロボットRの正面側にある探索域D1〜D3内における検知対象Hの位置をより正確に特定できるようにしているのである。
これにより、検知対象Hが人であり、かつロボットRのカメラC,Cで人の顔の撮像を行う場合に、ロボットRの正面側における検知対象Hの位置特定をより正確に行って、ロボットRの移動制御やカメラC,Cの画角の調整に反映させることができるので、ロボットRのカメラC,Cを、検知対象Hである人の顔の正面にきちんと位置させることが可能となる。
Therefore, in the case of the present embodiment, the detection target H in the search areas D1 to D3 on the front side of the robot R is reduced by narrowing the infrared light irradiation range of the search areas D1 to D3 on the front side of the robot R. The position of can be specified more accurately.
As a result, when the detection target H is a person and the human face is imaged by the cameras C and C of the robot R, the position of the detection target H on the front side of the robot R is more accurately specified, and the robot Since it can be reflected in the movement control of R and the adjustment of the angle of view of the cameras C and C, the cameras C and C of the robot R can be properly positioned in front of the face of the person who is the detection target H. .
図5に示すように、電波送受信手段122は、ロボットRの周辺領域に向けて電波を発信すると共に、当該電波を受信した検知対象Hから送信された受信報告信号を受信するものである。
この電波送受信手段122は、変調部122aと、復調部122bと、送受信アンテナ122cと、を備えている。
As shown in FIG. 5, the radio wave transmission / reception unit 122 transmits a radio wave toward the peripheral region of the robot R and receives a reception report signal transmitted from the detection target H that has received the radio wave.
The radio wave transmitting / receiving unit 122 includes a
変調部122aは、データ処理部121aから入力された検索信号(実際には、暗号化検索信号)を所定の変調方式で変調して変調信号とした後、これを、送受信アンテナ122cを介して無線送信するものである。
The
復調部122bは、検知対象Hの検知用タグTから無線送信された変調信号を、送受信アンテナ122cを介して受信し、受信した変調信号の復調により、受信報告信号(実際には、暗号化受信報告信号)を取得するものである。
そして、この復調部122bは、取得した受信報告信号を、制御手段121の復号化部121dと電界強度検出部121eとに出力するものである。
The
The
復号化部121dは、暗号化された受信報告信号である暗号化受信報告信号を復号化して、受信報告信号を取得し、取得した受信報告信号を、データ処理部121aに出力するものである。
The
本実施形態の場合、受信報告信号には、後に詳細に説明するが、発光部IDとロボットIDとタグ識別番号とが少なくとも含まれているので、復号化部121dは、これらをデータ処理部121aに出力することになる。
なお、受信報告信号に発光要求信号が含まれていた場合、この発光要求信号もまたデータ処理部121aに出力されることになる。
In the case of the present embodiment, the reception report signal will be described in detail later. However, since at least the light emitting unit ID, the robot ID, and the tag identification number are included, the
If the light emission request signal is included in the reception report signal, this light emission request signal is also output to the
電界強度検出部121eは、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122が受信した際に、当該変調信号の強度を求めるものである。
具体的には、電界強度検出部121eは、電波送受信手段122の復調部122bから入力された、暗号化受信報告信号の電力を検波し、この検波された電力の平均値を電界強度として求め、この求めた電界強度をデータ処理部121aに出力する。
The electric field
Specifically, the electric field
データ処理部121aの位置特定部121a2は、検知対象Hの位置を特定するものである。
具体的には、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122において受信した際の、当該変調信号の電界強度から、ロボットRから検知対象Hまでの距離を求める。さらに、位置特定部121a2は、受信報告信号に含まれる発光部IDを参照して、検知対象Hが受信した光が、どの発光部から発光されたのかを特定し、特定された発光部の発光方向を、すなわち当該発光部に対応する探索域の方向を検知対象Hの存在する方向とみなし、検知対象Hの位置を特定するものである。
The
Specifically, the distance from the robot R to the detection target H is obtained from the electric field intensity of the modulation signal when the radio wave transmission / reception means 122 receives the modulation signal transmitted from the detection tag T of the detection target H. Further, the
本実施形態の場合、はじめに、位置特定部121a2は、復号化部121dから入力された受信報告信号の中からロボットIDを取得する。そして取得したロボットIDと記憶手段124に記憶されたロボットIDとを比較し、両ロボットIDが一致した場合、位置特定部121a2は、検知対象Hの位置の特定を開始する。
In the case of the present embodiment, first, the
また、本実施形態の場合、図8に示すように、ロボットRの周辺領域は、ロボットRからの距離に応じて4つのエリアに区分されている。すなわち、ロボットRからの距離が短い順に、エリアD11、エリアD12、エリアD13、そしてエリアD14と定義されている。
この各エリアと電界強度とは、電界強度の大きさを基準として予め関連づけられており、この関連づけを示すテーブル(距離テーブル)が、記憶手段124に記憶されている。
In the case of the present embodiment, as shown in FIG. 8, the peripheral area of the robot R is divided into four areas according to the distance from the robot R. That is, area D11, area D12, area D13, and area D14 are defined in order of increasing distance from robot R.
Each area and the electric field strength are associated in advance with reference to the magnitude of the electric field strength, and a table (distance table) indicating the association is stored in the
したがって、位置特定部121a2は、電界強度検出部121eから入力された電界強度をもとに、記憶手段124に記憶された距離テーブルを参照し、受信報告信号を発信した検知対象Hがどのエリアにいるのかを示す情報(エリア情報)を取得する。
例えば、電界強度検出部121eから入力された電界強度が、エリアD13を規定する閾値間の値である場合、位置特定部121a2は、エリアD13を示す情報(エリア情報)を取得する。
Therefore, the
For example, when the electric field intensity input from the electric field
さらに、位置特定部121a2は、復号化部121dから入力された受信報告信号に含まれる発光部IDを参照して、受信報告信号を送信した検知対象Hが、ロボットRの発光手段123のどの発光部から発光された光を受信したのかを特定し、特定された発光部の発光方向を示す情報(方向情報)を取得する。
Furthermore, the
本実施の形態の場合、図7(a)に示すように、ロボットRの周辺領域には、ロボットRを基準として合計8つの探索域D1〜D8が設定されている。
そして、記憶手段124には、各発光部がどの探索域に向けて設置されているのかを示すテーブル(方向テーブル)が記憶されている。
In the present embodiment, as shown in FIG. 7A, a total of eight search areas D1 to D8 are set in the peripheral area of the robot R with reference to the robot R.
The storage means 124 stores a table (direction table) indicating in which search area each light emitting unit is installed.
したがって、データ処理部121aは、発光部IDをもとに記憶手段124に記憶された方向テーブルを参照し、当該発光部IDを持つ発光部から発せられる赤外光が、予め設定された探索域D1〜D8のうち、どの領域に照射されるのかを確認する。そして、データ処理部121aは、確認された探索域を示す情報を、検知対象Hが存在する方向を示す情報(方向情報)として取得する。
Therefore, the
そして、位置特定部121a2は、取得したエリア情報と方向情報とから検知対象Hの位置を示す情報(位置情報)を生成する。
これにより、ロボットRが受信した受信報告信号の強度と、この受信報告信号に含まれる発光部IDとから、ロボットRと検知対象Hとの位置関係が特定される。言い換えれば、検知対象Hが、ロボットRを基準としてどの方向に、どれだけ離れた位置に存在するのか、すなわち、検知対象Hの位置が特定される。
Then, the
Thereby, the positional relationship between the robot R and the detection target H is specified from the intensity of the reception report signal received by the robot R and the light emitting unit ID included in the reception report signal. In other words, in which direction and how far away the detection target H exists with respect to the robot R, that is, the position of the detection target H is specified.
そして、位置特定部121a2は、位置情報を、復号化部121dから入力された受信報告信号に含まれるタグ識別番号と共に、ロボットRの主制御部200に出力する。
これにより、ロボットRの主制御部200は、自律移動制御部150を制御して、ロボットRを検知対象Hの正面に移動させることや、検知対象Hが人である場合、カメラC,Cの仰角や向きを修正して、当該検知対象Hの顔の撮像を行うことが可能となる。
Then, the
Accordingly, the
なお、受信報告信号に発光要求信号が含まれている場合、信号生成部121a1は方向検査信号を生成し、暗号化部121bに出力する。これにより、発光手段123の各発光部から赤外線信号が発光されることになる。
When the light emission request signal is included in the reception report signal, the
[検知用タグ]
検知用タグTは、ロボットRから送信された電波と、照射された光とを受信し、これらを受信したことを示す受信報告信号を、ロボットRに送信するものである。
本実施の形態では、検知用タグTが取り付けられた人が検知対象Hであるので、ロボットRから送信された電波と照射された光は、この検知用タグTにおいて受信される。よって、この検知用タグTについて以下に説明する。
[Detection tag]
The detection tag T receives the radio wave transmitted from the robot R and the irradiated light, and transmits a reception report signal indicating that they have been received to the robot R.
In the present embodiment, since the person to whom the detection tag T is attached is the detection target H, the radio wave transmitted from the robot R and the irradiated light are received by the detection tag T. Therefore, the detection tag T will be described below.
図6に示すように、この検知用タグTは、電波送受信手段125と、光受信手段126と、受信報告信号生成手段127と、記憶手段128と、を備えている。
As shown in FIG. 6, the detection tag T includes a radio wave transmission / reception unit 125, an optical reception unit 126, a reception report signal generation unit 127, and a
電波送受信手段125は、ロボットRから無線送信された変調信号を受信すると共に、後記する受信報告信号生成手段127において生成された受信報告信号を、変調した後、ロボットRに向けて無線送信するものである。
この電波送受信手段125は、送受信アンテナ125aと、復調部125bと、変調部125cと、を備えている。
The radio wave transmission / reception unit 125 receives the modulation signal wirelessly transmitted from the robot R, modulates the reception report signal generated by the reception report signal generation unit 127 described later, and transmits the modulation signal wirelessly to the robot R It is.
The radio wave transmission / reception unit 125 includes a transmission /
復調部125bは、ロボットRから発信されると共に、送受信アンテナ125aを介して受信した変調信号を復調し、検索信号(実際には、暗号化検索信号)を取得し、取得した検索信号を後記する受信報告信号生成手段127に出力するものである。
The
変調部125cは、後記する受信報告信号生成手段127の暗号化部127cから入力された暗号化後の受信報告信号(暗号化受信報告信号)を変調して変調信号を生成すると共に、当該変調信号を、送受信アンテナ125aを介して、無線送信するものである。
The modulation unit 125c modulates the encrypted reception report signal (encrypted reception report signal) input from the encryption unit 127c of the reception report signal generation unit 127, which will be described later, to generate a modulation signal, and the modulation signal Is transmitted wirelessly via the transmission /
光受信手段126は、ロボットRから照射された赤外光を受光するものである。
この光受信手段126は、受光部126aと、光復調部126bと、を備えている。
受光部126aは、ロボットRから照射された赤外光(赤外線信号)を直接受光するものである。
光復調部126bは、受光部126aにおいて受光した赤外線信号を復調して、方向検査信号(実際には、暗号化方向検査信号)を取得するものである。
The light receiving unit 126 receives infrared light emitted from the robot R.
The light receiving unit 126 includes a light receiving unit 126a and an optical demodulation unit 126b.
The light receiving unit 126a directly receives infrared light (infrared signal) emitted from the robot R.
The light demodulator 126b demodulates the infrared signal received by the light receiver 126a to obtain a direction check signal (actually an encrypted direction check signal).
具体的には、光受信手段126は、ロボットRから照射された赤外光を受光部126aで受光すると、受光した赤外線信号を光復調部126bにおいて復調して、暗号化方向検査信号を取得する。そして、取得した暗号化方向検査信号を受信報告信号生成手段127に出力する。 Specifically, when the light receiving unit 126 receives the infrared light emitted from the robot R by the light receiving unit 126a, the light receiving unit 126a demodulates the received infrared signal at the light demodulating unit 126b to obtain an encryption direction inspection signal. . Then, the acquired encryption direction inspection signal is output to the reception report signal generation means 127.
受信報告信号生成手段127は、ロボットRから発信された検索信号を電波送受信手段125で受信した場合、この検索信号に含まれる受信報告要求信号に従って、ロボットRから発信された検索信号を受信したことを示す信号(受信報告信号)を生成するものである。
この受信報告信号生成手段127は、復号化部127aと、データ処理部127bと、暗号化部127cと、を備えている。
The reception report signal generation means 127 has received the search signal transmitted from the robot R according to the reception report request signal included in the search signal when the radio wave transmission / reception means 125 receives the search signal transmitted from the robot R. Is generated (reception report signal).
The reception report signal generation means 127 includes a
復号化部127aは、入力された暗号化信号を復号化して、信号を取得するものである。
この復号化部127aは、電波送受信手段125から入力された暗号化検索信号と、光受信手段126から入力された暗号化方向検査信号とを復号化して、検索信号と方向検査信号とを取得する。そして、復号化部127aは、取得した検索信号と方向検査信号とを後段のデータ処理部127bに出力する。
The
The
データ処理部127bは、受信報告信号を生成するものである。
ここで、本実施形態の場合、検索信号には、検索信号を発信したロボットRを特定する識別子であるロボットIDと、当該電波を受信した検知対象Hに対し、所定の処理を命ずる受信報告要求信号とが含まれている。
また、方向検査信号には、方向検査信号を発信したロボットRを特定する識別子であるロボットIDと、方向検査信号を発信した発光部を特定する発光部IDとが含まれている。
The data processing unit 127b generates a reception report signal.
Here, in the case of the present embodiment, the search signal includes a robot ID that is an identifier for identifying the robot R that has transmitted the search signal, and a reception report request that instructs the detection target H that has received the radio wave to perform predetermined processing. Signals are included.
The direction inspection signal includes a robot ID that is an identifier that identifies the robot R that has transmitted the direction inspection signal, and a light emitting unit ID that identifies the light emitting unit that has transmitted the direction inspection signal.
したがって、データ処理部127bは、検索信号が入力されると、この検索信号に含まれる受信報告要求信号に従って、この検知用タグTの光受信手段126を待機状態から起動状態にする。
そして、光受信手段126を起動状態にした後、所定時間経過するまでの間に方向検査信号が入力された場合、データ処理部127bは、方向検査信号に含まれるロボットIDと、検索信号に含まれるロボットIDとを比較する。
Therefore, when the search signal is input, the data processing unit 127b switches the optical reception unit 126 of the detection tag T from the standby state to the activated state according to the reception report request signal included in the search signal.
When the direction inspection signal is input before the predetermined time elapses after the light receiving unit 126 is activated, the data processing unit 127b includes the robot ID included in the direction inspection signal and the search signal. The robot ID is compared.
データ処理部127bは、両ロボットIDが一致した場合、記憶手段128を参照し、検知用タグTに割り当てられた固有の識別番号(タグ識別番号)を取得する。
続いて、データ処理部127bは、タグ識別番号と、検索信号に含まれていたロボットIDと、そして方向検査信号に含まれていた発光部IDとを含んで構成される受信報告信号を生成し、生成した受信報告信号を暗号化部127cに出力する。
When the robot IDs match, the data processing unit 127b refers to the
Subsequently, the data processing unit 127b generates a reception report signal including the tag identification number, the robot ID included in the search signal, and the light emitting unit ID included in the direction inspection signal. The generated reception report signal is output to the encryption unit 127c.
一方、検知用タグTの光受信手段126を起動状態にした後、所定時間経過しても方向検査信号が入力されない場合、または検索信号に含まれていたロボットIDと方向検査信号に含まれていたロボットIDとが異なる場合、データ処理部127bは、発光要求信号をさらに含む受信報告信号を生成し、生成した受信報告信号を、暗号化部127cに出力する。
ここで、発光要求信号とは、検知装置であるロボットRに対して、赤外光を発光するように命令する信号である。
On the other hand, after the light receiving means 126 of the detection tag T is activated, the direction inspection signal is not input even after a predetermined time has elapsed, or the robot ID and the direction inspection signal included in the search signal are included. If the robot ID is different, the data processing unit 127b generates a reception report signal further including a light emission request signal, and outputs the generated reception report signal to the encryption unit 127c.
Here, the light emission request signal is a signal for instructing the robot R, which is a detection device, to emit infrared light.
暗号化部127cは、入力された受信報告信号を暗号化して、暗号化受信報告信号とした後、これを電波送受信手段125に出力する。
これにより、暗号化受信報告信号は、前記した電波送受信手段125の変調部125cにおいて変調された後、送受信アンテナ125aを介して、無線送信されることになる。
The encryption unit 127c encrypts the received reception report signal to obtain an encrypted reception report signal, and then outputs the encrypted reception report signal to the radio wave transmission / reception means 125.
As a result, the encrypted reception report signal is modulated by the modulation unit 125c of the radio wave transmission / reception means 125 and then wirelessly transmitted via the transmission /
[床面検知部]
続いて、図4の床面検知部130について、図9および図10を参照して説明する。図9は、図4の床面検知部を示すブロック図である。図10は、床面検知部による撮像領域を説明するための図であり、(a)は平面図、(b)は側面図である。
[Floor surface detection unit]
Next, the floor
図9に示すように、床面検知部130は、カメラC1,C1と、レーザ照射部131と、赤外線LED132と、制御部133と、切替回路134と、を備えている。
As shown in FIG. 9, the floor
カメラC1,C1は、映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCDカメラが使用される。カメラC1,C1は、左右に平行に並んで配置され、撮影した画像は制御部133に出力される。このカメラC1,C1と、レーザ照射部131および赤外線LED132は、いずれも上体部R2の内部に配設される。このカメラC1,C1は、上体部R2の下端部に、ロボットRの前方下方の床面を撮像するために設けられたものであり、その撮像領域D21は、図10に示されている。
The cameras C1 and C1 can capture video as digital data, and for example, a color CCD camera is used. The cameras C1 and C1 are arranged side by side in parallel on the left and right, and the captured image is output to the
レーザ照射部131は、レーザスリット光を撮像領域D21内に照射するためのものである。
The
赤外線LED132は、赤外光を撮像領域D21内に照射するためのものである。
The
制御部133は、カメラC1,C1によって撮像された画像に基づいて、床面にある障害物を検出する。
The
床面に障害物がある場合には、レーザ照射部131によって照射されたレーザスリット光の反射光が、障害物の形状に沿って歪み、カメラC1,C1が、この歪みを撮像する。制御部133は、この歪みを検出することによって、ロボットRに対する障害物の位置や障害物の形状を検出する。この検出データは、主制御部200に出力される。
When there is an obstacle on the floor surface, the reflected light of the laser slit light emitted by the
また、床面に再帰性反射材によるマーカがある場合には、赤外線LED132によって照射された赤外光がマーカによって反射され、カメラC1,C1が、この反射光を撮像する。制御部133は、この反射光を検出することによって、ロボットRに対するマーカの位置を検出する。この検出データは、主制御部200に出力される。
Further, when there is a marker made of a retroreflecting material on the floor surface, the infrared light irradiated by the
切替回路134は、制御部133からの切替信号に基づいて、レーザ照射部131および赤外線LED132のいずれか一方を起動状態とするための回路である。
The
制御部133は、切替回路134を切り替えるための切替信号を生成する。
制御部133は、GPS受信器SR1によって検出されたロボットRの位置データと、ジャイロセンサSR2によって検出されたロボットRの向きデータと、地図データに含まれるマーカの位置データと、に基づいて、ロボットRとマーカとの距離が所定値以下であり、かつ、ロボットRがマーカの方向に向いているか否かを判定する。この条件を満たした場合には、制御部133は、赤外線LED132を起動状態とするための切替信号を生成し、切替回路134に出力する。この条件を満たさない場合には、制御部133は、レーザ照射部131を起動状態とするための切替信号を生成し、切替回路134に出力する。
このようにすることで、ロボットRがマーカに近づいているときのみに赤外線LED132を駆動し、それ以外の場合にはレーザ照射部131を駆動することが可能となる。そのため、カメラC1,C1を障害物検知およびマーカ検知の両方に活用することが可能となる。すなわち、障害物検知用のカメラとマーカ検知用のカメラとを別体に設ける必要がなくなり、ロボットRの上体部R2内のスペースの有効利用が図られる。
The
Based on the position data of the robot R detected by the GPS receiver SR1, the direction data of the robot R detected by the gyro sensor SR2, and the position data of the marker included in the map data, the
By doing in this way, it becomes possible to drive the
[障害物検知部]
続いて、図4の障害物検知部140について、図11および図12を参照して説明する。図11は、図4の障害物検知部を示すブロック図である。図12は、障害物検知部による検知領域を示す図であり、(a)は平面図、(b)は側面図である。
[Obstacle detection unit]
Next, the
図11に示すように、障害物検知部140は、6個の超音波センサ141a,141b,141c,141d,141e,141fと、制御部142と、を備えている。
As shown in FIG. 11, the
超音波センサ141a〜141fは、送受兼用型のセンサであり、超音波を発生し、所定距離内に障害物(人などの移動体も含む)がある場合に生じる反射波を受信するためのセンサである。この超音波センサ141a〜141fは、上体部R2の内部に配設される。
超音波センサ141aは、ロボットRの前方の障害物を検知するためのものであり、その検知領域D31は、図12(a)、(b)に示されている。
超音波センサ141b〜141fは、ロボットRの側方〜後方の障害物を検知するためのものであり、その検知領域D32〜D36は、図12(a)に示されている。
すなわち、超音波センサ141aは検知領域D31(前方)を、超音波センサ141bは検知領域D32(右方)を、超音波センサ141cは検知領域D33(右後方)を、超音波センサ141dは検知領域D34(後方)を、超音波センサ141eは検知領域D35(左後方)を、超音波センサ141fは検知領域D36(左方)を、それぞれ検知する。
超音波センサ141a〜141fが障害物を検知した場合には、検知した超音波センサの識別番号を含む障害物検知連絡信号を制御部142に出力する。
The
The
The
That is, the
When the
制御部142は、超音波センサ141a〜141fが出力した障害物検知連絡信号と、超音波センサ141a〜141fの配置方向を記憶したテーブルと、に基づいて、ロボットRの所定距離内どの方向に障害物があるのか、を判定する。超音波センサ141a〜141bが発生する超音波は透明な物質でも反射するので、障害物検知部140はガラスなどの透明な障害物も検知することができる。
この障害物の方向データは、主制御部200に出力される。
Based on the obstacle detection communication signal output from the
The obstacle direction data is output to the
[自律移動制御部]
図4に示すように、自律移動制御部150は、頭部制御部151、腕部制御部152および脚部制御部153を備えている。
頭部制御部151は、主制御部200の指示に従い頭部R4を駆動し、腕部制御部152は、主制御部200の指示に従い腕部R2を駆動し、脚部制御部153は、主制御部200の指示に従い脚部R1を駆動する。これら自律移動制御部150、頭部R4、腕部R2および脚部R1の組み合わせが、特許請求の範囲における「自律移動手段(自律移動装置)」の一例である。
[Autonomous Movement Control Unit]
As shown in FIG. 4, the autonomous movement control unit 150 includes a
The
[把持部制御部]
把持部制御部160は、主制御部200の指示に従い把持部71を駆動する。
[Grip part control part]
The gripping
[無線通信部]
無線通信部170は、ロボット管理装置3とデータの送受信を行う通信装置である。無線通信部170は、公衆回線通信装置171および無線通信装置172を備えている。
公衆回線通信装置171は、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置172は、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部170は、ロボット管理装置3からの接続要求に従い、公衆回線通信装置171または無線通信装置172を選択してロボット管理装置3とデータ通信を行う。
[Wireless communication part]
The wireless communication unit 170 is a communication device that exchanges data with the
The public
The wireless communication unit 170 performs data communication with the
[把持部]
続いて、ロボットRの把持部71R(L)について、図13ないし図15を参照してさらに詳しく説明する。図13は、ロボットの把持部を示す斜視図であり、指開状態を示す図である。図14は、ロボットの把持部を示す斜視図であり、指閉状態を示す図である。図15は、ロボットの把持部、開度検出手段および6軸力センサを示すブロック図である。なお、一対の把持部71R,71Lは鏡面対称であり、図13および図14には、左側の把持部71Lが示されている。以下、場合により、R,Lを除いた符号を用いて説明する。
[Grip part]
Subsequently, the gripping
図13および図14に示すように、把持部71は、掌部72と、第一指部73と、第二指部74と、を備えている。
掌部72は、手首関節部36,37を介して前腕リンク55に連結されている(図3参照)。
第一指部73は、人間の親指に相当する部分であり、第一指関節部73aを介して掌部72の基端側に連結されている。
第二指部74は、人間の示指、中指、環指、小指に相当する部分であり、第二指関節部74aを介して掌部72の先端側に連結されている。
また、掌部72内には、第一指部73を駆動するための第一指部用モータ73bと、第二指部74を駆動するための第二指部用モータ74bとが内蔵されている。また、掌部72には、第一指部角度α(第一指部73と掌部72との角度)を検出する第一指部角度検出手段83と、第二指部角度β(第二指部74と掌部72との角度)を検出する第二指部角度検出手段84と、が内蔵されている(図15参照)。
As shown in FIGS. 13 and 14, the
The
The
The
In addition, the
第一指部角度αは、第一指部73と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第一指部角度αは、図13に示す指開状態(把持時全開)でα1、図13に示す指閉状態(把持時全閉)でα2である(α1≦α≦α2)。
第二指部角度βは、第二指部74と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第二指部角度βは、図12に示す指開状態(把持時全開)でβ1(=0)、図14に示す指閉状態(把持時全閉)でβ2である(0≦β≦β2)。
1st finger part angle (alpha) is an angle which the
The second finger part angle β is an angle formed by the
(主制御部200)
続いて、図4の主制御部200について、図16を参照して説明する。図16は、図4の主制御部を示すブロック図である。
(Main control unit 200)
Next, the
(主制御部)
図16に示すように、主制御部200は、行動管理手段210、人特定手段220、移動行動決定手段230、挨拶行動決定手段240、受取/受渡行動決定手段250および計時手段260を備えている。
(Main control unit)
As shown in FIG. 16, the
(行動管理手段)
行動管理手段210は、ロボット管理装置3から送信された実行命令信号を取得し、この実行命令信号に基づき、人特定手段220、移動経路決定手段230、挨拶行動決定手段240および受取/受渡行動決定手段250を制御する。
また、行動管理手段210は、現在位置データ生成手段211、実行状況データ生成手段212およびコミュニケーション結果取得手段213を備えている。
また、現在位置データ生成手段211は、GPS受信器SR2によって検出されたロボットRの位置データに基づいてロボットRの現在位置を示す現在位置データを生成し、ロボット管理装置3に出力する。この現在位置データは、GPS受信器SR2によって検出されたロボットRの位置データにロボットRの識別番号を付与したものである。
実行状況データ生成手段212は、ロボットRの駆動状況に基づいて、ロボットRのタスク実行状況を報告するためのタスク実行状況データ(行動報告信号)を生成し、ロボット管理装置3に出力する。この実行状況データは、ロボットの実行状況にロボットRの識別番号を付与したものである。
例えば、ロボットRのタスクが物品の運搬である場合には、実行状況として以下のものが考えられる。
1 受取前
2 受取中
3 運搬中
4 受渡中
5 運搬完了
実行状況データ生成手段212は、ロボットRの状態(各モータの駆動状況など)に基づいて、ロボットRの実行状況を1〜5のいずれかに設定し、設定された実行状況を含む実行状況データを生成し、ロボット管理装置3に出力する。
コミュニケーション結果取得手段213は、ロボットが人とコミュニケーションすることによって取得したデータ(画像データ、音声データなど)を、ロボット管理装置3に出力する。コミュニケーション結果取得手段213は、ロボットRのタスク実行状況に関わらず、すなわち、ロボットRがタスクを実行中であってもコミュニケーション結果データを取得可能である。
また、行動管理手段210は、シナリオデータ要求信号を生成し、ロボット管理装置3に出力する。
(Behavior management means)
The behavior management unit 210 acquires the execution command signal transmitted from the
In addition, the behavior management unit 210 includes a current position
The current position
The execution status
For example, when the task of the robot R is transportation of an article, the following can be considered as the execution status.
DESCRIPTION OF
The communication
In addition, the behavior management unit 210 generates a scenario data request signal and outputs it to the
なお、現在位置データおよびタスク実行状況データは定期的に生成され、ロボット管理装置3に出力される。
Note that the current position data and task execution status data are periodically generated and output to the
(人特定手段)
人特定手段220は、人データ記憶部310(図17参照)に記憶された人情報と、対象検知部120によって取得されたタグTのタグ識別番号と、に基づいて、対象検知部によって検知された人(検知対象)が誰であるかを特定する。人データ記憶部310には、その人の名前と、その人固有のタグTのタグ識別番号とが関連付けて記憶されているので、これらのデータと、実行命令信号とを参照することによって、ロボットR近傍にいる人が、タスク実行に関係ある人であるか否かを判定することができる。
さらに、人特定手段220は、移動体抽出部102で抽出された移動体の位置データと、対象検知部120で検知された検知対象の位置データと、に基づいて、カメラC,Cで撮像された移動体が誰であるかを特定する。
(Person identification method)
The
Furthermore, the person specifying means 220 is imaged by the cameras C and C based on the position data of the moving object extracted by the moving
(移動行動決定手段)
移動行動決定手段230は、ロボットRの自律移動の内容を決定するためのものである。
移動経路決定手段231は、タスク実行命令信号と、ロボットRの位置データと、ロボットRの向きデータと、人データと、地図データと、に基づいて、ロボットRの移動経路を決定する。また、画像処理部100、床面検知部130および障害物検知部140のいずれかが障害物を検知した場合には、移動経路決定手段231は、検知した障害物を回避するように移動経路を生成する。
(Moving behavior determination means)
The movement action determination means 230 is for determining the content of the autonomous movement of the robot R.
The movement path determination means 231 determines the movement path of the robot R based on the task execution command signal, the position data of the robot R, the direction data of the robot R, the person data, and the map data. When any of the image processing unit 100, the floor
(受取/受渡行動決定手段)
受取/受渡行動決定手段240は、物品運搬作業に伴う把持部71の行動(動作)内容を決定するためのものである。
(Receiving / delivery action decision means)
The receiving / delivering action determining means 240 is for determining the action (operation) content of the
続いて、図4のロボット管理装置3について説明する。図17は、図4のロボット管理装置を示すブロック図である。
図17に示すように、ロボット管理装置3は、記憶部300、制御部400および入出力手段500を備えている。制御部400は、入出力手段500を介して、ロボットRとのデータの送受信を行う。
Next, the
As shown in FIG. 17, the
(記憶部)
記憶部300は、人データ記憶部310、地図データ記憶部320、ロボットデータ記憶部330、発話データ記憶部340、音声認識データ記憶部350およびシナリオデータ記憶部360を備えている。
(Memory part)
The storage unit 300 includes a human
人データ記憶部310は、タスク実行エリアEAであるオフィス内にいる人に関するデータ(人データ)を、それぞれ関連付けて記憶している。
人データとしては、人識別番号(ID)、名前、所属、タグ識別番号、通常居場所、机位置、顔画像などに関するデータが含まれる。
The person
The human data includes data relating to a personal identification number (ID), name, affiliation, tag identification number, normal location, desk position, face image, and the like.
地図データ記憶部320は、タスク実行エリアEAの地形(壁位置、机位置など)に関するデータ(地図データ)を記憶している。
The map
ロボットデータ記憶部330は、タスク実行エリアEAに配置されたロボットRA,RBに関するデータを、それぞれ関連付けて記憶している。
ロボットデータとしては、ロボット識別番号、現在位置、バッテリ量、タスク実行状況などに関するデータが含まれる。このうち現在位置データおよびタスク実行状況データは、定期的に更新されている。
The robot
The robot data includes data related to the robot identification number, current position, battery amount, task execution status, and the like. Of these, current position data and task execution status data are regularly updated.
発話データ記憶部340は、ロボットRが発話するためのデータ(発話データ)を記憶している。
The speech
音声認識データ記憶部350は、ロボットRが音声認識するためのデータ(音声認識データ)を記憶している。 The voice recognition data storage unit 350 stores data (voice recognition data) for the robot R to perform voice recognition.
シナリオデータ記憶部360は、ロボットRに一連の動作(シナリオ)を実行させるためのデータを記憶している。ここでいうシナリオデータとは、ロボットRに一連の動作(人特定、移動行動、挨拶行動、受取/受渡行動など)を実行させるための、各関節部(電動モータ)の駆動量、駆動順序などを含むデータであり、ロボットRは、このシナリオデータに基づいて、シナリオを実行する。
The scenario
タスクデータ記憶部370は、端末5から送られたタスクデータを記憶する。また、タスクデータ記憶部370は、後記するタスクデータ生成手段414によって生成されたタスクデータを記憶する。
The task
制御部400は、タスク管理手段410およびデータ管理手段420を備えている。 The control unit 400 includes task management means 410 and data management means 420.
タスク管理手段410は、ロボットRに実行させるためのタスクを管理するためのものであり、タスクデータ取得手段411、タスクスケジューリング手段412、実行命令信号生成手段413およびタスクデータ生成手段414を備えている。
The task management unit 410 is for managing tasks to be executed by the robot R, and includes a task
タスクデータ取得手段411は、端末5から送られたタスクデータを取得する。取得されたタスクデータは、タスクデータ記憶部270に記憶される。
The task
タスクスケジューリング手段412は、タスクをロボットRに実行させるため、タスクのスケジューリングを行う。以下、タスクのスケジューリングの一例について説明する。
The
タスクスケジューリング手段412は、タスクデータ記憶部370に記憶されている複数のタスクデータのうち、未実行および実行中のタスクデータについて、それぞれ優先度データを生成する。
タスクの優先度データ「P」は、以下の式(1)によって算出される。
The
The task priority data “P” is calculated by the following equation (1).
ここで、前記式(1)における「T’pri」は、以下の式(2)によって算出される。 Here, “T ′ pri ” in the equation (1) is calculated by the following equation (2).
ここで、「Tpri」は、「タスクの重要度(調整前)」である。「Tpri」は、例えば、1.0(重要度低)から0.5間隔で5.0(重要度高)までの値であり、オペレータによる端末5の操作によって入力された値や、個人ID(役職など)などから算出された値が用いられる。本実施形態では、人データ記憶部310に記憶された人データにより「Tpri」を決定する。
また、「Tsp」は、タスクの開始位置から最も近傍のロボットRまでの移動距離を、ロボットRの平均歩行速度で割った値、すなわち、「最も近傍のロボットRがタスクの開始位置まで移動するのにかかる時間」であり、「n(Tsp)」は、「ロボットRに近傍のタスクを優先して実行させるための重要度」である。「n(Tsp)」の値は、タスク開始位置と、最も近傍のロボットRの位置との距離が小さいほど大きくなる値である。すなわち、「n(Tsp)」は、タスク開始位置の近くにロボットRが位置するほど、タスクの重要度が大きくなるようにはたらく値である。本実施形態では、「Tsp」が所定値以下である場合にのみ、「n(Tsp)」が所定の正の値をとる(その他は0)ものとする。これらの値を算出するための値として、タスクの開始位置はタスクデータ記憶部370に記憶されたタスクデータと、人データ記憶部310に記憶された人データと、に基づいて決められる。また、ロボットRの現在位置は、ロボットデータ記憶部330に記憶されたものを用いる。このようにして算出された「T’pri」は「調整済みタスク重要度」であり、以下、かかる「T’pri」のことを、単に「タスクの重要度」と呼ぶこととする。
Here, “T pri ” is “task importance (before adjustment)”. “T pri ” is, for example, a value from 1.0 (low importance) to 5.0 (high importance) at intervals of 0.5. A value calculated from an ID (position, etc.) is used. In this embodiment, “T pri ” is determined based on the human data stored in the human
“T sp ” is a value obtained by dividing the moving distance from the task start position to the nearest robot R by the average walking speed of the robot R, that is, “the nearest robot R moves to the task start position. “N (T sp )” is “the degree of importance for causing the robot R to preferentially execute nearby tasks”. The value of “n (T sp )” is a value that increases as the distance between the task start position and the position of the nearest robot R decreases. That is, “n (T sp )” is a value that works such that the importance of the task increases as the robot R is positioned closer to the task start position. In the present embodiment, it is assumed that “n (T sp )” takes a predetermined positive value (others are 0) only when “T sp ” is equal to or smaller than a predetermined value. As a value for calculating these values, the task start position is determined based on the task data stored in the task
また、前記式(1)における「f(Terr)」は、「重要度の時的変化係数」であり、以下の式(3)によって算出される。 In addition, “f (T err )” in the equation (1) is a “temporal change coefficient of importance”, and is calculated by the following equation (3).
ここで、「Terr」は、「時間余裕」であり、「(現在の時刻)−(タスク開始予定時刻)」である。すなわち、時間余裕「Terr」は、タスク開始予定時刻よりも前では、正の値をとる。そして、時間の経過とともに小さくなり、タスク開始予定時刻を過ぎると、負の値をとる。
また、「Ttime」は、「タスクを実行するのに必要な時間」であり、「(タスク終了予定時刻)−(タスク開始予定時刻)」である。
また、「Cobli」は、「忘却係数」であり、「f(Terr)」の下り勾配、すなわち、優先度データ「P」の下り勾配を決める値である。
Here, “T err ” is “time margin” and is “(current time) − (task start scheduled time)”. That is, the time margin “T err ” takes a positive value before the scheduled task start time. Then, it becomes smaller as time elapses, and takes a negative value when the scheduled task start time has passed.
Further, “T time ” is “ time required to execute the task”, and is “(task scheduled end time) − (task start scheduled time)”.
“C obli ” is a “forgetting factor”, and is a value that determines the downward gradient of “f (T err )”, that is, the downward gradient of the priority data “P”.
(Terr>Ttime)
タスク開始予定時刻が迫ると(時間余裕「Terr」が正から0に近づくと)、「f(Terr)」が上昇する。そして、「時間余裕」が「タスクを実行するのに必要な時間」以下になると、「f(Terr)」は「1」となる。これは、以下の理由による。
タスクをタスク終了予定時刻までに実行完了するためには、タスク開始予定時刻よりも前にタスクを開始しなければならない。したがって、「f(Terr)」は、タスク開始予定時刻が近づくにつれて大きくなり、Terr=Ttime(すなわち、現在時刻がタスク開始予定時刻と一致したとき)で最大となるように設定されている。
また、式(1)の優先度データ「P」に対し、タスクの重要度「T’pri」よりも時間余裕「Terr」の項の方が重要であるため、f(Terr)として非線形な勾配を採用した。この勾配はTtimeに依存しており、Ttimeが大きいほど勾配が緩やかになるように設定されている。
(T err > T time )
When the scheduled task start time approaches (when the time margin “T err ” approaches 0 from positive), “f (T err )” increases. When the “time margin” is equal to or less than “the time required to execute the task”, “f (T err )” is “1”. This is due to the following reason.
In order to complete the execution of the task by the scheduled task end time, the task must be started before the scheduled task start time. Therefore, “f (T err )” increases as the scheduled task start time approaches, and is set to be maximum at T err = T time (that is, when the current time matches the scheduled task start time). Yes.
In addition, since the term of the time margin “T err ” is more important than the priority “T ′ pri ” of the task with respect to the priority data “P” of the equation (1), it is nonlinear as f (T err ). The gradient was adopted. This gradient depends on T time , and is set so that the gradient becomes gentler as T time increases.
(0≦Terr≦Ttime)
現在時刻がタスク開始予定時刻とタスク終了予定時刻の間となる場合である。この時間内にタスクを開始しても、タスク終了予定時刻までに終了することはできず、できるだけ早くタスクを開始する必要がある時間帯である。そのため、「f(Terr)」は最大値「1」をとる。
(0 ≦ T err ≦ T time )
This is a case where the current time is between the scheduled task start time and the scheduled task end time. Even if the task is started within this time, it cannot be completed by the scheduled task end time, and it is a time zone in which the task needs to be started as soon as possible. Therefore, “f (T err )” takes the maximum value “1”.
(0>Terr>−Cobli・Ttime)
そして、現在時刻がタスク終了予定時刻を過ぎると(時間余裕「Terr」が0より小さくなると)、「f(Terr)」が次第に下降して「0」となり、タスクを忘却する。
(0> T err > −C obli · T time )
When the current time passes the scheduled task end time (when the time margin “T err ” becomes smaller than 0), “f (T err )” gradually decreases to “0” and forgets the task.
このように、時間(時刻)に関するデータ、位置に関するデータ、重要度に関するデータに基づいて優先度データ「P」を生成するので、タスクの優先度として好適な値を得ることができ、かかる優先度データ「P」は、後記するスケジュールデータの生成に使用可能である。 As described above, since the priority data “P” is generated based on the data related to time (time), the data related to the position, and the data related to the importance, a suitable value can be obtained as the priority of the task. The data “P” can be used to generate schedule data to be described later.
タスクスケジューリング手段412は、生成した優先度データに基づいて、タスクをロボットごとに割り当ててスケジュールデータを生成するものである。
ここでスケジュールデータとは、各タスクデータについて、「どのロボットRに、どの実行順位で実行させるか、」を決定するためのデータである。すなわち、スケジュールデータは、実行させるロボットRに関するロボットIDと、実行順位データと、を含んでいる。また、タスクを割り当てた際に、各タスクの開始予定時刻および終了予定時刻が改めて生成されており、これらもスケジュールデータに含まれている。
The task scheduling means 412 generates schedule data by assigning tasks to each robot based on the generated priority data.
Here, the schedule data is data for determining “which robot R is to be executed in which execution order” for each task data. That is, the schedule data includes a robot ID related to the robot R to be executed and execution order data. Further, when a task is assigned, the scheduled start time and the scheduled end time of each task are newly generated, and these are also included in the schedule data.
以下、スケジュールデータ生成の手順について説明する。あるロボット(i)が、あるタスク(j)を実行したときにかかる時間「Cij」は、式(4)によって算出される。 Hereinafter, the procedure of schedule data generation will be described. The time “C ij ” required when a certain robot (i) executes a certain task (j) is calculated by the equation (4).
ここで、「Wr」は、「タスク開始位置までの歩行にかかる時間」である。この「Wr」は、ロボットデータ記憶部330に記憶されたロボットRの現在位置と、タスク開始位置と、地図データ記憶部320に記憶された地図データと、ロボットRの平均移動速度と、に基づいて算出される。
また、「Wrh」は、「タスク実行中の移動にかかる時間」である。この「Wrh」は、開始位置およびタスク終了位置と、地図データ記憶部320に記憶された地図データと、ロボットRの平均移動速度と、に基づいて算出される。
また、「G(task type)」は、「タスク実行中に、ロボットの来訪者とのコミュニケーション(ジェスチャー、会話など)にかかる時間」である。この「G(task type)」は、タスクの種類(挨拶、受付、案内など)によって予め定められた値が、記憶部300に記憶されている。
Here, “Wr” is “time required for walking to the task start position”. This “Wr” is based on the current position of the robot R stored in the robot
“Wrh” is “time required for movement during task execution”. This “Wrh” is calculated based on the start position and task end position, the map data stored in the map
“G (task type)” is “time required for communication (gesture, conversation, etc.) with a robot visitor during task execution”. As for “G (task type)”, a value determined in advance by the type of task (greeting, reception, guidance, etc.) is stored in the storage unit 300.
また、m個のタスクをn台のロボットRに割り当てる際のある組み合せを「k」、全ての組み合わせを表現する重複順列を「M(k) (1≦k≦nm)」とし、その要素を「xij」とすると、割り当てられたタスクによる各ロボットの動作量に関するコスト(主に移動距離に依存する)「Cr(i)」は、式(5)によって算出される。 In addition, a combination when assigning m tasks to n robots R is “k”, and an overlapping permutation representing all combinations is “M (k) (1 ≦ k ≦ n m )”. Is “x ij ”, the cost (mainly depending on the moving distance) “Cr (i)” related to the movement amount of each robot by the assigned task is calculated by the equation (5).
ロボット制御システムA全体の動作量に関する総コスト「Call」(以下、動作コストと呼ぶ)は、各ロボットのコスト「Cr(i)」の総和であり、式(6)によって算出される。 The total cost “C all ” (hereinafter referred to as “operation cost”) related to the movement amount of the entire robot control system A is the sum of the costs “Cr (i)” of each robot, and is calculated by Expression (6).
また、全てのタスクを終了するまでの時間に関するコスト「Call complete」(以下、時間コストと呼ぶ)は、各ロボットに割り当てられた全タスクのうちの、最先の開始予定時刻から最後の終了予定時刻(これらの時刻は、タスクスケジューリング手段412で生成された値である)までの時間であり、式(7)によって算出される。 In addition, the cost “C all complete ” (hereinafter referred to as “time cost”) related to the time until all tasks are completed is the last end from the earliest scheduled start time among all tasks assigned to each robot. This is the time until the scheduled time (these times are the values generated by the task scheduling means 412), and is calculated by equation (7).
そして、動作コスト「Call」および時間コスト「Call complete」の両方を考慮することによって最適化されたコスト「Copt」は、式(8)によって算出される。 Then, the cost “C opt ” optimized by considering both the operation cost “C all ” and the time cost “C all complete ” is calculated by Expression (8).
ここで、「w」は、「ロボットの動作およびタスクを終了するまでの時間に関する重み」である。すなわち、「w」が大きいと、動作重視となり、「w」が小さいと、時間重視となる。この「Copt」が最小となる組み合わせ「k」が、複数のタスクを複数のロボットに実行させるための最適なスケジュールである。 Here, “w” is “weight related to the time until the robot operation and the task are completed”. That is, when “w” is large, the operation is emphasized, and when “w” is small, the time is emphasized. The combination “k” that minimizes “C opt ” is an optimal schedule for causing a plurality of robots to execute a plurality of tasks.
ここでいう動作重視とは、ロボットRの動作量を抑えることを重視することを指す。また、時間重視とは、タスクを早く終了することを重視することを指す。例えば、ある狭い位置領域で実行するタスクが複数存在している場合について考える。かかる複数のタスクを、最も近傍に位置するロボットR一台に実行させると、全体としてのロボットRの動作量を抑えることができる(動作重視)が、一台で処理するため時間がかかる(時間軽視)。一方、複数のロボットに実行させると、タスクを早く終了することができる(時間重視)が、遠くのロボットRを移動させることになり、全体としてのロボットRの動作量が大きくなる(動作軽視)。すなわち、動作重視および時間重視は両立するとは限らず、wの値を設定することで、どちらを重視するかを選択することができる。 Here, the emphasis on movement refers to emphasis on suppressing the movement amount of the robot R. Also, time-oriented means emphasizing that a task is finished early. For example, consider a case where there are a plurality of tasks to be executed in a certain narrow position area. If a plurality of such tasks are executed by the closest robot R, the movement amount of the robot R as a whole can be suppressed (motion-oriented), but it takes time to process by one unit (time) Neglect). On the other hand, if a plurality of robots are executed, the task can be completed quickly (time-oriented), but a distant robot R is moved, and the movement amount of the robot R as a whole is increased (motion disregard). . That is, the emphasis on operation and the emphasis on time are not always compatible, and by setting the value of w, it is possible to select which one is important.
続いて、タスクのスケジューリングの例について説明する。図18は、タスクのスケジューリングを説明するための図である。ここでは、7個のタスク(タスクT1〜タスクT7)を、2台のロボット(ロボットRA,RB)に実行させる場合におけるスケジューリングを例にとって説明する。 Next, an example of task scheduling will be described. FIG. 18 is a diagram for explaining task scheduling. Here, a description will be given by taking an example of scheduling when two robots (robots RA and RB) execute seven tasks (tasks T1 to T7).
まず、図18(a)に示すように、タスクT1〜タスクT7がタスクデータ記憶部370に記憶されている場合に、これらタスクT1〜タスクT7について優先度データ「P」を生成する。ここでは、優先度データ「P」によって表される各タスクの優先度が、「タスクT1>タスクT2>タスクT3>タスクT4>タスクT5>タスクT6>タスクT7」となっているものとする。そして、生成された優先度データ「P」はそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。
First, as shown in FIG. 18A, when tasks T1 to T7 are stored in the task
続いて、図18(b)に示すように、各タスクを優先度データPに基づいてグループ分けする。ここでは、優先度が高い(優先度データ「P」の値が大きい)タスクT1〜タスクT4からなるグループG1と、優先度が低いタスクT5〜タスクT7からなるグループG2と、に分ける。かかるグループ分けにおいて、ロボットRの台数、タスクの数などに基づいて、グループの数を決めることが望ましい。例えば、タスクの数が多い場合には、「(タスクの数)÷(ロボットRの台数) (ただし、小数点以下繰上げ)」の数だけグループを生成することができる。その他、グループの数の決定は、スケジュールデータ生成部3b2の計算時間および計算時間の優先度に基づいて決定される。すなわち、スケジュールデータの生成が早く完了するようにグループの数を決定する。 Subsequently, as shown in FIG. 18B, the tasks are grouped based on the priority data P. Here, it is divided into a group G1 consisting of tasks T1 to T4 having a high priority (priority data “P” is large) and a group G2 consisting of tasks T5 to T7 having a low priority. In such grouping, it is desirable to determine the number of groups based on the number of robots R, the number of tasks, and the like. For example, when the number of tasks is large, the number of groups can be generated as many as “(number of tasks) ÷ (number of robots R) (however, rounded up after the decimal point)”. In addition, the number of groups is determined based on the calculation time of the schedule data generation unit 3b2 and the priority of the calculation time. That is, the number of groups is determined so that the generation of schedule data is completed early.
続いて、図18(c)に示すように、優先度が高いグループG1について、前記した式(4)、式(5)および式(6)によるスケジューリング(スケジュールデータの生成)を行う。ここでは、タスクT1のスケジュールデータは、「A−1」である。これは、「ロボットRAに、1番目に実行させる」との意味である。同様に、タスクT2、タスクT3およびタスクT4のスケジュールデータは、それぞれ「B−1」、「A−2」および「A−3」である。これら生成されたスケジュールデータはそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。
Subsequently, as shown in FIG. 18 (c), scheduling (generation of schedule data) is performed on the group G1 having a high priority according to the above-described equations (4), (5), and (6). Here, the schedule data of the task T1 is “A-1”. This means that the robot RA is to be executed first. Similarly, the schedule data of the task T2, the task T3, and the task T4 are “B-1”, “A-2”, and “A-3”, respectively. Each of the generated schedule data is stored in the task
続いて、図18(d)に示すように、優先度が低いグループG2について、前記した式(4)、式(5)および式(6)によるスケジューリングを行う。この際に、既にスケジューリングされたタスクデータによる負荷を、ペナルティとして保持した状態でスケジューリングを行う。このように、後のグループをスケジューリングする際に、それより前のグループをスケジューリングした結果を考慮することで、スケジューリング全体における最適化を図ることができる。 Subsequently, as shown in FIG. 18 (d), scheduling according to the above-described Expression (4), Expression (5), and Expression (6) is performed for the group G2 having a low priority. At this time, scheduling is performed in a state where a load due to already scheduled task data is held as a penalty. In this way, when scheduling a subsequent group, optimization of the entire scheduling can be achieved by considering the result of scheduling the previous group.
ここでは、タスクT5、タスクT6およびタスクT7のスケジュールデータは、それぞれ「B−2」、「B−3」および「A−4」である。これら生成されたスケジュールデータはそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。
Here, the schedule data of task T5, task T6, and task T7 are “B-2”, “B-3”, and “A-4”, respectively. Each of the generated schedule data is stored in the task
このように、タスクのグループ分けを行ってグループごとにスケジューリングを行うので、多数のタスクが存在する場合であっても、任意の数のタスクごとにスケジューリングを行うことができ、タスク数の増加によるスケジューリングの組み合わせの数の増加を抑え、タスクスケジューリング手段412にかかるスケジューリング負荷の増大を抑えることができる。 In this way, task grouping is performed and scheduling is performed for each group, so even if there are many tasks, scheduling can be performed for any number of tasks, and the number of tasks increases. An increase in the number of scheduling combinations can be suppressed, and an increase in scheduling load applied to the task scheduling means 412 can be suppressed.
また、スケジュールデータを生成する際には、各ロボットRのバッテリ残量、駆動系の異常などのロボットの状態に関するデータも考慮されることが望ましい。 Further, when generating the schedule data, it is desirable to take into account data relating to the state of the robot such as the remaining battery capacity of each robot R and an abnormality in the drive system.
[実行命令信号生成手段]
実行命令信号生成手段413は、タスクスケジューリング手段412によって生成されたスケジュールデータに基づいて、ロボットRにタスクを実行させるための実行命令信号を生成するものである。
[Execution instruction signal generation means]
The execution command signal generation unit 413 generates an execution command signal for causing the robot R to execute a task based on the schedule data generated by the
本実施形態では、実効命令信号生成手段413は、各ロボットRに、実行順位が高い、すなわち、1番目に実行させるタスクに関する実行命令信号を生成する。前記例において、ロボットRAへの実行命令信号は、ロボットIDと、タスクT1に関するタスクID、タスク開始予定時刻、タスク開始位置、タスク内容、タスク終了位置などを含むデータとして生成される。同様に、他のロボットRBへの実行命令も生成され、入出力手段500および基地局1を介して、各ロボットRA,RBへ送信される。ロボットRA,RBの主制御部200は、受信した実行命令信号に含まれるロボットIDと自身のロボットIDを比較し、一致した場合にその実行命令信号に係るタスクを実行する。また、実行命令信号は、タスクデータと関連付けてタスクデータ記憶部370に記憶される。
In the present embodiment, the effective command signal generation unit 413 generates an execution command signal related to the task having the highest execution order, that is, the first task to be executed by each robot R. In the above example, the execution command signal to the robot RA is generated as data including the robot ID, the task ID related to the task T1, the scheduled task start time, the task start position, the task content, the task end position, and the like. Similarly, execution instructions for other robots RB are also generated and transmitted to the robots RA and RB via the input /
なお、実行命令信号は、当該ロボットRに1番目に実行させるタスクだけでなく、当該ロボットRに実行させる全てのタスクに関するデータを含んでいてもよい。 Note that the execution command signal may include not only the task to be executed first by the robot R but also data relating to all tasks to be executed by the robot R.
タスクデータ生成手段414は、ロボットRから送られたコミュニケーション結果に基づいて、タスクデータを生成する。例えば、コミュニケーション結果が音声認識データである場合には、この音声認識データからタスクデータを生成する。そして、生成されたタスクデータがタスクデータ記憶部270に記憶されると共に、タスクスケジューリング手段412が、タスクの再スケジューリングを行う。
The task
データ管理手段420は、実行命令信号に含まれるタスクの種類に基づいて、そのタスクを実行するのに必要なデータをシナリオデータ記憶部360から読み出し、ロボットRへ出力する。また、端末5からの入力に基づき、記憶部300内のデータを更新する。
また、データ管理手段420は、ロボットRからのデータ要求信号に基づいて、要求されたデータを記憶部300から読み出し、ロボットRへ出力する。
Based on the type of task included in the execution command signal, the data management unit 420 reads data necessary for executing the task from the scenario
Further, the data management means 420 reads the requested data from the storage unit 300 based on the data request signal from the robot R and outputs it to the robot R.
このように、本実施形態に係るロボット制御システムAは、ロボットRがタスク実行中であっても人とのコミュニケーションによってタスクデータを取得・生成し、このタスクデータと、ロボットRの現在位置およびタスク実行状況とに基づいてタスクの再スケジューリングを行う。したがって、人は端末5を介するだけでなく、ロボットRを介してタスクを依頼することが可能となり、システムの使いやすさが高まっている。また、再スケジューリングを行うので、重要度が高いタスクの割り込みなどが可能となる。また、ロボットRの現在位置およびタスク実行状況を考慮した再スケジューリングを行うので、適切なスケジューリングが可能となる。 As described above, the robot control system A according to the present embodiment acquires and generates task data through communication with a person even when the robot R is executing a task, and the task data, the current position of the robot R, and the task Reschedule tasks based on execution status. Therefore, a person can request a task not only via the terminal 5 but also via the robot R, and the usability of the system is increased. Further, since rescheduling is performed, it becomes possible to interrupt a task with high importance. In addition, since rescheduling is performed in consideration of the current position of the robot R and the task execution status, appropriate scheduling is possible.
(ロボットの動作例)
続いて、本発明の実施形態に係るロボット制御システムAによるロボットRの物品運搬動作について説明する。ここでは、ロボットRAが、「人H1から物品Mを受け取り、人H2に物品Mを受け渡す」といったタスクに関する実行命令信号を受け、物品Mを運搬移動中に人とコミュニケーションを行い、ロボット管理装置3がタスクの再スケジューリングを行う場合を例にとって説明する。
(Robot operation example)
Subsequently, an article carrying operation of the robot R by the robot control system A according to the embodiment of the present invention will be described. Here, the robot RA receives an execution command signal relating to a task such as “receives the article M from the person H1 and delivers the article M to the person H2,” and communicates with the person while the article M is being transported and moved. An example in which 3 performs task rescheduling will be described.
(物品受取)
まず、ロボットRAの受取位置への移動について説明する。図19は、本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートであり、ロボットRAの受取位置への移動を示すフローチャートである。
まず、ロボットRAは、タスク実行エリアEAに設定されたホームポジションで待機している(ステップS1)。
ロボットRが、ロボット管理装置3から送信された実行命令信号を受信すると(ステップS2でYes)、ロボットRは、ホームポジションから人H1の通常居場所(以下、「通常居場所P1」と記載する。)までの移動を開始する(ステップS3)。そして、人H1の通常居場所P1に到着すると(ステップS4でYes)、ロボットRは移動を中止し、人H1の探索を開始する(ステップS5)。
(Goods receipt)
First, the movement of the robot RA to the receiving position will be described. FIG. 19 is a flowchart showing an example of task execution by the robot control system according to the embodiment of the present invention, and is a flowchart showing movement of the robot RA to the receiving position.
First, the robot RA stands by at the home position set in the task execution area EA (step S1).
When the robot R receives the execution command signal transmitted from the robot management apparatus 3 (Yes in step S2), the robot R starts from the home position to the normal location of the person H1 (hereinafter referred to as “normal location P1”). Is started (step S3). When the robot R arrives at the normal location P1 of the person H1 (Yes in step S4), the robot R stops moving and starts searching for the person H1 (step S5).
対象検知部120で人H1のタグ識別番号を検知すると(ステップS6でYes)、ロボットRは、カメラC,Cで人H1の画像を取得し、人H1の正面に移動する
When the
なお、対象検知部120が、所定時間内に人H1のタグ識別番号を検知することができなかった場合には(ステップS9でYes)、ロボットRは、行動管理手段210でタスク実行が不可能である旨を伝える行動報告信号を生成し、ロボット管理装置3へ出力すると共に、ホームポジションに移動する(ステップS10)。
If the
受取位置に移動したロボットRは、指開状態の把持部71(71R,71L)を差し出し、物品Mの受け取りを行う(ステップS7)。そして、把持部71が物品Mを把持すると(ステップS8でYes)、ロボットRは、物品Mの受取を完了する。
The robot R that has moved to the receiving position presents the gripper 71 (71R, 71L) in the finger open state and receives the article M (step S7). When the
(運搬移動および受渡)
続いて、ロボットRAの物品運搬移動について説明する。図20および図21は、本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートであり、ロボットRAの物品運搬移動および物品受渡を示すフローチャートである。
ステップS8において、物品把持完了となると、ロボットRは、受取位置から、人H2の通常居場所(以下、「通常居場所P2」と記載する。)までの移動を開始する(ステップS21)。
ロボットRAが、画像処理部100、対象検知部120、床面検知部130および障害物検知部140によって、その移動方向に存在する物体を検知する(割り込み検知)(ステップS22)。
ロボットRAが割り込みを検知し(ステップS22でYes)、その割り込みが障害物である場合には(ステップS23で障害物)、ロボットRAは、画像処理部100、対象検知部120および障害物検知部130によって、ロボットRAの周囲に人がいるか否かを検知する(ステップS30)。
周囲に人がいた場合には(ステップS30でYes)、ロボットRAは、「障害物を除去してください」と発話し、周囲にいる人に障害物の除去を依頼する(ステップS31)。そして、所定時間内に障害物が除去された場合には(ステップS32でYes)、ステップS21に戻り、移動を再開する。また、所定時間内に障害物が除去されない場合には、(ステップS32でNo)、ロボットRは、この障害物を回避するように移動経路を再生成(変更)する(ステップS33)。そして、ロボットRAは、ステップS21に戻り、変更した移動経路に基づいて移動を再開する。
(Transportation and delivery)
Subsequently, the article transport movement of the robot RA will be described. 20 and 21 are flowcharts illustrating an example of task execution by the robot control system according to the embodiment of the present invention, and are flowcharts illustrating article transport movement and article delivery of the robot RA.
In step S8, when the gripping of the article is completed, the robot R starts moving from the receiving position to the normal location of the person H2 (hereinafter referred to as “normal location P2”) (step S21).
The robot RA uses the image processing unit 100, the
If the robot RA detects an interrupt (Yes in step S22) and the interrupt is an obstacle (obstacle in step S23), the robot RA includes the image processing unit 100, the
If there is a person around (Yes in step S30), the robot RA speaks “please remove the obstacle” and requests the person in the vicinity to remove the obstacle (step S31). If the obstacle is removed within the predetermined time (Yes in step S32), the process returns to step S21 and the movement is resumed. When the obstacle is not removed within the predetermined time (No in step S32), the robot R regenerates (changes) the movement path so as to avoid the obstacle (step S33). Then, the robot RA returns to step S21 and resumes movement based on the changed movement route.
ロボットRが割り込みを検知し(ステップS22でYes)、その割り込みが人である場合には(ステップS23で人)、ロボットRAは、人特定手段220によって、その人が既知人物であるか、人H2であるか否かを判定する(ステップS24、ステップS25
)。ここでいう既知人物とは、その人の人データが人データ記憶部310に記憶されていることを指す。
If the robot R detects an interruption (Yes in step S22) and the interruption is a person (a person in step S23), the robot RA determines whether the person is a known person or not by the person specifying means 220. It is determined whether or not H2 (step S24, step S25).
). Here, the known person means that the person data of the person is stored in the person
割り込んだ人が人H2以外の人である場合には(ステップS24でNo、または、ステップS24でYesかつステップS25でNo)、ロボットRAは、その人に応じた挨拶(発話およびジェスチャ)を行う(ステップS26)。そして、人がロボットの移動経路外に移動すると(ステップS27でYes)、移動を再開する。
ロボットRAが挨拶してから所定時間経過しても人がどかない場合には(ステップS27でNo)、ロボットRAは、人(以下、人H3と称する)がタスクを依頼しようとしていると判定し、「何か御用ですか」と発話し、コミュニケーション結果取得手段213が、マイクMC,MCおよび音声認識部を介して人の発話に伴う音声データを取得し、取得した音声データをロボット管理装置3に出力する(ステップS28)。なお、本実施形態では、人H3は、位置Cまでの案内といったタスクを依頼したものとする。
If the interrupted person is a person other than the person H2 (No in step S24, or Yes in step S24 and No in step S25), the robot RA performs a greeting (speech and gesture) according to the person. (Step S26). When the person moves out of the movement path of the robot (Yes in step S27), the movement is resumed.
If the person does not reach even after a predetermined time has elapsed since the robot RA greeted (No in step S27), the robot RA determines that the person (hereinafter referred to as person H3) is about to request a task. The communication
ロボット管理装置3のタスクデータ生成手段414は、取得した音声データと、ロボットRAの現在位置データまたはロボットRAが取得した人H3の現在位置データと、に基づいて、「人H3を現在位置から位置Cまで案内する」といった内容のタスクデータを生成する。タスクスケジューリング手段412は、新たに生成されたタスクデータと、ロボットRA,RBの現在位置データおよびタスク実行状況データと、タスクデータ記憶部370に記憶された未実行または実行中のタスクデータと、に基づいて、タスクの再スケジューリングを行う。そして、実行命令信号生成手段413は、この再スケジューリング結果に基づいて、ロボットRA,RBに対する実行命令信号を生成し、出力する。
ここでは、ロボットRAの実行命令信号がロボットRAに現在実行中の物品運搬を継続させるものであり、ロボットRBの実行命令信号がロボットRBに人H3の案内を実行させるものであるとする。
The task data generation means 414 of the
Here, it is assumed that the execution command signal of the robot RA causes the robot RA to continue carrying the article currently being executed, and the execution command signal of the robot RB causes the robot RB to perform guidance of the person H3.
そして、人H2の通常居場所P2に到着すると(ステップS29でYes)、ロボットRは移動を中止し、人H2の探索を開始する(ステップS41)。 When the robot R arrives at the normal location P2 of the person H2 (Yes in step S29), the robot R stops moving and starts searching for the person H2 (step S41).
対象検知部120で人H2のタグ識別番号を検知すると(ステップS42でYes)、ロボットRは、カメラC,Cで人H2の画像を取得し、人H2の正面に移動する
When the
なお、対象検知部120が、所定時間に人H2のタグ識別番号を検知することができなかった場合には(ステップS46でYes)、ロボットRAは、物品Mをタスク実行エリアEA内に設けられた物品置き場B1(図1参照)へと運搬することになる。
If the
受渡位置に移動したロボットRは、物品Mを把持した把持部71(71R,71L)を差し出し、物品Mの受渡を行う(ステップS43)。 The robot R that has moved to the delivery position presents the gripper 71 (71R, 71L) that grips the article M, and delivers the article M (step S43).
物品Mの受渡が完了すると(ステップS44でYes)、ロボットRAは、行動管理手段210でタスク実行終了を伝える行動報告信号を生成し、ロボット管理装置3へ出力すすると共に、受渡位置からホームポジションまでの移動を行う(ステップS45)。
When the delivery of the article M is completed (Yes in step S44), the robot RA generates an action report signal for notifying the end of task execution by the action management unit 210, and outputs the action report signal to the
続いて、ロボットRの物品置き場B1への移動について説明する。ロボットRAが、所定時間に人H2の探索ができなかった場合には(ステップS46でYes)、ロボットRAは、人H2の通常居場所P2から物品置き場B1への移動を行う(ステップS47)。
そして、ロボットRAは、物品置き場B1に物品Mを置くと共に(ステップS48)、物品Mを物品置き場B1に置いた旨を伝える行動報告信号を生成し、ロボット管理装置3および人H2専用の端末5へ出力する(ステップS49)。そして、ロボットRは物品置き場B1からホームポジションまでの移動を行う(ステップS50)。
Next, the movement of the robot R to the article storage place B1 will be described. If the robot RA cannot search for the person H2 at the predetermined time (Yes in step S46), the robot RA moves from the normal location P2 of the person H2 to the article storage place B1 (step S47).
Then, the robot RA puts the article M in the article storage place B1 (step S48), generates an action report signal indicating that the article M has been placed in the article storage place B1, and the
このように、本発明の実施形態に係るロボット制御システムによれば、タスク実行中のロボットが、タスク依頼のユーザインターフェースとなるので、人によるタスク依頼が容易となる。また、ロボットを介してタスク依頼がなされた場合であっても、ロボットの現在位置およびタスク実行状況に基づいて、タスクの再スケジューリングを行うことができ、優先度の高いタスクの割り込みが可能となる。 As described above, according to the robot control system according to the embodiment of the present invention, a task-executed robot serves as a user interface for task requests, so that task requests by humans are facilitated. In addition, even when a task is requested via a robot, the task can be rescheduled based on the current position of the robot and the task execution status, and a task with a high priority can be interrupted. .
以上、本発明の実施形態について説明したが、本発明は前記した実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜設計変更可能である。
例えば、ロボット制御システムは、ロボット管理装置に記憶部を備え、ロボットが必要とするデータを適宜送信する構成としたが、ロボットが記憶部を備え、この記憶部に必要なデータを記憶する構成であってもよい。
また、タスクのスケジューリング手法も、前記した手法に限定されない。
The embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be appropriately changed in design without departing from the gist of the present invention.
For example, the robot control system has a configuration in which the robot management device includes a storage unit and appropriately transmits data required by the robot, but the robot includes a storage unit and stores the necessary data in the storage unit. There may be.
Also, the task scheduling method is not limited to the above-described method.
また、コミュニケーションによるタスクデータの生成に音声データを利用する構成としたが、画像データから人のジェスチャを認識し、このジェスチャに対応するタスクデータを生成する構成であってもよい。 In addition, although voice data is used for generating task data by communication, a configuration may be used in which a human gesture is recognized from image data and task data corresponding to the gesture is generated.
また、人がロボットの移動経路に所定時間存在した場合にロボットが人とコミュニケーションを行いタスクデータを生成する構成としたが、タスクデータを生成するためのコミュニケーションの開始タイミングはこれに限定されず、例えば、人がロボットに所定の言葉(例えば、「お願いします。」など、)をかけ、ロボットが音声認識部でこの言葉を認識することによってコミュニケーションを開始する構成であってもよい。また、人が所定のジェスチャ(例えば、「右手を挙げて左右に振る」など)を行い、ロボットが画像処理部でこのジェスチャを認識することによってコミュニケーションを開始する構成であってもよい。また、ロボットが常にコミュニケーションを行っており、常時音声データまたは
画像データをタスクデータ生成手段に送る構成であってもよい。
また、タスクデータ生成手段がロボットの制御部内に設けられる構成であってもよい。
In addition, the robot communicates with the person and generates task data when the person exists in the movement path of the robot for a predetermined time, but the communication start timing for generating the task data is not limited to this, For example, a configuration may be adopted in which a person puts a predetermined word (for example, “Please please”) on the robot, and the robot starts communication by recognizing the word by a voice recognition unit. In addition, a configuration may be adopted in which communication is started when a person performs a predetermined gesture (for example, “right hand and shake left and right”) and the robot recognizes this gesture by the image processing unit. Further, the robot may always communicate, and the voice data or the image data may be sent to the task data generation unit at all times.
Moreover, the structure by which a task data generation means is provided in the control part of a robot may be sufficient.
3 ロボット管理装置
112 音声認識部
211 現在位置データ生成手段
212 実行状況データ生成手段
213 コミュニケーション結果取得手段
220 人特定手段
320 地図データ記憶部
370 タスクデータ記憶部
412 タスクスケジューリング手段
413 実行命令信号生成手段
414 タスクデータ生成手段
A ロボット制御システム
MC マイク
R,RA,RB ロボット
DESCRIPTION OF
Claims (2)
前記ロボットに実行させるタスクに関するタスクデータを記憶するタスクデータ記憶部と、前記タスクデータに基づいて、タスクのスケジューリングを行うタスクスケジューリング手段と、スケジューリング結果に基づいて、前記自律移動ロボットにタスクを実行させる実行命令信号を生成する実行命令信号生成手段と、前記ロボットとの通信を行う通信手段と、を備えたロボット管理装置と、
を備え、前記実行命令信号に基づいて前記ロボットにタスクを実行させるロボット制御システムであって、
前記ロボット管理装置は、前記コミュニケーション手段によるコミュニケーション結果に基づいて、タスクデータを生成するタスクデータ生成手段をさらに備え、
前記タスクスケジューリング手段は、コミュニケーション結果に基づいて新たにタスクデータが生成された場合に、前記ロボットの現在位置データおよび実行状況データに基づいて、タスクの再スケジューリングを行い、
前記実行命令信号生成手段は、再スケジューリング結果に基づいて、実行命令信号の再生成を行い、
前記ロボットがタスクを実行するタスク実行エリアに関する地図データを記憶する地図データ記憶部と、
前記ロボットに設けられた、物品を把持する把持部と、
をさらに備え、
前記ロボットは、前記地図データおよび前記実行命令信号に基づいて、物品を前記把持部によって把持し、運搬し、
前記ロボットは、前記実行命令信号に基づいて、物品を受け渡す人を特定する人特定手段を備え、
前記人特定手段が、所定時間内に物品を受け渡す人を特定できない場合に、前記ロボットは、前記地図データに基づいて、所定の場所に物品を運搬し、この所定の場所に物品を置くとともに、物品を前記所定の場所に置いた旨を伝える行動報告信号を、前記物品を受け渡す人の端末へ出力する
ことを特徴とするロボット制御システム。 Autonomous movement means for performing autonomous movement, communication means for communicating with humans, current position data generating means for generating current position data relating to the current position, and execution situation data generation for generating execution situation data relating to the task execution situation A robot comprising: means and communication means for communicating with the robot management device;
A task data storage unit for storing task data related to a task to be executed by the robot; task scheduling means for scheduling a task based on the task data; and causing the autonomous mobile robot to execute a task based on a scheduling result A robot management device comprising: an execution command signal generating means for generating an execution command signal; and a communication means for communicating with the robot;
A robot control system for causing the robot to execute a task based on the execution command signal,
The robot management apparatus further includes task data generation means for generating task data based on a communication result by the communication means,
The task scheduling means reschedules the task based on the current position data and execution status data of the robot when task data is newly generated based on the communication result,
The execution instruction signal generation means regenerates the execution instruction signal based on the rescheduling result ,
A map data storage unit that stores map data related to a task execution area in which the robot executes a task;
A gripping part for gripping an article provided in the robot;
Further comprising
Based on the map data and the execution command signal, the robot grips and conveys an article by the gripping unit,
The robot includes a person specifying means for specifying a person who delivers an article based on the execution command signal,
When the person identification unit cannot identify a person who delivers the article within a predetermined time, the robot transports the article to a predetermined place based on the map data, and places the article at the predetermined place. A robot control system that outputs an action report signal indicating that an article has been placed at the predetermined location to a terminal of a person who delivers the article .
前記タスクデータ生成手段は、前記音声認識部による認識結果に基づいて、タスクデータを生成する
ことを特徴とする請求項1に記載のロボット制御システム。 The communication means includes a microphone that collects ambient sounds, and a speech recognition unit that recognizes speech from the collected sounds,
The robot control system according to claim 1, wherein the task data generation unit generates task data based on a recognition result by the voice recognition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361581A JP4580226B2 (en) | 2004-12-14 | 2004-12-14 | Robot control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004361581A JP4580226B2 (en) | 2004-12-14 | 2004-12-14 | Robot control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006167840A JP2006167840A (en) | 2006-06-29 |
JP4580226B2 true JP4580226B2 (en) | 2010-11-10 |
Family
ID=36669121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004361581A Expired - Fee Related JP4580226B2 (en) | 2004-12-14 | 2004-12-14 | Robot control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4580226B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110144850A1 (en) * | 2008-01-16 | 2011-06-16 | Takashi Jikihara | Moving apparatus, moving method of moving apparatus, and movement control program of moving apparatus |
JP2015080836A (en) * | 2013-10-22 | 2015-04-27 | 三菱重工業株式会社 | Autonomous search system, operation terminal, mobile search device, and search control method |
WO2016067467A1 (en) * | 2014-10-31 | 2016-05-06 | 三菱電機株式会社 | Robot control device, robot system, robot control method, and program |
JP7051556B2 (en) | 2018-04-25 | 2022-04-11 | 株式会社日立製作所 | Service provision system, information processing device, and control method of service provision system |
CN109895093A (en) * | 2018-12-08 | 2019-06-18 | 浙江国自机器人技术有限公司 | Task management method for IDC robot |
CN110780651B (en) * | 2019-11-01 | 2022-07-08 | 四川长虹电器股份有限公司 | AGV dispatching system and method |
CN113220426B (en) * | 2021-04-02 | 2024-04-12 | 北京猎户星空科技有限公司 | Task processing method and device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345435A (en) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | Robot and robot system |
JP2004216528A (en) * | 2003-01-16 | 2004-08-05 | Matsushita Electric Works Ltd | Personal service robot and method of creating work plan for the same |
-
2004
- 2004-12-14 JP JP2004361581A patent/JP4580226B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345435A (en) * | 2002-05-24 | 2003-12-05 | Mitsubishi Heavy Ind Ltd | Robot and robot system |
JP2004216528A (en) * | 2003-01-16 | 2004-08-05 | Matsushita Electric Works Ltd | Personal service robot and method of creating work plan for the same |
Also Published As
Publication number | Publication date |
---|---|
JP2006167840A (en) | 2006-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4317518B2 (en) | Goods transport system | |
US10093020B2 (en) | Robot apparatus and method of controlling robot apparatus | |
US7330775B2 (en) | Legged mobile robot controller, legged mobile robot and legged mobile robot control method | |
JP4658892B2 (en) | Mobile robot, mobile robot control device, mobile robot control method, and mobile robot control program | |
JP4856510B2 (en) | Mobile robot | |
JP4276624B2 (en) | Robot control apparatus, robot control method, and robot control program | |
JP4751192B2 (en) | Mobile robot | |
JP4266211B2 (en) | Robot device, method of moving robot device, and program | |
EP2068275A2 (en) | Communication robot | |
JP2007160440A (en) | Control device of legged mobile robot | |
JP2007260822A (en) | Guide robot | |
JP4608472B2 (en) | Mobile robot and mobile robot controller | |
JP4787813B2 (en) | Detection target detection system | |
JP2003079685A (en) | Auxiliary appliance for walking of visually handicapped person | |
JP2013111726A (en) | Robot apparatus, method of controlling the same, and computer program | |
JP4580226B2 (en) | Robot control system | |
US20220080599A1 (en) | Robot controlling system | |
JP5613114B2 (en) | Distributed control system | |
JP4918469B2 (en) | Mobile robot | |
JP2007185763A (en) | Controller of legged mobile robot | |
US20220130066A1 (en) | Robot controlling system | |
JP4281286B2 (en) | Robot apparatus and control method thereof | |
JP5171394B2 (en) | Mobile robot | |
JP2016022537A (en) | robot | |
JP7190919B2 (en) | Image analysis system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100824 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100827 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130903 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4580226 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140903 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |