JP4580226B2 - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP4580226B2
JP4580226B2 JP2004361581A JP2004361581A JP4580226B2 JP 4580226 B2 JP4580226 B2 JP 4580226B2 JP 2004361581 A JP2004361581 A JP 2004361581A JP 2004361581 A JP2004361581 A JP 2004361581A JP 4580226 B2 JP4580226 B2 JP 4580226B2
Authority
JP
Japan
Prior art keywords
robot
task
unit
data
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004361581A
Other languages
Japanese (ja)
Other versions
JP2006167840A (en
Inventor
直亮 住田
慎一 松永
太郎 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004361581A priority Critical patent/JP4580226B2/en
Publication of JP2006167840A publication Critical patent/JP2006167840A/en
Application granted granted Critical
Publication of JP4580226B2 publication Critical patent/JP4580226B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットにタスクを実行させるためのロボット制御システムに関する。   The present invention relates to a robot control system for causing a robot to execute a task.

近年、自律移動可能なロボットにタスク(受付、案内、物品の運搬など)の実行命令を入力し、ロボットにタスクを実行させるシステムが開発されている。   2. Description of the Related Art In recent years, a system has been developed in which an execution command for a task (reception, guidance, article transportation, etc.) is input to an autonomously movable robot, and the robot executes the task.

特許文献1に記載のロボットシステムは、ロボットが入力部を備えており、人がロボットの入力部を介して実行命令を入力することが可能なシステムである。
特開2003−345435号公報(段落0020〜0053、図1〜図3)
The robot system described in Patent Document 1 is a system in which a robot includes an input unit, and a person can input an execution command via the input unit of the robot.
JP 2003-345435 A (paragraphs 0020 to 0053, FIGS. 1 to 3)

しかしながら、特許文献1に記載のロボットシステムは、現時点でタスクを実行していないロボットが利用者からのタスクを受けることを想定したシステムであり、タスク実行中のロボットがタスクを受ける場合については開示されていない。
また、新たにロボットが受けたタスクと、既に受けて未実行であるタスクとをどのような順序で実行するか、といったタスク実行順序の最適化についても開示されていない。
However, the robot system described in Patent Document 1 is a system that assumes that a robot that is not currently executing a task receives a task from a user, and a case where a robot that is executing a task receives a task is disclosed. It has not been.
Further, the optimization of the task execution order such as the order in which tasks newly received by the robot and tasks already received and not executed are executed is not disclosed.

本発明は、前記した問題を解決すべく創案されたものであり、タスク実行中のロボットがタスクを依頼された場合であっても、好適に対応することが可能なロボット制御システムを提供することを課題とする。   The present invention was devised to solve the above-described problems, and provides a robot control system capable of suitably responding even when a task-executing robot is requested to perform a task. Is an issue.

前記課題を解決するため、本発明の請求項1に記載の発明は、自律移動を行う自律移動手段と、人とのコミュニケーションを行うコミュニケーション手段と、現在位置に関する現在位置データを生成する現在位置データ生成手段と、タスクの実行状況に関する実行状況データを生成する実行状況データ生成手段と、ロボット管理装置との通信を行う通信手段と、を備えたロボットと、前記ロボットに実行させるタスクに関するタスクデータを記憶するタスクデータ記憶部と、前記タスクデータに基づいて、タスクのスケジューリングを行うタスクスケジューリング手段と、スケジューリング結果に基づいて、前記自律移動ロボットにタスクを実行させる実行命令信号を生成する実行命令信号生成手段と、前記ロボットとの通信を行う通信手段と、を備えたロボット管理装置と、を備え、前記実行命令信号に基づいて前記ロボットにタスクを実行させるロボット制御システムであって、前記ロボット管理装置は、前記コミュニケーション手段によるコミュニケーション結果に基づいて、タスクデータを生成するタスクデータ生成手段をさらに備え、前記タスクスケジューリング手段は、コミュニケーション結果に基づいて新たにタスクデータが生成された場合に、前記ロボットの現在位置データおよび実行状況データに基づいて、タスクの再スケジューリングを行い、前記実行命令信号生成手段は、再スケジューリング結果に基づいて、実行命令信号の再生成を行い、前記ロボットがタスクを実行するタスク実行エリアに関する地図データを記憶する地図データ記憶部と、前記ロボットに設けられた、物品を把持する把持部と、をさらに備え、前記ロボットは、前記地図データおよび前記実行命令信号に基づいて、物品を前記把持部によって把持し、運搬し、前記ロボットは、前記実行命令信号に基づいて、物品を受け渡す人を特定する人特定手段を備え、前記人特定手段が、所定時間内に物品を受け渡す人を特定できない場合に、前記ロボットは、前記地図データに基づいて、所定の場所に物品を運搬し、この所定の場所に物品を置くとともに、物品を前記所定の場所に置いた旨を伝える行動報告信号を、前記物品を受け渡す人の端末へ出力することを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 of the present invention is an autonomous moving means for performing autonomous movement, a communication means for communicating with a person, and current position data for generating current position data relating to the current position. A robot comprising: a generating means; an execution status data generating means for generating execution status data relating to the task execution status; and a communication means for communicating with the robot management device; and task data relating to a task to be executed by the robot. A task data storage unit for storing; task scheduling means for scheduling a task based on the task data; and an execution command signal generating for generating an execution command signal for causing the autonomous mobile robot to execute a task based on a scheduling result Means for communicating with said robot And a robot control system for causing the robot to execute a task based on the execution command signal, wherein the robot management device performs a task based on a communication result by the communication means. Task data generating means for generating data, and the task scheduling means, when new task data is generated based on a communication result, based on the current position data and execution status data of the robot, A map data storage unit that performs rescheduling, the execution command signal generation means regenerates an execution command signal based on a rescheduling result, and stores map data related to a task execution area in which the robot executes a task; , The robot A gripping part for gripping an article, and the robot grips and transports the article by the gripping part based on the map data and the execution command signal. Based on the execution command signal, the robot includes a person specifying unit that specifies a person who delivers the article. When the person identifying unit cannot identify a person who delivers the article within a predetermined time, the robot adds the map data to the map data. Based on this, the article is transported to a predetermined place, the article is placed at the predetermined place, and an action report signal indicating that the article has been placed at the predetermined place is output to the terminal of the person who delivers the article. It is characterized by that.

また、請求項2に記載の発明は、請求項1に記載のロボット制御システムであって、前記コミュニケーション手段は、周囲の音を集音するマイクと、集音された音から音声を認識する音声認識部と、を備え、前記タスクデータ生成手段は、前記音声認識部による認識結果に基づいて、タスクデータを生成することを特徴とする。   The invention according to claim 2 is the robot control system according to claim 1, wherein the communication means is a microphone that collects ambient sounds, and a voice that recognizes a voice from the collected sounds. A task recognition unit configured to generate task data based on a recognition result obtained by the voice recognition unit.

本発明によれば、タスク実行中のロボットがタスクを依頼された場合であっても、新たなタスクを含めて再スケジューリングを行うことができ、タスクの実行順序の最適化を図ることが可能なロボット制御システムを提供することができる。   According to the present invention, even when a robot that is executing a task is requested to perform a task, rescheduling can be performed including a new task, and the task execution order can be optimized. A robot control system can be provided.

以下、本発明の実施形態について、本発明の物品運搬システムを、オフィスをタスク実行エリアとし、オフィス内におけるタスク(物品運搬、案内など)実行に適用したロボット制御システムを例にとり、適宜図面を参照しながら説明する。同様の部分には同一符号を付し、重複する説明を省略する。   Hereinafter, with respect to the embodiments of the present invention, a robot control system in which the article transportation system of the present invention is applied to the execution of tasks (article transportation, guidance, etc.) in the office with the office as a task execution area will be referred to as appropriate. While explaining. Similar parts are denoted by the same reference numerals, and redundant description is omitted.

(ロボット制御システムAの構成)
はじめに、本発明の実施形態に係るロボット制御システムAについて説明する。図1は、本発明の実施形態に係るロボット制御システムを示すシステム構成図である。
図1に示すように、ロボット制御システムAは、タスク実行エリアEAに配置された1台以上(本実施形態では2台)のロボットR(RA,RB)と、これらロボットRA,RBと無線通信によって接続された基地局(例えば、無線LAN)1と、基地局1にルーター2を介して接続されたロボット管理装置(例えば、サーバー)3と、ロボット管理装置3にネットワーク4を介して接続された端末5と、検知対象(人)Hが装着した検知用タグTと、を備えている。
(Configuration of robot control system A)
First, a robot control system A according to an embodiment of the present invention will be described. FIG. 1 is a system configuration diagram showing a robot control system according to an embodiment of the present invention.
As shown in FIG. 1, the robot control system A includes one or more (two in this embodiment) robots R (RA, RB) arranged in the task execution area EA, and wireless communication with these robots RA, RB. Connected to the base station 1 (eg, wireless LAN) 1, the robot management device (eg, server) 3 connected to the base station 1 via the router 2, and the robot management device 3 via the network 4. Terminal 5 and a detection tag T worn by a detection target (person) H.

ロボットRは、タスク実行エリアEAに配置されており、タスク実行エリアEA内において自律移動を行い、実行命令信号に基づいてタスク(物品運搬)を実行するものである。なお、このタスク実行エリアEA内には、物品置き場B1が設けられている。ロボットRは、物品を受け渡す人を発見できなかった場合などには、物品置き場B1に物品を置くことができる。   The robot R is arranged in the task execution area EA, performs autonomous movement in the task execution area EA, and executes a task (article transportation) based on an execution command signal. An article storage area B1 is provided in the task execution area EA. When the robot R cannot find a person who delivers the article, the robot R can place the article in the article storage place B1.

ロボット管理装置3は、後記する端末5から入力されるタスクデータに基づき、ロボットRにタスクを実行させるため、このタスクの内容を含む実行命令信号を生成し、ロボットRに出力する。このタスクデータは、ロボットRに実行させるタスクに関するデータであり、例えば、ロボットRに物品を渡す人、ロボットRが物品を渡す人、運搬する物品の種類などを含んでいる。   The robot management device 3 generates an execution command signal including the contents of the task and outputs it to the robot R in order to cause the robot R to execute the task based on task data input from the terminal 5 described later. This task data is data relating to a task to be executed by the robot R, and includes, for example, a person who delivers an article to the robot R, a person who delivers the article to the robot R, and the type of article to be conveyed.

端末5は、ロボット管理装置3にタスクデータを入力するための入力装置であり、デスクトップ型コンピュータ、PHSなどである。また、端末5は、ロボットRから送られたタスク完了報告信号をオペレータが確認可能に出力するための出力(表示)装置でもある。   The terminal 5 is an input device for inputting task data to the robot management device 3, and is a desktop computer, PHS or the like. The terminal 5 is also an output (display) device for outputting a task completion report signal sent from the robot R so that the operator can confirm it.

(ロボットRの構成)
続いて、本発明の実施形態に係るロボットRについて説明する。以下の説明において、ロボットRの前後方向にX軸、左右方向にY軸、上下方向にZ軸をとる(図2参照)。
本発明の実施形態に係るロボットRは、自律移動型の2足移動ロボットである。このロボットRは、ロボット管理装置3から送信された実行命令信号に基づき、タスクを実行するものである。
(Configuration of robot R)
Next, the robot R according to the embodiment of the present invention will be described. In the following description, the robot R has an X axis in the front-rear direction, a Y axis in the left-right direction, and a Z axis in the up-down direction (see FIG. 2).
The robot R according to the embodiment of the present invention is an autonomous mobile biped mobile robot. The robot R executes a task based on the execution command signal transmitted from the robot management device 3.

図2は、図1のロボットの外観を示す模式図である。図2に示すように、ロボットRは、人間と同じように2本の脚部R1(1本のみ図示)により起立、移動(歩行、走行など)し、上体部R2、2本の腕部R3(1本のみ図示)および頭部R4を備え、自律して移動する。また、ロボットRは、これら脚部R1、上体部R2、腕部R3および頭部R4の動作を制御する制御装置搭載部R5を背負う形で背中(上体部R2の後部)に備えている。   FIG. 2 is a schematic diagram showing the appearance of the robot of FIG. As shown in FIG. 2, the robot R stands up and moves (walks, runs, etc.) with two legs R1 (only one is shown) like a human being, and has an upper body R2, two arms. R3 (only one is shown) and a head R4 are provided and move autonomously. Further, the robot R is provided on the back (rear part of the upper body part R2) in a form of carrying a control device mounting part R5 for controlling the operations of the leg part R1, the upper body part R2, the arm part R3 and the head part R4. .

(ロボットRの駆動構造)
続いて、ロボットRの駆動構造について説明する。図3は、図1のロボットの駆動構造を模式的に示す斜視図である。なお、図3における関節部は、当該関節部を駆動する電動モータにより示されている。
(Robot R drive structure)
Next, the drive structure of the robot R will be described. FIG. 3 is a perspective view schematically showing the drive structure of the robot of FIG. In addition, the joint part in FIG. 3 is shown by the electric motor which drives the said joint part.

(脚部R1)
図3に示すように、左右それぞれの脚部R1は、6個の関節部11R(L)〜16R(L)を備えている。左右12個の関節は、股部(脚部R1と上体部R2との連結部分)の脚部回旋用(Z軸まわり)の股関節部11R,11L(右側をR、左側をLとする。また、R,Lを付さない場合もある。以下同じ。)、股部のピッチ軸(Y軸)まわりの股関節部12R,12L、股部のロール軸(X軸)まわりの股関節部13R,13L、膝部のピッチ軸(Y軸)まわりの膝関節部14R,14L、足首のピッチ軸(Y軸)まわりの足首関節部15R,15L、および、足首のロール軸(X軸)まわりの足首関節部16R,16Lから構成されている。そして、脚部R1の下には足部17R,17Lが取り付けられている。
(Leg R1)
As shown in FIG. 3, the left and right leg portions R1 include six joint portions 11R (L) to 16R (L). The twelve left and right joints have hip joint portions 11R and 11L (R on the right side and L on the left side) for leg rotation (around the Z axis) of the crotch portion (the connecting portion between the leg portion R1 and the upper body portion R2). R and L may not be attached. The same applies hereinafter.), Hip joint portions 12R and 12L around the pitch axis (Y axis) of the crotch portion, hip joint portions 13R around the roll axis (X axis) of the crotch portion, 13L, knee joints 14R and 14L around the knee pitch axis (Y axis), ankle joints 15R and 15L around the ankle pitch axis (Y axis), and ankle around the ankle roll axis (X axis) It consists of joint portions 16R and 16L. And foot 17R, 17L is attached under leg R1.

すなわち、脚部R1は、股関節部11R(L),12R(L),13R(L)、膝関節部14R(L)および足首関節部15R(L),16R(L)を備えている。股関節部11R(L)〜13R(L)と膝関節部14R(L)とは大腿リンク21R,21Lで、膝関節部14R(L)と足首関節部15R(L),16R(L)とは下腿リンク22R,22Lで連結されている。   That is, the leg portion R1 includes hip joint portions 11R (L), 12R (L), 13R (L), a knee joint portion 14R (L), and ankle joint portions 15R (L), 16R (L). The hip joint portions 11R (L) to 13R (L) and the knee joint portion 14R (L) are thigh links 21R and 21L, and the knee joint portion 14R (L) and the ankle joint portions 15R (L) and 16R (L). The lower leg links 22R and 22L are connected.

(上体部R2)
図3に示すように、上体部R2は、ロボットRの基体部分であり、脚部R1、腕部R2および頭部R4と連結されている。すなわち、上体部R2(上体リンク53)は、股関節部11R(L)〜13R(L)を介して脚部R1と連結されている。また、上体部R2は、後記する肩関節部31R(L)〜33R(L)を介して腕部R3と連結されている。また、上体部R2は、後記する首関節部41,42を介して頭部R4と連結されている。
また、上体部R2は、上体回旋用(Z軸まわり)の関節部21を備えている。
(Upper body part R2)
As shown in FIG. 3, the upper body portion R2 is a base portion of the robot R, and is connected to the leg portion R1, the arm portion R2, and the head portion R4. That is, the upper body portion R2 (upper body link 53) is connected to the leg portion R1 via the hip joint portions 11R (L) to 13R (L). The upper body R2 is connected to the arm R3 via shoulder joints 31R (L) to 33R (L) described later. The upper body portion R2 is connected to the head portion R4 via neck joint portions 41 and 42 to be described later.
The upper body R2 includes a joint 21 for upper body rotation (around the Z axis).

(腕部R3)
図3に示すように、左右それぞれの腕部R3は、7個の関節部31R(L)〜37R(L)を備えている。左右14個の関節部は、肩部(腕部R3と上体部R2との連結部分)のピッチ軸(Y軸)まわりの肩関節部31R,31L、肩部のロール軸(X軸)まわりの肩関節部32R,32L、腕部回旋用(Z軸まわり)の肩関節部33R,33L、肘部のピッチ軸(Y軸)まわりの肘関節部34R,34L、手首回旋用(Z軸まわり)の腕関節部35R,35L、手首のピッチ軸(Y軸)まわりの手首関節部36R,36L、および手首のロール軸(X軸)まわりの手首関節部37R,37Lから構成されている。そして、腕部R3の先端には把持部(ハンド)71R,71Lが取り付けられている。
(Arm R3)
As shown in FIG. 3, each of the left and right arm portions R3 includes seven joint portions 31R (L) to 37R (L). The 14 joints on the left and right are shoulder joints 31R and 31L around the pitch axis (Y axis) of the shoulder (the connecting part of the arm R3 and the upper body R2), and around the roll axis (X axis) of the shoulder. Shoulder joints 32R, 32L, shoulder joints 33R, 33L for arm rotation (around the Z axis), elbow joints 34R, 34L around the pitch axis (Y axis) of the elbow, wrist rotation (around the Z axis) Arm joint portions 35R, 35L, wrist joint portions 36R, 36L around the wrist pitch axis (Y axis), and wrist joint portions 37R, 37L around the wrist roll axis (X axis). And grip part (hand) 71R, 71L is attached to the front-end | tip of arm part R3.

すなわち、腕部R3は、肩関節部31R(L),32R(L),33R(L)、肘関節部34R(L)、腕関節部35R(L)および手首関節部36R(L),37R(L)を備えている。肩関節部31R(L)〜33R(L)とは肘関節部34R(L)とは上腕リンク54R(L)で、肘関節部34R(L)と手首関節部36R(L),37R(L)とは前腕リンク55R(L)で連結されている。   That is, the arm portion R3 includes the shoulder joint portions 31R (L), 32R (L), 33R (L), the elbow joint portion 34R (L), the arm joint portion 35R (L), and the wrist joint portions 36R (L), 37R. (L). The shoulder joint portions 31R (L) to 33R (L) are the elbow joint portions 34R (L) and the upper arm links 54R (L). The elbow joint portions 34R (L) and the wrist joint portions 36R (L) and 37R (L) ) Is connected by a forearm link 55R (L).

(頭部R4)
図3に示すように、頭部R4は、首部(頭部R4と上体部R2との連結部分)のY軸まわりの首関節部41と、首部のZ軸まわりの首関節部42と、を備えている。首関節部41は頭部R4のチルト角を設定するためのものであり、首関節部42は頭部R4のパンを設定するためのものである。
(Head R4)
As shown in FIG. 3, the head R4 includes a neck joint portion 41 around the Y axis of the neck portion (a connection portion between the head portion R4 and the upper body portion R2), a neck joint portion 42 around the Z axis of the neck portion, It has. The neck joint 41 is for setting the tilt angle of the head R4, and the neck joint 42 is for setting the pan of the head R4.

このような構成により、左右の脚部R1は合計12の自由度を与えられ、移動中に12個の関節部11R(L)〜16R(L)を適宜な角度で駆動することで、脚部R1に所望の動きを与えることができ、ロボットRが任意に3次元空間を移動することができる。また、左右の腕部R3は合計14の自由度を与えられ、14個の関節部31R(L)〜37R(L)を適宜な角度で駆動することで、ロボットRが所望の作業を行うことができる。   With such a configuration, the left and right leg portions R1 are given a total of 12 degrees of freedom, and the 12 joint portions 11R (L) to 16R (L) are driven at an appropriate angle during movement, so that the leg portions A desired movement can be given to R1, and the robot R can arbitrarily move in the three-dimensional space. The left and right arm portions R3 are given a total of 14 degrees of freedom, and the robot R performs a desired work by driving the 14 joint portions 31R (L) to 37R (L) at appropriate angles. Can do.

また、足首関節部15R(L),16R(L)と足部17R(L)との間には、公知の6軸力センサ61R(L)が設けられている。6軸力センサ61R(L)は、床面からロボットRに作用する床反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。   A known 6-axis force sensor 61R (L) is provided between the ankle joint portions 15R (L), 16R (L) and the foot portion 17R (L). The six-axis force sensor 61R (L) detects the three-direction components Fx, Fy, Fz of the floor reaction force acting on the robot R from the floor surface and the three-direction components Mx, My, Mz of the moment.

また、手首関節部36R(L),37R(L)と把持部71R(L)との間には、公知の6軸力センサ62R(L)が設けられている。6軸力センサ62R(L)は、ロボットRの把持部38R(L)に作用する反力の3方向成分Fx,Fy,Fzと、モーメントの3方向成分Mx,My,Mzと、を検出する。   Further, a known six-axis force sensor 62R (L) is provided between the wrist joint portions 36R (L), 37R (L) and the grip portion 71R (L). The six-axis force sensor 62R (L) detects the three-direction components Fx, Fy, Fz of the reaction force acting on the grip portion 38R (L) of the robot R and the three-direction components Mx, My, Mz of the moment. .

また、上体部R2には、傾斜センサ63が設けられている。傾斜センサ63は、上体部R2の重力軸(Z軸)に対する傾きと、その角速度と、を検出する。
また、各関節部の電動モータは、その出力を減速・増力する減速機(図示せず)を介して前記した大腿リンク51R(L)、下腿リンク52R(L)などを相対変位させる。これら各関節部の角度は、関節角度検出手段(例えば、ロータリエンコーダ)によって検出される。
Further, an inclination sensor 63 is provided in the upper body portion R2. The inclination sensor 63 detects the inclination of the upper body part R2 with respect to the gravity axis (Z axis) and its angular velocity.
The electric motors at the joints relatively displace the above-described thigh link 51R (L), crus link 52R (L) and the like via a speed reducer (not shown) that decelerates and increases the output. The angles of these joint portions are detected by a joint angle detection means (for example, a rotary encoder).

制御装置搭載部R5は、後記する自律移動制御部150、把持部制御部160、無線通信部170、主制御部200、バッテリ(図示せず)などを収納している。各センサ61〜63などの検出データは、制御装置等細部R5内の各制御部に送られる。また、各電動モータは、各制御部からの駆動指示信号により駆動される。   The control device mounting unit R5 houses an autonomous movement control unit 150, a gripping unit control unit 160, a wireless communication unit 170, a main control unit 200, a battery (not shown) and the like which will be described later. The detection data of each sensor 61-63 etc. is sent to each control part in details R5, such as a control apparatus. Each electric motor is driven by a drive instruction signal from each control unit.

図4は、図1のロボットを示すブロック図である。図4に示すように、ロボットRは、脚部R1、腕部R2および頭部R4に加えて、カメラC,C、スピーカS、マイクMC,MC、画像処理部100、音声処理部110、対象検知部120、自律移動制御部150、把持部制御部160、無線通信部170および主制御部200を備えている。   FIG. 4 is a block diagram showing the robot of FIG. As shown in FIG. 4, in addition to the leg R1, the arm R2, and the head R4, the robot R includes cameras C and C, speakers S, microphones MC and MC, an image processing unit 100, an audio processing unit 110, and a target. A detection unit 120, an autonomous movement control unit 150, a gripping unit control unit 160, a wireless communication unit 170, and a main control unit 200 are provided.

また、ロボットRは、ジャイロセンサSR1およびGPS受信器SR2を備えている。
ジャイロセンサSR1は、ロボットRの向きに関するデータ(向きデータ)を検出する。また、GPS受信器SR2は、ロボットRの位置に関するデータ(位置データ)を検出する。ジャイロセンサSR1およびGPS受信器SR2が検出したデータは、主制御部200に出力され、ロボットRの行動を決定するために利用されると共に、主制御部200から無線通信部170を介してロボット管理装置3に送信される。
The robot R includes a gyro sensor SR1 and a GPS receiver SR2.
The gyro sensor SR1 detects data (orientation data) related to the orientation of the robot R. The GPS receiver SR2 detects data (position data) related to the position of the robot R. The data detected by the gyro sensor SR1 and the GPS receiver SR2 is output to the main control unit 200, used to determine the behavior of the robot R, and managed by the robot from the main control unit 200 via the wireless communication unit 170. It is transmitted to the device 3.

[カメラ]
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部100に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R4の内部に配設される。
[camera]
The cameras C and C are capable of capturing video as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the image processing unit 100. The cameras C and C, the speaker S, and the microphones MC and MC are all disposed inside the head R4.

[画像処理部]
画像処理部100は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部100は、ステレオ処理部101、移動体抽出部102および顔認識部103を備えている。
[Image processing unit]
The image processing unit 100 is a part for recognizing surrounding obstacles and persons in order to process images taken by the cameras C and C and grasp the situation around the robot R from the taken images. The image processing unit 100 includes a stereo processing unit 101, a moving body extraction unit 102, and a face recognition unit 103.

ステレオ処理部101は、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部102に出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。   The stereo processing unit 101 performs pattern matching on the basis of one of the two images taken by the left and right cameras C and C, calculates the parallax of each corresponding pixel in the left and right images, and generates a parallax image. The generated parallax image and the original image are output to the moving object extraction unit 102. This parallax represents the distance from the robot R to the photographed object.

移動体抽出部102は、ステレオ処理部101から出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体は人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部102は、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、その位置に人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部103へ移動体の画像を出力する。
The moving object extraction unit 102 extracts a moving object in the captured image based on the data output from the stereo processing unit 101. The reason why the moving object (moving body) is extracted is to recognize the person by estimating that the moving object is a person.
In order to extract a moving object, the moving object extraction unit 102 stores images of several past frames (frames), and compares the latest frame (image) with a past frame (image), Pattern matching is performed, the movement amount of each pixel is calculated, and a movement amount image is generated. Then, from the parallax image and the movement amount image, when there is a pixel with a large movement amount within a predetermined distance range from the cameras C and C, it is estimated that there is a person at that position, and only the predetermined distance range A moving object is extracted as a parallax image, and an image of the moving object is output to the face recognition unit 103.

顔認識部103は、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部200に出力されると共に、無線通信部170に出力されて、基地局1を介して、ロボット管理装置3に送信される。
The face recognizing unit 103 extracts a skin color portion from the extracted moving object, and recognizes the position of the face from the size, shape, and the like. Similarly, the position of the hand is also recognized from the skin color area, size, shape, and the like.
The recognized face position is output to the main control unit 200 and the wireless communication unit 170 as information when the robot R moves and to communicate with the person. 1 is sent to the robot management apparatus 3 via

[スピーカ]
スピーカSは、後記する音声合成部111により生成された音声データに基づき、音声を出力する。
[Speaker]
The speaker S outputs a sound based on the sound data generated by the sound synthesizer 111 described later.

[マイク]
マイクMC,MCは、ロボットRの周囲の音を集音するものである。集音された音は、後記する音声認識部112および音源定位部113に出力される。
[Microphone]
The microphones MC and MC collect sounds around the robot R. The collected sound is output to a voice recognition unit 112 and a sound source localization unit 113 described later.

[音声処理部]
音声処理部110は、音声合成部111、音声認識部112および音源定位部113を備えている。
[Audio processor]
The voice processing unit 110 includes a voice synthesis unit 111, a voice recognition unit 112, and a sound source localization unit 113.

音声合成部111は、主制御部200の発話行動決定手段270(図12参照)が決定し、出力してきた発話行動の指令に基づき、文字情報から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶している文字情報と音声データとの対応関係を利用する。   The voice synthesizer 111 generates voice data from the character information based on the utterance action command determined by the utterance action determination unit 270 (see FIG. 12) of the main control unit 200 and outputs the voice data to the speaker S. It is a part to do. For the generation of the voice data, the correspondence between the character information stored in advance and the voice data is used.

音声認識部112は、マイクMC,MCから音声データが入力され、予め記憶している音声データと文字情報との対応関係に基づき、音声データから文字情報を生成し、主制御部200に出力するものである。   The voice recognition unit 112 receives voice data from the microphones MC and MC, generates character information from the voice data based on the correspondence between the voice data stored in advance and the character information, and outputs the character information to the main control unit 200. Is.

音源定位部113は、マイクMC,MC間の音圧差および音の到達時間差に基づいて、音源の位置(ロボットRからの距離および方向)を特定する。   The sound source localization unit 113 specifies the position of the sound source (distance and direction from the robot R) based on the sound pressure difference between the microphones MC and MC and the sound arrival time difference.

[対象検知部]
続いて、図4の対象検知部120と、検知用タグTと、について、図5ないし図8を参照して説明する。図5は、図4の対象検知部を示すブロック図である。図6は、図1の検知用タグを示すブロック図である。図7は、対象検知部による探索域を説明するための図であり、(a)は平面図、(b)は側面図である。図8は、対象検知部による周辺領域のエリア分けを説明するための図である。
対象検知部120は、ロボットRの周囲に検知用タグTを備える検知対象Hが存在するか否かを検知すると共に、検知対象Hの存在が検知された場合、当該検知対象Hの位置を特定するものである。
[Target detection unit]
Next, the object detection unit 120 and the detection tag T in FIG. 4 will be described with reference to FIGS. FIG. 5 is a block diagram illustrating the object detection unit of FIG. FIG. 6 is a block diagram showing the detection tag of FIG. FIG. 7 is a diagram for explaining a search area by the object detection unit, where (a) is a plan view and (b) is a side view. FIG. 8 is a diagram for explaining area division of the peripheral region by the target detection unit.
The target detection unit 120 detects whether or not the detection target H including the detection tag T exists around the robot R, and specifies the position of the detection target H when the detection target H is detected. To do.

図5に示すように、この対象検知部120は、制御手段121、電波送受信手段122、発光手段123および記憶手段124を備えている。   As shown in FIG. 5, the target detection unit 120 includes a control unit 121, a radio wave transmission / reception unit 122, a light emitting unit 123, and a storage unit 124.

制御手段121は、後記する電波送受信手段122から無線送信される検索信号と、後記する発光手段123から赤外光として出力される方向検査信号とを生成すると共に、検索信号を受信した検知用タグTから送信された受信報告信号を基に、検知対象Hの位置を特定するものである。
ここで、検索信号とは、ロボットRの周囲に検知対象Hが存在するか否かを検知するための信号であり、方向検査信号とは、検知対象HがロボットRを基準としてどの方向に位置するのかを検知するための信号である。
また、受信報告信号とは、検知用タグTが、少なくとも検索信号を受信したことを示す信号である。
The control unit 121 generates a search signal wirelessly transmitted from the radio wave transmission / reception unit 122 to be described later and a direction inspection signal output as infrared light from the light emission unit 123 to be described later, and the detection tag that has received the search signal Based on the reception report signal transmitted from T, the position of the detection target H is specified.
Here, the search signal is a signal for detecting whether or not the detection target H exists around the robot R, and the direction inspection signal is the direction in which the detection target H is located with respect to the robot R. It is a signal for detecting whether to do.
The reception report signal is a signal indicating that the detection tag T has received at least the search signal.

この制御手段121は、データ処理部121a、暗号化部121b、時分割部121c、復号化部121dおよび電界強度検出部121eを備えている。   The control unit 121 includes a data processing unit 121a, an encryption unit 121b, a time division unit 121c, a decryption unit 121d, and an electric field strength detection unit 121e.

データ処理部121aは、検索信号および方向検査信号を生成すると共に、検知対象Hの位置を特定するものであり、信号生成部121a1および位置特定部121a2を備えている。 The data processing unit 121a is configured to generate a search signal and the direction checking signal, which specifies the position of the sensing object H, and a signal generating unit 121a 1 and a position specifying portion 121a 2.

信号生成部121a1は、所定時間毎に、若しくはロボットRの主制御部200から電波の発信を命令する信号(発信命令信号)が入力されるたびに、記憶手段124を参照して、対象検知部120が設けられたロボットRに固有の識別番号(以下、ロボットIDという)を取得する。
そして、信号生成部121a1は、当該ロボットIDと、受信報告要求信号とを含んで構成される検索信号を生成する。
ここで、受信報告要求信号とは、検索信号を受信した検知対象H(検知用タグT)に対して、当該検索信号を受信した旨を示す信号(受信報告信号)を生成するように要求する信号である。
The signal generation unit 121a 1 refers to the storage unit 124 every time a predetermined time or a signal (transmission command signal) for instructing transmission of radio waves is input from the main control unit 200 of the robot R. An identification number unique to the robot R provided with the unit 120 (hereinafter referred to as a robot ID) is acquired.
Then, the signal generation unit 121a 1 generates a search signal including the robot ID and the reception report request signal.
Here, the reception report request signal requests the detection target H (detection tag T) that has received the search signal to generate a signal (reception report signal) indicating that the search signal has been received. Signal.

さらに、信号生成部121a1は、この検索信号を生成する際に、後記する発光手段123から赤外線信号として照射される方向検査信号もまた生成する。
方向検査信号は、発光手段123に設けられた発光部(LED1〜LED8)の総てについて、個別に生成されるものであり、前記したロボットIDと、発光部を特定する識別子(発光部ID)を含んで構成される。
なお、この方向検査信号は、後記する復号化部121dから入力される受信報告信号に発光要求信号が含まれている場合にも生成される。
Further, when generating the search signal, the signal generator 121a 1 also generates a direction inspection signal emitted as an infrared signal from the light emitting means 123 described later.
The direction inspection signal is individually generated for all of the light emitting units (LED1 to LED8) provided in the light emitting unit 123, and the robot ID and the identifier (light emitting unit ID) for identifying the light emitting unit described above. It is comprised including.
This direction check signal is also generated when a light emission request signal is included in the reception report signal input from the decoding unit 121d described later.

本実施形態の場合、発光部が合計8つ設けられているので、データ処理部121aは、ロボットIDと発光部IDとから構成される方向検査信号を、合計8つ生成する。
例えば、ロボットIDが「02」であり、発光部(LED1〜LED8)の発光部IDが「L1〜L8」である場合、発光部LED1について生成される方向検索信号は、ロボットID=「02」と、発光部ID=「L1」とを含み、発光部LED2について生成される方向検査信号は、ロボットID=「02」と、発光部ID=「L2」とを含むことになる。
In the case of the present embodiment, since a total of eight light emitting units are provided, the data processing unit 121a generates a total of eight direction inspection signals composed of the robot ID and the light emitting unit ID.
For example, when the robot ID is “02” and the light emitting unit IDs of the light emitting units (LED1 to LED8) are “L1 to L8”, the direction search signal generated for the light emitting unit LED1 is the robot ID = “02”. And the direction inspection signal generated for the light emitting unit LED2 includes the robot ID = “02” and the light emitting unit ID = “L2”.

そして、信号生成部121a1は、方向検査信号と前記した検索信号とを、暗号化部121bに出力する。
なお、位置特定部121a2は、検索信号を受信した検知用タグTから送信された受信報告信号をもとに、検知対象Dの位置を特定するものであるが、その際にこの位置特定部121a2で行われる処理は、復号化部121dおよび電界強度検出部121eにおける処理と共に、後に詳細に説明する。
Then, the signal generation unit 121a 1 outputs the direction check signal and the search signal described above to the encryption unit 121b.
The position specifying unit 121a 2 specifies the position of the detection target D based on the reception report signal transmitted from the detection tag T that has received the search signal. The processing performed in 121a 2 will be described in detail later together with the processing in the decoding unit 121d and the electric field strength detection unit 121e.

暗号化部121bは、入力された信号を暗号化した後、出力するものである。そして、暗号化部121bは、検索信号の暗号化により得られた検索信号(暗号化検索信号)を、後記する電波送受信手段122に出力する。
これにより、暗号化検索信号は、変調されたのち、電波送受信手段122から無線送信されることになる。
The encryption unit 121b encrypts the input signal and then outputs it. Then, the encryption unit 121b outputs a search signal (encrypted search signal) obtained by encrypting the search signal to the radio wave transmitting / receiving unit 122 described later.
As a result, the encrypted search signal is modulated and then wirelessly transmitted from the radio wave transmission / reception means 122.

一方、暗号化部121bは、データ処理部121aから入力された方向検査信号を、同様にして暗号化する。そして、暗号化部121bは、方向検査信号の暗号化により得られた方向検査信号(暗号化方向検査信号)を、後記する時分割部121cに出力する。   On the other hand, the encryption unit 121b encrypts the direction check signal input from the data processing unit 121a in the same manner. Then, the encryption unit 121b outputs the direction check signal (encrypted direction check signal) obtained by encrypting the direction check signal to the time division unit 121c described later.

本実施の形態の場合、方向検査信号は、前記したデータ処理部121aにおいて発光手段123の発光部ごとに一つずつ生成される。
よって、図5に示すように、発光手段123には合計8つの発光部が設けられているので、暗号化部121bには、合計8つの方向検査信号がデータ処理部121aから入力される。
その結果、合計8つの暗号化方向検査信号がこの暗号化部121bにおいて生成され、時分割部121cに出力されることになる。
In the case of the present embodiment, one direction inspection signal is generated for each light emitting unit of the light emitting unit 123 in the data processing unit 121a.
Therefore, as shown in FIG. 5, since the light emitting means 123 is provided with a total of eight light emitting units, a total of eight direction check signals are input to the encryption unit 121b from the data processing unit 121a.
As a result, a total of eight encryption direction check signals are generated in the encryption unit 121b and output to the time division unit 121c.

時分割部121cは、発光手段123の各発光部(LED1〜LED8)の発光順序と、発光タイミングを設定するものである。
具体的には、暗号化部121bから暗号化方向検査信号が入力されると、時分割部121cは、各発光部(LED1〜LED8)の発光順序および発光タイミングを決定し、決定した発光順序および発光タイミングで、暗号化方向検査信号を発光手段123に出力する。
The time division part 121c sets the light emission order of each light emission part (LED1-LED8) of the light emission means 123, and the light emission timing.
Specifically, when the encryption direction inspection signal is input from the encryption unit 121b, the time division unit 121c determines the light emission order and the light emission timing of each light emitting unit (LED1 to LED8), and the determined light emission order and At the light emission timing, the encryption direction inspection signal is output to the light emitting means 123.

例えば、発光部LED1、発光部LED4、発光部LED7、発光部LED2、発光部LED5、発光部LED8、発光部LED3、そして発光部LED6の順番で、各発光部を0.5秒間隔で発光させる場合、時分割部83は、暗号化方向検査信号を0.5秒間隔で、発光部LED1の変調部、発光部LED4の変調部、発光部LED7の変調部、発光部LED2の変調部、発光部LED5の変調部、発光部LED8の変調部、発光部LED3の変調部、そして発光部LED6の変調部という順番で出力する。   For example, the light emitting units LED1, light emitting unit LED4, light emitting unit LED7, light emitting unit LED2, light emitting unit LED5, light emitting unit LED8, light emitting unit LED3, and light emitting unit LED6 are emitted in the order of 0.5 seconds. In this case, the time division unit 83 transmits the encryption direction inspection signal at intervals of 0.5 seconds, the modulation unit of the light emitting unit LED1, the modulation unit of the light emitting unit LED4, the modulation unit of the light emitting unit LED7, the modulation unit of the light emitting unit LED2, and the light emission. The light is output in the order of the modulation unit of the light emitting unit LED5, the modulation unit of the light emitting unit LED8, the modulation unit of the light emitting unit LED3, and the modulation unit of the light emitting unit LED6.

本実施の形態の場合、合計8つの暗号化方向検査信号が時分割部121cに入力される。そして、これら暗号化方向検査信号は、前記したデータ処理部121aにおいて、出力される発光部があらかじめ決められている。
したがって、時分割部121cは、暗号化方向検査信号が入力されると、暗号化方向検査信号に含まれる発光部IDを確認し、発光部IDにより特定される発光部に隣接する変調部に向けて、決められた順序およびタイミングで、暗号化方向検査信号を出力する。
例えば、発光部(LED1〜LED8)の発光部IDが「L1〜L8」で規定される場合、時分割部121cは、発光部IDが「L1」である暗号化方向検査信号を、発光部LED1に隣接する変調部に出力し、発光部IDが「L2」である暗号化方向検査信号を、発光部LED2に隣接する変調部に出力することになる。
In the case of the present embodiment, a total of eight encryption direction inspection signals are input to the time division unit 121c. In the data processing unit 121a, the light emitting unit that outputs these encryption direction inspection signals is determined in advance.
Therefore, when the encrypted direction check signal is input, the time division unit 121c confirms the light emitting unit ID included in the encrypted direction check signal and directs it to the modulation unit adjacent to the light emitting unit specified by the light emitting unit ID. Thus, the encryption direction check signal is output in the determined order and timing.
For example, when the light emitting unit IDs of the light emitting units (LED1 to LED8) are defined by “L1 to L8”, the time division unit 121c sends the encryption direction inspection signal having the light emitting unit ID “L1” to the light emitting unit LED1. Is output to the modulation unit adjacent to the light emitting unit LED2, and the encryption direction inspection signal whose light emitting unit ID is “L2” is output to the modulation unit adjacent to the light emitting unit LED2.

発光手段123は、ロボットRを基準として当該ロボットRの周囲において予め設定された探索域に向けて光を照射するものである。
発光手段123は、複数の発光部(LED1〜LED8)と、各発光部に対応させて設けられた変調部と、を備えている。
The light emitting means 123 emits light toward a search area set in advance around the robot R with the robot R as a reference.
The light emitting means 123 includes a plurality of light emitting units (LED1 to LED8) and a modulation unit provided corresponding to each light emitting unit.

変調部は、時分割部121cから入力された暗号化方向検査信号を、所定の変調方式で変調し、変調信号とするものである。
発光部は、変調信号を赤外線信号(赤外光)として、予め決められた探索域に向けて照射するものである。
The modulation unit modulates the encryption direction check signal input from the time division unit 121c with a predetermined modulation method to obtain a modulation signal.
The light emitting unit emits the modulation signal as an infrared signal (infrared light) toward a predetermined search area.

本実施形態では、検知対象Hの位置を特定するために、ロボットRの周囲の領域が複数の探索域に区分されている(図7(a)参照)。そして、この探索域に向けて赤外光を発光する発光部として、発光ダイオードが探索域毎に一つずつ用意されている。   In this embodiment, in order to specify the position of the detection target H, the area around the robot R is divided into a plurality of search areas (see FIG. 7A). One light emitting diode is prepared for each search area as a light emitting unit that emits infrared light toward the search area.

具体的には、図7(a)に示す例の場合、ロボットRを中心として、全周方向、すなわち360度方向に、合計8つの探索域D1〜D8が設定されている。
言い換えると、ロボットRを中心として、ほぼ扇形の探索域D1〜D8がロボットRを取り囲むように複数設定されており、ロボットRは、これら扇形の探索域で囲まれた領域のほぼ中心に位置している。
Specifically, in the case of the example shown in FIG. 7A, a total of eight search areas D1 to D8 are set around the robot R in the entire circumferential direction, that is, in the 360 degree direction.
In other words, a plurality of substantially fan-shaped search areas D1 to D8 are set around the robot R so as to surround the robot R, and the robot R is positioned approximately at the center of the area surrounded by the fan-shaped search areas. ing.

したがって、図7(a)に示す例の場合、各探索域に向けて赤外光の照射が可能となるように、ロボットRの頭部R3には、その外周に沿って合計8つの発光部が、それぞれ対応する探索域に向けて設けられている。   Therefore, in the example shown in FIG. 7A, the head R3 of the robot R has a total of eight light emitting units along its outer periphery so that infrared light can be irradiated toward each search area. Are provided for the corresponding search areas.

また、図7(a)から明らかなように、ロボットRの正面側の探索域D1〜D3は、他の探索域D4〜D8に比べて狭くなるように設定されている。   As is clear from FIG. 7A, the search areas D1 to D3 on the front side of the robot R are set to be narrower than the other search areas D4 to D8.

このように探索域D1〜D8を設定するのは、ロボットRが検知対象Hを検知し、検知対象Hの方向に顔を向ける動作を行う時に、ロボットRの顔の正面(これを視線の方向という)と、検知対象Hの位置とのズレが生じると、ロボットRの視線が自分の方を向いていないと検知対象Hが感じる場合があるという問題を解決するためである。
ここで、この問題を解決する方法の一つとして、探索域の数を多くするという方法が考えられる。しかし、必ずしも全周の探索域の数を増やす必要はなく、前方のみの探索域を増やして、前方側の位置特定を細かくできるようにすることで、検知対象Hの位置する方向にロボットRの視線の方向を向けることができる。また、こうすることにより、発光部の数を少なく構築できる。
The search areas D1 to D8 are set in this way when the robot R detects the detection target H and performs an operation of turning the face in the direction of the detection target H (the direction of the line of sight). This is to solve the problem that the detection target H may feel that the line of sight of the robot R is not facing the user when a deviation from the position of the detection target H occurs.
Here, as a method of solving this problem, a method of increasing the number of search areas can be considered. However, it is not always necessary to increase the number of search areas around the entire circumference, and by increasing the search area only in the front so that the position of the front side can be specified in detail, the robot R can move in the direction in which the detection target H is located. The direction of the line of sight can be turned. In addition, by doing this, the number of light emitting units can be reduced.

そのため、本実施の形態の場合、ロボットRの正面側の探索域D1〜D3の赤外光の照射範囲を狭くすることで、ロボットRの正面側にある探索域D1〜D3内における検知対象Hの位置をより正確に特定できるようにしているのである。
これにより、検知対象Hが人であり、かつロボットRのカメラC,Cで人の顔の撮像を行う場合に、ロボットRの正面側における検知対象Hの位置特定をより正確に行って、ロボットRの移動制御やカメラC,Cの画角の調整に反映させることができるので、ロボットRのカメラC,Cを、検知対象Hである人の顔の正面にきちんと位置させることが可能となる。
Therefore, in the case of the present embodiment, the detection target H in the search areas D1 to D3 on the front side of the robot R is reduced by narrowing the infrared light irradiation range of the search areas D1 to D3 on the front side of the robot R. The position of can be specified more accurately.
As a result, when the detection target H is a person and the human face is imaged by the cameras C and C of the robot R, the position of the detection target H on the front side of the robot R is more accurately specified, and the robot Since it can be reflected in the movement control of R and the adjustment of the angle of view of the cameras C and C, the cameras C and C of the robot R can be properly positioned in front of the face of the person who is the detection target H. .

図5に示すように、電波送受信手段122は、ロボットRの周辺領域に向けて電波を発信すると共に、当該電波を受信した検知対象Hから送信された受信報告信号を受信するものである。
この電波送受信手段122は、変調部122aと、復調部122bと、送受信アンテナ122cと、を備えている。
As shown in FIG. 5, the radio wave transmission / reception unit 122 transmits a radio wave toward the peripheral region of the robot R and receives a reception report signal transmitted from the detection target H that has received the radio wave.
The radio wave transmitting / receiving unit 122 includes a modulation unit 122a, a demodulation unit 122b, and a transmission / reception antenna 122c.

変調部122aは、データ処理部121aから入力された検索信号(実際には、暗号化検索信号)を所定の変調方式で変調して変調信号とした後、これを、送受信アンテナ122cを介して無線送信するものである。   The modulation unit 122a modulates the search signal (actually the encrypted search signal) input from the data processing unit 121a with a predetermined modulation method to form a modulation signal, and then wirelessly transmits the modulation signal via the transmission / reception antenna 122c. To be sent.

復調部122bは、検知対象Hの検知用タグTから無線送信された変調信号を、送受信アンテナ122cを介して受信し、受信した変調信号の復調により、受信報告信号(実際には、暗号化受信報告信号)を取得するものである。
そして、この復調部122bは、取得した受信報告信号を、制御手段121の復号化部121dと電界強度検出部121eとに出力するものである。
The demodulator 122b receives the modulation signal wirelessly transmitted from the detection tag T of the detection target H via the transmission / reception antenna 122c, and receives the received report signal (actually, encrypted reception) by demodulating the received modulation signal. Report signal).
The demodulator 122b outputs the received reception report signal to the decoder 121d and the electric field strength detector 121e of the controller 121.

復号化部121dは、暗号化された受信報告信号である暗号化受信報告信号を復号化して、受信報告信号を取得し、取得した受信報告信号を、データ処理部121aに出力するものである。   The decryption unit 121d decrypts the encrypted reception report signal, which is an encrypted reception report signal, acquires the reception report signal, and outputs the acquired reception report signal to the data processing unit 121a.

本実施形態の場合、受信報告信号には、後に詳細に説明するが、発光部IDとロボットIDとタグ識別番号とが少なくとも含まれているので、復号化部121dは、これらをデータ処理部121aに出力することになる。
なお、受信報告信号に発光要求信号が含まれていた場合、この発光要求信号もまたデータ処理部121aに出力されることになる。
In the case of the present embodiment, the reception report signal will be described in detail later. However, since at least the light emitting unit ID, the robot ID, and the tag identification number are included, the decoding unit 121d uses these as the data processing unit 121a. Will be output.
If the light emission request signal is included in the reception report signal, this light emission request signal is also output to the data processing unit 121a.

電界強度検出部121eは、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122が受信した際に、当該変調信号の強度を求めるものである。
具体的には、電界強度検出部121eは、電波送受信手段122の復調部122bから入力された、暗号化受信報告信号の電力を検波し、この検波された電力の平均値を電界強度として求め、この求めた電界強度をデータ処理部121aに出力する。
The electric field intensity detection unit 121e obtains the intensity of the modulation signal when the radio wave transmission / reception unit 122 receives the modulation signal transmitted from the detection tag T of the detection target H.
Specifically, the electric field strength detection unit 121e detects the power of the encrypted reception report signal input from the demodulation unit 122b of the radio wave transmission / reception unit 122, obtains the average value of the detected power as the electric field strength, The obtained electric field strength is output to the data processing unit 121a.

データ処理部121aの位置特定部121a2は、検知対象Hの位置を特定するものである。
具体的には、検知対象Hの検知用タグTから送信された変調信号を電波送受信手段122において受信した際の、当該変調信号の電界強度から、ロボットRから検知対象Hまでの距離を求める。さらに、位置特定部121a2は、受信報告信号に含まれる発光部IDを参照して、検知対象Hが受信した光が、どの発光部から発光されたのかを特定し、特定された発光部の発光方向を、すなわち当該発光部に対応する探索域の方向を検知対象Hの存在する方向とみなし、検知対象Hの位置を特定するものである。
The position specifying unit 121a 2 of the data processing unit 121a specifies the position of the detection target H.
Specifically, the distance from the robot R to the detection target H is obtained from the electric field intensity of the modulation signal when the radio wave transmission / reception means 122 receives the modulation signal transmitted from the detection tag T of the detection target H. Further, the position specifying unit 121a 2 refers to the light emitting unit ID included in the reception report signal, specifies the light emitting unit from which the light received by the detection target H is emitted, and identifies the specified light emitting unit. The light emitting direction, that is, the direction of the search area corresponding to the light emitting unit is regarded as the direction in which the detection target H exists, and the position of the detection target H is specified.

本実施形態の場合、はじめに、位置特定部121a2は、復号化部121dから入力された受信報告信号の中からロボットIDを取得する。そして取得したロボットIDと記憶手段124に記憶されたロボットIDとを比較し、両ロボットIDが一致した場合、位置特定部121a2は、検知対象Hの位置の特定を開始する。 In the case of the present embodiment, first, the position identifying unit 121a 2 acquires the robot ID from the reception report signal input from the decoding unit 121d. The comparison was a robot ID stored robot ID and the storage unit 124 obtains, when both robots ID match, the position specifying unit 121a 2 starts a particular position of the detection object H.

また、本実施形態の場合、図8に示すように、ロボットRの周辺領域は、ロボットRからの距離に応じて4つのエリアに区分されている。すなわち、ロボットRからの距離が短い順に、エリアD11、エリアD12、エリアD13、そしてエリアD14と定義されている。
この各エリアと電界強度とは、電界強度の大きさを基準として予め関連づけられており、この関連づけを示すテーブル(距離テーブル)が、記憶手段124に記憶されている。
In the case of the present embodiment, as shown in FIG. 8, the peripheral area of the robot R is divided into four areas according to the distance from the robot R. That is, area D11, area D12, area D13, and area D14 are defined in order of increasing distance from robot R.
Each area and the electric field strength are associated in advance with reference to the magnitude of the electric field strength, and a table (distance table) indicating the association is stored in the storage unit 124.

したがって、位置特定部121a2は、電界強度検出部121eから入力された電界強度をもとに、記憶手段124に記憶された距離テーブルを参照し、受信報告信号を発信した検知対象Hがどのエリアにいるのかを示す情報(エリア情報)を取得する。
例えば、電界強度検出部121eから入力された電界強度が、エリアD13を規定する閾値間の値である場合、位置特定部121a2は、エリアD13を示す情報(エリア情報)を取得する。
Therefore, the position specifying unit 121a 2 refers to the distance table stored in the storage unit 124 based on the electric field strength input from the electric field strength detecting unit 121e, and to which area the detection target H that has transmitted the reception report signal is. Get information (area information) that indicates whether you are in
For example, when the electric field intensity input from the electric field intensity detection unit 121e is a value between threshold values that define the area D13, the position specifying unit 121a 2 acquires information (area information) indicating the area D13.

さらに、位置特定部121a2は、復号化部121dから入力された受信報告信号に含まれる発光部IDを参照して、受信報告信号を送信した検知対象Hが、ロボットRの発光手段123のどの発光部から発光された光を受信したのかを特定し、特定された発光部の発光方向を示す情報(方向情報)を取得する。 Furthermore, the position specifying unit 121a 2 refers to the light emitting unit ID included in the reception report signal input from the decoding unit 121d, and the detection target H that has transmitted the reception report signal determines which of the light emitting means 123 of the robot R Whether the light emitted from the light emitting unit is received is specified, and information (direction information) indicating the light emitting direction of the specified light emitting unit is acquired.

本実施の形態の場合、図7(a)に示すように、ロボットRの周辺領域には、ロボットRを基準として合計8つの探索域D1〜D8が設定されている。
そして、記憶手段124には、各発光部がどの探索域に向けて設置されているのかを示すテーブル(方向テーブル)が記憶されている。
In the present embodiment, as shown in FIG. 7A, a total of eight search areas D1 to D8 are set in the peripheral area of the robot R with reference to the robot R.
The storage means 124 stores a table (direction table) indicating in which search area each light emitting unit is installed.

したがって、データ処理部121aは、発光部IDをもとに記憶手段124に記憶された方向テーブルを参照し、当該発光部IDを持つ発光部から発せられる赤外光が、予め設定された探索域D1〜D8のうち、どの領域に照射されるのかを確認する。そして、データ処理部121aは、確認された探索域を示す情報を、検知対象Hが存在する方向を示す情報(方向情報)として取得する。   Therefore, the data processing unit 121a refers to the direction table stored in the storage unit 124 based on the light emitting unit ID, and the infrared light emitted from the light emitting unit having the light emitting unit ID is set in a preset search area. It is confirmed which region of D1 to D8 is irradiated. Then, the data processing unit 121a acquires information indicating the confirmed search area as information (direction information) indicating the direction in which the detection target H exists.

そして、位置特定部121a2は、取得したエリア情報と方向情報とから検知対象Hの位置を示す情報(位置情報)を生成する。
これにより、ロボットRが受信した受信報告信号の強度と、この受信報告信号に含まれる発光部IDとから、ロボットRと検知対象Hとの位置関係が特定される。言い換えれば、検知対象Hが、ロボットRを基準としてどの方向に、どれだけ離れた位置に存在するのか、すなわち、検知対象Hの位置が特定される。
Then, the position specifying unit 121a 2 generates information (position information) indicating the position of the detection target H from the acquired area information and direction information.
Thereby, the positional relationship between the robot R and the detection target H is specified from the intensity of the reception report signal received by the robot R and the light emitting unit ID included in the reception report signal. In other words, in which direction and how far away the detection target H exists with respect to the robot R, that is, the position of the detection target H is specified.

そして、位置特定部121a2は、位置情報を、復号化部121dから入力された受信報告信号に含まれるタグ識別番号と共に、ロボットRの主制御部200に出力する。
これにより、ロボットRの主制御部200は、自律移動制御部150を制御して、ロボットRを検知対象Hの正面に移動させることや、検知対象Hが人である場合、カメラC,Cの仰角や向きを修正して、当該検知対象Hの顔の撮像を行うことが可能となる。
Then, the position specifying unit 121a 2 outputs the position information to the main control unit 200 of the robot R together with the tag identification number included in the reception report signal input from the decoding unit 121d.
Accordingly, the main control unit 200 of the robot R controls the autonomous movement control unit 150 to move the robot R to the front of the detection target H, or when the detection target H is a person, The face of the detection target H can be imaged by correcting the elevation angle and direction.

なお、受信報告信号に発光要求信号が含まれている場合、信号生成部121a1は方向検査信号を生成し、暗号化部121bに出力する。これにより、発光手段123の各発光部から赤外線信号が発光されることになる。 When the light emission request signal is included in the reception report signal, the signal generation unit 121a 1 generates a direction check signal and outputs it to the encryption unit 121b. Thereby, an infrared signal is emitted from each light emitting part of the light emitting means 123.

[検知用タグ]
検知用タグTは、ロボットRから送信された電波と、照射された光とを受信し、これらを受信したことを示す受信報告信号を、ロボットRに送信するものである。
本実施の形態では、検知用タグTが取り付けられた人が検知対象Hであるので、ロボットRから送信された電波と照射された光は、この検知用タグTにおいて受信される。よって、この検知用タグTについて以下に説明する。
[Detection tag]
The detection tag T receives the radio wave transmitted from the robot R and the irradiated light, and transmits a reception report signal indicating that they have been received to the robot R.
In the present embodiment, since the person to whom the detection tag T is attached is the detection target H, the radio wave transmitted from the robot R and the irradiated light are received by the detection tag T. Therefore, the detection tag T will be described below.

図6に示すように、この検知用タグTは、電波送受信手段125と、光受信手段126と、受信報告信号生成手段127と、記憶手段128と、を備えている。   As shown in FIG. 6, the detection tag T includes a radio wave transmission / reception unit 125, an optical reception unit 126, a reception report signal generation unit 127, and a storage unit 128.

電波送受信手段125は、ロボットRから無線送信された変調信号を受信すると共に、後記する受信報告信号生成手段127において生成された受信報告信号を、変調した後、ロボットRに向けて無線送信するものである。
この電波送受信手段125は、送受信アンテナ125aと、復調部125bと、変調部125cと、を備えている。
The radio wave transmission / reception unit 125 receives the modulation signal wirelessly transmitted from the robot R, modulates the reception report signal generated by the reception report signal generation unit 127 described later, and transmits the modulation signal wirelessly to the robot R It is.
The radio wave transmission / reception unit 125 includes a transmission / reception antenna 125a, a demodulation unit 125b, and a modulation unit 125c.

復調部125bは、ロボットRから発信されると共に、送受信アンテナ125aを介して受信した変調信号を復調し、検索信号(実際には、暗号化検索信号)を取得し、取得した検索信号を後記する受信報告信号生成手段127に出力するものである。   The demodulator 125b demodulates the modulated signal transmitted from the robot R and received via the transmission / reception antenna 125a, acquires a search signal (actually, an encrypted search signal), and describes the acquired search signal later. This is output to the reception report signal generating means 127.

変調部125cは、後記する受信報告信号生成手段127の暗号化部127cから入力された暗号化後の受信報告信号(暗号化受信報告信号)を変調して変調信号を生成すると共に、当該変調信号を、送受信アンテナ125aを介して、無線送信するものである。   The modulation unit 125c modulates the encrypted reception report signal (encrypted reception report signal) input from the encryption unit 127c of the reception report signal generation unit 127, which will be described later, to generate a modulation signal, and the modulation signal Is transmitted wirelessly via the transmission / reception antenna 125a.

光受信手段126は、ロボットRから照射された赤外光を受光するものである。
この光受信手段126は、受光部126aと、光復調部126bと、を備えている。
受光部126aは、ロボットRから照射された赤外光(赤外線信号)を直接受光するものである。
光復調部126bは、受光部126aにおいて受光した赤外線信号を復調して、方向検査信号(実際には、暗号化方向検査信号)を取得するものである。
The light receiving unit 126 receives infrared light emitted from the robot R.
The light receiving unit 126 includes a light receiving unit 126a and an optical demodulation unit 126b.
The light receiving unit 126a directly receives infrared light (infrared signal) emitted from the robot R.
The light demodulator 126b demodulates the infrared signal received by the light receiver 126a to obtain a direction check signal (actually an encrypted direction check signal).

具体的には、光受信手段126は、ロボットRから照射された赤外光を受光部126aで受光すると、受光した赤外線信号を光復調部126bにおいて復調して、暗号化方向検査信号を取得する。そして、取得した暗号化方向検査信号を受信報告信号生成手段127に出力する。   Specifically, when the light receiving unit 126 receives the infrared light emitted from the robot R by the light receiving unit 126a, the light receiving unit 126a demodulates the received infrared signal at the light demodulating unit 126b to obtain an encryption direction inspection signal. . Then, the acquired encryption direction inspection signal is output to the reception report signal generation means 127.

受信報告信号生成手段127は、ロボットRから発信された検索信号を電波送受信手段125で受信した場合、この検索信号に含まれる受信報告要求信号に従って、ロボットRから発信された検索信号を受信したことを示す信号(受信報告信号)を生成するものである。
この受信報告信号生成手段127は、復号化部127aと、データ処理部127bと、暗号化部127cと、を備えている。
The reception report signal generation means 127 has received the search signal transmitted from the robot R according to the reception report request signal included in the search signal when the radio wave transmission / reception means 125 receives the search signal transmitted from the robot R. Is generated (reception report signal).
The reception report signal generation means 127 includes a decryption unit 127a, a data processing unit 127b, and an encryption unit 127c.

復号化部127aは、入力された暗号化信号を復号化して、信号を取得するものである。
この復号化部127aは、電波送受信手段125から入力された暗号化検索信号と、光受信手段126から入力された暗号化方向検査信号とを復号化して、検索信号と方向検査信号とを取得する。そして、復号化部127aは、取得した検索信号と方向検査信号とを後段のデータ処理部127bに出力する。
The decryption unit 127a decrypts the input encrypted signal and acquires the signal.
The decryption unit 127a decrypts the encrypted search signal input from the radio wave transmission / reception unit 125 and the encrypted direction check signal input from the optical reception unit 126, and acquires the search signal and the direction check signal. . Then, the decoding unit 127a outputs the acquired search signal and direction check signal to the subsequent data processing unit 127b.

データ処理部127bは、受信報告信号を生成するものである。
ここで、本実施形態の場合、検索信号には、検索信号を発信したロボットRを特定する識別子であるロボットIDと、当該電波を受信した検知対象Hに対し、所定の処理を命ずる受信報告要求信号とが含まれている。
また、方向検査信号には、方向検査信号を発信したロボットRを特定する識別子であるロボットIDと、方向検査信号を発信した発光部を特定する発光部IDとが含まれている。
The data processing unit 127b generates a reception report signal.
Here, in the case of the present embodiment, the search signal includes a robot ID that is an identifier for identifying the robot R that has transmitted the search signal, and a reception report request that instructs the detection target H that has received the radio wave to perform predetermined processing. Signals are included.
The direction inspection signal includes a robot ID that is an identifier that identifies the robot R that has transmitted the direction inspection signal, and a light emitting unit ID that identifies the light emitting unit that has transmitted the direction inspection signal.

したがって、データ処理部127bは、検索信号が入力されると、この検索信号に含まれる受信報告要求信号に従って、この検知用タグTの光受信手段126を待機状態から起動状態にする。
そして、光受信手段126を起動状態にした後、所定時間経過するまでの間に方向検査信号が入力された場合、データ処理部127bは、方向検査信号に含まれるロボットIDと、検索信号に含まれるロボットIDとを比較する。
Therefore, when the search signal is input, the data processing unit 127b switches the optical reception unit 126 of the detection tag T from the standby state to the activated state according to the reception report request signal included in the search signal.
When the direction inspection signal is input before the predetermined time elapses after the light receiving unit 126 is activated, the data processing unit 127b includes the robot ID included in the direction inspection signal and the search signal. The robot ID is compared.

データ処理部127bは、両ロボットIDが一致した場合、記憶手段128を参照し、検知用タグTに割り当てられた固有の識別番号(タグ識別番号)を取得する。
続いて、データ処理部127bは、タグ識別番号と、検索信号に含まれていたロボットIDと、そして方向検査信号に含まれていた発光部IDとを含んで構成される受信報告信号を生成し、生成した受信報告信号を暗号化部127cに出力する。
When the robot IDs match, the data processing unit 127b refers to the storage unit 128 and acquires a unique identification number (tag identification number) assigned to the detection tag T.
Subsequently, the data processing unit 127b generates a reception report signal including the tag identification number, the robot ID included in the search signal, and the light emitting unit ID included in the direction inspection signal. The generated reception report signal is output to the encryption unit 127c.

一方、検知用タグTの光受信手段126を起動状態にした後、所定時間経過しても方向検査信号が入力されない場合、または検索信号に含まれていたロボットIDと方向検査信号に含まれていたロボットIDとが異なる場合、データ処理部127bは、発光要求信号をさらに含む受信報告信号を生成し、生成した受信報告信号を、暗号化部127cに出力する。
ここで、発光要求信号とは、検知装置であるロボットRに対して、赤外光を発光するように命令する信号である。
On the other hand, after the light receiving means 126 of the detection tag T is activated, the direction inspection signal is not input even after a predetermined time has elapsed, or the robot ID and the direction inspection signal included in the search signal are included. If the robot ID is different, the data processing unit 127b generates a reception report signal further including a light emission request signal, and outputs the generated reception report signal to the encryption unit 127c.
Here, the light emission request signal is a signal for instructing the robot R, which is a detection device, to emit infrared light.

暗号化部127cは、入力された受信報告信号を暗号化して、暗号化受信報告信号とした後、これを電波送受信手段125に出力する。
これにより、暗号化受信報告信号は、前記した電波送受信手段125の変調部125cにおいて変調された後、送受信アンテナ125aを介して、無線送信されることになる。
The encryption unit 127c encrypts the received reception report signal to obtain an encrypted reception report signal, and then outputs the encrypted reception report signal to the radio wave transmission / reception means 125.
As a result, the encrypted reception report signal is modulated by the modulation unit 125c of the radio wave transmission / reception means 125 and then wirelessly transmitted via the transmission / reception antenna 125a.

[床面検知部]
続いて、図4の床面検知部130について、図9および図10を参照して説明する。図9は、図4の床面検知部を示すブロック図である。図10は、床面検知部による撮像領域を説明するための図であり、(a)は平面図、(b)は側面図である。
[Floor surface detection unit]
Next, the floor surface detection unit 130 in FIG. 4 will be described with reference to FIGS. 9 and 10. FIG. 9 is a block diagram illustrating the floor surface detection unit of FIG. FIG. 10 is a diagram for explaining an imaging region by the floor surface detection unit, where (a) is a plan view and (b) is a side view.

図9に示すように、床面検知部130は、カメラC1,C1と、レーザ照射部131と、赤外線LED132と、制御部133と、切替回路134と、を備えている。   As shown in FIG. 9, the floor surface detection unit 130 includes cameras C1 and C1, a laser irradiation unit 131, an infrared LED 132, a control unit 133, and a switching circuit 134.

カメラC1,C1は、映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCDカメラが使用される。カメラC1,C1は、左右に平行に並んで配置され、撮影した画像は制御部133に出力される。このカメラC1,C1と、レーザ照射部131および赤外線LED132は、いずれも上体部R2の内部に配設される。このカメラC1,C1は、上体部R2の下端部に、ロボットRの前方下方の床面を撮像するために設けられたものであり、その撮像領域D21は、図10に示されている。   The cameras C1 and C1 can capture video as digital data, and for example, a color CCD camera is used. The cameras C1 and C1 are arranged side by side in parallel on the left and right, and the captured image is output to the control unit 133. The cameras C1 and C1, the laser irradiation unit 131, and the infrared LED 132 are all disposed inside the upper body R2. The cameras C1 and C1 are provided at the lower end of the upper body R2 in order to image the floor surface in front of the robot R. The imaging area D21 is shown in FIG.

レーザ照射部131は、レーザスリット光を撮像領域D21内に照射するためのものである。   The laser irradiation unit 131 is for irradiating the imaging region D21 with laser slit light.

赤外線LED132は、赤外光を撮像領域D21内に照射するためのものである。   The infrared LED 132 is for irradiating infrared light into the imaging region D21.

制御部133は、カメラC1,C1によって撮像された画像に基づいて、床面にある障害物を検出する。   The control unit 133 detects an obstacle on the floor based on images captured by the cameras C1 and C1.

床面に障害物がある場合には、レーザ照射部131によって照射されたレーザスリット光の反射光が、障害物の形状に沿って歪み、カメラC1,C1が、この歪みを撮像する。制御部133は、この歪みを検出することによって、ロボットRに対する障害物の位置や障害物の形状を検出する。この検出データは、主制御部200に出力される。   When there is an obstacle on the floor surface, the reflected light of the laser slit light emitted by the laser irradiation unit 131 is distorted along the shape of the obstacle, and the cameras C1 and C1 image this distortion. The control unit 133 detects the position of the obstacle and the shape of the obstacle with respect to the robot R by detecting this distortion. This detection data is output to the main control unit 200.

また、床面に再帰性反射材によるマーカがある場合には、赤外線LED132によって照射された赤外光がマーカによって反射され、カメラC1,C1が、この反射光を撮像する。制御部133は、この反射光を検出することによって、ロボットRに対するマーカの位置を検出する。この検出データは、主制御部200に出力される。   Further, when there is a marker made of a retroreflecting material on the floor surface, the infrared light irradiated by the infrared LED 132 is reflected by the marker, and the cameras C1 and C1 image the reflected light. The control unit 133 detects the position of the marker with respect to the robot R by detecting the reflected light. This detection data is output to the main control unit 200.

切替回路134は、制御部133からの切替信号に基づいて、レーザ照射部131および赤外線LED132のいずれか一方を起動状態とするための回路である。   The switching circuit 134 is a circuit for setting one of the laser irradiation unit 131 and the infrared LED 132 to an activated state based on a switching signal from the control unit 133.

制御部133は、切替回路134を切り替えるための切替信号を生成する。
制御部133は、GPS受信器SR1によって検出されたロボットRの位置データと、ジャイロセンサSR2によって検出されたロボットRの向きデータと、地図データに含まれるマーカの位置データと、に基づいて、ロボットRとマーカとの距離が所定値以下であり、かつ、ロボットRがマーカの方向に向いているか否かを判定する。この条件を満たした場合には、制御部133は、赤外線LED132を起動状態とするための切替信号を生成し、切替回路134に出力する。この条件を満たさない場合には、制御部133は、レーザ照射部131を起動状態とするための切替信号を生成し、切替回路134に出力する。
このようにすることで、ロボットRがマーカに近づいているときのみに赤外線LED132を駆動し、それ以外の場合にはレーザ照射部131を駆動することが可能となる。そのため、カメラC1,C1を障害物検知およびマーカ検知の両方に活用することが可能となる。すなわち、障害物検知用のカメラとマーカ検知用のカメラとを別体に設ける必要がなくなり、ロボットRの上体部R2内のスペースの有効利用が図られる。
The control unit 133 generates a switching signal for switching the switching circuit 134.
Based on the position data of the robot R detected by the GPS receiver SR1, the direction data of the robot R detected by the gyro sensor SR2, and the position data of the marker included in the map data, the control unit 133 It is determined whether the distance between R and the marker is equal to or less than a predetermined value and the robot R is facing the marker. When this condition is satisfied, the control unit 133 generates a switching signal for causing the infrared LED 132 to be activated, and outputs the switching signal to the switching circuit 134. When this condition is not satisfied, the control unit 133 generates a switching signal for bringing the laser irradiation unit 131 into an activated state and outputs the switching signal to the switching circuit 134.
By doing in this way, it becomes possible to drive the infrared LED 132 only when the robot R is approaching the marker, and to drive the laser irradiation unit 131 in other cases. Therefore, the cameras C1 and C1 can be used for both obstacle detection and marker detection. That is, it is not necessary to separately provide an obstacle detection camera and a marker detection camera, and the space in the upper body portion R2 of the robot R can be effectively used.

[障害物検知部]
続いて、図4の障害物検知部140について、図11および図12を参照して説明する。図11は、図4の障害物検知部を示すブロック図である。図12は、障害物検知部による検知領域を示す図であり、(a)は平面図、(b)は側面図である。
[Obstacle detection unit]
Next, the obstacle detection unit 140 in FIG. 4 will be described with reference to FIGS. 11 and 12. FIG. 11 is a block diagram illustrating the obstacle detection unit of FIG. FIG. 12 is a diagram illustrating a detection area by the obstacle detection unit, where (a) is a plan view and (b) is a side view.

図11に示すように、障害物検知部140は、6個の超音波センサ141a,141b,141c,141d,141e,141fと、制御部142と、を備えている。   As shown in FIG. 11, the obstacle detection unit 140 includes six ultrasonic sensors 141a, 141b, 141c, 141d, 141e, 141f, and a control unit 142.

超音波センサ141a〜141fは、送受兼用型のセンサであり、超音波を発生し、所定距離内に障害物(人などの移動体も含む)がある場合に生じる反射波を受信するためのセンサである。この超音波センサ141a〜141fは、上体部R2の内部に配設される。
超音波センサ141aは、ロボットRの前方の障害物を検知するためのものであり、その検知領域D31は、図12(a)、(b)に示されている。
超音波センサ141b〜141fは、ロボットRの側方〜後方の障害物を検知するためのものであり、その検知領域D32〜D36は、図12(a)に示されている。
すなわち、超音波センサ141aは検知領域D31(前方)を、超音波センサ141bは検知領域D32(右方)を、超音波センサ141cは検知領域D33(右後方)を、超音波センサ141dは検知領域D34(後方)を、超音波センサ141eは検知領域D35(左後方)を、超音波センサ141fは検知領域D36(左方)を、それぞれ検知する。
超音波センサ141a〜141fが障害物を検知した場合には、検知した超音波センサの識別番号を含む障害物検知連絡信号を制御部142に出力する。
The ultrasonic sensors 141a to 141f are transmission / reception sensors that generate ultrasonic waves and receive reflected waves generated when an obstacle (including a moving body such as a person) is within a predetermined distance. It is. The ultrasonic sensors 141a to 141f are disposed inside the upper body portion R2.
The ultrasonic sensor 141a is for detecting an obstacle in front of the robot R, and the detection region D31 is shown in FIGS. 12 (a) and 12 (b).
The ultrasonic sensors 141b to 141f are for detecting obstacles on the side and rear of the robot R, and the detection areas D32 to D36 are shown in FIG.
That is, the ultrasonic sensor 141a is the detection area D31 (front), the ultrasonic sensor 141b is the detection area D32 (right), the ultrasonic sensor 141c is the detection area D33 (right rear), and the ultrasonic sensor 141d is the detection area. D34 (rear), the ultrasonic sensor 141e detects the detection area D35 (left rear), and the ultrasonic sensor 141f detects the detection area D36 (left).
When the ultrasonic sensors 141 a to 141 f detect an obstacle, the obstacle detection communication signal including the identification number of the detected ultrasonic sensor is output to the control unit 142.

制御部142は、超音波センサ141a〜141fが出力した障害物検知連絡信号と、超音波センサ141a〜141fの配置方向を記憶したテーブルと、に基づいて、ロボットRの所定距離内どの方向に障害物があるのか、を判定する。超音波センサ141a〜141bが発生する超音波は透明な物質でも反射するので、障害物検知部140はガラスなどの透明な障害物も検知することができる。
この障害物の方向データは、主制御部200に出力される。
Based on the obstacle detection communication signal output from the ultrasonic sensors 141a to 141f and the table storing the arrangement directions of the ultrasonic sensors 141a to 141f, the control unit 142 detects the obstacle in which direction within the predetermined distance of the robot R. Determine if there is an object. Since the ultrasonic waves generated by the ultrasonic sensors 141a to 141b are reflected even by a transparent substance, the obstacle detection unit 140 can detect a transparent obstacle such as glass.
The obstacle direction data is output to the main control unit 200.

[自律移動制御部]
図4に示すように、自律移動制御部150は、頭部制御部151、腕部制御部152および脚部制御部153を備えている。
頭部制御部151は、主制御部200の指示に従い頭部R4を駆動し、腕部制御部152は、主制御部200の指示に従い腕部R2を駆動し、脚部制御部153は、主制御部200の指示に従い脚部R1を駆動する。これら自律移動制御部150、頭部R4、腕部R2および脚部R1の組み合わせが、特許請求の範囲における「自律移動手段(自律移動装置)」の一例である。
[Autonomous Movement Control Unit]
As shown in FIG. 4, the autonomous movement control unit 150 includes a head control unit 151, an arm control unit 152, and a leg control unit 153.
The head control unit 151 drives the head R4 according to the instruction from the main control unit 200, the arm control unit 152 drives the arm unit R2 according to the instruction from the main control unit 200, and the leg control unit 153 The leg portion R1 is driven according to the instruction of the control unit 200. The combination of the autonomous movement control unit 150, the head portion R4, the arm portion R2, and the leg portion R1 is an example of the “autonomous movement means (autonomous movement device)” in the claims.

[把持部制御部]
把持部制御部160は、主制御部200の指示に従い把持部71を駆動する。
[Grip part control part]
The gripping unit control unit 160 drives the gripping unit 71 in accordance with an instruction from the main control unit 200.

[無線通信部]
無線通信部170は、ロボット管理装置3とデータの送受信を行う通信装置である。無線通信部170は、公衆回線通信装置171および無線通信装置172を備えている。
公衆回線通信装置171は、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置172は、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部170は、ロボット管理装置3からの接続要求に従い、公衆回線通信装置171または無線通信装置172を選択してロボット管理装置3とデータ通信を行う。
[Wireless communication part]
The wireless communication unit 170 is a communication device that exchanges data with the robot management device 3. The wireless communication unit 170 includes a public line communication device 171 and a wireless communication device 172.
The public line communication device 171 is a wireless communication means using a public line such as a mobile phone line or a PHS (Personal Handyphone System) line. On the other hand, the wireless communication device 172 is a wireless communication unit using short-range wireless communication such as a wireless LAN conforming to the IEEE802.11b standard.
The wireless communication unit 170 performs data communication with the robot management apparatus 3 by selecting the public line communication apparatus 171 or the wireless communication apparatus 172 in accordance with a connection request from the robot management apparatus 3.

[把持部]
続いて、ロボットRの把持部71R(L)について、図13ないし図15を参照してさらに詳しく説明する。図13は、ロボットの把持部を示す斜視図であり、指開状態を示す図である。図14は、ロボットの把持部を示す斜視図であり、指閉状態を示す図である。図15は、ロボットの把持部、開度検出手段および6軸力センサを示すブロック図である。なお、一対の把持部71R,71Lは鏡面対称であり、図13および図14には、左側の把持部71Lが示されている。以下、場合により、R,Lを除いた符号を用いて説明する。
[Grip part]
Subsequently, the gripping portion 71R (L) of the robot R will be described in more detail with reference to FIGS. FIG. 13 is a perspective view showing a grip portion of the robot, and is a view showing a finger open state. FIG. 14 is a perspective view showing a grip portion of the robot, and is a view showing a finger closed state. FIG. 15 is a block diagram showing a robot gripping part, an opening degree detection means, and a six-axis force sensor. The pair of gripping portions 71R and 71L are mirror-symmetrical, and the left gripping portion 71L is shown in FIGS. Hereinafter, description will be made using symbols excluding R and L depending on cases.

図13および図14に示すように、把持部71は、掌部72と、第一指部73と、第二指部74と、を備えている。
掌部72は、手首関節部36,37を介して前腕リンク55に連結されている(図3参照)。
第一指部73は、人間の親指に相当する部分であり、第一指関節部73aを介して掌部72の基端側に連結されている。
第二指部74は、人間の示指、中指、環指、小指に相当する部分であり、第二指関節部74aを介して掌部72の先端側に連結されている。
また、掌部72内には、第一指部73を駆動するための第一指部用モータ73bと、第二指部74を駆動するための第二指部用モータ74bとが内蔵されている。また、掌部72には、第一指部角度α(第一指部73と掌部72との角度)を検出する第一指部角度検出手段83と、第二指部角度β(第二指部74と掌部72との角度)を検出する第二指部角度検出手段84と、が内蔵されている(図15参照)。
As shown in FIGS. 13 and 14, the gripping part 71 includes a palm part 72, a first finger part 73, and a second finger part 74.
The palm 72 is connected to the forearm link 55 via the wrist joints 36 and 37 (see FIG. 3).
The first finger portion 73 is a portion corresponding to a human thumb, and is connected to the proximal end side of the palm portion 72 via the first finger joint portion 73a.
The second finger portion 74 is a portion corresponding to a human index finger, middle finger, ring finger, and little finger, and is connected to the distal end side of the palm portion 72 via the second finger joint portion 74a.
In addition, the palm 72 includes a first finger motor 73 b for driving the first finger 73 and a second finger motor 74 b for driving the second finger 74. Yes. Further, the palm 72 includes a first finger angle detector 83 for detecting a first finger angle α (an angle between the first finger 73 and the palm 72), and a second finger angle β (second A second finger angle detecting means 84 for detecting the angle between the finger 74 and the palm 72 is incorporated (see FIG. 15).

第一指部角度αは、第一指部73と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第一指部角度αは、図13に示す指開状態(把持時全開)でα1、図13に示す指閉状態(把持時全閉)でα2である(α1≦α≦α2)。
第二指部角度βは、第二指部74と掌部72とがなす角度であり、指開状態から指閉状態に向かって大きくなる。この第二指部角度βは、図12に示す指開状態(把持時全開)でβ1(=0)、図14に示す指閉状態(把持時全閉)でβ2である(0≦β≦β2)。
1st finger part angle (alpha) is an angle which the 1st finger part 73 and the palm part 72 make, and becomes large toward a finger closed state from a finger open state. This first finger portion angle α is α 1 in the finger open state (fully opened during gripping) shown in FIG. 13, and α 2 in the finger closed state (fully closed during gripping) shown in FIG. 13 (α 1 ≦ α ≦ α 2 ).
The second finger part angle β is an angle formed by the second finger part 74 and the palm part 72 and increases from the finger open state toward the finger closed state. This second finger portion angle β is β 1 (= 0) in the finger open state (fully opened during gripping) shown in FIG. 12, and β 2 in the finger closed state (fully closed during gripping) shown in FIG. β ≦ β 2 ).

(主制御部200)
続いて、図4の主制御部200について、図16を参照して説明する。図16は、図4の主制御部を示すブロック図である。
(Main control unit 200)
Next, the main control unit 200 of FIG. 4 will be described with reference to FIG. FIG. 16 is a block diagram showing the main control unit of FIG.

(主制御部)
図16に示すように、主制御部200は、行動管理手段210、人特定手段220、移動行動決定手段230、挨拶行動決定手段240、受取/受渡行動決定手段250および計時手段260を備えている。
(Main control unit)
As shown in FIG. 16, the main control unit 200 includes a behavior management unit 210, a person identification unit 220, a movement behavior determination unit 230, a greeting behavior determination unit 240, a reception / delivery behavior determination unit 250, and a timing unit 260. .

(行動管理手段)
行動管理手段210は、ロボット管理装置3から送信された実行命令信号を取得し、この実行命令信号に基づき、人特定手段220、移動経路決定手段230、挨拶行動決定手段240および受取/受渡行動決定手段250を制御する。
また、行動管理手段210は、現在位置データ生成手段211、実行状況データ生成手段212およびコミュニケーション結果取得手段213を備えている。
また、現在位置データ生成手段211は、GPS受信器SR2によって検出されたロボットRの位置データに基づいてロボットRの現在位置を示す現在位置データを生成し、ロボット管理装置3に出力する。この現在位置データは、GPS受信器SR2によって検出されたロボットRの位置データにロボットRの識別番号を付与したものである。
実行状況データ生成手段212は、ロボットRの駆動状況に基づいて、ロボットRのタスク実行状況を報告するためのタスク実行状況データ(行動報告信号)を生成し、ロボット管理装置3に出力する。この実行状況データは、ロボットの実行状況にロボットRの識別番号を付与したものである。
例えば、ロボットRのタスクが物品の運搬である場合には、実行状況として以下のものが考えられる。
1 受取前
2 受取中
3 運搬中
4 受渡中
5 運搬完了
実行状況データ生成手段212は、ロボットRの状態(各モータの駆動状況など)に基づいて、ロボットRの実行状況を1〜5のいずれかに設定し、設定された実行状況を含む実行状況データを生成し、ロボット管理装置3に出力する。
コミュニケーション結果取得手段213は、ロボットが人とコミュニケーションすることによって取得したデータ(画像データ、音声データなど)を、ロボット管理装置3に出力する。コミュニケーション結果取得手段213は、ロボットRのタスク実行状況に関わらず、すなわち、ロボットRがタスクを実行中であってもコミュニケーション結果データを取得可能である。
また、行動管理手段210は、シナリオデータ要求信号を生成し、ロボット管理装置3に出力する。
(Behavior management means)
The behavior management unit 210 acquires the execution command signal transmitted from the robot management apparatus 3, and based on the execution command signal, the person identification unit 220, the movement route determination unit 230, the greeting behavior determination unit 240, and the reception / delivery behavior determination The means 250 is controlled.
In addition, the behavior management unit 210 includes a current position data generation unit 211, an execution status data generation unit 212, and a communication result acquisition unit 213.
The current position data generation unit 211 generates current position data indicating the current position of the robot R based on the position data of the robot R detected by the GPS receiver SR2, and outputs the current position data to the robot management apparatus 3. The current position data is obtained by adding the robot R identification number to the position data of the robot R detected by the GPS receiver SR2.
The execution status data generation unit 212 generates task execution status data (behavior report signal) for reporting the task execution status of the robot R based on the driving status of the robot R, and outputs the task execution status data to the robot management apparatus 3. This execution status data is obtained by adding the identification number of the robot R to the execution status of the robot.
For example, when the task of the robot R is transportation of an article, the following can be considered as the execution status.
DESCRIPTION OF SYMBOLS 1 Before receipt 2 In receipt 3 In delivery 4 In delivery 5 Delivery completion Execution status data generation means 212 changes the execution status of robot R to any one of 1 to 5 based on the status of robot R (the driving status of each motor, etc.). The execution status data including the set execution status is generated and output to the robot management apparatus 3.
The communication result acquisition unit 213 outputs data (image data, audio data, etc.) acquired by the robot communicating with the person to the robot management apparatus 3. The communication result acquisition unit 213 can acquire communication result data regardless of the task execution status of the robot R, that is, even when the robot R is executing a task.
In addition, the behavior management unit 210 generates a scenario data request signal and outputs it to the robot management apparatus 3.

なお、現在位置データおよびタスク実行状況データは定期的に生成され、ロボット管理装置3に出力される。   Note that the current position data and task execution status data are periodically generated and output to the robot management apparatus 3.

(人特定手段)
人特定手段220は、人データ記憶部310(図17参照)に記憶された人情報と、対象検知部120によって取得されたタグTのタグ識別番号と、に基づいて、対象検知部によって検知された人(検知対象)が誰であるかを特定する。人データ記憶部310には、その人の名前と、その人固有のタグTのタグ識別番号とが関連付けて記憶されているので、これらのデータと、実行命令信号とを参照することによって、ロボットR近傍にいる人が、タスク実行に関係ある人であるか否かを判定することができる。
さらに、人特定手段220は、移動体抽出部102で抽出された移動体の位置データと、対象検知部120で検知された検知対象の位置データと、に基づいて、カメラC,Cで撮像された移動体が誰であるかを特定する。
(Person identification method)
The person identifying unit 220 is detected by the target detection unit based on the human information stored in the human data storage unit 310 (see FIG. 17) and the tag identification number of the tag T acquired by the target detection unit 120. Who is the target person (detection target). The person data storage unit 310 stores the person's name and the tag identification number of the tag T unique to the person in association with each other, so that the robot can be referred to by referring to these data and the execution command signal. It is possible to determine whether a person in the vicinity of R is a person related to task execution.
Furthermore, the person specifying means 220 is imaged by the cameras C and C based on the position data of the moving object extracted by the moving object extraction unit 102 and the position data of the detection target detected by the target detection unit 120. Identify who the mobile is.

(移動行動決定手段)
移動行動決定手段230は、ロボットRの自律移動の内容を決定するためのものである。
移動経路決定手段231は、タスク実行命令信号と、ロボットRの位置データと、ロボットRの向きデータと、人データと、地図データと、に基づいて、ロボットRの移動経路を決定する。また、画像処理部100、床面検知部130および障害物検知部140のいずれかが障害物を検知した場合には、移動経路決定手段231は、検知した障害物を回避するように移動経路を生成する。
(Moving behavior determination means)
The movement action determination means 230 is for determining the content of the autonomous movement of the robot R.
The movement path determination means 231 determines the movement path of the robot R based on the task execution command signal, the position data of the robot R, the direction data of the robot R, the person data, and the map data. When any of the image processing unit 100, the floor surface detection unit 130, and the obstacle detection unit 140 detects an obstacle, the movement route determination unit 231 selects a movement route so as to avoid the detected obstacle. Generate.

(受取/受渡行動決定手段)
受取/受渡行動決定手段240は、物品運搬作業に伴う把持部71の行動(動作)内容を決定するためのものである。
(Receiving / delivery action decision means)
The receiving / delivering action determining means 240 is for determining the action (operation) content of the gripper 71 accompanying the article carrying work.

続いて、図4のロボット管理装置3について説明する。図17は、図4のロボット管理装置を示すブロック図である。
図17に示すように、ロボット管理装置3は、記憶部300、制御部400および入出力手段500を備えている。制御部400は、入出力手段500を介して、ロボットRとのデータの送受信を行う。
Next, the robot management apparatus 3 in FIG. 4 will be described. FIG. 17 is a block diagram showing the robot management apparatus of FIG.
As shown in FIG. 17, the robot management apparatus 3 includes a storage unit 300, a control unit 400, and input / output means 500. The control unit 400 transmits / receives data to / from the robot R via the input / output unit 500.

(記憶部)
記憶部300は、人データ記憶部310、地図データ記憶部320、ロボットデータ記憶部330、発話データ記憶部340、音声認識データ記憶部350およびシナリオデータ記憶部360を備えている。
(Memory part)
The storage unit 300 includes a human data storage unit 310, a map data storage unit 320, a robot data storage unit 330, an utterance data storage unit 340, a speech recognition data storage unit 350, and a scenario data storage unit 360.

人データ記憶部310は、タスク実行エリアEAであるオフィス内にいる人に関するデータ(人データ)を、それぞれ関連付けて記憶している。
人データとしては、人識別番号(ID)、名前、所属、タグ識別番号、通常居場所、机位置、顔画像などに関するデータが含まれる。
The person data storage unit 310 stores data (person data) related to persons in the office, which is the task execution area EA, in association with each other.
The human data includes data relating to a personal identification number (ID), name, affiliation, tag identification number, normal location, desk position, face image, and the like.

地図データ記憶部320は、タスク実行エリアEAの地形(壁位置、机位置など)に関するデータ(地図データ)を記憶している。   The map data storage unit 320 stores data (map data) regarding the topography (wall position, desk position, etc.) of the task execution area EA.

ロボットデータ記憶部330は、タスク実行エリアEAに配置されたロボットRA,RBに関するデータを、それぞれ関連付けて記憶している。
ロボットデータとしては、ロボット識別番号、現在位置、バッテリ量、タスク実行状況などに関するデータが含まれる。このうち現在位置データおよびタスク実行状況データは、定期的に更新されている。
The robot data storage unit 330 stores data related to the robots RA and RB arranged in the task execution area EA in association with each other.
The robot data includes data related to the robot identification number, current position, battery amount, task execution status, and the like. Of these, current position data and task execution status data are regularly updated.

発話データ記憶部340は、ロボットRが発話するためのデータ(発話データ)を記憶している。   The speech data storage unit 340 stores data (speech data) for the robot R to speak.

音声認識データ記憶部350は、ロボットRが音声認識するためのデータ(音声認識データ)を記憶している。   The voice recognition data storage unit 350 stores data (voice recognition data) for the robot R to perform voice recognition.

シナリオデータ記憶部360は、ロボットRに一連の動作(シナリオ)を実行させるためのデータを記憶している。ここでいうシナリオデータとは、ロボットRに一連の動作(人特定、移動行動、挨拶行動、受取/受渡行動など)を実行させるための、各関節部(電動モータ)の駆動量、駆動順序などを含むデータであり、ロボットRは、このシナリオデータに基づいて、シナリオを実行する。   The scenario data storage unit 360 stores data for causing the robot R to execute a series of operations (scenarios). The scenario data here refers to the driving amount and driving order of each joint (electric motor) for causing the robot R to execute a series of operations (person identification, moving behavior, greeting behavior, receiving / delivery behavior, etc.) The robot R executes a scenario based on this scenario data.

タスクデータ記憶部370は、端末5から送られたタスクデータを記憶する。また、タスクデータ記憶部370は、後記するタスクデータ生成手段414によって生成されたタスクデータを記憶する。   The task data storage unit 370 stores task data sent from the terminal 5. The task data storage unit 370 stores task data generated by task data generation means 414 described later.

制御部400は、タスク管理手段410およびデータ管理手段420を備えている。   The control unit 400 includes task management means 410 and data management means 420.

タスク管理手段410は、ロボットRに実行させるためのタスクを管理するためのものであり、タスクデータ取得手段411、タスクスケジューリング手段412、実行命令信号生成手段413およびタスクデータ生成手段414を備えている。   The task management unit 410 is for managing tasks to be executed by the robot R, and includes a task data acquisition unit 411, a task scheduling unit 412, an execution command signal generation unit 413, and a task data generation unit 414. .

タスクデータ取得手段411は、端末5から送られたタスクデータを取得する。取得されたタスクデータは、タスクデータ記憶部270に記憶される。   The task data acquisition unit 411 acquires task data sent from the terminal 5. The acquired task data is stored in the task data storage unit 270.

タスクスケジューリング手段412は、タスクをロボットRに実行させるため、タスクのスケジューリングを行う。以下、タスクのスケジューリングの一例について説明する。   The task scheduling unit 412 performs task scheduling in order to cause the robot R to execute the task. Hereinafter, an example of task scheduling will be described.

タスクスケジューリング手段412は、タスクデータ記憶部370に記憶されている複数のタスクデータのうち、未実行および実行中のタスクデータについて、それぞれ優先度データを生成する。
タスクの優先度データ「P」は、以下の式(1)によって算出される。
The task scheduling unit 412 generates priority data for unexecuted and executing task data among the plurality of task data stored in the task data storage unit 370.
The task priority data “P” is calculated by the following equation (1).

Figure 0004580226
Figure 0004580226

ここで、前記式(1)における「T’pri」は、以下の式(2)によって算出される。 Here, “T ′ pri ” in the equation (1) is calculated by the following equation (2).

Figure 0004580226
Figure 0004580226

ここで、「Tpri」は、「タスクの重要度(調整前)」である。「Tpri」は、例えば、1.0(重要度低)から0.5間隔で5.0(重要度高)までの値であり、オペレータによる端末5の操作によって入力された値や、個人ID(役職など)などから算出された値が用いられる。本実施形態では、人データ記憶部310に記憶された人データにより「Tpri」を決定する。
また、「Tsp」は、タスクの開始位置から最も近傍のロボットRまでの移動距離を、ロボットRの平均歩行速度で割った値、すなわち、「最も近傍のロボットRがタスクの開始位置まで移動するのにかかる時間」であり、「n(Tsp)」は、「ロボットRに近傍のタスクを優先して実行させるための重要度」である。「n(Tsp)」の値は、タスク開始位置と、最も近傍のロボットRの位置との距離が小さいほど大きくなる値である。すなわち、「n(Tsp)」は、タスク開始位置の近くにロボットRが位置するほど、タスクの重要度が大きくなるようにはたらく値である。本実施形態では、「Tsp」が所定値以下である場合にのみ、「n(Tsp)」が所定の正の値をとる(その他は0)ものとする。これらの値を算出するための値として、タスクの開始位置はタスクデータ記憶部370に記憶されたタスクデータと、人データ記憶部310に記憶された人データと、に基づいて決められる。また、ロボットRの現在位置は、ロボットデータ記憶部330に記憶されたものを用いる。このようにして算出された「T’pri」は「調整済みタスク重要度」であり、以下、かかる「T’pri」のことを、単に「タスクの重要度」と呼ぶこととする。
Here, “T pri ” is “task importance (before adjustment)”. “T pri ” is, for example, a value from 1.0 (low importance) to 5.0 (high importance) at intervals of 0.5. A value calculated from an ID (position, etc.) is used. In this embodiment, “T pri ” is determined based on the human data stored in the human data storage unit 310.
“T sp ” is a value obtained by dividing the moving distance from the task start position to the nearest robot R by the average walking speed of the robot R, that is, “the nearest robot R moves to the task start position. “N (T sp )” is “the degree of importance for causing the robot R to preferentially execute nearby tasks”. The value of “n (T sp )” is a value that increases as the distance between the task start position and the position of the nearest robot R decreases. That is, “n (T sp )” is a value that works such that the importance of the task increases as the robot R is positioned closer to the task start position. In the present embodiment, it is assumed that “n (T sp )” takes a predetermined positive value (others are 0) only when “T sp ” is equal to or smaller than a predetermined value. As a value for calculating these values, the task start position is determined based on the task data stored in the task data storage unit 370 and the human data stored in the human data storage unit 310. The current position of the robot R is the one stored in the robot data storage unit 330. “T ′ pri ” calculated in this way is “adjusted task importance”, and hereinafter, “T ′ pri ” is simply referred to as “task importance”.

また、前記式(1)における「f(Terr)」は、「重要度の時的変化係数」であり、以下の式(3)によって算出される。 In addition, “f (T err )” in the equation (1) is a “temporal change coefficient of importance”, and is calculated by the following equation (3).

Figure 0004580226
Figure 0004580226

ここで、「Terr」は、「時間余裕」であり、「(現在の時刻)−(タスク開始予定時刻)」である。すなわち、時間余裕「Terr」は、タスク開始予定時刻よりも前では、正の値をとる。そして、時間の経過とともに小さくなり、タスク開始予定時刻を過ぎると、負の値をとる。
また、「Ttime」は、「タスクを実行するのに必要な時間」であり、「(タスク終了予定時刻)−(タスク開始予定時刻)」である。
また、「Cobli」は、「忘却係数」であり、「f(Terr)」の下り勾配、すなわち、優先度データ「P」の下り勾配を決める値である。
Here, “T err ” is “time margin” and is “(current time) − (task start scheduled time)”. That is, the time margin “T err ” takes a positive value before the scheduled task start time. Then, it becomes smaller as time elapses, and takes a negative value when the scheduled task start time has passed.
Further, “T time ” is “ time required to execute the task”, and is “(task scheduled end time) − (task start scheduled time)”.
“C obli ” is a “forgetting factor”, and is a value that determines the downward gradient of “f (T err )”, that is, the downward gradient of the priority data “P”.

(Terr>Ttime
タスク開始予定時刻が迫ると(時間余裕「Terr」が正から0に近づくと)、「f(Terr)」が上昇する。そして、「時間余裕」が「タスクを実行するのに必要な時間」以下になると、「f(Terr)」は「1」となる。これは、以下の理由による。
タスクをタスク終了予定時刻までに実行完了するためには、タスク開始予定時刻よりも前にタスクを開始しなければならない。したがって、「f(Terr)」は、タスク開始予定時刻が近づくにつれて大きくなり、Terr=Ttime(すなわち、現在時刻がタスク開始予定時刻と一致したとき)で最大となるように設定されている。
また、式(1)の優先度データ「P」に対し、タスクの重要度「T’pri」よりも時間余裕「Terr」の項の方が重要であるため、f(Terr)として非線形な勾配を採用した。この勾配はTtimeに依存しており、Ttimeが大きいほど勾配が緩やかになるように設定されている。
(T err > T time )
When the scheduled task start time approaches (when the time margin “T err ” approaches 0 from positive), “f (T err )” increases. When the “time margin” is equal to or less than “the time required to execute the task”, “f (T err )” is “1”. This is due to the following reason.
In order to complete the execution of the task by the scheduled task end time, the task must be started before the scheduled task start time. Therefore, “f (T err )” increases as the scheduled task start time approaches, and is set to be maximum at T err = T time (that is, when the current time matches the scheduled task start time). Yes.
In addition, since the term of the time margin “T err ” is more important than the priority “T ′ pri ” of the task with respect to the priority data “P” of the equation (1), it is nonlinear as f (T err ). The gradient was adopted. This gradient depends on T time , and is set so that the gradient becomes gentler as T time increases.

(0≦Terr≦Ttime
現在時刻がタスク開始予定時刻とタスク終了予定時刻の間となる場合である。この時間内にタスクを開始しても、タスク終了予定時刻までに終了することはできず、できるだけ早くタスクを開始する必要がある時間帯である。そのため、「f(Terr)」は最大値「1」をとる。
(0 ≦ T err ≦ T time )
This is a case where the current time is between the scheduled task start time and the scheduled task end time. Even if the task is started within this time, it cannot be completed by the scheduled task end time, and it is a time zone in which the task needs to be started as soon as possible. Therefore, “f (T err )” takes the maximum value “1”.

(0>Terr>−Cobli・Ttime
そして、現在時刻がタスク終了予定時刻を過ぎると(時間余裕「Terr」が0より小さくなると)、「f(Terr)」が次第に下降して「0」となり、タスクを忘却する。
(0> T err > −C obli · T time )
When the current time passes the scheduled task end time (when the time margin “T err ” becomes smaller than 0), “f (T err )” gradually decreases to “0” and forgets the task.

このように、時間(時刻)に関するデータ、位置に関するデータ、重要度に関するデータに基づいて優先度データ「P」を生成するので、タスクの優先度として好適な値を得ることができ、かかる優先度データ「P」は、後記するスケジュールデータの生成に使用可能である。   As described above, since the priority data “P” is generated based on the data related to time (time), the data related to the position, and the data related to the importance, a suitable value can be obtained as the priority of the task. The data “P” can be used to generate schedule data to be described later.

タスクスケジューリング手段412は、生成した優先度データに基づいて、タスクをロボットごとに割り当ててスケジュールデータを生成するものである。
ここでスケジュールデータとは、各タスクデータについて、「どのロボットRに、どの実行順位で実行させるか、」を決定するためのデータである。すなわち、スケジュールデータは、実行させるロボットRに関するロボットIDと、実行順位データと、を含んでいる。また、タスクを割り当てた際に、各タスクの開始予定時刻および終了予定時刻が改めて生成されており、これらもスケジュールデータに含まれている。
The task scheduling means 412 generates schedule data by assigning tasks to each robot based on the generated priority data.
Here, the schedule data is data for determining “which robot R is to be executed in which execution order” for each task data. That is, the schedule data includes a robot ID related to the robot R to be executed and execution order data. Further, when a task is assigned, the scheduled start time and the scheduled end time of each task are newly generated, and these are also included in the schedule data.

以下、スケジュールデータ生成の手順について説明する。あるロボット(i)が、あるタスク(j)を実行したときにかかる時間「Cij」は、式(4)によって算出される。 Hereinafter, the procedure of schedule data generation will be described. The time “C ij ” required when a certain robot (i) executes a certain task (j) is calculated by the equation (4).

Figure 0004580226
Figure 0004580226

ここで、「Wr」は、「タスク開始位置までの歩行にかかる時間」である。この「Wr」は、ロボットデータ記憶部330に記憶されたロボットRの現在位置と、タスク開始位置と、地図データ記憶部320に記憶された地図データと、ロボットRの平均移動速度と、に基づいて算出される。
また、「Wrh」は、「タスク実行中の移動にかかる時間」である。この「Wrh」は、開始位置およびタスク終了位置と、地図データ記憶部320に記憶された地図データと、ロボットRの平均移動速度と、に基づいて算出される。
また、「G(task type)」は、「タスク実行中に、ロボットの来訪者とのコミュニケーション(ジェスチャー、会話など)にかかる時間」である。この「G(task type)」は、タスクの種類(挨拶、受付、案内など)によって予め定められた値が、記憶部300に記憶されている。
Here, “Wr” is “time required for walking to the task start position”. This “Wr” is based on the current position of the robot R stored in the robot data storage unit 330, the task start position, the map data stored in the map data storage unit 320, and the average moving speed of the robot R. Is calculated.
“Wrh” is “time required for movement during task execution”. This “Wrh” is calculated based on the start position and task end position, the map data stored in the map data storage unit 320, and the average moving speed of the robot R.
“G (task type)” is “time required for communication (gesture, conversation, etc.) with a robot visitor during task execution”. As for “G (task type)”, a value determined in advance by the type of task (greeting, reception, guidance, etc.) is stored in the storage unit 300.

また、m個のタスクをn台のロボットRに割り当てる際のある組み合せを「k」、全ての組み合わせを表現する重複順列を「M(k) (1≦k≦nm)」とし、その要素を「xij」とすると、割り当てられたタスクによる各ロボットの動作量に関するコスト(主に移動距離に依存する)「Cr(i)」は、式(5)によって算出される。 In addition, a combination when assigning m tasks to n robots R is “k”, and an overlapping permutation representing all combinations is “M (k) (1 ≦ k ≦ n m )”. Is “x ij ”, the cost (mainly depending on the moving distance) “Cr (i)” related to the movement amount of each robot by the assigned task is calculated by the equation (5).

Figure 0004580226
Figure 0004580226

ロボット制御システムA全体の動作量に関する総コスト「Call」(以下、動作コストと呼ぶ)は、各ロボットのコスト「Cr(i)」の総和であり、式(6)によって算出される。 The total cost “C all ” (hereinafter referred to as “operation cost”) related to the movement amount of the entire robot control system A is the sum of the costs “Cr (i)” of each robot, and is calculated by Expression (6).

Figure 0004580226
Figure 0004580226

また、全てのタスクを終了するまでの時間に関するコスト「Call complete」(以下、時間コストと呼ぶ)は、各ロボットに割り当てられた全タスクのうちの、最先の開始予定時刻から最後の終了予定時刻(これらの時刻は、タスクスケジューリング手段412で生成された値である)までの時間であり、式(7)によって算出される。 In addition, the cost “C all complete ” (hereinafter referred to as “time cost”) related to the time until all tasks are completed is the last end from the earliest scheduled start time among all tasks assigned to each robot. This is the time until the scheduled time (these times are the values generated by the task scheduling means 412), and is calculated by equation (7).

Figure 0004580226
Figure 0004580226

そして、動作コスト「Call」および時間コスト「Call complete」の両方を考慮することによって最適化されたコスト「Copt」は、式(8)によって算出される。 Then, the cost “C opt ” optimized by considering both the operation cost “C all ” and the time cost “C all complete ” is calculated by Expression (8).

Figure 0004580226
Figure 0004580226

ここで、「w」は、「ロボットの動作およびタスクを終了するまでの時間に関する重み」である。すなわち、「w」が大きいと、動作重視となり、「w」が小さいと、時間重視となる。この「Copt」が最小となる組み合わせ「k」が、複数のタスクを複数のロボットに実行させるための最適なスケジュールである。 Here, “w” is “weight related to the time until the robot operation and the task are completed”. That is, when “w” is large, the operation is emphasized, and when “w” is small, the time is emphasized. The combination “k” that minimizes “C opt ” is an optimal schedule for causing a plurality of robots to execute a plurality of tasks.

ここでいう動作重視とは、ロボットRの動作量を抑えることを重視することを指す。また、時間重視とは、タスクを早く終了することを重視することを指す。例えば、ある狭い位置領域で実行するタスクが複数存在している場合について考える。かかる複数のタスクを、最も近傍に位置するロボットR一台に実行させると、全体としてのロボットRの動作量を抑えることができる(動作重視)が、一台で処理するため時間がかかる(時間軽視)。一方、複数のロボットに実行させると、タスクを早く終了することができる(時間重視)が、遠くのロボットRを移動させることになり、全体としてのロボットRの動作量が大きくなる(動作軽視)。すなわち、動作重視および時間重視は両立するとは限らず、wの値を設定することで、どちらを重視するかを選択することができる。   Here, the emphasis on movement refers to emphasis on suppressing the movement amount of the robot R. Also, time-oriented means emphasizing that a task is finished early. For example, consider a case where there are a plurality of tasks to be executed in a certain narrow position area. If a plurality of such tasks are executed by the closest robot R, the movement amount of the robot R as a whole can be suppressed (motion-oriented), but it takes time to process by one unit (time) Neglect). On the other hand, if a plurality of robots are executed, the task can be completed quickly (time-oriented), but a distant robot R is moved, and the movement amount of the robot R as a whole is increased (motion disregard). . That is, the emphasis on operation and the emphasis on time are not always compatible, and by setting the value of w, it is possible to select which one is important.

続いて、タスクのスケジューリングの例について説明する。図18は、タスクのスケジューリングを説明するための図である。ここでは、7個のタスク(タスクT1〜タスクT7)を、2台のロボット(ロボットRA,RB)に実行させる場合におけるスケジューリングを例にとって説明する。   Next, an example of task scheduling will be described. FIG. 18 is a diagram for explaining task scheduling. Here, a description will be given by taking an example of scheduling when two robots (robots RA and RB) execute seven tasks (tasks T1 to T7).

まず、図18(a)に示すように、タスクT1〜タスクT7がタスクデータ記憶部370に記憶されている場合に、これらタスクT1〜タスクT7について優先度データ「P」を生成する。ここでは、優先度データ「P」によって表される各タスクの優先度が、「タスクT1>タスクT2>タスクT3>タスクT4>タスクT5>タスクT6>タスクT7」となっているものとする。そして、生成された優先度データ「P」はそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。   First, as shown in FIG. 18A, when tasks T1 to T7 are stored in the task data storage unit 370, priority data “P” is generated for these tasks T1 to T7. Here, it is assumed that the priority of each task represented by the priority data “P” is “task T1> task T2> task T3> task T4> task T5> task T6> task T7”. The generated priority data “P” is stored in the task data storage unit 370 in a form that is given to the task data of each task.

続いて、図18(b)に示すように、各タスクを優先度データPに基づいてグループ分けする。ここでは、優先度が高い(優先度データ「P」の値が大きい)タスクT1〜タスクT4からなるグループG1と、優先度が低いタスクT5〜タスクT7からなるグループG2と、に分ける。かかるグループ分けにおいて、ロボットRの台数、タスクの数などに基づいて、グループの数を決めることが望ましい。例えば、タスクの数が多い場合には、「(タスクの数)÷(ロボットRの台数) (ただし、小数点以下繰上げ)」の数だけグループを生成することができる。その他、グループの数の決定は、スケジュールデータ生成部3b2の計算時間および計算時間の優先度に基づいて決定される。すなわち、スケジュールデータの生成が早く完了するようにグループの数を決定する。   Subsequently, as shown in FIG. 18B, the tasks are grouped based on the priority data P. Here, it is divided into a group G1 consisting of tasks T1 to T4 having a high priority (priority data “P” is large) and a group G2 consisting of tasks T5 to T7 having a low priority. In such grouping, it is desirable to determine the number of groups based on the number of robots R, the number of tasks, and the like. For example, when the number of tasks is large, the number of groups can be generated as many as “(number of tasks) ÷ (number of robots R) (however, rounded up after the decimal point)”. In addition, the number of groups is determined based on the calculation time of the schedule data generation unit 3b2 and the priority of the calculation time. That is, the number of groups is determined so that the generation of schedule data is completed early.

続いて、図18(c)に示すように、優先度が高いグループG1について、前記した式(4)、式(5)および式(6)によるスケジューリング(スケジュールデータの生成)を行う。ここでは、タスクT1のスケジュールデータは、「A−1」である。これは、「ロボットRAに、1番目に実行させる」との意味である。同様に、タスクT2、タスクT3およびタスクT4のスケジュールデータは、それぞれ「B−1」、「A−2」および「A−3」である。これら生成されたスケジュールデータはそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。   Subsequently, as shown in FIG. 18 (c), scheduling (generation of schedule data) is performed on the group G1 having a high priority according to the above-described equations (4), (5), and (6). Here, the schedule data of the task T1 is “A-1”. This means that the robot RA is to be executed first. Similarly, the schedule data of the task T2, the task T3, and the task T4 are “B-1”, “A-2”, and “A-3”, respectively. Each of the generated schedule data is stored in the task data storage unit 370 so as to be given to the task data of each task.

続いて、図18(d)に示すように、優先度が低いグループG2について、前記した式(4)、式(5)および式(6)によるスケジューリングを行う。この際に、既にスケジューリングされたタスクデータによる負荷を、ペナルティとして保持した状態でスケジューリングを行う。このように、後のグループをスケジューリングする際に、それより前のグループをスケジューリングした結果を考慮することで、スケジューリング全体における最適化を図ることができる。   Subsequently, as shown in FIG. 18 (d), scheduling according to the above-described Expression (4), Expression (5), and Expression (6) is performed for the group G2 having a low priority. At this time, scheduling is performed in a state where a load due to already scheduled task data is held as a penalty. In this way, when scheduling a subsequent group, optimization of the entire scheduling can be achieved by considering the result of scheduling the previous group.

ここでは、タスクT5、タスクT6およびタスクT7のスケジュールデータは、それぞれ「B−2」、「B−3」および「A−4」である。これら生成されたスケジュールデータはそれぞれ、各タスクのタスクデータに付与される形でタスクデータ記憶部370に記憶される。   Here, the schedule data of task T5, task T6, and task T7 are “B-2”, “B-3”, and “A-4”, respectively. Each of the generated schedule data is stored in the task data storage unit 370 so as to be given to the task data of each task.

このように、タスクのグループ分けを行ってグループごとにスケジューリングを行うので、多数のタスクが存在する場合であっても、任意の数のタスクごとにスケジューリングを行うことができ、タスク数の増加によるスケジューリングの組み合わせの数の増加を抑え、タスクスケジューリング手段412にかかるスケジューリング負荷の増大を抑えることができる。   In this way, task grouping is performed and scheduling is performed for each group, so even if there are many tasks, scheduling can be performed for any number of tasks, and the number of tasks increases. An increase in the number of scheduling combinations can be suppressed, and an increase in scheduling load applied to the task scheduling means 412 can be suppressed.

また、スケジュールデータを生成する際には、各ロボットRのバッテリ残量、駆動系の異常などのロボットの状態に関するデータも考慮されることが望ましい。   Further, when generating the schedule data, it is desirable to take into account data relating to the state of the robot such as the remaining battery capacity of each robot R and an abnormality in the drive system.

[実行命令信号生成手段]
実行命令信号生成手段413は、タスクスケジューリング手段412によって生成されたスケジュールデータに基づいて、ロボットRにタスクを実行させるための実行命令信号を生成するものである。
[Execution instruction signal generation means]
The execution command signal generation unit 413 generates an execution command signal for causing the robot R to execute a task based on the schedule data generated by the task scheduling unit 412.

本実施形態では、実効命令信号生成手段413は、各ロボットRに、実行順位が高い、すなわち、1番目に実行させるタスクに関する実行命令信号を生成する。前記例において、ロボットRAへの実行命令信号は、ロボットIDと、タスクT1に関するタスクID、タスク開始予定時刻、タスク開始位置、タスク内容、タスク終了位置などを含むデータとして生成される。同様に、他のロボットRBへの実行命令も生成され、入出力手段500および基地局1を介して、各ロボットRA,RBへ送信される。ロボットRA,RBの主制御部200は、受信した実行命令信号に含まれるロボットIDと自身のロボットIDを比較し、一致した場合にその実行命令信号に係るタスクを実行する。また、実行命令信号は、タスクデータと関連付けてタスクデータ記憶部370に記憶される。   In the present embodiment, the effective command signal generation unit 413 generates an execution command signal related to the task having the highest execution order, that is, the first task to be executed by each robot R. In the above example, the execution command signal to the robot RA is generated as data including the robot ID, the task ID related to the task T1, the scheduled task start time, the task start position, the task content, the task end position, and the like. Similarly, execution instructions for other robots RB are also generated and transmitted to the robots RA and RB via the input / output unit 500 and the base station 1. The main control unit 200 of the robots RA and RB compares the robot ID included in the received execution command signal with its own robot ID, and executes a task related to the execution command signal if they match. The execution command signal is stored in the task data storage unit 370 in association with the task data.

なお、実行命令信号は、当該ロボットRに1番目に実行させるタスクだけでなく、当該ロボットRに実行させる全てのタスクに関するデータを含んでいてもよい。   Note that the execution command signal may include not only the task to be executed first by the robot R but also data relating to all tasks to be executed by the robot R.

タスクデータ生成手段414は、ロボットRから送られたコミュニケーション結果に基づいて、タスクデータを生成する。例えば、コミュニケーション結果が音声認識データである場合には、この音声認識データからタスクデータを生成する。そして、生成されたタスクデータがタスクデータ記憶部270に記憶されると共に、タスクスケジューリング手段412が、タスクの再スケジューリングを行う。   The task data generation unit 414 generates task data based on the communication result sent from the robot R. For example, when the communication result is voice recognition data, task data is generated from the voice recognition data. The generated task data is stored in the task data storage unit 270, and the task scheduling unit 412 reschedules the task.

データ管理手段420は、実行命令信号に含まれるタスクの種類に基づいて、そのタスクを実行するのに必要なデータをシナリオデータ記憶部360から読み出し、ロボットRへ出力する。また、端末5からの入力に基づき、記憶部300内のデータを更新する。
また、データ管理手段420は、ロボットRからのデータ要求信号に基づいて、要求されたデータを記憶部300から読み出し、ロボットRへ出力する。
Based on the type of task included in the execution command signal, the data management unit 420 reads data necessary for executing the task from the scenario data storage unit 360 and outputs the data to the robot R. Further, the data in the storage unit 300 is updated based on the input from the terminal 5.
Further, the data management means 420 reads the requested data from the storage unit 300 based on the data request signal from the robot R and outputs it to the robot R.

このように、本実施形態に係るロボット制御システムAは、ロボットRがタスク実行中であっても人とのコミュニケーションによってタスクデータを取得・生成し、このタスクデータと、ロボットRの現在位置およびタスク実行状況とに基づいてタスクの再スケジューリングを行う。したがって、人は端末5を介するだけでなく、ロボットRを介してタスクを依頼することが可能となり、システムの使いやすさが高まっている。また、再スケジューリングを行うので、重要度が高いタスクの割り込みなどが可能となる。また、ロボットRの現在位置およびタスク実行状況を考慮した再スケジューリングを行うので、適切なスケジューリングが可能となる。   As described above, the robot control system A according to the present embodiment acquires and generates task data through communication with a person even when the robot R is executing a task, and the task data, the current position of the robot R, and the task Reschedule tasks based on execution status. Therefore, a person can request a task not only via the terminal 5 but also via the robot R, and the usability of the system is increased. Further, since rescheduling is performed, it becomes possible to interrupt a task with high importance. In addition, since rescheduling is performed in consideration of the current position of the robot R and the task execution status, appropriate scheduling is possible.

(ロボットの動作例)
続いて、本発明の実施形態に係るロボット制御システムAによるロボットRの物品運搬動作について説明する。ここでは、ロボットRAが、「人H1から物品Mを受け取り、人H2に物品Mを受け渡す」といったタスクに関する実行命令信号を受け、物品Mを運搬移動中に人とコミュニケーションを行い、ロボット管理装置3がタスクの再スケジューリングを行う場合を例にとって説明する。
(Robot operation example)
Subsequently, an article carrying operation of the robot R by the robot control system A according to the embodiment of the present invention will be described. Here, the robot RA receives an execution command signal relating to a task such as “receives the article M from the person H1 and delivers the article M to the person H2,” and communicates with the person while the article M is being transported and moved. An example in which 3 performs task rescheduling will be described.

(物品受取)
まず、ロボットRAの受取位置への移動について説明する。図19は、本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートであり、ロボットRAの受取位置への移動を示すフローチャートである。
まず、ロボットRAは、タスク実行エリアEAに設定されたホームポジションで待機している(ステップS1)。
ロボットRが、ロボット管理装置3から送信された実行命令信号を受信すると(ステップS2でYes)、ロボットRは、ホームポジションから人H1の通常居場所(以下、「通常居場所P1」と記載する。)までの移動を開始する(ステップS3)。そして、人H1の通常居場所P1に到着すると(ステップS4でYes)、ロボットRは移動を中止し、人H1の探索を開始する(ステップS5)。
(Goods receipt)
First, the movement of the robot RA to the receiving position will be described. FIG. 19 is a flowchart showing an example of task execution by the robot control system according to the embodiment of the present invention, and is a flowchart showing movement of the robot RA to the receiving position.
First, the robot RA stands by at the home position set in the task execution area EA (step S1).
When the robot R receives the execution command signal transmitted from the robot management apparatus 3 (Yes in step S2), the robot R starts from the home position to the normal location of the person H1 (hereinafter referred to as “normal location P1”). Is started (step S3). When the robot R arrives at the normal location P1 of the person H1 (Yes in step S4), the robot R stops moving and starts searching for the person H1 (step S5).

対象検知部120で人H1のタグ識別番号を検知すると(ステップS6でYes)、ロボットRは、カメラC,Cで人H1の画像を取得し、人H1の正面に移動する   When the target identification unit 120 detects the tag identification number of the person H1 (Yes in step S6), the robot R acquires an image of the person H1 with the cameras C and C and moves to the front of the person H1.

なお、対象検知部120が、所定時間内に人H1のタグ識別番号を検知することができなかった場合には(ステップS9でYes)、ロボットRは、行動管理手段210でタスク実行が不可能である旨を伝える行動報告信号を生成し、ロボット管理装置3へ出力すると共に、ホームポジションに移動する(ステップS10)。   If the target detection unit 120 cannot detect the tag identification number of the person H1 within a predetermined time (Yes in step S9), the robot R cannot perform the task using the behavior management unit 210. Is generated and output to the robot management apparatus 3 and moved to the home position (step S10).

受取位置に移動したロボットRは、指開状態の把持部71(71R,71L)を差し出し、物品Mの受け取りを行う(ステップS7)。そして、把持部71が物品Mを把持すると(ステップS8でYes)、ロボットRは、物品Mの受取を完了する。   The robot R that has moved to the receiving position presents the gripper 71 (71R, 71L) in the finger open state and receives the article M (step S7). When the gripper 71 grips the article M (Yes in step S8), the robot R completes the reception of the article M.

(運搬移動および受渡)
続いて、ロボットRAの物品運搬移動について説明する。図20および図21は、本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートであり、ロボットRAの物品運搬移動および物品受渡を示すフローチャートである。
ステップS8において、物品把持完了となると、ロボットRは、受取位置から、人H2の通常居場所(以下、「通常居場所P2」と記載する。)までの移動を開始する(ステップS21)。
ロボットRAが、画像処理部100、対象検知部120、床面検知部130および障害物検知部140によって、その移動方向に存在する物体を検知する(割り込み検知)(ステップS22)。
ロボットRAが割り込みを検知し(ステップS22でYes)、その割り込みが障害物である場合には(ステップS23で障害物)、ロボットRAは、画像処理部100、対象検知部120および障害物検知部130によって、ロボットRAの周囲に人がいるか否かを検知する(ステップS30)。
周囲に人がいた場合には(ステップS30でYes)、ロボットRAは、「障害物を除去してください」と発話し、周囲にいる人に障害物の除去を依頼する(ステップS31)。そして、所定時間内に障害物が除去された場合には(ステップS32でYes)、ステップS21に戻り、移動を再開する。また、所定時間内に障害物が除去されない場合には、(ステップS32でNo)、ロボットRは、この障害物を回避するように移動経路を再生成(変更)する(ステップS33)。そして、ロボットRAは、ステップS21に戻り、変更した移動経路に基づいて移動を再開する。
(Transportation and delivery)
Subsequently, the article transport movement of the robot RA will be described. 20 and 21 are flowcharts illustrating an example of task execution by the robot control system according to the embodiment of the present invention, and are flowcharts illustrating article transport movement and article delivery of the robot RA.
In step S8, when the gripping of the article is completed, the robot R starts moving from the receiving position to the normal location of the person H2 (hereinafter referred to as “normal location P2”) (step S21).
The robot RA uses the image processing unit 100, the target detection unit 120, the floor surface detection unit 130, and the obstacle detection unit 140 to detect an object existing in the moving direction (interruption detection) (step S22).
If the robot RA detects an interrupt (Yes in step S22) and the interrupt is an obstacle (obstacle in step S23), the robot RA includes the image processing unit 100, the target detection unit 120, and the obstacle detection unit. It is detected by 130 whether or not there is a person around the robot RA (step S30).
If there is a person around (Yes in step S30), the robot RA speaks “please remove the obstacle” and requests the person in the vicinity to remove the obstacle (step S31). If the obstacle is removed within the predetermined time (Yes in step S32), the process returns to step S21 and the movement is resumed. When the obstacle is not removed within the predetermined time (No in step S32), the robot R regenerates (changes) the movement path so as to avoid the obstacle (step S33). Then, the robot RA returns to step S21 and resumes movement based on the changed movement route.

ロボットRが割り込みを検知し(ステップS22でYes)、その割り込みが人である場合には(ステップS23で人)、ロボットRAは、人特定手段220によって、その人が既知人物であるか、人H2であるか否かを判定する(ステップS24、ステップS25
)。ここでいう既知人物とは、その人の人データが人データ記憶部310に記憶されていることを指す。
If the robot R detects an interruption (Yes in step S22) and the interruption is a person (a person in step S23), the robot RA determines whether the person is a known person or not by the person specifying means 220. It is determined whether or not H2 (step S24, step S25).
). Here, the known person means that the person data of the person is stored in the person data storage unit 310.

割り込んだ人が人H2以外の人である場合には(ステップS24でNo、または、ステップS24でYesかつステップS25でNo)、ロボットRAは、その人に応じた挨拶(発話およびジェスチャ)を行う(ステップS26)。そして、人がロボットの移動経路外に移動すると(ステップS27でYes)、移動を再開する。
ロボットRAが挨拶してから所定時間経過しても人がどかない場合には(ステップS27でNo)、ロボットRAは、人(以下、人H3と称する)がタスクを依頼しようとしていると判定し、「何か御用ですか」と発話し、コミュニケーション結果取得手段213が、マイクMC,MCおよび音声認識部を介して人の発話に伴う音声データを取得し、取得した音声データをロボット管理装置3に出力する(ステップS28)。なお、本実施形態では、人H3は、位置Cまでの案内といったタスクを依頼したものとする。
If the interrupted person is a person other than the person H2 (No in step S24, or Yes in step S24 and No in step S25), the robot RA performs a greeting (speech and gesture) according to the person. (Step S26). When the person moves out of the movement path of the robot (Yes in step S27), the movement is resumed.
If the person does not reach even after a predetermined time has elapsed since the robot RA greeted (No in step S27), the robot RA determines that the person (hereinafter referred to as person H3) is about to request a task. The communication result acquisition unit 213 acquires voice data associated with a person's utterance via the microphones MC and MC and the voice recognition unit, and the acquired voice data is transmitted to the robot management device 3. (Step S28). In the present embodiment, it is assumed that the person H3 requests a task such as guidance to the position C.

ロボット管理装置3のタスクデータ生成手段414は、取得した音声データと、ロボットRAの現在位置データまたはロボットRAが取得した人H3の現在位置データと、に基づいて、「人H3を現在位置から位置Cまで案内する」といった内容のタスクデータを生成する。タスクスケジューリング手段412は、新たに生成されたタスクデータと、ロボットRA,RBの現在位置データおよびタスク実行状況データと、タスクデータ記憶部370に記憶された未実行または実行中のタスクデータと、に基づいて、タスクの再スケジューリングを行う。そして、実行命令信号生成手段413は、この再スケジューリング結果に基づいて、ロボットRA,RBに対する実行命令信号を生成し、出力する。
ここでは、ロボットRAの実行命令信号がロボットRAに現在実行中の物品運搬を継続させるものであり、ロボットRBの実行命令信号がロボットRBに人H3の案内を実行させるものであるとする。
The task data generation means 414 of the robot management device 3 determines that “the person H3 is located from the current position based on the acquired voice data and the current position data of the robot RA or the current position data of the person H3 acquired by the robot RA. Task data with a content such as “Guidance to C” is generated. The task scheduling means 412 includes newly generated task data, current position data and task execution status data of the robots RA and RB, and unexecuted or executing task data stored in the task data storage unit 370. Based on this, reschedule the task. Then, the execution command signal generation means 413 generates and outputs an execution command signal for the robots RA and RB based on the rescheduling result.
Here, it is assumed that the execution command signal of the robot RA causes the robot RA to continue carrying the article currently being executed, and the execution command signal of the robot RB causes the robot RB to perform guidance of the person H3.

そして、人H2の通常居場所P2に到着すると(ステップS29でYes)、ロボットRは移動を中止し、人H2の探索を開始する(ステップS41)。   When the robot R arrives at the normal location P2 of the person H2 (Yes in step S29), the robot R stops moving and starts searching for the person H2 (step S41).

対象検知部120で人H2のタグ識別番号を検知すると(ステップS42でYes)、ロボットRは、カメラC,Cで人H2の画像を取得し、人H2の正面に移動する   When the target identification unit 120 detects the tag identification number of the person H2 (Yes in step S42), the robot R acquires an image of the person H2 with the cameras C and C and moves to the front of the person H2.

なお、対象検知部120が、所定時間に人H2のタグ識別番号を検知することができなかった場合には(ステップS46でYes)、ロボットRAは、物品Mをタスク実行エリアEA内に設けられた物品置き場B1(図1参照)へと運搬することになる。   If the target detection unit 120 cannot detect the tag identification number of the person H2 at a predetermined time (Yes in step S46), the robot RA provides the article M in the task execution area EA. It will be transported to the article storage place B1 (see FIG. 1).

受渡位置に移動したロボットRは、物品Mを把持した把持部71(71R,71L)を差し出し、物品Mの受渡を行う(ステップS43)。   The robot R that has moved to the delivery position presents the gripper 71 (71R, 71L) that grips the article M, and delivers the article M (step S43).

物品Mの受渡が完了すると(ステップS44でYes)、ロボットRAは、行動管理手段210でタスク実行終了を伝える行動報告信号を生成し、ロボット管理装置3へ出力すすると共に、受渡位置からホームポジションまでの移動を行う(ステップS45)。   When the delivery of the article M is completed (Yes in step S44), the robot RA generates an action report signal for notifying the end of task execution by the action management unit 210, and outputs the action report signal to the robot management apparatus 3, and from the delivery position to the home position. (Step S45).

続いて、ロボットRの物品置き場B1への移動について説明する。ロボットRAが、所定時間に人H2の探索ができなかった場合には(ステップS46でYes)、ロボットRAは、人H2の通常居場所P2から物品置き場B1への移動を行う(ステップS47)。
そして、ロボットRAは、物品置き場B1に物品Mを置くと共に(ステップS48)、物品Mを物品置き場B1に置いた旨を伝える行動報告信号を生成し、ロボット管理装置3および人H2専用の端末5へ出力する(ステップS49)。そして、ロボットRは物品置き場B1からホームポジションまでの移動を行う(ステップS50)。
Next, the movement of the robot R to the article storage place B1 will be described. If the robot RA cannot search for the person H2 at the predetermined time (Yes in step S46), the robot RA moves from the normal location P2 of the person H2 to the article storage place B1 (step S47).
Then, the robot RA puts the article M in the article storage place B1 (step S48), generates an action report signal indicating that the article M has been placed in the article storage place B1, and the robot management device 3 and the terminal 5 dedicated to the person H2 (Step S49). Then, the robot R moves from the article storage place B1 to the home position (step S50).

このように、本発明の実施形態に係るロボット制御システムによれば、タスク実行中のロボットが、タスク依頼のユーザインターフェースとなるので、人によるタスク依頼が容易となる。また、ロボットを介してタスク依頼がなされた場合であっても、ロボットの現在位置およびタスク実行状況に基づいて、タスクの再スケジューリングを行うことができ、優先度の高いタスクの割り込みが可能となる。   As described above, according to the robot control system according to the embodiment of the present invention, a task-executed robot serves as a user interface for task requests, so that task requests by humans are facilitated. In addition, even when a task is requested via a robot, the task can be rescheduled based on the current position of the robot and the task execution status, and a task with a high priority can be interrupted. .

以上、本発明の実施形態について説明したが、本発明は前記した実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜設計変更可能である。
例えば、ロボット制御システムは、ロボット管理装置に記憶部を備え、ロボットが必要とするデータを適宜送信する構成としたが、ロボットが記憶部を備え、この記憶部に必要なデータを記憶する構成であってもよい。
また、タスクのスケジューリング手法も、前記した手法に限定されない。
The embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be appropriately changed in design without departing from the gist of the present invention.
For example, the robot control system has a configuration in which the robot management device includes a storage unit and appropriately transmits data required by the robot, but the robot includes a storage unit and stores the necessary data in the storage unit. There may be.
Also, the task scheduling method is not limited to the above-described method.

また、コミュニケーションによるタスクデータの生成に音声データを利用する構成としたが、画像データから人のジェスチャを認識し、このジェスチャに対応するタスクデータを生成する構成であってもよい。   In addition, although voice data is used for generating task data by communication, a configuration may be used in which a human gesture is recognized from image data and task data corresponding to the gesture is generated.

また、人がロボットの移動経路に所定時間存在した場合にロボットが人とコミュニケーションを行いタスクデータを生成する構成としたが、タスクデータを生成するためのコミュニケーションの開始タイミングはこれに限定されず、例えば、人がロボットに所定の言葉(例えば、「お願いします。」など、)をかけ、ロボットが音声認識部でこの言葉を認識することによってコミュニケーションを開始する構成であってもよい。また、人が所定のジェスチャ(例えば、「右手を挙げて左右に振る」など)を行い、ロボットが画像処理部でこのジェスチャを認識することによってコミュニケーションを開始する構成であってもよい。また、ロボットが常にコミュニケーションを行っており、常時音声データまたは
画像データをタスクデータ生成手段に送る構成であってもよい。
また、タスクデータ生成手段がロボットの制御部内に設けられる構成であってもよい。
In addition, the robot communicates with the person and generates task data when the person exists in the movement path of the robot for a predetermined time, but the communication start timing for generating the task data is not limited to this, For example, a configuration may be adopted in which a person puts a predetermined word (for example, “Please please”) on the robot, and the robot starts communication by recognizing the word by a voice recognition unit. In addition, a configuration may be adopted in which communication is started when a person performs a predetermined gesture (for example, “right hand and shake left and right”) and the robot recognizes this gesture by the image processing unit. Further, the robot may always communicate, and the voice data or the image data may be sent to the task data generation unit at all times.
Moreover, the structure by which a task data generation means is provided in the control part of a robot may be sufficient.

本発明の実施形態に係るロボット制御システムを示すシステム構成図である。1 is a system configuration diagram showing a robot control system according to an embodiment of the present invention. 図1のロボットの外観を示す側面図である。It is a side view which shows the external appearance of the robot of FIG. 図1のロボットの内部構造を模式的に示す斜視図である。It is a perspective view which shows typically the internal structure of the robot of FIG. 図1のロボットを示すブロック図である。It is a block diagram which shows the robot of FIG. 図4の対象検知部を示すブロック図である。It is a block diagram which shows the object detection part of FIG. 図1の検知用タグを示すブロック図である。It is a block diagram which shows the tag for a detection of FIG. 対象検知部による探索領域を説明するための図であり、(a)は平面図、(b)は側面図である。It is a figure for demonstrating the search area | region by an object detection part, (a) is a top view, (b) is a side view. 対象検知部による周辺領域のエリア分けを説明するための図である。It is a figure for demonstrating area division of the peripheral region by a target detection part. 図4の床面検知部を示すブロック図である。It is a block diagram which shows the floor surface detection part of FIG. 床面検知部による撮像領域を示す図であり、(a)は平面図、(b)は側面図である。It is a figure which shows the imaging region by a floor surface detection part, (a) is a top view, (b) is a side view. 図4の障害物検知部を示すブロック図である。It is a block diagram which shows the obstruction detection part of FIG. 障害物検知部による検知領域を示す図であり、(a)は平面図、(b)は側面図である。It is a figure which shows the detection area | region by an obstruction detection part, (a) is a top view, (b) is a side view. ロボットの把持部を示す斜視図であり、指開状態を示す図である。It is a perspective view which shows the holding part of a robot, and is a figure which shows a finger open state. ロボットの把持部を示す斜視図であり、指閉状態を示す図である。It is a perspective view which shows the holding part of a robot, and is a figure which shows a finger closed state. ロボットの把持部、開度検出手段および外力検出手段を示すブロック図である。It is a block diagram which shows the holding part of a robot, an opening degree detection means, and an external force detection means. 図2の主制御部を示すブロック図である。It is a block diagram which shows the main control part of FIG. 図1のロボット管理装置を示すブロック図である。It is a block diagram which shows the robot management apparatus of FIG. タスクのスケジューリングを説明するための図である。It is a figure for demonstrating the scheduling of a task. 本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートである。It is a flowchart which shows the example of the task execution by the robot control system which concerns on embodiment of this invention. 本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートである。It is a flowchart which shows the example of the task execution by the robot control system which concerns on embodiment of this invention. 本発明の実施形態に係るロボット制御システムによるタスク実行の例を示すフローチャートである。It is a flowchart which shows the example of the task execution by the robot control system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

3 ロボット管理装置
112 音声認識部
211 現在位置データ生成手段
212 実行状況データ生成手段
213 コミュニケーション結果取得手段
220 人特定手段
320 地図データ記憶部
370 タスクデータ記憶部
412 タスクスケジューリング手段
413 実行命令信号生成手段
414 タスクデータ生成手段
A ロボット制御システム
MC マイク
R,RA,RB ロボット
DESCRIPTION OF SYMBOLS 3 Robot management apparatus 112 Voice recognition part 211 Current position data generation means 212 Execution status data generation means 213 Communication result acquisition means 220 Person identification means 320 Map data storage part 370 Task data storage part 412 Task scheduling means 413 Execution command signal generation means 414 Task data generation means A Robot control system MC Microphone R, RA, RB Robot

Claims (2)

自律移動を行う自律移動手段と、人とのコミュニケーションを行うコミュニケーション手段と、現在位置に関する現在位置データを生成する現在位置データ生成手段と、タスクの実行状況に関する実行状況データを生成する実行状況データ生成手段と、ロボット管理装置との通信を行う通信手段と、を備えたロボットと、
前記ロボットに実行させるタスクに関するタスクデータを記憶するタスクデータ記憶部と、前記タスクデータに基づいて、タスクのスケジューリングを行うタスクスケジューリング手段と、スケジューリング結果に基づいて、前記自律移動ロボットにタスクを実行させる実行命令信号を生成する実行命令信号生成手段と、前記ロボットとの通信を行う通信手段と、を備えたロボット管理装置と、
を備え、前記実行命令信号に基づいて前記ロボットにタスクを実行させるロボット制御システムであって、
前記ロボット管理装置は、前記コミュニケーション手段によるコミュニケーション結果に基づいて、タスクデータを生成するタスクデータ生成手段をさらに備え、
前記タスクスケジューリング手段は、コミュニケーション結果に基づいて新たにタスクデータが生成された場合に、前記ロボットの現在位置データおよび実行状況データに基づいて、タスクの再スケジューリングを行い、
前記実行命令信号生成手段は、再スケジューリング結果に基づいて、実行命令信号の再生成を行い、
前記ロボットがタスクを実行するタスク実行エリアに関する地図データを記憶する地図データ記憶部と、
前記ロボットに設けられた、物品を把持する把持部と、
をさらに備え、
前記ロボットは、前記地図データおよび前記実行命令信号に基づいて、物品を前記把持部によって把持し、運搬し、
前記ロボットは、前記実行命令信号に基づいて、物品を受け渡す人を特定する人特定手段を備え、
前記人特定手段が、所定時間内に物品を受け渡す人を特定できない場合に、前記ロボットは、前記地図データに基づいて、所定の場所に物品を運搬し、この所定の場所に物品を置くとともに、物品を前記所定の場所に置いた旨を伝える行動報告信号を、前記物品を受け渡す人の端末へ出力する
ことを特徴とするロボット制御システム。
Autonomous movement means for performing autonomous movement, communication means for communicating with humans, current position data generating means for generating current position data relating to the current position, and execution situation data generation for generating execution situation data relating to the task execution situation A robot comprising: means and communication means for communicating with the robot management device;
A task data storage unit for storing task data related to a task to be executed by the robot; task scheduling means for scheduling a task based on the task data; and causing the autonomous mobile robot to execute a task based on a scheduling result A robot management device comprising: an execution command signal generating means for generating an execution command signal; and a communication means for communicating with the robot;
A robot control system for causing the robot to execute a task based on the execution command signal,
The robot management apparatus further includes task data generation means for generating task data based on a communication result by the communication means,
The task scheduling means reschedules the task based on the current position data and execution status data of the robot when task data is newly generated based on the communication result,
The execution instruction signal generation means regenerates the execution instruction signal based on the rescheduling result ,
A map data storage unit that stores map data related to a task execution area in which the robot executes a task;
A gripping part for gripping an article provided in the robot;
Further comprising
Based on the map data and the execution command signal, the robot grips and conveys an article by the gripping unit,
The robot includes a person specifying means for specifying a person who delivers an article based on the execution command signal,
When the person identification unit cannot identify a person who delivers the article within a predetermined time, the robot transports the article to a predetermined place based on the map data, and places the article at the predetermined place. A robot control system that outputs an action report signal indicating that an article has been placed at the predetermined location to a terminal of a person who delivers the article .
前記コミュニケーション手段は、周囲の音を集音するマイクと、集音された音から音声を認識する音声認識部と、を備え、
前記タスクデータ生成手段は、前記音声認識部による認識結果に基づいて、タスクデータを生成する
ことを特徴とする請求項1に記載のロボット制御システム。
The communication means includes a microphone that collects ambient sounds, and a speech recognition unit that recognizes speech from the collected sounds,
The robot control system according to claim 1, wherein the task data generation unit generates task data based on a recognition result by the voice recognition unit.
JP2004361581A 2004-12-14 2004-12-14 Robot control system Expired - Fee Related JP4580226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004361581A JP4580226B2 (en) 2004-12-14 2004-12-14 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361581A JP4580226B2 (en) 2004-12-14 2004-12-14 Robot control system

Publications (2)

Publication Number Publication Date
JP2006167840A JP2006167840A (en) 2006-06-29
JP4580226B2 true JP4580226B2 (en) 2010-11-10

Family

ID=36669121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361581A Expired - Fee Related JP4580226B2 (en) 2004-12-14 2004-12-14 Robot control system

Country Status (1)

Country Link
JP (1) JP4580226B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110144850A1 (en) * 2008-01-16 2011-06-16 Takashi Jikihara Moving apparatus, moving method of moving apparatus, and movement control program of moving apparatus
JP2015080836A (en) * 2013-10-22 2015-04-27 三菱重工業株式会社 Autonomous search system, operation terminal, mobile search device, and search control method
WO2016067467A1 (en) * 2014-10-31 2016-05-06 三菱電機株式会社 Robot control device, robot system, robot control method, and program
JP7051556B2 (en) 2018-04-25 2022-04-11 株式会社日立製作所 Service provision system, information processing device, and control method of service provision system
CN109895093A (en) * 2018-12-08 2019-06-18 浙江国自机器人技术有限公司 Task management method for IDC robot
CN110780651B (en) * 2019-11-01 2022-07-08 四川长虹电器股份有限公司 AGV dispatching system and method
CN113220426B (en) * 2021-04-02 2024-04-12 北京猎户星空科技有限公司 Task processing method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system
JP2004216528A (en) * 2003-01-16 2004-08-05 Matsushita Electric Works Ltd Personal service robot and method of creating work plan for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system
JP2004216528A (en) * 2003-01-16 2004-08-05 Matsushita Electric Works Ltd Personal service robot and method of creating work plan for the same

Also Published As

Publication number Publication date
JP2006167840A (en) 2006-06-29

Similar Documents

Publication Publication Date Title
JP4317518B2 (en) Goods transport system
US10093020B2 (en) Robot apparatus and method of controlling robot apparatus
US7330775B2 (en) Legged mobile robot controller, legged mobile robot and legged mobile robot control method
JP4658892B2 (en) Mobile robot, mobile robot control device, mobile robot control method, and mobile robot control program
JP4856510B2 (en) Mobile robot
JP4276624B2 (en) Robot control apparatus, robot control method, and robot control program
JP4751192B2 (en) Mobile robot
JP4266211B2 (en) Robot device, method of moving robot device, and program
EP2068275A2 (en) Communication robot
JP2007160440A (en) Control device of legged mobile robot
JP2007260822A (en) Guide robot
JP4608472B2 (en) Mobile robot and mobile robot controller
JP4787813B2 (en) Detection target detection system
JP2003079685A (en) Auxiliary appliance for walking of visually handicapped person
JP2013111726A (en) Robot apparatus, method of controlling the same, and computer program
JP4580226B2 (en) Robot control system
US20220080599A1 (en) Robot controlling system
JP5613114B2 (en) Distributed control system
JP4918469B2 (en) Mobile robot
JP2007185763A (en) Controller of legged mobile robot
US20220130066A1 (en) Robot controlling system
JP4281286B2 (en) Robot apparatus and control method thereof
JP5171394B2 (en) Mobile robot
JP2016022537A (en) robot
JP7190919B2 (en) Image analysis system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130903

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4580226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140903

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees