JP2005262378A - Autonomous robot and its control method - Google Patents

Autonomous robot and its control method Download PDF

Info

Publication number
JP2005262378A
JP2005262378A JP2004077973A JP2004077973A JP2005262378A JP 2005262378 A JP2005262378 A JP 2005262378A JP 2004077973 A JP2004077973 A JP 2004077973A JP 2004077973 A JP2004077973 A JP 2004077973A JP 2005262378 A JP2005262378 A JP 2005262378A
Authority
JP
Japan
Prior art keywords
robot
robots
work
autonomous
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004077973A
Other languages
Japanese (ja)
Other versions
JP4254588B2 (en
Inventor
Kazutoshi Nagao
和俊 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2004077973A priority Critical patent/JP4254588B2/en
Publication of JP2005262378A publication Critical patent/JP2005262378A/en
Application granted granted Critical
Publication of JP4254588B2 publication Critical patent/JP4254588B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce cost; and to easily and surely perform operation, by reducing a device scale and a signal processing scale, in cooperative work operation of a plurality of robots by the establishment of an action plan based on indication work. <P>SOLUTION: This autonomous robot for cooperatively operating the plurality of robots 10 to 14, is characterized by having photographing parts 10a to 14a for photographing the periphery, characteristic parts 10b to 14b visually different in response to the respective robots 10 to 14, communication parts 10c to 14c communicating with an external part, and a control part 30 for specifying a presence position of the respective robots 10 to 14 on the basis of the detected characteristic parts 10b to 14b of the respective robots 10 to 14 by detecting the characteristic parts 10b to 14b of the respective robots 10 to 14 from image data photographed by the other robot and image data photographed by the photographing parts of itself by acquiring the image data photographed by the other robot via the communication parts 10c to 14c. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、複数のロボットが協調して行動する自律ロボットおよびその制御方法に関する。   The present invention relates to an autonomous robot in which a plurality of robots act in cooperation and a control method thereof.

例えば特許文献1に開示されているように、複数のロボットが協調して行動する自律ロボットが知られている。   For example, as disclosed in Patent Document 1, an autonomous robot in which a plurality of robots act in cooperation is known.

自律ロボットは(以下、単にロボットという)、他のロボットと協調して所定の目的の作業(以下、協調作業という)を実行する場合に、以下のように動作する。なお、協調作業では、他のロボットに協調作業に係る行動を指令するロボットと、協調作業に係る行動を実行するロボットとが存在し、以下、それぞれを指令役ロボットと実行役ロボットという。また、指令役ロボットは、実行役ロボットを兼ねる場合もある。また、協調作業の実行に際して、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、作業エリアの位置関係を示す地図データ(以下、単に作業エリアの地図データという)を予め記憶しているものとして説明する。   An autonomous robot (hereinafter simply referred to as a robot) operates as described below when executing a predetermined target operation (hereinafter referred to as a cooperative operation) in cooperation with another robot. In the cooperative work, there are a robot that instructs other robots to perform actions related to the cooperative work, and a robot that executes actions related to the cooperative work, and these are hereinafter referred to as a commander robot and an executive robot. Further, the commanding robot may also serve as the executioner robot. Further, when executing the cooperative work, each robot (at least the commanding robot that needs to specify the position of each robot) has map data indicating the positional relationship of the work area (hereinafter simply referred to as work area map data). Is assumed to be stored in advance.

指令役ロボットは、協調作業を実行するために、無線通信によって他のロボットに協調作業に係る行動依頼を送信する。   In order to perform the cooperative work, the commanding robot transmits an action request related to the cooperative work to another robot by wireless communication.

他のロボットは、行動依頼を受信すると、自身の存在位置を検出する。なお、このとき、指令役ロボットも、自身の存在位置を検出する。存在位置の検出は、GPS(Global Positioning System)や磁気センサなどを用いるのが一般的である。GPSは、受信者(ここでは各ロボット)が測地衛星から発信される電波を受信することにより、受信者の地球上での位置(経度および緯度)や、移動方向、移動速度などを検出するシステムである。GPSは、受信者が、米国国防省によって打ち上げられ、かつ、昼夜にかかわらず、受信者の上空に複数(約4〜12個)存在する測地衛星から発信される電波を受信し、複数の測地衛星間の電波の位相を計算し、受信者と複数の測地衛星との間で三角測量を行なうことにより、受信者の地球上での位置(経度および緯度)や、移動方向、移動速度などを検出するものである。GPSは、車や船舶、航空機などの位置を検出する装置(例えばカーナビゲーションシステムなど)に広く用いられており、すでに一般的な技術であるので、ここでは詳細な説明を省略する。他方、磁気センサは、磁気の強弱により自身と他のロボットとの相対的な距離を検出する技術であり、これもすでに一般的な技術であるので、ここでは詳細な説明を省略する。   When the other robot receives the action request, it detects its own location. At this time, the commanding robot also detects its own location. In general, the presence position is detected using a GPS (Global Positioning System), a magnetic sensor, or the like. The GPS is a system that detects the position (longitude and latitude) of the receiver, the moving direction, the moving speed, and the like when the receiver (here, each robot) receives radio waves transmitted from the geodetic satellite. It is. GPS receives radio waves transmitted from multiple geodetic satellites (approximately 4 to 12) above the receiver, regardless of whether the receiver is launched by the US Department of Defense or day and night. By calculating the phase of radio waves between satellites and performing triangulation between the receiver and multiple geodetic satellites, the receiver's position on the earth (longitude and latitude), moving direction, moving speed, etc. It is to detect. GPS is widely used in devices (for example, car navigation systems) that detect the position of a car, a ship, an aircraft, and the like, and since it is already a common technique, detailed description thereof is omitted here. On the other hand, the magnetic sensor is a technique for detecting the relative distance between itself and another robot by the strength of magnetism, and since this is already a general technique, detailed description thereof is omitted here.

他のロボットは、自身の存在位置を検出すると、自身の存在位置を指令役ロボットに通知するデータ(以下、回答データという)を作成し、指令役ロボットに送信する。   When the other robot detects its own position, it creates data (hereinafter referred to as answer data) for notifying its own position to the commanding robot and transmits it to the commanding robot.

指令役ロボットは、他のロボットから回答データを受信すると、回答データを解析し、作業エリアの地図データに基づいて、各ロボットの存在位置を特定する。また、作業エリアの地図データに基づいて、自身の存在位置を特定する。そして、自身を含めた、協調作業を好適に(すなわち、短時間に確実に)実行できる1乃至複数の実行役ロボットを特定し、実行役ロボットの行動計画を策定し、実行役ロボットに送信する。   When the commanding robot receives the answer data from another robot, the commanding robot analyzes the answer data and specifies the location of each robot based on the map data of the work area. In addition, based on the map data of the work area, its own location is specified. Then, one or a plurality of executive robots that can execute collaborative work including itself (preferably in a short time) are identified, and an action plan for the executive robot is formulated and transmitted to the executive robot. .

実行役ロボットは、指令役ロボットから行動計画を受信すると、行動計画および作業エリアの地図データに基づいて協調作業を実行する。なお、実行役ロボットは、作業エリアの地図データを、予め記憶しておらず、指令役ロボットから受信する構成としてもよい。
特開2002−178283号公報
When the executioner robot receives the action plan from the commanding robot, the executioner robot executes cooperative work based on the action plan and the map data of the work area. The executive robot may be configured to receive the map data of the work area from the commanding robot without being stored in advance.
JP 2002-178283 A

協調作業の実行に際して、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、作業エリアの地図データを用いて各ロボットの存在位置を特定する。しかしながら、作業エリアは、一箇所に限らず複数箇所存在するのが一般的である。したがって、各ロボット(少なくとも、各ロボットの存在位置を特定する必要のある指令役ロボット)は、各作業エリアに対応した地図データが必要となる。そのため、従来は、各作業エリアに対応した地図データを作成する手間や、各作業エリアに対応した地図データを各ロボットに記憶させる手間がかかるという問題があった。また各ロボットに記憶された地図データが大量に存在すると、各ロボットの存在位置を特定する速度を低下させ、協調作業を実行する時間を遅滞させるという問題があった。   When executing the cooperative work, each robot (at least the commanding role robot that needs to specify the position of each robot) specifies the position of each robot using the map data of the work area. However, the work area is not limited to a single location but generally exists in multiple locations. Therefore, each robot (at least the commanding role robot that needs to specify the location of each robot) requires map data corresponding to each work area. Therefore, conventionally, there has been a problem that it takes time and effort to create map data corresponding to each work area and to store map data corresponding to each work area in each robot. In addition, when there is a large amount of map data stored in each robot, there is a problem in that the speed for specifying the location of each robot is reduced and the time for executing the cooperative work is delayed.

また、ロボットは、GPSや磁気センサなどを用いて自身の存在位置を検出している。しかしながら、GPSや磁気センサなどの存在位置を検出する手段は、構成が比較的複雑であるため、ロボットの構成を複雑化させるという問題、特に、ロボットの装置規模を増大させ、コストを増大させるという問題があった。また、GPSや磁気センサなどの手段は、ロボットの制御部における信号処理を複雑化させるという問題もあった。   Further, the robot detects its own location using a GPS or a magnetic sensor. However, the means for detecting the location such as GPS and magnetic sensor has a relatively complicated configuration, so the problem of complicating the configuration of the robot, in particular, increasing the device scale of the robot and increasing the cost. There was a problem. Further, the means such as GPS or magnetic sensor has a problem that the signal processing in the control unit of the robot is complicated.

この発明は、このような課題を解決するために、各作業エリアに対応した地図データを用いる必要がなく、かつ、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を特定する自律ロボットおよびその制御方法を提供することを目的とする。   In order to solve such a problem, the present invention does not require the use of map data corresponding to each work area, and autonomously identifies the location of each robot with simpler means than GPS and magnetic sensors. An object is to provide a robot and a control method thereof.

前述の課題を解決するために、この発明に係る自律ロボットは、複数のロボットが協調して行動する自律ロボットにおいて、周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部と、通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の撮影部によって撮影した画像データとから各ロボットの特徴部を検出し、検出した各ロボットの特徴部に基づいて、各ロボットの存在位置を特定する制御部とを有することを特徴とする。   In order to solve the above-described problems, an autonomous robot according to the present invention is an autonomous robot in which a plurality of robots act in a coordinated manner, and an imaging unit that captures the surroundings and a feature that is visually different depending on each robot A communication unit that communicates with the outside, image data captured by another robot via the communication unit, and image data captured by the other robot and image data captured by its own imaging unit. And a control unit that identifies the presence position of each robot based on the detected characteristic portion of each robot.

また、この発明に係る自律ロボットの制御方法は、複数のロボットが協調して行動する自律ロボットの制御方法において、周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部とを有する自律ロボットの制御部は、通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の撮影部によって撮影した画像データとから各ロボットの特徴部を検出し、検出した各ロボットの特徴部に基づいて、各ロボットの存在位置を特定することを特徴とする。   Further, the autonomous robot control method according to the present invention is an autonomous robot control method in which a plurality of robots act cooperatively, and an imaging unit that captures the surroundings, and a visually distinctive feature unit according to each robot, The control unit of an autonomous robot having a communication unit that communicates with the outside acquires image data captured by another robot via the communication unit, and is captured by the image data captured by the other robot and the own imaging unit. A feature portion of each robot is detected from the image data, and the presence position of each robot is specified based on the detected feature portion of each robot.

これにより、この発明に係る自律ロボットおよびその制御方法は、各作業エリアに対応した地図データを用いる必要がなく、かつ、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を特定することができる。   As a result, the autonomous robot and its control method according to the present invention do not need to use map data corresponding to each work area, and specify the location of each robot with simpler means than GPS and magnetic sensors. be able to.

この発明に係る自律ロボットおよびその制御方法は、各作業エリアに対応した地図データを用いることなく、他のロボットの存在位置を正確に特定することができる。特に、自身が撮影した画像データの中から、他のロボットを検出することが困難な場合(例えば、他のロボットが障害物や背景と重なるような場合)であっても、他のロボットの存在位置を正確に特定することができる。そのため、自身を含めた、協調作業を好適に(すなわち、短時間に確実に)実行できる1乃至複数の実行役ロボットを特定し、実行役ロボットの行動計画を策定することができる。したがって、各作業エリアに対応した地図データを作成する手間や、各作業エリアに対応した地図データを各ロボットに記憶させる手間をなくすことができる。また大量の地図データを各ロボットに記憶させる必要がないので、各ロボットの存在位置を特定する速度を向上させ、協調作業を実行する時間を短縮させることができる。   The autonomous robot and its control method according to the present invention can accurately specify the location of another robot without using map data corresponding to each work area. In particular, even if it is difficult to detect other robots from the image data taken by them (for example, when other robots overlap with obstacles or the background), the presence of other robots exists. The position can be specified accurately. Therefore, it is possible to identify one or a plurality of executive robots that can execute collaborative work including themselves (that is, reliably in a short time) and formulate an action plan for the executive robot. Therefore, the trouble of creating map data corresponding to each work area and the trouble of storing the map data corresponding to each work area in each robot can be eliminated. In addition, since it is not necessary to store a large amount of map data in each robot, the speed for specifying the location of each robot can be improved, and the time for executing cooperative work can be shortened.

また、この発明に係る自律ロボットおよびその制御方法は、GPSや磁気センサなどの複雑な構成を用いずに、GPSや磁気センサなどよりも簡素な手段で各ロボットの存在位置を検出する。そのため、ロボットの構成を簡素化させることができ、特に、ロボットの装置規模を縮小させ、コストを低下させることができる。また、ロボットの制御部における信号処理を簡素化させることができる。   In addition, the autonomous robot and its control method according to the present invention detect the presence position of each robot with simpler means than GPS and magnetic sensors, without using complicated configurations such as GPS and magnetic sensors. For this reason, the configuration of the robot can be simplified, and in particular, the device scale of the robot can be reduced and the cost can be reduced. Further, signal processing in the control unit of the robot can be simplified.

以下に、図を参照してこの発明の実施の形態を説明する。なお、各図は、この発明を理解できる程度に概略的に示してあるに過ぎない。よって、この発明は図示例のみに限定されるものではない。また、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。   Embodiments of the present invention will be described below with reference to the drawings. Each figure is shown only schematically to the extent that the present invention can be understood. Therefore, the present invention is not limited to the illustrated example. Moreover, in each figure, the same code | symbol is attached | subjected about the common component and the same component, and those overlapping description is abbreviate | omitted.

<実施形態の全体構成>
図1は、実施形態の全体構成を概略的に示す図である。図1に示す実施形態は、第1〜第5の5台の自律ロボット(以下、単にロボットという)10,11,12,13,14と、各ロボット10〜14間における通信を制御する通信制御装置20とを有している。なお、この実施形態では、各ロボット10〜14は、胴体を中心に頭部と腕部と脚部とを有し、二本足で走行するヒューマノイド型(人間型)であるものとする。また、ロボット10が指令役ロボットであるものとする。また、各ロボット10〜14間や各ロボット10〜14と通信制御装置20間の通信は、各ロボット10〜14間や各ロボット10〜14と通信制御装置20間に何らかの障害物が存在しても行えるように、無線によるものとする。
<Overall Configuration of Embodiment>
FIG. 1 is a diagram schematically showing the overall configuration of the embodiment. The embodiment shown in FIG. 1 is a communication control for controlling communication between first to fifth five autonomous robots (hereinafter simply referred to as robots) 10, 11, 12, 13, and 14 and the robots 10 to 14. Device 20. In this embodiment, each of the robots 10 to 14 is assumed to be a humanoid type (human type) having a head, an arm, and a leg around the torso and traveling on two legs. Further, it is assumed that the robot 10 is a command role robot. In addition, communication between the robots 10 to 14 or between the robots 10 to 14 and the communication control device 20 is caused by some obstacles between the robots 10 to 14 or between the robots 10 to 14 and the communication control device 20. It shall be wireless so that it can also be performed.

各ロボット10〜14は、それぞれ、周囲を撮影するカメラ10a,11a,12a,13a,14aと、各ロボット10〜14に応じて視覚的に相違する特徴部10b,11b,12b,13b,14bと、外部と通信する無線通信部10c,11c,12c,13c,14cと、作業アーム10d,11d,12d,13d,14dと、二本足走行機構部10e,11e,12e,13e,14eとを有する。   Each of the robots 10 to 14 has a camera 10a, 11a, 12a, 13a, and 14a that captures the surroundings, and features 10b, 11b, 12b, 13b, and 14b that are visually different depending on the robots 10 to 14, respectively. , Wireless communication units 10c, 11c, 12c, 13c, 14c for communicating with the outside, working arms 10d, 11d, 12d, 13d, 14d, and two-leg running mechanism units 10e, 11e, 12e, 13e, 14e .

カメラ10a〜14aは、他のロボットが何らかの障害物の背後に位置する場合に、他のロボットをできるだけ撮影できるように、高い位置に設置されることが好ましい。また、周囲を広範囲に撮影できるように、水平方向に回動可能に設置されることが好ましい。そこで、この実施形態では、カメラ10a〜14aは、各ロボット10〜14の頭部に設置されるものとする。また、カメラ10a〜14aは、動画像を撮影するものが好ましい。   The cameras 10a to 14a are preferably installed at high positions so that the other robots can be photographed as much as possible when the other robots are located behind some obstacles. Moreover, it is preferable to be installed so that it can be rotated in the horizontal direction so that the surroundings can be photographed over a wide range. Therefore, in this embodiment, the cameras 10a to 14a are installed on the heads of the robots 10 to 14, respectively. The cameras 10a to 14a are preferably those that capture moving images.

特徴部10b〜14bは、個々のロボット10〜14に特有な外観上の特徴箇所、すなわち各ロボット10〜14に応じて違えられた外観上の特徴箇所(例えばボディ形状や塗装など)を有している。各ロボット10〜14は、特徴部10b〜14bにおける外観上の違いから、各個体を識別することができる。特徴部10b〜14bは、他のロボット10〜14によって撮影され易い位置に設置されることが好ましい。そこで、この実施形態では、特徴部10b〜14bは、各ロボット10〜14の頭部に設置されるものとする。例えば、図1に示す例では、各ロボット10〜14の頭部に、頭部を周回する帯状の塗装が施こされている。この塗装は各ロボット10〜14に応じて模様や配色が違えられており、この塗装が特徴部10b〜14bとなる。なお、図1に示すロボット10〜14には、頭部に棒状の突起が設けられているが、この突起の形状を各ロボット10〜14に応じて違えることにより、突起を特徴部10b〜14bとして機能させることもできる。   The characteristic portions 10b to 14b have characteristic features on the appearance that are specific to the individual robots 10 to 14, that is, characteristic features on the appearance that are changed depending on the robots 10 to 14 (for example, body shape, paint, etc.). ing. Each robot 10-14 can identify each individual from the difference in appearance in the characteristic portions 10b-14b. The characteristic portions 10b to 14b are preferably installed at positions where they can be easily photographed by the other robots 10 to 14. Therefore, in this embodiment, the characteristic portions 10b to 14b are installed on the heads of the robots 10 to 14, respectively. For example, in the example shown in FIG. 1, a belt-like coating that goes around the heads is applied to the heads of the robots 10 to 14. This paint has different patterns and color schemes according to the robots 10 to 14, and this paint becomes the characteristic portions 10b to 14b. In addition, although the robot 10-14 shown in FIG. 1 is provided with the rod-shaped protrusion in the head, by changing the shape of this protrusion according to each robot 10-14, protrusion is made into characteristic part 10b-14b. It can also function as.

なお、特徴部10b〜14bは、前述の通り、個々のロボット10〜14に特有な外観上の特徴箇所を有している。その特徴部10b〜14bに関するデータは、協調作業を実行するに際して、各ロボット10〜14と対応付けられて、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットである第1のロボット10)に予め記憶されている。この特徴部10b〜14bに関するデータは、各ロボット10〜14が撮影した画像のデータ(以下、単に画像データまたは画像という)の中から各ロボット10〜14を検出するのに用いられる。   In addition, the characteristic parts 10b-14b have the characteristic part on the external appearance peculiar to each robot 10-14 as above-mentioned. The data related to the features 10b to 14b is associated with the robots 10 to 14 when executing the cooperative work, and the robots 10 to 14 (at least the positions of the robots 10 to 14 need to be specified). It is stored in advance in the first robot 10) which is the commanding robot. The data related to the feature portions 10b to 14b is used to detect the robots 10 to 14 from image data (hereinafter simply referred to as image data or images) taken by the robots 10 to 14.

無線通信部10c〜14cは、外部(この実施形態では通信制御装置20や他のロボット)と通信する通信部として機能する。この実施形態では、無線通信部10c〜14cは、胴体の背面に設置されるものとする。   The wireless communication units 10c to 14c function as communication units that communicate with the outside (in this embodiment, the communication control device 20 and other robots). In this embodiment, the wireless communication units 10c to 14c are installed on the back surface of the trunk.

作業アーム10d〜14dは、人間の腕部に相当する部位である。なお、図1には手が描かれていないが、実際には人間の手と同様の構成が存在する。   The work arms 10d to 14d are portions corresponding to human arm portions. In addition, although a hand is not drawn in FIG. 1, the structure similar to a human hand exists in fact.

二本足走行機構部10e〜14eは、人間の脚部に相当する部位である。   The two-leg running mechanism units 10e to 14e are portions corresponding to human legs.

なお、図1は5台のロボット10〜14による構成例を示しているが、ロボットの台数はこれに限らず増減することができる。ロボットの台数を増減する場合の全体構成は、図1と同様である。   FIG. 1 shows an example of the configuration of five robots 10 to 14, but the number of robots is not limited to this and can be increased or decreased. The overall configuration when increasing or decreasing the number of robots is the same as in FIG.

<ロボットの制御部の構成>
以下に、ロボット10〜14の制御部の構成について説明する。なお、ここでは、便宜的に指令役ロボットである第1のロボット10の制御部を例にして説明するが、他のロボット11〜14の制御部も同様の構成となっている。
<Configuration of robot controller>
Below, the structure of the control part of the robots 10-14 is demonstrated. Here, for the sake of convenience, the control unit of the first robot 10 that is the commanding robot will be described as an example, but the control units of the other robots 11 to 14 have the same configuration.

図2は、ロボットの制御部の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating the configuration of the control unit of the robot.

制御部30は、無線通信部10cを介して他のロボット11〜14が撮影した画像データを取得し、他のロボット11〜14が撮影した画像データと自身が制御するロボット10が撮影した画像データとから各ロボット11〜14の特徴部11b〜14bを検出し、検出した各ロボット11〜14の特徴部11b〜14bに基づいて、各ロボット11〜14の存在位置を特定する部位である。また、自身が制御するロボット10や他のロボット11〜14の行動計画を策定する部位でもある。さらに、行動計画を解析し、協調作業に係る行動(ただし、自身が制御するロボット10に関連する部分の行動)を実行する部位でもある。   The control unit 30 acquires image data captured by the other robots 11 to 14 via the wireless communication unit 10c, and image data captured by the other robots 11 to 14 and image data captured by the robot 10 controlled by itself. From the above, the characteristic portions 11b to 14b of the robots 11 to 14 are detected, and based on the detected characteristic portions 11b to 14b of the robots 11 to 14, the positions of the robots 11 to 14 are specified. It is also a part for formulating action plans for the robot 10 and other robots 11 to 14 controlled by itself. Furthermore, it is also a part that analyzes the action plan and executes the action related to the cooperative work (however, the action related to the robot 10 controlled by itself).

ロボット10の制御部30は、MPUによって構成され、無線通信部10cを制御する無線通信制御部31と、制御部30内の各部を制御する主制御部32と、協調作業を実行するための行動計画を策定する行動計画策定部33と、各種データを記憶する記憶部34と、各ロボット10〜14が撮影した画像データを加工処理する画像データ処理部36と、作業アーム10dの駆動を制御する作業アーム駆動処理部38と、二本足走行機構部10eの駆動を制御する走行駆動処理部39とを有する。   The control unit 30 of the robot 10 is configured by an MPU, and includes a wireless communication control unit 31 that controls the wireless communication unit 10c, a main control unit 32 that controls each unit in the control unit 30, and an action for performing cooperative work. An action plan formulation unit 33 for formulating a plan, a storage unit 34 for storing various data, an image data processing unit 36 for processing image data captured by each robot 10-14, and driving of the work arm 10d are controlled. A work arm drive processing unit 38 and a travel drive processing unit 39 that controls driving of the two-leg travel mechanism unit 10e are provided.

無線通信制御部31は、アンテナAntと接続され、外部(すなわち、通信制御装置20や他のロボット)と無線通信を行う部位である。   The wireless communication control unit 31 is a part that is connected to the antenna Ant and performs wireless communication with the outside (that is, the communication control device 20 or another robot).

主制御部32は、制御部30内の各部を制御して、各ロボット11〜14の存在位置を特定する部位である。また、行動計画を解析し、制御部30内の各部を制御して、協調作業に係る行動(ただし、自身が制御するロボット10に関連する部分の行動)を実行する部位でもある。   The main control unit 32 is a part that controls each unit in the control unit 30 and identifies the positions where the robots 11 to 14 exist. It is also a part that analyzes an action plan and controls each part in the control unit 30 to execute an action related to cooperative work (however, an action related to the robot 10 controlled by itself).

行動計画策定部33は、協調作業を実行するための行動計画を策定する部位である。   The action plan formulation unit 33 is a part that formulates an action plan for executing cooperative work.

記憶部34は、各種データを記憶する部位である。記憶部34は、ロボットデータ34aと、特定領域データ34bと、対象物データ34cと、各種位置データ34dとを記憶する。なお、図12は、記憶部34に記憶される各種データの構成を示す図である。図12(A)〜(D)は、それぞれ、図2に示すロボットデータ34aと、特定領域データ34bと、対象物データ34cと、各種位置データ34dとを示している。   The storage unit 34 is a part that stores various data. The storage unit 34 stores robot data 34a, specific area data 34b, object data 34c, and various position data 34d. FIG. 12 is a diagram illustrating a configuration of various data stored in the storage unit 34. FIGS. 12A to 12D respectively show the robot data 34a, the specific area data 34b, the object data 34c, and various position data 34d shown in FIG.

ロボットデータ34aは、各ロボット10〜14の特徴部10b〜14bに関するデータであり、個々のロボット10〜14と個々のロボット10〜14に特有な外観上の特徴箇所との対応関係を示している。例えば、図12(A)では、「名称」や、「IP(Internet Protocol)アドレス」、「特徴箇所(表示色)」などを含むデータとして示されており、名称を「第1のロボット(10)」とするロボットは、IPアドレスとして「192.168.0.10」を有し、特徴箇所として「赤」色を有することを示している。なお、ここでは、各ロボット10〜14が無線LANを使用するシステムに組み込まれており、ロボット10が無線通信によって相手のロボットを識別して指示を送信することを想定しているので、IPアドレスを用いている。しかしながら、必ずしもIPアドレスに限るものではなく、各ロボット10〜14間の通信形態に応じて適宜別の形態に変更することができる。また、図12(A)では、各ロボット10〜14の特徴部10b〜14bの特徴箇所として表示色を用いているが、これに限らず、例えばロボット10〜14ごとに違えられた形状やマークなどのように、外観上の違いから各ロボット10〜14を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各ロボット10〜14の特徴部10b〜14bの特徴箇所を検出することによって各ロボット10〜14を検出することができる。   The robot data 34a is data relating to the characteristic portions 10b to 14b of the robots 10 to 14, and indicates a correspondence relationship between the individual robots 10 to 14 and the characteristic points on the appearance unique to the individual robots 10 to 14. . For example, FIG. 12A shows data including “name”, “IP (Internet Protocol) address”, “characteristic location (display color)”, and the name is “first robot (10 ) ”Has“ 192.168.0.10 ”as an IP address, and“ red ”as a characteristic location. Here, it is assumed that each of the robots 10 to 14 is incorporated in a system using a wireless LAN, and the robot 10 identifies an opponent robot by wireless communication and transmits an instruction. Is used. However, it is not necessarily limited to the IP address, and can be appropriately changed to another form according to the communication form between the robots 10 to 14. In FIG. 12A, the display colors are used as the characteristic portions of the characteristic portions 10b to 14b of the robots 10 to 14. However, the present invention is not limited to this, and for example, different shapes and marks for the robots 10 to 14 are used. As long as it is a means that can identify each robot 10 to 14 from the difference in appearance. A robot that needs to specify the location of each of the robots 10 to 14 (at least a commanding robot at the time of collaborative work (first robot 10 in this embodiment)) is selected from images captured by the robots 10 to 14. The robots 10 to 14 can be detected by detecting the characteristic portions of the characteristic portions 10 b to 14 b of the robots 10 to 14.

特定領域データ34bは、協調作業に係る特定な行動を実行する領域(以下、特定領域という)に関するデータであり、特定領域と特定領域に特有な特徴箇所との対応関係を示している。例えば、図12(B)では、「特定領域」と「特徴箇所(表示色)」などを含むデータとして示されており、特定領域「エリア101」は、特徴箇所として「茶」色を有することを示している。なお、図12(B)では、各特定領域の特徴箇所として表示色を用いているが、これに限らず、例えば特定領域ごとに違えられた形状やマークなどのように、外観上の違いから各特定領域を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各特定領域の特徴箇所を検出することによって各特定領域を検出することができる。   The specific area data 34b is data relating to an area (hereinafter referred to as a specific area) where a specific action related to the cooperative work is performed, and indicates a correspondence relationship between the specific area and a characteristic portion unique to the specific area. For example, FIG. 12B shows data including “specific region” and “characteristic location (display color)”, and the specific region “area 101” has “brown” color as the characteristic location. Is shown. In FIG. 12B, the display color is used as the characteristic portion of each specific area. However, the display color is not limited to this, and for example, due to a difference in appearance such as a shape or a mark that is different for each specific area. Any means capable of identifying each specific area may be used. A robot that needs to specify the location of each of the robots 10 to 14 (at least a commanding robot at the time of collaborative work (first robot 10 in this embodiment)) is selected from images captured by the robots 10 to 14. Each specific area can be detected by detecting a characteristic portion of each specific area.

対象物データ34cは、協調作業に係る対象物(この実施形態では荷物M)に関するデータであり、対象物と対象物に特有な特徴箇所との対応関係を示している。例えば、図12(C)では、「対象物」と「特徴箇所(表示色)」などを含むデータとして示されており、対象物「荷物M」は、特徴箇所として「オレンジ」色を有することを示している。なお、図12(C)では、各対象物の特徴箇所として表示色を用いているが、これに限らず、例えば対象物ごとに違えられた形状やマークなどのように、外観上の違いから各対象物を識別することができる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各対象物の特徴箇所を検出することによって各対象物を検出することができる。   The target object data 34c is data related to the target object related to the cooperative work (in this embodiment, the luggage M), and indicates a correspondence relationship between the target object and a characteristic portion unique to the target object. For example, in FIG. 12C, data including “object” and “characteristic location (display color)” is shown, and the object “cargo M” has “orange” color as the characteristic location. Is shown. In FIG. 12C, the display color is used as the characteristic portion of each object. However, the display color is not limited to this. For example, due to the difference in appearance such as a shape or a mark that is different for each object. Any means capable of identifying each object may be used. A robot that needs to specify the location of each of the robots 10 to 14 (at least a commanding robot at the time of collaborative work (first robot 10 in this embodiment)) is selected from images captured by the robots 10 to 14. Each object can be detected by detecting a characteristic portion of each object.

各種位置データ34dは、主制御部32が各ロボット10〜14が撮影した画像の中から検出した様々な物品の存在位置に関する位置データであり、物品と物品の位置との対応を示している。例えば、図12(D)では、「物品」と「位置」などを含むデータとして示されており、物品「第1のロボット10」は、位置「(x○○,y△△)」に存在することを示している。なお、図12(D)では、各物品の位置として座標値を用いているが、これに限らず、例えばある地点からの距離値や角度値などのように、何らかの手法によって位置を特定できる手段であればよい。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、各ロボット10〜14が撮影した画像の中から各物品の位置を検出することによって協調作業に係る行動を実行することができる。   The various position data 34d is position data relating to the positions of various articles detected from the images captured by the robots 10 to 14 by the main control unit 32, and indicates the correspondence between the articles and the positions of the articles. For example, in FIG. 12D, data including “article” and “position” is shown, and the article “first robot 10” exists at the position “(x ○○, yΔΔ)”. It shows that In FIG. 12D, coordinate values are used as the position of each article. However, the present invention is not limited to this. For example, a means for specifying the position by some method such as a distance value or an angle value from a certain point. If it is. A robot that needs to specify the location of each of the robots 10 to 14 (at least a commanding robot at the time of collaborative work (first robot 10 in this embodiment)) is selected from images captured by the robots 10 to 14. By detecting the position of each article, it is possible to execute an action related to the cooperative work.

ロボットデータ34aと特定領域データ34bと対象物データ34cは、この実施形態では、協調作業を実行する際に、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットであるロボット10)の記憶部34に予め記憶されている。また、各種位置データ34dは、各ロボット10〜14(少なくとも、各ロボット10〜14の存在位置を特定する必要のある指令役ロボットであるロボット10)が各ロボット10〜14の位置や対象物(荷物M)の位置を検出する都度、そのロボットの記憶部34に記憶される。   In this embodiment, the robot data 34a, the specific area data 34b, and the target object data 34c are required to specify each robot 10-14 (at least the location of each robot 10-14 when performing a collaborative work). It is stored in advance in the storage unit 34 of the robot 10) which is the commanding robot. In addition, the various position data 34d includes the positions of the robots 10 to 14 (at least the robots 10 that are commanding robots that need to specify the positions of the robots 10 to 14) and the objects ( Each time the position of the load M) is detected, it is stored in the storage unit 34 of the robot.

画像データ処理部36は、各ロボット10〜14が撮影した画像データを、主制御部32が取り込み可能な形式に加工処理する部位である。   The image data processing unit 36 is a part that processes the image data captured by each of the robots 10 to 14 into a format that can be captured by the main control unit 32.

作業アーム駆動処理部38は、作業アーム10dを駆動する部位である。   The work arm drive processing unit 38 is a part that drives the work arm 10d.

走行駆動処理部39は、二本足走行機構部10eを駆動する部位である。   The travel drive processing unit 39 is a part that drives the two-leg travel mechanism unit 10e.

<通信制御装置の構成>
以下に、通信制御装置の構成について説明する。
<Configuration of communication control device>
The configuration of the communication control device will be described below.

図3は、通信制御装置の構成を示すブロック図である。通信制御装置20は、無線通信部20aと、主制御部20bと、入出力(I/O)部20cと、入力部20dと、表示部20eとを有する。   FIG. 3 is a block diagram illustrating a configuration of the communication control apparatus. The communication control device 20 includes a wireless communication unit 20a, a main control unit 20b, an input / output (I / O) unit 20c, an input unit 20d, and a display unit 20e.

無線通信部20aは、アンテナAntと接続され、外部(すなわち、各ロボット10〜14)と無線通信を行う部位である。   The wireless communication unit 20a is a part that is connected to the antenna Ant and performs wireless communication with the outside (that is, the robots 10 to 14).

主制御部20bは、各ロボット10〜14間の無線による通信を制御する部位である。   The main control unit 20b is a part that controls wireless communication between the robots 10-14.

I/O部20cは、主制御部20bと入力部20dと表示部20eとの間に介在し、図示せぬオペレータによって指示される作業内容(以下、指示作業という)を、入力部20dから入力し、主制御部20bや表示部20eに出力する部位である。   The I / O unit 20c is interposed between the main control unit 20b, the input unit 20d, and the display unit 20e, and inputs work contents (hereinafter referred to as instruction work) designated by an operator (not shown) from the input unit 20d. And it is a part output to the main control part 20b and the display part 20e.

入力部20dは、例えばキーボードなどの、図示せぬオペレータが指示作業を入力する部位である。なお、指示作業は、図示せぬ記憶部に記憶される。図示せぬ記憶部に記憶された指示作業は、後から入力部20dによって変更されることもできる。   The input unit 20d is a part where an unillustrated operator inputs an instruction work such as a keyboard. The instruction work is stored in a storage unit (not shown). The instruction work stored in the storage unit (not shown) can be changed later by the input unit 20d.

表示部20eは、入力部20dによって入力された指示作業や各ロボット10〜14から送信される各種データを表示する部位である。   The display unit 20e is a part that displays the instruction work input by the input unit 20d and various data transmitted from the robots 10 to 14.

<実施形態の動作の概要>
以下に、ロボット10〜14が協調作業によって荷物Mを運搬する場合を例にして、実施形態の動作の概要について説明する。
<Outline of Operation of Embodiment>
Below, the outline | summary of operation | movement of embodiment is demonstrated by making into an example the case where the robots 10-14 carry the load M by cooperative work.

図4は、実施形態の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the embodiment.

図4に示すように、通信制御装置20は、適宜、図示せぬオペレータによって任意の指示作業を受け付ける(ステップS1)。この実施形態では、図5に示すように、「荷物Mを現在位置からエリア101内に運搬せよ」との指示作業を受け付けたものとする。なお、図5は、各ロボットの動作を示す図である。図5は、作業エリア100内に5台のロボット10〜14と荷物Mが配置されていること、ロボット13が荷物Mを取りに行くこと、ロボット13が荷物Mをロボット14まで運搬してロボット14に渡すこと、および、ロボット14が荷物Mをエリア101内まで運搬することを示している。   As shown in FIG. 4, the communication control apparatus 20 receives an arbitrary instruction work by an operator (not shown) as appropriate (step S1). In this embodiment, as shown in FIG. 5, it is assumed that an instruction work “Transport the luggage M from the current position into the area 101” is accepted. FIG. 5 is a diagram illustrating the operation of each robot. FIG. 5 shows that five robots 10 to 14 and a baggage M are arranged in the work area 100, that the robot 13 goes to pick up the baggage M, and that the robot 13 carries the baggage M to the robot 14 and moves to the robot. 14, and the robot 14 carries the load M into the area 101.

通信制御装置20は、指示作業を受け付けると、指令役ロボットであるロボット10に指示作業を送信する(ステップS2)。なお、このとき、ロボット10に限らず、全てのロボット10〜14に指示作業を送信するようにしてもよい。   When the communication control device 20 receives the instruction work, the communication control apparatus 20 transmits the instruction work to the robot 10 which is the commanding robot (step S2). At this time, the instruction work may be transmitted not only to the robot 10 but also to all the robots 10 to 14.

指令役ロボットであるロボット10は、通信制御装置20から指示作業を受信すると、各ロボット10〜14の位置を検出する(ステップS3)。なお、ロボット10の動作の詳細と、各ロボット10〜14の位置を検出する手法については、後述する。   When receiving the instruction work from the communication control device 20, the robot 10 that is a commanding robot detects the positions of the robots 10 to 14 (step S3). Details of the operation of the robot 10 and a method for detecting the positions of the robots 10 to 14 will be described later.

ロボット10は、各ロボット10〜14の位置を検出すると、指示作業を実行するための行動計画を策定する(ステップS4)。   When the robot 10 detects the positions of the robots 10 to 14, the robot 10 formulates an action plan for executing the instruction work (step S4).

ロボット10は、行動計画を他のロボット11〜14(少なくとも、実行役ロボットとなるロボット)に送信し、行動計画に基づいて指示作業を実行させる(ステップS5)。なお、このとき、指令役ロボットであるロボット10自身が実行役ロボットになって、他のロボット11〜14と協調して指示作業を実行する場合もある。   The robot 10 transmits the action plan to the other robots 11 to 14 (at least the robot that becomes the executioner robot), and executes the instruction work based on the action plan (step S5). At this time, there is a case where the robot 10 itself which is the commanding role robot becomes an executing role robot and executes the instruction work in cooperation with the other robots 11 to 14.

各ロボット11〜14は、各自が担当する作業が終了すると、作業の終了通知を指令役ロボットであるロボット10に送信する。このようにして、行動計画に係る全てのロボット10〜14の作業が終了すると、指示作業が完了したことになる。   When each of the robots 11 to 14 finishes the work for which it is in charge, the robot 11-14 sends a work end notification to the robot 10 that is the commanding robot. In this way, when all the robots 10 to 14 related to the action plan are finished, the instruction work is completed.

指令役ロボットであるロボット10は、行動計画に係る全てのロボット10〜14の作業が終了したら(すなわち、指示作業が完了したら)、指示作業の完了通知を通信制御装置20に送信する(ステップS6)。なお、ロボット10は、所定の時間内に、行動計画に係る全てのロボット10〜14の作業が終了しない場合(すなわち、指示作業が完了しない場合)は、再度、行動計画を策定し、行動計画を他のロボット11〜14(少なくとも、実行役ロボットとなるロボット)に送信し、行動計画に基づいて指示作業を実行させる。   When the work of all the robots 10 to 14 related to the action plan is completed (that is, when the instruction work is completed), the robot 10 that is the commanding role robot transmits a notification of completion of the instruction work to the communication control device 20 (step S6). ). The robot 10 formulates an action plan again when the work of all the robots 10 to 14 related to the action plan is not completed within a predetermined time (that is, when the instruction work is not completed), Are transmitted to the other robots 11 to 14 (at least the robot that becomes the executive robot), and the instruction work is executed based on the action plan.

通信制御装置20は、ロボット10から指示作業の完了通知を受信すると、指示作業の完了を表示部20eに表示する(ステップS7)。これによって、オペレータは、指示作業の完了を知ることになる。   When the communication control apparatus 20 receives the notification of completion of the instruction work from the robot 10, the communication control apparatus 20 displays the completion of the instruction work on the display unit 20e (step S7). As a result, the operator knows the completion of the instruction work.

<指令役ロボットの動作の詳細>
以下に、指令役ロボットであるロボット10の動作について説明する。
<Details of operation of commander robot>
Hereinafter, the operation of the robot 10 which is a command combination robot will be described.

図6と図7は、指令役ロボットの動作を示すフローチャートである。図6は、図4のステップS3以降における指令役ロボットであるロボット10の動作を示している。また、図7は、図6におけるサブルーチンにおける動作を示すフローチャートである。   6 and 7 are flowcharts showing the operation of the commanding robot. FIG. 6 shows the operation of the robot 10 which is the commanding robot after step S3 in FIG. FIG. 7 is a flowchart showing the operation in the subroutine in FIG.

図6に示すように、指令役ロボットであるロボット10は、まず、通信制御装置20から指示作業を受信する(ステップS10)。なお、以下のステップS10〜S17は、図4におけるステップS3に相当する。   As shown in FIG. 6, the robot 10 that is the commanding role robot first receives an instruction work from the communication control device 20 (step S10). The following steps S10 to S17 correspond to step S3 in FIG.

ステップS10の後、指令役ロボットであるロボット10は、カメラ10aによって自身の周囲を撮影した画像を取得する(ステップS11)。なお、ステップS11は、後述のステップS17,S20の後にも存在するが、ステップS17,S20の後の場合は、他のロボット11〜14が撮影した画像を取得することになる。   After step S10, the robot 10 serving as the commanding role robot acquires an image obtained by photographing its surroundings with the camera 10a (step S11). Note that step S11 is also present after steps S17 and S20, which will be described later, but in the case after steps S17 and S20, images taken by other robots 11 to 14 are acquired.

ロボット10は、取得した画像を、順次、記憶部34(図2参照)に記憶するとともに、画像データ処理部36によって各画像に含まれる他のロボット11〜14や、協調作業の対象物(この実施形態では荷物M)、協調作業の目的となる特定領域(この実施形態では協調作業の終点であるエリア101であり、以下、目的領域という)を認識し、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭を抽出する(ステップS12)。そして、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭データを生成する(ステップS13)。   The robot 10 sequentially stores the acquired images in the storage unit 34 (see FIG. 2), and other robots 11 to 14 included in each image by the image data processing unit 36, and objects for collaborative work (this The embodiment recognizes a specific area (in this embodiment, the area 101 which is the end point of the cooperative work, hereinafter referred to as the target area), and recognizes the other robots 11 to 14 and the cooperative work. The outline of the target object and the target area is extracted (step S12). Then, the other robots 11 to 14, the object of the cooperative work, and the contour data of the target area are generated (step S13).

ロボット10は、他のロボット11〜14や、協調作業の対象物、目的領域の輪郭データを用いて、他のロボット11〜14や、協調作業の対象物、目的領域などの位置を検出する(ステップS14)。   The robot 10 detects the positions of the other robots 11 to 14, the target of the cooperative work, the target area, and the like using the contour data of the other robots 11 to 14, the target of the cooperative work, and the target area ( Step S14).

なお、これらの位置検出の詳細については、後述の「各物品の位置を検出する手法」の章で詳述する。また、ステップS12〜S14は、後述のステップS17,S20の後にも存在するが、ステップS17,S20の後の場合は、ロボット10は、ステップS12で他のロボット11〜14が撮影した画像の中から自身(ロボット10)を含む各ロボット10〜14や、協調作業の対象物、目的領域を認識して、これら各物品の輪郭を抽出し、ステップS13でこれら各物品の輪郭データを生成し、ステップS14でこれら各物品の位置を検出することになる。   The details of the position detection will be described in detail in the later section “Method for detecting the position of each article”. Steps S12 to S14 are also present after steps S17 and S20, which will be described later. In the case after steps S17 and S20, the robot 10 includes the images captured by the other robots 11 to 14 in step S12. To recognize the robots 10 to 14 including themselves (robots 10), the object of the cooperative work, and the target area, extract the contours of these articles, and generate the contour data of these articles in step S13, In step S14, the position of each article is detected.

ロボット10は、障害物に隠れているロボットがあるかを判断し、Yesの場合(すなわち、障害物に隠れているロボットがある場合)に工程をステップS16に進め、Noの場合(すなわち、障害物に隠れているロボットがない場合)に工程をステップS18に進める(ステップS15)。   The robot 10 determines whether there is a robot hidden behind the obstacle. If Yes (ie, if there is a robot hidden behind the obstacle), the process proceeds to step S16, and if No (ie, the obstacle exists). If there is no robot hidden behind the object, the process proceeds to step S18 (step S15).

ロボット10は、ステップS15において、Yesの場合(すなわち、障害物に隠れているロボットがある場合)に、他のロボット11〜14が撮影した画像を自身(ロボット10)に送信することを要求する信号(以下、撮影画像要求信号という)を、他のロボット11〜14に送信し(ステップS16)、図7に示す後述のサブルーチンの動作を他のロボット11〜14に行わせる(ステップS17)。すなわち、図7に示すように、ロボット10から撮影画像要求信号を受信し(ステップS30)、各自のカメラ11a〜14aによって各自の周囲を撮影した画像を取得し(ステップS31)、各自が撮影した画像をロボット10に送信する動作を、他のロボット11〜14に行なわせる。この後、ロボット10は、工程をステップS11に戻して再度指示作業を実行する。この場合は、ロボット10は、前述の通り、ステップS12で他のロボット11〜14が撮影した画像の中から自身(ロボット10)を含む各ロボット10〜14や、協調作業の対象物、目的領域を認識して、これら各物品の輪郭を抽出し、ステップS13でこれら各物品の輪郭データを生成し、ステップS14でこれら各物品の位置を検出することになる。   In step S15, the robot 10 requests that the images captured by the other robots 11 to 14 be transmitted to itself (robot 10) in the case of Yes (that is, when there is a robot hidden behind an obstacle). A signal (hereinafter referred to as a photographic image request signal) is transmitted to the other robots 11 to 14 (step S16), and the other robots 11 to 14 perform the operation of a subroutine described later shown in FIG. 7 (step S17). That is, as shown in FIG. 7, a photographed image request signal is received from the robot 10 (step S30), images obtained by photographing each person's surroundings are obtained by the respective cameras 11a to 14a (step S31), and each photographed. The other robots 11 to 14 are caused to perform an operation of transmitting an image to the robot 10. Thereafter, the robot 10 returns the process to step S11 and executes the instruction work again. In this case, as described above, the robot 10 includes the robots 10 to 14 including itself (the robot 10) from the images captured by the other robots 11 to 14 in step S12, the target object of the cooperative work, and the target area. , The outlines of these articles are extracted, the outline data of these articles is generated in step S13, and the positions of these articles are detected in step S14.

ロボット10は、ステップS15において、Noの場合(すなわち、障害物に隠れているロボットがない場合)に、行動計画を策定し(ステップS18)、作業を実行する(ステップS19)。なお、ステップS18は図4におけるステップS4に相当し、ステップS19は図4におけるステップS5に相当する。   The robot 10 formulates an action plan (step S18) and executes the operation (step S19) when the answer is No in step S15 (that is, when there is no robot hidden behind the obstacle). Step S18 corresponds to step S4 in FIG. 4, and step S19 corresponds to step S5 in FIG.

ステップS19の後、ロボット10は、指示作業が達成されたか否かを判断し、Yesの場合(すなわち、指示作業が達成されている場合)に動作を終了し、Noの場合(すなわち、指示作業が達成されいない場合)に工程をステップS11に戻して再度指示作業を実行する(ステップS20)。   After step S19, the robot 10 determines whether or not the instructing work has been achieved, and ends the operation in the case of Yes (that is, in the case where the instructing work has been achieved) and in the case of No (that is, instructing work If the above is not achieved), the process returns to step S11 and the instruction work is executed again (step S20).

<各物品の位置を検出する手法>
以下に、図8〜図11を用いて、各物品(すなわち、他のロボット11〜14や、協調作業の対象物、目的領域など)の位置を検出する手法について説明する。ここでは、2つの手法によって各物品の位置を検出する。図8は、各物品の位置を検出する第1の手法を示す図である。また図9〜図11は、それぞれ、各物品の位置を検出する第2の手法(1)〜(3)を示す図である。
<Method of detecting the position of each article>
Hereinafter, a method for detecting the position of each article (that is, other robots 11 to 14, objects of the cooperative work, a target area, etc.) will be described with reference to FIGS. 8 to 11. Here, the position of each article is detected by two methods. FIG. 8 is a diagram illustrating a first technique for detecting the position of each article. 9 to 11 are diagrams showing second methods (1) to (3) for detecting the position of each article, respectively.

第1の手法は、各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))が、自身が撮影した画像の中から、他のロボット11〜14の特徴部11b〜14bや、協調作業の対象物の特徴箇所、目的領域の特徴箇所などを検出し、これらに基づいて他のロボット11〜14や、協調作業の対象物、目的領域などの位置を特定する手法である。第1の手法は、処理過程が簡素であるので、短時間に各ロボット10〜14の位置を検出することができる。   In the first method, a robot that needs to specify the positions of the robots 10 to 14 (at least the commanding robot (in this embodiment, the first robot 10) at the time of collaborative work) From among them, the characteristic portions 11b to 14b of the other robots 11 to 14, the characteristic part of the target object of the cooperative work, the characteristic part of the target area, and the like are detected, and based on these, the other robots 11 to 14 and the cooperative work This is a method for specifying the position of the target object, the target area, and the like. Since the first method has a simple processing process, the positions of the robots 10 to 14 can be detected in a short time.

第2の手法は、各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))が、自身(ロボット10)を含む各ロボット10〜14が撮影した複数の画像を用いて、作業エリア100の地図を取得し、各ロボット10〜14が撮影した画像の中から、各ロボット10〜14の特徴部10b〜14bや、協調作業の対象物の特徴箇所、目的領域の特徴箇所などを検出し、これらに基づいて各ロボット10〜14や、協調作業の対象物、目的領域などの位置を特定する手法である。第2の手法は、第1の手法よりも各ロボット10〜14の位置を検出するのに時間がかかるが、例えば、協調作業の対象物(この実施形態では荷物M)や他のロボット10〜14が何らかの障害物に隠れている場合などのように、第1の手法では検出できない物品(すなわち、他のロボット11〜14や、協調作業の対象物、目的領域など)を正確に検出することができる。   In the second method, a robot that needs to specify the position of each of the robots 10 to 14 (at least the commanding robot at the time of collaborative work (the first robot 10 in this embodiment)) identifies itself (the robot 10). A map of the work area 100 is acquired using a plurality of images photographed by each of the robots 10 to 14, and the characteristic portions 10 b to 14 b of the robots 10 to 14 are selected from the images photographed by the robots 10 to 14. This is a method of detecting the characteristic location of the target object of the cooperative work, the characteristic location of the target area, and specifying the positions of the robots 10-14, the target object of the cooperative work, the target area, and the like based on these. The second method takes more time to detect the positions of the robots 10 to 14 than the first method. For example, an object to be collaborated (a luggage M in this embodiment) or another robot 10 to 10 is used. To accurately detect articles (that is, other robots 11 to 14, objects of collaborative work, target areas, etc.) that cannot be detected by the first method, such as when 14 is hidden behind some obstacle. Can do.

以下に、第1と第2の手法について詳述する。なお、この実施形態では、以下の事項を前提として説明する。すなわち、指示作業は「荷物Mを現在位置からエリア101内まで運搬せよ」というものであり、指令役ロボットである第1のロボット10は、この指示作業に基づいて、対象物(荷物M)や、目的領域(エリア101)、各ロボット10〜14などを検出し、最も短時間で指示作業を完了させる行動計画を策定するものとする。また、各ロボット10〜14は、図12(A)に示すように、それぞれが、IPアドレス「192.168.0.10」、「192.168.0.11」、「192.168.0.12」、「192.168.0.13」、「192.168.0.14」を有し、特徴部10b〜14bの特徴箇所として「赤」色、「青」色、「黄」色、「緑」色、「黒」色を有するものとする。また、目的領域(エリア101)は、図12(B)に示すように、特徴箇所として「茶」色を有するものとする。また、対象物(荷物M)は、図12(C)に示すように、特徴箇所として「オレンジ」色を有するものとする。各ロボット10〜14の存在位置を特定する必要のあるロボット(少なくとも協調作業時における指令役ロボット(この実施形態では第1のロボット10))は、画像の中から、これら各物品に固有な特徴箇所を検出することによって個々の物品を検出することができる。   Hereinafter, the first and second methods will be described in detail. In this embodiment, the following matters are assumed. That is, the instruction work is “transport the baggage M from the current position to the area 101”, and the first robot 10, which is the commanding role robot, determines the object (luggage M) or The target area (area 101), the robots 10 to 14 and the like are detected, and an action plan for completing the instruction work in the shortest time is formulated. Further, as shown in FIG. 12A, each of the robots 10 to 14 has an IP address “192.168.0.10”, “192.168.0.11”, “192.168.8.0”, respectively. .12 "," 192.168.0.13 "," 192.168.0.14 ", and" red "color," blue "color, and" yellow "color as the characteristic portions of the characteristic portions 10b to 14b , “Green” color, “black” color. In addition, the target area (area 101) has a “brown” color as a characteristic location, as shown in FIG. Further, the object (package M) is assumed to have an “orange” color as a characteristic location as shown in FIG. A robot that needs to specify the location of each of the robots 10 to 14 (at least a commanding robot (in this embodiment, the first robot 10) at the time of collaborative work) is unique in the image from the image. Individual articles can be detected by detecting the location.

第1の手法では、指令役ロボットである第1のロボット10は、通信制御装置20から指示作業を受信すると、自身のカメラ10aによって周囲を撮影し、これによって取得した画像データを記憶部34に記憶するとともに、取得した画像の中から、個々の物品に固有な特徴箇所を検出する。これによって、各ロボット11〜14や、対象物(荷物M)、目的領域(エリア101)を特定する。例えば、第1のロボット10は、自身のカメラ10aによって周囲を撮影した画像を検証し、画像の中から、2体のロボットの輪郭の一部を検出したものとする。すると、第1のロボット10は、それら2体のロボットの特徴箇所(すなわち、特徴部)を検索する。このとき、第1のロボット10は、2体のロボットの特徴箇所として、一方から「青」色を、他方から「黄」色を検出したものとする。これによって、ロボット10は、2体のロボットを第2のロボット11と第3のロボット12として特定する。   In the first method, when receiving the instruction work from the communication control device 20, the first robot 10, which is the commanding robot, takes a picture of the surroundings with its own camera 10 a, and stores the acquired image data in the storage unit 34. While storing, the characteristic location peculiar to each article is detected from the acquired image. As a result, the robots 11 to 14, the object (luggage M), and the target area (area 101) are specified. For example, it is assumed that the first robot 10 verifies an image obtained by photographing its surroundings with its own camera 10a and detects part of the contours of the two robots from the image. Then, the first robot 10 searches for a characteristic part (that is, a characteristic part) of the two robots. At this time, it is assumed that the first robot 10 detects “blue” color from one side and “yellow” color from the other side as characteristic points of the two robots. As a result, the robot 10 identifies the two robots as the second robot 11 and the third robot 12.

図8は、このような第1の手法による各ロボットの位置を検出する例を示しており、上方から見た作業エリア100における各物品の配置を示している。図8に示す例では、指令役ロボットである第1のロボット10は、矢印の方向を向いており、矢印の方向を撮影している。なお、点線Rは第1のロボット10のカメラ10aの視界角度を示しており、したがって、第1のロボット10は点線Rから矢印の方向に広がるロボット10の周囲を撮影している。第1のロボット10は、自身が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図8に示す例では、右から順に、エリア101と、第3のロボット12と、荷物Mと、第4のロボット13の一部と、第2のロボット11を検出し、第5のロボット14を検出できなかったことを示している。第1のロボット10は、各物品に固有な特徴箇所を検索し、これによって検出した特徴箇所に基づいて各物品を特定する。例えば、領域の色が「茶」色であれば、その領域をエリア101と特定する。また、ロボット11〜14の特徴部11b〜14bの色が「黄」色であれば、そのロボットを第3のロボット12と特定し、同様に、その他の物品(荷物Mや、第4のロボット13、第2のロボット11)を特定する。   FIG. 8 shows an example of detecting the position of each robot by such a first method, and shows the arrangement of each article in the work area 100 as viewed from above. In the example shown in FIG. 8, the first robot 10 that is the commanding role robot faces the direction of the arrow, and photographs the direction of the arrow. The dotted line R indicates the field of view angle of the camera 10a of the first robot 10. Therefore, the first robot 10 images the periphery of the robot 10 spreading from the dotted line R in the direction of the arrow. The first robot 10 verifies the image taken by itself and detects a part of the outline of each article from the image. In the example shown in FIG. 8, the area 101, the third robot 12, the luggage M, a part of the fourth robot 13, and the second robot 11 are detected in order from the right. This indicates that the robot 14 could not be detected. The first robot 10 searches for a characteristic location unique to each article, and identifies each article based on the detected characteristic location. For example, if the color of the area is “brown”, the area is specified as the area 101. Further, if the color of the characteristic portions 11b to 14b of the robots 11 to 14 is “yellow”, the robot is identified as the third robot 12, and similarly, other articles (the luggage M and the fourth robot) 13. Identify the second robot 11).

このようにして、第1のロボット10は、各物品を特定すると、自身(第1のロボット10)と各物品との位置関係を特定する。図8に示す例では、第1のロボット10と各物品との位置関係が、第1のロボット10を中心とする相対的な関係によって表されている。すなわち、エリア101が、第1のロボット10の視界角度(点線R)の一端からθ(10−101)の角度をなし、L(10−101)の距離に位置するものとして特定されている。同様に、第3のロボット12は、点線Rの一端からθ(10−12)の角度をなし、L(10−12)の距離に位置するものとして特定されている。また荷物Mは、点線Rの一端からθ(10−M)の角度をなし、L(10−M)の距離に位置するものとして特定されている。また第4のロボット13は、点線Rの一端からθ(10−13)の角度をなし、L(10−13)の距離に位置するものとして特定されている。また第2のロボット11は、点線Rの一端からθ(10−11)の角度をなし、L(10−11)の距離に位置するものとして特定されている。なお、距離は、この実施形態では、各物品の画像中における寸法を実際の寸法と比較することによって算出するものとするが、後述の三角測量法によって算出してもよい。この場合は、各物品の位置をある位置を中心とした座標値で表すことができる。座標値による表示は、行動計画における各物品の位置関係を普遍的な関係で表すことになり、実行役ロボットは短時間で確実に行動を実行することができるので、好ましい。   Thus, if the 1st robot 10 specifies each article | item, it will specify the positional relationship of self (1st robot 10) and each article | item. In the example illustrated in FIG. 8, the positional relationship between the first robot 10 and each article is represented by a relative relationship with the first robot 10 as the center. In other words, the area 101 is identified as having an angle of θ (10-101) from one end of the viewing angle (dotted line R) of the first robot 10 and located at a distance of L (10-101). Similarly, the third robot 12 is identified as having an angle of θ (10-12) from one end of the dotted line R and located at a distance of L (10-12). The luggage M is specified as having an angle of θ (10−M) from one end of the dotted line R and positioned at a distance of L (10−M). The fourth robot 13 is specified as having an angle of θ (10-13) from one end of the dotted line R and located at a distance of L (10-13). In addition, the second robot 11 is identified as having an angle of θ (10-11) from one end of the dotted line R and located at a distance of L (10-11). In this embodiment, the distance is calculated by comparing the size of each article in the image with the actual size. However, the distance may be calculated by a triangulation method described later. In this case, the position of each article can be represented by a coordinate value centered on a certain position. The display by coordinate values is preferable because the positional relationship of each article in the action plan is represented by a universal relationship, and the executioner robot can execute the action reliably in a short time.

第2の手法では、指令役ロボットである第1のロボット10は、自身(第1のロボット10)を含む各ロボット10〜14が撮影した画像データを記憶部34に記憶し、これらの画像データを合成して作業エリア100の地図データを作成する。例えば、第1のロボット10は、自身が撮影した画像データの中から、何らかの目印となる物品(以下、単に目印という)をいくつか抽出し、それら目印間を歩行する。これによって目印間の距離が測定される。目印は、様々な物品がなりえる。例えば、作業エリア100内に設置された置物や、作業エリア100内の床や壁に描かれたマークや汚れなどを目印にすることができる。なお、目印間の距離が予め定められている場合はこのような測定は省略してもよい。第1のロボット10は、第1のロボット10が撮影した画像や他のロボット11〜14が撮影した画像の中から目印を検索し、検出した各目印が重なるように、各画像を合成する。これによって、第1のロボット10は、作業エリアの地図データを取得する。この後、第1のロボット10は、各ロボット10〜14が撮影した画像の中から、個々の物品に固有な特徴箇所を検出し、これによって、各ロボット10〜14や、協調作業の対象物(荷物M)や、目的領域(エリア101)などを特定する。例えば、ロボット10は、自身のカメラ10aによって周囲を撮影した画像を検証し、画像の中から、2体のロボットの輪郭の一部を検出したものとする。そして、さらに画像を検証し、画像の中から、2体のロボットの一方から「青」色の特徴箇所と、他方から「黄」色の特徴箇所を検出したものとする。これによって、ロボット10は、2体のロボットの一方を第2のロボット11とし、他方を第3のロボット12として特定する。ロボット10は、このようにして各物品を特定すると、三角測量法により各物品の位置を検出し、検出した各物品の位置を作業エリア100の地図データに投射して、各物品の位置関係を特定する。   In the second method, the first robot 10 that is the commanding role robot stores image data captured by each of the robots 10 to 14 including itself (the first robot 10) in the storage unit 34, and these image data To create map data of the work area 100. For example, the first robot 10 extracts some articles (hereinafter simply referred to as “marks”) from the image data taken by itself and walks between the marks. This measures the distance between the landmarks. The landmark can be a variety of articles. For example, a figurine placed in the work area 100, a mark or a stain drawn on the floor or wall in the work area 100 can be used as a mark. Note that such measurement may be omitted when the distance between the marks is predetermined. The first robot 10 searches for a mark from images captured by the first robot 10 and images captured by the other robots 11 to 14 and synthesizes the images so that the detected marks overlap each other. Thereby, the first robot 10 acquires map data of the work area. Thereafter, the first robot 10 detects a characteristic portion unique to each article from the images taken by the robots 10 to 14, whereby the robots 10 to 14 and the objects of the cooperative work are detected. (Luggage M), a target area (area 101), etc. are specified. For example, it is assumed that the robot 10 verifies an image obtained by photographing its surroundings with its own camera 10a and detects part of the contours of the two robots from the image. Further, it is assumed that the image is further verified, and a “blue” feature location is detected from one of the two robots and a “yellow” feature location is detected from the other of the two robots. Thus, the robot 10 identifies one of the two robots as the second robot 11 and the other as the third robot 12. When the robot 10 identifies each article in this manner, the position of each article is detected by the triangulation method, and the detected position of each article is projected on the map data of the work area 100 to determine the positional relationship between the articles. Identify.

なお、三角測量法は、三角法を応用した測量であり、距離・高度が既知の二点を基準とし、見通しのきく任意の他の地点を結ぶ三角形を作り、その角度を測ることによってその地点の位置や標高を求める測量法である。この実施形態では、以下のようにして行われる。   The triangulation method is a survey that applies trigonometry, and creates a triangle that connects any other point with a clear line of sight based on two points with known distances and altitudes, and measures the angle by measuring the angle. It is a surveying method to find the position and altitude of. In this embodiment, it is performed as follows.

図9〜図11は、このような第2の手法による各物品の位置を検出する例を示しており、上方から見た作業エリア100における各物品の配置を示している。図9〜図11は、図8と同様の状態を示している。ただし、2つの目印P,Qが配置されている点で、図8と相違する。図9〜図11に示す例では、目印Pが、第1のロボット10の視界角度(点線R)の一端からθ(10−P)の角度をなし、目印Qが、第1のロボット10の視界角度(点線R)の一端からθ(10−Q)の角度をなし、目印Pと目印Q間がL(P−Q)の距離であることを示している。なお、目印Pと目印Q間の距離L(P−Q)は、予め測定されているものとする。   9 to 11 show an example of detecting the position of each article according to the second method, and shows the arrangement of each article in the work area 100 as viewed from above. 9 to 11 show a state similar to that in FIG. However, it differs from FIG. 8 in that two marks P and Q are arranged. In the example shown in FIGS. 9 to 11, the mark P forms an angle θ (10−P) from one end of the viewing angle (dotted line R) of the first robot 10, and the mark Q corresponds to the first robot 10. An angle θ (10−Q) is formed from one end of the viewing angle (dotted line R), and the distance between the mark P and the mark Q is L (PQ). Note that the distance L (PQ) between the mark P and the mark Q is measured in advance.

まず、第1のロボット10は、図9に示すように、自身が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図9に示す例では、右から順に、エリア101と、第3のロボット12と、目印Qと、荷物Mと、目印Pと、第4のロボット13の一部と、第2のロボット11を検出し、第5のロボット14を検出できなかったことを示している。第1のロボット10は、各物品(エリア101や、第3のロボット12、目印Q、荷物M、目印P、第4のロボット13、第2のロボット11など)に固有な特徴箇所を検索し、これによって検出した特徴箇所に基づいて各物品を特定する。   First, as shown in FIG. 9, the first robot 10 verifies an image captured by itself, and detects a part of the contour of each article from the image. In the example shown in FIG. 9, in order from the right, the area 101, the third robot 12, the mark Q, the luggage M, the mark P, a part of the fourth robot 13, and the second robot. 11 indicates that the fifth robot 14 could not be detected. The first robot 10 searches for characteristic points unique to each article (area 101, third robot 12, mark Q, luggage M, mark P, fourth robot 13, second robot 11, etc.). Then, each article is specified based on the characteristic location detected thereby.

このようにして、第1のロボット10は、各物品を特定すると、自身(第1のロボット10)と各物品との位置関係を特定する。図9に示す例では、第1のロボット10と各物品との位置関係が、第1のロボット10を中心とする相対的な関係によって表されている。すなわち、エリア101が、第1のロボット10の視界角度(点線R)の一端からθ(10−101)の角度をなし、L(10−101)の距離に位置するものとして特定されている。同様に、第3のロボット12は、点線Rの一端からθ(10−12)の角度をなし、L(10−12)の距離に位置するものとして特定されている。また荷物Mは、点線Rの一端からθ(10−M)の角度をなし、L(10−M)の距離に位置するものとして特定されている。また第4のロボット13は、点線Rの一端からθ(10−13)の角度をなし、L(10−13)の距離に位置するものとして特定されている。また第2のロボット11は、点線Rの一端からθ(10−11)の角度をなし、L(10−11)の距離に位置するものとして特定されている。なお、第1のロボット10と各物品との距離は、この実施形態では、第1のロボット10を中心とする目印Pと目印Q間の距離L(P−Q)のX成分の寸法(すなわち、L(P−Q)×cos(θ(10−P)−θ(10−Q)))とY成分の寸法(すなわち、L(P−Q)×sin(θ(10−P)−θ(10−Q)))を基準にして、各距離のX成分の寸法(すなわち、L(10−○○)×cos(θ(10−○○))とY成分の寸法(すなわち、L(10−○○)×sin(θ(10−○○))を比較することによって算出するものとする。   Thus, if the 1st robot 10 specifies each article | item, it will specify the positional relationship of self (1st robot 10) and each article | item. In the example shown in FIG. 9, the positional relationship between the first robot 10 and each article is represented by a relative relationship with the first robot 10 as the center. In other words, the area 101 is identified as having an angle of θ (10-101) from one end of the viewing angle (dotted line R) of the first robot 10 and located at a distance of L (10-101). Similarly, the third robot 12 is identified as having an angle of θ (10-12) from one end of the dotted line R and located at a distance of L (10-12). The luggage M is specified as having an angle of θ (10−M) from one end of the dotted line R and positioned at a distance of L (10−M). The fourth robot 13 is specified as having an angle of θ (10-13) from one end of the dotted line R and located at a distance of L (10-13). In addition, the second robot 11 is identified as having an angle of θ (10-11) from one end of the dotted line R and located at a distance of L (10-11). In this embodiment, the distance between the first robot 10 and each article is the dimension of the X component of the distance L (PQ) between the mark P and the mark Q centered on the first robot 10 (that is, , L (PQ) × cos (θ (10−P) −θ (10−Q))) and the dimension of the Y component (that is, L (PQ) × sin (θ (10−P) −θ (10-Q))) as a reference, the dimension of the X component of each distance (ie, L (10-OO) × cos (θ (10-OO)) and the dimension of the Y component (ie, L ( It is calculated by comparing 10−OO) × sin (θ (10−OO)).

次に、第1のロボット10は、図10に示すように、他のロボット11〜14が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。なお、図10に示す例は、第2のロボット11が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出した状態を示している。図10に示す例では、第2のロボット11は、矢印の方向を向いており、矢印の方向を撮影している。なお、点線Uは第2のロボット11のカメラ11aの視界角度を示しており、したがって、第2のロボット11は点線Uから矢印の方向に広がるロボット11の周囲を撮影している。第1のロボット10は、第2のロボット11が撮影した画像を検証し、画像の中から、各物品の輪郭の一部を検出する。図10に示す例では、第1のロボット10と、目印Qと、第5のロボット14と、目印Pを検出したことを示している。図10に示す例では、第1のロボット10が、第2のロボット11の視界角度(点線U)の一端からθ(11−10)の角度をなし、L(11−10)の距離に位置するものとして特定されている。また目印Pが、第2のロボット10の視界角度(点線U)の一端からθ(11−P)の角度をなし、L(11−P)の距離に位置するものとして特定されている。また目印Qが、第2のロボット11の視界角度(点線U)の一端からθ(11−Q)の角度をなし、L(11−Q)の距離に位置するものとして特定されている。また、第5のロボット14が、第2のロボット11の視界角度(点線U)の一端からθ(11−14)の角度をなし、L(11−14)の距離に位置するものとして特定されている。なお、第2のロボット11と各物品との距離は、この実施形態では、第2のロボット11を中心とする目印Pと目印Q間の距離L(P−Q)のX成分の寸法(すなわち、L(P−Q)×cos(θ(11−P)−θ(11−Q)))とY成分の寸法(すなわち、L(P−Q)×sin(θ(11−P)−θ(11−Q)))を基準にして、各距離のX成分の寸法(すなわち、L(11−○○)×cos(θ(11−○○))とY成分の寸法(すなわち、L(11−○○)×sin(θ(11−○○))を比較することによって算出するものとする。また、図10には示されていないが、第2のロボット11は、実際には、第3のロボット12や、荷物M、第4のロボット13なども検出している。   Next, as shown in FIG. 10, the first robot 10 verifies the images taken by the other robots 11 to 14 and detects a part of the outline of each article from the images. Note that the example illustrated in FIG. 10 illustrates a state in which an image captured by the second robot 11 is verified and a part of the outline of each article is detected from the image. In the example shown in FIG. 10, the second robot 11 faces the direction of the arrow, and photographs the direction of the arrow. Note that the dotted line U indicates the viewing angle of the camera 11a of the second robot 11, and therefore the second robot 11 images the surroundings of the robot 11 spreading from the dotted line U in the direction of the arrow. The first robot 10 verifies the image captured by the second robot 11 and detects a part of the outline of each article from the image. In the example shown in FIG. 10, the first robot 10, the mark Q, the fifth robot 14, and the mark P are detected. In the example shown in FIG. 10, the first robot 10 forms an angle of θ (11-10) from one end of the viewing angle (dotted line U) of the second robot 11 and is positioned at a distance L (11-10). Has been identified as to. In addition, the mark P is specified as an angle θ (11−P) from one end of the viewing angle (dotted line U) of the second robot 10 and located at a distance L (11−P). In addition, the mark Q is specified as an angle θ (11-Q) from one end of the viewing angle (dotted line U) of the second robot 11 and located at a distance L (11-Q). Further, the fifth robot 14 is identified as having an angle of θ (11-14) from one end of the viewing angle (dotted line U) of the second robot 11 and located at a distance of L (11-14). ing. In this embodiment, the distance between the second robot 11 and each article is the dimension of the X component of the distance L (PQ) between the mark P and the mark Q centered on the second robot 11 (that is, , L (PQ) * cos ([theta] (11-P)-[theta] (11-Q))) and the dimension of the Y component (i.e., L (PQ) * sin ([theta] (11-P)-[theta]). (11-Q))) as a reference, the dimension of the X component of each distance (ie, L (11-OO) × cos (θ (11-OO)) and the dimension of the Y component (ie, L ( 11− ○○) × sin (θ (11− ○○)) is compared, and although not shown in FIG. The third robot 12, the luggage M, the fourth robot 13, and the like are also detected.

次に、第1のロボット10は、図11に示すように、2つの目印P,Qを基準にして、各ロボット10〜14が撮影した画像を合成して、作業エリア100の地図データを作成し、作成した作業エリア100の地図データ上に各物品の位置を重ね合わせる。これによって第1のロボット10は、各物品、特に、第3のロボット12の背後に隠れている第5のロボット14の位置を特定することができる。その結果、第1のロボット10は、図11に示すように、第5のロボット14を、点線Rの一端からθ(10−14)の角度をなし、L(10−14)の距離に位置するものとして特定することができる。なお、角度θ(10−14)は、角度θ(11−14)と角度θ(11−10)の相関から算出する。距離L(10−14)は、距離L(11−14)に対する角度(θ(11−14)−θ(11−10))の三角関数を用いて算出することができる。   Next, as shown in FIG. 11, the first robot 10 generates map data of the work area 100 by combining the images taken by the robots 10 to 14 on the basis of the two marks P and Q. Then, the position of each article is superimposed on the created map data of the work area 100. Thereby, the first robot 10 can specify the position of each article, particularly the fifth robot 14 hidden behind the third robot 12. As a result, as shown in FIG. 11, the first robot 10 moves the fifth robot 14 at an angle of θ (10-14) from one end of the dotted line R and is located at a distance of L (10-14). Can be specified. The angle θ (10-14) is calculated from the correlation between the angle θ (11-14) and the angle θ (11-10). The distance L (10-14) can be calculated using a trigonometric function of an angle (θ (11-14) −θ (11-10)) with respect to the distance L (11-14).

なお、図11では、各物品の位置関係は、第1のロボット10を中心とした座標値で示している。例えば、エリア101の位置関係は、(X(10−101),Y(10−101))として示されている。同様に、他の各物品の位置関係も、(X(10−○○),Y(10−○○))の形式で示されている。これら各物品の位置関係を示す座標値は、第1のロボット10と各物品とのなす角度、および、第1のロボット10と各物品との距離に基づいて、三角関数によって算出することができる。例えば、エリア101の座標値(X(10−101),Y(10−101))は、(L(10−101)×cos(θ(10−101)),L(10−101)×sin(θ(10−101)))となる。同様に、第1のロボット10が検出することができた物品(すなわち、エリア101や、第3のロボット12、目印Q、荷物M、目印P、第4のロボット13、第2のロボット11など)の位置関係も、算出することができる。   In FIG. 11, the positional relationship between the articles is indicated by coordinate values with the first robot 10 as the center. For example, the positional relationship of the area 101 is indicated as (X (10-101), Y (10-101)). Similarly, the positional relationship between the other articles is also shown in the form of (X (10-OO), Y (10-OO)). The coordinate values indicating the positional relationship between these articles can be calculated by a trigonometric function based on the angle between the first robot 10 and each article and the distance between the first robot 10 and each article. . For example, the coordinate values (X (10-101), Y (10-101)) of the area 101 are (L (10-101) × cos (θ (10-101)), L (10-101) × sin. (Θ (10-101))). Similarly, articles that can be detected by the first robot 10 (ie, the area 101, the third robot 12, the mark Q, the luggage M, the mark P, the fourth robot 13, the second robot 11, etc.) ) Can also be calculated.

ただし、第1のロボット10が撮影した画像の中から検出することができなかった物品(すなわち、第5のロボット14)の位置関係は、以下のようにして算出する。   However, the positional relationship of the article (that is, the fifth robot 14) that could not be detected from the image captured by the first robot 10 is calculated as follows.

すなわち、第1のロボット10は、図10に示すように、他のロボット(この実施形態では第2のロボット11)が撮影した画像の中から、自身(第1のロボット10)を検出し、第2のロボット11を中心にして、第2のロボット11の視界角度(点線U)の一端と第1のロボット10のなす角度θ(11−10)を算出する。そして、第2のロボット11を中心にして、第1のロボット10の座標値を算出する。例えば、第1のロボット10の座標値(X(11−10),Y(11−10))は、(L(11−10)×cos(θ(11−10)),L(11−10)×sin(θ(11−10)))となる。この後、第1のロボット10を中心にして、第2のロボット11の座標値を算出する。すなわち、(−L(11−10)×cos(θ(11−10)),−L(11−10)×sin(θ(11−10)))を算出する。また、同様に、第5のロボット14を検出し、第2のロボット11を中心にして、第2のロボット11の視界角度(点線U)の一端と第5のロボット14のなす角度θ(11−14)とを算出する。そして、第2のロボット11を中心にして、第5のロボット14の座標値を算出する。例えば、第5のロボット14の座標値(X(11−14),Y(11−14))は、(L(11−14)×cos(θ(11−14)),L(11−14)×sin(θ(11−14)))となる。この後、第1のロボット10を中心にして、第5のロボット14の座標値を算出する。すなわち、(L(11−14)×cos(θ(11−14))−L(11−10)×cos(θ(11−10)),L(11−14)×sin(θ(11−14))−L(11−10)×sin(θ(11−10)))を算出する。そして、各座標値に含まれる角度を第1のロボット10を中心にした角度に置き換えるとともに、各座標値に含まれる距離を既知の目印Pと目印Q間の距離L(P−Q)に置き換える。このようにして、第1のロボット10が撮影した画像の中から検出することができなかった物品の位置関係も、算出することができる。   That is, as shown in FIG. 10, the first robot 10 detects itself (first robot 10) from an image taken by another robot (second robot 11 in this embodiment), With the second robot 11 as the center, an angle θ (11-10) formed by one end of the viewing angle (dotted line U) of the second robot 11 and the first robot 10 is calculated. Then, the coordinate value of the first robot 10 is calculated around the second robot 11. For example, the coordinate values (X (11-10), Y (11-10)) of the first robot 10 are (L (11-10) × cos (θ (11-10)), L (11-10). ) × sin (θ (11-10))). Thereafter, the coordinate value of the second robot 11 is calculated with the first robot 10 as the center. That is, (−L (11−10) × cos (θ (11−10)), −L (11−10) × sin (θ (11−10))) is calculated. Similarly, the fifth robot 14 is detected, and the angle θ (11) formed by one end of the viewing angle (dotted line U) of the second robot 11 and the fifth robot 14 around the second robot 11. -14). Then, the coordinate value of the fifth robot 14 is calculated around the second robot 11. For example, the coordinate values (X (11-14), Y (11-14)) of the fifth robot 14 are (L (11-14) × cos (θ (11-14))), L (11-14). ) × sin (θ (11-14))). Thereafter, the coordinate value of the fifth robot 14 is calculated around the first robot 10. That is, (L (11-14) × cos (θ (11-14)) − L (11-10) × cos (θ (11-10)), L (11-14) × sin (θ (11− 14)) − L (11−10) × sin (θ (11−10))) is calculated. Then, the angle included in each coordinate value is replaced with an angle centered on the first robot 10, and the distance included in each coordinate value is replaced with a distance L (PQ) between the known mark P and the mark Q. . In this manner, the positional relationship of articles that could not be detected from the image captured by the first robot 10 can also be calculated.

<行動計画の策定>
以下に、行動計画の策定について説明する。
<Formulation of action plan>
The following describes how to develop an action plan.

指令役ロボットである第1のロボット10の制御部30は、各ロボット10〜14の存在位置に基づいて、協調作業を実行する実行役ロボットの行動計画を策定する。このとき、第1のロボット10の制御部30は、最短時間で作業を完了できるように、各ロボット10〜14の機能(積載量や運搬速度)や作業の空き状況などに基づいて行動計画を策定する。   The control unit 30 of the first robot 10 that is the commanding role robot formulates an action plan of the executing role robot that executes the cooperative work based on the positions where the robots 10 to 14 exist. At this time, the control unit 30 of the first robot 10 makes an action plan based on the functions (loading capacity and transport speed) of each robot 10 to 14 and the availability of the work so that the work can be completed in the shortest time. Formulate.

例えば、各ロボット10〜14の積載量をチェックし、積載量が協調作業の対象物(荷物M)の重量よりも小さいロボットを除外する。またロボットの作業の空き状況をチェックし、空きがないロボットも除外する(ただし、協調作業の一部の作業を実行可能なロボットは残すものとする)。   For example, the loading amount of each of the robots 10 to 14 is checked, and the robot whose loading amount is smaller than the weight of the object (package L) for the cooperative work is excluded. In addition, the availability of robot work is checked, and robots that do not have room are also excluded (however, robots that can execute part of the collaborative work are left).

そして指令役ロボットである第1のロボット10の制御部30は、残ったロボットの中で、荷物Mに最も近いロボットを選択し、そのロボットの作業の空き状況に基づいて行動計画を策定する。例えば、この実施形態では、第1のロボット10の制御部30は、図5に示すように、第4のロボット13が荷物Mの現在の存在位置まで取りに行くように行動計画を策定する。そして、第4のロボット13の作業の空き状況をチェックし、協調作業を単独で実行可能か否かを判断する。   Then, the control unit 30 of the first robot 10 as the commanding role robot selects a robot closest to the luggage M from the remaining robots, and formulates an action plan based on the availability of work of the robot. For example, in this embodiment, the control unit 30 of the first robot 10 formulates an action plan so that the fourth robot 13 goes to the current location of the luggage M as shown in FIG. Then, the availability of work of the fourth robot 13 is checked, and it is determined whether or not cooperative work can be executed independently.

単独で実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13の単独による行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、単独では実行不能であると判断した場合、第4のロボット13以外の単独で実行可能なロボットの有無を検索する。   If it is determined that it can be executed independently, the control unit 30 of the first robot 10 formulates a single action plan for the fourth robot 13 and calculates the time required to complete the work. On the other hand, if it is determined that the robot cannot be executed alone, the presence / absence of a robot that can be executed independently other than the fourth robot 13 is searched.

実行可能なロボットがある場合、第1のロボット10の制御部30は、そのロボットが単独で行動する行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、実行可能なロボットがない場合、第4のロボット13と第4のロボット13以外のロボットとが協調して実行可能か否かを判断する。   When there is an executable robot, the control unit 30 of the first robot 10 formulates an action plan for the robot to act independently and calculates the time required to complete the work. On the other hand, if there is no executable robot, it is determined whether or not the fourth robot 13 and a robot other than the fourth robot 13 can execute in cooperation.

実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13と第4のロボット13以外のロボットとが協調して実行する行動計画を策定し、作業を完了させるのに要する時間を算出する。例えば、図5に示す例では、第4のロボット13と第5のロボット14とが協調して実行する例を示している。指令役ロボットである第1のロボット10の制御部30は、第4のロボット13と第5のロボット14とが協調して実行可能か否かを判断し、実行可能であると判断すると、第4のロボット13が荷物Mの現在の存在位置まで取りに行き、第4のロボット13が荷物Mを第5のロボット14まで運搬して、荷物Mを第5のロボット14に渡し、第5のロボット14が荷物Mをエリア101まで運搬する行動計画を策定する。そして、作業を完了させるのに要する時間を算出する。他方、不能であると判断した場合、残ったロボットの中で、第4のロボット13の次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行可能か否かを判断する。   If it is determined that it can be executed, the control unit 30 of the first robot 10 formulates an action plan that the fourth robot 13 and a robot other than the fourth robot 13 execute in cooperation, and completes the work. Calculate the time required to do this. For example, the example shown in FIG. 5 shows an example in which the fourth robot 13 and the fifth robot 14 execute in cooperation. The controller 30 of the first robot 10 that is the commanding robot determines whether or not the fourth robot 13 and the fifth robot 14 can be executed in cooperation. The fourth robot 13 goes to the current location of the baggage M, the fourth robot 13 transports the baggage M to the fifth robot 14, passes the baggage M to the fifth robot 14, and The robot 14 formulates an action plan for transporting the luggage M to the area 101. Then, the time required to complete the work is calculated. On the other hand, if it is determined that it is impossible, it is determined whether or not the robot that is closest to the luggage M next to the fourth robot 13 and the other robots can be executed in cooperation among the remaining robots.

実行可能であると判断した場合、第1のロボット10の制御部30は、第4のロボット13の次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行する行動計画を策定し、作業を完了させるのに要する時間を算出する。他方、不能であると判断した場合、残ったロボットの中で、次に荷物Mに近いロボットと、それ以外のロボットとが協調して実行可能か否かを判断する。   When it is determined that the robot can be executed, the control unit 30 of the first robot 10 formulates an action plan that the robot next to the luggage M next to the fourth robot 13 and other robots execute in cooperation. The time required to complete the work is calculated. On the other hand, when it is determined that it is impossible, it is determined whether or not the remaining robots next to the luggage M and other robots can be executed in cooperation.

第1のロボット10の制御部30は、このような動作を順次行って、行動計画を策定し、作業を完了させるのに要する時間を算出する。そして、作業が最も短時間で完了できる行動計画を選択し、選択した行動計画を他のロボット11〜14(少なくとも実行役ロボットとなるロボット)に送信し、作業を実行させる。このとき、第1のロボット10自身が、実行役ロボットになる場合もある。   The control unit 30 of the first robot 10 sequentially performs such operations, formulates an action plan, and calculates the time required to complete the work. Then, an action plan that allows the work to be completed in the shortest time is selected, and the selected action plan is transmitted to the other robots 11 to 14 (at least the robot that becomes the executioner robot) to execute the work. At this time, the first robot 10 itself may become an executive robot.

なお、行動計画を策定する手法は、これに限らない。例えば、作業の効率を考慮することなく、荷物Mを運搬可能なロボットで、かつ、現在作業を行っていないロボットを選択して、そのロボットが可能な作業を実行させて、そのロボットが可能な作業が終了したら別のロボットを選択することを繰り返すような行動計画も策定することができる。   The method for formulating an action plan is not limited to this. For example, it is possible to select a robot that can carry the luggage M and that is not currently performing the work without considering the work efficiency, and to perform the work that can be performed by the robot. It is possible to formulate an action plan that repeats selecting another robot when the work is completed.

以上の通り、この発明に係る各ロボット10〜14を検出する必要のあるロボット(少なくとも、この実施形態では指令役ロボットであるロボット10)は、周囲を撮影するカメラ10a〜14aと、各ロボット10〜14に応じて視覚的に相違する特徴部10b〜14bと、外部と通信する通信部10c〜14cとを有し、通信部10c〜14cを介して他のロボット11〜14が撮影した画像データを取得し、他のロボット11〜14が撮影した画像データと自身(ロボット10)のカメラ10aによって撮影した画像データとから各ロボット10〜14の特徴部10b〜14bを検出し、検出した各ロボット10〜14の特徴部10b〜14bに基づいて、各ロボット10〜14の存在位置を特定する。   As described above, the robots that need to detect the robots 10 to 14 according to the present invention (at least in this embodiment, the robot 10 that is the commanding robot) include the cameras 10 a to 14 a that capture the surroundings and the robots 10. Image data photographed by other robots 11 to 14 through the communication units 10c to 14c, and the characteristic units 10b to 14b that visually differ according to -14 and communication units 10c to 14c communicating with the outside. And the characteristic portions 10b to 14b of the robots 10 to 14 are detected from the image data captured by the other robots 11 to 14 and the image data captured by the camera 10a of the robot 10 itself. Based on the 10 to 14 feature portions 10b to 14b, the positions of the robots 10 to 14 are specified.

この発明に係るロボット10は、自身が撮影した画像データだけでなく、他のロボット11〜14が別角度で撮影した画像データをも用いて、各ロボット10〜14の存在位置を検出するので、特に、自身(ロボット10)が撮影した画像データの中から、他のロボット11〜14を検出することが困難な場合(例えば、他のロボット11〜14が障害物や背景と重なるような場合)であっても、他のロボット11〜14の存在位置を正確に特定することができる。   Since the robot 10 according to the present invention detects not only the image data captured by itself but also the image data captured by the other robots 11 to 14 at different angles, the positions of the robots 10 to 14 are detected. In particular, when it is difficult to detect the other robots 11 to 14 from the image data taken by the robot (the robot 10) (for example, when the other robots 11 to 14 overlap an obstacle or the background). Even so, the positions of the other robots 11 to 14 can be accurately specified.

<各物品の位置を検出する他の手法>
この手法は、第1及び第2の手法とは異なる手法によって各物品の位置を検出する。
<Other methods for detecting the position of each article>
This method detects the position of each article by a method different from the first and second methods.

すなわち、第1及び第2の手法は、三角測量法によって定まる地図座標によって、各物品の存在位置を特定している。これに対して、この手法では、画像内の任意の目印と各物品との相対的な位置関係に基づいて、各物品の存在位置を特定する。   That is, in the first and second methods, the location of each article is specified by map coordinates determined by triangulation. On the other hand, in this method, the presence position of each article is specified based on the relative positional relationship between any mark in the image and each article.

以下に、図13〜15を用いて、各物品の位置を検出する手法を説明する。なお、図13〜15は、各物品の位置検出の他の手法を示す図である。   Hereinafter, a method for detecting the position of each article will be described with reference to FIGS. 13-15 is a figure which shows the other method of position detection of each article | item.

ここでは、第1及び第2の手法と同じ事項を前提として説明する。   Here, the description will be made on the premise of the same matters as the first and second methods.

指令役ロボットであるロボット10は、画像データ処理部36によって、自身が撮影した画像や他のロボット11〜14が撮影した画像に含まれる他のロボット11〜14や、協調作業の対象物(荷物M)、協調作業の目的領域(エリア101)を認識し、これら各物品の位置を特定する。これらの各物品の位置の特定は、例えば、画像内の任意の目印(例えば任意のロボットや、荷物M、エリア101、何らかの物品の輪郭など)と各物品との相対的な位置関係に基づいて行う。   The robot 10 serving as the commanding role robot, by the image data processing unit 36, includes other robots 11 to 14 included in an image captured by itself and images captured by the other robots 11 to 14, and a target object (package) M) Recognize the target area (area 101) of the cooperative work, and specify the position of each of these articles. The position of each article is specified based on, for example, a relative positional relationship between any mark in the image (for example, any robot, baggage M, area 101, outline of some article, etc.) and each article. Do.

例えば、図13は、ロボット11が撮影した画像例を示している。ロボット10は、図13に示す画像から、画像に写る物品Tの輪郭と第1〜第5のいずれかのロボットの輪郭とを認識し、ロボットの特徴部からロボットを第5のロボット14と認識する。そして、ロボット14の位置を、ロボット11が撮影した画像内において物品Tから左側に距離αの位置であると認識する。なお、双方向の矢印は、エリア101の範囲を示している。エリア101の位置は、図13に示す画像を撮影したロボット11が向いている方向と、エリア101と物品Tとの相対的な位置関係に基づいて定まる。   For example, FIG. 13 shows an example of an image taken by the robot 11. From the image shown in FIG. 13, the robot 10 recognizes the outline of the article T shown in the image and the outline of any one of the first to fifth robots, and recognizes the robot as the fifth robot 14 from the features of the robot. To do. Then, the position of the robot 14 is recognized as the position of the distance α on the left side from the article T in the image taken by the robot 11. A bidirectional arrow indicates the range of the area 101. The position of the area 101 is determined based on the direction in which the robot 11 that captured the image shown in FIG. 13 is facing and the relative positional relationship between the area 101 and the article T.

また、図14は、ロボット11とは別のロボット(例えばロボット12)が撮影した画像例を示している。ロボット10は、図14に示す画像から、2つのロボットと荷物Mを認識し、ロボットの特徴部から2つのロボットを第2のロボット11と第5のロボット14と認識する。そして、ロボット11の位置を、ロボット12が撮影した画像内において物品Tから左側に距離βの位置であると認識する。また、ロボット14の位置を、ロボット12が撮影した画像内において物品Tから右側に距離γの位置であると認識する。また、荷物Mの位置を、ロボット12が撮影した画像内において物品Tから右側に距離δの位置であると認識する。双方向の矢印は、図13と同様に、エリア101の範囲を示している。エリア101の位置は、図14に示す画像を撮影したロボット12が向いている方向と、エリア101と物品Tとの相対的な位置関係に基づいて定まる。   FIG. 14 shows an example of an image taken by a robot (for example, the robot 12) different from the robot 11. The robot 10 recognizes the two robots and the luggage M from the image shown in FIG. 14, and recognizes the two robots as the second robot 11 and the fifth robot 14 from the features of the robot. Then, the position of the robot 11 is recognized as the position of the distance β on the left side from the article T in the image taken by the robot 12. Further, the position of the robot 14 is recognized as a position at a distance γ on the right side from the article T in the image captured by the robot 12. Further, the position of the luggage M is recognized as a position at a distance δ on the right side from the article T in the image taken by the robot 12. A bidirectional arrow indicates the range of the area 101 as in FIG. The position of the area 101 is determined based on the direction in which the robot 12 that captured the image shown in FIG. 14 faces and the relative positional relationship between the area 101 and the article T.

なお、荷物Mは、図13では、第2のロボット11からは第5のロボット14の背後に隠れて見えなくなっている。   In FIG. 13, the luggage M is hidden behind the fifth robot 14 from the second robot 11 and cannot be seen.

ロボット10は、このようにして、各画像に含まれる各物品の位置を特定する。なお、このとき、ロボット10が自身の位置を特定していない場合は、ロボット10が各画像に含まれる自身を認識することによって自身の位置を特定するようにしてもよい。   In this way, the robot 10 specifies the position of each article included in each image. At this time, if the robot 10 does not specify its own position, the robot 10 may specify its own position by recognizing itself included in each image.

この後、ロボット10は、自身を含めた、協調作業を好適に実行できる1乃至複数の実行役ロボットを特定する。ここでは、実行役ロボットとして第2のロボット11を選択するものとする。   Thereafter, the robot 10 specifies one or more executive robots that can suitably execute the cooperative work including itself. Here, it is assumed that the second robot 11 is selected as the executive robot.

次に、ロボット10は、実行役ロボットの行動計画を策定する。図15に、ロボット10が策定した行動計画の例を示す。図15は、図13に示すロボット11が撮影した画像と、ロボット10が策定した行動計画をイメージ化した画像(右上の実線で区切られた領域の画像)とを重ねた状態を示している。図15中、D1は「矢印方向(ロボット14を迂回する右斜め方向)に移動」という行動を意味し、D2は「矢印方向(ロボット14を迂回する左斜め方向)に移動」という行動を意味し、D3は「荷物Mを持ち上げる」という行動を意味し、D4は「矢印方向(エリア101方向)に移動」という行動を意味する。ロボット10は、このような行動を指示する行動計画を、各種の命令文や、方向や距離を示すパラメータなどを組み合わせて作成する。なお、この実施形態では、各ロボット10〜14は、協調作業の対象物(荷物M)や協調作業の目的領域(エリア101)を認識する処理回路が搭載されており、自己の判断によって行動することができるようになっている。そのため、ロボット10が作成する行動計画は、大まかな方向や距離を示すものでよい。   Next, the robot 10 formulates an action plan for the executive robot. FIG. 15 shows an example of an action plan formulated by the robot 10. FIG. 15 shows a state in which an image taken by the robot 11 shown in FIG. 13 and an image obtained by imaging an action plan formulated by the robot 10 (an image of an area separated by a solid line at the upper right) are superimposed. In FIG. 15, D1 means an action “moving in the direction of an arrow (right diagonal direction bypassing the robot 14)”, and D2 means an action “moving in the direction of an arrow (left diagonal direction bypassing the robot 14)”. D3 means an action of “lifting the load M”, and D4 means an action of “move in the direction of the arrow (direction of the area 101)”. The robot 10 creates an action plan for instructing such an action by combining various commands, parameters indicating directions and distances, and the like. In this embodiment, each of the robots 10 to 14 is equipped with a processing circuit for recognizing an object of collaborative work (luggage M) and a target area (area 101) of the collaborative work, and behaves according to its own judgment. Be able to. Therefore, the action plan created by the robot 10 may indicate a rough direction and distance.

この後、ロボット10は、作成した行動計画をロボット11に送信する。   Thereafter, the robot 10 transmits the created action plan to the robot 11.

すると、ロボット11は、行動計画と自身が撮影した図13に示す画像に基づいて、自己の判断によって、対象物を見つけ、行動計画に沿うように行動して、協調作業を実行する。   Then, based on the action plan and the image shown in FIG. 13 taken by the robot 11, the robot 11 finds the object by its own judgment, acts along the action plan, and executes the cooperative work.

なお、このとき、ロボット10は、以下の観点でロボット11の行動を監視する。すなわち、実行役ロボットが協調作業の目的領域の方向に進んでいるかという観点と、実行役ロボットが協調作業の目的領域に到着したかという観点と、実行役ロボットが協調作業の対象物に対して所定の行動を行っているかという観点である。   At this time, the robot 10 monitors the behavior of the robot 11 from the following viewpoints. That is, from the viewpoint of whether the executive robot is moving in the direction of the target area of the cooperative work, whether the executive robot has arrived at the target area of the cooperative work, This is a viewpoint of whether or not a predetermined action is being performed.

ロボット11の行動がこれらの観点から外れた場合に、ロボット10は、正しい状態に戻すための指示をロボット11に送信する。これにより、ロボット11は、自身の行動を修正して協調作業を実行する。   When the behavior of the robot 11 deviates from these viewpoints, the robot 10 transmits an instruction for returning to the correct state to the robot 11. Thereby, the robot 11 corrects its own action and executes the cooperative work.

ロボット11が所定の行動を行ったら、ロボット10は、ロボット11の行動の監視を終了する。   When the robot 11 performs a predetermined action, the robot 10 ends the monitoring of the action of the robot 11.

このようにして、各ロボット10〜14は、協調作業を行うことができる。   In this way, the robots 10 to 14 can perform cooperative work.

以上の通り、この他の手法に係る各ロボット10〜14は、第1及び第2の手法のような地図座標を算出する必要がないので、処理時間を短縮することができる。   As described above, the robots 10 to 14 according to the other methods do not need to calculate the map coordinates as in the first and second methods, so that the processing time can be shortened.

また、各ロボットには、協調作業の対象物や協調作業の目的領域を認識する処理回路が搭載されている。そのため、実行役ロボットは、自己の判断によって、協調作業の対象物を見つけ、行動計画に沿うように行動することができる。その結果、行動計画の方向や距離は大まかなものでよく、行動計画を簡素化することができる。また、指令役ロボットは、実行役ロボットの行動を、実行役ロボットが協調作業の目的領域の方向に進んでいるか、実行役ロボットが協調作業の目的領域に到着したか、実行役ロボットが協調作業の対象物に対して所定の行動を行っているかという大まかな観点で監視するだけでよくなる。これらの要因により、処理時間を大幅に短縮することができる。   Each robot is equipped with a processing circuit for recognizing the object of the cooperative work and the target area of the cooperative work. Therefore, the executive robot can find an object of the cooperative work by his / her own judgment and act according to the action plan. As a result, the direction and distance of the action plan may be rough, and the action plan can be simplified. In addition, the commander robot moves the action of the executive actor robot in the direction of the target area of the collaborative work, whether the executive robot has arrived in the target area of the collaborative work, It is only necessary to monitor from a rough point of view whether a predetermined action is being performed on the target object. Due to these factors, the processing time can be greatly shortened.

この発明は、前述の実施形態に限定されることなく、この発明の要旨を逸脱しない範囲で種々の応用や変形が考えられる。   The present invention is not limited to the above-described embodiment, and various applications and modifications can be considered without departing from the gist of the present invention.

例えば、実施形態では、通信制御は通信制御装置20によってなされているが、ロボット10〜14の中の1台が代行するようにしても良い。   For example, in the embodiment, the communication control is performed by the communication control device 20, but one of the robots 10 to 14 may be substituted.

また、実施形態では、2足歩行のヒューマノイド型(人間型)のロボット10〜14を用いて説明したが、ヒューマノイド型に限らず、どのような型のロボットにも適用可能である。   In the embodiments, the biped walking humanoid type (human type) robots 10 to 14 have been described. However, the present invention is not limited to the humanoid type and can be applied to any type of robot.

また実施形態では、特徴部10b〜14bは、ロボット10〜14毎にボディーの一部分のパターンや色が異なっていることを特徴箇所としているが、これに限らず、個々のロボット10〜14を外観上の違いによって識別できればよい。例えば、各ロボット10〜14にそれぞれ異なったマークを付けたことを特徴箇所としてもよい。   Further, in the embodiment, the characteristic portions 10b to 14b are characterized in that the pattern or color of a part of the body is different for each robot 10 to 14, but this is not restrictive. It only needs to be identified by the above differences. For example, a different mark may be given to each of the robots 10 to 14.

また実施形態では、第1のロボット10が指令役ロボットとなっているが、これに限らず、第1のロボット10以外のロボット11〜14が指令役ロボットとなることもある。   In the embodiment, the first robot 10 is the commanding robot. However, the present invention is not limited to this, and the robots 11 to 14 other than the first robot 10 may be the commanding robot.

また、通信制御装置20をロボットの一種とみなし、通信制御装置20に指令役ロボットの役割を負わせるようにしてもよい。すなわち、通信制御装置20に、各ロボット10〜14への作業依頼の送信や、各物品の存在位置の特定、行動計画の策定などを行なわせるようにしてもよい。   Further, the communication control device 20 may be regarded as a kind of robot, and the communication control device 20 may be assigned the role of a commanding robot. That is, the communication control device 20 may be configured to transmit work requests to the robots 10 to 14, specify the location of each article, and formulate an action plan.

また実施形態では、各ロボット10〜14が無線によって通信しているが、無線に限らず別の通信形態に変更することができる。そして、IPアドレスは、各ロボット10〜14間の通信形態に応じて適宜別の形態に変更されることになる。   In the embodiment, the robots 10 to 14 communicate with each other wirelessly. However, the present invention is not limited to wireless communication, and can be changed to another communication form. And an IP address will be suitably changed into another form according to the communication form between each robot 10-14.

実施形態の全体構成を示す図である。It is a figure which shows the whole structure of embodiment. ロボットの制御部の構成を示す図である。It is a figure which shows the structure of the control part of a robot. 通信制御装置の構成示す図である。It is a figure which shows the structure of a communication control apparatus. 実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of embodiment. 各ロボットの動作を示す図である。It is a figure which shows operation | movement of each robot. 指令役ロボットの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a command combination robot. サブルーチンにおける動作を示すフローチャートである。It is a flowchart which shows the operation | movement in a subroutine. 各物品の位置検出の第1の手法を示す図である。It is a figure which shows the 1st method of position detection of each article | item. 各物品の位置検出の第2の手法(1)を示す図である。It is a figure which shows the 2nd method (1) of position detection of each article | item. 各物品の位置検出の第2の手法(2)を示す図である。It is a figure which shows the 2nd method (2) of position detection of each article | item. 各物品の位置検出の第2の手法(3)を示す図である。It is a figure which shows the 2nd method (3) of position detection of each article | item. 各種データの構成を示す図である。It is a figure which shows the structure of various data. 各物品の位置検出の他の手法(1)を示す図である。It is a figure which shows the other method (1) of position detection of each article | item. 各物品の位置検出の他の手法(2)を示す図である。It is a figure which shows the other method (2) of position detection of each article | item. 各物品の位置検出の他の手法(3)を示す図である。It is a figure which shows the other method (3) of position detection of each article | item.

符号の説明Explanation of symbols

10〜14 …第1〜第5のロボット
10a〜14a …カメラ
10b〜14b …特徴部
10c〜14c …無線通信部
10d〜14d …作業アーム
10e〜14e …二本足走行機構部
20 …通信制御装置
30 …制御部
Ant …アンテナ
DESCRIPTION OF SYMBOLS 10-14 ... 1st-5th robot 10a-14a ... Camera 10b-14b ... Characteristic part 10c-14c ... Wireless communication part 10d-14d ... Work arm 10e-14e ... Two-leg running mechanism part 20 ... Communication control apparatus 30 ... Control part Ant ... Antenna

Claims (6)

複数のロボットが協調して行動する自律ロボットにおいて、
周囲を撮影する撮影部と、
各ロボットに応じて視覚的に相違する特徴部と、
外部と通信する通信部と、
前記通信部を介して他のロボットが撮影した画像データを取得し、他のロボットが撮影した画像データと自身の前記撮影部によって撮影した画像データとから各ロボットの前記特徴部を検出し、検出した各ロボットの前記特徴部に基づいて、各ロボットの存在位置を特定する制御部とを有することを特徴とする自律ロボット。
In autonomous robots in which multiple robots act in cooperation,
A shooting section for shooting the surroundings,
Features that are visually different for each robot,
A communication unit communicating with the outside;
Acquire image data taken by another robot via the communication unit, detect the feature of each robot from the image data taken by the other robot and the image data taken by the own imaging unit, and detect An autonomous robot comprising: a control unit that identifies an existing position of each robot based on the feature unit of each robot.
請求項1に記載の自律ロボットにおいて、
前記制御部は、各ロボットの存在位置に基づいて、所定の目的の作業を実行する実行役ロボットの行動計画を策定することを特徴とする自律ロボット。
The autonomous robot according to claim 1,
The autonomous robot is characterized in that the control unit formulates an action plan of an executive robot that performs a predetermined task based on the position of each robot.
複数のロボットが協調して行動する自律ロボットの制御方法において、
周囲を撮影する撮影部と、各ロボットに応じて視覚的に相違する特徴部と、外部と通信する通信部とを有する自律ロボットの制御部は、
前記通信部を介して他のロボットが撮影した画像データを取得し、
他のロボットが撮影した画像データと自身の前記撮影部によって撮影した画像データとから各ロボットの前記特徴部を検出し、
検出した各ロボットの前記特徴部に基づいて、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
In an autonomous robot control method in which multiple robots act in cooperation,
The control unit of the autonomous robot having an imaging unit that captures the surroundings, a characteristic unit that visually differs depending on each robot, and a communication unit that communicates with the outside,
Obtain image data taken by another robot via the communication unit,
Detecting the feature of each robot from the image data taken by another robot and the image data taken by its own imaging unit;
An autonomous robot control method, characterized in that the presence position of each robot is specified based on the detected feature of each robot.
請求項3に記載の自律ロボットの制御方法において、
前記制御部は、
検出した各ロボットの前記特徴部に基づいて、三角測量法によって定まる地図座標によって、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
In the autonomous robot control method according to claim 3,
The controller is
An autonomous robot control method, characterized in that the location of each robot is specified by map coordinates determined by triangulation based on the detected feature of each robot.
請求項3に記載の自律ロボットの制御方法において、
前記制御部は、
画像内の任意の目印と各ロボットとの相対的な位置関係に基づいて、各ロボットの存在位置を特定することを特徴とする自律ロボットの制御方法。
In the autonomous robot control method according to claim 3,
The controller is
An autonomous robot control method, characterized in that the location of each robot is specified based on a relative positional relationship between an arbitrary mark in the image and each robot.
請求項3〜5のいずれか1項に記載の自律ロボットの制御方法において、
前記制御部は、各ロボットの存在位置に基づいて、所定の目的の作業を実行する実行役ロボットを特定し、前記実行役ロボットの行動計画を策定し、前記実行役ロボットに送信することを特徴とする自律ロボットの制御方法。




In the autonomous robot control method according to any one of claims 3 to 5,
The control unit identifies an executive robot that performs a predetermined target task based on the position of each robot, formulates an action plan for the executive robot, and transmits the action plan to the executive robot. An autonomous robot control method.




JP2004077973A 2004-03-18 2004-03-18 Autonomous robot and control method thereof Expired - Fee Related JP4254588B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004077973A JP4254588B2 (en) 2004-03-18 2004-03-18 Autonomous robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004077973A JP4254588B2 (en) 2004-03-18 2004-03-18 Autonomous robot and control method thereof

Publications (2)

Publication Number Publication Date
JP2005262378A true JP2005262378A (en) 2005-09-29
JP4254588B2 JP4254588B2 (en) 2009-04-15

Family

ID=35087445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004077973A Expired - Fee Related JP4254588B2 (en) 2004-03-18 2004-03-18 Autonomous robot and control method thereof

Country Status (1)

Country Link
JP (1) JP4254588B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006038576A1 (en) * 2004-10-01 2006-04-13 Honda Motor Co., Ltd. Robot control device
JP2007303870A (en) * 2006-05-09 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Location calculation system
JP2011245577A (en) * 2010-05-25 2011-12-08 Honda Motor Co Ltd Robot system for waiter service
JP2017124448A (en) * 2016-01-12 2017-07-20 株式会社Ihi Relative data calibration equipment and method
WO2019058694A1 (en) * 2017-09-20 2019-03-28 ソニー株式会社 Control device, control method, and control system
WO2019087490A1 (en) * 2017-10-30 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
KR20200046148A (en) * 2018-10-15 2020-05-07 엘지전자 주식회사 Method of robot's cooperation based on resource distribution and robot with cooperating each other
JP2020520508A (en) * 2017-05-11 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Article search method, device and robot
WO2020202427A1 (en) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 Control unit
WO2020203968A1 (en) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 Control unit
JP7020643B2 (en) 2017-10-30 2022-02-16 国立大学法人北海道大学 Collaborative work system
WO2022113272A1 (en) * 2020-11-27 2022-06-02 株式会社ニコン Electromagnetic wave wireless communication system, electromagnetic wave wireless communication method, tracking system, and tracking method
WO2022185787A1 (en) * 2021-03-04 2022-09-09 村田機械株式会社 Travelling vehicle and travelling vehicle system
JP7424452B2 (en) 2019-11-18 2024-01-30 日本電気株式会社 Control device, control method, and control program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6738555B2 (en) 2016-05-23 2020-08-12 富士ゼロックス株式会社 Robot control system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (en) * 1994-07-18 1996-02-02 Fujitsu Ltd Active environment recognition system
JPH10151591A (en) * 1996-09-30 1998-06-09 Sony Corp Discriminating device and method, position detecting device and method, and robot device and color sampling device
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830327A (en) * 1994-07-18 1996-02-02 Fujitsu Ltd Active environment recognition system
JPH10151591A (en) * 1996-09-30 1998-06-09 Sony Corp Discriminating device and method, position detecting device and method, and robot device and color sampling device
JP2003345435A (en) * 2002-05-24 2003-12-05 Mitsubishi Heavy Ind Ltd Robot and robot system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8027750B2 (en) 2004-10-01 2011-09-27 Honda Motor Co., Ltd. Robot control apparatus
WO2006038576A1 (en) * 2004-10-01 2006-04-13 Honda Motor Co., Ltd. Robot control device
JP2007303870A (en) * 2006-05-09 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Location calculation system
JP4676374B2 (en) * 2006-05-09 2011-04-27 日本電信電話株式会社 Position calculation system
JP2011245577A (en) * 2010-05-25 2011-12-08 Honda Motor Co Ltd Robot system for waiter service
JP2017124448A (en) * 2016-01-12 2017-07-20 株式会社Ihi Relative data calibration equipment and method
JP2020520508A (en) * 2017-05-11 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Article search method, device and robot
US11389961B2 (en) 2017-05-11 2022-07-19 Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Article searching method and robot thereof
WO2019058694A1 (en) * 2017-09-20 2019-03-28 ソニー株式会社 Control device, control method, and control system
US11389949B2 (en) 2017-09-20 2022-07-19 Sony Corporation Control device, control method, and control system
JP7156300B2 (en) 2017-10-30 2022-10-19 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2019087490A1 (en) * 2017-10-30 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
US11938625B2 (en) 2017-10-30 2024-03-26 Sony Group Corporation Information processing apparatus, information processing method, and program
CN111278611A (en) * 2017-10-30 2020-06-12 索尼公司 Information processing apparatus, information processing method, and program
JPWO2019087490A1 (en) * 2017-10-30 2020-12-17 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP7020643B2 (en) 2017-10-30 2022-02-16 国立大学法人北海道大学 Collaborative work system
US11446813B2 (en) 2017-10-30 2022-09-20 Sony Group Corporation Information processing apparatus, information processing method, and program
KR20200046148A (en) * 2018-10-15 2020-05-07 엘지전자 주식회사 Method of robot's cooperation based on resource distribution and robot with cooperating each other
KR102137033B1 (en) * 2018-10-15 2020-07-23 엘지전자 주식회사 Method of robot's cooperation based on resource distribution and robot with cooperating each other
WO2020203968A1 (en) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 Control unit
WO2020202427A1 (en) * 2019-04-01 2020-10-08 ヤマハ発動機株式会社 Control unit
JP7424452B2 (en) 2019-11-18 2024-01-30 日本電気株式会社 Control device, control method, and control program
WO2022113272A1 (en) * 2020-11-27 2022-06-02 株式会社ニコン Electromagnetic wave wireless communication system, electromagnetic wave wireless communication method, tracking system, and tracking method
WO2022185787A1 (en) * 2021-03-04 2022-09-09 村田機械株式会社 Travelling vehicle and travelling vehicle system
JP7396532B2 (en) 2021-03-04 2023-12-12 村田機械株式会社 Traveling vehicles and traveling vehicle systems

Also Published As

Publication number Publication date
JP4254588B2 (en) 2009-04-15

Similar Documents

Publication Publication Date Title
JP4254588B2 (en) Autonomous robot and control method thereof
Bähnemann et al. A decentralized multi-agent unmanned aerial system to search, pick up, and relocate objects
KR101913332B1 (en) Mobile apparatus and localization method of mobile apparatus
US20150168953A1 (en) Autonomous self-leveling vehicle
JP6083520B2 (en) Robot guidance method and apparatus
JP7336752B2 (en) Positioning device and moving object
JP7336753B2 (en) Positioning device and moving body
WO2019031168A1 (en) Mobile body and method for control of mobile body
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
US20190339718A1 (en) System and method for preceptive navigation of automated vehicles
JP6934116B1 (en) Control device and control method for controlling the flight of an aircraft
Azhari et al. A comparison of sensors for underground void mapping by unmanned aerial vehicles
Cantelli et al. UAV/UGV cooperation to improve navigation capabilities of a mobile robot in unstructured environments
KR20110035258A (en) Device for control of moving robot, moving robot system having the same and method for control of moving robot
Nemsick et al. Cooperative inchworm localization with a low cost team
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
US11926038B2 (en) Information processing apparatus and information processing method
Andert et al. Autonomous vision-based helicopter flights through obstacle gates
US20230064401A1 (en) System for 3d surveying by a ugv and a uav with automatic provision of referencing of ugv lidar data and uav lidar data
Yasuda et al. Calibration-free localization for mobile robots using an external stereo camera
Gupta et al. Swarmhawk: Self-sustaining multi-agent system for landing on a moving platform through an agent supervision
JP6949417B1 (en) Vehicle maneuvering system and vehicle maneuvering method
JP2021169958A (en) Illumination communication system and method for controlling illumination communication system
JP2020170293A (en) Image display method and remote-control system
Tikanmäki et al. Multi-robot system for exploration in an outdoor environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140206

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees