JP2007287071A - System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device - Google Patents

System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device Download PDF

Info

Publication number
JP2007287071A
JP2007287071A JP2006116484A JP2006116484A JP2007287071A JP 2007287071 A JP2007287071 A JP 2007287071A JP 2006116484 A JP2006116484 A JP 2006116484A JP 2006116484 A JP2006116484 A JP 2006116484A JP 2007287071 A JP2007287071 A JP 2007287071A
Authority
JP
Japan
Prior art keywords
robot
saliency
search
signal
robots
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006116484A
Other languages
Japanese (ja)
Inventor
Takashi Torio
隆 鳥生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka Industrial Promotion Organization
Original Assignee
Osaka Industrial Promotion Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka Industrial Promotion Organization filed Critical Osaka Industrial Promotion Organization
Priority to JP2006116484A priority Critical patent/JP2007287071A/en
Publication of JP2007287071A publication Critical patent/JP2007287071A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for controlling the operation of a group comprising a large number of autonomous robots, particularly a system for locating objects with different characters from the surroundings such as living bodies in environment of a disaster site or the like hard to examine carefully in a normal method. <P>SOLUTION: A large number of searching robots are arranged in the environment, and each of the robots autonomously performs appropriate control of its operation while exchanging information to locate objects with different characters from the surroundings, existing in the environment. Each searching robot takes a surrounding image with a camera 18 and extracts the feature of the image. A supervising robot collects the features to detect saliency and notifies each searching robot. The searching robot recognizes the position of the searching robot taking a salient image by a rotating antenna 20 and moves by a moving means 14. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は多数の自律ロボットからなる群の動作を制御するシステムに係り、特に、災害現場など通常の方法では精査しづらい環境において生体など周囲とは異なる性質を持った事物を探し出せるような群ロボットの制御およびモニタシステムに関する。 The present invention relates to a system for controlling the operation of a group of a large number of autonomous robots, and in particular, a group robot capable of searching for things having properties different from the surroundings such as living bodies in an environment that is difficult to scrutinize by ordinary methods such as disaster sites. Control and monitoring system.

災害現場などにおいて多数のロボットに救助活動を行なわせようという考え方は例えば非特許文献1に記載されておりそこではロボット間の通信方法を提案している。   The idea of causing a large number of robots to perform rescue activities at a disaster site is described in, for example, Non-Patent Document 1, which proposes a communication method between robots.

また、多数のロボットでどのような探索活動を行わせるかという課題に対しては特許文献2等の発想がすでにある。特許文献2では、センシングロボット、フェロモンロボット、ベースステーションといった役割の異なるロボットを用いて広範囲な地域を探索させる群ロボットシステムの技術が開示されている。ここでは、センシングロボットが対象物を発見し探索を終了すると、ベースステーション若しくはフェロモンロボットがセンシングロボットを次の探索エリアへ移動させる。   Moreover, the idea of patent document 2 etc. has already existed with respect to the subject of what kind of search activity is performed with many robots. Patent Document 2 discloses a technique of a group robot system that searches a wide area using robots having different roles such as a sensing robot, a pheromone robot, and a base station. Here, when the sensing robot finds an object and ends the search, the base station or the pheromone robot moves the sensing robot to the next search area.

また、多数のロボットに協調して仕事行なわせる方法は非特許文献2に提案されておりそこではリレー式に物体を運ぶ方法が示されている。非特許文献2の方法において特徴的なことはそれぞれのロボットはごく単純な動きしか行なわないにもかかわらず、全体としては物を運ぶという意味のある仕事を成し遂げていることである。また、本発明に関わる別の従来技術として特許文献1に開示されている技術がある。そこではセンサで観測して得られ画像のどこに注意を集中すれば良いかを判断する方法が記載されている。   Further, a method for causing a large number of robots to work in cooperation is proposed in Non-Patent Document 2, in which a method of carrying an object in a relay manner is shown. What is characteristic in the method of Non-Patent Document 2 is that each robot has achieved a meaningful work of carrying an object as a whole even though each robot performs only a simple movement. Moreover, there exists a technique currently disclosed by patent document 1 as another prior art regarding this invention. This describes a method for determining where to focus attention on an image obtained by observation with a sensor.

特開2001−236508号公報JP 2001-236508 A 特開2004−338040号公報JP 2004-338040 A 杉山久佳、 辻岡哲夫、 村田正、 災害現場におけるネットワーク形成を目的とした移動ロボットの行動アルゴリズ、計測自動制御学会システムインテグレーション部門講演会論文集、 pp.255-256、2002Sugiyama Hisayoshi, Sasaoka Tetsuo, Murata Tadashi, Mobile Robot Action Algorithm for Network Formation in Disaster Sites, Proc. 伊藤宏司編、知の創発、第2章 多くの物を運ぶEdited by Koji Ito, Emergence of Knowledge, Chapter 2 Carrying Many Things

しかしながら、例えば災害現場において多数のロボットに被災者などを探し出させるようにするためには解決しなければならない課題が残っている。災害現場で被災者を捜索しようとする場合は瓦礫の山などを崩さないように注意する必要があり、しかも、小さな穴の奥も確かめる必要がある。従って、多くの小さなロボットを多数用意して、それらに被災者を捜させることが一つの解であると考えられる。   However, for example, there are still problems to be solved in order to make a large number of robots search for victims in a disaster site. If you are looking for victims at the disaster site, you need to be careful not to destroy the rubble piles, and also check the depths of the small holes. Therefore, it is considered that one solution is to prepare many small robots and let them search for victims.

そのような観点から前記非特許文献1ではこのような環境においてロボット間の通信を確実に行なう方法を示しており、これによって例えば遠隔操作によって人間が制御しながら被災者を捜すことが可能になることが期待される。しかし、ロボット数はできるだけ多い方がより早くより確実に被災者を捜すことができるが、ロボット数が多くなると全てのロボットを遠隔において制御することは非常に困難になるという問題がある。   From such a point of view, Non-Patent Document 1 shows a method for reliably performing communication between robots in such an environment, and this makes it possible to search for a victim while being controlled by a human by remote control, for example. It is expected. However, as many robots as possible can search for victims more quickly and reliably, but if the number of robots increases, there is a problem that it becomes very difficult to control all robots remotely.

そのため、多数のロボットが自律的に自らの動作を制御することができるようになるのが望ましい。その意味において、前記非特許文献2は多数のロボットの自律的な動作を可能にする一つの原理を示しているが、実際にはそれぞれの目的に応じて具体的な方法を開発する必要が残っており、多数のロボットに被災者などを探し出させるようにする方法は未だ開発されていない。   Therefore, it is desirable that a large number of robots can autonomously control their operations. In that sense, Non-Patent Document 2 shows one principle that enables autonomous operation of a large number of robots, but in practice it is still necessary to develop a specific method for each purpose. However, no method has been developed that allows many robots to find victims.

いっぽう、前記特許文献1では画像のどこに注意を集中すれば良いかを判断する方法として見慣れない部分、画像の中で周囲とは性質が異なる部分を見つけ出す方法が示されているが、このままでは多数のロボットに被災者などを探し出させるようにすることはできない。   On the other hand, in Patent Document 1, as a method for determining where to concentrate attention in an image, there is shown a method for finding an unfamiliar part or a part of an image that has a different property from the surroundings. It is impossible to make the robots search for victims.

本発明は、これらの問題点を解消するべく、多数の自律ロボットからなる群の動作を制御する方式に係り、特に、災害現場など通常の方法では精査しづらい環境において生体など周囲とは異なる性質を持った事物を探し出せるような方式を提供することを目的とする。   The present invention relates to a method for controlling the operation of a group of a large number of autonomous robots in order to solve these problems, and in particular, has a property different from that of surroundings such as a living body in an environment that is difficult to scrutinize by a normal method such as a disaster site. The purpose is to provide a method to find things with

上記目的のために、本発明は、少なくとも1台の監督ロボットと、3台以上の探索ロボットと、各ロボットの位置情報を表示する表示装置を有し、前記各々の探索ロボットは、自らの周囲の画像を撮影し、前記撮影した画像情報を前記監督ロボットに送り、前記監督ロボットから顕著性値を受信した場合は顕著性信号を発信し、自分以外の探索ロボットの発信する顕著性信号を受信し、前記受信した顕著性信号に基づいて移動し、前記監督ロボットは、前記各々の探索ロボットからの前記画像情報および前記位置情報を受信し、前記受信した画像情報の集合から顕著性値を求め、前記求めた顕著性値に対応する画像情報を送信してきた前記探索ロボットに顕著性値を送信する複数のロボットからなる群動作の制御システムを提供する。   For the above purpose, the present invention has at least one supervisory robot, three or more search robots, and a display device for displaying position information of each robot, and each search robot has its own surroundings. When the saliency value is received from the supervisory robot, a saliency signal is transmitted, and a saliency signal transmitted by a search robot other than itself is received. And the supervisory robot receives the image information and the position information from each search robot and obtains a saliency value from the set of received image information. A group motion control system comprising a plurality of robots that transmit saliency values to the search robot that has transmitted image information corresponding to the obtained saliency values is provided.

また、本発明の探索ロボットは、周囲の画像を撮影するカメラと、自らの筐体を移動させる移動装置と、信号を発信する信号発信機と、信号を受信する信号受信機と、前記カメラで撮影した画像情報を処理する画像処理部と、前記画像処理部で処理したデータを前記発信機で送信させる画像送信処理部と、自分宛の顕著性値を受信した場合は顕著性信号を前記発信機で発信させる顕著性発信処理部と、他のロボットの発信する顕著性信号を受信し前記顕著性信号に基づいて移動方向を決める移動決定部とを有するものである。   The search robot of the present invention includes a camera that captures a surrounding image, a moving device that moves its own casing, a signal transmitter that transmits a signal, a signal receiver that receives a signal, and the camera. An image processing unit for processing captured image information, an image transmission processing unit for transmitting data processed by the image processing unit by the transmitter, and a saliency signal when receiving a saliency value addressed to itself And a movement determination unit that receives a saliency signal transmitted from another robot and determines a movement direction based on the saliency signal.

また、本発明の表示装置は、表示部と、信号を受信する受信機と、信号を発信する発信機と、複数のロボットの位置情報を前記表示部に表示する位置表示処理部と、少なくとも1台以上のロボットへ指示を出す指示送信部と、特定の1台からの画像情報を受信し前記表示部へ表示する画像表示処理部とを有するものである。   The display device of the present invention includes a display unit, a receiver that receives a signal, a transmitter that transmits a signal, a position display processing unit that displays position information of a plurality of robots on the display unit, and at least one An instruction transmission unit that issues an instruction to a robot of more than one unit and an image display processing unit that receives image information from a specific unit and displays the image information on the display unit.

本発明にかかる多数の自律ロボットからなる群の動作を制御する方式によって、災害現場など通常の方法では精査しづらい環境において生体など周囲とは異なる性質を持った事物を探し出すことが可能になる。   The system for controlling the operation of a group of a large number of autonomous robots according to the present invention makes it possible to search for things having different properties from the surroundings, such as a living body, in an environment that is difficult to scrutinize by ordinary methods such as disaster sites.

以下に図面を参照しつつ、本発明の実施の形態についてまず概観を説明する。本発明のロボット群は、多数の探索ロボットと、少なくとも1台以上の監督ロボットからなる。災害現場等では、多数のロボットは探索するエリアにランダムに配置される。図1(a)は、探索ロボットがランダムに配置された状況を示す。黒丸(9)が探索ロボットを表す。境界(8)は探索エリアを示すが、探索ロボットの探索行動は特にこのエリア内だけに限定されているわけではない。   First, an overview of an embodiment of the present invention will be described with reference to the drawings. The robot group of the present invention includes a large number of search robots and at least one supervisory robot. In a disaster site or the like, a large number of robots are randomly arranged in an area to be searched. FIG. 1A shows a situation where search robots are randomly arranged. A black circle (9) represents the search robot. The boundary (8) indicates a search area, but the search behavior of the search robot is not particularly limited to this area.

各探索ロボットは、それぞれカメラを有しており、周囲の状況を電子画像として取り込む。取り込まれた電子画像は各探索ロボットの中で圧縮処理等が行われ、通信可能な状態にされた後、監督ロボットへ送信される。   Each search robot has a camera and captures the surrounding situation as an electronic image. The captured electronic image is subjected to compression processing and the like in each search robot, and after being made communicable, is transmitted to the supervisory robot.

監督ロボットは、多数のロボットの中に少なくとも1台ある。監督ロボットは、探索ロボットが送信してきた画像データを蓄積し、その画像データの集合から顕著性を抽出する。顕著性とは、多数のロボットが見た画像データの中に、周囲と異なる対象がある場合に大きくなる指標である。   There is at least one supervisory robot among many robots. The supervisory robot accumulates the image data transmitted by the search robot and extracts the saliency from the set of image data. The saliency is an index that increases when there is an object different from the surroundings in the image data viewed by many robots.

例えば、10台の探索ロボットが森の中で画像を取得したとする。その内の1台だけが、森の中に置かれた肖像画を画像データとして得たとする。9台のロボットは森の中の景色を画像として取得しているので、この肖像画を写した画像データは森の景色の中では明らかに周囲は異質なものである。従って、このような画像は高い顕著性を示す。後に詳細を説明するが、監督ロボットは、探索ロボットから送られてきた画像データの中から、顕著性が高い対象物を抽出する。   For example, assume that ten search robots have acquired images in the forest. Assume that only one of them has obtained a portrait placed in the forest as image data. Since nine robots acquire the scenery of the forest as an image, the image data of this portrait is clearly different in the surroundings of the forest. Therefore, such an image shows a high saliency. As will be described in detail later, the supervisory robot extracts an object with high saliency from the image data sent from the search robot.

監督ロボットは抽出した顕著性に値を付し、顕著性値を求める。いわば、顕著な対象に順番をつけるのである。そして、それぞれの対象を写した探索ロボットに顕著性値を通知する。   The supervisory robot assigns a value to the extracted saliency and obtains the saliency value. In other words, order the prominent objects. Then, the saliency value is notified to the search robot that copied each object.

顕著性値を通知された探索ロボットは、顕著性値に応じた顕著性信号を発信する。例えば、多数のロボットの中で、最も顕著であるとされた3つの画像について顕著性値をそれぞれのロボットに通知すると、多数のロボットの中で、通知された3台のロボットだけが、顕著性信号を発信する。   The search robot notified of the saliency value transmits a saliency signal corresponding to the saliency value. For example, when a saliency value is notified to each robot for the three images that are considered to be the most prominent among many robots, only the three robots that have been notified among the many robots are saliency. Send a signal.

多数のロボットは、他のロボットが発信した顕著性信号を受信し、電波の方向と顕著性の強さを知る。そして、受信した顕著性信号に基づいて移動方向を決め、一定距離を移動する。一定距離の移動後は再び周囲の画像を取得し、監督ロボットに送信する。   Many robots receive saliency signals transmitted by other robots and know the direction of radio waves and the strength of saliency. Then, the moving direction is determined based on the received saliency signal, and the vehicle moves a certain distance. After moving a certain distance, the surrounding image is acquired again and transmitted to the supervisory robot.

図1(b)には、一定距離を移動後のロボットの位置を示す。わずかではあるが、それぞれのロボットが集まり出しているのがわかる。このサイクルを継続すると、周囲の景色とは異種の対象物を見たロボットの周囲にロボットが集合する。図1(c)では、3箇所にロボットが集まっている状態を示している。このような動作を行うロボットのそれぞれの位置を表示装置上に表示すれば、探索エリアの中で探索ロボットたちが何かを見つけたことがわかる。   FIG. 1B shows the position of the robot after moving a certain distance. Although it is a little, you can see that each robot is gathering. If this cycle is continued, the robots gather around the robots who have seen objects different from the surrounding scenery. FIG. 1C shows a state where robots are gathered at three locations. If the positions of the robots that perform such operations are displayed on the display device, it can be understood that the search robots have found something in the search area.

以上のように、本発明では、探索ロボット自体は自分が取得した画像が顕著であるか否かの判断はつかない。監督ロボットから通知された顕著性信号によって始めて自分の見た対象物が周囲の風景とはかけ離れていることを知る。そして、個々のロボットは顕著な対象物を見た探索ロボットに集まることによって、探索結果を示すことになる。   As described above, according to the present invention, the search robot itself cannot determine whether or not the acquired image is remarkable. It is not until the saliency signal notified from the supervising robot knows that the object he saw is far from the surrounding landscape. Then, the individual robots gather the search robots that have seen the prominent objects, and show the search results.

また、本発明では、探索エリアの中で何を対象として探索するのかという指示はどこからも与えられない。従って、探索した結果何を見つけたのかも分からない。しかしながら、個々の探索ロボットは、自分の周囲の画像を取得し、監督ロボットに送り、顕著性信号に集まるように移動するだけという比較的簡単な機能を有するだけで、群として探索機能を有するという特徴をもつ。以下、探索ロボット、監督ロボット、表示装置について詳細な説明を行う。   Moreover, in this invention, the instruction | indication of what is searched for in a search area is not given from anywhere. Therefore, I do not know what I found as a result of the search. However, each search robot has a relatively simple function of acquiring an image of its surroundings, sending it to the supervisory robot, and moving so as to gather in the saliency signal, and has a search function as a group. Has characteristics. Hereinafter, the search robot, the supervisory robot, and the display device will be described in detail.

探索ロボット
図2に探索ロボットの概観を例示する。探索ロボット(10)は、本体(12)に車輪(14)と位置測定器(16)とカメラ(18)と送受信機(20、22)を搭載している。本体(12)には、バッテリーを初めとして、車輪(14)の駆動装置や制御装置を搭載している。
Search Robot FIG. 2 illustrates an overview of the search robot. The search robot (10) has wheels (14), a position measuring device (16), a camera (18), and transceivers (20, 22) mounted on a main body (12). The main body (12) is equipped with a drive device and a control device for the wheels (14) as well as a battery.

車輪(14)は移動手段であるが、車輪に限定されるものではなく、キャタピラ、エアフロート、若しくはヘリコプターのような飛行手段でも構わない。車輪(14)は、固定しているように描かれているが、進行方向を変えることができるのはいうまでもない。   The wheel (14) is a moving means, but is not limited to a wheel, and may be a flying means such as a caterpillar, an air float, or a helicopter. Although the wheel (14) is depicted as being fixed, it goes without saying that the direction of travel can be changed.

位置測定器(16)はここでは、GPS(Global Positioning System)を搭載している。しかし、これに限定されるものではなく、初期位置を記録した後、加速度計などを用い慣性移動をすることで、位置を把握してもよい。位置測定器(16)は、少なくとも自分のいる地点の座標と自分が向いている方角を出力する。   Here, the position measuring device (16) is equipped with a GPS (Global Positioning System). However, the present invention is not limited to this, and after the initial position is recorded, the position may be grasped by performing inertial movement using an accelerometer or the like. The position measuring device (16) outputs at least the coordinates of the point where the user is and the direction in which he is facing.

カメラ(18)はレンズと画像変換素子で構成され、周囲の画像を電子データとして取り込む。従って、首の部分(24)は適当な速度変換ギアを介して回転用のモーターに繋がり、回転可能に組みあげられている。また、首の部分には角度計があり、正面から何度首を回したかを測定する事ができる。   The camera (18) is composed of a lens and an image conversion element, and captures surrounding images as electronic data. Accordingly, the neck portion (24) is connected to a motor for rotation via an appropriate speed conversion gear, and is assembled so as to be rotatable. In addition, there is an angle meter in the neck part, and it can measure how many times the neck is turned from the front.

回転アンテナ(20)は、主として他のロボットが発信する顕著性信号を受信するために使用する。回転しながら受信することで、どの方向から信号が発信されているかを決めることができる。   The rotating antenna (20) is mainly used to receive a saliency signal transmitted by another robot. By receiving while rotating, it can be determined from which direction the signal is transmitted.

固定アンテナ(22)は、主として画像データの送信や自らが顕著性信号を発信する際に用いる。ただし、上記の回転アンテナは送信に用いることもできるし、固定アンテナも受信に用いる事ができる。   The fixed antenna (22) is mainly used when transmitting image data or transmitting a saliency signal by itself. However, the above rotating antenna can be used for transmission, and a fixed antenna can also be used for reception.

図3に探索ロボットの内部構成を示す。固定アンテナ(22)、回転アンテナ(20)、位置測定器(16)、カメラ(18)、車輪(14)は、図2と同じである。制御部(50)は、探索ロボット全体を制御し、マイクロコンピュータ(以下「マイコン」)が使われる。従ってマイコンは、内蔵若しくは外付けのROMに書き込まれたプログラムによって動作する。またマイコンは複数台あってもよい。   FIG. 3 shows the internal configuration of the search robot. The fixed antenna (22), the rotating antenna (20), the position measuring device (16), the camera (18), and the wheel (14) are the same as in FIG. The control unit (50) controls the entire search robot, and a microcomputer (hereinafter referred to as “microcomputer”) is used. Therefore, the microcomputer operates by a program written in a built-in or external ROM. There may be a plurality of microcomputers.

メモリ(52)は、制御部(50)に接続され必要な情報を記憶するために使われる。位置測定器(16)は制御部(50)と接続されており、自分の位置を測定した後、測定データを制御部(50)へ送る。   The memory (52) is connected to the control unit (50) and is used for storing necessary information. The position measuring device (16) is connected to the control unit (50), and after measuring its own position, sends measurement data to the control unit (50).

カメラ(18)はレンズと、レンズを通して結像させた画像を電子データに変換する撮像素子を含む。撮像素子はCCD(Change−coupled device)やCMOS(complementary metal−oxide semiconductor)などの半導体デバイスが用いられる。画像の電子データ(以後「画素データ」という。)は、画像処理部(60)によってより扱いやすい画像データへと変換される。例えばMPG(Moving Picture Experts Group)やJPEG(Joint Photographic Experts Group)等の規格である。   The camera (18) includes a lens and an image sensor that converts an image formed through the lens into electronic data. A semiconductor device such as a CCD (Change-coupled device) or a CMOS (Complementary Metal-Oxide Semiconductor) is used as the imaging device. The electronic image data (hereinafter referred to as “pixel data”) is converted into image data that is easier to handle by the image processing unit (60). For example, there are standards such as MPG (Moving Picture Experts Group) and JPEG (Joint Photographic Experts Group).

変換された画像データは制御部へ送られる。画像処理部(60)は通常独立した1つのLSI(Large scale integrated circuit)チップで構成されるが、制御部(50)と同一のチップ上に作成されてもよい。また、制御部(50)が画像処理部(60)の行うデータ変換をソフトウェアで行ってもよい。   The converted image data is sent to the control unit. The image processing unit (60) is usually composed of a single independent large scale integrated circuit (LSI) chip, but may be created on the same chip as the control unit (50). The control unit (50) may perform data conversion performed by the image processing unit (60) by software.

車輪(14)には駆動モーター(68)が連結されており、前進、後進、方向転換といった動作が可能である。駆動モーター(68)は駆動制御部(66)に制御される。駆動制御部(66)は、アンテナモーター(62)及びカメラモーター(64)にも接続されており、これらを制御する。また、駆動制御部(66)は制御部(50)と接続されており、制御部(50)の指示に従って、車輪(14)やカメラ(18)、回転アンテナ(20)を回転させる。   A drive motor (68) is connected to the wheel (14), and operations such as forward movement, reverse movement, and direction change are possible. The drive motor (68) is controlled by the drive controller (66). The drive controller (66) is also connected to the antenna motor (62) and the camera motor (64), and controls them. The drive control unit (66) is connected to the control unit (50), and rotates the wheel (14), the camera (18), and the rotating antenna (20) in accordance with instructions from the control unit (50).

図3で各モーターからの二重線は物理的に連結している状態を示す。駆動制御部(66)は、制御部(50)とはことなるマイコンで構成されるが、制御部(50)と同じチップ上に作成されてもよい。また、制御部(50)が駆動制御部(66)の処理を行ってもよい。   In FIG. 3, the double lines from the motors are physically connected. The drive control unit (66) is configured by a microcomputer different from the control unit (50), but may be created on the same chip as the control unit (50). Further, the control unit (50) may perform the process of the drive control unit (66).

アンテナモータ(62)には、角度センサー(58)が接続されていて、回転アンテナの角度を制御部(50)へ通知する。R送受信機(56)は回転アンテナに接続されており、制御部(50)の指示により、信号を発信したり、受信した情報を制御部(50)へ通知する。   An angle sensor (58) is connected to the antenna motor (62), and notifies the controller (50) of the angle of the rotating antenna. The R transceiver (56) is connected to the rotating antenna and transmits a signal or notifies the control unit (50) of received information according to an instruction from the control unit (50).

また、S送受信機(54)は固定アンテナ(22)に接続されており、同様に制御部(50)の指示により信号を発信したり、受信した情報を制御部(50)へ通知する。また図示しなかったバッテリーは、各部に必要な電力を供給する。   Further, the S transceiver (54) is connected to the fixed antenna (22), and similarly transmits a signal according to an instruction from the control unit (50) and notifies the control unit (50) of the received information. A battery not shown supplies necessary power to each part.

以上のような構成を有する探索ロボットの動作について図3の構成図と図4のフローを用いて説明する。図4を参照して、探索が開始されるとこのフローは始まる(S1010)。なお、探索を起動させる点については、後に説明する。探索が開始されると、探索ロボットはカメラ(18)で、周囲を撮影する(S1012)。   The operation of the search robot having the above configuration will be described with reference to the configuration diagram of FIG. 3 and the flow of FIG. Referring to FIG. 4, this flow starts when the search is started (S1010). In addition, the point which starts search is demonstrated later. When the search is started, the search robot images the surroundings with the camera (18) (S1012).

制御部(50)は、駆動制御部(66)にカメラの回転を指示し、駆動制御部(66)は指示に従ってカメラモーター(64)を回転させる。画像処理部(60)は、カメラの撮影した画素データを画像データに変換して制御部(50)に送る。同時にカメラ角度センサー(59)は、カメラの角度を制御部(50)へ通知する。   The control unit (50) instructs the drive control unit (66) to rotate the camera, and the drive control unit (66) rotates the camera motor (64) according to the instruction. The image processing unit (60) converts pixel data captured by the camera into image data and sends the image data to the control unit (50). At the same time, the camera angle sensor (59) notifies the controller (50) of the camera angle.

制御部(50)は、送られてきた画像データとカメラの角度を関連付けてメモリ(52)に記録する。そして、カメラが1回転したら撮影は終了する。これで、探索ロボットは、周囲の方向と画像データが一対になったデータを取得した。なお、撮影はカメラが1回転する間に連続的に撮影してもよいし、間欠的に撮影をしてもよい。また、周囲1周の撮影でなくても、予め決められた範囲の撮影であってもかまわない。例えば、正面と右60度、左60度だけとするなどである。さらに、1方向だけの画像を使ってもよい。   The control unit (50) records the received image data and the camera angle in the memory (52) in association with each other. Then, when the camera rotates once, shooting is finished. Thus, the search robot has acquired data in which the surrounding direction and the image data are paired. Note that shooting may be performed continuously while the camera rotates once, or intermittent shooting may be performed. Further, it is possible to shoot in a predetermined range instead of shooting around one circumference. For example, only 60 degrees to the front, 60 degrees to the right, and 60 degrees to the left. Furthermore, an image in only one direction may be used.

次に制御部(50)は、取得した画像データを処理する(S1014)。このステップでは画像データを送信するために加工する。画像データは一定の大きさを持つ単位で管理されることになるが、後段の処理によっては、画像データの全ての情報が必要なわけではない。監督ロボットへ送る画像データは少ない方が、ロボット同士の通信も効率的になる。   Next, the control unit (50) processes the acquired image data (S1014). In this step, the image data is processed for transmission. The image data is managed in units having a certain size, but not all information of the image data is necessary depending on the subsequent processing. The smaller the image data sent to the supervisor robot, the more efficient the communication between the robots.

従ってこの処理で画像データを所定の大きさになるまで圧縮もしくは削除を行う。また、カメラの角度情報と位置測定器(16)から得た位置情報に基づいて、撮影した画像データの方角を算出し、画像データに関連付ける。例えば、位置情報により自分の正面が北から20度東に向いており、取得した画像データはカメラの角度が30度であったとすると、その画像データ現在自分がいる地点から北東向きに50度の方向の画像データであることがわかる。これは主として制御部(50)のソフトウェア的な処理である。   Therefore, this process compresses or deletes the image data until it reaches a predetermined size. Further, based on the angle information of the camera and the position information obtained from the position measuring device (16), the direction of the captured image data is calculated and associated with the image data. For example, if the front of the camera is 20 degrees east from the north according to the position information, and the acquired image data has a camera angle of 30 degrees, the image data is 50 degrees northeast from the current position. It can be seen that the image data is in the direction. This is mainly software processing of the control unit (50).

画像データを送る準備ができたら、画像データを送信する(S1016)。画像データの送信は制御部(50)が関連するデータをS送受信機(54)に送り、S送受信機(54)がこれを行う。なお、R受信機で行ってもよい。より詳細には、制御部(50)は、自らのID番号、位置情報、方角データ付の画像データ等を準備し、S送受信機(54)に送る。S送受信機(54)は、所定の帯域と変調方法を用いて、これらの情報を監督ロボットに送信する。   When it is ready to send the image data, the image data is sent (S1016). For transmission of image data, the control unit (50) sends relevant data to the S transceiver (54), which is performed by the S transceiver (54). In addition, you may carry out by R receiver. More specifically, the control unit (50) prepares its own ID number, position information, image data with direction data, etc., and sends it to the S transceiver (54). The S transceiver (54) transmits these pieces of information to the supervisory robot using a predetermined band and modulation method.

通信方法に特に限定はなく、監督ロボットとの間でハンドシェイクを行いながら連続的に送信してもよいし、パケットに分けて、分割しながら送ってもよい。送信が終了したら、顕著性値の送信を待つ。信号の受信はS送受信機(54)で行わせるが、R送受信機で行ってもよい。監督ロボットは、探索ロボットからのデータを受信した後、顕著性値を求め、その顕著性値を探索ロボットに通知する。   There is no particular limitation on the communication method, and it may be continuously transmitted while handshaking with the supervising robot, or may be divided into packets and transmitted while being divided. When the transmission is finished, it waits for the transmission of the saliency value. The signal is received by the S transceiver (54), but may be received by the R transceiver. After receiving the data from the search robot, the supervisory robot obtains the saliency value and notifies the search robot of the saliency value.

監督ロボットからの顕著性値を受信したら、自分宛の顕著性値があるか否かを判断する(S1018)。監督ロボットは、探索ロボットから集めた画像データに基づき顕著性値を求め、その顕著性値とその順位および、その値に該当画像を送信したロボットのIDと、そのロボットの位置情報等を探索ロボットに通知する。従って、送られてくるIDが自分のIDと同じか否かを判断すれば、自分宛の通知か否かが判断できる。また、顕著性値が通知されたという点に関しては、全ての探索ロボットがこれを認識することができる。   When the saliency value from the supervisory robot is received, it is determined whether or not there is a saliency value addressed to itself (S1018). The supervisory robot obtains the saliency value based on the image data collected from the search robot, and searches the saliency value, its rank, the ID of the robot that transmitted the image to that value, the position information of the robot, etc. Notify Therefore, if it is determined whether or not the sent ID is the same as the own ID, it can be determined whether or not the notification is addressed to the user. In addition, all the searching robots can recognize the point that the saliency value is notified.

もし自分宛の通知であった場合(S1018のY分岐)は、通知された顕著性値に基づいて顕著性信号を周囲に送出する。顕著性信号は信号の大きさでもよいし、所定の周波数や位相であってもかまわない。少なくとも顕著性信号は、通知された顕著性値から予め決められた方法で求めることのできる信号である。また顕著性信号には信号を発信している探索ロボットの位置情報を含む。   If it is a notification addressed to itself (Y branch of S1018), a saliency signal is sent to the surroundings based on the notified saliency value. The saliency signal may be the magnitude of the signal, or may be a predetermined frequency or phase. At least the saliency signal is a signal that can be obtained by a predetermined method from the notified saliency value. Further, the saliency signal includes position information of the search robot that is transmitting the signal.

制御部(50)は、予め保有する顕著性値と出力する信号の対比テーブルから、どのような信号を発信するかを知る。そして制御部(50)がS送受信部(54)に顕著性信号の送信を指示する(S1020)。   A control part (50) knows what kind of signal is transmitted from the comparison table of the saliency value held beforehand and the signal to be output. Then, the control unit (50) instructs the S transmission / reception unit (54) to transmit a saliency signal (S1020).

次に他の探索ロボットの顕著性信号を受信する(S1022)。これは制御部(50)が駆動制御部(66)に回転アンテナを回転させることを指示し、R送受信機(56)に信号の受信を指示する。制御部は(50)は、アンテナ角度センサ(58)からのアンテナ角度の情報とR送受信機(56)からの受信情報を取得する。   Next, the saliency signal of another search robot is received (S1022). This instructs the control unit (50) to rotate the rotating antenna to the drive control unit (66), and instructs the R transceiver (56) to receive a signal. The control unit (50) acquires information on the antenna angle from the antenna angle sensor (58) and information received from the R transceiver (56).

図5は、顕著性信号の一例である。ここでは、探索ロボットが集めた画像の中から3つの顕著な画像が選択された場合を例に説明を行う。ある探索ロボット(以下「探索ロボットA」という。)は回転アンテナ(20)による受信の結果図5に示す顕著性信号の受信結果(70)を得たとする。縦軸は強度、横軸は周波数を示す。ノイズレベル(78)よりも十分に大きな信号が3つあるのが分かる。   FIG. 5 is an example of the saliency signal. Here, the case where three remarkable images are selected from images collected by the search robot will be described as an example. Assume that a search robot (hereinafter referred to as “search robot A”) obtains the reception result (70) of the saliency signal shown in FIG. 5 as a result of reception by the rotating antenna (20). The vertical axis represents intensity, and the horizontal axis represents frequency. It can be seen that there are three signals sufficiently larger than the noise level (78).

監督ロボットは探索ロボットから集めた画像データを分析し、3つの顕著な画像を送った探索ロボットに、顕著性値とその順位等を送信した。顕著性値を通知された探索ロボットは、予め決められた方法で顕著性信号を発信した。ここでは、顕著性が高い順にf1、f2、f3の周波数を用いて顕著性信号を発信するということである。   The supervisory robot analyzed the image data collected from the search robot, and sent the saliency values and their ranks to the search robot that sent three outstanding images. The search robot notified of the saliency value transmits a saliency signal by a predetermined method. Here, the saliency signal is transmitted using the frequencies of f1, f2, and f3 in descending order of saliency.

従って、図5を受信した探索ロボットAは、最も顕著性の高かった画像を見た探索ロボットからの信号として周波数f1の信号を受信し、その信号の中からf1を発信した探索ロボットの位置情報を得る。同様に顕著性が2位、3位であった探索ロボットの位置をf2、f3の信号からそれぞれ知る。なお、f1の信号がf2の信号より小さいことから、最も顕著な対象物を見た探索ロボットは、探索ロボットAから遠いところにいると推測できる。   Therefore, the search robot A that has received FIG. 5 receives the signal of the frequency f1 as a signal from the search robot that has seen the image having the highest conspicuousness, and the position information of the search robot that has transmitted f1 from the signal. Get. Similarly, the positions of the search robots having the second and third saliency are known from the signals f2 and f3, respectively. Since the signal of f1 is smaller than the signal of f2, it can be estimated that the search robot that has seen the most prominent object is far from the search robot A.

図4に戻って、図5に示すような顕著性信号を受信できなかった場合は、再度周囲の撮影に戻る(S1022のN分岐)。若しくは監督ロボットとの通信確認を行ってもよい。   Returning to FIG. 4, when the saliency signal as shown in FIG. 5 cannot be received, the process returns to the surrounding photographing again (N branch in S1022). Alternatively, communication confirmation with the supervisor robot may be performed.

次に他の顕著性信号から移動位置若しくは移動方向を決定する(S1024)。図6は、探索ロボットAが図5の受信結果から得た結果を地図(80)上に表示したものである。地図上に示した点線の縦軸をy方向、横軸をx方向とする。y方向は北の方角を示し、x方向は東の方角を示すとする。地図の中心(82)には探索ロボットA自身がいる。顕著性値が最も高かったとしてf1の信号を発信した探索ロボットは符号82の地点である。またf2、f3の信号を発信した探索ロボットはそれぞれ符号84、86である。   Next, the movement position or movement direction is determined from other saliency signals (S1024). FIG. 6 shows the result obtained by the search robot A from the reception result of FIG. 5 on the map (80). The vertical axis of the dotted line shown on the map is the y direction, and the horizontal axis is the x direction. The y direction indicates the north direction, and the x direction indicates the east direction. At the center (82) of the map is the search robot A itself. The search robot that has transmitted the signal f1 on the assumption that the saliency value is the highest is the point 82. The search robots that transmitted the signals f2 and f3 are denoted by reference numerals 84 and 86, respectively.

探索ロボットAの次の移動位置、若しくは移動方向はこれらの顕著性信号を発信した探索ロボットとの位置関係で決まる。決め方はさまざまであるが、顕著性信号を発信している探索ロボットに向かって進むような方法であれば、特に限定されない。   The next movement position or movement direction of the search robot A is determined by the positional relationship with the search robot that has transmitted these saliency signals. There are various ways of determination, but there is no particular limitation as long as the method proceeds to the search robot that is transmitting the saliency signal.

例えば、顕著性値が大きいほど、また信号源が近いほど強く指向して、一定距離を移動するような移動位置の決め方が考えられる。具体的には、顕著性値大きさに従って重み付けρiを予め決めておく。iは顕著性の順位を示す。従って最も顕著性が高かった探索ロボットにはρ1を当てる。   For example, it is conceivable to determine the movement position so that the greater the saliency value and the closer the signal source is, the stronger the direction and the movement of a certain distance. Specifically, the weighting ρi is determined in advance according to the saliency value magnitude. i indicates the ranking of saliency. Therefore, ρ1 is assigned to the search robot with the highest saliency.

次にそれらの探索ロボットとの距離riを求める。図6で示したように、自分の位置を原点としたときに、相手の位置の座標がわかるので、距離riは求めることができる。そして、ρi/riが各座標からの引力であるとして、この引力に従って移動方向を決める。従って、(数1)のベクトルの方向にむけて一定距離を移動すればよい。   Next, a distance ri with respect to those search robots is obtained. As shown in FIG. 6, the distance ri can be obtained because the coordinates of the opponent's position are known when the position of the user is the origin. Then, assuming that ρi / ri is an attractive force from each coordinate, the moving direction is determined according to this attractive force. Therefore, it suffices to move a certain distance in the direction of the vector of (Expression 1).

ここで、θは各探索ロボットのx方向からの角度で与えられる。なお、これは一例であって、他の規則を決めて移動方向と移動距離を決めてもかまわない。以上のようにして、移動方向と移動距離(上記説明では予め決まった一定距離とした)を得ることができる。   Here, θ is given as an angle from the x direction of each search robot. This is merely an example, and other rules may be determined to determine the moving direction and moving distance. As described above, the moving direction and the moving distance (predetermined constant distance in the above description) can be obtained.

図4に戻って、次に移動を行う(S1028)。探索ロボットAは、自身の位置と移動すべき方向、及び距離がわかるので、その方向に向かって移動する。移動は制御部(50)が駆動制御部(66)に指示することによって行われる。なお、移動の最中に障害物があった場合は適宜迂回するが、本発明の趣旨と離れるので説明は割愛する。   Returning to FIG. 4, the next movement is performed (S1028). Since the search robot A knows its own position, the direction to be moved, and the distance, it moves toward that direction. The movement is performed by the control unit (50) instructing the drive control unit (66). It should be noted that if there is an obstacle during the movement, a detour is made as appropriate, but the explanation is omitted because it is not the gist of the present invention.

一定距離の移動が終了したら停止し、探索停止信号が発せられているかどうかを確認する(S1028)。そして、探索終了信号が発信されていたら、探索は終了し(S1030)、探索停止信号が発せられていなければ再び、周囲の撮影(S1012)のステップから繰り返す。なお、探索停止信号の受信はS1028として説明したが、探索停止信号は、いつのステップでも受信可能として、マイコンの割り込み処理としてもよい。   When the movement of a certain distance is completed, the movement is stopped, and it is confirmed whether or not a search stop signal is issued (S1028). If the search end signal has been transmitted, the search ends (S1030). If the search stop signal has not been issued, the process repeats from the surrounding shooting (S1012) step. Although the reception of the search stop signal has been described as S1028, the search stop signal may be received at any step and may be interrupted by the microcomputer.

別の態様としては、次のような場合もある。k番目のロボット顕著性をp(k)とする。各ロボットはp(k)が所定の大きさpthより大きいときはp(k)の大きさに比例した信号s(k)を発生する。例えば、電力がp(k)であり各ロボットに固有の周波数を持つ電波を発生させる。いっぽう、各ロボットは他のロボットが発する信号を受信し、その結果に基づいて自身の動作を決定する。 Another aspect is as follows. Let the kth robot saliency be p (k). Each robot generates a p signal (k) is when a predetermined magnitude p th larger in proportion to the magnitude of p (k) s (k). For example, a radio wave having power p (k) and a frequency unique to each robot is generated. On the other hand, each robot receives a signal from another robot and determines its own action based on the result.

例えば、k番目のロボットが他のロボット、k1番目、k2番目、・・・、ks番目のロボットから信号を受信したとし、それぞれのロボットの方向を表わす単位ベクトルをe(k1)、e(k2)、・・・、e(ks)、受信信号の電力をr(k1)、r(k2)、・・・、r(ks)であるとする。電波の減衰効果のため受信信号の電力r(k1)は送信信号の電力p(k1)よりも小さく、減衰の程度は信号を送信するロボットと受信するロボットの距離が増大するにつれて大きくなる。このとき、ロボットを(数2)に従って位置を変化させる。 For example, suppose that the k-th robot receives signals from other robots, k1, k2,..., Ks-th robot, and unit vectors representing the directions of the respective robots are expressed as e k (k1), e k. (k2), ···, e k (ks), the power of the received signal r k (k1), r k (k2), ···, and an r k (ks). Due to the attenuation effect of the radio wave, the power r k (k1) of the reception signal is smaller than the power p (k1) of the transmission signal, and the degree of attenuation increases as the distance between the robot that transmits the signal and the robot that receives the signal increases. At this time, the position of the robot is changed according to (Equation 2).

ここで、qk(t)は時刻tにおけるk番目のロボットの位置を表わす。この式は(数3)のベクトルで表わされる方向にμの大きさの速度で移動することを表わしている。なお、(数3)は(数2)の右辺の分子である。 Here, q k (t) represents the position of the k-th robot at time t. This expression represents that the robot moves at a speed of μ in the direction represented by the vector of (Equation 3). (Equation 3) is the numerator on the right side of (Equation 2).

このような処理を行えば、各探索ロボットは立ち止まる必要は無く、動きながら探索を行うこともできる。   If such a process is performed, each search robot does not need to stop and can search while moving.

監督ロボット
本発明では、監督ロボットは、探索ロボットの中に少なくとも1台以上存在する。監督ロボットの外見は図2で示した探索ロボットと同じでよい。すなわち、ある探索ロボットが一定の起動条件の下で探索ロボットから監督ロボットになる。もちろん、監督ロボット専用として組み上げられたものがあってもよい。ここでは、監督ロボットは探索ロボットが一定の起動条件によって監督ロボットになったものとする。一定の起動条件は、使用者が与えてもよいし、群ロボットの制御中に満たされた条件によって自動的に監督ロボットになってもよい。
Supervisory robot In the present invention, at least one supervisory robot exists in the search robot. The appearance of the supervisory robot may be the same as that of the search robot shown in FIG. That is, a search robot changes from a search robot to a supervisory robot under certain activation conditions. Of course, there may be something specially built for the supervisor robot. Here, it is assumed that the supervisory robot is a supervisory robot under certain activation conditions. The constant activation condition may be given by the user or may automatically become a supervisory robot depending on the conditions satisfied during the control of the group robot.

監督ロボットは、探索ロボットと同じ構成であるので、外見は図2と同じであるし、内部の構成は図3と同じである。ただし、監督ロボットは、監督ロボット用のソフトウェアによって監督ロボット特有の処理を行う。   Since the supervising robot has the same configuration as the search robot, the appearance is the same as in FIG. 2, and the internal configuration is the same as in FIG. However, the supervisory robot performs a process specific to the supervisory robot using the supervisory robot software.

図7に監督ロボットの動作をフローで示す。以下の動作は主として制御部(50)によるソフトウェア処理で行われる。探索すべきエリアの場所に関してはすでに情報を入手しているものとする。具体的には、探索すべきエリアを方形状として、四隅の位置座標を知っている。   FIG. 7 shows the flow of the supervisory robot. The following operations are mainly performed by software processing by the control unit (50). It is assumed that information has already been obtained regarding the location of the area to be searched. Specifically, the position coordinates of the four corners are known with the area to be searched as a rectangle.

監督ロボットとして活動を開始すると(S1040)、まず、探索ロボットの位置を確認する(S1042)。これは、探索ロボット全部に一斉に位置情報の連絡を通知してもよいし、探索ロボット毎に聞いていってもよい。これらの通信は監督ロボットのR送受信機(56)を使って行うが、S送受信機(54)を使ってもよいし、これらを組み合わせて使用してもよい。   When the activity is started as the supervisory robot (S1040), first, the position of the search robot is confirmed (S1042). This may be notified of position information to all the searching robots all at once, or may be heard for each searching robot. These communications are performed using the supervisory robot's R transceiver (56), but the S transceiver (54) may be used, or a combination of these may be used.

次に探索ロボットの配置を決定する。本発明は、探索ロボットの得た画像データの中で他とは異なる特徴を有する対象物を見た探索ロボットに他の探索ロボットが集まることで、探索が行われる。従って、最初は探索エリアに満遍なく探索ロボットが散らばっているのが好ましい。そこで、それぞれの探索ロボットの位置と探索エリアの情報から探索ロボットがランダムに配置されるように各探索ロボットに指示を行う。例えば、図1(a)の状態のように配置される。ただし、ランダムに配置しなければならないわけではなく、規則正しい配置から探索を始めてもよい。   Next, the arrangement of the search robot is determined. In the present invention, a search is performed by gathering other search robots in a search robot that has seen an object having a different feature from the image data obtained by the search robot. Therefore, it is preferable that the search robots are scattered all over the search area at first. Therefore, the search robots are instructed so that the search robots are randomly arranged based on the information on the positions of the search robots and the search areas. For example, it arrange | positions like the state of Fig.1 (a). However, it does not have to be arranged randomly, and the search may be started from a regular arrangement.

探索ロボットの配置が完了したら、探索開始指示を行う(S1046)。これはS送受信機(54)をつかって行うことができる。もちろんR送受信機(56)を用いることもできる。   When the arrangement of the search robot is completed, a search start instruction is issued (S1046). This can be done using the S transceiver (54). Of course, an R transceiver (56) can also be used.

探索開始指示を受けたら各探索ロボットが探索を始めるのは、図4以下で説明したとおりである。各探索ロボットが探索を終了したら画像データ等を送信してくるのでこれを受信する(S1048)。多数の探索ロボットからのデータを受信するため、ハンドシェイク等で、相手を確認しながら受信する。   Each search robot starts searching when receiving a search start instruction as described in FIG. When each search robot completes the search, image data and the like are transmitted and received (S1048). In order to receive data from a large number of search robots, it is received while confirming the other party by handshaking or the like.

全ての探索ロボットからのデータを受信し終えたら(S1050のY分岐)、これらのデータに基づいて顕著性を抽出する(S1052)。顕著性の抽出が終了すると、顕著性値を得ることができる。これについては、詳細を後述する。   When data from all search robots has been received (Y branch of S1050), saliency is extracted based on these data (S1052). When the saliency extraction is completed, the saliency value can be obtained. Details will be described later.

探索を終了するか否かの判断を行い(S1054)、継続する場合は、各探索ロボットに顕著性値の通知を行う。探索の終了は、利用者による指示でもよいし、探索ロボットの集合の具合から判断してもよい。   It is determined whether or not to end the search (S1054), and when the search is to be continued, the saliency value is notified to each search robot. The end of the search may be instructed by the user or may be determined from the condition of the set of search robots.

次に顕著性の抽出(S1052)について詳細を説明する。顕著性とは注目するデータは多数のデータの中で、どの程度周囲と似通っていないかという程度である。これを抽出するには、探索ロボットの取得した画像からその画像の特徴を抽出する段階と、その特徴に基づいて顕著性を抽出する段階の2段階からなる。それぞれ一般化した説明を行い、具体的な例をその後説明する。   Next, details of the saliency extraction (S1052) will be described. The saliency is the degree to which the data of interest is not similar to the surroundings among many data. To extract this, there are two steps: a step of extracting features of the image from the image acquired by the search robot and a step of extracting saliency based on the features. A generalized explanation will be given for each, and then a specific example will be explained.

特徴点の抽出
カメラによって取得したn個の画素からなる画像の各画素の値を要素とするベクトルを(数4)とする。そして、予め定めておいたベクトル(数5)を用いて(数6)で示される特徴を抽出する。
Extraction of feature points A vector having the value of each pixel of an image composed of n pixels acquired by the camera as an element is represented by (Expression 4). And the feature shown by (Formula 6) is extracted using the vector (Formula 5) defined beforehand.

(数6)によって、m個の数からなる特徴が抽出される。以下これらを総称して特徴データと呼ぶ。(数4)は、探索ロボットが撮影した画像データである。画像データは2次元の画像を数値化したものを1次元の配列として並べたものである。従って1式は例えば、画像データ1枚分と考える事が出来る。   By (Equation 6), features consisting of m numbers are extracted. Hereinafter, these are collectively referred to as feature data. (Equation 4) is image data taken by the search robot. The image data is obtained by arranging two-dimensional images in numerical form as a one-dimensional array. Therefore, one set can be considered as one image data, for example.

(数5)は、いわばフィルターであり、画像データの中にfで定めた特徴があれば、3式で示した内積によって数値として得る事ができる。すなわち、1つの特徴とは、1つの値であって、1枚の画像データからm個抽出することができる。どのようなfをいくつ設定するかは、本発明が使用される状況において利用者が自由に決めることができる。   (Equation 5) is a so-called filter. If there is a feature defined by f in the image data, it can be obtained as a numerical value by the inner product shown in equation (3). That is, one feature is one value, and m pieces can be extracted from one piece of image data. The user can freely decide what f is to be set and how it is used in the situation where the present invention is used.

顕著性の抽出
顕著性は、上記のようにして得られた特徴データより主成分分析を行い、類似性の高い見方をあらわす固有ベクトルを求め、その固有ベクトルからどの程度離れているかで求める。k番目のロボットが抽出した特徴をm次元のベクトル(数7)で考える。
Extraction of saliency The saliency is obtained by performing principal component analysis from the feature data obtained as described above, obtaining an eigenvector representing a highly similar view, and determining how far away from the eigenvector. . Consider the features extracted by the k-th robot with an m-dimensional vector (Equation 7).

主成分分析を行なう手段では、(数8)によってm×mの行列を算出する。そしてこのSを用いた固有方程式(数9)を考える。そして、この固有方程式を解き、(数10)の固有ベクトルと(数11)の固有値を求める。   In the means for performing principal component analysis, an m × m matrix is calculated by (Equation 8). Then, an eigen equation (Equation 9) using this S is considered. Then, this eigen equation is solved to obtain the eigen vector of (Equation 10) and the eigen value of (Equation 11).

固有方程式の解法は、公知の方法を用いて解く事ができる。なお、固有値は大きい順に並んでいるものとする。   The eigen equation can be solved using a known method. Note that the eigenvalues are arranged in descending order.

ここで、固有ベクトルは多数の特徴データの中で関連性がある軸(主成分)を表しており、固有値は、それぞれの固有ベクトルに対して特徴データがどの程度共通性があるか(分散が小さいか)をあらわしている。従って、最も大きな固有値μ1である固有ベクトルv1は、特徴データの共通性を最もよく反映している。   Here, the eigenvector represents an axis (principal component) that is relevant among a large number of feature data, and the eigenvalue indicates how common the feature data is to each eigenvector (whether the variance is small). ). Therefore, the eigenvector v1, which is the largest eigenvalue μ1, best reflects the commonality of the feature data.

具体的な例で説明すると、探索ロボットが森の中を探索し自分の周囲の画像を撮影したとする。すると、ほとんどの画像には、植物の緑が写っているはずであるから、「緑色」という特徴を特徴データにいれてあれば、上記の計算によって「緑色」という固有ベクトルが抽出され、大きな固有値を持つということである。   As a specific example, it is assumed that the search robot searches the forest and takes an image of the surrounding area. Then, since most of the images should show the green of the plant, if the feature of “green” is included in the feature data, the eigenvector of “green” is extracted by the above calculation, and a large eigenvalue is obtained. It is to have.

次に顕著性を求める。主成分分析を行なう手段で得られるm個の固有ベクトルのうち固有値が大きいほうからl個選び、それを(数12)とする。   Next, the saliency is obtained. Of the m eigenvectors obtained by the principal component analysis means, 1 is selected from the eigenvectors having the larger eigenvalues, and this is expressed as (Equation 12).

k番目のロボットの特徴を抽出する手段で得られる特徴は(数13)で表される。そして各特徴データを固有ベクトル上へ射影し、大きさを求める。具体的には(数14)の計算を行う。そして顕著性pを(数15)で算出するものとする。   The characteristic obtained by the means for extracting the characteristic of the k-th robot is expressed by (Equation 13). Each feature data is projected onto an eigenvector, and the size is obtained. Specifically, (Equation 14) is calculated. The saliency p is calculated by (Equation 15).

t’(k)は、固有ベクトル上への写像であるから固有ベクトルに対して直交方向にあればあるほど、小さな値になる。つまり、p(k)は、固有ベクトルに直交していてかつ固有ベクトルからの距離が離れていればいるほど大きくなる。すなわち、他の多くの特徴データが持つ同じ傾向からかけ離れている。   Since t ′ (k) is a mapping onto the eigenvector, the smaller it is in the direction orthogonal to the eigenvector, the smaller the value. That is, p (k) increases as it is orthogonal to the eigenvector and the distance from the eigenvector increases. That is, it is far from the same tendency of many other feature data.

図8はこの様子を模式的に表した図である。特徴データ(90)に対して、ある固有ベクトル(92)は非常に高い相関性を有している。これはこの固有ベクトルが大きな固有値を持つことに他ならない。ここで、特徴データ(94)は、この固有ベクトルから、かけ離れている   FIG. 8 is a diagram schematically showing this state. A certain eigenvector (92) has a very high correlation with the feature data (90). This is nothing but this eigenvector has a large eigenvalue. Here, the feature data (94) is far from this eigenvector.

図8でt(k)は符号95に相当し特徴データ(94)のベクトルである。固有ベクトル(92)上への射影となるt’(k)は符号(96)のベクトルである。従って、顕著性p(k)は符号(97)のベクトルの大きさの2乗である。これは固有ベクトル(92)からの距離の2乗をあらわしているに他ならない。そしてこの特徴データ(94)の顕著性は他の特徴データが有する固有ベクトルからの距離の2乗よりも大きい。すなわち、顕著であると言える。   In FIG. 8, t (k) corresponds to reference numeral 95 and is a vector of feature data (94). T ′ (k) that is a projection onto the eigenvector (92) is a vector of the code (96). Therefore, the saliency p (k) is the square of the vector size of the code (97). This is nothing but the square of the distance from the eigenvector (92). The saliency of the feature data (94) is greater than the square of the distance from the eigenvector of other feature data. That is, it can be said that it is remarkable.

より具体的な例として探索ロボットが4台ある場合にについて非常に単純化したモデルを説明する。4台の探索ロボットをそれぞれq1、q2、q3、q4とする。そして、ある時刻におけるロボットの位置を(数16)のようにする。   As a more specific example, a very simplified model for the case where there are four search robots will be described. Assume that the four search robots are q1, q2, q3, and q4, respectively. Then, the position of the robot at a certain time is set as (Equation 16).

図9(a)にこの様子を示した。各探索ロボットは図10に示す撮像素子を有しているとする。これは赤(R)、緑(G)、青(B)の各色を検出できる素子が1つずつ並んだ撮像素子である。従って、各探索ロボットの画素データの出力は、(赤、緑、青)の3ビットである。各探索ロボットの画像処理部()はこの画素データをそのまま画像データとして監督ロボットに送信してくるものとする。また、各探索ロボットは、真っ暗な暗闇にいる。すると各探索ロボットが送信してくる画像データは(数17)になる。(数17)では、各探索ロボットの番号を添え字とした。予め決めておいたフィルターとなるベクトルは(数18)のようにする。   FIG. 9A shows this state. Assume that each search robot has the image sensor shown in FIG. This is an image sensor in which elements that can detect each color of red (R), green (G), and blue (B) are arranged one by one. Accordingly, the pixel data output of each search robot is 3 bits (red, green, blue). It is assumed that the image processing unit () of each search robot transmits this pixel data as it is to the supervisor robot as image data. In addition, each search robot is in darkness. Then, the image data transmitted by each search robot is (Equation 17). In (Equation 17), the number of each search robot is a subscript. A vector that becomes a predetermined filter is expressed as (Equation 18).

(1)は、緑色のフィルターであり、f(2)は赤色のフィルターである。
次に監督ロボットが探索命令を出した際に、探索ロボットq1、q2、q3、q4が撮影した画像がそれぞれ、緑、黒、黄、赤であったとする。すなわち、画像データは(19)のように表される。黄色は緑の補色として緑のデータが−1であるとした。次に上記の画像データとフィルタから特徴データを求める。(数20)にまとめて示す。
f (1) is a green filter, and f (2) is a red filter.
Next, it is assumed that images taken by the search robots q1, q2, q3, and q4 when the supervisory robot issues a search command are green, black, yellow, and red, respectively. That is, the image data is expressed as (19). Yellow is a complementary color of green, and green data is -1. Next, feature data is obtained from the image data and the filter. These are summarized in (Equation 20).

従って、各ロボットが抽出した特徴データ(2次元)をまとめると、(数21)になる。図9(b)には特徴データの配置を示している。横軸は赤色の傾向を示し縦軸は緑色の傾向を示す。このとき、(数8)のSは(数22)のようになる。(数22)の行列に関する固有値方程式は(数23)である。この方程式を解くと(数24)に示す二つの解が得られる。   Therefore, when the feature data (two-dimensional) extracted by each robot is collected, (Equation 21) is obtained. FIG. 9B shows the arrangement of feature data. The horizontal axis shows a red tendency and the vertical axis shows a green tendency. At this time, S in (Equation 8) becomes (Equation 22). The eigenvalue equation for the matrix of (Equation 22) is (Equation 23). When this equation is solved, two solutions shown in (Equation 24) are obtained.

つまり、1番目の解は固有ベクトルがv1=(0、1)、固有値がμ1=2であり、2番目の解は固有ベクトルがv2=(1、0)、固有値がμ2=1である。固有値が最大である固有ベクトルv1=(0、1)が主成分を表わす主軸であり、v2=(1、0)は2番目の主軸である。なお、v1やv2は本来(数)のように書くべきところを記載の都合上、横書きとした。以下同じである。 That is, the first solution has an eigenvector of v 1 = (0, 1) and an eigenvalue of μ 1 = 2, and the second solution has an eigenvector of v 2 = (1, 0) and an eigenvalue of μ 2 = 1. is there. The eigenvector v 1 = (0, 1) having the maximum eigenvalue is the main axis representing the principal component, and v 2 = (1, 0) is the second main axis. It should be noted that v 1 and v 2 are horizontally written for convenience of description where they should be written as (number). The same applies hereinafter.

図9(c)に示すように1番目、2番目、3番目のロボットが抽出した特徴は第1主成分を表わす軸の上に配置されており、4番目のロボットの特徴はその軸から離れている。第1主成分は縦軸であり太い矢印で示した。従って1番目、2番目、3番目のロボットの特徴は互いに類似しており(同じ傾向を持ち)、4番目のロボットはそれとは異なった特徴を持っていると判断できる。言い換えると、緑色の傾向が、第1主成分であり、赤色の傾向は第2主成分である。   As shown in FIG. 9C, the features extracted by the first, second, and third robots are arranged on the axis representing the first principal component, and the features of the fourth robot are separated from the axes. ing. The first main component is the vertical axis and is indicated by a thick arrow. Therefore, the features of the first, second and third robots are similar to each other (having the same tendency), and it can be determined that the fourth robot has different features. In other words, the green tendency is the first principal component, and the red tendency is the second principal component.

次に顕著性を求める。まず、固有値が最大である固有ベクトルv1=(0、1)を選び、それぞれのロボットの特徴をv1=(0、1)の方向を持つ直線に射影する。すなわち、特徴であるベクトルtは(数26)のよう表される。また、(数26)を固有ベクトルv1に射影するのは(数27)の式で表される。従って、それぞれのロボットの顕著性は(数28)のように表される。 Next, the saliency is obtained. First, the eigenvector v 1 = (0, 1) having the maximum eigenvalue is selected, and the characteristics of each robot are projected onto a straight line having the direction of v 1 = (0, 1). That is, the vector t which is a feature is expressed as (Equation 26). The projection of (Equation 26) onto the eigenvector v 1 is expressed by the equation (Equation 27). Therefore, the saliency of each robot is expressed as (Equation 28).


すなわち4番目のロボットだけ1の顕著性を持つ。このロボットが抽出する特徴が他から際だっていることを示す。これは、1から3番目の探索ロボットは緑色の傾向に並んでいるのに対して、4番目のロボットだけが赤色を見たために、4番目のロボットの顕著性が高いことに対応している。このように求めたpを顕著性値とする。   That is, only the fourth robot has a saliency of 1. Indicates that the features extracted by this robot are distinct from others. This corresponds to the fact that the 4th robot is highly noticeable because the 1st to 3rd search robots are lined up in green, whereas only the 4th robot saw red. . Let p obtained in this way be the saliency value.

4番目のロボットだけが1の大きさに相当する信号を出し、他のロボットがそれを受信してその方向に進むので、少し後のロボットの位置は図9(d)のようになる。1T、2T、3Tが、少し時間がたった後の1から3番目のロボットの位置を示す。この場合4番目は移動しない。   Only the fourth robot outputs a signal corresponding to the size of 1, and the other robots receive it and proceed in that direction, so the position of the robot a little later is as shown in FIG. 1T, 2T, and 3T indicate the positions of the first to third robots after a little time has passed. In this case, the fourth does not move.

以上が顕著性の抽出(S1052)の詳細な説明である。図11にこれらをフローで示した。顕著性の抽出(S1052)からこのフローはスタートする(S1070)。   The above is the detailed description of the extraction of saliency (S1052). FIG. 11 shows these in a flow. This flow starts from the extraction of saliency (S1052) (S1070).

まず、画像データにフィルタベクトルを作用させて特徴データを抽出する(S1072)。これは一般表現で、(数6)、具体的な説明では(数20)に相当する。次に主成分分析を行う(S1074)。これは一般表現で、(数8)、具体的な説明では(数22)に相当する。   First, feature data is extracted by applying a filter vector to image data (S1072). This is a general expression, which corresponds to (Equation 6) and specifically (Equation 20). Next, principal component analysis is performed (S1074). This is a general expression, which corresponds to (Equation 8) and specifically (Equation 22).

次に固有方程式を解く(S1076)。これは一般表現で、(数9)、具体的な説明では(数23)に相当する。特徴データがm個あるとm×mの行列式になるが、この解法は一般的に知られるところである。固有方程式を解くことで、m個の固有ベクトルとそれに対応するm個の固有値を得る事ができる。   Next, the eigen equation is solved (S1076). This is a general expression and corresponds to (Equation 9), and specifically, (Equation 23). If there are m feature data, an m × m determinant is obtained. This solution is generally known. By solving the eigen equation, m eigen vectors and m corresponding eigen values can be obtained.

そして、固有値の大きなものからl個(エル個)選ぶ。ここで選んだ固有値の数は、個々の探索ロボットの顕著性値を求める場合に、いくつの類似性を考慮するかを意味する。例えば、上記の具体的な説明では、「緑色」という1つの類似性で顕著性を求めた。しかし、特徴データの数がより多い場合は、複数の類似性を考慮して顕著性を決める事もできる。   Then, l (el) are selected from those having large eigenvalues. The number of eigenvalues selected here means how many similarities are taken into account when obtaining the saliency value of each search robot. For example, in the above specific description, the saliency is obtained with one similarity of “green”. However, when the number of feature data is larger, the saliency can be determined in consideration of a plurality of similarities.

次にS1078で選んだ固有ベクトルに特徴データを射影する(S1080)。これは(数14)でもわかるように、選んだ固有ベクトルに全ての特徴データを次々に作用させる。すなわち、個々の探索ロボットからの画像データからm個の特徴データを抽出したとすると、l個の固有ベクトルすべてと特徴データを作用させ、加え合わせる。このステップによってk番目の探索ロボットについて、t’(k)を求めることができる。   Next, the feature data is projected onto the eigenvector selected in S1078 (S1080). As can be seen from (Equation 14), all feature data are applied to the selected eigenvectors one after another. That is, if m feature data are extracted from image data from individual search robots, all the l eigenvectors are combined with the feature data and added together. By this step, t ′ (k) can be obtained for the k-th search robot.

S1080の結果に基づいて顕著性値を計算する(S1082)。これは一般表現で、(数15)、具体的な説明では(数28)に相当する。結果、個々の探索ロボットについて、1つの顕著性値p(k)を得ることができる。   A saliency value is calculated based on the result of S1080 (S1082). This is a general expression, which corresponds to (Equation 15), and specifically, (Equation 28). As a result, one saliency value p (k) can be obtained for each search robot.

全ての探索ロボットについて、顕著性値を計算できたかを判断し(S1084)、顕著性値の大きなものからj個を選ぶ。この結果、顕著性値とその順位、およびその顕著性値を有する探索ロボットのID番号を得る事ができる。以上のようにして顕著性値の抽出のステップS1052は終了し、このルーチンを抜ける(S1088)。以上が監督ロボットの動作である。   It is determined whether or not the saliency values have been calculated for all search robots (S1084), and j are selected from those having a large saliency value. As a result, the saliency value, its rank, and the ID number of the search robot having the saliency value can be obtained. As described above, the step S1052 for extracting the saliency value ends, and the process exits from this routine (S1088). The above is the operation of the supervisory robot.

表示装置
図12に、表示装置の概観を示す。表示装置は、表示部(102)と、アンテナ(104)を少なくとも有する。そのほか、操作部(106、108)を有する。また、表示部(102)にはカーソル(110、112)がある。表示部(102)は、液晶パネルで構成されるのが、好適であるが、有機若しくは無機のELパネルや、SED、FEDなどの表示デバイスを用いる事ができる。カーソル(110、112)は、図に示したものに限定されるものではなく、表示部(102)上の座標を指示できるものであればよい。例えば、現在のパーソナルコンピュータで使われる矢印表示や、十字表示等であってもよい。
Display device Fig. 12 shows an overview of a display device. The display device includes at least a display portion (102) and an antenna (104). In addition, it has an operation part (106,108). The display unit (102) has cursors (110, 112). The display unit (102) is preferably composed of a liquid crystal panel, but an organic or inorganic EL panel, or a display device such as an SED or FED can be used. The cursors (110, 112) are not limited to those shown in the figure, and any cursors that can indicate coordinates on the display unit (102) may be used. For example, an arrow display or a cross display used in the current personal computer may be used.

操作部(106、108)は、カーソル(110、112)を移動させたり、監督ロボットや探索ロボットに指令を与えたりといった操作に用いられる。表示装置(100)は、探索ロボットの位置情報を取得して、表示部(102)上に表示させるのが、主たる目的である。探索ロボットの集まり具合によって、何か特徴的なものを発見できるからである。   The operation units (106, 108) are used for operations such as moving the cursors (110, 112) and giving commands to the supervising robot and the search robot. The main purpose of the display device (100) is to acquire the position information of the search robot and display it on the display unit (102). This is because it is possible to discover something characteristic depending on how the search robots gather.

また、カーソル(110、112)で指定したロボットの画像データを取得し、表示部(102)の画面上に表示させる事もできる。以上のように、探索ロボット、監督ロボット、表示装置によって、探索エリアの中で周囲とは異なる特徴的な対象物を、探索ロボットの集まり具合で発見することができる。   It is also possible to acquire the image data of the robot designated by the cursor (110, 112) and display it on the screen of the display unit (102). As described above, the search robot, the supervisor robot, and the display device can discover characteristic objects that are different from the surroundings in the search area in a gathering manner of the search robots.

なお、探索ロボットの位置情報は、探索ロボット自身から位置情報を取得する実施の形態を示したが、これに限定されるものではない。例えば、探索ロボット自身は光や電波や微弱な放射線を発信するだけで、監督ロボット若しくは表示装置が、探索ロボットを俯瞰する位置からこれらの発信を受け、探索ロボット全体の動きを把握するようにしてもよい。   The position information of the search robot has been described as an embodiment in which the position information is acquired from the search robot itself, but is not limited to this. For example, the search robot itself only transmits light, radio waves, and weak radiation, and the supervisor robot or display device receives these transmissions from a position overlooking the search robot, and grasps the movement of the search robot as a whole. Also good.

(実施の形態2)
本実施の形態では、探索ロボットが撮影した画像データから、特徴データを計算し、特徴データを監督ロボットに送信する。1枚の画像データから特徴データを求めるのは、かなり計算量が必要となる。従って、特徴データを各探索ロボットが計算して監督ロボットに送信すれば、監督ロボットの負荷が軽くなる。
(Embodiment 2)
In this embodiment, feature data is calculated from image data captured by the search robot, and the feature data is transmitted to the supervisory robot. Finding feature data from a single piece of image data requires a considerable amount of calculation. Therefore, if each search robot calculates and transmits the feature data to the supervisory robot, the load on the supervisory robot is reduced.

図3において、本実施の形態においては、画像処理部(60)が特徴データの抽出まで行う。従って、画像処理部(60)は、制御部(50)に対して画像データではなく、特徴データを送る。   In FIG. 3, in the present embodiment, the image processing unit (60) performs the process up to the extraction of feature data. Therefore, the image processing unit (60) sends feature data instead of image data to the control unit (50).

図13乃至図15は、それぞれ、探索ロボットの探索フロー、監督ロボットの探索フロー、および探索ロボットの顕著性抽出の詳細を示すものである。図13は図4とぼぼ同じであるが、画像処理(S1014)が特徴データの抽出まで行う点で異なる(S1013と記した。)また図4の画像データ送信(S1016)は、特徴データの送信(S1015と記載した)に変わる。   FIGS. 13 to 15 show details of the search flow of the search robot, the search flow of the supervising robot, and the saliency extraction of the search robot, respectively. FIG. 13 is substantially the same as FIG. 4, but differs in that image processing (S1014) is performed until feature data is extracted (denoted as S1013). Also, image data transmission (S1016) in FIG. (Denoted as S1015).

画像処理(S1013)は、実施の形態1における画像処理(図4のS1014)に加え、実施の形態1の監督ロボットの処理の1部を行う。具体的には、監督ロボットの顕著性抽出のフロー(図11)の、画像データから特徴データを抽出するステップ(S1072)を行うことである。より具体的には(数6)の処理を行う。従って、各探索ロボットはフィルタベクトルを予め監督ロボットや、利用者の表示装置(100)から通知される。   In the image processing (S1013), in addition to the image processing in the first embodiment (S1014 in FIG. 4), a part of the process of the supervisory robot in the first embodiment is performed. Specifically, the step of extracting feature data from the image data (S1072) in the flow of extracting the saliency of the supervisor robot (FIG. 11) is performed. More specifically, the processing of (Equation 6) is performed. Accordingly, each search robot is notified in advance of the filter vector from the supervisor robot or the display device (100) of the user.

図14に監督ロボットのフローを示す。実施の形態1では画像データを取得していた図7のS1048で特徴データを取得する(S1047)に変更される。また、顕著性の抽出(図7ではS1052)は、図14では顕著性の抽出(S1051)となる。呼び方は同じであるが、実施の形態1とは異なる処理となるからである。   FIG. 14 shows the flow of the supervisory robot. In the first embodiment, the feature data is acquired (S1047) in S1048 of FIG. Further, the extraction of saliency (S1052 in FIG. 7) is the extraction of saliency (S1051) in FIG. This is because the calling method is the same, but the processing is different from that of the first embodiment.

図15にそのS1051の処理のフローを示す。実施の形態1では図11に対応するフローである。すでに個々の探索ロボットが自分の画像データに対して特徴抽出の処理を行っているので、本実施の形態の場合は特徴データの抽出というステップは不要となる。つまり、図11のS1072のステップは本実施の形態の監督ロボットには不要となる。   FIG. 15 shows the flow of the processing in S1051. In the first embodiment, the flow corresponds to FIG. Since each search robot has already performed feature extraction processing on its own image data, the feature data extraction step is not necessary in the present embodiment. That is, the step of S1072 in FIG. 11 is not necessary for the supervisory robot of the present embodiment.

(実施の形態3)
これまでの実施の形態の説明では、探索ロボットが取得した画像データから特徴データを抽出するためのフィルタベクトルは予め監督ロボット、若しくは探索ロボットに与えられていた。確かに、探索エリアの環境が予め判明している場合は、特徴を抽出するためのフィルタベクトルを設計しておく事も可能である。また、いくつかの探索エリアの環境を予定し、予めいくつかのフィルタベクトルを用意しておくことも可能である。
(Embodiment 3)
In the description of the embodiments so far, the filter vector for extracting the feature data from the image data acquired by the search robot has been given to the supervisor robot or the search robot in advance. Certainly, when the environment of the search area is known in advance, it is possible to design a filter vector for extracting features. It is also possible to schedule several search area environments and prepare several filter vectors in advance.

しかし、探索エリアは似ているようでも災害の発生の仕方などによって、探索エリア毎に異なるものであり、テンプレートのような作り置きのフィルタベクトルではうまく特徴データを抽出できない場合もある。そこで、本実施の形態では、フィルタベクトルを個々の探索ロボット自身が取得した画像データから作成する。   However, even though the search areas are similar, they differ depending on the search area depending on the manner of occurrence of the disaster, etc., and there are cases in which feature data cannot be extracted well with a special filter vector such as a template. Therefore, in the present embodiment, the filter vector is created from the image data acquired by each search robot itself.

本実施の形態では、その態様は実施の形態2とほとんど同じである。すなわち、探索を指示された探索ロボットは、図13に示すフローに従って、周囲を撮影し、画像データを取得し、特徴抽出を行って、特徴データを監督ロボットに送信する。   In the present embodiment, the mode is almost the same as that of the second embodiment. That is, the search robot instructed to search images the surroundings according to the flow shown in FIG. 13, acquires image data, performs feature extraction, and transmits the feature data to the supervisory robot.

監督ロボットは、各探索ロボットから集まった特徴データから顕著性を抽出し、顕著な特徴データを送信した探索ロボットに通知する。   The supervisory robot extracts the saliency from the feature data collected from each search robot, and notifies the search robot that has transmitted the feature data.

顕著性を通知された探索ロボットは、顕著性に応じた顕著性信号を発信し、かつ他の探索ロボットの顕著性信号を受信する。そして、受信した顕著性信号に基づいて次の自分の移動位置を決めて移動する。   The search robot notified of the saliency transmits a saliency signal corresponding to the saliency and receives the saliency signals of other search robots. Then, the next movement position is determined based on the received saliency signal and moved.

本実施の形態では、探索ロボットが特徴データを抽出する前に自らフィルタベクトルを作る工程が入る点が、実施の形態2とは異なる。   The second embodiment is different from the second embodiment in that a search robot creates a filter vector by itself before extracting feature data.

図16に本実施の形態に係る探索ロボットのフォローを示す。S1090としてフィルタベクトルの作成の工程が、周囲の撮影(S1012)の前に新たに入る。以下に具体的にどのようにしてフィルタベクトルを作るかを説明する。   FIG. 16 shows the follow-up of the search robot according to the present embodiment. In step S1090, a process for creating a filter vector is newly entered before surrounding shooting (S1012). In the following, how to create a filter vector will be described in detail.

時刻tにおいてセンサ510によってn個の画素からなる画像を撮影し、その画像の画素を並べたベクトルを(数29)とする。ロボットを移動させながら画像を撮影し、このようなベクトルを多数個得る。   An image composed of n pixels is captured by the sensor 510 at time t, and a vector in which the pixels of the image are arranged is represented by (Equation 29). Images are taken while moving the robot, and many such vectors are obtained.

次に(数30)によってn×nの行列を算出し、(数31)の固有値方程式を解くことによって固有値が大きいほうからm個の固有ベクトル(数32)を算出し、フィルタベクトルとする。   Next, an n × n matrix is calculated by (Equation 30), and m eigenvectors (Equation 32) are calculated from the larger eigenvalues by solving the eigenvalue equation of (Equation 31) to be filter vectors.

探索ロボットは、まず若干距離を移動しながら何枚かの周囲の画像を撮影し、その画像を主成分分析することで、自分の周囲の景色にある主たる因子を抽出する。そしてそれをフィルタベクトルとする。例えば、森の中に配置された探索ロボットは、この処理によって緑色の景色のフィルタベクトルを得る事ができるだろう。   The search robot first captures several surrounding images while moving a little distance, and extracts the main factors in the surrounding landscape by performing principal component analysis on the images. And let it be a filter vector. For example, a search robot placed in a forest could obtain a green landscape filter vector by this process.

一度フィルタベクトルを作った後は、実施の形態2と同じ処理を行う。従って探索ロボットは、周囲の画像を撮影し、画像データuを得て、上記のフィルタベクトルとの間で以下の処理を行う。   Once the filter vector is created, the same processing as in the second embodiment is performed. Therefore, the search robot captures a surrounding image, obtains image data u, and performs the following processing with the filter vector.

この処理によってm個の数からなる特徴を算出する。ところで、このような処理によってフィルタベクトルを算出すると、個々の探索ロボット毎に異なるフィルタベクトルによる特徴抽出が行われる。この点、実施の形態1もしくは2とは大きく異なる点である。   This process calculates a feature consisting of m numbers. By the way, when the filter vector is calculated by such a process, feature extraction using a different filter vector is performed for each search robot. This is a point greatly different from the first or second embodiment.

しかし、多くの探索ロボットを一定の探索エリア内で活動させれば、個々の探索ロボットのフィルタベクトルの多少の違いは、問題ではなくなる。なぜなら、同一の探索エリア内であれば、どの探索ロボットも似たような景色の中に配置されるからである。多数のデータの統計処理が探索ロボット毎のフィルタベクトルの違いを平準化する。   However, if many search robots are activated in a certain search area, slight differences in filter vectors of individual search robots are not a problem. This is because all search robots are arranged in a similar landscape within the same search area. Statistical processing of a large number of data smoothes out the difference of filter vectors for each search robot.

本実施の形態では、予め探索エリアに適したフィルタベクトルを与えておく必要がないと言う点で非常に有用である。特に、どのような探索エリアに対しても、特徴データの抽出が可能になるという高い適用性を有する。   The present embodiment is very useful in that it is not necessary to provide a filter vector suitable for the search area in advance. In particular, it has high applicability that feature data can be extracted from any search area.

本発明の各探索ロボットの動きを例示する図The figure which illustrates the motion of each search robot of the present invention 本発明の探索ロボットの概観を示す図The figure which shows the general view of the search robot of this invention 本発明の探索ロボットの構成を示す図The figure which shows the structure of the search robot of this invention 本発明の探索ロボットの探索のフローを示す図The figure which shows the flow of a search of the search robot of this invention 顕著性信号の例示を示す図Diagram showing examples of saliency signals ある探索ロボットが、受信した顕著性信号を発信した探索ロボットとの位置関係を示す図The figure which shows the positional relationship with a search robot which a certain search robot transmitted the received saliency signal 監督ロボットの監督動作のフローを示す図The figure which shows the flow of supervision operation of the supervision robot 顕著性を説明する図Diagram explaining saliency 本発明の探索ロボットの動きを単純化して説明する図The figure which simplifies and demonstrates the motion of the search robot of this invention 図9の説明のロボットの画像変換素子を示す図The figure which shows the image conversion element of the robot of description of FIG. 顕著性値の算出のフローを示す図Figure showing the flow of saliency value calculation 表示装置を示す図Figure showing a display device 実施の形態2の探索ロボットのフローを示す図The figure which shows the flow of the search robot of Embodiment 2. 実施の形態2の監督ロボットのフローを示す図The figure which shows the flow of the supervisor robot of Embodiment 2. 実施の形態2の監督ロボットの顕著性を求めるフローを示す図The figure which shows the flow which calculates | requires the remarkableness of the supervising robot of Embodiment 2. 実施の形態3の探索ロボットのフローを示す図The figure which shows the flow of the search robot of Embodiment 3.

符号の説明Explanation of symbols

10 探索ロボット
16 位置測定器
18 カメラ
20 回転アンテナ
22 固定アンテナ
50 制御部
DESCRIPTION OF SYMBOLS 10 Search robot 16 Position measuring device 18 Camera 20 Rotating antenna 22 Fixed antenna 50 Control part

Claims (10)

少なくとも1台の監督ロボットと、
3台以上の探索ロボットと
各ロボットの位置情報を表示する表示装置を有し、
前記各々の探索ロボットは、
自らの周囲の画像を撮影し、
前記撮影した画像情報を前記監督ロボットに送り、
前記監督ロボットから顕著性値を受信した場合は顕著性信号を発信し、
自分以外の探索ロボットの発信する顕著性信号を受信し、
前記受信した顕著性信号に基づいて移動し、
前記監督ロボットは、
前記各々の探索ロボットからの前記画像情報および前記位置情報を受信し、
前記受信した画像情報の集合から顕著性値を求め、
前記求めた顕著性値に対応する画像情報を送信してきた前記探索ロボットに顕著性値を送信する複数のロボットからなる群動作の制御システム。
At least one supervisory robot,
It has three or more search robots and a display device that displays the position information of each robot.
Each of the search robots is
Take a picture of your surroundings,
Send the captured image information to the supervisory robot,
When a saliency value is received from the supervisory robot, a saliency signal is transmitted,
Receive saliency signals from other search robots,
Moving based on the received saliency signal;
The supervisory robot is
Receiving the image information and the position information from each of the search robots;
Obtain a saliency value from the set of received image information,
A group motion control system comprising a plurality of robots that transmit saliency values to the search robot that has transmitted image information corresponding to the determined saliency values.
周囲の画像を撮影するカメラと、
自らの筐体を移動させる移動装置と
信号を発信する信号発信機と、
信号を受信する信号受信機と、
前記カメラで撮影した画像情報を処理する画像処理部と、
前記画像処理部で処理したデータを前記発信機で送信させる画像送信処理部と、
自分宛の顕著性値を受信した場合は顕著性信号を前記発信機で発信させる顕著性発信処理部と、
他のロボットの発信する顕著性信号を受信し前記顕著性信号に基づいて移動方向を決める移動決定部とを有する探索ロボット。
A camera that captures surrounding images,
A mobile device that moves its housing and a signal transmitter that transmits a signal;
A signal receiver for receiving the signal;
An image processing unit for processing image information captured by the camera;
An image transmission processing unit that causes the transmitter to transmit data processed by the image processing unit;
A saliency transmission processing unit for transmitting a saliency signal by the transmitter when receiving a saliency value addressed to itself;
A search robot having a movement determination unit that receives a saliency signal transmitted from another robot and determines a movement direction based on the saliency signal.
自らの位置を把握する位置測定器をさらに有する請求項2記載の探索ロボット。 The search robot according to claim 2, further comprising a position measuring device that grasps its own position. 前記画像処理部で処理したデータは画像データである請求項2記載の探索ロボット。 The search robot according to claim 2, wherein the data processed by the image processing unit is image data. 前記画像処理部で処理したデータは画像データから抽出した特徴データである請求項2記載の探索ロボット。 The search robot according to claim 2, wherein the data processed by the image processing unit is feature data extracted from image data. 前記特徴データを画像データから抽出するフィルタベクトルを自分で作成する請求項5記載の探索ロボット。   6. The search robot according to claim 5, wherein a filter vector for extracting the feature data from the image data is created by itself. 信号を受信する受信機と、
信号を発信する発信機と、
他のロボットから受信した画像情報に基づいて顕著性値を求める顕著性抽出部と、
前記顕著性抽出部により抽出された顕著性値を有する画像情報を送信してきた他のロボットに顕著性値を送信する顕著性通知部とを有する監督ロボット。
A receiver for receiving the signal;
A transmitter for transmitting a signal;
A saliency extraction unit for obtaining a saliency value based on image information received from another robot;
A supervisory robot having a saliency notification unit that transmits a saliency value to another robot that has transmitted image information having the saliency value extracted by the saliency extraction unit.
前記顕著性抽出部は、他のロボットから受信した特徴データに基づいて顕著性値を求める請求項7記載の監督ロボット。 The supervisory robot according to claim 7, wherein the saliency extraction unit obtains a saliency value based on feature data received from another robot. 前記顕著性抽出部は、他のロボットから受信したデータを主成分分析によって顕著性を求める請求項7若しくは8のいずれかに記載の監督ロボット。 The supervisory robot according to claim 7, wherein the saliency extraction unit obtains saliency by principal component analysis of data received from another robot. 表示部と
信号を受信する受信機と、
信号を発信する発信機と、
複数のロボットの位置情報を前記表示部に表示する位置表示処理部と、
少なくとも1台以上のロボットへ指示を出す指示送信部と、
特定の1台からの画像情報を受信し前記表示部へ表示する画像表示処理部と
を有する表示装置。
A display and a receiver for receiving signals;
A transmitter for transmitting a signal;
A position display processing unit for displaying position information of a plurality of robots on the display unit;
An instruction transmission unit for issuing instructions to at least one robot;
An image display processing unit that receives image information from a specific unit and displays the image information on the display unit.
JP2006116484A 2006-04-20 2006-04-20 System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device Pending JP2007287071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006116484A JP2007287071A (en) 2006-04-20 2006-04-20 System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006116484A JP2007287071A (en) 2006-04-20 2006-04-20 System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device

Publications (1)

Publication Number Publication Date
JP2007287071A true JP2007287071A (en) 2007-11-01

Family

ID=38758760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006116484A Pending JP2007287071A (en) 2006-04-20 2006-04-20 System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device

Country Status (1)

Country Link
JP (1) JP2007287071A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101215395B1 (en) 2010-07-30 2012-12-26 경희대학교 산학협력단 Path search method of distributed robot in dinamic environment
KR101277452B1 (en) 2009-12-09 2013-07-05 한국전자통신연구원 Mobile robot based on a crowed intelligence, method for controlling the same and watching robot system
JP2013532315A (en) * 2010-04-19 2013-08-15 コンパニー ゼネラール デ エタブリッスマン ミシュラン How to monitor the appearance of a tire surface
EP3258336A1 (en) 2016-06-14 2017-12-20 Fuji Xerox Co., Ltd. Robot control system and a program
JP2018073395A (en) * 2016-11-01 2018-05-10 三菱電機株式会社 Multi-agent control system and method
KR20210057364A (en) * 2019-11-12 2021-05-21 주식회사 오딘로보틱스 UWB Anchor Control System for Improving Object Location Perception of Object Tracking Robots to Track UWB Tags
CN116787468A (en) * 2023-08-25 2023-09-22 深圳市看飞鸡生态农业有限公司 Agricultural robot for monitoring crop growth condition

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101277452B1 (en) 2009-12-09 2013-07-05 한국전자통신연구원 Mobile robot based on a crowed intelligence, method for controlling the same and watching robot system
JP2013532315A (en) * 2010-04-19 2013-08-15 コンパニー ゼネラール デ エタブリッスマン ミシュラン How to monitor the appearance of a tire surface
US9002093B2 (en) 2010-04-19 2015-04-07 Compagnie Generale Des Etablissements Michelin Method of monitoring the appearance of the surface of a tire
KR101215395B1 (en) 2010-07-30 2012-12-26 경희대학교 산학협력단 Path search method of distributed robot in dinamic environment
EP3258336A1 (en) 2016-06-14 2017-12-20 Fuji Xerox Co., Ltd. Robot control system and a program
US10261508B2 (en) 2016-06-14 2019-04-16 Fuji Xerox Co., Ltd. Robot control system and recording medium
JP2018073395A (en) * 2016-11-01 2018-05-10 三菱電機株式会社 Multi-agent control system and method
KR20210057364A (en) * 2019-11-12 2021-05-21 주식회사 오딘로보틱스 UWB Anchor Control System for Improving Object Location Perception of Object Tracking Robots to Track UWB Tags
KR102257445B1 (en) 2019-11-12 2021-05-31 주식회사 오딘로보틱스 UWB Anchor Control System for Improving Object Location Perception of Object Tracking Robots to Track UWB Tags
CN116787468A (en) * 2023-08-25 2023-09-22 深圳市看飞鸡生态农业有限公司 Agricultural robot for monitoring crop growth condition
CN116787468B (en) * 2023-08-25 2023-10-31 深圳市看飞鸡生态农业有限公司 Agricultural robot for monitoring crop growth condition

Similar Documents

Publication Publication Date Title
JP2007287071A (en) System for controlling operation of group comprising multiple autonomous robots, supervising robot, searching robot, and display device
CN107168352B (en) Target tracking system and method
US20180190014A1 (en) Collaborative multi sensor system for site exploitation
CN103426282A (en) Remote control method and terminal
CN106292799B (en) Unmanned plane, remote control and its control method
JP6571305B2 (en) Image-based positioning
KR20190055130A (en) System and method for controlling images captured with an imaging device
JP2020501969A (en) Deformable device
CN207115193U (en) A kind of mobile electronic device for being used to handle the task of mission area
CN108459597B (en) Mobile electronic device and method for processing tasks in task area
JP2017047519A (en) Cloud robotics system, information processor, program, and method for controlling or supporting robot in cloud robotics system
KR20220028042A (en) Pose determination method, apparatus, electronic device, storage medium and program
CN110495819A (en) Control method, robot, terminal, server and the control system of robot
Negrello et al. Humanoids at work: The walk-man robot in a postearthquake scenario
CN207067803U (en) A kind of mobile electronic device for being used to handle the task of mission area
US20170269590A1 (en) Controlled device and communication system and method utilizing the same
WO2020176218A1 (en) Camera localization based on skeletal tracking
US20180075302A1 (en) Wayfinding and Obstacle Avoidance System
CN111712780A (en) System and method for augmented reality
KR20150097049A (en) self-serving robot system using of natural UI
EP3264380A1 (en) System and method for immersive and collaborative video surveillance
CN109120858A (en) A kind of image capturing method, device, equipment and storage medium
Kamegawa et al. Design and implementation of grouped rescue robot system using self‐deploy networks
US20230362484A1 (en) Systems, devices, and methods supporting multiple photography modes with a control device
CN106020219B (en) A kind of control method and device of aircraft