JP3928871B2 - Identification apparatus and method - Google Patents

Identification apparatus and method Download PDF

Info

Publication number
JP3928871B2
JP3928871B2 JP2003408263A JP2003408263A JP3928871B2 JP 3928871 B2 JP3928871 B2 JP 3928871B2 JP 2003408263 A JP2003408263 A JP 2003408263A JP 2003408263 A JP2003408263 A JP 2003408263A JP 3928871 B2 JP3928871 B2 JP 3928871B2
Authority
JP
Japan
Prior art keywords
color
identification
color pattern
predetermined
colors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003408263A
Other languages
Japanese (ja)
Other versions
JP2004185630A (en
Inventor
直博 福村
理 花形
浩太郎 佐部
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003408263A priority Critical patent/JP3928871B2/en
Publication of JP2004185630A publication Critical patent/JP2004185630A/en
Application granted granted Critical
Publication of JP3928871B2 publication Critical patent/JP3928871B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Description

本発明は、識別装置及び方法に関し、例えば個別識別システムに適用して好適なものである。 The present invention relates to the identification device and Methods, for example, it is suitably applied to the individual identification system.

近年、移動型ロボットの1つとして、周囲の環境についての情報を順次取り込み、得られた情報に基づいて自分で行動を決定して移動し得るようになされた、いわゆる自律移動型ロボットの研究が進められている(例えば特許文献1参照)。
特開2001−157978公報
In recent years, as one of the mobile robots, research on so-called autonomous mobile robots that have been able to take in information about the surrounding environment sequentially and decide their own actions based on the obtained information and move. (For example, refer to Patent Document 1).
JP 2001-157978 A

ところで、このような移動型ロボットが他の移動型ロボットの個体を識別(例えば1号機、2号機、……等)する方法としては、各ロボットにそれぞれ電波、赤外線又は音波などの識別のための特別な信号を発生させる第1の方法と、各ロボットにそれぞれ互いに異なる所定色を塗布し、当該色に基づいてロボット識別する第2の方法と、各ロボットの表面に識別のための記号やバーコード等を表記する第3の方法となどが考えられる。   By the way, as a method for such a mobile robot to identify an individual of another mobile robot (for example, No. 1, No. 2, No. 2, etc.), each robot is individually identified for radio waves, infrared rays, sound waves, etc. A first method for generating a special signal, a second method for applying a predetermined color different to each robot, and identifying the robot based on the color, and a symbol or bar for identification on the surface of each robot A third method for expressing a code or the like is conceivable.

しかしながら第1の方法では、信号を発信又は受信するための特別な装置が必要となり、また電波法規による規制や周辺に存在する他の装置への影響などのため、希望する信号を発信することができない場合がある問題がある。   However, in the first method, a special device for transmitting or receiving a signal is required, and a desired signal may be transmitted due to restrictions by radio wave regulations or influence on other devices existing in the vicinity. There is a problem that may not be possible.

また第2の方法では、ごく少数のロボットだけを識別するのであればロボットの数だけ識別し易い色を用意すれば良いため問題がないが、多数のロボットを識別するためには微妙な色の違いを利用しなければならず、画像処理が複雑になったり、照明条件等の影響を受け易くなる問題がある。   In the second method, if only a small number of robots are to be identified, there is no problem because it is sufficient to prepare colors that are easy to identify as many as the number of robots. Differences must be used, and image processing becomes complicated, and there is a problem that it is easily affected by lighting conditions and the like.

さらに第3の方法では、ロボットの向きや姿勢などにより、記号等が観察できない場合が生じる問題がある。   Furthermore, the third method has a problem that symbols or the like cannot be observed depending on the orientation or posture of the robot.

本発明は以上の点を考慮してなされたもので、移動体を確実に識別し得る簡易な識別装置及び方法を提案しようとするものである。 The present invention has been made in view of the above, it is intended to propose a simple identification device and Methods can reliably identify the mobile.

かかる課題を解決するため本発明においては、識別装置において、各移動体にそれぞれ設けられた互いに異なる色パターンの識別体と、各移動体にそれぞれ設けられ、他の移動体に配設された移動体毎に異なる色パターンの識別体を撮像する撮像手段と、撮像手段から供給される第1の画像情報に基づいて、撮像された識別体の色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体ごとの識別体の色パターン情報とに基づいて、撮像手段により撮像した識別体を有する移動体を識別する識別手段とを設けるようにした。   In order to solve such a problem, in the present invention, in the identification device, identification bodies having different color patterns provided on each moving body, and movements provided on each moving body and disposed on other moving bodies, respectively. An image pickup means for picking up an identification object having a different color pattern for each body, a color pattern detection means for detecting a color pattern of the picked-up identification object based on first image information supplied from the image pickup means, and the detection Based on the result and the color pattern information of the identifying object for each moving object stored in advance, an identifying means for identifying the moving object having the identifying object imaged by the imaging means is provided.

この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。   As a result, with this identification device, it is possible to easily and reliably identify each individual moving object.

また本発明においては、識別装置において、各移動体にそれぞれ設けられ、他の移動体に配設された移動体毎に異なる色パターンの識別体を撮像する撮像手段と、撮像手段から供給される第1の画像情報に基づいて、撮像された識別体の色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体ごとの識別体の色パターン情報とに基づいて、撮像手段により撮像した識別体を有する移動体を識別する識別手段とを設けるようにした。   Further, in the present invention, in the identification device, an imaging unit that is provided in each moving body and captures an identification body having a different color pattern for each moving body disposed in the other moving body, and the imaging unit supplies the imaging unit. Based on the color pattern detection means for detecting the color pattern of the captured identification object based on the first image information, the detection result, and the color pattern information of the identification object for each moving object stored in advance. Thus, an identification means for identifying a moving body having an identification body imaged by the imaging means is provided.

この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。   As a result, with this identification device, it is possible to easily and reliably identify each individual moving object.

さらに本発明においては、識別方法において、各移動体にそれぞれ互いに異なる色パターンの識別体を設ける第1のステップと、各移動体にそれぞれ設けられた撮像手段により、他の移動体の識別体を撮像する第2のステップと、撮像手段から出力される第1の画像情報に基づいて、撮像した識別体の色パターンを検出する第3のステップと、検出した識別体の色パターンと、予め記憶している各識別体の色パターン情報とに基づいて、撮像した識別体を識別する第4のステップとを設けるようにした。   Furthermore, in the present invention, in the identification method, the first step of providing each moving body with an identification body having a different color pattern, and the imaging means provided for each moving body, the other moving body is identified. A second step of imaging, a third step of detecting a color pattern of the imaged identification object based on the first image information output from the imaging means, a color pattern of the detected identification object, and pre-stored And a fourth step of identifying the imaged identification object based on the color pattern information of each identification object.

この結果この識別方法によれば、各移動体の個体を容易かつ確実に識別することができる。   As a result, according to this identification method, it is possible to easily and reliably identify each moving object.

さらに本発明においては、識別装置において、領域全体を撮像する撮像手段と、撮像手段から出力される第1の画像情報に基づいて、各移動体の所定位置にそれぞれ付与された各移動体ごとに異なる色パターンを検出する色パターン検出手段と、当該検出結果と、予め記憶している各移動体にそれぞれ付与された色パターンの情報とに基づいて、各移動体を識別する識別手段とを設けるようにした。   Further, according to the present invention, in the identification device, for each moving body respectively given to a predetermined position of each moving body based on the imaging means for imaging the entire area and the first image information output from the imaging means. Color pattern detection means for detecting different color patterns, and identification means for identifying each moving body based on the detection result and information on the color pattern assigned to each moving body stored in advance are provided. I did it.

この結果この識別装置では、各移動体の個体を容易かつ確実に識別することができる。   As a result, with this identification device, it is possible to easily and reliably identify each individual moving object.

さらに本発明においては、識別方法において、領域全体を撮像する撮像手段を所定位置に配置すると共に、各移動体の所定位置にそれぞれ互いに異なる色パターンを付与する第1のステップと、撮像手段から出力される第1の画像情報に基づいて、各移動体の色パターンをそれぞれ検出する第2のステップと、当該検出結果と、予め記憶している各移動体にそれぞれ付与された色パターンの情報とに基づいて、各移動体を識別する第3のステップとを設けるようにした。   Further, according to the present invention, in the identification method, a first step of arranging an imaging unit for imaging the entire region at a predetermined position and giving a different color pattern to each predetermined position of each moving body, and an output from the imaging unit A second step of detecting the color pattern of each mobile object based on the first image information, the detection result, and information on the color pattern assigned to each mobile object stored in advance, And a third step for identifying each moving object.

この結果この識別方法によれば、各移動体の個体を容易かつ確実に識別することができる。   As a result, according to this identification method, it is possible to easily and reliably identify each moving object.

上述のように本発明によれば、所定の領域内を移動する移動体を識別する識別装置及び方法において、各移動体に、それぞれ互いに異なる色パターンの識別体を設け、各移動体にそれぞれ設けられた撮像手段により、他の移動体の識別体を撮像し、撮像手段から出力される第1の画像情報に基づいて、当該撮像手段により撮像した識別体の色パターンを検出し、当該検出結果と、予め記憶している各識別体の色パターン情報とに基づいて、撮像手段により撮像した移動体を識別するようにしたことにより、移動体を確実に識別し得る簡易な識別装置及び方法を実現できる。 According to the present invention as described above, Oite the identification device and Methods for identifying a movable body that moves a predetermined area, each mobile is provided with identification of the different color patterns from each other, each mobile The image pickup means provided in each image picks up an image of an identification object of another moving body , detects a color pattern of the identification object picked up by the image pickup means based on the first image information output from the image pickup means, A simple identification device capable of reliably identifying a moving body by identifying the moving body imaged by the imaging means based on the detection result and the color pattern information of each identifying body stored in advance. the Oyobi how method can be realized.

また所定の領域内を移動する複数の移動体を識別する識別装置及び方法において、領域全体を撮像する撮像手段を所定位置に配置すると共に、各移動体の所定位置にそれぞれ互いに異なる色パターンを付与し、撮像手段から出力される第1の画像情報に基づいて、各移動体の色パターンをそれぞれ検出し、当該検出結果と、予め記憶している各移動体にそれぞれ設けられた色パターンの情報とに基づいて、各移動体を識別するようにしたことにより、移動体を確実に識別し得る簡易な識別装置及び方法を実現できる。   Further, in an identification apparatus and method for identifying a plurality of moving objects that move within a predetermined area, an imaging unit that images the entire area is arranged at a predetermined position, and a different color pattern is given to each predetermined position of each moving object. Then, based on the first image information output from the imaging means, the color pattern of each moving body is detected, and the detection result and information on the color pattern provided for each moving body stored in advance are detected. By identifying each moving body based on the above, it is possible to realize a simple identification device and method that can reliably identify the moving body.

以下図面について、本発明の一実施例を詳述する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

(1)第1実施例
(1−1)第1実施例による個体識別システムの全体構成
図1において、1は全体として本発明を適用した個体識別システムを示し、所定の領域2内に複数のロボット3A〜3Cが配置されている。なお以下の説明においては、領域2が平坦な長方形状であるものとし、所定の一辺と平行な方向をX方向(矢印x)、これと垂直な方向をY方向(矢印y)及び領域2と垂直な方向をZ方向(矢印z)とする。
(1) First embodiment (1-1) Overall configuration of an individual identification system according to the first embodiment In FIG. 1, reference numeral 1 denotes an individual identification system to which the present invention is applied as a whole. Robots 3A to 3C are arranged. In the following description, it is assumed that the region 2 has a flat rectangular shape, a direction parallel to a predetermined side is an X direction (arrow x), a direction perpendicular thereto is a Y direction (arrow y), and the region 2 The vertical direction is defined as the Z direction (arrow z).

各ロボット3A〜3Cにおいては、図2に示すように、それぞれ胴体部10の上面前端に首部11を介して頭部12が配設されると共に、胴体部10の下面の前後左右の4隅にそれぞれ太股部13及び脛部14からなる右前脚部15A、左前脚部15B、右後脚部15C及び左後脚部15D(以下、これらをまとめて各脚部15A〜15Dと呼ぶ)が配設されることにより構成されている。   In each of the robots 3 </ b> A to 3 </ b> C, as shown in FIG. 2, a head 12 is disposed at the front end of the upper surface of the body portion 10 via the neck portion 11, and at the front, rear, left and right corners of the lower surface of the body portion 10. A right front leg portion 15A, a left front leg portion 15B, a right rear leg portion 15C, and a left rear leg portion 15D (hereinafter collectively referred to as the leg portions 15A to 15D) each including a crotch portion 13 and a shin portion 14 are disposed. Is configured.

この場合頭部12にはカメラ16が取り付けられていると共に当該頭部12の所定位置にはマイクロホン17(図3)が取り付けられ、かつ頭部12、胴体部10及び各脚部15A〜15Dの表面にはそれぞれ複数の接触センサ18A〜18Z(図3)が取り付けられている。   In this case, a camera 16 is attached to the head 12, a microphone 17 (FIG. 3) is attached to a predetermined position of the head 12, and the head 12, the body part 10, and the legs 15 </ b> A to 15 </ b> D are attached. A plurality of contact sensors 18A to 18Z (FIG. 3) are respectively attached to the surface.

さらに胴体部10内には制御部19(図3)が配設されており、当該制御部19は、図3に示すように、カメラ16から供給される画像信号S1、マイクロホン17から供給される音声信号S2及び各接触センサ18A〜18Zからそれぞれ供給されるセンサ信号S3A〜S3Zに基づいて周囲の状態を認識し、認識結果に基づいて各構成ユニット(頭部12、首部11、胴体部10、各太股部13及び各脛部14)を連結する各関節部20A〜20J(図2)内のアクチュエータ21A〜21Jをそれぞれ必要に応じて駆動させるようになされている。   Further, a control unit 19 (FIG. 3) is disposed in the body unit 10, and the control unit 19 is supplied from an image signal S1 supplied from the camera 16 and a microphone 17, as shown in FIG. The surrounding state is recognized based on the audio signal S2 and the sensor signals S3A to S3Z respectively supplied from the contact sensors 18A to 18Z, and based on the recognition result, each component unit (head 12, neck 11, trunk 10, The actuators 21A to 21J in the joint portions 20A to 20J (FIG. 2) connecting the respective crotch portions 13 and the shin portions 14) are driven as necessary.

これにより各ロボット3A〜3Cにおいては、制御部19の制御のもとに各構成ユニットを自在に駆動し得るようになされ、かくして周囲の環境に応じた行動を自律的にとることができるようになされている。   Thereby, in each robot 3A-3C, each component unit can be freely driven under the control of the control unit 19, so that an action corresponding to the surrounding environment can be taken autonomously. Has been made.

かかる構成に加えこの個体識別システム1の場合、図2(A)からも明らかなように、各ロボット3A〜3Cの胴体部10の上面後端部にはそれぞれ支持棒22を介して各ロボット3A〜3C毎に異なるパターンで色分けされた球状の識別体23が取り付けられている。   In addition to such a configuration, in the case of this individual identification system 1, as is clear from FIG. 2A, each robot 3A is connected to the rear end portion of the upper surface of the body portion 10 of each robot 3A-3C via a support rod 22, respectively. A spherical discriminating body 23 that is color-coded with a different pattern every 3C is attached.

各識別体23は、図2(B)に示すように、球体の表面にそれぞれ複数種類の色の中から所定の3色をロボット3A〜3Cの移動方向と垂直な方向(すなわちZ方向)に並べて帯状に塗布することにより形成されている。   As shown in FIG. 2 (B), each identifier 23 puts predetermined three colors on the surface of the sphere in a direction perpendicular to the moving direction of the robots 3A to 3C (that is, the Z direction). It is formed by applying the strips side by side.

また各ロボット3A〜3Cの制御部19(図3)内には、それぞれ領域2内を移動する他のロボット3A〜3Cの個体を識別体23に基づいて識別するため、図4に示すような個体識別部30が設けられている。   Further, in the control unit 19 (FIG. 3) of each robot 3A to 3C, the individual robots 3A to 3C moving in the region 2 are identified based on the identification body 23, as shown in FIG. An individual identification unit 30 is provided.

すなわち個体識別部30においては、識別のために用いられた色と同数(例えば16)の色抽出部31A〜31Uを有し、カメラ16から供給される画像信号S1をこれら各色抽出部31A〜31Uにそれぞれ入力する。   That is, the individual identification unit 30 has the same number (for example, 16) of color extraction units 31A to 31U as the colors used for identification, and the image signal S1 supplied from the camera 16 is used as the color extraction units 31A to 31U. To enter each.

各色抽出部31は、画像信号S1に基づく画像のなかからそれぞれ所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S10A〜S10Uをそれぞれ色パターン検出部32に送出する。なお各色抽出部31A〜31Uは、識別のために用いられた複数の色の中からそれぞれ互いに異なる色の画素を抽出する。   Each color extraction unit 31 extracts a pixel of a predetermined color from the image based on the image signal S1, a portion corresponding to the pixel rises to a logical “1” level, and a portion corresponding to the other pixels is a logical “1”. The color extraction signals S10A to S10U that have fallen to the “0” level are sent to the color pattern detection unit 32, respectively. Each of the color extraction units 31A to 31U extracts pixels having different colors from a plurality of colors used for identification.

色パターン検出部32は、各色抽出部31A〜31Uからそれぞれ供給される各色抽出信号S10A〜S10Uに基づき得られる画像を重ね合わせて走査することにより当該画像内の色がほぼ円形状にZ方向に3色並んだ部分を検出し、これを識別体23であると判定してその識別体23の色パターンと、当該画像内における位置と、画素を単位とした直径とを識別体情報信号S11として比較・演算部33に送出する。   The color pattern detection unit 32 superimposes and scans the images obtained based on the color extraction signals S10A to S10U supplied from the color extraction units 31A to 31U, so that the colors in the image are substantially circular in the Z direction. A portion in which three colors are arranged is detected, this is determined to be the identification body 23, and the color pattern of the identification body 23, the position in the image, and the diameter in units of pixels are used as the identification body information signal S11. The data is sent to the comparison / calculation unit 33.

比較・演算部33は、供給される識別体情報信号S11に基づき得られる撮像した識別体23の色パターンと、第1のメモリ34内に予め格納されている各識別体23の色パターン及びそのIDに関するテーブルとに基づいて、カメラ16により撮像された識別体23のID(すなわちロボット3A〜3Cの個体)を検出する。   The comparison / calculation unit 33 calculates the color pattern of the imaged identification object 23 obtained based on the supplied identification object information signal S11, the color pattern of each identification object 23 stored in advance in the first memory 34, and the color pattern thereof. Based on the table relating to the ID, the ID of the identification body 23 captured by the camera 16 (that is, the individual of the robots 3A to 3C) is detected.

また比較・演算部33は、供給される識別体情報信号S11に基づき得られる撮像された識別体23の画像内での画素を単位とした直径(Dpic)と、第2のメモリ35内に予め格納されている基準値(カメラ16及び識別体23が1〔m〕離れているときの識別体23の画素を単位とした直径(Dstd))とに基づいて、次式   Further, the comparison / calculation unit 33 stores the diameter (Dpic) in units of pixels in the image of the picked-up identifier 23 obtained based on the supplied identifier information signal S11 and the second memory 35 in advance. Based on the stored reference value (the diameter (Dstd) in units of pixels of the identification body 23 when the camera 16 and the identification body 23 are separated by 1 [m]), the following formula

Figure 0003928871
Figure 0003928871

の演算を実行することによりその識別体23までの距離L1を算出する。 The distance L1 to the identification body 23 is calculated by performing the above calculation.

さらに比較・演算部33は、検出した識別体23のIDと、(1)式の演算により得られたその識別体23までの距離L1と、識別体情報信号S11に基づき得られる画像内における識別体23の位置とを識別体検出信号S12としてそのロボット3A〜3C全体の行動を司る最上位のCPU36に送出する。   Further, the comparison / calculation unit 33 identifies the ID of the detected identifier 23, the distance L1 to the identifier 23 obtained by the calculation of the equation (1), and the identification in the image obtained based on the identifier information signal S11. The position of the body 23 is sent as an identification body detection signal S12 to the uppermost CPU 36 that controls the actions of the robots 3A to 3C as a whole.

このようにしてこのロボット3A〜3Cにおいては、CPU36が識別体検出信号S12に基づいて他のロボット3A〜3Cの位置を認識することができ、かくして認識結果に基づいてより周囲の状況に応じた行動をとることができるようになされている。   In this way, in the robots 3A to 3C, the CPU 36 can recognize the positions of the other robots 3A to 3C based on the identification object detection signal S12, and thus more appropriately according to the surrounding situation based on the recognition result. You can take action.

(1−2)色抽出部の構成
ここで一般的に、画像信号に基づく画像内の各色は、当該画像信号に含まれる2つの色差信号(R−Y、B−Y)のうちの一方の第1の色差信号の信号レベルUをX軸にとり、他方の第2の色差信号の信号レベルVをY軸にとったUV平面上の点として表すことができる。ただし同じ色でも照明の条件等によりUV平面上での位置が多少変化する。
(1-2) Configuration of Color Extraction Unit Here, each color in an image based on an image signal is generally one of two color difference signals (RY, BY) included in the image signal. It can be expressed as a point on the UV plane where the signal level U of the first color difference signal is taken on the X axis and the signal level V of the other second color difference signal is taken on the Y axis. However, even on the same color, the position on the UV plane changes slightly depending on the illumination conditions.

そこで図5に示すように、UV平面において長方形のエリア40を考え、画素の第1及び第2の色差レベルU、Vがエリア40の中に入ったときにその画素が抽出しようとしている色であると判定し、かつ照明条件等の変化に対応させるためその画素の輝度レベルYによってエリア40を移動させることによって、精度良く画像信号に基づく画像内の対応する色の画素を抽出することができる。   Therefore, as shown in FIG. 5, a rectangular area 40 in the UV plane is considered, and when the first and second color difference levels U and V of the pixel enter the area 40, the color that the pixel is to extract is displayed. By moving the area 40 according to the luminance level Y of the pixel in order to determine that it is present and to respond to a change in the illumination condition or the like, it is possible to accurately extract the pixel of the corresponding color in the image based on the image signal. .

この場合エリア40を指定するには、第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bを抽出すべき色に応じて決めれば良く、またエリア40を輝度レベルYによって移動させるには、予め輝度レベルY毎に第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bをそれぞれ計算し決定してテーブルを作成し、当該テーブルと実際の画素の輝度レベルYとに基づいて第1及び第2の色差レベルU、Vの上限値a、b及び下限値a、bを変化させるようにすれば良い。 In this case, in order to specify the area 40, the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the first and second color difference levels U and V may be determined according to the color to be extracted. In order to move the area 40 according to the luminance level Y, the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the first and second color difference levels U and V are calculated and determined for each luminance level Y in advance. Then, a table is created, and the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the first and second color difference levels U and V are changed based on the table and the luminance level Y of the actual pixel. You can make it.

以上の点を考慮し、各ロボット3A〜3Cの個体識別部30の各色抽出部31A〜31Uは、図6に示すように構成されている。   Considering the above points, the color extraction units 31A to 31U of the individual identification unit 30 of the robots 3A to 3C are configured as shown in FIG.

すなわち色抽出部31A〜31Uにおいては、カメラ16から供給される画像信号S1を分離回路41に入力し、当該分離回路41において画像信号S1を輝度信号S20及び2つの色差信号(R−Y、B−Y)S21A、S21Bに分離する。   That is, in the color extraction units 31A to 31U, the image signal S1 supplied from the camera 16 is input to the separation circuit 41, and the separation circuit 41 converts the image signal S1 into the luminance signal S20 and the two color difference signals (RY, B). -Y) Separate into S21A and S21B.

この場合輝度信号S20は、アナログ/ディジタル変換回路42において所定の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する輝度データD1に順次変換され、この後第1〜第4のメモリ44A〜44Dに供給される。   In this case, the luminance signal S20 is sampled at a predetermined first period in the analog / digital conversion circuit 42 to be sequentially converted into luminance data D1 corresponding to each pixel, and thereafter the first to fourth memories. 44A to 44D.

また2つの色差信号S21A、S21Bのうち一方の第1の色差信号S21Aは、アナログ/ディジタル変換回路43Aにおいて上述の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する第1の色差データD2Aに順次変換された後第1及び第2の比較回路45A、45Bに供給されると共に、他方の第2の色差信号S21Bは、アナログ/ディジタル変換回路43Bにおいて上述の第1の周期でサンプリングされることにより、各画素にそれぞれ対応する第2の色差データD2Bに順次変換された後第3及び第4の比較回路45C、45Dに供給される。   Further, one of the two color difference signals S21A and S21B is sampled at the above-described first period in the analog / digital conversion circuit 43A, whereby the first color difference signal corresponding to each pixel is obtained. The data D2A is sequentially converted and then supplied to the first and second comparison circuits 45A and 45B, and the other second color difference signal S21B is sampled in the analog / digital conversion circuit 43B at the above-described first period. As a result, the second color difference data D2B corresponding to each pixel is sequentially converted and then supplied to the third and fourth comparison circuits 45C and 45D.

このとき第1及び第2のメモリ44A、44Bには、その色抽出部31A〜31Uが抽出すべき色に対応させて、それぞれ画素の輝度データD1の値(すなわち輝度レベルY)毎の第1の色差データD2Aの値(すなわち第1の色差レベルU)の上限値a又は下限値aがテーブルとして格納されると共に、第3及び第4のメモリ44C、44Dには、それぞれ画素の輝度データD1の値毎の第2の色差データD2Bの値(すなわち第2の色差レベルV)の上限値b又は下限値bがテーブルとして格納されている。なおこれらの上限値a、b及び下限値a、bは、画素の輝度レベルYをアドレスとしてアドレスバス46及びデータバス47を介して上述した最上位のCPU36により設定される。 At this time, the first and second memories 44A and 44B correspond to the colors to be extracted by the color extraction units 31A to 31U, and the first value for each value of the luminance data D1 (that is, the luminance level Y) of each pixel. with an upper limit value a 1 or a lower limit value a 2 are stored as a table of the color difference data D2A value (i.e. first chrominance level U), the third and fourth memory 44C, the 44D, the luminance of each pixel upper limit value b 1 or the lower limit value b 2 of the second color difference data D2B value for each value of the data D1 (that is, the second chrominance level V) is stored as a table. The upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 are set by the uppermost CPU 36 described above via the address bus 46 and the data bus 47 using the luminance level Y of the pixel as an address.

また第1〜第4のメモリ44A〜44Dは、それぞれ供給される輝度データD1の値をアドレスとして予め格納されたテーブルの中から対応する設定値を出力するようになされている。   The first to fourth memories 44A to 44D output corresponding setting values from a table stored in advance with the value of the supplied luminance data D1 as an address.

かくして色抽出部31A〜31Uにおいては、第1及び第2のメモリ44A〜44Dからそれぞれ各画素毎に輝度データD1の値に応じた予め設定された第1の色差レベルの上限値a又は下限値aが出力されると共に、第3及び第4のメモリ44C、44Dからそれぞれ各画素毎に輝度データD1の値に応じた予め設定された第2の色差レベルの上限値b及び下限値bが出力され、これらがそれぞれ対応する第1〜第4の比較回路45A〜45Dに供給される。 Thus, in the color extraction units 31A to 31U, the upper limit value a 1 or the lower limit of the first color difference level set in advance corresponding to the value of the luminance data D1 for each pixel from the first and second memories 44A to 44D. The value a 2 is output, and the upper limit value b 1 and the lower limit value of the second color difference level set in advance according to the value of the luminance data D1 for each pixel from the third and fourth memories 44C and 44D, respectively. b 2 is output, they are supplied to the corresponding first to fourth comparison circuit 45A to 45D.

第1〜第4の比較回路45A〜45Dにおいては、それぞれ対応する第1〜第3又は第4のメモリ44A〜44Dの出力と、順次供給される画素毎の第1又は第2の色差データD2A、D2Bの値とをそれぞれ順次比較し、比較結果を順次判定回路48に送出する。   In the first to fourth comparison circuits 45A to 45D, the outputs of the corresponding first to third or fourth memories 44A to 44D and the first or second color difference data D2A for each pixel sequentially supplied. , D2B are sequentially compared with each other, and the comparison results are sequentially sent to the determination circuit 48.

判定回路48は、例えばアンド回路構成でなり、各第1〜第4の比較回路45A〜45Dの出力に基づいて、その画素が第1〜第4のメモリ44A〜44D内にそれぞれ格納された第1又は第2の色差レベルU、Vの上限値a、b又は下限値a、bにより決定されるエリア40(図5)内に入っているか否かを判定し、入っている場合には「1」、入っていない場合には「0」をフレームメモリ49内のその画素に対応する位置に格納する。 The determination circuit 48 has, for example, an AND circuit configuration, and based on the outputs of the first to fourth comparison circuits 45A to 45D, the pixels are stored in the first to fourth memories 44A to 44D, respectively. 1 or the second chrominance level U, determines whether or not contained in the area 40 to be determined (Fig. 5) by the upper limit value a 1, b 1 or the lower limit value a 2, b 2 and V, containing “1” is stored in the case, and “0” is stored in the frame memory 49 at a position corresponding to the pixel.

かくしてフレームメモリ49からは、その色抽出部31A〜31Uが抽出すべき色の画素に対応する部分のみが論理「1」レベルに立ち上がった色抽出信号S10A〜S10Uが出力される。   Thus, the frame memory 49 outputs color extraction signals S10A to S10U in which only the portions corresponding to the color pixels to be extracted by the color extraction units 31A to 31U rise to the logic “1” level.

このようにして各色抽出部31A〜31Uは、画像信号S1に基づく画像の中から対応する色の画素を抽出し得るようになされ、かくして得られた色抽出信号S10A〜S10Uを上述のように色パターン検出部32(図4)に送出するようになされている。   In this way, each of the color extraction units 31A to 31U can extract the corresponding color pixel from the image based on the image signal S1, and the color extraction signals S10A to S10U thus obtained are color-coded as described above. The data is sent to the pattern detection unit 32 (FIG. 4).

(1−3)第1実施例の動作及び効果
以上の構成において、この個体識別システム1の場合、各ロボット3A〜3Cは、カメラ16により撮像された識別体23の色パターンと、カメラ16から供給される画像信号S1に基づく画像内の位置と、画素を単位とする直径とを個体識別部30の色抽出部31A〜31U及び色パターン検出部32により検出し、当該検出された識別体23の色パターンと、第1のメモリ34内に格納された各識別体23の色パターン及びそのIDに関するテーブルに基づいて撮像した識別体23のID(ロボット3A〜3Cの個体)を検出すると共に、色パターン検出部32により検出された識別体23の画素を単位とする直径と、第2のメモリ35内に格納された基準値とに基づいてその識別体23までの距離L1を算出し、検出したその識別体23のIDと、その識別体23までの距離L1と、画像内におけるその識別体23の位置とをそれぞれそのロボット3A〜3Cの行動を司る最上位のCPU36に送出する。
(1-3) Operation and Effect of First Example In the above configuration, in the case of this individual identification system 1, each robot 3 </ b> A to 3 </ b> C uses the color pattern of the identification body 23 captured by the camera 16 and the camera 16. The position in the image based on the supplied image signal S1 and the diameter in units of pixels are detected by the color extraction units 31A to 31U and the color pattern detection unit 32 of the individual identification unit 30, and the detected identification object 23 is detected. And the IDs of the identification bodies 23 (individuals of the robots 3A to 3C) captured based on the color patterns of the identification bodies 23 and the color patterns of the identification bodies 23 stored in the first memory 34 and the table relating to the IDs, The distance to the identification object 23 based on the diameter in pixels of the identification object 23 detected by the color pattern detection unit 32 and the reference value stored in the second memory 35 L1 is calculated, and the highest CPU 36 that controls the behavior of the robots 3A to 3C, respectively, detects the ID of the identifier 23 detected, the distance L1 to the identifier 23, and the position of the identifier 23 in the image. To send.

従ってこの個体識別システム1では、各ロボット3A〜3Cの最上位のCPUがそれぞれ周囲に位置する他のロボット3A〜3Cの個体と、そのロボット3A〜3Cまでの距離L1及び方向とを精度良く認識することができる。   Therefore, in this individual identification system 1, the uppermost CPU of each robot 3A to 3C recognizes the individual of the other robots 3A to 3C located around each other and the distance L1 and direction to the robots 3A to 3C with high accuracy. can do.

またこの個体識別システム1では、各ロボット3A〜3Cの識別体23を例えばピンポン球のようなものに色を塗ることによって作製することができるため、極めて安価に構築することができる。   In addition, in this individual identification system 1, the identification body 23 of each of the robots 3A to 3C can be manufactured by painting a color such as a ping-pong ball, so that it can be constructed very inexpensively.

さらにこの個体識別システム1では、各ロボット3A〜3Cが他のロボット3A〜3Cの個体を識別し得るようにする手段として特別な信号を利用していないため、周辺機器に悪影響を与えたり、電波法規に基づく規制を受けたりすることがない。   Furthermore, in this individual identification system 1, since each robot 3A-3C does not use a special signal as a means for allowing the individual robots 3A-3C to identify individual robots, it adversely affects peripheral devices, There are no regulations based on regulations.

さらにこの個体識別システム1では、上述のように識別体23が球状であり、また複数の識別色をロボット3A〜3Cの移動方向と垂直な方向に帯状に塗られているため、ロボット3A〜3Cが移動する領域2がほぼ平坦である限りにおいて、識別体23をどの方向から見ても同じ形状及び同じ色パターンに見ることができ、かくして各ロボット3A〜3Cが他のロボット3A〜3Cの個体を容易かつ確実に識別することができる。   Furthermore, in this individual identification system 1, since the identification body 23 is spherical as described above and a plurality of identification colors are applied in a band shape in a direction perpendicular to the moving direction of the robots 3A to 3C, the robots 3A to 3C. Can be seen in the same shape and the same color pattern from any direction, so that each robot 3A-3C is an individual of the other robots 3A-3C. Can be easily and reliably identified.

さらにこの個体識別システム1では、各ロボット3A〜3Cの識別体23が表面を単色ではなく複数色を塗り分けるようにして構成されているため、色の組み合わせ方によって多数のロボット3A〜3Cを識別し得るようにすることができる。この場合識別色として原色などの色合いの大きく異なる色だけを用いても、組み合わせの数を多くすることができるため、微妙な色の違いから個体識別を行う場合に比べて、照明条件等に影響を受け難い利点がある。   Furthermore, in this individual identification system 1, the identification bodies 23 of the robots 3A to 3C are configured such that the surface is painted with a plurality of colors instead of a single color, so that a large number of robots 3A to 3C are identified according to how the colors are combined. It can be done. In this case, the number of combinations can be increased even if only colors with greatly different hues such as primary colors are used as identification colors, which affects lighting conditions, etc. compared to individual identification due to subtle color differences. There is an advantage that is difficult to receive.

以上の構成によれば、各ロボット3A〜3Cに、それぞれ互いに異なる色パターンの識別体23を取り付ける一方、各ロボット3A〜3Cにおいて、カメラ16により撮像された識別体23の色パターンと、カメラ16から供給される画像信号S1に基づく画像内での位置及び直径とをそれぞれ検出し、当該検出結果と、第1のメモリ34内に予め格納された各識別体23の色パターン及びそのIDに関するテーブルとに基づいて撮像した識別体23のIDを検出すると共に、検出された画像信号S1に基づく画像内での識別体23の直径と、第2のメモリ35内に格納された基準値とに基づいてその識別体23までの距離L1を算出するようにしたことにより、各ロボット3A〜3Cがそれぞれ他のロボット3A〜3Cの個体を容易かつ確実に識別することができ、かくしてロボット3A〜3Cの個体を確実に認識し得る簡易な構成の個体識別システム及びロボットを実現できる。   According to the above configuration, the identification bodies 23 having different color patterns are attached to the robots 3A to 3C, respectively, while the color patterns of the identification bodies 23 captured by the camera 16 in the robots 3A to 3C and the cameras 16 The position and the diameter in the image based on the image signal S1 supplied from the image are respectively detected, the detection result, the color pattern of each identifier 23 stored in advance in the first memory 34, and the table relating to the ID. Based on the diameter of the identification body 23 in the image based on the detected image signal S1 and the reference value stored in the second memory 35. By calculating the distance L1 to the discriminator 23, each robot 3A to 3C can easily and reliably identify the individual robots 3A to 3C. It can be identified, thus can realize individual identification system and a robot having a simple structure capable of recognizing reliably individual robots 3A-3C.

(2)第2実施例
(2−1)第2実施例による個体識別システムの全体構成
図7及び図8は、第2実施例による個体識別システム50を示すものであり、図2(A)との対応部分に同一符号を付した図9に示すように、各ロボット51A〜51Cの胴体部10の上面にそれぞれ識別シール52が貼り付けられている。
(2) Second Embodiment (2-1) Overall Configuration of Individual Identification System According to Second Embodiment FIGS. 7 and 8 show an individual identification system 50 according to the second embodiment, and FIG. As shown in FIG. 9 in which the same reference numerals are assigned to the corresponding parts, identification seals 52 are attached to the upper surfaces of the body parts 10 of the robots 51A to 51C.

この場合各ロボット51A〜51Cの識別シール52は、図10に示すように、それぞれその表面が順次隣接する所定数(例えば6個)の帯状領域52A〜52Fに分けられ、これら各帯状領域52A〜52Fがそれぞれ識別のために選定された複数色のうちのいずれかの色に着色されることにより構成されている。また識別シール52の表面の各帯状領域52A〜52Fを着色する色の組み合わせ(色パターン)は識別シール52毎に異なるパターンに選定されており、かくして識別シール52の色パターンに基づいてそのロボット51A〜51Cの個体を識別し得るようになされている。   In this case, as shown in FIG. 10, the identification stickers 52 of the robots 51A to 51C are each divided into a predetermined number (for example, six) of belt-shaped regions 52A to 52F whose surfaces are sequentially adjacent to each other. 52F is configured by being colored in any one of a plurality of colors selected for identification. Further, the combination of colors (color patterns) for coloring the strip regions 52A to 52F on the surface of the identification seal 52 is selected for each identification seal 52. Thus, the robot 51A is based on the color pattern of the identification seal 52. ˜51C individuals can be identified.

一方図7及び図8からも明らかなように、領域2の上方には当該領域2全体を1画面内に撮影し得るようにカメラ53が配設されており、当該カメラ53から出力された画像信号S30が領域2の外部に配設された個体識別部54に供給されるようになされている。   On the other hand, as is clear from FIGS. 7 and 8, a camera 53 is disposed above the area 2 so that the entire area 2 can be photographed on one screen, and an image output from the camera 53 is displayed. The signal S30 is supplied to the individual identification unit 54 disposed outside the region 2.

この場合個体識別部54には、図4との対応部分に同一符号を付して示す図11に示すように、識別のための色の数に応じた数(16色とする)の色抽出部31A〜31Uが設けられており、これら色抽出部31A〜31Uからそれぞれ出力される色抽出信号S10A〜S10Uがそれぞれ色パターン検出部55に送出される。   In this case, the individual identification unit 54 extracts a number of colors (16 colors) corresponding to the number of colors for identification, as shown in FIG. Units 31A to 31U are provided, and color extraction signals S10A to S10U output from the color extraction units 31A to 31U are sent to the color pattern detection unit 55, respectively.

色パターン検出部55は、供給される各色抽出信号S10A〜S10Uに基づく各画像を重ね合わせて走査することにより当該画像内において識別のための色が帯状に所定数並んでいる部分を検出し、その部分をロボット51A〜51Cの識別シール52と判定して、その識別シール52の色パターンと、画像内における画素を単位とする位置とを識別シール検出信号S31として比較・演算部56に送出する。なおこの場合領域2内に位置するロボット51A〜51Cの数だけ識別シール52が検出され、各識別シール52の色パターンと画像内における位置とがそれぞれ比較・演算部56に送出される。   The color pattern detection unit 55 detects a portion where a predetermined number of colors for identification are arranged in a strip shape in the image by overlapping and scanning the images based on the supplied color extraction signals S10A to S10U. The portion is determined as the identification sticker 52 of the robots 51A to 51C, and the color pattern of the identification sticker 52 and the position in the image in units of pixels are sent to the comparison / calculation unit 56 as an identification sticker detection signal S31. . In this case, the identification stickers 52 are detected by the number of the robots 51A to 51C located in the area 2, and the color pattern of each identification sticker 52 and the position in the image are sent to the comparison / calculation unit 56, respectively.

比較・演算部56は、供給される識別シール検出信号S31に基づき得られる各識別シール52の色パターンと、予めメモリ57内に格納されている各識別シール52の色パターン及びそのIDに関するテーブルとに基づいて、カメラ53からの画像信号S30に基づく画像内の各識別シール52のID(すなわち各ロボット51A〜51Cの個体)を検出し、かくして得られた各識別シール52のID及びその領域2内における位置情報をロボット位置検出信号S32として送信部58を介して領域2内を移動する各ロボット51A〜51Cに電波により送信する。   The comparison / calculation unit 56 includes a color pattern of each identification sticker 52 obtained based on the supplied identification sticker detection signal S31, a color pattern of each identification sticker 52 stored in the memory 57 in advance, and a table relating to the ID. The ID of each identification sticker 52 in the image based on the image signal S30 from the camera 53 (that is, the individual of each robot 51A to 51C) is detected, and the ID of each identification sticker 52 thus obtained and its region 2 are detected. The position information inside is transmitted as a robot position detection signal S32 by radio waves to each of the robots 51A to 51C moving in the area 2 via the transmission unit 58.

各ロボット51A〜51Cにおいては、図3との対応部分に同一符号を付した図12に示すように、個体識別部54の発信部58から発信された電波をアンテナ60を介して受信部61において受信し、得られた各識別シール52のID(すなわち各ロボット51A〜51Cの個体)及び領域2内におけるその位置情報を受信信号S33として制御部62に送出する。   In each of the robots 51A to 51C, as shown in FIG. 12, in which parts corresponding to those in FIG. 3 are denoted by the same reference numerals, radio waves transmitted from the transmitting unit 58 of the individual identifying unit 54 are received by the receiving unit 61 via the antenna 60. The received IDs of the respective identification seals 52 (that is, the individual robots 51A to 51C) and the position information in the region 2 are sent to the control unit 62 as reception signals S33.

このとき制御部62には、カメラ16から画像信号1が供給されると共に、マイクロホン17から音声信号S2が供給され、かつ各接触センサ18A〜18Zからセンサ信号S3A〜S3Zが供給される。   At this time, the control unit 62 is supplied with the image signal 1 from the camera 16, the audio signal S2 from the microphone 17, and the sensor signals S3A to S3Z from the contact sensors 18A to 18Z.

かくして制御部62は、供給される画像信号S1、音声信号S2、各センサ信号S3A〜3Z及び受信信号S33に基づいて周囲の環境と、領域2内における自分を含めた各ロボット51A〜51Cの位置とを認識し得、認識結果に基づいて自分で行動を決定し、決定結果に基づいて対応する各アクチュエータ21A〜21Jを駆動させる。   Thus, the control unit 62 determines the surrounding environment and the positions of the robots 51A to 51C including itself in the area 2 based on the supplied image signal S1, audio signal S2, sensor signals S3A to 3Z and reception signal S33. Can be recognized, the action is determined by itself based on the recognition result, and the corresponding actuators 21A to 21J are driven based on the determination result.

このようにして各ロボット51A〜51Cは、それぞれ周囲の環境と、領域2内を移動する自分を含めた全てのロボット51A〜51Cの位置とを認識し、認識結果に基づいて自律的に行動し得るようになされている。   In this way, each robot 51A to 51C recognizes the surrounding environment and the positions of all the robots 51A to 51C including itself moving in the region 2, and acts autonomously based on the recognition result. Has been made to get.

(2−2)第2実施例の動作及び効果
以上の構成において、この個体識別システム50では、領域2全体をその上方からカメラ53により撮像し、得られた画像信号S30に基づいて、領域2の外部に配設された個体識別部54により画像信号S30に基づく画像内の各識別シール52の位置を各色抽出部31A〜31U及び色パターン検出部55により検出し、当該検出結果と、メモリ57内に格納された各識別シール52の色パターン情報とから画像内における各識別シール52の位置及びIDを検出し、検出結果を送信部58を介して領域2内の各ロボット51A〜51Cに送信する。
(2-2) Operation and effect of the second embodiment In the above configuration, in the individual identification system 50, the entire region 2 is imaged by the camera 53 from above, and the region 2 is based on the obtained image signal S30. The position of each identification seal 52 in the image based on the image signal S30 is detected by the individual color extraction units 31A to 31U and the color pattern detection unit 55 by the individual identification unit 54 arranged outside the image signal S30. The position and ID of each identification sticker 52 in the image is detected from the color pattern information of each identification sticker 52 stored therein, and the detection result is transmitted to each robot 51A to 51C in the region 2 via the transmission unit 58. To do.

一方各ロボット51A〜51Cにおいては、個体識別部54から送信される各ロボット51A〜51Cの領域2内における位置情報と、カメラ16から供給される画像信号S1と、マイロクホン17から供給される音声信号S2と、各接触センサ18A〜18Zからそれぞれ供給されるセンサ信号S3A〜S3Zとに基づいて周囲の状況及び各ロボット51A〜51Cの位置を認識し、認識結果に基づいて自律的に行動する。   On the other hand, in each of the robots 51A to 51C, the position information in the region 2 of each robot 51A to 51C transmitted from the individual identification unit 54, the image signal S1 supplied from the camera 16, and the audio signal supplied from the microphone 17 Based on S2 and the sensor signals S3A to S3Z respectively supplied from the contact sensors 18A to 18Z, the surrounding situation and the positions of the robots 51A to 51C are recognized, and autonomously act based on the recognition result.

従ってこの個体識別システム50では、各ロボット51A〜51Cが領域2内における他のロボット51A〜51C及び自分自身の絶対的な位置を確実に認識することができる。   Therefore, in the individual identification system 50, each robot 51A to 51C can surely recognize the other robots 51A to 51C in the region 2 and the absolute position of itself.

またこの個体識別システム50では、各ロボット51A〜51Cに対する処置としては、それぞれアンテナ60及び受信部61を配設すると共に識別シール52を貼り付けるだけで良いため、各ロボット51A〜51Cの構成を第1実施例の各ロボット3A〜3C(図2(A))に比べてより簡易化することができる。またシステム全体としても、領域2全体を撮像するためのカメラ53及び個体識別部54が必要となるが、これはロボット51A〜51Cの台数によらず一組で良いため、第1実施例に比べて構成を簡易化することができる。   In the individual identification system 50, the robots 51A to 51C are provided with the antenna 60 and the receiving unit 61 and only need to have the identification seal 52 attached thereto. This can be simplified as compared with the robots 3A to 3C (FIG. 2A) of the first embodiment. In addition, the system as a whole requires a camera 53 and an individual identification unit 54 for imaging the entire region 2, but this is sufficient regardless of the number of robots 51 </ b> A to 51 </ b> C. The configuration can be simplified.

またこの個体識別システム50では、識別シール52の表面を単色ではなく複数の色で塗り分けているため、色の組み合わせ方によって容易に多数のロボット51A〜51Cを識別し得るようにすることができる。この場合識別のための色として、原色などの色合いの大きく異なる色を用いたとしても、組み合わせ数を多くすることができるため、単色を用いて微妙な色の違いから個体識別を行う場合に比べて、照明条件などの影響を受け難い利点がある。   Further, in this individual identification system 50, the surface of the identification seal 52 is painted with a plurality of colors instead of a single color, so that a large number of robots 51A to 51C can be easily identified depending on how the colors are combined. . In this case, the number of combinations can be increased even if a color with a greatly different hue such as a primary color is used as a color for identification, compared to the case where individual identification is performed from a subtle color difference using a single color. Therefore, there is an advantage that it is not easily affected by lighting conditions.

さらにこの個体識別システム50では、領域2内の各ロボット51A〜51CのID及び位置を個体識別部54において集中的に認識することができるため、これを記憶しておくことによって各ロボット51A〜51Cの行動の記録として各ロボット51A〜51Cをそれぞれ制御するプログラムの評価や改良に利用することができる。   Further, in this individual identification system 50, since the ID and position of each robot 51A to 51C in the region 2 can be intensively recognized by the individual identification unit 54, each robot 51A to 51C is stored by storing this ID. Can be used for evaluation and improvement of programs for controlling the robots 51A to 51C.

さらにこの個体識別システム50では、各ロボット51A〜51Cの視覚を利用していないため、各ロボット51A〜51Cの視覚処理能力が低い場合や、各ロボット51A〜51Cが視覚を全く備えていない場合でも適用することができる利点もある。   Furthermore, since this individual identification system 50 does not use the vision of each of the robots 51A to 51C, even when each of the robots 51A to 51C has a low visual processing capability or when each of the robots 51A to 51C does not have any vision. There are also advantages that can be applied.

以上の構成によれば、ロボット51A〜51Cの行動領域2全体をその上方からカメラ53により撮像し、得られた画像信号S30に基づく画像内の各識別シール52の位置を検出し、当該検出結果と、メモリ57内に格納された各識別シール52の色パターン情報とから画像内における各識別シール52のID及び位置を検出し、当該検出結果を領域2内の各ロボット51A〜51Cに送信するようにしたことにより、領域2内を移動する各ロボット51A〜51Cの絶対的な位置を精度良く検出することができ、かくして行動領域2内における各ロボット51A〜51Cを確実に識別し得る簡易な構成の個体識別システム及びロボットを実現できる。   According to the above configuration, the entire action region 2 of the robots 51A to 51C is imaged from above by the camera 53, the position of each identification seal 52 in the image based on the obtained image signal S30 is detected, and the detection result And the color pattern information of each identification sticker 52 stored in the memory 57, the ID and position of each identification sticker 52 in the image are detected, and the detection result is transmitted to each robot 51A to 51C in the region 2. By doing so, the absolute positions of the robots 51A to 51C moving in the area 2 can be detected with high accuracy, and thus the robots 51A to 51C in the action area 2 can be reliably identified. An individual identification system and a robot having a configuration can be realized.

(3)第3実施例
(3−1)第3実施例による位置検出システムの全体構成
図2(A)との対応部分に同一符号を付して示す図13は、本発明を適用した位置検出システム70を示すものであり、ロボット71の行動領域2の周囲に沿って所定高さの壁72が設けられている。
(3) Third Embodiment (3-1) Overall Configuration of Position Detection System According to Third Embodiment FIG. 13 where the same reference numerals are assigned to corresponding parts to FIG. 2 (A) is a position to which the present invention is applied. A detection system 70 is shown, and a wall 72 having a predetermined height is provided along the periphery of the action area 2 of the robot 71.

この場合壁72の内壁面72Aは、領域2の各辺に沿う壁面72AA〜72ADごとにそれぞれ互いに異なる色が塗られており、かくして塗られた色に基づいてその壁面72AA〜72ADがどの壁面72AA〜72ADかを容易に判別し得るようになされている。   In this case, the inner wall surface 72A of the wall 72 is painted with a different color for each of the wall surfaces 72AA to 72AD along each side of the region 2, and based on the painted color, the wall surface 72AA is the wall surface 72AA. It can be easily discriminated whether it is ˜72 AD.

一方ロボット71は、第1実施例のロボット3A〜3C(図2(A)、図3)の制御部19(図3)内に個体識別部30(図4)に代えて図15に示すような壁識別部80が設けられていることを除いて第1実施例のロボット3A〜3Cと同様に構成されている。   On the other hand, the robot 71 is shown in FIG. 15 in place of the individual identification unit 30 (FIG. 4) in the control unit 19 (FIG. 3) of the robots 3A to 3C (FIGS. 2A and 3) of the first embodiment. The robot 3A-3C is configured in the same manner as the robot 3A of the first embodiment except that a wall identifying unit 80 is provided.

この場合壁識別部80には、領域2の各辺に沿う壁面72AA〜72ADの数(4面とする)だけ色抽出部31A〜31Dが設けられており、カメラ16から供給される画像信号S1を各色抽出部31A〜31Dにそれぞれ入力するようになされている。   In this case, the wall identification unit 80 is provided with color extraction units 31A to 31D as many as the number of wall surfaces 72AA to 72AD along the sides of the region 2 (four surfaces), and the image signal S1 supplied from the camera 16 is provided. Is input to each of the color extraction units 31A to 31D.

この結果各色抽出部31A〜31Dからは、それぞれ画像信号S1に基づく画像内の画素のうちの対応する色の画素に対応する部分が論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S10A〜S10Dが出力され、これが壁検出部81に供給される。なお各色抽出部31A〜31Dは、それぞれ各壁面72AA〜72ADに塗られた識別のための複数の色の中から互いに異なる1色だけを抽出する。   As a result, from each of the color extraction units 31A to 31D, a portion corresponding to a pixel of a corresponding color among pixels in the image based on the image signal S1 rises to a logic “1” level, and corresponds to a pixel of another color. The color extraction signals S10A to S10D whose part falls to the logic “0” level are output and supplied to the wall detection unit 81. Each of the color extraction units 31A to 31D extracts only one different color from among a plurality of colors for identification applied to the wall surfaces 72AA to 72AD.

壁検出部81は、各色抽出部31A〜31Dからそれぞれ供給される色抽出信号S10A〜S10Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADと判断すると共に、その壁面72AA〜72ADに塗布された色を検出し、かつ画像信号S1に基づく画像内におけるその壁面72AA〜72ADの高さを画素を単位として検出し、これら得られたその壁面72AA〜72ADの色と画像内における高さとを壁検出信号S40として比較・演算部82に送出する。   The wall detection unit 81 superimposes and scans images based on the color extraction signals S10A to S10D respectively supplied from the color extraction units 31A to 31D, so that a substantially horizontal, elongated region of the same color is set to any one of the wall surfaces 72AA to 72AD. And the color applied to the wall surfaces 72AA to 72AD is detected, and the height of the wall surfaces 72AA to 72AD in the image based on the image signal S1 is detected in units of pixels, and the obtained wall surfaces are detected. The colors 72AA to 72AD and the height in the image are sent to the comparison / calculation unit 82 as a wall detection signal S40.

比較・演算部82は、壁検出信号S40に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ83内に予め格納されている各壁面72AA〜72ADの各色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検索する。   The comparison / calculation unit 82 uses the color of the wall surfaces 72AA to 72AD obtained on the basis of the wall detection signal S40, and a table relating to the colors and IDs of the wall surfaces 72AA to 72AD stored in the first memory 83 in advance. Based on this, the IDs of the wall surfaces 72AA to 72AD are searched.

また比較・演算部82は、壁検出信号S40に基づき得られるその壁面72AA〜72ADの画像内における高さ(Hpicとする)と、第2のメモリ84内に予め格納されている基準値(ロボット71が壁面72AA〜72ADから1〔m〕離れているときの画像内におけるその壁面72AA〜72ADの画素を単位とする高さ(Hstdとする))とに基づいて、次式   Further, the comparison / calculation unit 82 obtains the height (Hpic) in the image of the wall surfaces 72AA to 72AD obtained based on the wall detection signal S40 and a reference value (robot) stored in advance in the second memory 84. Based on the height (referred to as Hstd) in units of pixels of the wall surfaces 72AA to 72AD in the image when 71 is 1 [m] away from the wall surfaces 72AA to 72AD,

Figure 0003928871
Figure 0003928871

を実行することによりカメラ16からその壁面72AA〜72ADまでの距離L2を算出する。 To calculate the distance L2 from the camera 16 to the wall surfaces 72AA to 72AD.

さらに比較・演算部82は、この後カメラ16がその壁面(以下、これを第1の壁面と呼ぶ)72AA〜72ADと異なる壁面(以下、これを第2の壁面と呼ぶ)72AA〜72ADに向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADまでの距離L3とを算出する。   Further, the comparison / calculation unit 82 then directs the camera 16 toward a wall surface (hereinafter referred to as a second wall surface) 72AA to 72AD different from its wall surface (hereinafter referred to as a first wall surface) 72AA to 72AD. Then, the same processing is executed to calculate the IDs of the second wall surfaces 72AA to 72AD and the distance L3 to the second wall surfaces 72AA to 72AD.

さらにこの後比較・演算部82は、上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADまでの距離L2と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADまでの距離L3と、第3のメモリ85内に予め格納されている領域2の各辺に沿った各壁面72AA〜72ADの位置を含む領域2の地図情報とに基づいて領域2内における自分の位置を検出し、これを位置検出信号S41として当該ロボット71の行動を司る最上位のCPU36に送出する。   Further thereafter, the comparison / calculation unit 82 calculates the ID of the first wall surfaces 72AA to 72AD obtained as described above, the distance L2 to the first wall surfaces 72AA to 72AD, and the second wall surfaces 72AA to 72AD. Map information of the area 2 including the ID and the distance L3 to the second wall surfaces 72AA to 72AD and the positions of the wall surfaces 72AA to 72AD along each side of the area 2 stored in advance in the third memory 85 Based on the above, it detects its own position in the area 2 and sends it as a position detection signal S41 to the uppermost CPU 36 that controls the behavior of the robot 71.

これによりこのロボット71においては、CPU36が位置検出信号S41に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。   As a result, in this robot 71, the CPU 36 can recognize its own position in the region 2 based on the position detection signal S41, and can act autonomously according to the surrounding situation based on the recognition result. It is made like that.

(3−2)第3実施例の動作及び効果
以上の構成において、この位置検出システム70では、ロボット71がカメラ16から出力される画像信号S1に基づいて、周囲の第1及び第2の壁面72AA〜72ADに塗布された色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面72AA〜72ADの高さHpicとを検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(3-2) Operation and Effect of Third Embodiment In the above configuration, in this position detection system 70, the robot 71 is based on the image signal S1 output from the camera 16, and the surrounding first and second wall surfaces. The color applied to 72AA to 72AD and the height Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and the detection result and the first memory 83 are stored in advance. An area based on the color and the ID of each wall surface 72AA to 72AD stored therein, the reference value Hstd stored in advance in the second memory 84, and the map information stored in advance in the third memory 85 2 to detect its own position.

従ってこの位置検出システム70では、2つの壁面72AA〜72ADの色及びこれら壁面72AA〜72ADの画像内における高さHpicからロボット71が領域2内における自分自身の位置を容易かつ精度良く認識することができる。   Therefore, in this position detection system 70, the robot 71 can easily and accurately recognize its own position in the region 2 from the colors of the two wall surfaces 72AA to 72AD and the height Hpic in the images of the wall surfaces 72AA to 72AD. it can.

またこの位置検出システム70では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を塗るだけで良いため、極めて簡単にシステムを構築することができる。   Moreover, in this position detection system 70, since it is only necessary to paint each wall surface 72AA-72AD arrange | positioned along each edge | side of the area | region 2 with a mutually different color, a system can be constructed | assembled very easily.

さらにこの位置検出システム70では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができ、また領域2の床面に信号発生機を設置する必要がないため、ロボット71の移動を妨げるおそれもない。   Further, since this position detection system 70 does not use a method of transmitting a special signal such as a radio wave, it can be used without considering the influence on peripheral devices, radio wave regulations and the like. Since there is no need to install a signal generator on the surface, there is no possibility of hindering the movement of the robot 71.

さらにこの位置検出システム70では、ロボット71の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。   Furthermore, since this position detection system 70 is not a method of notating a symbol, a sign, or the like on the floor surface of the action area 2 of the robot 71, the floor surface can be painted for other purposes.

さらにこの位置検出システム70では、ロボット71のカメラ16をおおよそ水平方向に向けることによって当該ロボット71の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット71が領域2内における自分の位置を検出するためにカメラ16を所定方向を向ける必要がなく、また他のロボット71をカメラ16でとらえながら領域2内における自分の位置を検出することができる利点もある。   Furthermore, in this position detection system 70, since the camera 16 of the robot 71 is oriented approximately horizontally, the wall surfaces 72AA to 72AD in front of the robot 71 can be imaged by the camera 16, so There is an advantage that the camera 16 does not need to be directed in a predetermined direction in order to detect the position of the camera, and that the user's own position in the region 2 can be detected while the other robot 71 is captured by the camera 16.

以上の構成によれば、ロボット71の行動領域2の各辺にそれぞれ沿って壁面72AA〜72ADを設けると共に各壁面72AA〜72ADにそれぞれ互いに異なる色を塗布する一方、ロボット71が、カメラ16から出力される画像信号S1に基づいて、当該カメラ16により撮像された少なくとも2以上の壁面72AA〜72ADの色と、画像信号S1に基づく画像内での各壁面72AA〜72ADの高さHpicとをそれぞれ検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの識別色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている領域2の地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット71が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分自身の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。   According to the above configuration, the wall surfaces 72AA to 72AD are provided along the sides of the action area 2 of the robot 71 and different colors are applied to the wall surfaces 72AA to 72AD, respectively, while the robot 71 outputs from the camera 16. The color of at least two or more wall surfaces 72AA to 72AD imaged by the camera 16 and the height Hpic of each wall surface 72AA to 72AD in the image based on the image signal S1 are detected based on the image signal S1 to be performed. Then, the detection result, the identification color and the ID of each wall surface 72AA to 72AD stored in advance in the first memory 83, the reference value Hstd stored in advance in the second memory 84, the third By detecting the position of the user in the area 2 based on the map information of the area 2 stored in the memory 85 in advance, the robot DOO 71 can be detected accurately its position in the region 2, thus possible to realize a position detection system and a robot capable of accurately detecting the position of itself in the region 2.

(4)第4実施例
(4−1)原理
一般的に色は、色相(Hue )、彩度(Saturation)及び明度(Intensity )の3つの属性を用いて表すことができる。
(4) Fourth Embodiment (4-1) Principle In general, a color can be expressed by using three attributes of hue (Hue), saturation (Saturation) and lightness (Intensity).

この場合これら色相、彩度(飽和度とも呼ぶ)及び明度の関係は、図16(A)及び(B)に示すように、平面上の任意の1点を原点Oとした場合において、色相をこの平面内における原点Oまわりの角度とし、彩度をこの平面内における原点Oからの距離とし、かつ明度をこの平面と垂直な方向における原点Oからの距離とする極座標で表すことができる。なお図16(B)に示す六角形の各頂点は、それぞれR(赤色)、Y(黄色)、G(緑色)、C(シアン)、B(青色)及びM(マゼンダ)に相当する。   In this case, as shown in FIGS. 16A and 16B, the relationship between the hue, saturation (also referred to as saturation), and brightness is as follows. It can be expressed in polar coordinates with the angle around the origin O in this plane, the saturation as the distance from the origin O in this plane, and the brightness as the distance from the origin O in the direction perpendicular to this plane. Note that each vertex of the hexagon shown in FIG. 16B corresponds to R (red), Y (yellow), G (green), C (cyan), B (blue), and M (magenta), respectively.

ところで、例えば第1〜第3実施例のように物体(第1実施例における識別体23、第2実施例における識別マーク52及び第3実施例における壁面72AA〜72AD)に塗られた色の違いによって物体を識別するシステムでは、同じ色でも照明条件の変化や、物体を見る方向などによって色の見え方が変化する。このため例えば第1〜第3実施例では、色を判別する条件に幅をもたせるようにしてこの変化に対処している。   By the way, for example, as in the first to third embodiments, the color difference applied to the object (identifier 23 in the first embodiment, identification mark 52 in the second embodiment, and wall surfaces 72AA to 72AD in the third embodiment). In the system for identifying an object by the color, the appearance of the color changes depending on a change in illumination conditions, the direction in which the object is viewed, and the like even with the same color. For this reason, for example, in the first to third embodiments, this change is dealt with by giving a range to the condition for determining the color.

しかしながらこのような対処をしたとしても、物体を塗り分ける色の選び方によっては、照明条件等が変化したときに、ロボットの視覚でとらえたある色の見え方が別の色の判定条件内に入って違う色として認識されてしまい、その結果その色で塗られた物体を正しく識別できなくなるおそれがある。   However, even if such measures are taken, depending on how the colors used to paint the object are selected, when the lighting conditions change, the appearance of one color captured by the robot's vision falls within the criteria for judging another color. May be recognized as a different color, and as a result, an object painted with that color may not be correctly identified.

このような事態を防止する方法の1つとして、例えば識別のために使用する色の組み合わせとして、予め所定の色空間において距離の離れた色を用いるようにし、ロボット内部では、カメラから出力される画像信号のフォーマットをその色空間のフォーマットに変換して色識別を行うようにすれば良い。   As one of the methods for preventing such a situation, for example, as a combination of colors used for identification, colors that are separated from each other in a predetermined color space are used in advance, and are output from the camera inside the robot. The image signal format may be converted into the color space format to perform color identification.

すなわち識別色として、例えば色を色相、彩度及び明度の3つの属性を用いて表す色空間(以下、これをHSI空間と呼ぶ)において色相が所定角度(例えば60〔°〕)以上離れた複数色を選択すると共に、ロボット内部においてカメラから出力される画像信号の画像フォーマットを、色を色相(H)、彩度(S)及び明度(I)で表すフォーマット(以下、これをHSIフォーマットと呼ぶ)に変換し、かくして得られる画像信号に基づいて色相からその色を識別するようにすれば、色識別時に照明条件の変化等の影響を受け難くすることができ、色識別の誤判定を効率良く回避し得るものと考えられる。   That is, as the identification colors, for example, a plurality of colors whose hues are separated by a predetermined angle (for example, 60 °) or more in a color space (hereinafter, referred to as an HSI space) that uses three attributes of hue, saturation, and brightness. In addition to selecting a color, the image format of the image signal output from the camera inside the robot is a format that represents the color as hue (H), saturation (S), and brightness (I) (hereinafter referred to as the HSI format). ) And identifying the color from the hue based on the image signal thus obtained makes it less likely to be affected by changes in the lighting conditions during color identification, which makes it possible to efficiently determine the wrong color identification. It can be avoided well.

(4−2)第4実施例による位置検出システムの構成
図14との対応部分に同一符号を付して示す図17は、第4実施例による位置検出システム90を示すものであり、領域2と、当該領域2の各辺に沿う壁72の各壁面72AA〜72ADとにそれぞれ異なる固有の色が塗られている。
(4-2) Configuration of Position Detection System According to Fourth Embodiment FIG. 17 in which parts corresponding to those in FIG. 14 are assigned the same reference numerals shows a position detection system 90 according to the fourth embodiment. In addition, different unique colors are applied to the wall surfaces 72AA to 72AD of the wall 72 along each side of the region 2.

この場合領域2及び各壁面72AA〜72ADにそれぞれ塗布する色としては、HSI空間において色相が60〔°〕以上離れた5色(例えば、R、Y、G、C及びB)が選定されている。   In this case, five colors (for example, R, Y, G, C, and B) whose hues are separated by 60 [°] or more in the HSI space are selected as colors to be applied to the region 2 and the wall surfaces 72AA to 72AD. .

一方ロボット91においては、第3実施例のロボット71(図14)内に位置検出部80(図15)に代えて図15との対応部分に同一符号を付した図18に示すような位置検出部92が設けられていることを除いてロボット71と同様に構成されている。   On the other hand, in the robot 91, position detection as shown in FIG. 18 is performed by assigning the same reference numerals to the corresponding parts in FIG. 15 instead of the position detection unit 80 (FIG. 15) in the robot 71 (FIG. 14) of the third embodiment. The configuration is the same as that of the robot 71 except that the unit 92 is provided.

この場合位置検出部92には、画像フォーマット変換部93と、壁面72AA〜72ADの数と同数の色抽出部94A〜94Dとが設けられており、画像フォーマット変換部93は、カメラ16から供給される画像信号S1をHSIフォーマットの画像信号S50に変換し、これを各色抽出部94A〜94Dにそれぞれ送出する。   In this case, the position detection unit 92 is provided with an image format conversion unit 93 and the same number of color extraction units 94A to 94D as the number of wall surfaces 72AA to 72AD. The image format conversion unit 93 is supplied from the camera 16. The image signal S1 is converted to an HSI format image signal S50, which is sent to each of the color extraction units 94A to 94D.

各色抽出部94A〜94Dは、それぞれ画像信号S50に含まれる各画素の色相情報に基づいて、図16(B)に示す極座標において指定された色相から所定角度内の色相の画素を抽出すべき色の画素として検出し、当該検出結果に基づいて抽出すべき色の画素に対応する部分が論理論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dを生成し、これを壁検出部81に送出する。なお各色抽出部94A〜94Dは、壁面72AA〜72ADにそれぞれ塗布した複数色の中からそれぞれ互いに異なる所定色の画素を抽出する。   Each of the color extraction units 94A to 94D extracts a pixel having a hue within a predetermined angle from the hue specified in the polar coordinates shown in FIG. 16B based on the hue information of each pixel included in the image signal S50. The portion corresponding to the pixel of the color to be extracted rises to the logical logic “1” level based on the detection result, and the portion corresponding to the pixel of the other color falls to the logical “0” level. The color extraction signals S51A to S51D are generated and sent to the wall detection unit 81. Each of the color extraction units 94A to 94D extracts pixels of predetermined colors different from each other from a plurality of colors applied to the wall surfaces 72AA to 72AD.

この結果図15において上述したように、これら色抽出信号S51A〜S51Dに基づいて、カメラ16で撮像している壁面72AA〜72ADの色と、当該壁面72AA〜72ADの画像内における画素を単位とした高さhpicとが壁検出部81により検出されると共に、当該検出結果に基づいて比較・演算部82により第3実施例の場合と同様にして領域2内における自分の位置が検出され、検出結果が位置検出信号S41としてこのロボット91の行動を司る最上位のCPU36に送出される。   As a result, as described above in FIG. 15, based on these color extraction signals S51A to S51D, the color of the wall surface 72AA to 72AD captured by the camera 16 and the pixels in the image of the wall surface 72AA to 72AD are used as a unit. The height hpic is detected by the wall detector 81, and based on the detection result, the comparison / calculation unit 82 detects its own position in the region 2 in the same manner as in the third embodiment. Is sent as a position detection signal S41 to the uppermost CPU 36 that controls the behavior of the robot 91.

これによりこのロボット91においては、CPU36が位置検出信号S41に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。   As a result, in this robot 91, the CPU 36 can recognize its own position in the area 2 based on the position detection signal S41, and can autonomously take action according to the surrounding situation based on the recognition result. It is made like that.

(4−3)第4実施例の動作及び効果
以上の構成において、この位置検出システム90では、第3実施例の位置検出システム70(図14)と同様に、ロボット91がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面72AA〜72ADの高さHpicとを検出し、これら検出結果と、第1のメモリ83に予め格納されている各壁面72AA〜72ADの色及びIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(4-3) Operation and Effect of Fourth Embodiment In the above configuration, the position detection system 90 outputs the robot 91 from the camera 16 as in the position detection system 70 (FIG. 14) of the third embodiment. Based on the image signal S1, the color of the surrounding first and second wall surfaces 72AA to 72AD and the height Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected. These detection results, the colors and IDs of the wall surfaces 72AA to 72AD stored in advance in the first memory 83, the reference value Hstd stored in advance in the second memory 84, and the third memory 85 Based on the map information stored in advance, the user's position in the area 2 is detected.

従ってこの位置検出システム90によれば、第3実施例の位置検出システム70と同様の作用効果を得ることができる。   Therefore, according to this position detection system 90, the same effect as the position detection system 70 of the third embodiment can be obtained.

これに加えこの位置検出システム90では、壁72の各壁面72AA〜72AD及び領域2にそれぞれ塗布する色として、HSI空間において色相が60〔°〕以上離れた色を用いており、またロボット91の内部処理としてカメラ16から出力される画像信号S1の画像フォーマットをHSIフォーマットに変換した後、色識別を行うようにしているため、各壁面72AA〜72ADに対する照明条件等が変化した場合においてもロボット91内部における色識別時にその影響を受け難くすることができ、かくしてロボット91における色識別の誤判定を効率良く回避することができる。   In addition to this, in this position detection system 90, the colors applied to each of the wall surfaces 72AA to 72AD of the wall 72 and the region 2 are colors whose hues are separated by 60 ° or more in the HSI space. Since the color identification is performed after the image format of the image signal S1 output from the camera 16 is converted to the HSI format as an internal process, the robot 91 can be used even when the illumination conditions for the wall surfaces 72AA to 72AD change. It is possible to make it less susceptible to the influence of color identification inside, and thus it is possible to efficiently avoid erroneous color identification determination in the robot 91.

以上の構成によれば、第3実施例の位置検出システム70(図14)に対し、壁72の各壁面72AA〜72AD及び領域2にそれぞれ塗布する色として、HSI空間において色相が60〔°〕以上離れた色を用いると共に、ロボット91の内部処理としてカメラ61から出力される画像信号S1をHSIフォーマットの画像信号S50に変換した後、当該画像信号S50に基づいて色識別を行うようにしたことにより、ロボット91における色識別の誤判定を効率良く回避することができる。かくするにつきロボット91内部における物体の誤認識を回避し得、かくして領域内における自分の位置をより精度良く検出し得る位置検出システム及びロボット装置を実現できる。   According to the above configuration, with respect to the position detection system 70 (FIG. 14) of the third embodiment, the hue in the HSI space is 60 [°] as the color applied to each of the wall surfaces 72AA to 72AD of the wall 72 and the region 2. In addition to using colors that are separated from each other, the image signal S1 output from the camera 61 as an internal process of the robot 91 is converted into an image signal S50 in the HSI format, and then color identification is performed based on the image signal S50. Accordingly, it is possible to efficiently avoid erroneous determination of color identification in the robot 91. Accordingly, it is possible to realize a position detection system and a robot apparatus that can avoid erroneous recognition of an object inside the robot 91 and thus can detect the position of the user in the area with higher accuracy.

(5)第5実施例
(5−1)第5実施例による位置検出システムの構成
図17との対応部分に同一符号を付して示す図19は、第5実施例による位置検出システム100を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において色相が60〔°〕以上離れた互いに異なる固有の色が塗られている。
(5) Fifth Embodiment (5-1) Configuration of Position Detection System According to Fifth Embodiment FIG. 19 shows the position detection system 100 according to the fifth embodiment shown in FIG. For example, the wall surfaces 72AA to 72AD of the wall 72 are painted with different unique colors whose hues are separated by 60 ° or more in the HSI space.

この場合各壁面72AA〜72ADの色は、図20に示すように、各壁面72AA〜72ADの長手方向の一端が最も低く、当該一端から他端にいくに従って彩度(飽和度)が線形に増加するように、すなわち壁面72AA〜72ADの一端におけるその色の彩度をSmin、他端における彩度をSmax及びその壁面72AA〜72ADの長手方向の長さをMとしたときに、壁面72AA〜72ADの一端から距離xの位置におけるその色の彩度Sが次式 In this case, as shown in FIG. 20, the color of each of the wall surfaces 72AA to 72AD is lowest at one end in the longitudinal direction of each of the wall surfaces 72AA to 72AD, and the saturation (saturation) increases linearly from one end to the other end. That is, when the saturation of the color at one end of the wall surfaces 72AA to 72AD is S min , the saturation at the other end is S max and the length in the longitudinal direction of the wall surfaces 72AA to 72AD is M, the wall surface 72AA The saturation S x of the color at a distance x from one end of 72 AD is

Figure 0003928871
Figure 0003928871

を満足するように塗られている。 Painted to satisfy.

一方ロボット101においては、第4実施例のロボット91(図17)に位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図21に示すような位置検出部102が設けられていることを除いてロボット91と同様に構成されている。   On the other hand, in the robot 101, a position detecting unit as shown in FIG. 21 in which the same reference numerals are assigned to corresponding parts in FIG. 18 instead of the position detecting unit 92 (FIG. 18) in the robot 91 (FIG. 17) of the fourth embodiment. The robot is configured in the same manner as the robot 91 except that 102 is provided.

この場合位置検出部102には、領域2の各辺に沿う壁面72AA〜72ADの数と同数の色抽出部94A〜94Dが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部S51A〜S51Dにそれぞれ送出する。   In this case, the position detection unit 102 is provided with the same number of color extraction units 94A to 94D as the number of wall surfaces 72AA to 72AD along each side of the region 2, and the image format of the image signal S1 output from the camera 16 is changed. After the image format conversion unit 93 converts the image signal into the HSI format, the image signal S50 thus obtained is sent to each of the color extraction units S51A to S51D.

各色抽出部S51A〜S51Dにおいては、それぞれ画像信号S50に基づく画像のなかから所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dをそれぞれ壁検出部103に送出する。   In each of the color extraction units S51A to S51D, a pixel of a predetermined color is extracted from the image based on the image signal S50, and a portion corresponding to the pixel rises to a logical “1” level and corresponds to a pixel of any other color. The color extraction signals S51A to S51D that fall to the logic “0” level are sent to the wall detection unit 103, respectively.

壁検出部103は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S60としてこのロボットの行動を司る最上位のCPU36に与える。   The wall detection unit 103 superimposes and scans images based on the color extraction signals S51A to S51D supplied from the color extraction units 94A to 94D, respectively, so that a substantially horizontal elongated region of the same color is placed on any one of the wall surfaces 72AA to 72AD. And the detection result is given as a wall detection signal S60 to the uppermost CPU 36 that controls the behavior of the robot.

このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラ16の向き(すなわちロボット101の頭部)を左右方向に移動させており、壁検出部103から供給される壁検出信号S60に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわちその壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。   At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 101) in the left-right direction by driving the actuator of the corresponding joint portion, and the wall detection signal S60 supplied from the wall detection unit 103 is detected. Based on this, the wall surface 72AA to 72AD having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surface) 72AA to 72AD is detected, and the upper or lower end in the image of the wall surface 72AA to 72AD is horizontal ( That is, the orientation of the camera 16 is adjusted so that the optical axis of the camera 16 is perpendicular to the wall surfaces 72AA to 72AD.

そしてカメラ16の光軸が最も近い壁面72AA〜72ADに対して垂直に合わせられた状態において、壁検出部103は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づいてその壁面72AA〜72ADの色を検出すると共に、このとき画像フォーマット変換部93から供給される画像信号S50に基づいて、当該画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADに塗布された色の彩度Sを検出し、これら検出したその壁面72AA〜72ADの色と、画像中央部におけるその壁面72AA〜72ADに塗布された色の彩度Sとを色及び彩度検出信号S61として比較・演算部104に送出する。 In the state where the optical axis of the camera 16 is aligned perpendicularly to the closest wall surfaces 72AA to 72AD, the wall detection unit 103 is based on the color extraction signals S51A to S51D respectively supplied from the color extraction units 94A to 94D. The color of the wall surfaces 72AA to 72AD is detected and applied to the wall surfaces 72AA to 72AD at the center of the image based on the image signal S50 based on the image signal S50 supplied from the image format conversion unit 93 at this time. The color saturation Sx is detected, and the detected color of the wall surfaces 72AA to 72AD and the saturation Sx of the color applied to the wall surfaces 72AA to 72AD in the center of the image are detected as the color and saturation detection signal S61. To the comparison / calculation unit 104.

比較・演算部104は、色及び彩度検出信号S61に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ105に予め格納されている各壁面72AA〜72ADの色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。   The comparison / calculation unit 104 is a table regarding the colors of the wall surfaces 72AA to 72AD obtained based on the color and saturation detection signal S61, the colors of the wall surfaces 72AA to 72AD stored in the first memory 105, and their IDs. And the IDs of the wall surfaces 72AA to 72AD are detected.

また比較・演算部104は、色及び彩度信号S61に基づき得られる画像中央部におけるその壁面72AA〜72ADの彩度Sと、予め第2のメモリ106に格納されている各壁面72AA〜72ADの一端及び他端における各彩度Smin、Smax並びに各壁面72AA〜72ADの長さMとに基づいて(3)式を逆算することによりその壁面72AA〜72ADと平行な方向における自分の位置を検出する。 The comparison and calculation unit 104, and saturation S x of the wall 72AA~72AD in the image central portion obtained based on the color and the saturation signal S61, the wall surfaces are previously stored in the second memory 106 72AA~72AD By calculating backwardly the equation (3) based on the saturation S min and S max at one end and the other end of the S and the length M of each of the wall surfaces 72AA to 72AD, the user's position in the direction parallel to the wall surfaces 72AA to 72AD Is detected.

さらに比較・演算部105は、この後CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。   Further, the comparison / calculation unit 105 then rotates the camera 16 by 90 [°] under the control of the CPU 36, and the wall surface is different from the wall surfaces 72AA to 72AD (hereinafter referred to as the first wall surfaces 72AA to 72AD). 72AA to 72AD (hereinafter referred to as second wall surfaces 72AA to 72AD), and then the same processing is performed to execute the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AA. It detects its position in a direction parallel to 72AD.

さらに比較・演算部104は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ107に予め格納されている各壁面72AA〜72ADの位置を含む領域2の地図情報とに基づいて領域内における自分の位置を検出し、検出結果を位置検出信号S62としてCPU36に送出する。   Further, the comparison / calculation unit 104 then obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second wall surfaces 72AA to 72AA. Based on the ID of 72AD and the position in the direction parallel to the second wall surfaces 72AA to 72AD and the map information of the region 2 including the positions of the wall surfaces 72AA to 72AD stored in advance in the third memory 107 The position of itself is detected, and the detection result is sent to the CPU 36 as a position detection signal S62.

これによりこのロボット101においては、CPU36が位置検出信号S62に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。   As a result, in this robot 101, the CPU 36 can recognize its own position in the region 2 based on the position detection signal S62, and can autonomously take action according to the surrounding situation based on the recognition result. It is made like that.

(5−2)第5実施例の動作及び効果
以上の構成において、この位置検出システム100では、ロボット101がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、これら色の画像信号S1に基づく画像の中央部における彩度Sとを検出し、これら検出結果と、第1のメモリ105に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ106に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における色の彩度Smin、Smaxと、第3のメモリ107に格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(5-2) Operation and Effect of Fifth Embodiment In the above configuration, in the position detection system 100, the robot 101 is based on the image signal S1 output from the camera 16 and the surrounding first and second wall surfaces 72AA. ˜72AD and the saturation Sx at the center of the image based on the image signal S1 of these colors are detected, and these detection results and the colors of the wall surfaces 72AA to 72AD stored in the first memory 105 are detected. And the ID thereof, the length M of each of the wall surfaces 72AA to 72AD stored in the second memory 106, and the color saturation S min and S max at one end and the other end of each of the wall surfaces 72AA to 72AD, Based on the map information stored in the memory 107, the user's position in the area 2 is detected.

従ってこの位置検出システム100では、ロボット101が2つの壁面72AA〜72ADの色及びこれら色の彩度の変化に基づいて領域2内における自分の位置を容易かつ精度良く認識することができる。   Therefore, in this position detection system 100, the robot 101 can easily and accurately recognize its own position in the region 2 based on the change in the color of the two wall surfaces 72AA to 72AD and the saturation of these colors.

またこの位置検出システム100では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を水平方向の彩度を変化させて塗布するだけで良いため、極めて簡単にシステムを構築することができる。   Further, in this position detection system 100, it is only necessary to apply different colors to the wall surfaces 72AA to 72AD arranged along each side of the region 2 while changing the saturation in the horizontal direction. Can be built.

さらにこの位置検出システム100では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域の床面に信号発生機を設置する必要がないため、ロボット101の行動を妨げるおそれもない。   Furthermore, since this position detection system 100 does not use a method for transmitting a special signal such as a radio wave, the position detection system 100 can be used without considering the influence on peripheral devices, radio wave regulations, and the like. Since there is no need to install a signal generator, there is no possibility of disturbing the behavior of the robot 101.

さらにこの位置検出システム100では、ロボット101の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。   Furthermore, since this position detection system 100 is not a method of writing symbols, signs, etc. on the floor surface of the action area 2 of the robot 101, the floor surface can be painted for other purposes.

さらにこの位置検出システム100では、ロボット101のカメラ16をおおよそ水平方向に向けることによって当該ロボット101の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット101が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。   Furthermore, in this position detection system 100, since the camera 16 of the robot 101 is oriented approximately horizontally, the wall surfaces 72AA to 72AD in front of the robot 101 can be imaged by the camera 16, so There is no need to point the camera 16 in a predetermined direction in order to detect the position of the camera, and there is an advantage that it is possible to detect its own position in the region 2 while capturing other robots with the camera 16.

以上の構成によれば、各壁面72AA〜72ADに互いに異なる色を水平方向に彩度を変化させてそれぞれ塗布すると共に、ロボット102が2つの壁面72AA〜72ADの色と、これら壁面72AA〜72ADを垂直に撮像した場合におけるその色の画像中央部での彩度Sとをそれぞれ検出し、当該検出結果と、第1のメモリ105に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ106に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における色の彩度Smin、Smaxと、第3のメモリ107に格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット101が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。 According to the above configuration, different colors are applied to the respective wall surfaces 72AA to 72AD while changing the saturation in the horizontal direction, and the robot 102 applies the colors of the two wall surfaces 72AA to 72AD and these wall surfaces 72AA to 72AD. When the image is captured vertically, the saturation Sx at the center of the image of the color is detected, and the detection result, the color of each of the wall surfaces 72AA to 72AD stored in the first memory 105, and its ID , The length M of each of the wall surfaces 72AA to 72AD stored in the second memory 106, and the color saturations S min and S max at one end and the other end of each of the wall surfaces 72AA to 72AD, and the third memory 107 Since the robot 101 detects its own position in the area 2 based on the map information that has been recorded, the robot 101 can detect its position in the area 2. It is possible to realize a position detection system and a robot that can detect the position with high accuracy and thus can detect the position of the user in the region 2 with high accuracy.

(6)第6実施例
(6−1)第6実施例による位置検出システムの構成
図19との対応部分に同一符号を付して示す図22は、第6実施例による位置検出システム110を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において色相が60〔°〕以上離れた互いに異なる固有の色が塗布されている。
(6) Sixth Embodiment (6-1) Configuration of Position Detection System According to Sixth Embodiment FIG. 22 showing the same reference numerals in FIG. 19 corresponding to those in FIG. 19 shows a position detection system 110 according to the sixth embodiment. For example, different unique colors whose hues are separated by 60 ° or more in the HSI space are applied to the wall surfaces 72AA to 72AD of the wall 72, respectively.

またこれら各壁面72AA〜72ADには、一端の下端近傍から他端の上端近傍に至るように、HSI空間において各壁面72AA〜72ADに塗布された各色の色相と60〔°〕以上はなれた色を用いて斜線102が表記されている。   Each of the wall surfaces 72AA to 72AD has a color separated from the hue of each color applied to each of the wall surfaces 72AA to 72AD in the HSI space by 60 [°] or more from the vicinity of the lower end of one end to the vicinity of the upper end of the other end. A hatched line 102 is used.

一方ロボット111においては、第4実施例のロボット91(図17)に、位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図24に示すような位置検出部113が設けられていることを除いてロボット91と同様に構成されている。   On the other hand, in the robot 111, the position detection as shown in FIG. 24 is performed by assigning the same reference numerals to the robot 91 (FIG. 17) of the fourth embodiment in place of the position detection unit 92 (FIG. 18). The configuration is the same as that of the robot 91 except that the unit 113 is provided.

この場合位置検出部113には、領域2の各辺に沿う壁面72AA〜72ADの数よりも1つ多い数の色抽出部94A〜94Eが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部94A〜94Eにそれぞれ送出する。   In this case, the position detection unit 113 is provided with one more color extraction units 94A to 94E than the number of wall surfaces 72AA to 72AD along each side of the region 2, and the image signal S1 output from the camera 16 is provided. After the image format is converted into the HSI format by the image format conversion unit 93, the image signal S50 thus obtained is sent to each of the color extraction units 94A to 94E.

各色抽出部94A〜94Eにおいては、画像信号S50に基づく画像のなかからそれぞれ対応する所定色の画素を抽出し、当該画素に対応する部分が論理「1」レベルに立ち上がり、これ以外の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Eをそれぞれ壁検出部114に送出する。なお各色抽出部114は、各壁面72AA〜72ADに塗布された色及び斜線112の色の中からそれぞれ互いに異なる色の画素を抽出する。   In each of the color extraction units 94A to 94E, a pixel of a predetermined color corresponding to each of the images based on the image signal S50 is extracted, and a portion corresponding to the pixel rises to a logic “1” level. The color extraction signals S51A to S51E in which the portion corresponding to falls to the logic “0” level are sent to the wall detection unit 114, respectively. Each color extraction unit 114 extracts pixels having different colors from the color applied to each of the wall surfaces 72AA to 72AD and the shaded line 112.

壁検出部114は、各色抽出部94A〜94Eからそれぞれ供給される色抽出信号S51A〜S51Eに基づく画像を重ね合わせて走査することにより、ほぼ水平な同色の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S60としてこのロボット111の行動を司る最上位のCPU36に与える。   The wall detection unit 114 superimposes and scans images based on the color extraction signals S51A to S51E supplied from the color extraction units 94A to 94E, respectively, so that one of the wall surfaces 72AA to 72AD is aligned with a substantially horizontal, elongated region of the same color. And the detection result is given as a wall detection signal S60 to the uppermost CPU 36 that controls the behavior of the robot 111.

このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラ16の向き(すなわちロボット111の頭部)を左右方向に移動させており、壁検出部114から供給される壁検出信号S60に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわち最も近い壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。   At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 111) in the left-right direction by driving the actuators of the corresponding joints, and the wall detection signal S60 supplied from the wall detection unit 114 is detected. Based on this, the wall surface 72AA to 72AD having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surface) 72AA to 72AD is detected, and the upper or lower end in the image of the wall surface 72AA to 72AD is horizontal ( That is, the orientation of the camera 16 is adjusted so that the optical axis of the camera 16 is perpendicular to the nearest wall surfaces 72AA to 72AD.

そしてカメラ16の光軸が最も近い壁面72AA〜72ADに対して垂直に合わせられた状態において壁検出部114は、画像中央部におけるその壁面72AA〜72ADの斜線112よりも上部分の縦方向の長さUと、斜線112よりも下部分の長さLとをそれぞれ画素を単位として検出し、これら検出したその壁面72AA〜72ADの斜線112よりも上部分の長さU及び下部分の長さLと、その壁面72AA〜72ADの色とを色及び長さ検出信号S70として比較・演算部115に送出する。 In the state in which the optical axis of the camera 16 is aligned perpendicularly to the nearest wall surfaces 72AA to 72AD, the wall detection unit 114 is longer in the vertical direction in the upper part than the oblique line 112 of the wall surfaces 72AA to 72AD in the center of the image. The length U x and the length L x below the oblique line 112 are detected in units of pixels, and the detected length U x and the lower part of the wall portion 72AA to 72AD above the oblique line 112 are detected. a length L x, and sends the comparison and calculation section 115 and the color of the walls 72AA~72AD as the color and length detection signal S70.

比較・演算部115は、色及び長さ検出信号S70に基づき得られるその壁面72AA〜72ADの色と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。   The comparison / calculation unit 115 is a table relating to the color of the wall surfaces 72AA to 72AD obtained based on the color and length detection signal S70, the color of each wall surface 72AA to 72AD stored in the first memory 116 and the ID thereof. And the IDs of the wall surfaces 72AA to 72AD are detected.

また比較・演算部115は、色及び長さ検出信号S70に基づき得られるその壁面72AA〜72ADの斜線112よりも上部分の長さU及び下部分の長さLとに基づいて次式 The comparison and calculation unit 115, the color and length detection signal obtained based on the S70 than hatching 112 in the wall 72AA~72AD based on the length L x of length U x and the lower portion of the upper part following formula

Figure 0003928871
Figure 0003928871

で与えられる演算を実行することにより、画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さ(=U+L)に対する斜線112よりも上部分の縦方向の長さUの比率Rx1を算出する。 The vertical length U x of the portion above the oblique line 112 with respect to the height (= U x + L x ) of the wall surfaces 72AA to 72AD at the center of the image based on the image signal S50 to calculate the ratio of R x1.

そして比較・演算部115は、この演算結果と、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM、各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の縦方向の長さの比率Ra1及び各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Rb1とに基づいて、次式 The comparison / calculation unit 115 then calculates the calculation result, the length M of each of the wall surfaces 72AA to 72AD stored in advance in the second memory 117, and the height of the wall surfaces 72AA to 72AD at one end of each of the wall surfaces 72AA to 72AD. The ratio R a1 of the length in the vertical direction of the portion above the oblique line 112 to the height R and the ratio R b1 of the length of the portion above the oblique line 112 to the height of the wall surface 72AA to 72AD at the other end of each wall surface 72AA to 72AD Based on

Figure 0003928871
Figure 0003928871

で与えられる演算を実行することにより、その壁面72AA〜72ADの一端からその壁面72AA〜72ADの画像中央部に撮像されている部分までの距離x(その壁面72AA〜72ADと平行な方向における当該壁面72AA〜72ADの一端からロボット111までの距離に相当)を算出する。 The distance x from the one end of the wall surfaces 72AA to 72AD to the portion imaged at the center of the image of the wall surfaces 72AA to 72AD (the wall surface in a direction parallel to the wall surfaces 72AA to 72AD) 72AA to 72AD) (corresponding to the distance from the robot 111 to one end).

なお各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Ra1は、図23に示すように、それぞれその壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの斜線112よりも上部分の長さをUa1とし、斜線112よりも下部分の長さをLa1として次式 It should be noted that the ratio R a1 of the length of the portion above the oblique line 112 to the height of the wall surfaces 72AA to 72AD at one end of each wall surface 72AA to 72AD is that at one end of each of the wall surfaces 72AA to 72AD, as shown in FIG. than hatching 112 wall 72AA~72AD the length of the upper part and U a1, the following equation the length of the lower part as L a1 than hatching 112

Figure 0003928871
Figure 0003928871

により与えられ、各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さの比率Rb1は、その壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの斜線112よりも上部分の長さをUb1とし、斜線よりも下部分の長さをLb1として次式 Given by the ratio R b1 of the length of the upper part than the hatched 112 to the height of the wall 72AA~72AD at the other end of each wall 72AA~72AD, the wall 72AA~ at the other end of the wall surface 72AA~72AD The length of the upper part of the 72AD diagonal line 112 is U b1, and the length of the lower part of the diagonal line is L b1.

Figure 0003928871
Figure 0003928871

により与えられる。 Given by.

さらに比較・演算部115は、この後CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。   Further, the comparison / calculation unit 115 then rotates the camera 16 by 90 [°] under the control of the CPU 36, so that the wall surface is different from the wall surfaces 72AA to 72AD (hereinafter referred to as the first wall surfaces 72AA to 72AD). 72AA to 72AD (hereinafter referred to as second wall surfaces 72AA to 72AD), and then the same processing is performed to execute the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AA. It detects its position in a direction parallel to 72AD.

さらに比較・演算部115は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ118に予め格納されている各壁面72AA〜72ADの位置を含む領域の地図情報とに基づいて領域2内における自分の位置を検出し、検出結果を位置検出信号S71としてCPU36に送出する。   Further, the comparison / calculation unit 115 then obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second wall surfaces 72AA to 72AA. Based on the ID of 72AD and the position in the direction parallel to the second wall surfaces 72AA to 72AD, and the map information of the region including the position of each wall surface 72AA to 72AD stored in advance in the third memory 118 The position of itself is detected, and the detection result is sent to the CPU 36 as a position detection signal S71.

これによりこのロボット111においては、CPU36が位置検出信号S71に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。   As a result, in this robot 111, the CPU 36 can recognize its own position in the region 2 based on the position detection signal S71, and can automatically take action according to the surrounding situation based on the recognition result. It is made like that.

(6−2)第6実施例の動作及び効果
以上の構成において、この位置検出システム110では、ロボット111がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの各色と、当該画像信号S1に基づく画像中央部おけるこれら各壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUの比率Rx1とをそれぞれ検出し、これら検出結果と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ118に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(6-2) Operation and Effect of Sixth Example In the above configuration, in the position detection system 110, the robot 111 is based on the image signal S1 output from the camera 16 and the surrounding first and second wall surfaces 72AA. ˜72AD and the ratio R x1 of the length U x of the portion above the oblique line 112 with respect to the height of each of the wall surfaces 72AA to 72AD in the center of the image based on the image signal S1, and the detection results The color and the ID of each wall surface 72AA to 72AD stored in advance in the first memory 116, the length M of each wall surface 72AA to 72AD stored in advance in the second memory 117, and the wall surfaces 72AA to 72AA. the length of the upper part than the hatched 112 to the height of the wall 72AA~72AD at one end and the other end of 72AD U a1, the ratio of U b1 R a 1 and R b1 and the map information stored in advance in the third memory 118 to detect its own position in the area 2.

従ってこの位置検出システム110では、2つの壁面72AA〜72ADの色及びこれら壁面72AA〜72ADに表記された斜線112に基づいてロボット111が領域2内における自分の位置を容易かつ精度良く認識することができる。   Therefore, in this position detection system 110, the robot 111 can easily and accurately recognize its own position in the area 2 based on the colors of the two wall surfaces 72AA to 72AD and the oblique lines 112 written on these wall surfaces 72AA to 72AD. it can.

またこの位置検出システム110では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色を塗布すると共に、斜線112を表記するだけで良いため、極めて簡単にシステムを構築することができる。   In addition, in this position detection system 110, it is only necessary to apply different colors to the wall surfaces 72AA to 72AD arranged along each side of the region 2 and to indicate the oblique lines 112, so that the system can be constructed very easily. can do.

さらにこの位置検出システム110では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域2の床面に信号発生機を設置する必要がないため、ロボット111の行動を妨げるおそれもない。   Further, since the position detection system 110 does not use a method of transmitting a special signal such as a radio wave, the position detection system 110 can be used without considering the influence on peripheral devices, radio wave regulations, etc. Since it is not necessary to install a signal generator on the surface, there is no possibility of hindering the behavior of the robot 111.

さらにこの位置検出システム110では、ロボット111の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。   Furthermore, since this position detection system 110 is not a method of writing symbols, signs, etc. on the floor surface of the action area 2 of the robot 111, the floor surface can be painted for other purposes.

さらにこの位置検出システム110では、ロボット111のカメラ16をおおよそ水平方向に向けることによって当該ロボット111の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット111が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。   Further, in this position detection system 110, since the camera 16 of the robot 111 is oriented approximately in the horizontal direction, the front wall surfaces 72AA to 72AD of the robot 111 can be imaged by the camera 16, so There is no need to point the camera 16 in a predetermined direction in order to detect the position of the camera, and there is an advantage that it is possible to detect its own position in the region 2 while capturing other robots with the camera 16.

以上の構成によれば、各壁面72AA〜72ADに互いに異なる色を塗布すると共に、これら各壁面72AA〜72ADに斜線112を表記する一方、ロボット111が2つの壁面72AA〜72ADの色と、これら壁面72AA〜72ADを垂直に撮像した場合における画像中央部での斜線112よりも上部分の縦方向の長さUの比率Rx1とをそれぞれ検出し、これら検出結果と、第1のメモリ116に予め格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ117に予め格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分の長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ118に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット111が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。 According to the above configuration, different colors are applied to the respective wall surfaces 72AA to 72AD, and the diagonal lines 112 are written on the respective wall surfaces 72AA to 72AD, while the robot 111 has the colors of the two wall surfaces 72AA to 72AD and the wall surfaces. When the vertical images of 72AA to 72AD are captured, the ratio R x1 of the longitudinal length U x above the oblique line 112 at the center of the image is detected, and these detection results and the first memory 116 are detected. The color and the ID of each wall surface 72AA to 72AD stored in advance, the length M of each wall surface 72AA to 72AD stored in advance in the second memory 117, and the one at the one end and the other end of each wall surface 72AA to 72AD the ratio R a1, R b1 of the upper part of the length U a1, U b1 than hatching 112 to the height of the wall 72AA~72AD, the By detecting the position of the robot in the area 2 based on the map information stored in advance in the memory 118, the robot 111 can accurately detect the position of the robot in the area 2, Thus, a position detection system and a robot that can accurately detect the position of the user in the area 2 can be realized.

(7)第7実施例
(7−1)第7実施例による位置検出システムの構成
図14との対応部分に同一符号を付して示す図25は、第7実施例による位置検出システム120を示すものであり、壁72の各壁面72AA〜72ADにそれぞれHSI空間において60〔°〕以上離れた互いに異なる色相の色が割り当てられている。
(7) Seventh Embodiment (7-1) Configuration of Position Detection System According to Seventh Embodiment FIG. 25, in which parts corresponding to those in FIG. 14 are assigned the same reference numerals, shows a position detection system 120 according to the seventh embodiment. For example, colors of different hues separated by 60 [°] or more in the HSI space are assigned to the wall surfaces 72AA to 72AD of the wall 72, respectively.

すなわち各壁面72AA〜72ADには、図26に示すように、それぞれ長手方向の一端の下端近傍から他端の上端部近傍に至る仮想線K1を境として、各壁面72AA〜72ADの仮想線K1よりも上部分に所定の色相で彩度の大きい色が塗布され、仮想線K1よりも下部分に上部分と同じ色相で彩度の小さい色が塗布されている。   That is, as shown in FIG. 26, each of the wall surfaces 72AA to 72AD has a virtual line K1 extending from the vicinity of the lower end of one end in the longitudinal direction to the vicinity of the upper end portion of the other end as a boundary from the virtual line K1 of each wall surface 72AA to 72AD. Also, a color with a high hue and a predetermined hue is applied to the upper part, and a color with a low saturation and the same hue as the upper part is applied to the lower part of the virtual line K1.

一方ロボット121においては、第4実施例のロボット91(図17)に、位置検出部92(図18)に代えて図18との対応部分に同一符号を付した図27に示すような位置検出部122が設けられていることを除いてロボット91と同様に構成されている。   On the other hand, in the robot 121, the position detection as shown in FIG. 27, in which the same reference numerals are given to the corresponding parts in FIG. 18 instead of the position detection unit 92 (FIG. 18) in the robot 91 (FIG. 17) of the fourth embodiment. The configuration is the same as that of the robot 91 except that the unit 122 is provided.

この場合位置検出部122には、領域2の各辺に沿う壁面72AA〜72ADの数と同じ数の色抽出部94A〜94Dが設けられており、カメラ16から出力される画像信号S1の画像フォーマットを画像フォーマット変換部93においてHSIフォーマットに変換した後、かくして得られた画像信号S50を各色抽出部94A〜94D及び壁検出部123にそれぞれ送出する。   In this case, the position detection unit 122 is provided with the same number of color extraction units 94A to 94D as the number of wall surfaces 72AA to 72AD along each side of the region 2, and the image format of the image signal S1 output from the camera 16 is provided. Is converted into the HSI format by the image format conversion unit 93, and the image signal S50 thus obtained is sent to the color extraction units 94A to 94D and the wall detection unit 123, respectively.

各色抽出部94A〜94Dは、上述のように、画像信号S50に含まれる各画素の色相情報に基づいて、図16(B)に示す極座標において指定された色相から所定角度内の色相の画素を抽出すべき色の画素として検出し、当該検出結果に基づいて抽出すべき色の画素に対応する部分が論理「1」レベルに立ち上がり、他の色の画素に対応する部分が論理「0」レベルに立ち下がった色抽出信号S51A〜S51Dを生成し、これを壁検出部123に送出する。   As described above, each of the color extraction units 94A to 94D selects pixels having a hue within a predetermined angle from the hue specified in the polar coordinates shown in FIG. 16B based on the hue information of each pixel included in the image signal S50. A portion corresponding to a pixel of a color to be detected is detected as a pixel of a color to be extracted and based on the detection result, and a portion corresponding to a pixel of another color rises to a logic “0” level. The color extraction signals S51A to S51D that fall on are generated and sent to the wall detection unit 123.

また壁検出部123は、各色抽出部94A〜94Dからそれぞれ供給される色抽出信号S51A〜S51Dに基づく画像を重ね合わせて走査することにより、ほぼ水平な同じ色相の細長い領域をいずれかの壁面72AA〜72ADとして検出し、検出結果を壁検出信号S80としてこのロボット121の行動を司る最上位のCPU36に与える。   The wall detection unit 123 also superimposes and scans images based on the color extraction signals S51A to S51D respectively supplied from the color extraction units 94A to 94D, so that a substantially horizontal elongated region having the same hue is set to any one of the wall surfaces 72AA. ˜72AD, and the detection result is given as a wall detection signal S80 to the uppermost CPU 36 that controls the action of the robot 121.

このときCPU36は、対応する関節部のアクチュエータを駆動させることによりカメラの向き(すなわちロボットの頭部)を左右方向に移動させており、壁検出部123から供給される壁検出信号S80に基づいて、画像信号S50に基づく画像内において最も画素数の多い壁面(すなわち最も近い壁面)72AA〜72ADを検出すると共に、当該壁面72AA〜72ADの画像内における上端又は下端が水平となるように(すなわち当該壁面72AA〜72ADに対してカメラ16の光軸が垂直となるように)カメラ16の向きを調整する。   At this time, the CPU 36 moves the direction of the camera (that is, the head of the robot) in the left-right direction by driving the actuator of the corresponding joint, and based on the wall detection signal S80 supplied from the wall detection unit 123. The wall surfaces 72AA to 72AD having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surfaces) 72AA to 72AD are detected, and the upper or lower ends in the images of the wall surfaces 72AA to 72AD are horizontal (that is, The orientation of the camera 16 is adjusted so that the optical axis of the camera 16 is perpendicular to the wall surfaces 72AA to 72AD.

そしてカメラ16の光軸が最も近い壁面72AA〜72ADに垂直に向けられた状態において壁検出部123は、各色抽出部94A〜94Dから与えられる色抽出信号S51A〜S51Dと、画像フォーマット変換部93から与えられる画像信号S50に含まれる各画素の彩度情報とに基づいて、画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの彩度の大きい方の色が塗布された部分(すなわち仮想線K1よりも上部分、以下、これを壁面72AA〜72ADの高彩度部分と呼ぶ)の縦方向の長さH(図26)と、画像中央部におけるその壁面72AA〜72ADの彩度の小さい方の色が塗布された部分(すなわち仮想線K1よりも下部分、以下、これを壁面72AA〜72ADの低彩度部分と呼ぶ)の縦方向の長さL(図26)とをそれぞれ画素を単位として検出し、これら検出した壁面72AA〜72ADの高彩度部分の長さH、その壁面72AA〜72ADの低彩度部分の長さL及びその壁面72AA〜72ADの色相とを壁面検出信号S81として比較・演算部124に送出する。 Then, in a state where the optical axis of the camera 16 is oriented perpendicularly to the closest wall surfaces 72AA to 72AD, the wall detection unit 123 receives the color extraction signals S51A to S51D given from the color extraction units 94A to 94D and the image format conversion unit 93. Based on the saturation information of each pixel included in the given image signal S50, a portion to which the color having the higher saturation of the wall surfaces 72AA to 72AD in the central portion of the image based on the image signal S50 is applied (ie, virtual The portion above the line K1, hereinafter referred to as the high saturation portion of the wall surfaces 72AA to 72AD) in the vertical direction H x (FIG. 26) and the smaller one of the saturation of the wall surfaces 72AA to 72AD at the center of the image Of the portion to which the color is applied (that is, the portion below the imaginary line K1, hereinafter referred to as the low saturation portion of the wall surfaces 72AA to 72AD) Length L x (Fig. 26) and the respectively detected pixels as a unit, the length H x of the high saturation of these detected walls 72AA~72AD length L x of the low chroma portion of the wall surface 72AA~72AD The hues of the wall surfaces 72AA to 72AD are sent to the comparison / calculation unit 124 as a wall surface detection signal S81.

比較・演算部124は、壁面検出信号S81に基づき得られるその壁面72AA〜72ADの色相と、第1のメモリ125に予め格納されている各壁面72AA〜72ADの色相及びそのIDに関するテーブルとに基づいて、その壁面72AA〜72ADのIDを検出する。   The comparison / calculation unit 124 is based on the hues of the wall surfaces 72AA to 72AD obtained based on the wall surface detection signal S81, and the hue and the IDs of the wall surfaces 72AA to 72AD stored in the first memory 125 in advance. Then, the IDs of the wall surfaces 72AA to 72AD are detected.

また比較・演算部124は、壁面検出信号S81に基づき得られる画像中央部におけるその壁面72AA〜72ADの高彩度部分及び低彩度部分の各長さH、Lとに基づいて次式 The comparison and calculation unit 124, the lengths H x of the high saturation portions and low chroma portion of the wall surface 72AA~72AD in the image central portion obtained on the basis of a wall surface detection signal S81, on the basis of the L x following formula

Figure 0003928871
Figure 0003928871

で与えられる演算を実行すると共に、かくして算出された画像中央部におけるその壁面の高さに対する高彩度部分の縦方向の長さの比率Rx2と、第2のメモリ126に予め格納されている各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Ra2、各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Rb2及び各壁面72AA〜72ADの長さMとに基づいて、次式 The ratio R x2 of the vertical length of the high saturation portion with respect to the height of the wall surface at the center portion of the image calculated in this way, and each wall surface stored in advance in the second memory 126 The ratio R a2 of the length of the high saturation portion to the height of the wall surfaces 72AA to 72AD at one end of 72AA to 72AD, and the ratio of the length of the high saturation portion to the height of the wall surfaces 72AA to 72AD at the other end of each wall surface 72AA to 72AD based on the length of R b2 and each wall 72AA~72AD M, the following equation

Figure 0003928871
Figure 0003928871

で与えられる演算を実行することにより、その壁面72AA〜72ADの一端からその壁面72AA〜72ADの画像中央部に撮像されている部分までの距離x(その壁面72AA〜72ADと平行な方向における当該壁面72AA〜72ADの一端からロボット121までの距離に相当)を算出する。 The distance x from the one end of the wall surfaces 72AA to 72AD to the portion imaged at the center of the image of the wall surfaces 72AA to 72AD (the wall surface in a direction parallel to the wall surfaces 72AA to 72AD) 72AA to 72AD) (corresponding to the distance from the robot 121 to one end).

なお各壁面72AA〜72ADの一端におけるその壁面72AA〜72ADの高さに対する高彩度部分の縦方向の長さの比率Ra2は、図26に示すように、その壁面72AA〜72ADの一端における高彩度部分の長さをHa2とし、低彩度部分の長さをLa2として次式 The ratio R a2 of the longitudinal length of the high saturation portion to the height of the wall surfaces 72AA to 72AD at one end of each of the wall surfaces 72AA to 72AD is as shown in FIG. Assuming that the length is H a2 and the length of the low saturation portion is La2 ,

Figure 0003928871
Figure 0003928871

により与えられる。また各壁面72AA〜72ADの他端におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さの比率Rb2は、その壁面72AA〜72ADの他端における高彩度部分の長さをHb2とし、低彩度部分の長さをLb2として次式 Given by. Further, the ratio R b2 of the length of the high saturation portion to the height of the wall surface 72AA to 72AD at the other end of each wall surface 72AA to 72AD is set to H b2 with the length of the high saturation portion at the other end of the wall surface 72AA to 72AD being low. The length of the saturation part is L b2 and the following formula

Figure 0003928871
Figure 0003928871

により与えられる。 Given by.

さらにこの後比較・演算部124は、CPU36の制御のもとにカメラ16が90〔°〕回転されてその壁面72AA〜72AD(以下、これを第1の壁面72AA〜72ADと呼ぶ)と異なる壁面72AA〜72AD(以下、これを第2の壁面72AA〜72ADと呼ぶ)に向けられた後、同様の処理を実行することにより第2の壁面72AA〜72ADのIDと、当該第2の壁面72AA〜72ADと平行な方向における自分の位置とを検出する。   Thereafter, the comparison / calculation unit 124 is different from the wall surfaces 72AA to 72AD (hereinafter referred to as the first wall surfaces 72AA to 72AD) when the camera 16 is rotated by 90 [°] under the control of the CPU 36. 72AA to 72AD (hereinafter referred to as second wall surfaces 72AA to 72AD), and then the same processing is performed to execute the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AA. It detects its position in a direction parallel to 72AD.

さらに比較・演算部124は、この後上述のようにして得られた第1の壁面72AA〜72ADのID及び当該第1の壁面72AA〜72ADと平行な方向における位置と、第2の壁面72AA〜72ADのID及び当該第2の壁面72AA〜72ADと平行な方向における位置と、第3のメモリ127に予め格納されている各壁面72AA〜72ADの位置を含む領域の地図情報とに基づいて領域2内における自分の位置を検出し、検出結果を位置検出信号S82としてCPU36に送出する。   Further, the comparison / calculation unit 124 then obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second wall surfaces 72AA to 72AA. Based on the ID of 72AD and the position in the direction parallel to the second wall surfaces 72AA to 72AD and the map information of the region including the positions of the wall surfaces 72AA to 72AD stored in advance in the third memory 127 The position of itself is detected, and the detection result is sent to the CPU 36 as a position detection signal S82.

これによりこのロボット121においては、CPU36が位置検出信号S82に基づいて領域2内における自分の位置を認識し得、当該認識結果に基づいて周囲の状況に応じた行動を自律的にとることができるようになされている。   As a result, in this robot 121, the CPU 36 can recognize its own position in the region 2 based on the position detection signal S82, and can automatically take action according to the surrounding situation based on the recognition result. It is made like that.

(7−2)第7実施例の動作及び効果
以上の構成において、この位置検出システム120では、ロボット121がカメラ16から出力される画像信号S1に基づいて周囲の第1及び第2の壁面72AA〜72ADの色と、画像信号S1に基づく画像の中央部おけるこれら各壁面72AA〜72Dの高さに対する高彩度部分の長さHの比率Rx2とを検出し、これら検出結果と、第1のメモリ125に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ126に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における壁面72AA〜72ADの高さに対する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ127に格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(7-2) Operation and Effect of Seventh Example In the above configuration, in the position detection system 120, the robot 121 is based on the image signal S1 output from the camera 16, and the surrounding first and second wall surfaces 72AA. ˜72AD and a ratio R x2 of the length H x of the high saturation portion to the height of each of the wall surfaces 72AA to 72D in the center portion of the image based on the image signal S1, and the detection result and the first The color and the ID of each wall surface 72AA to 72AD stored in the memory 125, the length M of each wall surface 72AA to 72AD stored in the second memory 126, and one end and the other end of each wall surface 72AA to 72AD high saturation portion with respect to the height of the wall 72AA~72AD the ratio R a2, R b2 length H a2, H b2, are stored in the third memory 127 To detect its own position within the region 2 on the basis of the FIG information.

従ってこの位置検出システム120では、2つの壁面72AA〜72ADの色相と、これら壁面72AA〜72ADの高彩度部分とに基づいてロボット121が領域2内における自分の位置を容易かつ精度良く認識することができる。   Therefore, in this position detection system 120, the robot 121 can easily and accurately recognize its own position in the region 2 based on the hues of the two wall surfaces 72AA to 72AD and the high saturation portions of these wall surfaces 72AA to 72AD. .

またこの位置検出システム120では、領域2の各辺に沿って配置された各壁面72AA〜72ADにそれぞれ互いに異なる色相で、かつ彩度の大きく異なる2色を所定パターンで塗布するだけで良いため、極めて簡単にシステムを構築することができる。   Further, in this position detection system 120, it is only necessary to apply two colors having different hues and greatly different saturations to each of the wall surfaces 72AA to 72AD arranged along each side of the region 2 in a predetermined pattern. A system can be constructed very easily.

さらにこの位置検出システム120では、電波などの特別な信号を発信する方法を使用していないため、周辺機器への影響や電波法規などを考慮することなく使用することができると共に、領域2の床面に信号発生機を設置する必要がないため、ロボット121の行動を妨げるおそれもない。   Further, since the position detection system 120 does not use a method of transmitting a special signal such as a radio wave, the position detection system 120 can be used without considering the influence on peripheral devices, radio wave regulations, and the like. Since it is not necessary to install a signal generator on the surface, there is no possibility of hindering the behavior of the robot 121.

さらにこの位置検出システム120では、ロボット121の行動領域2の床面に記号や標識等を表記する方式ではないため、他の目的のために床面にペイントなどを施すこともできる。   Furthermore, since this position detection system 120 is not a method of writing symbols, signs, or the like on the floor surface of the action area 2 of the robot 121, the floor surface can be painted for other purposes.

さらにこの位置検出システム120では、ロボット121のカメラ16をおおよそ水平方向に向けることによって当該ロボット121の正面の壁面72AA〜72ADをカメラ16により撮像することができるため、ロボット121が領域2内における自分の位置を検出するためにカメラ16を所定方向に向ける必要がなく、また他のロボットをカメラ16でとらえながら領域2内における自分の位置を検出し得る利点もある。   Furthermore, in this position detection system 120, the camera 121 of the robot 121 can be imaged by the camera 16 by directing the camera 16 of the robot 121 in a substantially horizontal direction. There is no need to point the camera 16 in a predetermined direction in order to detect the position of the camera, and there is an advantage that it is possible to detect its own position in the region 2 while capturing other robots with the camera 16.

以上の構成によれば、各壁面72AA〜72AD毎に互いに異なる色相を用いて、これら各壁面72AA〜72ADに同じ色相で彩度の異なる2色を所定パターンでそれぞれ塗布し、ロボット121が2つの壁面72AA〜72ADの色相と、これら壁面72AA〜72ADをカメラ16により垂直に撮像した場合の画像中央部におけるその壁面72AA〜72ADの高さに対する高彩度部分の縦方向の長さHとをそれぞれ検出し、これら検出結果と、第1のメモリ125に格納されている各壁面72AA〜72ADの色及びそのIDと、第2のメモリ126に格納されている各壁面72AA〜72ADの長さM並びに各壁面72AA〜72ADの一端及び他端における壁面72AA〜72ADの高さに対する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ127に格納されている地図情報とに基づいて領域2内における自分の位置を検出するようにしたことにより、ロボット121が領域2内における自分の位置を精度良く検出することができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。 According to the above configuration, two different colors with the same hue and saturation are applied to each of the wall surfaces 72AA to 72AD in a predetermined pattern using different hues for each of the wall surfaces 72AA to 72AD. detection and hue of the wall 72AA~72AD, vertical high saturation portion with respect to the height of the wall 72AA~72AD these walls 72AA~72AD the image central portion in the case where the captured vertically by the camera 16 the length and H x, respectively These detection results, the colors and IDs of the wall surfaces 72AA to 72AD stored in the first memory 125, the lengths M of the wall surfaces 72AA to 72AD stored in the second memory 126, and the respective IDs. length of the high saturation portions with respect to the height of the wall 72AA~72AD at one end and the other end of the wall surface 72AA~72AD H a2, b2 the ratio R a2, R b2, and by which is adapted to detect its position in the third on the basis of the map information stored in the memory 127 in the region 2, own robot 121 is in the area 2 Thus, it is possible to realize a position detection system and a robot that can accurately detect the position of the robot 2 and thus can accurately detect the position of the user in the region 2.

(8)第8実施例
(8−1)第8実施例による位置検出システムの構成
図17との対応部分に同一符号を付して示す図28は、第8実施例による位置検出システム130を示すものであり、領域2の各辺に沿って設けられた各壁面131AA〜131ADがそれぞれ複数の液晶パネル132のパネル面で構成されている点を除いて第4実施例の位置検出システム90(図17)と同様に構成されている。
(8) Eighth Embodiment (8-1) Configuration of Position Detection System According to Eighth Embodiment FIG. 28, in which parts corresponding to those in FIG. 17 are assigned the same reference numerals, shows a position detection system 130 according to the eighth embodiment. The position detection system 90 of the fourth embodiment is shown except that the wall surfaces 131AA to 131AD provided along the sides of the region 2 are respectively constituted by the panel surfaces of the plurality of liquid crystal panels 132. The configuration is the same as in FIG.

この場合各液晶パネル132は、図29に示すように、領域2の同じ辺に沿うもの同士が同じ色で、かつ領域2の異なる辺に沿うもの同士がHSI空間において色相が60〔°〕以上離れた互いに異なる色の光を領域2内に向けて発射するように制御部133により制御される。   In this case, as shown in FIG. 29, the liquid crystal panels 132 having the same color along the same side of the region 2 and the hues along the different sides of the region 2 have a hue of 60 ° or more in the HSI space. Control is performed by the control unit 133 so that light of different colors separated from each other is emitted into the region 2.

これによりこの位置検出システム130においては、第4実施例の位置検出システム90(図17)と同様に、ロボット91が各壁面131AA〜131ADの色に基づいてその壁面131AA〜131ADを容易に識別し得るようになされている。   As a result, in this position detection system 130, as in the position detection system 90 (FIG. 17) of the fourth embodiment, the robot 91 easily identifies the wall surfaces 131AA to 131AD based on the colors of the wall surfaces 131AA to 131AD. Has been made to get.

(8−2)第8実施例の動作及び効果
以上の構成において、この位置検出システム130では、図18について上述したように、ロボット91がカメラ16から出力される画像信号S1に基づいて、周囲の第1及び第2の壁面131AA〜131ADの色と、画像信号S1に基づく画像内におけるその第1及び第2の壁面131AA〜131ADの高さとを検出し、当該検出結果と、第1のメモリ83に予め格納されている各壁面131AA〜131ADの色及びそのIDと、第2のメモリ84に予め格納されている基準値Hstdと、第3のメモリ85に予め格納されている地図情報とに基づいて領域2内における自分の位置を検出する。
(8-2) Operation and Effect of Eighth Embodiment In the above configuration, in this position detection system 130, as described above with reference to FIG. 18, the robot 91 is operated based on the image signal S1 output from the camera 16. The color of the first and second wall surfaces 131AA to 131AD and the height of the first and second wall surfaces 131AA to 131AD in the image based on the image signal S1 are detected, the detection result and the first memory 83, the color of each of the wall surfaces 131AA to 131AD and the ID thereof, the reference value Hstd stored in advance in the second memory 84, and the map information stored in advance in the third memory 85. Based on this, the user's position in the area 2 is detected.

従ってこの位置検出システム130によれば、第4実施例の位置検出システム90(図17)と同様の作用効果を得ることができる。   Therefore, according to this position detection system 130, the same effect as the position detection system 90 (FIG. 17) of the fourth embodiment can be obtained.

これに加えこの位置検出システム130では、各壁面131AA〜131ADが自ら所定の色を発光するため、例えば第4実施例のように各壁面72AA〜72ADにおける光の反射を利用する場合に比べてロボット91内部において色識別を行う際に照明などの外部環境の影響を受け難くすることができる。   In addition to this, in this position detection system 130, each of the wall surfaces 131AA to 131AD emits a predetermined color by itself, so that, for example, a robot is used as compared with the case where the reflection of light on each of the wall surfaces 72AA to 72AD is used as in the fourth embodiment. When performing color identification inside 91, it can be made less susceptible to the influence of the external environment such as lighting.

またこの位置検出システム130では、各壁面131AA〜131ADを液晶パネル132のパネル面により構成するようにしているため、ロボット91の種類や、作業内容に応じて各壁面131AA〜131ADの色を自由に切り換えることができる利点をも有している。   Further, in the position detection system 130, the wall surfaces 131AA to 131AD are configured by the panel surface of the liquid crystal panel 132, so that the colors of the wall surfaces 131AA to 131AD can be freely set according to the type of the robot 91 and the work content. It also has the advantage that it can be switched.

以上の構成によれば、第4実施例の位置検出システム90(図17)に対し、領域2の各辺に沿う各壁面131AA〜131ADをそれぞれ複数の液晶パネル132のパネル面で構成すると共に、これら液晶パネル132を、領域2の同じ辺に沿うもの同士が同じ色で、かつ領域2の異なる辺に沿うもの同士がHSI空間において色相が60〔°〕以上離れた互いに異なる色の光を領域2内に向けて発射するように制御するようにしたことにより、ロボット91内部における色識別に外部環境の変化の影響を受け難くすることができ、かくして領域2内における自分の位置を精度良く検出し得る位置検出システム及びロボットを実現できる。   According to the above configuration, the wall surfaces 131AA to 131AD along the respective sides of the region 2 are configured by the panel surfaces of the plurality of liquid crystal panels 132, respectively, with respect to the position detection system 90 (FIG. 17) of the fourth embodiment. Those liquid crystal panels 132 that have the same color along the same side of the region 2 and those along the different side of the region 2 emit light of different colors whose hues are separated by 60 ° or more in the HSI space. By controlling so that it fires into the area 2, it is possible to make the color identification inside the robot 91 less susceptible to the influence of changes in the external environment, thus detecting its own position within the area 2 with high accuracy. A position detection system and a robot that can do this can be realized.

(9)他の実施例
なお上述の第1〜第8実施例においては、本発明を自律移動型のロボット3A〜3C、51A〜51C、71、91、101、111、121に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々のロボット又は他の移動体に適用することができる。
(9) Other Embodiments In the above-described first to eighth embodiments, the present invention is applied to the autonomous mobile robots 3A to 3C, 51A to 51C, 71, 91, 101, 111, 121. However, the present invention is not limited to this, and can be applied to various other robots or other moving bodies.

また上述の第1実施例においては、図2(A)のように、識別体23を支持棒22を介して各ロボット3A〜3Cに取り付けるようにした場合について述べたが、本発明はこれに限らず、識別体23を例えば図30のようにロボット140の頭部12上に配設するようにしても良く、要は、ロボット3A〜3Cに対して他のロボット3A〜3Cから見やすい位置に識別体23を取り付けるのであれば、識別体23の取り付け位置としては、この他種々の位置を適用できる。   In the first embodiment described above, the case where the identification body 23 is attached to each of the robots 3A to 3C via the support rod 22 as shown in FIG. 2A has been described. For example, the identification body 23 may be disposed on the head 12 of the robot 140 as shown in FIG. 30. The point is that the robot 3A to 3C is easily visible from the other robots 3A to 3C. If the identification body 23 is attached, various other positions can be applied as the attachment position of the identification body 23.

さらに上述の第1実施例においては、識別体23を球状に形成するようにした場合について述べたが、本発明はこれに限らず、例えば図31(A)のような楕円回転体形状や、図31(B)のような円柱形状等のこの他種々の形状にするようにしても良い。ただし識別体23の形状をロボット3A〜3Cの移動方向と垂直な中心軸を有する回転体に選定し、その表面を当該ロボット3A〜3Cの移動方向と平行な複数の帯状領域に分割し、所定の色パターンで各帯状領域をそれぞれ所定色に着色するようにすることによって、領域2が平坦な場合にどの方向から見ても識別体を同じ形状及び同じ色パターンで見ることができるため、識別体の個体識別を容易にすることができる。   Further, in the first embodiment described above, the case where the identification body 23 is formed in a spherical shape has been described. However, the present invention is not limited to this, for example, the shape of an elliptic rotating body as shown in FIG. Various other shapes such as a cylindrical shape as shown in FIG. However, the shape of the identification body 23 is selected as a rotating body having a central axis perpendicular to the moving direction of the robots 3A to 3C, and the surface is divided into a plurality of belt-like regions parallel to the moving direction of the robots 3A to 3C. By coloring each band-like region in a predetermined color with the color pattern of FIG. 5, the identification object can be seen with the same shape and the same color pattern when viewed from any direction when the region 2 is flat. Individual identification of the body can be facilitated.

さらに上述の第1実施例においては、識別体23の表面を3色に色分けするようにした場合について述べたが、本発明はこれに限らず、この他の数に色分けするようにしても良い。また上述の第1実施例においては、識別のための色として16色用意するようにした場合について述べたが、本発明はこれに限らず、この他の数であっても良い。   Furthermore, in the first embodiment described above, the case where the surface of the identification body 23 is color-coded is described. However, the present invention is not limited to this, and the color may be color-coded to other numbers. . In the first embodiment described above, the case where 16 colors are prepared for identification has been described. However, the present invention is not limited to this, and other numbers may be used.

さらに上述の第1実施例においては、他のロボット3A〜3Cに配設されたロボット3A〜3C毎に異なる色パターンの識別体23を撮像する撮像手段としてカメラ16を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の撮像手段を適用できる。   Furthermore, in the first embodiment described above, the camera 16 is applied as an imaging means for imaging the identification body 23 having a different color pattern for each of the robots 3A to 3C disposed in the other robots 3A to 3C. As described above, the present invention is not limited to this, and various other imaging means can be applied.

さらに上述の第1実施例においては、カメラ16から供給される画像情報(画像信号S1)に基づいて、カメラ16により撮像された識別体23の色パターンを検出する色パターン検出手段を、図6のように構成された複数の色抽出部31A〜31Uと色パターン検出部32とで構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。   Furthermore, in the first embodiment described above, the color pattern detection means for detecting the color pattern of the identification body 23 imaged by the camera 16 based on the image information (image signal S1) supplied from the camera 16 is shown in FIG. Although the case where the plurality of color extraction units 31A to 31U and the color pattern detection unit 32 configured as described above are configured has been described, the present invention is not limited thereto, and various other configurations can be applied.

さらに上述の第1実施例においては、色パターン検出部32により検出された識別体23の色パターンと、予め記憶している各ロボット3A〜3Cごとの識別体23の色パターン情報とに基づいて、カメラ16により撮像した識別体23を有するロボット3A〜3Cの個体を識別する識別手段を、比較・演算部33、第1のメモリ34により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第1のメモリ34に代えてこの他種々の記憶手段を適用できる。   Further, in the first embodiment described above, based on the color pattern of the identification body 23 detected by the color pattern detection unit 32 and the color pattern information of the identification body 23 for each of the robots 3A to 3C stored in advance. Although the identification means for identifying the individual robots 3A to 3C having the identification body 23 imaged by the camera 16 is configured by the comparison / calculation unit 33 and the first memory 34, the present invention has been described. Not limited to this, various other configurations can be applied. In this case, various other storage means can be applied in place of the first memory 34.

さらに上述の第1実施例においては、カメラ16から供給される画像信号S1に基づく画像内における識別体23の直径(又は他の部分の大きさでも良い)を検出する大きさ検出手段を、複数の色抽出部31A〜31Uと色パターン検出部32とで構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。   Further, in the first embodiment described above, a plurality of size detecting means for detecting the diameter (or the size of other portions) of the identification body 23 in the image based on the image signal S1 supplied from the camera 16 are provided. Although the case where the color extraction units 31A to 31U and the color pattern detection unit 32 are configured has been described, the present invention is not limited to this, and various other configurations can be applied.

さらに上述の第1実施例においては、色パターン検出部32により検出された識別体23の大きさと、予め記憶している基準値とに基づいて、カメラ16から識別体23までの距離L1を算出する演算手段を、比較・演算部33及び第2のメモリ35により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第2のメモリ35に代えてこの他種々の記憶手段を適用できる。   Further, in the first embodiment described above, the distance L1 from the camera 16 to the identifier 23 is calculated based on the size of the identifier 23 detected by the color pattern detector 32 and the reference value stored in advance. In the above description, the calculation unit is configured by the comparison / calculation unit 33 and the second memory 35. However, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied in place of the second memory 35.

さらに上述の第1実施例においては、カメラ16から識別体23までの距離L1を算出するための基準値を、カメラ16及び識別体23が1〔m〕離れているときの識別体23の画素を単位とした直径に選定するようにした場合について述べたが、本発明はこれに限らず、この他種々の値を適用できる。   Further, in the first embodiment described above, the reference value for calculating the distance L1 from the camera 16 to the identification body 23 is the pixel of the identification body 23 when the camera 16 and the identification body 23 are separated by 1 [m]. Although the case where the diameter is selected as a unit has been described, the present invention is not limited to this, and various other values can be applied.

さらに上述の第1実施例においては、各識別体23を単に複数色で固有の色パターンに色づけするようにした場合について述べたが、本発明はこれに限らず、例えば各識別体23の色パターンをそれぞれ所定の色空間(例えば図16を用いて説明したHSI空間や、色を赤色、緑色及び青色の各レベルで表すRGB空間、又は色を輝度レベル並びに第1及び第2の色差レベルで表すYUV空間など)において所定の第1の距離だけ離れた複数色の組み合わせにより形成する(すなわち識別のための色として所定の色空間において第1の距離だけ離れた色を用いる)ようにしても良い。   Furthermore, in the first embodiment described above, the case where each identifier 23 is simply colored in a unique color pattern with a plurality of colors has been described. However, the present invention is not limited to this, for example, the color of each identifier 23 Each pattern is represented in a predetermined color space (for example, the HSI space described with reference to FIG. 16, the RGB space in which the colors are represented by red, green, and blue levels, or the color is represented by the luminance level and the first and second color difference levels. Or a combination of a plurality of colors separated by a predetermined first distance (that is, a color separated by a first distance in a predetermined color space is used as a color for identification). good.

この場合各ロボット3A〜3Cの個体識別部30には、色抽出部31A〜31Uに代えて、カメラ16から供給される画像信号S1をその色空間に応じた画像フォーマットの画像信号に変換する変換手段(例えば第4実施例の画像フォーマット変換部93)と、当該変換手段から出力される画像信号に基づく画像のなかからそれぞれ互いに異なる指定された色の画素を抽出する複数の色抽出手段(例えば第4実施例の各色抽出部94A〜94D)とを設け、これら変換手段及び複数の色抽出手段と、色パターン検出部32(図4)とで構成される色パターン検出手段によってカメラ16により撮像した識別体23の色パターンを検出するようにするようにすれば良い。このようにすることによって、ロボット3A〜3Cにおける識別体23に着色された色の誤判定を未然に回避でき、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。なおこの場合、カメラ16から出力される画像信号S1の画像フォーマットが上述の色空間に応じたものである場合には、変換手段を省略することができる。   In this case, instead of the color extraction units 31A to 31U, the individual identification unit 30 of each of the robots 3A to 3C converts the image signal S1 supplied from the camera 16 into an image signal having an image format corresponding to the color space. Means (for example, the image format conversion unit 93 of the fourth embodiment) and a plurality of color extraction means (for example, pixels for extracting different designated color pixels from the image based on the image signal output from the conversion means) Each color extraction unit 94A to 94D) of the fourth embodiment is provided, and the image is picked up by the camera 16 by a color pattern detection unit composed of the conversion unit, the plurality of color extraction units, and the color pattern detection unit 32 (FIG. 4). The color pattern of the identified body 23 may be detected. By doing so, it is possible to avoid an erroneous determination of the color colored on the identification body 23 in the robots 3A to 3C, and to identify an individual identification system and a robot that can identify the individual of the robots 3A to 3C with higher accuracy. realizable. In this case, if the image format of the image signal S1 output from the camera 16 is in accordance with the color space described above, the conversion means can be omitted.

さらにこの場合、識別体23に塗布する色の組み合わせとして、隣接する色同士が上述の色空間において第1の距離よりも大きい第2の距離だけ離れるように選定するようにしても良く、このようにすることによってより精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。   Furthermore, in this case, as a combination of colors applied to the identification body 23, adjacent colors may be selected so as to be separated by a second distance larger than the first distance in the above-described color space. By doing so, it is possible to realize an individual identification system and a robot that can identify individual robots 3A to 3C with higher accuracy.

さらに上述の第1実施例においては、識別体23として発光しないものを適用するようにした場合について述べたが、本発明はこれに限らず、識別体23として、例えば透明な球殻の内部に電球等の発光手段を収容すると共に、球殻の表面を対応する色パターンの色づけするなどして識別体23が対応する色パターンの光を発光するようにしても良く、このようにすることによって識別手段による色識別に誤識別が発生する確立を低減することができ、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。   Furthermore, in the above-described first embodiment, the case where an object that does not emit light is applied as the identifier 23 is described. However, the present invention is not limited to this, and the identifier 23 may be, for example, a transparent spherical shell. While the light emitting means such as a light bulb is housed, the surface of the spherical shell may be colored with a corresponding color pattern so that the identification body 23 emits light of the corresponding color pattern. It is possible to reduce the probability of erroneous identification occurring in color identification by the identification means, and to realize an individual identification system and a robot that can identify individual robots 3A to 3C with higher accuracy.

さらに上述の第2実施例においては、図10のように識別シール52の表面を色分けするようにして色パターンを形成するようにした場合について述べたが、本発明はこれに限らず、識別シール52の表面を図32のように色分けするようにしても良く、要は、識別シール52の表面を複数の色で色分けするのであれば、色パターンの形状としては、この他種々の形状を適用できる。   Further, in the second embodiment described above, the case where the color pattern is formed by color-coding the surface of the identification seal 52 as shown in FIG. 10 is described, but the present invention is not limited to this, and the identification seal is not limited thereto. The surface of 52 may be color-coded as shown in FIG. 32. In short, if the surface of the identification seal 52 is color-coded by a plurality of colors, various other shapes are applied as the shape of the color pattern. it can.

この場合例えば図33に示すように、複数種類の識別色のなかから所定数の色を用いて同心状の複数の環状領域141A〜141Cを色づけするようにして色パターンを形成するようにしても良い。   In this case, for example, as shown in FIG. 33, a color pattern may be formed by coloring a plurality of concentric annular regions 141A to 141C using a predetermined number of colors from among a plurality of types of identification colors. good.

またこれに加えて、例えば図34(A)〜(C)のように各環状領域141A〜141Cの所定の径方向に延長する所定色に着色された直線領域141Dや、着色されていない長方形領域141E又は扇状領域141Fなどの領域を設けるようにしても良い。この場合直線領域141D、長方形領域141E又は扇状領域141Fなどの所定形状の領域がロボット51A〜51Cの前方向又は後方向などを向くように予め設定しておくことによって当該領域の向きに基づいてロボット51A〜51Cの向きをも検出し得るようにすることができる。   In addition to this, for example, as shown in FIGS. 34 (A) to (C), linear regions 141D colored in a predetermined color extending in a predetermined radial direction of the annular regions 141A to 141C, or rectangular regions not colored. A region such as 141E or a fan-shaped region 141F may be provided. In this case, by setting in advance such that a region having a predetermined shape such as a straight region 141D, a rectangular region 141E, or a fan-shaped region 141F faces the front direction or the rear direction of the robots 51A to 51C, the robot is set based on the direction of the region. The directions of 51A to 51C can also be detected.

さらに上述の第2実施例においては、各ロボット51A〜51Cに互いに異なる色パターンを付与する手段として表面が所定の色パターンで色分けされた識別シール52を貼り付けるようにした場合について述べたが、本発明はこれに限らず、例えばロボット51A〜51Cの上面(又はカメラ53により撮像できる他の所定位置)に直接ペンキを塗ることにより各ロボット51A〜51Cに互いに異なる所定の色パターンを付与するようにしても良く、各ロボット51A〜51Cに互いに異なる所定の色パターンを付与する手段としては、この他種々の方法を適用できる。   Further, in the second embodiment described above, the case has been described in which the identification stickers 52 whose surfaces are color-coded with a predetermined color pattern are attached as means for applying different color patterns to the robots 51A to 51C. The present invention is not limited to this. For example, the robots 51A to 51C are given different predetermined color patterns by directly painting the upper surfaces of the robots 51A to 51C (or other predetermined positions that can be imaged by the camera 53). Alternatively, various other methods can be applied as means for giving different predetermined color patterns to the robots 51A to 51C.

この場合例えば各ロボット51A〜51Cに互いに異なる色パターンの光を発光する発光手段(例えば透明フィルムの下側に電球等の発光体を配設すると共に、透明フィルムに対応する色パターンで色づけする)を配設するようにしても良く、このようにすることによって識別手段による色識別に誤識別が発生する確立を低減することができ、その分より精度良くロボット3A〜3Cの個体を識別し得る個体識別システム及びロボットを実現できる。   In this case, for example, light emitting means for emitting light of different color patterns to each of the robots 51A to 51C (for example, a light emitter such as a light bulb is disposed below the transparent film and colored with a color pattern corresponding to the transparent film). In this way, it is possible to reduce the probability of erroneous identification occurring in the color identification by the identification means, and to identify the individual robots 3A to 3C more accurately. An individual identification system and a robot can be realized.

さらに上述の第2実施例においては、カメラ53から供給される画像情報(画像信号S1)に基づく画像内における各ロボット51A〜51Cの色パターンの位置に基づいて、領域2内における各ロボット51A〜51Cの位置を検出する位置検出手段を、比較・演算部56及びメモリ57で構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合メモリ57に代えてこの他種々の記憶手段を適用することができる。   Further, in the second embodiment described above, the robots 51A to 51A in the region 2 are based on the positions of the color patterns of the robots 51A to 51C in the image based on the image information (image signal S1) supplied from the camera 53. Although the case where the position detecting means for detecting the position of 51C is configured by the comparison / calculation unit 56 and the memory 57 has been described, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied in place of the memory 57.

さらに上述の第2実施例においては、個体識別部54により検出した各ロボット51A〜51Cの位置を電波により各ロボット51A〜51Cに伝達するようにした場合について述べたが、本発明はこれに限らず、この他の赤外線等の無線手段又は有線等のこの他種々の伝達手段を適用できる。   Further, in the second embodiment described above, a case has been described in which the positions of the robots 51A to 51C detected by the individual identification unit 54 are transmitted to the robots 51A to 51C by radio waves. However, the present invention is not limited to this. However, other wireless means such as infrared rays or various other transmission means such as wire can be applied.

さらに上述の第2実施例においては、各識別シール52を単に複数色で固有の色パターンに色分けするようにした場合について述べたが、本発明はこれに限らず、例えば各識別シール52の色パターンをそれぞれ所定の色空間(例えばHSI空間や、RGB空間又はYUV空間など)において所定の第1の距離だけ離れた複数色の組み合わせにより形成する(すなわち識別のための色として所定の色空間において第1の距離だけ離れた色を用いる)ようにしても良い。   Further, in the second embodiment described above, the case where each identification seal 52 is simply color-coded into a unique color pattern with a plurality of colors has been described. However, the present invention is not limited to this, for example, the color of each identification seal 52 Each pattern is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space (for example, HSI space, RGB space, YUV space, etc.) (that is, in the predetermined color space as a color for identification) It is also possible to use a color separated by the first distance.

この場合個体識別部54には、色抽出部31A〜31Uに代えて、カメラ53から供給される画像信号S30をその色空間に応じた画像フォーマットの画像信号に変換する変換手段(例えば第4実施例の画像フォーマット変換部93)と、当該変換手段から出力される画像信号に基づく画像のなかからそれぞれ互いに異なる指定された色の画素を抽出する複数の色抽出手段(例えば第4実施例の各色抽出部94A〜94D)とを設け、これら変換手段及び複数の色抽出手段と、色パターン検出部55(図11)とで構成される色パターン検出手段によってカメラ53により撮像した各識別シール52の色パターンを検出するようにするようにしても良い。このようにすることによって、個体識別部54における識別シール52に着色された色の誤判定を未然に回避でき、その分より精度良くロボット51A〜51Cの個体を識別し得る個体識別システムを実現できる。なおこの場合においても、カメラ16から出力される画像信号S1の画像フォーマットが上述の色空間に応じたものである場合には変換手段を省略することができる。   In this case, the individual identification unit 54 replaces the color extraction units 31A to 31U with conversion means (for example, a fourth embodiment) that converts the image signal S30 supplied from the camera 53 into an image signal having an image format corresponding to the color space. The image format conversion unit 93) of the example and a plurality of color extraction means (for example, each color of the fourth embodiment) for extracting pixels of specified colors different from each other based on the image signal output from the conversion means Each of the identification stickers 52 imaged by the camera 53 by the color pattern detection means constituted by the conversion means, the plurality of color extraction means, and the color pattern detection part 55 (FIG. 11). A color pattern may be detected. By doing so, it is possible to avoid an erroneous determination of the color colored on the identification seal 52 in the individual identification unit 54, and to realize an individual identification system that can identify the individual robots 51A to 51C with higher accuracy. . In this case as well, the conversion means can be omitted if the image format of the image signal S1 output from the camera 16 is in accordance with the color space described above.

さらにこの場合、識別シール52に塗布する色の組み合わせとして、隣接する色同士が上述の色空間において第1の距離よりも大きい第2の距離だけ離れるように選定するようにしても良く、このようにすることによってより精度良くロボット51A〜51Cの個体を識別し得る個体識別システムを実現できる。   Further, in this case, as a combination of colors applied to the identification seal 52, adjacent colors may be selected so as to be separated by a second distance larger than the first distance in the color space described above. By doing so, it is possible to realize an individual identification system capable of identifying the individual robots 51A to 51C with higher accuracy.

さらに上述の第3実施例においては、領域2の各辺に沿った各壁面72AA〜72ADごとに塗布する色を変えるようにした場合について述べたが、本発明はこれに限らず、領域2の各辺に沿った各壁面72AA〜72ADをZ方向と平行な複数の領域に分割し、当該各領域ごとに塗布する色を変えるようにしても良い。   Furthermore, in the above-described third embodiment, the case where the color to be applied is changed for each of the wall surfaces 72AA to 72AD along each side of the region 2 has been described. The wall surfaces 72AA to 72AD along each side may be divided into a plurality of regions parallel to the Z direction, and the color to be applied may be changed for each region.

さらに上述の第1〜第3実施例においては、色抽出部31A〜31Uを図6のように構成するようにした場合について述べたが、本発明はこれに限らず、要は、供給される画像信号を輝度信号及び色差信号に分離する分離手段(実施例では分離回路41と、輝度信号及び色差信号に基づいて、画像信号に基づく画像内の画素ごとの輝度レベル及び色差レベルを順次検出するレベル検出手段(実施例ではアナログ/ディジタル変換回路42、43A、43B)と、レベル検出手段により検出された画素の輝度レベル及び色差レベルと予め記憶している各輝度レベルごとの色差レベルの上限値及び下限値とに基づいて各画素ごとに所定色か否かを判定する判定手段(実施例では第1〜第4のメモリ44A〜44D、第1〜第4の比較回路45A〜45D及び判定回路48)とを設けるようにするのであれば、色抽出部の構成としては、この他種々の構成を適用できる。   Furthermore, in the first to third embodiments described above, the case where the color extraction units 31A to 31U are configured as shown in FIG. 6 has been described, but the present invention is not limited to this, and the main point is to be supplied. Separating means for separating an image signal into a luminance signal and a color difference signal (in the embodiment, based on the luminance signal and the color difference signal, the luminance level and the color difference level are sequentially detected for each pixel in the image based on the luminance signal and the color difference signal. Level detection means (analog / digital conversion circuits 42, 43A, 43B in the embodiment), the luminance level and color difference level of the pixel detected by the level detection means, and the upper limit value of the color difference level for each brightness level stored in advance And determining means for determining whether or not each pixel has a predetermined color based on the lower limit value (in the embodiment, the first to fourth memories 44A to 44D and the first to fourth comparison circuits 45A to 45A). If 5D and judging circuit 48) and of being so provided, the configuration of the color extraction unit, can be applied to various other configurations.

さらに上述の第3〜第8実施例においては、領域2の周囲に沿って設けられた互いに異なる色の複数の壁面72AA〜72AD、131AA〜131ADのうち、対応する所定の壁面72AA〜72AD、131AA〜131AD(すなわち正面の壁面72AA〜72AD、131AA〜131AD)を撮像する撮像手段としてカメラ16を適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の撮像手段を適用できる。   Furthermore, in the above-described third to eighth embodiments, among predetermined wall surfaces 72AA to 72AD, 131AA to 131AD of different colors provided along the periphery of the region 2, corresponding predetermined wall surfaces 72AA to 72AD, 131AA are provided. ~ 131AD (that is, the front wall surfaces 72AA to 72AD, 131AA to 131AD) has been described as the case where the camera 16 is applied. However, the present invention is not limited to this, and various other imaging means are used. Applicable.

さらに上述の第3〜第8実施例においては、カメラ16から出力される画像情報(画像信号S1)に基づいて、当該カメラ16により撮像された壁面72AA〜72AD、131AA〜131ADの色及び当該壁面72AA〜72AD、131AA〜131ADに対する相対位置(その壁面72AA〜72AD、131AA〜131ADからの距離L2又はその壁面72AA〜72AD、131AA〜131ADと平行な方向における当該壁面72AA〜72AD、131AA〜131ADの一端からの距離x)を検出する色及び相対位置検出手段を、複数の色抽出部31A〜31D、94A〜94E、壁検出部8、103、114、123、比較・演算部82、104、115、124並びに第1及び第2のメモリ83、84、105、106、116、117、125、126により構成するようにした場合について述べたが、本発明はこれに限らず、この他種々の構成を適用できる。この場合第1及び第2のメモリ83、84、105、106、116、117、125、126に代えてこの他種々の記憶手段を適用できる。   Further, in the third to eighth embodiments described above, based on the image information (image signal S1) output from the camera 16, the colors of the wall surfaces 72AA to 72AD and 131AA to 131AD imaged by the camera 16 and the wall surfaces thereof. 72AA-72AD, 131AA-131AD relative position (the distance L2 from the wall surface 72AA-72AD, 131AA-131AD or one end of the wall surface 72AA-72AD, 131AA-131AD in the direction parallel to the wall surface 72AA-72AD, 131AA-131AD The color and relative position detection means for detecting the distance x) from a plurality of color extraction units 31A to 31D, 94A to 94E, wall detection units 8, 103, 114, 123, comparison / calculation units 82, 104, 115, 124 and first and second memories 83, 84, 105, 1 It has dealt with the case of constituting the 6,116,117,125,126, the present invention is not limited thereto and can be applied to various other configurations. In this case, various other storage means can be applied instead of the first and second memories 83, 84, 105, 106, 116, 117, 125, 126.

さらに上述の第3〜第8実施例においては、カメラ16により撮像された壁面72AA〜72AD、131AA〜131ADの色及び当該壁面72AA〜72AD、131AA〜131ADに対する相対位置と、予め記憶している全ての各壁面72AA〜72AD、131AA〜131ADの色及び全ての壁面72AA〜72AD、131AA〜131ADの位置を含む領域2の地図情報とに基づいて領域2内における自分の位置を検出する位置検出手段を、比較・演算部82、104、115、124及び第3のメモリ85、107、118、127により構成するようにした場合について述べたが、本発明はこれに限らず、第3のメモリ85、107、118、127に代えてこの他種々の記憶手段を適用できる。   Furthermore, in the above-described third to eighth embodiments, the colors of the wall surfaces 72AA to 72AD and 131AA to 131AD imaged by the camera 16 and the relative positions with respect to the wall surfaces 72AA to 72AD and 131AA to 131AD, and all of the previously stored information. Position detecting means for detecting the position in the region 2 based on the color of each of the wall surfaces 72AA to 72AD, 131AA to 131AD and the map information of the region 2 including the positions of all the wall surfaces 72AA to 72AD, 131AA to 131AD The comparison / calculation units 82, 104, 115, 124 and the third memories 85, 107, 118, 127 are described. However, the present invention is not limited to this, and the third memory 85, Various other storage means can be applied in place of 107, 118 and 127.

さらに上述の第3〜第8実施例においては、ロボット71、91、101、111、121が2つの壁面72AA〜72AD、131AA〜131ADから領域2内における自分の位置を検出するようにした場合について述べたが、本発明はこれに限らず、3以上の壁面72AA〜72AD、131AA〜131ADから領域2内における自分の位置を検出するようにしても良い。   Further, in the third to eighth embodiments described above, the robots 71, 91, 101, 111, 121 detect their positions in the region 2 from the two wall surfaces 72AA-72AD, 131AA-131AD. As described above, the present invention is not limited to this, and the position of the user in the region 2 may be detected from the three or more wall surfaces 72AA to 72AD and 131AA to 131AD.

さらに上述の第4〜第8実施例においては、識別のための色として、HSI空間において図16(B)に示す極座標での原点Oまわりの角度が60〔°〕以上離れた色を選択するようにした場合について述べたが、本発明はこれに限らず、図16(B)に示す極座標での原点Oまわりの角度がこれ以外の角度離れた色を用いるようにしても良い。また識別のための色として、HSI空間以外の色空間(RGB空間や、YUV空間など)において所定距離だけ離れた色を用いるようにしても良い。   Further, in the above-described fourth to eighth embodiments, as a color for identification, a color having an angle around the origin O in the polar coordinates shown in FIG. Although the case of doing so has been described, the present invention is not limited to this, and a color in which the angle around the origin O in the polar coordinates shown in FIG. Further, as a color for identification, a color separated by a predetermined distance in a color space other than the HSI space (RGB space, YUV space, etc.) may be used.

さらに上述の第4〜第8実施例においては、単に識別のための色としてHSI空間において図16(B)に示す極座標での原点Oまわりの角度が60〔°〕以上離れた色を選択するようにした場合について述べたが、本発明はこれに限らず、例えば隣接する壁面にはHSI空間(又は他の色空間)において60〔°〕以上離れた色を割り当てる(例えば図16(B)において壁面72AAには黄色(Y)、壁面72ABにはシアン(C)、壁面72ACには赤色(R)及び壁面72ADには青色(B)を塗布する)ようにしても良い。このようにすることによって、ロボット91、101、111、121内部において壁面72AA〜72AD131AA〜131ADの色を判別する際の誤判別を未然に回避でき、その分より精度良く領域2内における自分の位置を検出し得る位置検出システム及びロボット装置を構築することができる。   Further, in the above-described fourth to eighth embodiments, a color having an angle around the origin O in the polar coordinates shown in FIG. 16B in the HSI space that is separated by 60 [°] or more is simply selected as a color for identification. However, the present invention is not limited to this. For example, a color separated by 60 [°] or more in the HSI space (or other color space) is assigned to adjacent wall surfaces (for example, FIG. 16B). The wall surface 72AA may be yellow (Y), the wall surface 72AB may be cyan (C), the wall surface 72AC may be red (R), and the wall surface 72AD may be coated with blue (B). By doing so, it is possible to avoid erroneous determination when determining the colors of the wall surfaces 72AA to 72AD131AA to 131AD inside the robots 91, 101, 111, and 121, and the position of the user in the region 2 with higher accuracy. It is possible to construct a position detection system and a robot apparatus that can detect the above.

さらに上述の第5実施例においては、各壁面72AA〜72ADに塗布する色の飽和度(彩度)を線形に変化させるようにした場合について述べたが、本発明はこれに限らず、非線形に変化させるようにしても良い。ただしこの場合には1つの壁面72AA〜72ADにおいて同じ飽和度の部分が存在しないようにする必要がある。   Further, in the fifth embodiment described above, the case where the saturation (saturation) of the color applied to each of the wall surfaces 72AA to 72AD is linearly changed has been described. However, the present invention is not limited to this and is nonlinear. It may be changed. However, in this case, it is necessary to prevent portions having the same saturation from being present on one of the wall surfaces 72AA to 72AD.

さらに上述の第5実施例においては、各壁面72AA〜72ADの飽和度の変化に関する所定データとして、各壁面72AA〜72ADの長さMと、に各壁面72AA〜72ADの一端及び他端における飽和度Smin、Smaxとを第2のメモリ106に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部103により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADに塗布された色の飽和度Sとに基づいて比較・演算部104が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ106に格納するデータとしてはこれ以外のデータを適用できる。 Furthermore, in the above-described fifth embodiment, as predetermined data relating to the change in the degree of saturation of each wall surface 72AA to 72AD, the length M of each wall surface 72AA to 72AD and the saturation degree at one end and the other end of each wall surface 72AA to 72AD. Although the case where S min and S max are stored in the second memory 106 has been described, the present invention is not limited to this. In short, the data and the image signal S50 detected by the wall detecting unit 103 are used. If comparison and calculation section 104 on the basis of the saturation S x color applied to the wall surface 72AA~72AD at the center of the image based on that the data can detect its position in the area 2 For example, data other than this can be applied as data stored in the second memory 106.

さらに上述の第6実施例においては、壁面72AA〜72ADの一端の下端近傍から他端の上端近傍に至るように各壁面72AA〜72ADに斜線112を表記するようにした場合について述べたが、本発明はこれに限らず、例えば図35に示すように、壁面72AA〜72ADの一端の下端から他端の上端に至るように各壁面72AA〜72ADに斜線112を表記するようにしても良く、これ以外の形態に斜線を表記するようにしても良い。   Furthermore, in the sixth embodiment described above, the case where the slanted lines 112 are indicated on the wall surfaces 72AA to 72AD from the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD to the vicinity of the upper end of the other end has been described. The invention is not limited to this. For example, as shown in FIG. 35, diagonal lines 112 may be written on the wall surfaces 72AA to 72AD so as to reach the upper end of the other end from the lower end of one end of the wall surfaces 72AA to 72AD. A slanted line may be written in other forms.

さらに上述の第6実施例においては、各壁面72AA〜72ADにおける壁面72AA〜72ADの高さに対する斜線112よりも上部分の比率の変化に関する所定データとして、各壁面72AA〜72ADの長さMと、各壁面72AA〜72ADの一端及び他端における斜線112よりも上部分及び下部分の長さUa1、Ub1、La1、Lb1とを第2のメモリ117に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部115により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さに対する斜線112よりも上部分(下部分でも良い)の比率Rとに基づいて比較・演算部115が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ117に格納するデータとしてはこれ以外のデータを適用できる。 Furthermore, in the above-described sixth embodiment, as predetermined data regarding the change in the ratio of the portion above the oblique line 112 to the height of the wall surfaces 72AA to 72AD in each of the wall surfaces 72AA to 72AD, the length M of each wall surface 72AA to 72AD, A case will be described in which the lengths U a1 , U b1 , L a1 , and L b1 of the upper and lower portions of the wall surfaces 72AA to 72AD at one end and the other end of the wall surfaces 72AA to 72AD are stored in the second memory 117. However, the present invention is not limited to this, and the point is that the data is higher than the oblique line 112 with respect to the height of the wall surfaces 72AA to 72AD in the central portion of the image based on the image signal S50 detected by the wall detection unit 115. can comparison and calculation section 115 on the basis of the ratio R x part (or the lower part) to detect its own position within the region 2 If you are a chromatography data, as the data stored in the second memory 117 can be applied to other data.

さらに上述の第7実施例においては、壁面72AA〜72ADの上部分と下部分とを分ける仮想線K1が壁面72AA〜72ADの一端の下端近傍と他端の上端近傍とを通るようにした場合について述べたが、本発明はこれに限らず、例えば図36に示すように、仮想線K1(又は斜線でも良い)が壁面72AA〜72ADの一端の下端と、他端の上端とを通るように各壁面72AA〜72ADを上部分及び下部分に分けるようにしても良く、これ以外の形態に仮想線K1又は斜線を選定し、又は表記するようにしても良い。   Further, in the seventh embodiment described above, the virtual line K1 that separates the upper and lower portions of the wall surfaces 72AA to 72AD passes through the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD and the vicinity of the upper end of the other end. As described above, the present invention is not limited to this. For example, as shown in FIG. 36, each of the virtual lines K1 (or may be diagonal lines) passes through the lower end of one end of the wall surfaces 72AA to 72AD and the upper end of the other end. The wall surfaces 72AA to 72AD may be divided into an upper portion and a lower portion, and a virtual line K1 or a diagonal line may be selected or indicated in other forms.

さらに上述の第7実施例においては、壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rが線形に変化するようにした場合について述べたが、本発明はこれに限らず、非線形に変化するようにしても良い。ただしこの場合においても、1つの壁面72AA〜72ADにおいて壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rが同じとなる部分が存在しないようにする必要がある。 Further, in the seventh embodiment described above has dealt with the case where the ratio R x of length H x of the high saturation portions with respect to the height of the wall 72AA~72AD was made to vary linearly, the present invention is not limited thereto Alternatively, it may be changed nonlinearly. However, in this case, it is necessary that the ratio R x of length H x of the high saturation portions with respect to the height of the wall 72AA~72AD in one wall 72AA~72AD there is no portion to be the same.

さらに上述の第7実施例においては、各壁面72AA〜72ADにおける壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rの変化に関する所定データとして、各壁面72AA〜72ADの長さMと、各壁面72AA〜72ADの一端及び他端における高彩度部分及び低彩度部分の長さHa2、La2、Hb2、Lb2とを第2のメモリ126に格納するようにした場合について述べたが、本発明はこれに限らず、要は、そのデータと、壁検出部123により検出された画像信号S50に基づく画像の中央部におけるその壁面72AA〜72ADの高さに対する高彩度部分の長さHの比率Rとに基づいて比較・演算部124が領域2内における自分の位置を検出することができるデータであるのならば、第2のメモリ126に格納するデータとしてはこれ以外のデータを適用できる。 Further, in the seventh embodiment described above, the predetermined data relating to the change in the ratio R x of length H x of the high saturation portions with respect to the height of the wall 72AA~72AD in each wall 72AA~72AD, the length of each wall 72AA~72AD M and the lengths H a2 , L a2 , H b2 , and L b2 of the high saturation portion and the low saturation portion at one end and the other end of each of the wall surfaces 72AA to 72AD are stored in the second memory 126. Although the present invention is not limited to this, the point is that the length of the high saturation portion with respect to the height of the wall surfaces 72AA to 72AD in the center portion of the image based on the data and the image signal S50 detected by the wall detection unit 123. if it's data which can detect their position in the H x ratio of R x and comparison and calculation section 124 in region 2 on the basis of, the As data to be stored in the memory 126 can be applied to other data.

さらに上述の第3及び第8実施例においては、ロボット91内部において、壁面72AA〜72AD、131AA〜131ADに対する相対位置として当該壁面72AA〜72AD、131AA〜131ADからの距離を検出し、第4〜第8実施例においては、ロボット101、111、121内部において、壁面72AA〜72ADに対する相対位置として当該壁面72AA〜72ADと平行な方向のおける当該壁面72AA〜72ADの一端からの距離を検出するようにした場合について述べたが、本発明はこれに限らず、これ以外の相対位置を検出するようにしても良い。   Further, in the third and eighth embodiments described above, distances from the wall surfaces 72AA to 72AD and 131AA to 131AD are detected as relative positions to the wall surfaces 72AA to 72AD and 131AA to 131AD in the robot 91, and the fourth to fourth embodiments are detected. In the eighth embodiment, the distances from one end of the wall surfaces 72AA to 72AD in the direction parallel to the wall surfaces 72AA to 72AD are detected as relative positions to the wall surfaces 72AA to 72AD in the robots 101, 111, and 121. Although the case has been described, the present invention is not limited to this, and other relative positions may be detected.

さらに上述の第8実施例においては、各壁面131AA〜131ADを液晶パネルディスプレイ132のパネル面により構成するようにした場合について述べたが、本発明はこれに限らず、各壁面131AA〜131ADを液晶パネルディスプレイ132以外のディスプレイ(例えばCRT(Cathode Ray Tube)など)の表示面で構成するようにしても良い。また例えば通常の壁面72AA〜72AD(図13)に凹部を設け、当該凹部を覆うように所定色のフィルムを貼り付けると共に、当該凹部内に光源を配設するようにしてその壁面72AA〜72ADに割り当てられた色の光を領域2に向けて発光させるようにしても良く、要は、その壁面に割り当てられた色の光2を領域に向けて発光する発光手段により壁面を構成し、又は発光手段を壁面に設けるのであれば、発光手段の構成としては、この他種々の構成を適用できる。   Furthermore, in the above-described eighth embodiment, the case where each of the wall surfaces 131AA to 131AD is configured by the panel surface of the liquid crystal panel display 132 has been described. However, the present invention is not limited to this, and each of the wall surfaces 131AA to 131AD is a liquid crystal. You may make it comprise with the display surface of displays (for example, CRT (Cathode Ray Tube) etc.) other than the panel display 132. FIG. Further, for example, a normal wall surface 72AA to 72AD (FIG. 13) is provided with a recess, a film of a predetermined color is attached so as to cover the recess, and a light source is disposed in the recess so that the wall surface 72AA to 72AD is provided. The light of the assigned color may be emitted toward the region 2. In short, the wall surface is constituted by the light emitting means for emitting the light 2 of the color assigned to the wall surface toward the region, or the light is emitted. As long as the means is provided on the wall surface, various other configurations can be applied as the configuration of the light emitting means.

さらに上述の第8実施例においては、単に各液晶パネルディスプレイ132が各壁面131AA〜131AD毎に異なる色の光を発光するようにした場合について述べたが、本発明はこれに限らず、例えば各液晶パネルディスプレイ132に第5〜第7実施例のように割り当てられた色や斜線を表示させると共に、ロボット91を第5〜第7実施例のように構成するようにしても良い。   Furthermore, in the above-described eighth embodiment, the case where each liquid crystal panel display 132 simply emits light of a different color for each of the wall surfaces 131AA to 131AD has been described, but the present invention is not limited to this, for example, each The assigned colors and oblique lines may be displayed on the liquid crystal panel display 132 as in the fifth to seventh embodiments, and the robot 91 may be configured as in the fifth to seventh embodiments.

さらに上述の第4〜第7実施例においては、カメラ16から出力される画像信号S1の画像フォーマットをHSI空間に応じた画像フォーマットに変換するため画像フォーマット変換部93を設けるようにした場合について述べたが、本発明はこれに限らず、例えばカメラ16から出力される画像信号S1の画像フォーマットが各壁面72AA〜72ADの色を選定する際に使用した色空間に対応した画像フォーマットである場合には画像フォーマット変換部93を省略するようにしても良い。   Further, in the fourth to seventh embodiments described above, the case where the image format conversion unit 93 is provided to convert the image format of the image signal S1 output from the camera 16 into an image format corresponding to the HSI space will be described. However, the present invention is not limited to this. For example, when the image format of the image signal S1 output from the camera 16 is an image format corresponding to the color space used when selecting the colors of the wall surfaces 72AA to 72AD. The image format conversion unit 93 may be omitted.

本願発明は、自律移動型ロボットのほか、種々のロボット装置等に広く適用することができる。   The present invention can be widely applied to various robot devices and the like in addition to autonomous mobile robots.

第1実施例による個体識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the identification system by 1st Example. 第1実施例によるロボットの構成及び識別体の構成を示す略線的な側面図である。It is a rough-line side view which shows the structure of the robot by 1st Example, and the structure of an identification body. 第1実施例によるロボットの構成示す略線的なブロック図である。1 is a schematic block diagram illustrating a configuration of a robot according to a first embodiment. 第1実施例による個体識別部の構成示すブロック図である。It is a block diagram which shows the structure of the individual identification part by 1st Example. 色抽出部の構成の説明に供する略線図である。It is a basic diagram with which it uses for description of a structure of a color extraction part. 色抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of a color extraction part. 第2実施例による個体識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the identification system by 2nd Example. 第2実施例による個体識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the identification system by 2nd Example. 第2実施例によるロボットの構成を示す略線的な斜視図である。It is a rough-line perspective view which shows the structure of the robot by 2nd Example. 識別シールの説明に供する平面図である。It is a top view with which it uses for description of an identification seal | sticker. 第2実施例による個体識別部の構成示すブロック図である。It is a block diagram which shows the structure of the individual identification part by 2nd Example. 第2実施例によるロボットの構成示す略線的なブロック図である。It is a rough-line block diagram which shows the structure of the robot by 2nd Example. 第3実施例による位置識別システムの全体構成を示す斜視図である。It is a perspective view which shows the whole structure of the position identification system by 3rd Example. 第3実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 3rd Example. 第3実施例による位置検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the position detection part by 3rd Example. HSI空間の説明に供する略線図である。It is an approximate line figure used for explanation of HSI space. 第4実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 4th Example. 第4実施例による位置検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the position detection part by 4th Example. 第5実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 5th Example. 第5実施例における各壁面の様子を示す略線図である。It is a basic diagram which shows the mode of each wall surface in 5th Example. 第5実施例による位置検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the position detection part by 5th Example. 第6実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 6th Example. 第6実施例における各壁面の様子を示す略線図である。It is a basic diagram which shows the mode of each wall surface in 6th Example. 第6実施例による位置検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the position detection part by 6th Example. 第7実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 7th Example. 第7実施例における各壁面の様子を示す略線図である。It is a basic diagram which shows the mode of each wall surface in 7th Example. 第7実施例による位置検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the position detection part by 7th Example. 第8実施例による位置識別システムの全体構成を示す平面図である。It is a top view which shows the whole structure of the position identification system by 8th Example. 第8実施例による位置識別システムの構成の説明に供する平面図である。It is a top view with which it uses for description of the structure of the position identification system by 8th Example. 他の実施例を示す略線的な側面図である。It is a rough-line side view which shows another Example. 他の実施例を示す側面図及び斜視図である。It is the side view and perspective view which show another Example. 他の実施例を示す平面図である。It is a top view which shows another Example. 他の実施例を示す平面図である。It is a top view which shows another Example. 他の実施例を示す平面図である。It is a top view which shows another Example. 他の実施例を示す平面図である。It is a top view which shows another Example. 他の実施例を示す平面図である。It is a top view which shows another Example.

符号の説明Explanation of symbols

1、50……個体識別システム、2……領域、3A〜3C、51A〜51C、71、91、101、111、121……ロボット、16、53……カメラ、23……識別体、30、54……個体識別部、31A〜31U、94A〜94E……色抽出部、32、55……色パターン抽出部、33、56、82、104、115、124……比較・演算部、34、35、44A〜44D、57、83〜85、105〜107、116〜118、125〜127……メモリ、36……CPU、41……分離回路、42、43A、43B……アナログ/ディジタル変換回路、45A〜45D……比較回路、48……判定回路、49……フレームメモリ、52……識別シール、58……送信部、70……壁、72AA〜72AD、131AA〜131AD……壁面、80、102、113、122……位置検出部、81、103、114、123……壁検出部、93……画像フォーマット変換部、132……液晶パネル、133……制御部、D1……輝度データ、D2A、D2B……色差データ、S1、S30、S50……画像信号、S10A〜S10U、S51A〜S51D……色抽出信号、S11……識別体情報信号、S12……識別体検出信号、S20……輝度信号、S21A、S21B……色差信号、S31……識別シール検出信号、S32……ロボット位置検出信号、S40……壁検出信号、S41、S62、S71、S82……位置検出信号。
DESCRIPTION OF SYMBOLS 1,50 ... Individual identification system, 2 ... Area, 3A-3C, 51A-51C, 71, 91, 101, 111, 121 ... Robot, 16, 53 ... Camera, 23 ... Identification object, 30, 54... Individual identification unit, 31 A to 31 U, 94 A to 94 E... Color extraction unit, 32 and 55... Color pattern extraction unit, 33, 56, 82, 104, 115, 124. 35, 44A-44D, 57, 83-85, 105-107, 116-118, 125-127 ... Memory, 36 ... CPU, 41 ... Separation circuit, 42, 43A, 43B ... Analog / digital conversion circuit 45A to 45D... Comparison circuit 48. Determination circuit 49... Frame memory 52 52 Identification seal 58... Transmitting unit 70 70 Wall 72 AA to 72 AD 131 AA to 131 A ...... Wall surface, 80, 102, 113, 122 …… Position detector, 81, 103, 114, 123 …… Wall detector, 93 …… Image format converter, 132 …… Liquid crystal panel, 133 …… Control unit, D1: Luminance data, D2A, D2B ... Color difference data, S1, S30, S50 ... Image signal, S10A to S10U, S51A to S51D ... Color extraction signal, S11 ... Discriminator information signal, S12 ... Discriminator Detection signal, S20 ... Luminance signal, S21A, S21B ... Color difference signal, S31 ... Identification sticker detection signal, S32 ... Robot position detection signal, S40 ... Wall detection signal, S41, S62, S71, S82 ... Position Detection signal.

Claims (29)

所定の領域内を移動する移動体を識別する識別装置において、
各上記移動体にそれぞれ設けられた互いに異なる色パターンの識別体と、
各上記移動体にそれぞれ設けられ、他の上記移動体に配設された上記識別体を撮像する撮像手段と、
上記撮像手段から供給される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する色パターン検出手段と、
上記色パターン検出手段による検出結果と、予め記憶している各上記移動体ごとの上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を有する上記移動体を識別する識別手段と
を具えることを特徴とする識別装置。
In an identification apparatus for identifying a moving body that moves within a predetermined area,
An identifier of a different color pattern provided on each of the moving bodies;
An imaging unit that is provided in each of the moving bodies and that images the identification bodies disposed in the other moving bodies;
Color pattern detection means for detecting the color pattern of the identifier imaged by the imaging means based on the first image information supplied from the imaging means;
Based on the detection result by the color pattern detection means and the color pattern information of the identification body for each of the mobile bodies stored in advance, the mobile body having the identification body imaged by the imaging means is identified. An identification device comprising: identification means.
上記撮像手段から供給される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する大きさ検出手段と、
上記検出手段による検出結果と、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算手段と
を具えることを特徴とする請求項1に記載の識別装置。
A size detecting means for detecting the size of the identifier in the image based on the first image information supplied from the imaging means;
The identification device according to claim 1, further comprising a calculation unit that calculates a distance to the identification object based on a detection result by the detection unit and a reference value stored in advance.
上記識別体は、
上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に色づけされた
ことを特徴とする請求項1に記載の識別装置。
The identifier is
It is a rotating body having a central axis perpendicular to the moving direction of the moving body, and its surface is divided into a plurality of band-like areas parallel to the moving direction of the moving body, and each of the band-like areas has a predetermined color pattern. The identification device according to claim 1, wherein the identification device is colored in a predetermined color.
各上記色パターンは、所定の色空間において互いに所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
ことを特徴とする請求項1に記載の識別装置。
Each of the color patterns is formed by a combination of a plurality of colors separated from each other by a predetermined first distance in a predetermined color space,
The color pattern detection unit converts the first image information supplied from the imaging unit into second image information corresponding to the corresponding color space, and then performs the imaging based on the second image information. The identification device according to claim 1, wherein the color pattern of the identification object imaged by means is detected.
各上記色パターンは、隣接する上記色同士が上記色空間において上記第1の距離より大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
ことを特徴とする請求項4に記載の識別装置。
5. Each of the color patterns is formed by selecting the color combination so that adjacent colors are separated from each other by a second distance larger than the first distance in the color space. The identification device described in 1.
各上記識別体は、それぞれ対応する上記色パターンの光を発光する
ことを特徴とする請求項1に記載の識別装置。
The identification device according to claim 1, wherein each identification body emits light of the corresponding color pattern.
所定の領域内を移動する移動体を識別する識別装置において、
各上記移動体にそれぞれ設けられ、他の上記移動体に配設された上記移動体毎に異なる色パターンの識別体を撮像する撮像手段と、
上記撮像手段から供給される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する色パターン検出手段と、
上記色パターン検出手段による検出結果と、予め記憶している各上記移動体ごとの上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を有する上記移動体を識別する識別手段と
を具えることを特徴とする識別装置。
In an identification apparatus for identifying a moving body that moves within a predetermined area,
An imaging unit that is provided in each of the moving bodies, and that captures an identification body having a different color pattern for each of the moving bodies provided in the other moving bodies;
Color pattern detection means for detecting the color pattern of the identifier imaged by the imaging means based on the first image information supplied from the imaging means;
Based on the detection result by the color pattern detection means and the color pattern information of the identification body for each of the mobile bodies stored in advance, the mobile body having the identification body imaged by the imaging means is identified. An identification device comprising: identification means.
上記撮像手段から供給される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する大きさ検出手段と、
上記検出手段による検出結果と、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算手段と
を具えることを特徴とする請求項7に記載の識別装置。
A size detecting means for detecting the size of the identifier in the image based on the first image information supplied from the imaging means;
The identification device according to claim 7, further comprising: a calculation unit that calculates a distance to the identification object based on a detection result by the detection unit and a reference value stored in advance.
上記識別体は、
上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に色づけされた
ことを特徴とする請求項7に記載の識別装置。
The identifier is
It is a rotating body having a central axis perpendicular to the moving direction of the moving body, and its surface is divided into a plurality of band-like areas parallel to the moving direction of the moving body, and each of the band-like areas has a predetermined color pattern. The identification device according to claim 7, wherein the identification device is colored in a predetermined color.
各上記色パターンは、それぞれ所定の色空間において互いに所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
ことを特徴とする請求項7に記載の識別装置。
Each of the color patterns is formed by a combination of a plurality of colors separated from each other by a predetermined first distance in a predetermined color space,
The color pattern detection unit converts the first image information supplied from the imaging unit into second image information corresponding to the corresponding color space, and then performs the imaging based on the second image information. The identification device according to claim 7, wherein the color pattern of the identification object imaged by means is detected.
所定の領域内を移動する移動体を識別する識別方法において、
各上記移動体に、それぞれ互いに異なる色パターンの識別体を設ける第1のステップと、
各上記移動体にそれぞれ設けられた撮像手段により、他の上記移動体の上記識別体を撮像する第2のステップと、
上記撮像手段から出力される第1の画像情報に基づいて、当該撮像手段により撮像した上記識別体の上記色パターンを検出する第3のステップと、
検出した上記識別体の上記色パターンと、予め記憶している各上記識別体の色パターン情報とに基づいて、上記撮像手段により撮像した上記識別体を識別する第4のステップと
を具えることを特徴とする識別方法。
In an identification method for identifying a moving object that moves within a predetermined area,
A first step of providing each moving body with a different color pattern identification body;
A second step of imaging the identification body of the other mobile body by imaging means provided in each of the mobile bodies;
A third step of detecting the color pattern of the identifier imaged by the imaging means based on the first image information output from the imaging means;
And a fourth step of identifying the identification object imaged by the imaging means based on the detected color pattern of the identification object and color pattern information of each of the identification objects stored in advance. An identification method characterized by.
上記撮像手段から出力される上記第1の画像情報に基づく画像内における上記識別体の大きさを検出する検出ステップと、
検出した上記識別体の大きさと、予め記憶している基準値とに基づいて当該識別体までの距離を算出する演算ステップと
を具えることを特徴とする請求項11に記載の識別方法。
A detection step of detecting a size of the identifier in an image based on the first image information output from the imaging means;
The identification method according to claim 11, further comprising a calculation step of calculating a distance to the identification object based on the detected size of the identification object and a reference value stored in advance.
上記識別体は、
上記移動体の移動方向と垂直な中心軸を有する回転体でなり、その表面が上記移動体の移動方向と平行な複数の帯状領域に分割され、所定の上記色パターンで各上記帯状領域がそれぞれ所定色に着色された
ことを特徴とする請求項11に記載の識別方法。
The identifier is
It is a rotating body having a central axis perpendicular to the moving direction of the moving body, and its surface is divided into a plurality of band-like areas parallel to the moving direction of the moving body, and each of the band-like areas has a predetermined color pattern. The identification method according to claim 11, wherein the identification method is colored in a predetermined color.
各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
上記第3のステップでは、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて上記撮像手段により撮像した上記識別体の上記色パターンを検出する
ことを特徴とする請求項11に記載の識別方法。
Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space,
In the third step, the first image information supplied from the imaging unit is converted into second image information corresponding to the corresponding color space, and then the imaging is performed based on the second image information. The identification method according to claim 11, wherein the color pattern of the identification object imaged by a means is detected.
各上記色パターンは、隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
ことを特徴とする請求項14に記載の識別方法。
Each of the color patterns is formed by selecting a combination of the colors so that adjacent colors are separated from each other by a second distance larger than the first distance in the color space. 14. The identification method according to 14.
各上記識別体は、それぞれ対応する上記色パターンの光を発光する
ことを特徴とする請求項11に記載の識別方法。
The identification method according to claim 11, wherein each identification body emits light of the corresponding color pattern.
所定の領域内を移動する複数の移動体を識別する識別装置において、
上記領域全体を撮像する撮像手段と、
上記撮像手段から出力される第1の画像情報に基づいて、各上記移動体の所定位置にそれぞれ付与された各上記移動体ごとに異なる色パターンをそれぞれ検出する色パターン検出手段と、
上記色パターン検出手段による検出結果と、予め記憶している各移動体にそれぞれ付与された上記色パターンの情報とに基づいて、各上記移動体を識別する識別手段と
を具えることを特徴とする識別装置。
In an identification apparatus for identifying a plurality of moving objects that move within a predetermined area,
Imaging means for imaging the entire region;
Color pattern detection means for detecting a different color pattern for each of the moving bodies respectively given to a predetermined position of each of the moving bodies based on the first image information output from the imaging means;
An identification means for identifying each moving body based on a detection result by the color pattern detecting means and information on the color pattern given to each moving body stored in advance. Identification device.
上記撮像手段から供給される上記第1の画像情報に基づく画像内における各上記移動体の上記色パターンの位置に基づいて、上記領域内における各上記移動体の位置を検出する位置検出手段を具える
ことを特徴とする請求項17に記載の識別装置。
Position detecting means for detecting the position of each moving body in the region based on the position of the color pattern of each moving body in the image based on the first image information supplied from the imaging means. The identification device according to claim 17 , wherein:
各上記色パターンは、それぞれ複数種類の所定色のなかから所定数の色を用いて同心状の複数の環状領域をそれぞれ色づけしてなる
ことを特徴とする請求項17に記載の識別装置。
18. The identification device according to claim 17 , wherein each of the color patterns is formed by coloring a plurality of concentric annular regions using a predetermined number of colors from among a plurality of types of predetermined colors.
各上記色パターンは、それぞれ上記環状領域の径方向に延長する領域を具える
ことを特徴とする請求項17に記載の識別装置。
The identification device according to claim 17 , wherein each of the color patterns includes a region extending in a radial direction of the annular region.
各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
上記色パターン検出手段は、上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて各上記移動体の上記色パターンをそれぞれ検出する
ことを特徴とする請求項17に記載の識別装置。
Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space,
The color pattern detection unit converts the first image information supplied from the imaging unit into second image information corresponding to the corresponding color space, and then converts each of the above-described color image detection units based on the second image information. The identification device according to claim 17 , wherein each of the color patterns of the moving body is detected.
各上記色パターンは、それぞれ隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
ことを特徴とする請求項21に記載の識別装置。
Each of the color patterns is formed by selecting a combination of the colors so that the adjacent colors are separated from each other by a second distance larger than the first distance in the color space. Item 22. The identification device according to Item 21 .
各上記移動体にそれぞれ設けられ、対応する上記色パターンの光を発光する発光手段
を具えることを特徴とする請求項17に記載の識別装置。
The identification device according to claim 17 , further comprising: a light emitting unit that is provided in each of the moving bodies and emits light of the corresponding color pattern.
所定の領域内を移動する複数の移動体を識別する識別方法において、
上記領域全体を撮像する撮像手段を所定位置に配置すると共に、各上記移動体の所定位置にそれぞれ互いに異なる色パターンを付与する第1のステップと、
上記撮像手段から出力される第1の画像情報に基づいて、各上記移動体の上記色パターンをそれぞれ検出する第2のステップと、
上記第2のステップにおける検出結果と、予め記憶している各移動体にそれぞれ設けられた上記色パターンとに基づいて、各上記移動体を識別する第3のステップと
を具えることを特徴とする識別方法。
In an identification method for identifying a plurality of moving objects that move within a predetermined area,
A first step of arranging imaging means for imaging the entire region at a predetermined position and applying different color patterns to the predetermined positions of each of the moving bodies;
A second step of detecting each of the color patterns of the moving bodies based on first image information output from the imaging means;
And a third step of identifying each moving body based on the detection result in the second step and the color pattern provided for each moving body stored in advance. How to identify.
上記撮像手段から供給される上記第1の画像情報に基づく画像内における各上記移動体の上記色パターンの位置に基づいて、上記領域内における各上記移動体の位置を検出する検出ステップ
を具えることを特徴とする請求項24に記載の識別方法。
A detecting step of detecting the position of each moving body in the region based on the position of the color pattern of each moving body in the image based on the first image information supplied from the imaging means; The identification method according to claim 24 , wherein:
各上記色パターンは、
それぞれ複数種類の所定色のなかから所定数の色を用いて同心状の複数の環状領域をそれぞれ色づけしてなる
ことを特徴とする請求項24に記載の識別方法。
Each of the above color patterns
25. The identification method according to claim 24 , wherein each of the plurality of concentric annular regions is colored using a predetermined number of colors from among a plurality of predetermined colors.
各上記色パターンは、
それぞれ上記環状領域の径方向に延長する領域を具える
ことを特徴とする請求項24に記載の識別方法。
Each of the above color patterns
The identification method according to claim 24 , further comprising a region extending in a radial direction of each annular region.
各上記色パターンは、それぞれ所定の色空間において所定の第1の距離だけ離れた複数色の組み合わせにより形成され、
上記第2のステップでは、
上記撮像手段から供給される上記第1の画像情報を対応する上記色空間に応じた第2の画像情報に変換した後、当該第2の画像情報に基づいて各上記移動体の上記色パターンをそれぞれ検出する
ことを特徴とする請求項24に記載の識別方法。
Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space,
In the second step,
After the first image information supplied from the imaging means is converted into second image information corresponding to the corresponding color space, the color pattern of each moving body is converted based on the second image information. 25. The identification method according to claim 24 , wherein each is detected.
各上記色パターンは、それぞれ隣接する上記色同士が上記色空間において上記第1の距離よりも大きい第2の距離だけ離れるように上記色の組み合わせが選定されて形成された
ことを特徴とする請求項28に記載の識別装置。
Each of the color patterns is formed by selecting a combination of the colors so that the adjacent colors are separated from each other by a second distance larger than the first distance in the color space. Item 30. The identification device according to Item 28 .
JP2003408263A 1996-09-30 2003-12-05 Identification apparatus and method Expired - Fee Related JP3928871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003408263A JP3928871B2 (en) 1996-09-30 2003-12-05 Identification apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP28004196 1996-09-30
JP2003408263A JP3928871B2 (en) 1996-09-30 2003-12-05 Identification apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP04878697A Division JP3512099B2 (en) 1996-09-30 1997-03-04 Position detecting system, position detecting device, position detecting method, robot device and control method therefor

Publications (2)

Publication Number Publication Date
JP2004185630A JP2004185630A (en) 2004-07-02
JP3928871B2 true JP3928871B2 (en) 2007-06-13

Family

ID=32774135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408263A Expired - Fee Related JP3928871B2 (en) 1996-09-30 2003-12-05 Identification apparatus and method

Country Status (1)

Country Link
JP (1) JP3928871B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5106903B2 (en) * 2007-03-30 2012-12-26 株式会社東芝 Mobile monitoring system
FR2939325B1 (en) * 2008-12-04 2015-10-16 Parrot DRONES SYSTEM WITH RECONNAISSANCE BEACONS
JP5327822B1 (en) * 2012-10-22 2013-10-30 ニチユ三菱フォークリフト株式会社 Automated transport system
WO2019053798A1 (en) * 2017-09-13 2019-03-21 株式会社Doog Autonomous traveling robot system
JP7313010B2 (en) * 2018-12-28 2023-07-24 パナソニックIpマネジメント株式会社 Mobile system and control method
JP7396532B2 (en) 2021-03-04 2023-12-12 村田機械株式会社 Traveling vehicles and traveling vehicle systems

Also Published As

Publication number Publication date
JP2004185630A (en) 2004-07-02

Similar Documents

Publication Publication Date Title
US6453055B1 (en) Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US8368759B2 (en) Landmark for position determination of mobile robot and apparatus and method using it
JP2001325069A (en) Device and method for detecting position
US10319100B2 (en) Methods, devices, and systems for identifying and tracking an object with multiple cameras
US7747072B2 (en) Image processing method, image processing program, its storage medium, and image processing device for extracting points from a color image
US9978000B2 (en) Information processing device, information processing method, light-emitting device regulating apparatus, and drive current regulating method
US8921752B2 (en) Information acquisition device, information acquisition method, recording medium, and information acquisition system
CN107527368B (en) Three-dimensional space attitude positioning method and device based on two-dimensional code
JP2005021458A (en) Indicated position specifying device and method therefor, and image display system
JP3928871B2 (en) Identification apparatus and method
JP3512099B2 (en) Position detecting system, position detecting device, position detecting method, robot device and control method therefor
US20230084125A1 (en) Information processing apparatus, recording medium, and positioning method
JP2014157051A (en) Position detection device
CN111709994A (en) Autonomous unmanned aerial vehicle visual detection and guidance system and method
CN101937505B (en) Target detection method and equipment and used image acquisition device thereof
JP2007102269A (en) Image processing apparatus
CN110070581B (en) Double-view positioning method, device and system
KR101695728B1 (en) Display system including stereo camera and position detecting method using the same
CN201440274U (en) Target detection equipment and image acquisition device used by same
Watanabe et al. Detecting building changes using epipolar constraint from aerial images taken at different positions
JPH1123262A (en) Three-dimensional position measuring system
US20150262349A1 (en) Free space positioning method and system
KR20040027561A (en) A TV system with a camera-based pointing device, and an acting method thereof
JP2001307072A (en) Recognition system, recognition device, recognition method and storage medium
JPH06147828A (en) Position/attitude measuring equipment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070301

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees