JPH10151591A - Discriminating device and method, position detecting device and method, and robot device and color sampling device - Google Patents
Discriminating device and method, position detecting device and method, and robot device and color sampling deviceInfo
- Publication number
- JPH10151591A JPH10151591A JP9048786A JP4878697A JPH10151591A JP H10151591 A JPH10151591 A JP H10151591A JP 9048786 A JP9048786 A JP 9048786A JP 4878697 A JP4878697 A JP 4878697A JP H10151591 A JPH10151591 A JP H10151591A
- Authority
- JP
- Japan
- Prior art keywords
- color
- wall
- identification
- image
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000005070 sampling Methods 0.000 title abstract 3
- 239000003086 colorant Substances 0.000 claims abstract description 134
- 238000001514 detection method Methods 0.000 claims description 191
- 238000003384 imaging method Methods 0.000 claims description 84
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000004040 coloring Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 23
- 239000007787 solid Substances 0.000 abstract 1
- 230000015654 memory Effects 0.000 description 82
- 238000000605 extraction Methods 0.000 description 54
- 230000009471 action Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 102220536518 THAP domain-containing protein 1_S51A_mutation Human genes 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 102220589231 WW domain-containing transcription regulator protein 1_S51D_mutation Human genes 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 102220588439 Keratin, type I cytoskeletal 18_S10A_mutation Human genes 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 239000003973 paint Substances 0.000 description 4
- 102220247850 rs1421233354 Human genes 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000008054 signal transmission Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【0001】[0001]
【目次】以下の順序で本発明を説明する。[Table of Contents] The present invention will be described in the following order.
【0002】発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 (1)第1実施例 (1−1)第1実施例による個体識別システムの全体構
成(図1〜図4) (1−2)色抽出部の構成(図1〜図6) (1−3)第1実施例の動作及び効果(図1〜図4) (2)第2実施例 (2−1)第2実施例による個体識別システムの全体構
成(図1〜図12) (2−2)第2実施例の動作及び効果(図1〜図12) (3)第3実施例 (3−1)第3実施例による位置検出システムの全体構
成(図13〜図15) (3−2)第3実施例の動作及び効果(図13〜図1
5) (4)第4実施例 (4−1)原理(図16) (4−2)第4実施例による位置検出システムの全体構
成(図14、図17及び図18) (4−3)第4実施例の動作及び効果(図17及び図1
8) (5)第5実施例 (5−1)第5実施例による位置検出システムの全体構
成(図17、図19〜図21) (5−2)第5実施例の動作及び効果(図19〜図2
1) (6)第6実施例 (6−1)第6実施例による位置検出システムの全体構
成(図19、図22〜図24) (6−2)第6実施例の動作及び効果(図22〜図2
4) (7)第7実施例 (7−1)第7実施例による位置検出システムの全体構
成(図14、図25〜図27) (7−2)第7実施例の動作及び効果(図25〜図2
7) (8)第8実施例 (8−1)第8実施例による位置検出システムの全体構
成(図17、図28及び図29) (8−2)第8実施例の動作及び効果(図28及び図2
9) (9)他の実施例(図1〜図36) 発明の効果[0002] 2. Description of the Related Art [0002] Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (1) First Embodiment (1-1) Individual Identification System According to First Embodiment (FIGS. 1 to 4) (1-2) Configuration of Color Extraction Unit (FIGS. 1 to 6) (1-3) Operation and Effect of First Embodiment (FIGS. 1 to 4) (2) Second Embodiment (2-1) Overall Configuration of Individual Identification System According to Second Embodiment (FIGS. 1 to 12) (2-2) Operation and Effect of Second Embodiment (FIGS. 1 to 12) (3) Third Embodiment (3-1) Overall Configuration of Position Detection System According to Third Embodiment (FIGS. 13 to 15) (3-2) Operation and Effect of Third Embodiment (FIGS. 13 to 1)
5) (4) Fourth Embodiment (4-1) Principle (FIG. 16) (4-2) Overall Configuration of Position Detection System According to Fourth Embodiment (FIGS. 14, 17 and 18) (4-3) Operation and effects of the fourth embodiment (FIGS. 17 and 1)
8) (5) Fifth Embodiment (5-1) Overall Configuration of Position Detection System According to Fifth Embodiment (FIGS. 17, 19 to 21) (5-2) Operation and Effect of Fifth Embodiment (FIG. 19 to 2
1) (6) Sixth Embodiment (6-1) Overall Configuration of Position Detection System According to Sixth Embodiment (FIGS. 19, 22 to 24) (6-2) Operation and Effect of Sixth Embodiment (FIG. 22 to FIG.
4) (7) Seventh Embodiment (7-1) Overall Configuration of Position Detection System According to Seventh Embodiment (FIGS. 14, 25 to 27) (7-2) Operation and Effect of Seventh Embodiment (FIG. 25 to 2
7) (8) Eighth Embodiment (8-1) Overall Configuration of Position Detection System According to Eighth Embodiment (FIGS. 17, 28 and 29) (8-2) Operation and Effect of Eighth Embodiment (FIG. 28 and FIG.
9) (9) Other Embodiments (FIGS. 1 to 36) Effects of the Invention
【0003】[0003]
【発明の属する技術分野】本発明は識別装置及び方法、
位置検出装置及び方法、ロボツト装置並びに色抽出装置
に関し、例えば自律移動型ロボツトに適用して好適なも
のである。[0001] The present invention relates to an identification apparatus and method,
The present invention relates to a position detecting device and method, a robot device, and a color extracting device, which are suitable for application to, for example, an autonomous mobile robot.
【0004】[0004]
【従来の技術】近年、移動型ロボツトの1つとして、周
囲の環境についての情報を順次取り込み、得られた情報
に基づいて自分で行動を決定して移動し得るようになさ
れた、いわゆる自律移動型ロボツトの研究が進められて
いる。2. Description of the Related Art In recent years, as one of mobile robots, a so-called autonomous mobile system has been developed in which information about the surrounding environment is sequentially taken in, and an action can be determined by himself / herself based on the obtained information. Research on mold robots is ongoing.
【0005】[0005]
【発明が解決しようとする課題】ところで、このような
移動型ロボツトが他の移動型ロボツトの個体を識別(例
えば1号機、2号機、……等)する方法としては、各ロ
ボツトにそれぞれ電波、赤外線又は音波などの識別のた
めの特別な信号を発生させる第1の方法と、各ロボツト
にそれぞれ互いに異なる所定色を塗布し、当該色に基づ
いてロボツト識別する第2の方法と、各ロボツトの表面
に識別のための記号やバーコード等を表記する第3の方
法となどが考えられる。As a method for such a mobile robot to identify other mobile robot individuals (for example, the first mobile device, the second mobile device,..., Etc.), radio waves are transmitted to each robot. A first method of generating a special signal for identification such as infrared rays or sound waves, a second method of applying a predetermined color different from each other to each robot, and identifying the robot based on the color, and a second method of identifying each robot. A third method of writing symbols or bar codes for identification on the surface may be considered.
【0006】しかしながら第1の方法では、信号を発信
又は受信するための特別な装置が必要となり、また電波
法規による規制や周辺に存在する他の装置への影響など
のため、希望する信号を発信することができない場合が
ある問題がある。However, in the first method, a special device for transmitting or receiving a signal is required, and a desired signal is transmitted due to restrictions by radio laws and influences on other devices existing in the vicinity. There are problems that may not be possible.
【0007】また第2の方法では、ごく少数のロボツト
だけを識別するのであればロボツトの数だけ識別し易い
色を用意すれば良いため問題がないが、多数のロボツト
を識別するためには微妙な色の違いを利用しなければな
らず、画像処理が複雑になつたり、照明条件等の影響を
受け易くなる問題がある。In the second method, if only a small number of robots are to be identified, there is no problem since it is sufficient to prepare colors that can be easily identified by the number of robots, but there is no problem in identifying a large number of robots. There is a problem that the image processing must be complicated and that the image processing is liable to be affected by lighting conditions and the like.
【0008】さらに第3の方法では、ロボツトの向きや
姿勢などにより、記号等が観察できない場合が生じる問
題がある。Further, the third method has a problem that a symbol or the like cannot be observed depending on the direction and posture of the robot.
【0009】一方移動型ロボツトが移動領域内における
自分自身の位置を検出し得るようにする方法としては、
移動領域の床面に色パターンや記号などの標識を表記
し、ロボツトがこれら標識を視覚的に読み取るようにす
る第1の方法と、床面や移動領域の隅部などに電波、赤
外線又は音波などの発信装置を設置し、当該発信装置か
らの信号に基づいて位置を検出する第2の方法と、ロボ
ツトの起動時の位置を何らかの手段によつてロボツトに
与えておき、移動手段の駆動状態(例えば車輪の回転数
等)から移動距離と移動方向を求め、それを積分処理す
ることにより現在の位置を検出する第3の方法などが考
えられる。On the other hand, as a method for enabling a mobile robot to detect its own position in a moving area,
A first method in which a sign such as a color pattern or a symbol is written on the floor of the moving area, and the robot visually reads the mark, and a radio wave, an infrared ray, or a sound wave on the floor or the corner of the moving area. A second method of installing a transmitting device such as a transmitting device, and detecting a position based on a signal from the transmitting device; and providing a position of the robot at the time of starting the robot to the robot by some means, and setting a driving state of the moving device. A third method may be considered in which the moving distance and the moving direction are obtained from (for example, the number of rotations of the wheel) and the current position is detected by integrating the moving distance and the moving direction.
【0010】この場合第1の方法は、ロボツトに配設さ
れたカメラを時々下に向けて床面を撮像するようにし、
又は床面監視用のカメラを別途用意することにより実現
できる。[0010] In this case, the first method is to make the camera disposed on the robot sometimes face downward to capture an image of the floor surface,
Alternatively, this can be realized by separately preparing a camera for monitoring the floor surface.
【0011】しかしながらこの第1の方法を前者の方法
により実現しようとすると、ロボツトが自分の位置を検
出するために下を向いている間は、周囲を十分に見渡す
ことができず、他のロボツトなどの移動体と衝突するお
それがあり、また第1の方法を後者の方法により実現し
ようとすると、床面監視用のカメラを別途用意する分、
製造コストが高くなつたり、ロボツトの重量が増えた
り、又はロボツトの構成が煩雑化する問題がある。However, if the first method is to be realized by the former method, while the robot is facing downward to detect its own position, the robot cannot fully see its surroundings, and the other robots cannot be seen. If the first method is to be realized by the latter method, a camera for floor surveillance is separately prepared,
There are problems that the manufacturing cost is increased, the weight of the robot is increased, or the configuration of the robot is complicated.
【0012】また第2の方法では、発信装置が移動領域
の床面に配置された場合には、それ自体がロボツトの行
動の障害物となる問題がある。In the second method, when the transmitting device is placed on the floor of the moving area, there is a problem that the transmitting device itself becomes an obstacle to the robot's action.
【0013】さらに第3の方法では、ロボツトの移動距
離と移動方向の測定精度の限界から、測定される現在位
置の誤差が大きくなる問題がある。特にロボツトが頻繁
に方向を変えながら長い距離を移動した場合には、誤差
が累積して大きくなり、正しく現在位置を検出すること
が困難となる。Further, the third method has a problem that the error of the current position to be measured becomes large due to the limitation of the measuring accuracy of the moving distance and the moving direction of the robot. In particular, when the robot moves a long distance while frequently changing its direction, errors accumulate and increase, making it difficult to correctly detect the current position.
【0014】本発明は以上の点を考慮してなされたもの
で、移動体又は他の物体を確実に識別し得る簡易な識別
装置及び方法並びにロボツト装置と、領域内における移
動体又は自分の位置を精度良く検出し得る位置検出装置
及び方法並びにロボツト装置と、所望の色を精度良く抽
出し得る色抽出装置とを提案しようとするものである。The present invention has been made in view of the above points, and provides a simple identification apparatus and method and a robot apparatus capable of reliably identifying a moving object or another object, and a moving object or its own position in an area. The present invention is to propose a position detecting device and method and a robot device which can accurately detect a color, and a color extracting device which can accurately extract a desired color.
【0015】[0015]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、識別装置において、各移動体にそ
れぞれ設けられた互いに異なる色パターンの識別体と、
各移動体にそれぞれ設けられ、他の移動体に配設された
移動体毎に異なる色パターンの識別体を撮像する撮像手
段と、撮像手段から供給される第1の画像情報に基づい
て、撮像された識別体の色パターンを検出する色パター
ン検出手段と、当該検出結果と、予め記憶している各移
動体ごとの識別体の色パターン情報とに基づいて、撮像
手段により撮像した識別体を有する移動体を識別する識
別手段とを設けるようにした。According to the present invention, there is provided an identification device, comprising: an identification unit having a different color pattern provided on each moving body;
An image pickup means provided on each of the moving objects, for picking up an image of an identification object having a different color pattern for each of the moving objects disposed on the other moving objects, and an image pickup device based on the first image information supplied from the image pickup means. A color pattern detecting means for detecting a color pattern of the identified object, and an identification object imaged by the imaging means based on the detection result and color pattern information of the identified object for each moving object stored in advance. Identification means for identifying a moving object having the same.
【0016】この結果各移動体の個体を容易かつ確実に
識別することができる。As a result, the individual of each mobile object can be easily and reliably identified.
【0017】また本発明においては、識別装置におい
て、各移動体にそれぞれ設けられ、他の移動体に配設さ
れた移動体毎に異なる色パターンの識別体を撮像する撮
像手段と、撮像手段から供給される第1の画像情報に基
づいて、撮像された識別体の色パターンを検出する色パ
ターン検出手段と、当該検出結果と、予め記憶している
各移動体ごとの識別体の色パターン情報とに基づいて、
撮像手段により撮像した識別体を有する移動体を識別す
る識別手段とを設けるようにした。According to the present invention, in the identification device, the image pickup means is provided for each moving object and picks up an image of the identification object having a different color pattern for each of the moving objects disposed on the other moving objects. A color pattern detecting means for detecting a color pattern of the imaged object based on the supplied first image information; and a detection result and color pattern information of the object stored for each moving object stored in advance. And based on
An identification means for identifying a moving object having an identification object imaged by the imaging means is provided.
【0018】この結果各移動体の個体を容易かつ確実に
識別することができる。As a result, the individual of each moving object can be easily and reliably identified.
【0019】さらに本発明においては、識別方法におい
て、各移動体にそれぞれ互いに異なる色パターンの識別
体を設ける第1のステツプと、各移動体にそれぞれ設け
られた撮像手段により、他の移動体の識別体を撮像する
第2のステツプと、撮像手段から出力される第1の画像
情報に基づいて、撮像した識別体の色パターンを検出す
る第3のステツプと、検出した識別体の色パターンと、
予め記憶している各識別体の色パターン情報とに基づい
て、撮像した識別体を識別する第4のステツプとを設け
るようにした。Further, according to the present invention, in the identification method, the first step of providing each of the moving bodies with an identification body having a different color pattern from each other and the image pickup means provided for each of the moving bodies can be used to identify other moving bodies. A second step of imaging the identification object, a third step of detecting a color pattern of the imaged identification object based on the first image information output from the imaging means, and a color pattern of the detected identification object. ,
A fourth step is provided for identifying the imaged identification object based on the color pattern information of each identification object stored in advance.
【0020】この結果各移動体の個体を容易かつ確実に
識別することができる。As a result, the individual of each moving object can be easily and reliably identified.
【0021】さらに本発明においては、ロボツト装置
に、他の物体にそれぞれ設けられた互いに異なる色パタ
ーンの識別体を撮像する撮像手段と、撮像手段から供給
される画像情報に基づいて、撮像した識別体の色パター
ンを検出する色パターン検出手段と、色パターン検出手
段による検出結果と、予め記憶している各識別体の色パ
ターン情報とに基づいて、撮像した識別体を識別する識
別手段とを設けるようにした。Further, in the present invention, an image pickup means for picking up an image of an identification object having a different color pattern provided on each of the other objects in the robot apparatus, and an identification image picked up based on image information supplied from the image pickup means. Color pattern detection means for detecting the color pattern of the body; identification means for identifying the imaged identification object based on the detection result by the color pattern detection means and the color pattern information of each identification object stored in advance. It was provided.
【0022】この結果ロボツトが他の物体を容易かつ確
実に識別することができる。As a result, the robot can easily and reliably identify another object.
【0023】さらに本発明においては、識別装置におい
て、領域全体を撮像する撮像手段と、撮像手段から出力
される第1の画像情報に基づいて、各移動体の所定位置
にそれぞれ付与された各移動体ごとに異なる色パターン
を検出する色パターン検出手段と、当該検出結果と、予
め記憶している各移動体にそれぞれ付与された色パター
ンの情報とに基づいて、各移動体を識別する識別手段と
を設けるようにした。Further, in the present invention, in the identification device, an image pickup means for picking up an image of the entire area, and each movement given to a predetermined position of each moving body based on the first image information outputted from the image pickup means. Color pattern detection means for detecting a different color pattern for each body, and identification means for identifying each moving body based on the detection result and prestored information on the color pattern assigned to each moving body. Is provided.
【0024】この結果各移動体の個体を容易かつ確実に
識別することができる。As a result, the individual of each moving object can be easily and reliably identified.
【0025】さらに本発明においては、識別方法におい
て、領域全体を撮像する撮像手段を所定位置に配置する
と共に、各移動体の所定位置にそれぞれ互いに異なる色
パターンを付与する第1のステツプと、撮像手段から出
力される第1の画像情報に基づいて、各移動体の色パタ
ーンをそれぞれ検出する第2のステツプと、当該検出結
果と、予め記憶している各移動体にそれぞれ付与された
色パターンの情報とに基づいて、各移動体を識別する第
3のステツプとを設けるようにした。Further, in the present invention, in the identification method, a first step of arranging an image pickup means for picking up an image of the entire area at a predetermined position and giving different color patterns to predetermined positions of each moving body, and A second step of detecting a color pattern of each moving object based on the first image information output from the means, a result of the detection, and a previously stored color pattern assigned to each moving object. And a third step for identifying each moving object based on the information of the third embodiment.
【0026】この結果各移動体の個体を容易かつ確実に
識別することができる。As a result, the individual of each moving object can be easily and reliably identified.
【0027】さらに本発明においては、位置検出装置に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面と、移動体に設けられ、対応する所定の壁
面を撮像する撮像手段と、撮像手段から出力される第1
の画像情報に基づいて、当該撮像手段により撮像された
壁面の色及び当該壁面に対する相対位置を検出する色及
び相対位置検出手段と、色及び相対位置検出手段の各検
出結果と、予め記憶している全ての各壁面の色及び地図
情報に基づいて領域内における移動体の位置を検出する
位置検出手段とを設けるようにした。Further, according to the present invention, in the position detecting device, a plurality of wall surfaces of different colors provided along the periphery of the area, an image pickup means provided on the moving body and imaging the corresponding predetermined wall surface, The first output from the imaging means
Based on the image information, the color and relative position detection means for detecting the color of the wall surface imaged by the imaging means and the relative position with respect to the wall surface, and the detection results of the color and relative position detection means, and are stored in advance. And position detecting means for detecting the position of the moving object in the area based on the colors of all the wall surfaces and the map information.
【0028】この結果領域内における各移動体の位置を
それぞれ容易かつ確実に検出することができる。As a result, the position of each moving body in the area can be detected easily and reliably.
【0029】さらに本発明においては、位置検出装置に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する所定の壁面を撮像する撮
像手段と、撮像手段から出力される第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、色及び相対位置検出手段の各検出結果と、予め
記憶している全ての各壁面の色及び地図情報に基づいて
領域内における移動体の位置を検出する位置検出手段と
を設けるようにした。Further, in the present invention, in the position detecting device, of a plurality of wall surfaces of different colors provided along the periphery of the area, an imaging means for imaging a corresponding predetermined wall surface, and an image output from the imaging means. A color and relative position detecting means for detecting a color of the wall surface imaged by the imaging means and a relative position with respect to the wall surface, based on the first image information, and detection results of the color and relative position detecting means; Position detecting means for detecting the position of the moving object in the area based on the stored color and map information of each wall surface is provided.
【0030】この結果領域内における各移動体の位置を
それぞれ容易かつ確実に検出することができる。As a result, the position of each mobile unit in the area can be detected easily and reliably.
【0031】さらに本発明においては、位置検出方法に
おいて、領域の周囲に沿つて、互いに異なる色の複数の
壁面を設ける第1のステツプと、移動体に配設された撮
像手段により壁面を撮像し、得られた第1の画像情報に
基づいて当該第1の撮像手段により撮像された壁面の色
及び当該壁面に対する相対位置を検出する第2のステツ
プと、これら各検出結果と、予め記憶している全ての各
壁面の色及び地図情報に基づいて領域内における移動体
の位置を検出する第3のステツプとを設けるようにし
た。Further, according to the present invention, in the position detecting method, the first step of providing a plurality of walls of different colors along the periphery of the area and the imaging means provided on the moving body image the walls. A second step of detecting the color of the wall surface imaged by the first imaging means and the relative position with respect to the wall surface based on the obtained first image information, and storing these detection results in advance. And a third step of detecting the position of the moving body in the area based on the colors of all the wall surfaces and the map information.
【0032】この結果領域内における各移動体の位置を
それぞれ容易かつ確実に検出することができる。As a result, the position of each mobile unit in the area can be detected easily and reliably.
【0033】さらに本発明においては、ロボツト装置に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する所定の壁面を撮像する撮
像手段と、撮像手段から出力される第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、色及び相対位置検出手段の各検出結果と、予め
記憶している全ての各壁面の色及び地図情報に基づいて
領域内における移動体の位置を検出する位置検出手段と
を設けるようにした。Further, according to the present invention, in the robot apparatus, of the plurality of wall surfaces of different colors provided along the periphery of the region, the imaging means for imaging the corresponding predetermined wall surface, and the image is outputted from the imaging means. Based on the first image information, a color and relative position detecting means for detecting a color of the wall surface imaged by the imaging means and a relative position with respect to the wall surface, and respective detection results of the color and relative position detecting means, and are stored in advance. And position detecting means for detecting the position of the moving body in the area based on the color of each wall surface and the map information.
【0034】この結果ロボツトが領域内における自分の
位置を容易かつ確実に検出することができる。As a result, the robot can easily and reliably detect its own position in the area.
【0035】さらに本発明においては、供給される画像
信号の輝度信号及び色差信号に基づいて、当該画像信号
に基づく画像内の各画素ごとの輝度レベル及び色差レベ
ルを順次検出するレベル検出手段と、検出された画素の
輝度レベル及び色差レベルと、予め記憶している各輝度
レベル毎の色差レベルの上限値及び下限値とに基づい
て、各画素ごとに所定色か否かを判定する判定手段とを
設けるようにした。Further, according to the present invention, based on a luminance signal and a color difference signal of a supplied image signal, level detecting means for sequentially detecting a luminance level and a color difference level of each pixel in an image based on the image signal, Determining means for determining whether or not each pixel has a predetermined color based on the detected luminance level and color difference level of the pixel, and an upper limit value and a lower limit value of a color difference level for each luminance level stored in advance. Was provided.
【0036】この結果所望の色の画素を確実に抽出する
ことができる。As a result, a pixel of a desired color can be reliably extracted.
【0037】[0037]
【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.
【0038】(1)第1実施例 (1−1)第1実施例による個体識別システムの全体構
成 図1において、1は全体として本発明を適用した個体識
別システムを示し、所定の領域2内に複数のロボツト3
A〜3Cが配置されている。なお以下の説明において
は、領域2が平坦な長方形状であるものとし、所定の一
辺と平行な方向をX方向(矢印x)、これと垂直な方向
をY方向(矢印y)及び領域2と垂直な方向をZ方向
(矢印z)とする。(1) First Embodiment (1-1) Overall Configuration of Individual Identification System According to First Embodiment In FIG. 1, reference numeral 1 denotes an individual identification system to which the present invention is applied as a whole. Robots 3
A to 3C are arranged. In the following description, it is assumed that the region 2 has a flat rectangular shape, a direction parallel to a predetermined side is the X direction (arrow x), and a direction perpendicular thereto is the Y direction (arrow y) and the region 2 The vertical direction is defined as a Z direction (arrow z).
【0039】各ロボツト3A〜3Cにおいては、図2に
示すように、それぞれ胴体部10の上面前端に首部11
を介して頭部12が配設されると共に、胴体部10の下
面の前後左右の4隅にそれぞれ太股部13及び脛部14
からなる右前脚部15A、左前脚部15B、右後脚部1
5C及び左後脚部15D(以下、これらをまとめて各脚
部15A〜15Dと呼ぶ)が配設されることにより構成
されている。In each of the robots 3A to 3C, as shown in FIG.
The head 12 is disposed via the thigh 13 and the shin 14 at the front, rear, left and right corners of the lower surface of the body 10.
Right front leg 15A, left front leg 15B, right hind leg 1
5C and the left rear leg 15D (hereinafter, these are collectively referred to as respective legs 15A to 15D) are provided.
【0040】この場合頭部12にはカメラ16が取り付
けられていると共に当該頭部12の所定位置にはマイク
ロホン17(図3)が取り付けられ、かつ頭部12、胴
体部10及び各脚部15A〜15Dの表面にはそれぞれ
複数の接触センサ18A〜18Z(図3)が取り付けら
れている。In this case, a camera 16 is attached to the head 12, and a microphone 17 (FIG. 3) is attached to a predetermined position of the head 12, and the head 12, body 10 and each leg 15A are attached. A plurality of contact sensors 18A to 18Z (FIG. 3) are respectively attached to the surfaces of to 15D.
【0041】さらに胴体部10内には制御部19(図
3)が配設されており、当該制御部19は、図3に示す
ように、カメラ16から供給される画像信号S1、マイ
クロホン17から供給される音声信号S2及び各接触セ
ンサ18A〜18Zからそれぞれ供給されるセンサ信号
S3A〜S3Zに基づいて周囲の状態を認識し、認識結
果に基づいて各構成ユニツト(頭部12、首部11、胴
体部10、各太股部13及び各脛部14)を連結する各
関節部20A〜20J(図2)内のアクチユエータ21
A〜21Jをそれぞれ必要に応じて駆動させるようにな
されている。Further, a control section 19 (FIG. 3) is provided in the body section 10, and the control section 19 transmits the image signal S1 supplied from the camera 16 and the microphone 17 as shown in FIG. Based on the supplied audio signal S2 and the sensor signals S3A to S3Z supplied from the contact sensors 18A to 18Z, the surrounding state is recognized, and based on the recognition result, each of the constituent units (the head 12, the neck 11, the body) is recognized. Actuator 21 in each of joints 20A to 20J (FIG. 2) for connecting section 10, each thigh 13 and each shin 14).
A to 21J are respectively driven as needed.
【0042】これにより各ロボツト3A〜3Cにおいて
は、制御部19の制御のもとに各構成ユニツトを自在に
駆動し得るようになされ、かくして周囲の環境に応じた
行動を自律的にとることができるようになされている。Thus, in each of the robots 3A to 3C, each component unit can be driven freely under the control of the control unit 19, and thus the action according to the surrounding environment can be autonomously taken. It has been made possible.
【0043】かかる構成に加えこの個体識別システム1
の場合、図2(A)からも明らかなように、各ロボツト
3A〜3Cの胴体部10の上面後端部にはそれぞれ支持
棒22を介して各ロボツト3A〜3C毎に異なるパター
ンで色分けされた球状の識別体23が取り付けられてい
る。In addition to this configuration, the individual identification system 1
In the case of (1), as is clear from FIG. 2 (A), the rear end of the upper surface of the body 10 of each of the robots 3A to 3C is color-coded in a different pattern for each of the robots 3A to 3C via the support rod 22. A spherical discriminator 23 is attached.
【0044】各識別体23は、図2(B)に示すよう
に、球体の表面にそれぞれ複数種類の色の中から所定の
3色をロボツト3A〜3Cの移動方向と垂直な方向(す
なわちZ方向)に並べて帯状に塗布することにより形成
されている。As shown in FIG. 2 (B), each discriminator 23 applies predetermined three colors from among a plurality of types of colors on the surface of the sphere, respectively, in a direction perpendicular to the moving direction of the robots 3A to 3C (ie, Z direction). Direction) and applied in a strip shape.
【0045】また各ロボツト3A〜3Cの制御部19
(図3)内には、それぞれ領域2内を移動する他のロボ
ツト3A〜3Cの個体を識別体23に基づいて識別する
ため、図4に示すような個体識別部30が設けられてい
る。The control unit 19 of each of the robots 3A to 3C.
In FIG. 3, an individual identification unit 30 as shown in FIG. 4 is provided to identify individuals of the other robots 3 </ b> A to 3 </ b> C moving in the area 2 based on the identification object 23.
【0046】すなわち個体識別部30においては、識別
のために用いられた色と同数(例えば16)の色抽出部3
1A〜31Uを有し、カメラ16から供給される画像信
号S1をこれら各色抽出部31A〜31Uにそれぞれ入
力する。That is, in the individual identification section 30, the same number (for example, 16) of color extraction sections 3 as the colors used for identification are used.
1A to 31U, and inputs an image signal S1 supplied from the camera 16 to each of the color extracting units 31A to 31U.
【0047】各色抽出部31は、画像信号S1に基づく
画像のなかからそれぞれ所定色の画素を抽出し、当該画
素に対応する部分が論理「1」レベルに立ち上がり、こ
れ以外の画素に対応する部分が論理「0」レベルに立ち
下がつた色抽出信号S10A〜S10Uをそれぞれ色パ
ターン検出部32に送出する。なお各色抽出部31A〜
31Uは、識別のために用いられた複数の色の中からそ
れぞれ互いに異なる色の画素を抽出する。Each color extracting section 31 extracts a pixel of a predetermined color from the image based on the image signal S1, and a portion corresponding to the pixel rises to a logical “1” level, and a portion corresponding to the other pixels. Sends the color extraction signals S10A to S10U falling to the logical "0" level to the color pattern detection unit 32, respectively. In addition, each color extraction part 31A ~
31U extracts pixels of mutually different colors from a plurality of colors used for identification.
【0048】色パターン検出部32は、各色抽出部31
A〜31Uからそれぞれ供給される各色抽出信号S10
A〜S10Uに基づき得られる画像を重ね合わせて走査
することにより当該画像内の色がほぼ円形状にZ方向に
3色並んだ部分を検出し、これを識別体23であると判
定してその識別体23の色パターンと、当該画像内にお
ける位置と、画素を単位とした直径とを識別体情報信号
S11として比較・演算部33に送出する。The color pattern detecting section 32 is provided for each color extracting section 31.
Each of the color extraction signals S10 supplied from A to 31U, respectively.
By superimposing and scanning the images obtained based on A to S10U, a portion in which three colors are arranged in a substantially circular shape in the Z direction in the image is detected. The color pattern of the identifier 23, the position in the image, and the diameter in pixel units are sent to the comparator / arithmetic unit 33 as an identifier information signal S11.
【0049】比較・演算部33は、供給される識別体情
報信号S11に基づき得られる撮像した識別体23の色
パターンと、第1のメモリ34内に予め格納されている
各識別体23の色パターン及びそのIDに関するテーブ
ルとに基づいて、カメラ16により撮像された識別体2
3のID(すなわちロボツト3A〜3Cの個体)を検出
する。The comparison / arithmetic unit 33 calculates the color pattern of the imaged identification object 23 obtained based on the supplied identification object information signal S11 and the color of each identification object 23 stored in the first memory 34 in advance. The identification object 2 captured by the camera 16 based on the pattern and the table relating to the ID.
3 (that is, the robots 3A to 3C).
【0050】また比較・演算部33は、供給される識別
体情報信号S11に基づき得られる撮像された識別体2
3の画像内での画素を単位とした直径(Dpic)と、第2
のメモリ35内に予め格納されている基準値(カメラ1
6及び識別体23が1〔m〕離れているときの識別体2
3の画素を単位とした直径(Dstd))とに基づいて、次
式The comparing / calculating section 33 is provided with the imaged identification object 2 obtained based on the supplied identification object information signal S11.
The diameter (Dpic) in pixels in the image of 3 and the second
The reference value (camera 1) stored in advance in the memory 35
6 when the discriminator 6 and the discriminator 23 are separated by 1 [m]
3 based on the diameter (Dstd) in pixels)
【0051】[0051]
【数1】 (Equation 1)
【0052】の演算を実行することによりその識別体2
3までの距離L1を算出する。By executing the operation of the above, the identifier 2
The distance L1 to 3 is calculated.
【0053】さらに比較・演算部33は、検出した識別
体23のIDと、(1)式の演算により得られたその識
別体23までの距離L1と、識別体情報信号S11に基
づき得られる画像内における識別体23の位置とを識別
体検出信号S12としてそのロボツト3A〜3C全体の
行動を司る最上位のCPU36に送出する。Further, the comparing / calculating section 33 calculates the ID of the detected discriminator 23, the distance L1 to the discriminator 23 obtained by the calculation of the equation (1), and the image obtained based on the discriminator information signal S11. And the position of the discriminating body 23 within the robot as the discriminating body detection signal S12 to the uppermost CPU 36 which controls the actions of the robots 3A to 3C as a whole.
【0054】このようにしてこのロボツト3A〜3Cに
おいては、CPU36が識別体検出信号S12に基づい
て他のロボツト3A〜3Cの位置を認識することがで
き、かくして認識結果に基づいてより周囲の状況に応じ
た行動をとることができるようになされている。In this way, in the robots 3A to 3C, the CPU 36 can recognize the positions of the other robots 3A to 3C on the basis of the identification object detection signal S12, and thus, based on the recognition result, the surrounding situation. It is possible to take action according to.
【0055】(1−2)色抽出部の構成 ここで一般的に、画像信号に基づく画像内の各色は、当
該画像信号に含まれる2つの色差信号(R−Y、B−
Y)のうちの一方の第1の色差信号の信号レベルUをX
軸にとり、他方の第2の色差信号の信号レベルVをY軸
にとつたUV平面上の点として表すことができる。ただ
し同じ色でも照明の条件等によりUV平面上での位置が
多少変化する。(1-2) Configuration of Color Extraction Unit Generally, each color in an image based on an image signal is represented by two color difference signals (RY, B-Y) included in the image signal.
Y), the signal level U of one of the first color difference signals is
On the axis, the signal level V of the other second color difference signal can be represented as a point on the UV plane taken on the Y axis. However, even on the same color, the position on the UV plane slightly changes depending on the lighting conditions and the like.
【0056】そこで図5に示すように、UV平面におい
て長方形のエリア40を考え、画素の第1及び第2の色
差レベルU、Vがエリア40の中に入つたときにその画
素が抽出しようとしている色であると判定し、かつ照明
条件等の変化に対応させるためその画素の輝度レベルY
によつてエリア40を移動させることによつて、精度良
く画像信号に基づく画像内の対応する色の画素を抽出す
ることができる。Therefore, as shown in FIG. 5, a rectangular area 40 in the UV plane is considered, and when the first and second color difference levels U and V of a pixel enter the area 40, the pixel attempts to extract it. Is determined to be a certain color, and the luminance level Y of the pixel is determined so as to correspond to a change in lighting conditions and the like.
Accordingly, by moving the area 40, the pixel of the corresponding color in the image based on the image signal can be accurately extracted.
【0057】この場合エリア40を指定するには、第1
及び第2の色差レベルU、Vの上限値a1 、b1 及び下
限値a2 、b2 を抽出すべき色に応じて決めれば良く、
またエリア40を輝度レベルYによつて移動させるに
は、予め輝度レベルY毎に第1及び第2の色差レベル
U、Vの上限値a1 、b1 及び下限値a2 、b2 をそれ
ぞれ計算し決定してテーブルを作成し、当該テーブルと
実際の画素の輝度レベルYとに基づいて第1及び第2の
色差レベルU、Vの上限値a1 、b1 及び下限値a2 、
b2 を変化させるようにすれば良い。In this case, to specify the area 40, the first
And the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the second color difference levels U and V may be determined according to the color to be extracted.
In order to move the area 40 by the luminance level Y, the upper and lower limits a 1 and b 1 and the lower and upper limits a 2 and b 2 of the first and second color difference levels U and V are set in advance for each of the luminance levels Y. A table is created by calculation and determination, and based on the table and the luminance level Y of the actual pixel, the upper and lower limits a 1 , b 1 and a 2 , of the first and second color difference levels U, V,
The b 2 may be to change.
【0058】以上の点を考慮し、各ロボツト3A〜3C
の個体識別部30の各色抽出部31A〜31Uは、図6
に示すように構成されている。In consideration of the above points, each robot 3A to 3C
Each of the color extraction units 31A to 31U of the individual identification unit 30 of FIG.
It is configured as shown in FIG.
【0059】すなわち色抽出部31A〜31Uにおいて
は、カメラ16から供給される画像信号S1を分離回路
41に入力し、当該分離回路41において画像信号S1
を輝度信号S20及び2つの色差信号(R−Y、B−
Y)S21A、S21Bに分離する。That is, in the color extraction units 31A to 31U, the image signal S1 supplied from the camera 16 is input to the separation circuit 41, and the separation circuit 41 outputs the image signal S1.
To the luminance signal S20 and two color difference signals (RY, B-
Y) Separate into S21A and S21B.
【0060】この場合輝度信号S20は、アナログ/デ
イジタル変換回路42において所定の第1の周期でサン
プリングされることにより、各画素にそれぞれ対応する
輝度データD1に順次変換され、この後第1〜第4のメ
モリ44A〜44Dに供給される。In this case, the luminance signal S20 is sampled in the analog / digital conversion circuit 42 at a predetermined first cycle, and is sequentially converted into luminance data D1 corresponding to each pixel. 4 are supplied to the memories 44A to 44D.
【0061】また2つの色差信号S21A、S21Bの
うち一方の第1の色差信号S21Aは、アナログ/デイ
ジタル変換回路43Aにおいて上述の第1の周期でサン
プリングされることにより、各画素にそれぞれ対応する
第1の色差データD2Aに順次変換された後第1及び第
2の比較回路45A、45Bに供給されると共に、他方
の第2の色差信号S21Bは、アナログ/デイジタル変
換回路43Bにおいて上述の第1の周期でサンプリング
されることにより、各画素にそれぞれ対応する第2の色
差データD2Bに順次変換された後第3及び第4の比較
回路45C、45Dに供給される。The first color difference signal S21A of one of the two color difference signals S21A and S21B is sampled by the analog / digital conversion circuit 43A at the above-described first cycle, so that the first color difference signal S21A corresponds to each pixel. After being sequentially converted into one color difference data D2A, the data is supplied to the first and second comparison circuits 45A and 45B, and the other second color difference signal S21B is supplied to the analog / digital conversion circuit 43B by the above-mentioned first color difference signal S21B. By being sampled periodically, the data is sequentially converted to second color difference data D2B corresponding to each pixel, and then supplied to the third and fourth comparison circuits 45C and 45D.
【0062】このとき第1及び第2のメモリ44A、4
4Bには、その色抽出部31A〜31Uが抽出すべき色
に対応させて、それぞれ画素の輝度データD1の値(す
なわち輝度レベルY)毎の第1の色差データD2Aの値
(すなわち第1の色差レベルU)の上限値a1 又は下限
値a2 がテーブルとして格納されると共に、第3及び第
4のメモリ44C、44Dには、それぞれ画素の輝度デ
ータD1の値毎の第2の色差データD2Bの値(すなわ
ち第2の色差レベルV)の上限値b1 又は下限値b2 が
テーブルとして格納されている。なおこれらの上限値a
1 、b1 及び下限値a2 、b2 は、画素の輝度レベルY
をアドレスとしてアドレスバス46及びデータバス47
を介して上述した最上位のCPU36により設定され
る。At this time, the first and second memories 44A, 44A,
4B, the value of the first color difference data D2A (that is, the first color difference data D2A) for each value of the luminance data D1 (that is, the luminance level Y) of the pixel is associated with the color to be extracted by the color extraction units 31A to 31U. with an upper limit value a 1 or the lower limit value a 2 of the chrominance level U) is stored as a table, third and fourth memory 44C, the 44D, second color difference data for each respective value of the luminance data D1 of the pixel upper limit value b 1 or the lower limit value b 2 values D2B (i.e. second chrominance level V) is stored as a table. Note that these upper limit values a
1 , b 1 and the lower limits a 2 , b 2 are the luminance levels Y of the pixels.
And an address bus 46 and a data bus 47
Is set by the highest-level CPU 36 described above.
【0063】また第1〜第4のメモリ44A〜44D
は、それぞれ供給される輝度データD1の値をアドレス
として予め格納されたテーブルの中から対応する設定値
を出力するようになされている。The first to fourth memories 44A to 44D
Is configured to output a corresponding set value from a table stored in advance using the value of the supplied luminance data D1 as an address.
【0064】かくして色抽出部31A〜31Uにおいて
は、第1及び第2のメモリ44A〜44Dからそれぞれ
各画素毎に輝度データD1の値に応じた予め設定された
第1の色差レベルの上限値a1 又は下限値a2 が出力さ
れると共に、第3及び第4のメモリ44C、44Dから
それぞれ各画素毎に輝度データD1の値に応じた予め設
定された第2の色差レベルの上限値b1 及び下限値b2
が出力され、これらがそれぞれ対応する第1〜第4の比
較回路45A〜45Dに供給される。Thus, in the color extraction units 31A to 31U, the first upper limit a of the first color difference level corresponding to the value of the luminance data D1 is set for each pixel from the first and second memories 44A to 44D. with 1 or the lower limit value a 2 is output, the third and fourth memory 44C, the upper limit value b 1 of the second color difference level set in advance corresponding to the value of the luminance data D1 for each pixel from each of 44D And lower limit b 2
And these are supplied to the corresponding first to fourth comparison circuits 45A to 45D.
【0065】第1〜第4の比較回路45A〜45Dにお
いては、それぞれ対応する第1〜第3又は第4のメモリ
44A〜44Dの出力と、順次供給される画素毎の第1
又は第2の色差データD2A、D2Bの値とをそれぞれ
順次比較し、比較結果を順次判定回路48に送出する。In the first to fourth comparison circuits 45A to 45D, the outputs of the corresponding first to third or fourth memories 44A to 44D and the first supply for each pixel which are sequentially supplied are respectively provided.
Alternatively, the values of the second color difference data D2A and D2B are sequentially compared with each other, and the comparison results are sequentially sent to the determination circuit.
【0066】判定回路48は、例えばアンド回路構成で
なり、各第1〜第4の比較回路45A〜45Dの出力に
基づいて、その画素が第1〜第4のメモリ44A〜44
D内にそれぞれ格納された第1又は第2の色差レベル
U、Vの上限値a1 、b1 又は下限値a2 、b2 により
決定されるエリア40(図5)内に入つているか否かを
判定し、入つている場合には「1」、入つていない場合
には「0」をフレームメモリ49内のその画素に対応す
る位置に格納する。The decision circuit 48 has, for example, an AND circuit configuration, and its pixels are stored in the first to fourth memories 44A to 44D based on the outputs of the first to fourth comparison circuits 45A to 45D.
D is within the area 40 (FIG. 5) determined by the upper limit values a 1 and b 1 or the lower limit values a 2 and b 2 of the first or second color difference levels U and V respectively stored in D. It is determined whether it is included or not, and “1” is stored in a position corresponding to the pixel in the frame memory 49 if not.
【0067】かくしてフレームメモリ49からは、その
色抽出部31A〜31Uが抽出すべき色の画素に対応す
る部分のみが論理「1」レベルに立ち上がつた色抽出信
号S10A〜S10Uが出力される。Thus, the frame memory 49 outputs the color extraction signals S10A to S10U in which only the portions corresponding to the pixels of the color to be extracted by the color extraction units 31A to 31U rise to the logical "1" level. .
【0068】このようにして各色抽出部31A〜31U
は、画像信号S1に基づく画像の中から対応する色の画
素を抽出し得るようになされ、かくして得られた色抽出
信号S10A〜S10Uを上述のように色パターン検出
部32(図4)に送出するようになされている。As described above, each of the color extracting units 31A to 31U
Can extract the pixels of the corresponding color from the image based on the image signal S1, and send the color extraction signals S10A to S10U thus obtained to the color pattern detection unit 32 (FIG. 4) as described above. It has been made to be.
【0069】(1−3)第1実施例の動作及び効果 以上の構成において、この個体識別システム1の場合、
各ロボツト3A〜3Cは、カメラ16により撮像された
識別体23の色パターンと、カメラ16から供給される
画像信号S1に基づく画像内の位置と、画素を単位とす
る直径とを個体識別部30の色抽出部31A〜31U及
び色パターン検出部32により検出し、当該検出された
識別体23の色パターンと、第1のメモリ34内に格納
された各識別体23の色パターン及びそのIDに関する
テーブルに基づいて撮像した識別体23のID(ロボツ
ト3A〜3Cの個体)を検出すると共に、色パターン検
出部32により検出された識別体23の画素を単位とす
る直径と、第2のメモリ35内に格納された基準値とに
基づいてその識別体23までの距離L1を算出し、検出
したその識別体23のIDと、その識別体23までの距
離L1と、画像内におけるその識別体23の位置とをそ
れぞれそのロボツト3A〜3Cの行動を司る最上位のC
PU36に送出する。(1-3) Operation and Effect of First Embodiment In the above configuration, in the case of this individual identification system 1,
Each of the robots 3A to 3C identifies the color pattern of the identification object 23 captured by the camera 16, the position in the image based on the image signal S1 supplied from the camera 16, and the diameter in units of pixels. And the color pattern of the identified object 23 detected by the color extracting units 31A to 31U and the color pattern detecting unit 32, the color pattern of each identified object 23 stored in the first memory 34, and the ID thereof. The ID (individual robots 3A to 3C) of the imaged object 23 detected based on the table is detected, the diameter of the imaged object 23 detected by the color pattern detection unit 32 as a unit, and the second memory 35. The distance L1 to the identification object 23 is calculated based on the reference value stored in the ID, the detected ID of the identification object 23, the distance L1 to the identification object 23, As the uppermost governs the position and the behavior of the robot 3A~3C respective identification member 23 C to definitive
Send to PU36.
【0070】従つてこの個体識別システム1では、各ロ
ボツト3A〜3Cの最上位のCPUがそれぞれ周囲に位
置する他のロボツト3A〜3Cの個体と、そのロボツト
3A〜3Cまでの距離L1及び方向とを精度良く認識す
ることができる。Accordingly, in the individual identification system 1, the top CPU of each robot 3A to 3C has the other robots 3A to 3C located therearound, and the distance L1 and direction to the robots 3A to 3C. Can be accurately recognized.
【0071】またこの個体識別システム1では、各ロボ
ツト3A〜3Cの識別体23を例えばピンポン球のよう
なものに色を塗ることによつて作製することができるた
め、極めて安価に構築することができる。Further, in this individual identification system 1, since the identification body 23 of each of the robots 3A to 3C can be manufactured by painting a color such as a ping-pong ball, it can be constructed extremely inexpensively. it can.
【0072】さらにこの個体識別システム1では、各ロ
ボツト3A〜3Cが他のロボツト3A〜3Cの個体を識
別し得るようにする手段として特別な信号を利用してい
ないため、周辺機器に悪影響を与えたり、電波法規に基
づく規制を受けたりすることがない。Further, in this individual identification system 1, since each robot 3A to 3C does not use a special signal as means for identifying each individual robot 3A to 3C, peripheral devices are adversely affected. And are not subject to regulations based on radio regulations.
【0073】さらにこの個体識別システム1では、上述
のように識別体23が球状であり、また複数の識別色を
ロボツト3A〜3Cの移動方向と垂直な方向に帯状に塗
られているため、ロボツト3A〜3Cが移動する領域2
がほぼ平坦である限りにおいて、識別体23をどの方向
から見ても同じ形状及び同じ色パターンに見ることがで
き、かくして各ロボツト3A〜3Cが他のロボツト3A
〜3Cの個体を容易かつ確実に識別することができる。Further, in the individual identification system 1, the identification body 23 is spherical as described above, and a plurality of identification colors are painted in a strip shape in a direction perpendicular to the moving direction of the robots 3A to 3C. Area 2 where 3A to 3C move
Can be seen in the same shape and the same color pattern in any direction, as long as the robot 3A is substantially flat, so that each of the robots 3A to 3C can be seen from the other robot 3A.
〜3C individuals can be easily and reliably identified.
【0074】さらにこの個体識別システム1では、各ロ
ボツト3A〜3Cの識別体23が表面を単色ではなく複
数色を塗り分けるようにして構成されているため、色の
組み合わせ方によつて多数のロボツト3A〜3Cを識別
し得るようにすることができる。この場合識別色として
原色などの色合いの大きく異なる色だけを用いても、組
み合わせの数を多くすることができるため、微妙な色の
違いから個体識別を行う場合に比べて、照明条件等に影
響を受け難い利点がある。Further, in the individual identification system 1, since the discriminating bodies 23 of the robots 3A to 3C are configured so that the surface is painted in a plurality of colors instead of a single color, a large number of robots are determined according to the combination of colors. 3A to 3C can be identified. In this case, the number of combinations can be increased by using only colors with greatly different shades, such as primary colors, as identification colors. There is an advantage that is hard to receive.
【0075】以上の構成によれば、各ロボツト3A〜3
Cに、それぞれ互いに異なる色パターンの識別体23を
取り付ける一方、各ロボツト3A〜3Cにおいて、カメ
ラ16により撮像された識別体23の色パターンと、カ
メラ16から供給される画像信号S1に基づく画像内で
の位置及び直径とをそれぞれ検出し、当該検出結果と、
第1のメモリ34内に予め格納された各識別体23の色
パターン及びそのIDに関するテーブルとに基づいて撮
像した識別体23のIDを検出すると共に、検出された
画像信号S1に基づく画像内での識別体23の直径と、
第2のメモリ35内に格納された基準値とに基づいてそ
の識別体23までの距離L1を算出するようにしたこと
により、各ロボツト3A〜3Cがそれぞれ他のロボツト
3A〜3Cの個体を容易かつ確実に識別することがで
き、かくしてロボツト3A〜3Cの個体を確実に認識し
得る簡易な構成の個体識別システム及びロボツトを実現
できる。According to the above configuration, each of the robots 3A to 3A
C, the identification bodies 23 having different color patterns from each other are attached to each of the robots 3A to 3C. At each position and diameter, and the detection result,
Based on the color pattern of each identifier 23 and a table relating to the ID stored in advance in the first memory 34, the ID of the captured identifier 23 is detected, and within the image based on the detected image signal S1. The diameter of the identification body 23 of
By calculating the distance L1 to the discriminator 23 based on the reference value stored in the second memory 35, each robot 3A to 3C can easily identify the other robot 3A to 3C, respectively. In addition, it is possible to realize an individual identification system and a robot having a simple configuration, which can identify the robots 3A to 3C reliably and can surely recognize the individuals of the robots 3A to 3C.
【0076】(2)第2実施例 (2−1)第2実施例による個体識別システムの全体構
成 図7及び図8は、第2実施例による個体識別システム5
0を示すものであり、図2(A)との対応部分に同一符
号を付した図9に示すように、各ロボツト51A〜51
Cの胴体部10の上面にそれぞれ識別シール52が貼り
付けられている。(2) Second Embodiment (2-1) Overall Configuration of Individual Identification System According to Second Embodiment FIGS. 7 and 8 show an individual identification system 5 according to the second embodiment.
0, and the robots 51A to 51A have the same reference numerals as in FIG. 2A, as shown in FIG.
Identification seals 52 are attached to the upper surface of the body 10 of C, respectively.
【0077】この場合各ロボツト51A〜51Cの識別
シール52は、図10に示すように、それぞれその表面
が順次隣接する所定数(例えば6個)の帯状領域52A
〜52Fに分けられ、これら各帯状領域52A〜52F
がそれぞれ識別のために選定された複数色のうちのいず
れかの色に着色されることにより構成されている。また
識別シール52の表面の各帯状領域52A〜52Fを着
色する色の組み合わせ(色パターン)は識別シール52
毎に異なるパターンに選定されており、かくして識別シ
ール52の色パターンに基づいてそのロボツト51A〜
51Cの個体を識別し得るようになされている。In this case, as shown in FIG. 10, the identification seals 52 of the robots 51A to 51C each have a predetermined number (for example, six) of strip-shaped areas 52A whose surfaces are successively adjacent to each other.
To 52F, and each of these band-shaped regions 52A to 52F
Are colored in any one of a plurality of colors selected for identification. The combination of colors (color pattern) for coloring each of the band-shaped regions 52A to 52F on the surface of the identification seal 52 is determined by the identification
A different pattern is selected for each of the robots 51A to 51A based on the color pattern of the identification seal 52.
51C individuals can be identified.
【0078】一方図7及び図8からも明らかなように、
領域2の上方には当該領域2全体を1画面内に撮影し得
るようにカメラ53が配設されており、当該カメラ53
から出力された画像信号S30が領域2の外部に配設さ
れた個体識別部54に供給されるようになされている。On the other hand, as is clear from FIGS. 7 and 8,
A camera 53 is provided above the area 2 so that the entire area 2 can be photographed in one screen.
Is supplied to the individual identification unit 54 provided outside the area 2.
【0079】この場合個体識別部54には、図4との対
応部分に同一符号を付して示す図11に示すように、識
別のための色の数に応じた数(16色とする)の色抽出部
31A〜31Uが設けられており、これら色抽出部31
A〜31Uからそれぞれ出力される色抽出信号S10A
〜S10Uがそれぞれ色パターン検出部55に送出され
る。In this case, as shown in FIG. 11 in which the same reference numerals are assigned to the parts corresponding to FIG. 4, the individual identification unit 54 has a number (16 colors) corresponding to the number of colors for identification. Color extraction units 31A to 31U are provided.
Color extraction signals S10A respectively output from A to 31U
To S10U are sent to the color pattern detection unit 55.
【0080】色パターン検出部55は、供給される各色
抽出信号S10A〜S10Uに基づく各画像を重ね合わ
せて走査することにより当該画像内において識別のため
の色が帯状に所定数並んでいる部分を検出し、その部分
をロボツト51A〜51Cの識別シール52と判定し
て、その識別シール52の色パターンと、画像内におけ
る画素を単位とする位置とを識別シール検出信号S31
として比較・演算部56に送出する。なおこの場合領域
2内に位置するロボツト51A〜51Cの数だけ識別シ
ール52が検出され、各識別シール52の色パターンと
画像内における位置とがそれぞれ比較・演算部56に送
出される。The color pattern detecting section 55 scans the images based on the supplied color extraction signals S10A to S10U in a superimposed manner, thereby detecting a portion where a predetermined number of colors for identification are arranged in a band in the image. The identification label is determined as the identification label 52 of the robots 51A to 51C, and the color pattern of the identification label 52 and the position in the image in units of pixels are identified by the identification label detection signal S31.
Is sent to the comparison / calculation unit 56. In this case, the identification seals 52 are detected by the number of the robots 51A to 51C located in the area 2, and the color pattern of each identification seal 52 and the position in the image are sent to the comparison / calculation unit 56, respectively.
【0081】比較・演算部56は、供給される識別シー
ル検出信号S31に基づき得られる各識別シール52の
色パターンと、予めメモリ57内に格納されている各識
別シール52の色パターン及びそのIDに関するテーブ
ルとに基づいて、カメラ53からの画像信号S30に基
づく画像内の各識別シール52のID(すなわち各ロボ
ツト51A〜51Cの個体)を検出し、かくして得られ
た各識別シール52のID及びその領域2内における位
置情報をロボツト位置検出信号S32として送信部58
を介して領域2内を移動する各ロボツト51A〜51C
に電波により送信する。The comparison / calculation unit 56 calculates the color pattern of each identification seal 52 obtained based on the supplied identification seal detection signal S31, the color pattern of each identification seal 52 stored in the memory 57 in advance, and its ID. The ID of each identification seal 52 in the image based on the image signal S30 from the camera 53 (that is, the individual of each of the robots 51A to 51C) is detected based on the table and the ID of each identification seal 52 thus obtained. The transmitting unit 58 uses the position information in the area 2 as the robot position detection signal S32.
Robots 51A to 51C moving in the area 2 through the
To be transmitted by radio waves.
【0082】各ロボツト51A〜51Cにおいては、図
3との対応部分に同一符号を付した図12に示すよう
に、個体識別部54の発信部58から発信された電波を
アンテナ60を介して受信部61において受信し、得ら
れた各識別シール52のID(すなわち各ロボツト51
A〜51Cの個体)及び領域2内におけるその位置情報
を受信信号S33として制御部62に送出する。In each of the robots 51A to 51C, the radio wave transmitted from the transmitting section 58 of the individual identification section 54 is received via the antenna 60 as shown in FIG. The ID of each identification seal 52 received and obtained by the unit 61 (that is, each robot 51
The position information in the area 2 is transmitted to the control unit 62 as a reception signal S33.
【0083】このとき制御部62には、カメラ16から
画像信号1が供給されると共に、マイクロホン17から
音声信号S2が供給され、かつ各接触センサ18A〜1
8Zからセンサ信号S3A〜S3Zが供給される。At this time, the control unit 62 is supplied with the image signal 1 from the camera 16, the audio signal S 2 from the microphone 17, and the contact sensors 18 A to 18 A.
Sensor signals S3A to S3Z are supplied from 8Z.
【0084】かくして制御部62は、供給される画像信
号S1、音声信号S2、各センサ信号S3A〜3Z及び
受信信号S33に基づいて周囲の環境と、領域2内にお
ける自分を含めた各ロボツト51A〜51Cの位置とを
認識し得、認識結果に基づいて自分で行動を決定し、決
定結果に基づいて対応する各アクチユエータ21A〜2
1Jを駆動させる。Thus, the control unit 62 determines the surrounding environment and the robots 51A to 51A including the self in the area 2 based on the supplied image signal S1, sound signal S2, sensor signals S3A to 3Z and received signal S33. 51C, and can determine its own action based on the recognition result. Based on the determination result, the corresponding actuators 21A to 21A-2 correspond to each other.
Drive 1J.
【0085】このようにして各ロボツト51A〜51C
は、それぞれ周囲の環境と、領域2内を移動する自分を
含めた全てのロボツト51A〜51Cの位置とを認識
し、認識結果に基づいて自律的に行動し得るようになさ
れている。In this way, each of the robots 51A to 51C
Is capable of recognizing the surrounding environment and the positions of all the robots 51A to 51C including itself moving in the area 2, and acting autonomously based on the recognition result.
【0086】(2−2)第2実施例の動作及び効果 以上の構成において、この個体識別システム50では、
領域2全体をその上方からカメラ53により撮像し、得
られた画像信号S30に基づいて、領域2の外部に配設
された個体識別部54により画像信号S30に基づく画
像内の各識別シール52の位置を各色抽出部31A〜3
1U及び色パターン検出部55により検出し、当該検出
結果と、メモリ57内に格納された各識別シール52の
色パターン情報とから画像内における各識別シール52
の位置及びIDを検出し、検出結果を送信部58を介し
て領域2内の各ロボツト51A〜51Cに送信する。(2-2) Operation and Effect of Second Embodiment In the above configuration, in the individual identification system 50,
The entire area 2 is imaged from above by the camera 53, and based on the obtained image signal S30, the individual identification unit 54 disposed outside the area 2 is used to identify each of the identification seals 52 in the image based on the image signal S30. The position is determined for each color extraction unit 31A-3
Each of the identification labels 52 in the image is detected based on the detection result and the color pattern information of each of the identification labels 52 stored in the memory 57.
And the detection result is transmitted to each of the robots 51A to 51C in the area 2 via the transmission unit 58.
【0087】一方各ロボツト51A〜51Cにおいて
は、個体識別部54から送信される各ロボツト51A〜
51Cの領域2内における位置情報と、カメラ16から
供給される画像信号S1と、マイロクホン17から供給
される音声信号S2と、各接触センサ18A〜18Zか
らそれぞれ供給されるセンサ信号S3A〜S3Zとに基
づいて周囲の状況及び各ロボツト51A〜51Cの位置
を認識し、認識結果に基づいて自律的に行動する。On the other hand, in each of the robots 51A to 51C, each of the robots 51A to 51
The position information in the region 2 of 51C, the image signal S1 supplied from the camera 16, the audio signal S2 supplied from the mylophone 17, and the sensor signals S3A to S3Z respectively supplied from the contact sensors 18A to 18Z. The robot recognizes the surrounding situation and the positions of the robots 51A to 51C based on the recognition result, and acts autonomously based on the recognition result.
【0088】従つてこの個体識別システム50では、各
ロボツト51A〜51Cが領域2内における他のロボツ
ト51A〜51C及び自分自身の絶対的な位置を確実に
認識することができる。Therefore, in the individual identification system 50, each of the robots 51A to 51C can surely recognize the other robots 51A to 51C and the absolute position of itself in the area 2.
【0089】またこの個体識別システム50では、各ロ
ボツト51A〜51Cに対する処置としては、それぞれ
アンテナ60及び受信部61を配設すると共に識別シー
ル52を貼り付けるだけで良いため、各ロボツト51A
〜51Cの構成を第1実施例の各ロボツト3A〜3C
(図2(A))に比べてより簡易化することができる。
またシステム全体としても、領域2全体を撮像するため
のカメラ53及び個体識別部54が必要となるが、これ
はロボツト51A〜51Cの台数によらず一組で良いた
め、第1実施例に比べて構成を簡易化することができ
る。Further, in the individual identification system 50, since only the antenna 60 and the receiving section 61 are provided and the identification seal 52 is attached to the robots 51A to 51C, only the robots 51A to 51C are required.
To 51C are replaced with the robots 3A to 3C of the first embodiment.
This can be more simplified than (FIG. 2A).
In addition, the entire system requires a camera 53 and an individual identification unit 54 for imaging the entire area 2, but this can be a single set regardless of the number of the robots 51 </ b> A to 51 </ b> C. Thus, the configuration can be simplified.
【0090】またこの個体識別システム50では、識別
シール52の表面を単色ではなく複数の色で塗り分けて
いるため、色の組み合わせ方によつて容易に多数のロボ
ツト51A〜51Cを識別し得るようにすることができ
る。この場合識別のための色として、原色などの色合い
の大きく異なる色を用いたとしても、組み合わせ数を多
くすることができるため、単色を用いて微妙な色の違い
から個体識別を行う場合に比べて、照明条件などの影響
を受け難い利点がある。Also, in this individual identification system 50, since the surface of the identification seal 52 is painted in a plurality of colors instead of a single color, a large number of robots 51A to 51C can be easily identified by the combination of colors. Can be In this case, even if a color with a large difference in color, such as the primary color, is used as the color for identification, the number of combinations can be increased, so that individual identification is performed using subtle color differences using a single color. Therefore, there is an advantage that it is hardly affected by lighting conditions and the like.
【0091】さらにこの個体識別システム50では、領
域2内の各ロボツト51A〜51CのID及び位置を個
体識別部54において集中的に認識することができるた
め、これを記憶しておくことによつて各ロボツト51A
〜51Cの行動の記録として各ロボツト51A〜51C
をそれぞれ制御するプログラムの評価や改良に利用する
ことができる。Further, in the individual identification system 50, since the ID and the position of each of the robots 51A to 51C in the area 2 can be intensively recognized in the individual identification section 54, this is stored. Each robot 51A
Each of the robots 51A to 51C as a record of the actions of
Can be used for evaluation and improvement of a program that controls each of them.
【0092】さらにこの個体識別システム50では、各
ロボツト51A〜51Cの視覚を利用していないため、
各ロボツト51A〜51Cの視覚処理能力が低い場合
や、各ロボツト51A〜51Cが視覚を全く備えていな
い場合でも適用することができる利点もある。Further, in this individual identification system 50, since the vision of each of the robots 51A to 51C is not used,
There is also an advantage that the present invention can be applied to the case where the robots 51A to 51C have low visual processing capability or the case where each of the robots 51A to 51C has no vision.
【0093】以上の構成によれば、ロボツト51A〜5
1Cの行動領域2全体をその上方からカメラ53により
撮像し、得られた画像信号S30に基づく画像内の各識
別シール52の位置を検出し、当該検出結果と、メモリ
57内に格納された各識別シール52の色パターン情報
とから画像内における各識別シール52のID及び位置
を検出し、当該検出結果を領域2内の各ロボツト51A
〜51Cに送信するようにしたことにより、領域2内を
移動する各ロボツト51A〜51Cの絶対的な位置を精
度良く検出することができ、かくして行動領域2内にお
ける各ロボツト51A〜51Cを確実に識別し得る簡易
な構成の個体識別システム及びロボツトを実現できる。According to the above configuration, the robots 51A to 51A-5
The entire action area 2 of 1C is imaged from above by the camera 53, the position of each identification seal 52 in the image based on the obtained image signal S30 is detected, and the detection result and each of the identification seals 52 stored in the memory 57 are detected. The ID and position of each identification seal 52 in the image are detected from the color pattern information of the identification seal 52, and the detection result is used as each robot 51A in the area 2.
To 51C, the absolute positions of the robots 51A to 51C moving in the area 2 can be accurately detected, and thus the robots 51A to 51C in the action area 2 can be reliably detected. An individual identification system and a robot having a simple configuration that can be identified can be realized.
【0094】(3)第3実施例 (3−1)第3実施例による位置検出システムの全体構
成 図2(A)との対応部分に同一符号を付して示す図13
は、本発明を適用した位置検出システム70を示すもの
であり、ロボツト71の行動領域2の周囲に沿つて所定
高さの壁72が設けられている。(3) Third Embodiment (3-1) Overall Configuration of Position Detection System According to Third Embodiment FIG. 13 in which parts corresponding to those in FIG.
1 shows a position detection system 70 to which the present invention is applied, in which a wall 72 having a predetermined height is provided along the periphery of the action area 2 of the robot 71.
【0095】この場合壁72の内壁面72Aは、領域2
の各辺に沿う壁面72AA〜72ADごとにそれぞれ互
いに異なる色が塗られており、かくして塗られた色に基
づいてその壁面72AA〜72ADがどの壁面72AA
〜72ADかを容易に判別し得るようになされている。In this case, the inner wall surface 72A of the wall 72 is
Each of the wall surfaces 72AA to 72AD along each side is painted with a different color, and the wall surfaces 72AA to 72AD are determined based on the painted color.
7272 AD can be easily determined.
【0096】一方ロボツト71は、第1実施例のロボツ
ト3A〜3C(図2(A)、図3)の制御部19(図
3)内に個体識別部30(図4)に代えて図15に示す
ような壁識別部80が設けられていることを除いて第1
実施例のロボツト3A〜3Cと同様に構成されている。On the other hand, the robot 71 is provided in the control unit 19 (FIG. 3) of the robots 3A to 3C (FIGS. 2A and 3) of the first embodiment instead of the individual identification unit 30 (FIG. 4) in FIG. Except that a wall identification unit 80 as shown in FIG.
It is configured similarly to the robots 3A to 3C of the embodiment.
【0097】この場合壁識別部80には、領域2の各辺
に沿う壁面72AA〜72ADの数(4面とする)だけ
色抽出部31A〜31Dが設けられており、カメラ16
から供給される画像信号S1を各色抽出部31A〜31
Dにそれぞれ入力するようになされている。In this case, the wall discriminating section 80 is provided with the color extracting sections 31A to 31D as many as the number of the wall surfaces 72AA to 72AD (four sides) along each side of the area 2.
The image signal S1 supplied from the color extraction units 31A to 31
D, respectively.
【0098】この結果各色抽出部31A〜31Dから
は、それぞれ画像信号S1に基づく画像内の画素のうち
の対応する色の画素に対応する部分が論理「1」レベル
に立ち上がり、他の色の画素に対応する部分が論理
「0」レベルに立ち下がつた色抽出信号S10A〜S1
0Dが出力され、これが壁検出部81に供給される。な
お各色抽出部31A〜31Dは、それぞれ各壁面72A
A〜72ADに塗られた識別のための複数の色の中から
互いに異なる1色だけを抽出する。As a result, from each of the color extracting sections 31A to 31D, a portion corresponding to the pixel of the corresponding color among the pixels in the image based on the image signal S1 rises to the logical "1" level, and the pixels of the other colors Are extracted to the logic "0" level.
0D is output and supplied to the wall detection unit 81. In addition, each color extraction part 31A-31D is each wall surface 72A.
Only one different color is extracted from a plurality of colors for identification applied to A to 72AD.
【0099】壁検出部81は、各色抽出部31A〜31
Dからそれぞれ供給される色抽出信号S10A〜S10
Dに基づく画像を重ね合わせて走査することにより、ほ
ぼ水平な同色の細長い領域をいずれかの壁面72AA〜
72ADと判断すると共に、その壁面72AA〜72A
Dに塗布された色を検出し、かつ画像信号S1に基づく
画像内におけるその壁面72AA〜72ADの高さを画
素を単位として検出し、これら得られたその壁面72A
A〜72ADの色と画像内における高さとを壁検出信号
S40として比較・演算部82に送出する。[0099] The wall detecting section 81 includes the color extracting sections 31A to 31A.
D respectively supplied with color extraction signals S10A to S10
By scanning the images based on D in a superimposed manner, a substantially horizontal elongated region of the same color can be formed on any of the wall surfaces 72AA to 72AA.
72AD and its wall surfaces 72AA-72A
D is detected, and the heights of the wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected in units of pixels.
The colors of A to 72AD and the height in the image are sent to the comparison / calculation unit 82 as a wall detection signal S40.
【0100】比較・演算部82は、壁検出信号S40に
基づき得られるその壁面72AA〜72ADの色と、第
1のメモリ83内に予め格納されている各壁面72AA
〜72ADの各色及びそのIDに関するテーブルとに基
づいて、その壁面72AA〜72ADのIDを検索す
る。The comparing / calculating section 82 calculates the colors of the wall surfaces 72AA to 72AD obtained based on the wall detection signal S40 and the wall surfaces 72AA stored in the first memory 83 in advance.
The IDs of the wall surfaces 72AA to 72AD are searched based on the respective colors of .about.72AD and the table relating to their IDs.
【0101】また比較・演算部82は、壁検出信号S4
0に基づき得られるその壁面72AA〜72ADの画像
内における高さ(Hpicとする)と、第2のメモリ84内
に予め格納されている基準値(ロボツト71が壁面72
AA〜72ADから1〔m〕離れているときの画像内に
おけるその壁面72AA〜72ADの画素を単位とする
高さ(Hstdとする))とに基づいて、次式The comparing / calculating section 82 outputs the wall detection signal S4
The height (referred to as Hpic) in the image of the wall surfaces 72AA to 72AD obtained on the basis of 0 and a reference value (the robot 71 corresponds to the wall surface 72AD) stored in advance in the second memory 84.
Based on the height (Hstd) in pixels of the wall surfaces 72AA to 72AD in the image at a distance of 1 [m] from AA to 72AD,
【0102】[0102]
【数2】 (Equation 2)
【0103】を実行することによりカメラ16からその
壁面72AA〜72ADまでの距離L2を算出する。By executing the above, the distance L2 from the camera 16 to the wall surfaces 72AA to 72AD is calculated.
【0104】さらに比較・演算部82は、この後カメラ
16がその壁面(以下、これを第1の壁面と呼ぶ)72
AA〜72ADと異なる壁面(以下、これを第2の壁面
と呼ぶ)72AA〜72ADに向けられた後、同様の処
理を実行することにより第2の壁面72AA〜72AD
のIDと、当該第2の壁面72AA〜72ADまでの距
離L3とを算出する。Further, the comparison / calculation unit 82 determines that the camera 16 is to move its wall (hereinafter referred to as a first wall) 72
After being directed to a wall surface different from AA to 72AD (hereinafter referred to as a second wall surface) 72AA to 72AD, the same processing is executed to execute the second wall surface 72AA to 72AD.
And the distance L3 to the second wall surfaces 72AA to 72AD are calculated.
【0105】さらにこの後比較・演算部82は、上述の
ようにして得られた第1の壁面72AA〜72ADのI
D及び当該第1の壁面72AA〜72ADまでの距離L
2と、第2の壁面72AA〜72ADのID及び当該第
2の壁面72AA〜72ADまでの距離L3と、第3の
メモリ85内に予め格納されている領域2の各辺に沿つ
た各壁面72AA〜72ADの位置を含む領域2の地図
情報とに基づいて領域2内における自分の位置を検出
し、これを位置検出信号S41として当該ロボツト71
の行動を司る最上位のCPU36に送出する。Further, thereafter, the comparison / calculation unit 82 determines the I / O of the first wall surfaces 72AA to 72AD obtained as described above.
D and the distance L to the first wall surfaces 72AA to 72AD.
2, the IDs of the second wall surfaces 72AA to 72AD, the distance L3 to the second wall surfaces 72AA to 72AD, and each wall surface 72AA along each side of the area 2 stored in the third memory 85 in advance. The position of the robot 71 in the area 2 is detected based on the map information of the area 2 including the positions of .about.72AD, and this is detected as a position detection signal S41.
Is sent to the highest-order CPU 36 which controls the above operation.
【0106】これによりこのロボツト71においては、
CPU36が位置検出信号S41に基づいて領域2内に
おける自分の位置を認識し得、当該認識結果に基づいて
周囲の状況に応じた行動を自律的にとることができるよ
うになされている。As a result, in the robot 71,
The CPU 36 can recognize its own position in the area 2 based on the position detection signal S41, and can autonomously take an action according to the surrounding situation based on the recognition result.
【0107】(3−2)第3実施例の動作及び効果 以上の構成において、この位置検出システム70では、
ロボツト71がカメラ16から出力される画像信号S1
に基づいて、周囲の第1及び第2の壁面72AA〜72
ADに塗布された色と、画像信号S1に基づく画像内に
おけるその第1及び第2の壁面72AA〜72ADの高
さHpicとを検出し、当該検出結果と、第1のメモリ83
に予め格納されている各壁面72AA〜72ADの色及
びそのIDと、第2のメモリ84に予め格納されている
基準値Hstdと、第3のメモリ85に予め格納されている
地図情報とに基づいて領域2内における自分の位置を検
出する。(3-2) Operation and Effect of Third Embodiment In the above configuration, in this position detection system 70,
The robot 71 outputs an image signal S1 output from the camera 16.
Based on the first and second surrounding wall surfaces 72AA-72
The color applied to the AD and the height Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and the detection result and the first memory 83 are detected.
Based on the colors and the IDs of the wall surfaces 72AA to 72AD stored in advance, the reference value Hstd stored in advance in the second memory 84, and the map information stored in advance in the third memory 85. To detect its own position in the area 2.
【0108】従つてこの位置検出システム70では、2
つの壁面72AA〜72ADの色及びこれら壁面72A
A〜72ADの画像内における高さHpicからロボツト7
1が領域2内における自分自身の位置を容易かつ精度良
く認識することができる。Therefore, in this position detecting system 70, 2
Of two wall surfaces 72AA to 72AD and these wall surfaces 72A
Robot 7 from height Hpic in the images of A-72AD
1 can easily and accurately recognize its own position in the area 2.
【0109】またこの位置検出システム70では、領域
2の各辺に沿つて配置された各壁面72AA〜72AD
にそれぞれ互いに異なる色を塗るだけで良いため、極め
て簡単にシステムを構築することができる。In the position detecting system 70, each of the wall surfaces 72AA to 72AD arranged along each side of the area 2 is provided.
Since it is only necessary to apply different colors to each other, the system can be constructed extremely easily.
【0110】さらにこの位置検出システム70では、電
波などの特別な信号を発信する方法を使用していないた
め、周辺機器への影響や電波法規などを考慮することな
く使用することができ、また領域2の床面に信号発生機
を設置する必要がないため、ロボツト71の移動を妨げ
るおそれもない。Further, since the position detecting system 70 does not use a method of transmitting a special signal such as a radio wave, the position detecting system 70 can be used without considering the influence on peripheral devices and radio regulations. Since there is no need to install a signal generator on the floor of No. 2, there is no possibility that the movement of the robot 71 will be hindered.
【0111】さらにこの位置検出システム70では、ロ
ボツト71の行動領域2の床面に記号や標識等を表記す
る方式ではないため、他の目的のために床面にペイント
などを施すこともできる。Further, in this position detection system 70, since a method of not writing a sign or a sign on the floor of the action area 2 of the robot 71 is not used, paint or the like can be applied to the floor for another purpose.
【0112】さらにこの位置検出システム70では、ロ
ボツト71のカメラ16をおおよそ水平方向に向けるこ
とによつて当該ロボツト71の正面の壁面72AA〜7
2ADをカメラ16により撮像することができるため、
ロボツト71が領域2内における自分の位置を検出する
ためにカメラ16を所定方向を向ける必要がなく、また
他のロボツト71をカメラ16でとらえながら領域2内
における自分の位置を検出することができる利点もあ
る。Further, in the position detecting system 70, the camera 16 of the robot 71 is oriented in a substantially horizontal direction, so that the front wall surfaces 72AA to 7AA of the robot 71 are provided.
Since 2AD can be imaged by the camera 16,
The robot 71 does not need to point the camera 16 in a predetermined direction in order to detect its own position in the area 2, and can detect its own position in the area 2 while capturing the other robots 71 with the camera 16. There are advantages too.
【0113】以上の構成によれば、ロボツト71の行動
領域2の各辺にそれぞれ沿つて壁面72AA〜72AD
を設けると共に各壁面72AA〜72ADにそれぞれ互
いに異なる色を塗布する一方、ロボツト71が、カメラ
16から出力される画像信号S1に基づいて、当該カメ
ラ16により撮像された少なくとも2以上の壁面72A
A〜72ADの色と、画像信号S1に基づく画像内での
各壁面72AA〜72ADの高さHpicとをそれぞれ検出
し、当該検出結果と、第1のメモリ83に予め格納され
ている各壁面72AA〜72ADの識別色及びそのID
と、第2のメモリ84に予め格納されている基準値Hstd
と、第3のメモリ85に予め格納されている領域2の地
図情報とに基づいて領域2内における自分の位置を検出
するようにしたことにより、ロボツト71が領域2内に
おける自分の位置を精度良く検出することができ、かく
して領域2内における自分自身の位置を精度良く検出し
得る位置検出システム及びロボツトを実現できる。According to the above configuration, the wall surfaces 72AA to 72AD are respectively formed along the sides of the action area 2 of the robot 71.
And apply different colors to the wall surfaces 72AA to 72AD, respectively, while the robot 71 detects at least two or more wall surfaces 72A imaged by the camera 16 based on the image signal S1 output from the camera 16.
The colors of A to 72AD and the height Hpic of each of the wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and the detection result and each of the wall surfaces 72AA stored in the first memory 83 in advance are detected. Identification color of ~ 72AD and its ID
And the reference value Hstd stored in the second memory 84 in advance.
The robot 71 can detect its own position in the area 2 by detecting its own position in the area 2 based on the map information of the area 2 stored in the third memory 85 in advance. Thus, it is possible to realize a position detection system and a robot capable of detecting the position of the object itself in the area 2 with good accuracy.
【0114】(4)第4実施例 (4−1)原理 一般的に色は、色相(Hue )、彩度(Saturation)及び
明度(Intensity )の3つの属性を用いて表すことがで
きる。(4) Fourth Embodiment (4-1) Principle In general, a color can be represented using three attributes of hue (Hue), saturation (Saturation) and lightness (Intensity).
【0115】この場合これら色相、彩度(飽和度とも呼
ぶ)及び明度の関係は、図16(A)及び(B)に示す
ように、平面上の任意の1点を原点Oとした場合におい
て、色相をこの平面内における原点Oまわりの角度と
し、彩度をこの平面内における原点Oからの距離とし、
かつ明度をこの平面と垂直な方向における原点Oからの
距離とする極座標で表すことができる。なお図16
(B)に示す六角形の各頂点は、それぞれR(赤色)、
Y(黄色)、G(緑色)、C(シアン)、B(青色)及
びM(マゼンダ)に相当する。In this case, the relationship between the hue, saturation (also referred to as saturation) and lightness is obtained when an arbitrary point on the plane is set as the origin O as shown in FIGS. 16 (A) and 16 (B). , The hue is the angle around the origin O in this plane, the saturation is the distance from the origin O in this plane,
In addition, the brightness can be represented by polar coordinates, which are distances from the origin O in a direction perpendicular to this plane. FIG.
The vertices of the hexagon shown in (B) are R (red),
They correspond to Y (yellow), G (green), C (cyan), B (blue) and M (magenta).
【0116】ところで、例えば第1〜第3実施例のよう
に物体(第1実施例における識別体23、第2実施例に
おける識別マーク52及び第3実施例における壁面72
AA〜72AD)に塗られた色の違いによつて物体を識
別するシステムでは、同じ色でも照明条件の変化や、物
体を見る方向などによつて色の見え方が変化する。この
ため例えば第1〜第3実施例では、色を判別する条件に
幅をもたせるようにしてこの変化に対処している。By the way, for example, the object (identifier 23 in the first embodiment, identification mark 52 in the second embodiment, and wall 72 in the third embodiment) as in the first to third embodiments.
In a system for identifying an object based on a difference in color applied to the AA to 72AD), the appearance of a color changes depending on a change in illumination conditions, a direction in which the object is viewed, and the like, even for the same color. Therefore, for example, in the first to third embodiments, this change is dealt with by giving a range to the condition for determining the color.
【0117】しかしながらこのような対処をしたとして
も、物体を塗り分ける色の選び方によつては、照明条件
等が変化したときに、ロボツトの視覚でとらえたある色
の見え方が別の色の判定条件内に入つて違う色として認
識されてしまい、その結果その色で塗られた物体を正し
く識別できなくなるおそれがある。However, even if such a measure is taken, depending on how to select the color for painting the object, when a lighting condition or the like changes, the appearance of one color captured by the robot can be changed to another color. If the color falls within the determination condition and is recognized as a different color, the object painted with that color may not be correctly identified.
【0118】このような事態を防止する方法の1つとし
て、例えば識別のために使用する色の組み合わせとし
て、予め所定の色空間において距離の離れた色を用いる
ようにし、ロボツト内部では、カメラから出力される画
像信号のフオーマツトをその色空間のフオーマツトに変
換して色識別を行うようにすれば良い。As one method of preventing such a situation, for example, as a combination of colors used for identification, colors that are far apart in a predetermined color space are used in advance. The format of the output image signal may be converted into the format of the color space to perform color identification.
【0119】すなわち識別色として、例えば色を色相、
彩度及び明度の3つの属性を用いて表す色空間(以下、
これをHSI空間と呼ぶ)において色相が所定角度(例
えば60〔°〕)以上離れた複数色を選択すると共に、ロ
ボツト内部においてカメラから出力される画像信号の画
像フオーマツトを、色を色相(H)、彩度(S)及び明
度(I)で表すフオーマツト(以下、これをHSIフオ
ーマツトと呼ぶ)に変換し、かくして得られる画像信号
に基づいて色相からその色を識別するようにすれば、色
識別時に照明条件の変化等の影響を受け難くすることが
でき、色識別の誤判定を効率良く回避し得るものと考え
られる。That is, for example, a color is defined as a hue,
A color space represented by using three attributes of saturation and lightness (hereinafter, referred to as a color space)
This is called an HSI space), a plurality of colors whose hues are separated by a predetermined angle (for example, 60 °) or more are selected, and the image format of the image signal output from the camera inside the robot is represented by the hue (H). Is converted into a format (hereinafter, referred to as an HSI format) represented by the saturation (S) and the lightness (I), and the color is identified from the hue based on the image signal thus obtained. It can be considered that the influence of a change in the lighting condition or the like can be reduced at times, and erroneous determination of color identification can be efficiently avoided.
【0120】(4−2)第4実施例による位置検出シス
テムの構成 図14との対応部分に同一符号を付して示す図17は、
第4実施例による位置検出システム90を示すものであ
り、領域2と、当該領域2の各辺に沿う壁72の各壁面
72AA〜72ADとにそれぞれ異なる固有の色が塗ら
れている。(4-2) Configuration of the Position Detecting System According to the Fourth Embodiment FIG. 17 in which parts corresponding to those in FIG.
FIG. 9 shows a position detection system 90 according to a fourth embodiment, in which different unique colors are applied to the region 2 and the wall surfaces 72AA to 72AD of the wall 72 along each side of the region 2 respectively.
【0121】この場合領域2及び各壁面72AA〜72
ADにそれぞれ塗布する色としては、HSI空間におい
て色相が60〔°〕以上離れた5色(例えば、R、Y、
G、C及びB)が選定されている。In this case, the region 2 and each of the wall surfaces 72AA to 72
As the colors to be applied to the AD, respectively, five colors (for example, R, Y,
G, C and B) have been selected.
【0122】一方ロボツト91においては、第3実施例
のロボツト71(図14)内に位置検出部80(図1
5)に代えて図15との対応部分に同一符号を付した図
18に示すような位置検出部92が設けられていること
を除いてロボツト71と同様に構成されている。On the other hand, in the robot 91, the position detector 80 (FIG. 1) is provided in the robot 71 (FIG. 14) of the third embodiment.
Instead of 5), the configuration is the same as that of the robot 71 except that a position detecting unit 92 as shown in FIG.
【0123】この場合位置検出部92には、画像フオー
マツト変換部93と、壁面72AA〜72ADの数と同
数の色抽出部94A〜94Dとが設けられており、画像
フオーマツト変換部93は、カメラ16から供給される
画像信号S1をHSIフオーマツトの画像信号S50に
変換し、これを各色抽出部94A〜94Dにそれぞれ送
出する。In this case, the position detection unit 92 is provided with an image format conversion unit 93 and the same number of color extraction units 94A to 94D as the number of the wall surfaces 72AA to 72AD. Is converted into an HSI format image signal S50, which is sent to each of the color extraction units 94A to 94D.
【0124】各色抽出部94A〜94Dは、それぞれ画
像信号S50に含まれる各画素の色相情報に基づいて、
図16(B)に示す極座標において指定された色相から
所定角度内の色相の画素を抽出すべき色の画素として検
出し、当該検出結果に基づいて抽出すべき色の画素に対
応する部分が論理論理「1」レベルに立ち上がり、他の
色の画素に対応する部分が論理「0」レベルに立ち下が
つた色抽出信号S51A〜S51Dを生成し、これを壁
検出部81に送出する。なお各色抽出部94A〜94D
は、壁面72AA〜72ADにそれぞれ塗布した複数色
の中からそれぞれ互いに異なる所定色の画素を抽出す
る。Each of the color extraction units 94A to 94D respectively determines the hue information of each pixel contained in the image signal S50 based on the hue information.
A pixel having a hue within a predetermined angle from the hue designated in the polar coordinates shown in FIG. 16B is detected as a pixel of a color to be extracted, and a portion corresponding to the pixel of the color to be extracted is determined based on the detection result. It generates color extraction signals S51A to S51D in which a portion corresponding to a pixel of another color has fallen to a logic “0” level while rising to a logic “1” level, and sends it to the wall detection section 81. In addition, each color extraction part 94A-94D
Extracts pixels of predetermined colors different from each other from a plurality of colors applied to the wall surfaces 72AA to 72AD, respectively.
【0125】この結果図15において上述したように、
これら色抽出信号S51A〜S51Dに基づいて、カメ
ラ16で撮像している壁面72AA〜72ADの色と、
当該壁面72AA〜72ADの画像内における画素を単
位とした高さhpicとが壁検出部81により検出されると
共に、当該検出結果に基づいて比較・演算部82により
第3実施例の場合と同様にして領域2内における自分の
位置が検出され、検出結果が位置検出信号S41として
このロボツト91の行動を司る最上位のCPU36に送
出される。As a result, as described above with reference to FIG.
Based on the color extraction signals S51A to S51D, the colors of the wall surfaces 72AA to 72AD imaged by the camera 16 and
The height hpic in the image of the wall surfaces 72AA to 72AD in pixels is detected by the wall detection unit 81, and based on the detection result, the comparison and calculation unit 82 performs the same operation as in the third embodiment. The position of the robot 91 in the area 2 is detected, and the detection result is sent as a position detection signal S41 to the highest-order CPU 36 that controls the action of the robot 91.
【0126】これによりこのロボツト91においては、
CPU36が位置検出信号S41に基づいて領域2内に
おける自分の位置を認識し得、当該認識結果に基づいて
周囲の状況に応じた行動を自律的にとることができるよ
うになされている。As a result, in this robot 91,
The CPU 36 can recognize its own position in the area 2 based on the position detection signal S41, and can autonomously take an action according to the surrounding situation based on the recognition result.
【0127】(4−3)第4実施例の動作及び効果 以上の構成において、この位置検出システム90では、
第3実施例の位置検出システム70(図14)と同様
に、ロボツト91がカメラ16から出力される画像信号
S1に基づいて周囲の第1及び第2の壁面72AA〜7
2ADの色と、画像信号S1に基づく画像内におけるそ
の第1及び第2の壁面72AA〜72ADの高さHpicと
を検出し、これら検出結果と、第1のメモリ83に予め
格納されている各壁面72AA〜72ADの色及びID
と、第2のメモリ84に予め格納されている基準値Hstd
と、第3のメモリ85に予め格納されている地図情報と
に基づいて領域2内における自分の位置を検出する。(4-3) Operation and Effect of Fourth Embodiment In the above configuration, the position detecting system 90
Similar to the position detection system 70 (FIG. 14) of the third embodiment, the robot 91 detects the surrounding first and second wall surfaces 72AA to 7 based on the image signal S1 output from the camera 16.
The color of 2AD and the height Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and the detection results and each of the values stored in the first memory 83 in advance are detected. Colors and IDs of the wall surfaces 72AA to 72AD
And the reference value Hstd stored in the second memory 84 in advance.
And its own position in the area 2 based on the map information stored in the third memory 85 in advance.
【0128】従つてこの位置検出システム90によれ
ば、第3実施例の位置検出システム70と同様の作用効
果を得ることができる。Therefore, according to the position detecting system 90, the same functions and effects as those of the position detecting system 70 of the third embodiment can be obtained.
【0129】これに加えこの位置検出システム90で
は、壁72の各壁面72AA〜72AD及び領域2にそ
れぞれ塗布する色として、HSI空間において色相が60
〔°〕以上離れた色を用いており、またロボツト91の
内部処理としてカメラ16から出力される画像信号S1
の画像フオーマツトをHSIフオーマツトに変換した
後、色識別を行うようにしているため、各壁面72AA
〜72ADに対する照明条件等が変化した場合において
もロボツト91内部における色識別時にその影響を受け
難くすることができ、かくしてロボツト91における色
識別の誤判定を効率良く回避することができる。In addition, in the position detection system 90, the hue is 60 in the HSI space as the color applied to each of the wall surfaces 72AA to 72AD of the wall 72 and the region 2.
An image signal S1 output from the camera 16 as an internal process of the robot 91 is used.
After the image format is converted to the HSI format, the color identification is performed.
Even when the lighting conditions for .about.72AD are changed, it is possible to reduce the influence of the color discrimination in the robot 91 when it is changed.
【0130】以上の構成によれば、第3実施例の位置検
出システム70(図14)に対し、壁72の各壁面72
AA〜72AD及び領域2にそれぞれ塗布する色とし
て、HSI空間において色相が60〔°〕以上離れた色を
用いると共に、ロボツト91の内部処理としてカメラ6
1から出力される画像信号S1をHSIフオーマツトの
画像信号S50に変換した後、当該画像信号S50に基
づいて色識別を行うようにしたことにより、ロボツト9
1における色識別の誤判定を効率良く回避することがで
きる。かくするにつきロボツト91内部における物体の
誤認識を回避し得、かくして領域内における自分の位置
をより精度良く検出し得る位置検出システム及びロボツ
ト装置を実現できる。According to the above configuration, each wall 72 of the wall 72 is different from the position detection system 70 (FIG. 14) of the third embodiment.
AA-72AD and a color whose hue is separated by 60 ° or more in the HSI space are used as colors to be applied to the area 2 and the camera 6 as internal processing of the robot 91, respectively.
After converting the image signal S1 output from the image signal S1 into an image signal S50 of the HSI format, the color identification is performed based on the image signal S50.
1 can efficiently avoid erroneous determination of color identification. In this way, it is possible to avoid erroneous recognition of an object inside the robot 91, and thus to realize a position detection system and a robot device capable of detecting its own position in the area with higher accuracy.
【0131】(5)第5実施例 (5−1)第5実施例による位置検出システムの構成 図17との対応部分に同一符号を付して示す図19は、
第5実施例による位置検出システム100を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において色相が60〔°〕以上離れた互いに異な
る固有の色が塗られている。(5) Fifth Embodiment (5-1) Configuration of Position Detecting System According to Fifth Embodiment FIG. 19 in which parts corresponding to those in FIG.
This shows a position detection system 100 according to a fifth embodiment, in which H is applied to each of the wall surfaces 72AA to 72AD of the wall 72.
In the SI space, different unique colors having hues separated by 60 ° or more are painted.
【0132】この場合各壁面72AA〜72ADの色
は、図20に示すように、各壁面72AA〜72ADの
長手方向の一端が最も低く、当該一端から他端にいくに
従つて彩度(飽和度)が線形に増加するように、すなわ
ち壁面72AA〜72ADの一端におけるその色の彩度
をSmin 、他端における彩度をSmax 及びその壁面72
AA〜72ADの長手方向の長さをMとしたときに、壁
面72AA〜72ADの一端から距離xの位置における
その色の彩度Sx が次式In this case, as shown in FIG. 20, the color of each of the wall surfaces 72AA to 72AD is lowest at one end in the longitudinal direction of each of the wall surfaces 72AA to 72AD, and the saturation (saturation degree) increases from the one end to the other end. ) Increases linearly, i.e., the saturation of the color at one end of the wall surfaces 72AA-72AD is S min , the saturation at the other end is S max and the wall surface 72AA-72AD.
When the length in the longitudinal direction of AA to 72AD is M, the saturation S x of the color at a position of a distance x from one end of the wall surfaces 72AA to 72AD is expressed by the following equation.
【0133】[0133]
【数3】 (Equation 3)
【0134】を満足するように塗られている。It is painted so as to satisfy the following.
【0135】一方ロボツト101においては、第4実施
例のロボツト91(図17)に位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
21に示すような位置検出部102が設けられているこ
とを除いてロボツト91と同様に構成されている。On the other hand, in the robot 101, the position detector 92 (FIG. 1) is added to the robot 91 (FIG. 17) of the fourth embodiment.
The configuration is the same as that of the robot 91, except that a position detecting unit 102 as shown in FIG.
【0136】この場合位置検出部102には、領域2の
各辺に沿う壁面72AA〜72ADの数と同数の色抽出
部94A〜94Dが設けられており、カメラ16から出
力される画像信号S1の画像フオーマツトを画像フオー
マツト変換部93においてHSIフオーマツトに変換し
た後、かくして得られた画像信号S50を各色抽出部S
51A〜S51Dにそれぞれ送出する。In this case, the position detection unit 102 is provided with the same number of color extraction units 94A to 94D as the number of the wall surfaces 72AA to 72AD along each side of the area 2, and the number of color extraction units 94A to 94D of the image signal S1 output from the camera 16 is After converting the image format into the HSI format in the image format conversion unit 93, the image signal S50 thus obtained is converted into the respective color extraction units S50.
51A to 51D.
【0137】各色抽出部S51A〜S51Dにおいて
は、それぞれ画像信号S50に基づく画像のなかから所
定色の画素を抽出し、当該画素に対応す部分が論理
「1」レベルに立ち上がり、これ以外の色の画素に対応
する部分が論理「0」レベルに立ち下がつた色抽出信号
S51A〜S51Dをそれぞれ壁検出部103に送出す
る。In each of the color extracting sections S51A to S51D, a pixel of a predetermined color is extracted from the image based on the image signal S50, and a portion corresponding to the pixel rises to a logic "1" level, and the other colors are extracted. The color extraction signals S51A to S51D in which the portion corresponding to the pixel has fallen to the logical “0” level are sent to the wall detection unit 103, respectively.
【0138】壁検出部103は、各色抽出部94A〜9
4Dからそれぞれ供給される色抽出信号S51A〜S5
1Dに基づく画像を重ね合わせて走査することにより、
ほぼ水平な同色の細長い領域をいずれかの壁面72AA
〜72ADとして検出し、検出結果を壁検出信号S60
としてこのロボツトの行動を司る最上位のCPU36に
与える。The wall detecting section 103 includes color extracting sections 94A-9A.
Color extraction signals S51A to S5 respectively supplied from 4D
By superimposing and scanning images based on 1D,
A substantially horizontal elongated area of the same color is used for any of the wall surfaces 72AA.
7272AD, and the detection result is a wall detection signal S60.
Is given to the uppermost CPU 36 which controls the robot.
【0139】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラ16の向
き(すなわちロボツト101の頭部)を左右方向に移動
させており、壁検出部103から供給される壁検出信号
S60に基づいて、画像信号S50に基づく画像内にお
いて最も画素数の多い壁面(すなわち最も近い壁面)7
2AA〜72ADを検出すると共に、当該壁面72AA
〜72ADの画像内における上端又は下端が水平となる
ように(すなわちその壁面72AA〜72ADに対して
カメラ16の光軸が垂直となるように)カメラ16の向
きを調整する。At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 101) in the left-right direction by driving the actuators of the corresponding joints. On the basis of the signal S60, the wall surface having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surface) 7
2AA to 72AD, and the wall surface 72AA
The direction of the camera 16 is adjusted so that the upper end or the lower end in the images of ~ 72AD is horizontal (that is, the optical axis of the camera 16 is perpendicular to the wall surfaces 72AA ~ 72AD).
【0140】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに対して垂直に合わせられた状態にお
いて、壁検出部103は、各色抽出部94A〜94Dか
らそれぞれ供給される色抽出信号S51A〜S51Dに
基づいてその壁面72AA〜72ADの色を検出すると
共に、このとき画像フオーマツト変換部93から供給さ
れる画像信号S50に基づいて、当該画像信号S50に
基づく画像の中央部におけるその壁面72AA〜72A
Dに塗布された色の彩度Sx を検出し、これら検出した
その壁面72AA〜72ADの色と、画像中央部におけ
るその壁面72AA〜72ADに塗布された色の彩度S
x とを色及び彩度検出信号S61として比較・演算部1
04に送出する。Then, the wall surface 7 where the optical axis of the camera 16 is closest
In the state of being vertically aligned with 2AA to 72AD, the wall detection unit 103 detects the colors of the wall surfaces 72AA to 72AD based on the color extraction signals S51A to S51D supplied from the color extraction units 94A to 94D, respectively. At the same time, based on the image signal S50 supplied from the image format converter 93, the wall surfaces 72AA to 72A at the center of the image based on the image signal S50.
D, the saturation S x of the color applied to the wall surface is detected, and the detected colors of the wall surfaces 72AA to 72AD and the saturation S of the color applied to the wall surfaces 72AA to 72AD at the center of the image are detected.
x as a color and saturation detection signal S61
04.
【0141】比較・演算部104は、色及び彩度検出信
号S61に基づき得られるその壁面72AA〜72AD
の色と、第1のメモリ105に予め格納されている各壁
面72AA〜72ADの色及びそのIDに関するテーブ
ルとに基づいて、その壁面72AA〜72ADのIDを
検出する。The comparing / calculating section 104 has the wall surfaces 72AA to 72AD obtained based on the color and saturation detection signal S61.
And the table of the colors and the IDs of the wall surfaces 72AA to 72AD stored in the first memory 105 in advance, and detects the IDs of the wall surfaces 72AA to 72AD.
【0142】また比較・演算部104は、色及び彩度信
号S61に基づき得られる画像中央部におけるその壁面
72AA〜72ADの彩度Sx と、予め第2のメモリ1
06に格納されている各壁面72AA〜72ADの一端
及び他端における各彩度Smin 、Smax 並びに各壁面7
2AA〜72ADの長さMとに基づいて(3)式を逆算
することによりその壁面72AA〜72ADと平行な方
向における自分の位置を検出する。[0142] The comparison and calculation unit 104, and saturation S x of the wall 72AA~72AD in the image central portion obtained based on the color and saturation signal S61, advance the second memory 1
06, the respective saturations S min and S max at one end and the other end of each of the wall surfaces 72AA to 72AD, and the respective wall surfaces 7AA to 72AD.
By calculating back the formula (3) based on the length M of 2AA to 72AD, the own position in the direction parallel to the wall surfaces 72AA to 72AD is detected.
【0143】さらに比較・演算部105は、この後CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。Further, comparing / calculating section 105 thereafter sets CP
Under the control of U36, the camera 16 is rotated by 90 [°], and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to obtain the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in the parallel direction.
【0144】さらに比較・演算部104は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ107に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域2の地
図情報とに基づいて領域内における自分の位置を検出
し、検出結果を位置検出信号S62としてCPU36に
送出する。Further, the comparing / calculating section 104 thereafter calculates the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the position in the direction parallel to the first wall surfaces 72AA to 72AD, and the second I on the walls 72AA-72AD
D and the position in the direction parallel to the second wall surfaces 72AA to 72AD, and the map information of the region 2 including the positions of the wall surfaces 72AA to 72AD stored in the third memory 107 in advance. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S62.
【0145】これによりこのロボツト101において
は、CPU36が位置検出信号S62に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。As a result, in the robot 101, the CPU 36 operates the area 2 based on the position detection signal S62.
The user is able to recognize his / her own position in the vehicle and take autonomous action according to the surrounding situation based on the recognition result.
【0146】(5−2)第5実施例の動作及び効果 以上の構成において、この位置検出システム100で
は、ロボツト101がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの色と、これら色の画像信号S1に基づく画像
の中央部における彩度Sx とを検出し、これら検出結果
と、第1のメモリ105に格納されている各壁面72A
A〜72ADの色及びそのIDと、第2のメモリ106
に格納されている各壁面72AA〜72ADの長さM並
びに各壁面72AA〜72ADの一端及び他端における
色の彩度Smin 、Smax と、第3のメモリ107に格納
されている地図情報とに基づいて領域2内における自分
の位置を検出する。(5-2) Operation and Effect of Fifth Embodiment In the above configuration, in the position detection system 100, the robot 101 controls the first and second surroundings based on the image signal S1 output from the camera 16. Wall surface 72AA ~
The color of 72AD and the saturation Sx at the center of the image based on the image signal S1 of these colors are detected, and these detection results and each of the wall surfaces 72A stored in the first memory 105 are detected.
A to 72AD colors and their IDs, and the second memory 106
, The color saturations S min and S max at one end and the other end of each of the wall surfaces 72AA to 72AD, and the map information stored in the third memory 107. To detect its own position in the area 2 based on
【0147】従つてこの位置検出システム100では、
ロボツト101が2つの壁面72AA〜72ADの色及
びこれら色の彩度の変化に基づいて領域2内における自
分の位置を容易かつ精度良く認識することができる。Therefore, in this position detection system 100,
The robot 101 can easily and accurately recognize its position in the area 2 based on the colors of the two wall surfaces 72AA to 72AD and the change in the saturation of these colors.
【0148】またこの位置検出システム100では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色を水平方向の彩度を変化さ
せて塗布するだけで良いため、極めて簡単にシステムを
構築することができる。In the position detecting system 100, each of the wall surfaces 72AA to 72A arranged along each side of the area 2 is provided.
Since it is only necessary to apply different colors to D while changing the saturation in the horizontal direction, a system can be constructed extremely easily.
【0149】さらにこの位置検出システム100では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域の床面に信号発
生機を設置する必要がないため、ロボツト101の行動
を妨げるおそれもない。Further, in this position detection system 100,
No special signal transmission method such as radio waves is used, so it can be used without considering the effects on peripheral devices and radio regulations, and it is necessary to install a signal generator on the floor of the area There is no possibility that the action of the robot 101 is hindered.
【0150】さらにこの位置検出システム100では、
ロボツト101の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。Further, in this position detection system 100,
Since the method is not a method of writing a sign, a sign, or the like on the floor of the action area 2 of the robot 101, paint or the like can be applied to the floor for another purpose.
【0151】さらにこの位置検出システム100では、
ロホツト101のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト101の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト101が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。Further, in this position detection system 100,
By turning the camera 16 of the robot 101 in a substantially horizontal direction, the wall surface 72A on the front of the robot 101 is moved.
Since the A to 72AD can be imaged by the camera 16, the robot 101 does not need to turn the camera 16 in a predetermined direction to detect its own position in the area 2, and the other robots can be captured by the camera 16. There is also an advantage that one's own position in the area 2 can be detected.
【0152】以上の構成によれば、各壁面72AA〜7
2ADに互いに異なる色を水平方向に彩度を変化させて
それぞれ塗布すると共に、ロボツト102が2つの壁面
72AA〜72ADの色と、これら壁面72AA〜72
ADを垂直に撮像した場合におけるその色の画像中央部
での彩度Sx とをそれぞれ検出し、当該検出結果と、第
1のメモリ105に格納されている各壁面72AA〜7
2ADの色及びそのIDと、第2のメモリ106に格納
されている各壁面72AA〜72ADの長さM並びに各
壁面72AA〜72ADの一端及び他端における色の彩
度Smin 、Smax と、第3のメモリ107に格納されて
いる地図情報とに基づいて領域2内における自分の位置
を検出するようにしたことにより、ロボツト101が領
域2内における自分の位置を精度良く検出することがで
き、かくして領域2内における自分の位置を精度良く検
出し得る位置検出システム及びロボツトを実現できる。According to the above configuration, each of the wall surfaces 72AA to 7AA
A different color is applied to the 2AD, while changing the saturation in the horizontal direction, and the robot 102 uses the colors of the two wall surfaces 72AA to 72AD and the wall surfaces 72AA to 72AD.
When the AD is captured vertically, the saturation S x at the center of the image of the color is detected, and the detection result and each of the wall surfaces 72AA to 7AA stored in the first memory 105 are detected.
The 2AD color and its ID, the length M of each of the wall surfaces 72AA to 72AD stored in the second memory 106, and the color saturations S min and S max at one end and the other end of each of the wall surfaces 72AA to 72AD. By detecting its own position in the area 2 based on the map information stored in the third memory 107, the robot 101 can accurately detect its own position in the area 2. Thus, it is possible to realize a position detection system and a robot that can accurately detect the position of the user in the area 2.
【0153】(6)第6実施例 (6−1)第6実施例による位置検出システムの構成 図19との対応部分に同一符号を付して示す図22は、
第6実施例による位置検出システム110を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において色相が60〔°〕以上離れた互いに異な
る固有の色が塗布されている。(6) Sixth Embodiment (6-1) Configuration of Position Detecting System According to Sixth Embodiment FIG. 22 in which parts corresponding to those in FIG.
This shows a position detection system 110 according to a sixth embodiment, in which H is applied to each of the wall surfaces 72AA to 72AD of the wall 72.
In the SI space, different unique colors having hues separated by 60 ° or more are applied.
【0154】またこれら各壁面72AA〜72ADに
は、一端の下端近傍から他端の上端近傍に至るように、
HSI空間において各壁面72AA〜72ADに塗布さ
れた各色の色相と60〔°〕以上はなれた色を用いて斜線
102が表記されている。Each of the wall surfaces 72AA to 72AD is formed so as to extend from near the lower end of one end to near the upper end of the other end.
In the HSI space, a diagonal line 102 is indicated using a hue of each color applied to each of the wall surfaces 72AA to 72AD and a color separated by 60 ° or more.
【0155】一方ロボツト111においては、第4実施
例のロボツト91(図17)に、位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
24に示すような位置検出部113が設けられているこ
とを除いてロボツト91と同様に構成されている。On the other hand, in the robot 111, the position detecting unit 92 (FIG. 1) is added to the robot 91 (FIG. 17) of the fourth embodiment.
The configuration is the same as that of the robot 91, except that a position detecting unit 113 as shown in FIG.
【0156】この場合位置検出部113には、領域2の
各辺に沿う壁面72AA〜72ADの数よりも1つ多い
数の色抽出部94A〜94Eが設けられており、カメラ
16から出力される画像信号S1の画像フオーマツトを
画像フオーマツト変換部93においてHSIフオーマツ
トに変換した後、かくして得られた画像信号S50を各
色抽出部94A〜94Eにそれぞれ送出する。In this case, the position detection unit 113 is provided with one more color extraction units 94A to 94E than the number of the wall surfaces 72AA to 72AD along each side of the area 2, and is output from the camera 16. After converting the image format of the image signal S1 into the HSI format in the image format converter 93, the image signal S50 thus obtained is sent to each of the color extracting units 94A to 94E.
【0157】各色抽出部94A〜94Eにおいては、画
像信号S50に基づく画像のなかからそれぞれ対応する
所定色の画素を抽出し、当該画素に対応す部分が論理
「1」レベルに立ち上がり、これ以外の色の画素に対応
する部分が論理「0」レベルに立ち下がつた色抽出信号
S51A〜S51Eをそれぞれ壁検出部114に送出す
る。なお各色抽出部114は、各壁面72AA〜72A
Dに塗布された色及び斜線112の色の中からそれぞれ
互いに異なる色の画素を抽出する。In each of the color extracting sections 94A to 94E, a pixel of a predetermined color corresponding to each pixel is extracted from the image based on the image signal S50, and a portion corresponding to the pixel rises to a logic "1" level. The color extraction signals S51A to S51E in which the portion corresponding to the color pixel falls to the logical “0” level are sent to the wall detection unit 114, respectively. Note that each color extraction unit 114 is provided with a corresponding one of the wall surfaces 72AA to 72A.
Pixels of mutually different colors are extracted from the color applied to D and the shaded line 112.
【0158】壁検出部114は、各色抽出部94A〜9
4Eからそれぞれ供給される色抽出信号S51A〜S5
1Eに基づく画像を重ね合わせて走査することにより、
ほぼ水平な同色の細長い領域をいずれかの壁面72AA
〜72ADとして検出し、検出結果を壁検出信号S60
としてこのロボツト111の行動を司る最上位のCPU
36に与える。[0158] The wall detecting section 114 includes the color extracting sections 94A to 94A.
4E respectively supplied with color extraction signals S51A to S5.
By superimposing and scanning the images based on 1E,
A substantially horizontal elongated area of the same color is used for any of the wall surfaces 72AA.
7272AD, and the detection result is a wall detection signal S60.
As the highest CPU controlling the behavior of this robot 111
Give to 36.
【0159】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラ16の向
き(すなわちロボツト111の頭部)を左右方向に移動
させており、壁検出部114から供給される壁検出信号
S60に基づいて、画像信号S50に基づく画像内にお
いて最も画素数の多い壁面(すなわち最も近い壁面)7
2AA〜72ADを検出すると共に、当該壁面72AA
〜72ADの画像内における上端又は下端が水平となる
ように(すなわち最も近い壁面72AA〜72ADに対
してカメラ16の光軸が垂直となるように)カメラ16
の向きを調整する。At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 111) in the left-right direction by driving the actuators of the corresponding joints. On the basis of the signal S60, the wall surface having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surface) 7
2AA to 72AD, and the wall surface 72AA
Camera 16 so that the upper end or the lower end in the image of .about.72AD is horizontal (that is, the optical axis of the camera 16 is perpendicular to the nearest wall surfaces 72AA to 72AD).
Adjust the orientation of.
【0160】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに対して垂直に合わせられた状態にお
いて壁検出部114は、画像中央部におけるその壁面7
2AA〜72ADの斜線112よりも上部分の縦方向の
長さUx と、斜線112よりも下部分の長さLx とをそ
れぞれ画素を単位として検出し、これら検出したその壁
面72AA〜72ADの斜線112よりも上部分の長さ
Ux 及び下部分の長さLx と、その壁面72AA〜72
ADの色とを色及び長さ検出信号S70として比較・演
算部115に送出する。Then, the wall surface 7 where the optical axis of the camera 16 is closest
In a state where the wall detection unit 114 is vertically aligned with respect to 2AA to 72AD, the wall detection unit 114 detects the wall surface 7 in the center of the image.
And the longitudinal length U x of the upper part than the hatched 112 2AA~72AD, detects a length L x of the lower part of the pixel units respectively than the hatched 112, detected in the wall 72AA~72AD these the length L x of length U x and the lower portion of the upper part than hatching 112, the wall surface 72AA~72
The color of AD is sent to the comparison / calculation unit 115 as a color and length detection signal S70.
【0161】比較・演算部115は、色及び長さ検出信
号S70に基づき得られるその壁面72AA〜72AD
の色と、第1のメモリ116に予め格納されている各壁
面72AA〜72ADの色及びそのIDに関するテーブ
ルとに基づいて、その壁面72AA〜72ADのIDを
検出する。The comparing / calculating section 115 has the wall surfaces 72AA to 72AD obtained based on the color and length detection signal S70.
Of the wall surfaces 72AA to 72AD stored in the first memory 116 in advance and the table of the colors and IDs of the wall surfaces 72AA to 72AD are detected.
【0162】また比較・演算部115は、色及び長さ検
出信号S70に基づき得られるその壁面72AA〜72
ADの斜線112よりも上部分の長さUx 及び下部分の
長さLx とに基づいて次式The comparing / calculating section 115 has the wall surfaces 72AA to 72AA obtained based on the color and length detection signal S70.
Than AD hatched 112 based on the length L x of length U x and the lower portion of the upper part following formula
【0163】[0163]
【数4】 (Equation 4)
【0164】で与えられる演算を実行することにより、
画像信号S50に基づく画像の中央部におけるその壁面
72AA〜72ADの高さ(=Ux +Lx )に対する斜
線112よりも上部分の縦方向の長さUx の比率Rx1を
算出する。By executing the operation given by
Based on the image signal S50, the ratio R x1 of the vertical length U x above the oblique line 112 to the height (= U x + L x ) of the wall surfaces 72AA to 72AD at the center of the image is calculated.
【0165】そして比較・演算部115は、この演算結
果と、第2のメモリ117に予め格納されている各壁面
72AA〜72ADの長さM、各壁面72AA〜72A
Dの一端におけるその壁面72AA〜72ADの高さに
対する斜線112よりも上部分の縦方向の長さの比率R
a1及び各壁面72AA〜72ADの他端におけるその壁
面72AA〜72ADの高さに対する斜線112よりも
上部分の長さの比率Rb1とに基づいて、次式The comparing / calculating section 115 calculates the result of this calculation, the length M of each of the wall surfaces 72AA to 72AD stored in the second memory 117 in advance, and the respective wall surfaces 72AA to 72A.
D, the ratio R of the vertical length of the portion above the oblique line 112 to the height of the wall surfaces 72AA to 72AD at one end of D
a1 and the ratio R b1 of the length of the portion above the oblique line 112 to the height of the wall surface 72AA to 72AD at the other end of each of the wall surfaces 72AA to 72AD,
【0166】[0166]
【数5】 (Equation 5)
【0167】で与えられる演算を実行することにより、
その壁面72AA〜72ADの一端からその壁面72A
A〜72ADの画像中央部に撮像されている部分までの
距離x(その壁面72AA〜72ADと平行な方向にお
ける当該壁面72AA〜72ADの一端からロボツト1
11までの距離に相当)を算出する。By performing the operation given by
From one end of the wall surfaces 72AA to 72AD, the wall surface 72A
A distance x to a portion of the image taken at the center of the image of A to 72AD (from one end of the wall surface 72AA to 72AD in a direction parallel to the wall surface 72AA to 72AD, the robot 1
11).
【0168】なお各壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの高さに対する斜線1
12よりも上部分の長さの比率Ra1は、図23に示すよ
うに、それぞれその壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの斜線112よりも上
部分の長さをUa1とし、斜線112よりも下部分の長さ
をLa1として次式The hatched line 1 at one end of each of the wall surfaces 72AA to 72AD with respect to the height of the wall surface 72AA to 72AD.
As shown in FIG. 23, the ratio R a1 of the length of the portion above 12 is U a1 where the length of the portion above the oblique line 112 of the wall surfaces 72AA to 72AD at one end of each of the wall surfaces 72AA to 72AD is U a1 , Assuming that the length below the oblique line 112 is La1 ,
【0169】[0169]
【数6】 (Equation 6)
【0170】により与えられ、各壁面72AA〜72A
Dの他端におけるその壁面72AA〜72ADの高さに
対する斜線112よりも上部分の長さの比率Rb1は、そ
の壁面72AA〜72ADの他端におけるその壁面72
AA〜72ADの斜線112よりも上部分の長さをUb1
とし、斜線よりも下部分の長さをLb1として次式Each wall 72AA-72A
The ratio R b1 of the length above the oblique line 112 to the height of the wall surfaces 72AA to 72AD at the other end of D is the wall surface 72AA at the other end of the wall surfaces 72AA to 72AD.
The length of the portion above the oblique line 112 of AA to 72AD is U b1
And the length below the oblique line is L b1 and the following equation
【0171】[0171]
【数7】 (Equation 7)
【0172】により与えられる。Is given by
【0173】さらに比較・演算部115は、この後CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。Further, comparing / calculating section 115 subsequently outputs CP
Under the control of U36, the camera 16 is rotated by 90 [°], and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to obtain the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in the parallel direction.
【0174】さらに比較・演算部115は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ118に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域の地図
情報とに基づいて領域2内における自分の位置を検出
し、検出結果を位置検出信号S71としてCPU36に
送出する。Further, the comparing / calculating section 115 thereafter calculates the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the position in the direction parallel to the first wall surfaces 72AA to 72AD, and the second I on the walls 72AA-72AD
D and the position in the direction parallel to the second wall surfaces 72AA to 72AD and the map information of the region including the positions of the wall surfaces 72AA to 72AD stored in the third memory 118 in advance. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S71.
【0175】これによりこのロボツト111において
は、CPU36が位置検出信号S71に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。As a result, in the robot 111, the CPU 36 operates the area 2 based on the position detection signal S71.
The user is able to recognize his / her own position in the vehicle and take autonomous action according to the surrounding situation based on the recognition result.
【0176】(6−2)第6実施例の動作及び効果 以上の構成において、この位置検出システム110で
は、ロボツト111がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの各色と、当該画像信号S1に基づく画像中央
部おけるこれら各壁面72AA〜72ADの高さに対す
る斜線112よりも上部分の長さUx の比率Rx1とをそ
れぞれ検出し、これら検出結果と、第1のメモリ116
に予め格納されている各壁面72AA〜72ADの色及
びそのIDと、第2のメモリ117に予め格納されてい
る各壁面72AA〜72ADの長さM並びに各壁面72
AA〜72ADの一端及び他端におけるその壁面72A
A〜72ADの高さに対する斜線112よりも上部分の
長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ11
8に予め格納されている地図情報とに基づいて領域2内
における自分の位置を検出する。(6-2) Operation and Effect of Sixth Embodiment In the above configuration, in the position detection system 110, the robot 111 controls the first and second surroundings based on the image signal S1 output from the camera 16. Wall surface 72AA ~
Each of the colors 72AD and the ratio R x1 of the length U x above the oblique line 112 to the height of each of the wall surfaces 72AA to 72AD at the center of the image based on the image signal S1 are detected. , The first memory 116
Of the wall surfaces 72AA to 72AD stored in advance in the second memory 117, the length M of each wall surface 72AA to 72AD stored in advance in the second memory 117, and the wall surface 72AA
Walls 72A at one end and the other end of AA-72AD
The ratios R a1 and R b1 of the lengths U a1 and U b1 above the oblique line 112 to the heights of A to 72AD, and the third memory 11
8 to detect its own position in the area 2 based on the map information stored in advance.
【0177】従つてこの位置検出システム110では、
2つの壁面72AA〜72ADの色及びこれら壁面72
AA〜72ADに表記された斜線112に基づいてロボ
ツト111が領域2内における自分の位置を容易かつ精
度良く認識することができる。Therefore, in this position detection system 110,
The colors of the two wall surfaces 72AA to 72AD and these wall surfaces 72
The robot 111 can easily and accurately recognize its own position in the area 2 based on the diagonal lines 112 indicated by AA to 72AD.
【0178】またこの位置検出システム110では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色を塗布すると共に、斜線1
12を表記するだけで良いため、極めて簡単にシステム
を構築することができる。In the position detecting system 110, each of the wall surfaces 72AA to 72A arranged along each side of the area 2 is provided.
D is coated with a different color from each other.
Since only 12 is required, the system can be constructed extremely easily.
【0179】さらにこの位置検出システム110では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域2の床面に信号
発生機を設置する必要がないため、ロボツト111の行
動を妨げるおそれもない。Further, in this position detection system 110,
Since no special signal transmission method such as radio waves is used, it can be used without considering the effects on peripheral devices and radio regulations, and a signal generator is installed on the floor of area 2. Since there is no need, there is no possibility that the action of the robot 111 is hindered.
【0180】さらにこの位置検出システム110では、
ロボツト111の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。Further, in this position detecting system 110,
Since this is not a method of writing a sign, a sign, or the like on the floor of the action area 2 of the robot 111, paint or the like can be applied to the floor for another purpose.
【0181】さらにこの位置検出システム110では、
ロホツト111のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト111の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト111が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。Further, in this position detection system 110,
By turning the camera 16 of the robot 111 in a substantially horizontal direction, the wall surface 72A on the front surface of the robot 111 is moved.
Since the A to 72AD can be imaged by the camera 16, it is not necessary for the robot 111 to turn the camera 16 in a predetermined direction to detect its own position in the area 2, and the other robots can be captured by the camera 16. There is also an advantage that one's own position in the area 2 can be detected.
【0182】以上の構成によれば、各壁面72AA〜7
2ADに互いに異なる色を塗布すると共に、これら各壁
面72AA〜72ADに斜線112を表記する一方、ロ
ボツト111が2つの壁面72AA〜72ADの色と、
これら壁面72AA〜72ADを垂直に撮像した場合に
おける画像中央部での斜線112よりも上部分の縦方向
の長さUx の比率Rx1とをそれぞれ検出し、これら検出
結果と、第1のメモリ116に予め格納されている各壁
面72AA〜72ADの色及びそのIDと、第2のメモ
リ117に予め格納されている各壁面72AA〜72A
Dの長さM並びに各壁面72AA〜72ADの一端及び
他端におけるその壁面72AA〜72ADの高さに対す
る斜線112よりも上部分の長さUa1、Ub1の比率
Ra1、Rb1と、第3のメモリ118に予め格納されてい
る地図情報とに基づいて領域2内における自分の位置を
検出するようにしたことにより、ロボツト111が領域
2内における自分の位置を精度良く検出することがで
き、かくして領域2内における自分の位置を精度良く検
出し得る位置検出システム及びロボツトを実現できる。According to the above configuration, each of the wall surfaces 72AA to 7AA
While different colors are applied to the 2AD and the oblique lines 112 are indicated on the respective wall surfaces 72AA to 72AD, the robot 111 uses the colors of the two wall surfaces 72AA to 72AD,
When the wall surfaces 72AA to 72AD are vertically imaged, the ratio R x1 of the vertical length U x of the portion above the oblique line 112 at the center of the image is detected, and these detection results and the first memory The colors and IDs of the wall surfaces 72AA to 72AD stored in the memory 116 in advance and the wall surfaces 72AA to 72A stored in the second memory 117 in advance.
The ratio of the length U a1 , U b1 of the length M above the oblique line 112 to the height of the wall surface 72AA to 72AD at one end and the other end of each of the wall surfaces 72AA to 72AD, and R a1 , R b1 ; The robot 111 can accurately detect its own position in the area 2 by detecting its own position in the area 2 based on the map information stored in advance in the memory 118 of the third area. Thus, it is possible to realize a position detection system and a robot that can accurately detect the position of the user in the area 2.
【0183】(7)第7実施例 (7−1)第7実施例による位置検出システムの構成 図14との対応部分に同一符号を付して示す図25は、
第7実施例による位置検出システム120を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において60〔°〕以上離れた互いに異なる色相
の色が割り当てられている。(7) Seventh Embodiment (7-1) Configuration of Position Detecting System According to Seventh Embodiment FIG. 25 in which parts corresponding to those in FIG.
This shows a position detection system 120 according to a seventh embodiment, in which H is applied to each of the wall surfaces 72AA to 72AD of the wall 72.
In the SI space, colors of different hues separated by 60 ° or more are assigned.
【0184】すなわち各壁面72AA〜72ADには、
図26に示すように、それぞれ長手方向の一端の下端近
傍から他端の上端部近傍に至る仮想線K1を境として、
各壁面72AA〜72ADの仮想線K1よりも上部分に
所定の色相で彩度の大きい色が塗布され、仮想線K1よ
りも下部分に上部分と同じ色相で彩度の小さい色が塗布
されている。That is, on each of the wall surfaces 72AA to 72AD,
As shown in FIG. 26, a virtual line K1 extending from near the lower end of one end to near the upper end of the other end in the longitudinal direction is used as a boundary.
A color having a high saturation and a predetermined hue is applied to a portion above the virtual line K1 of each of the wall surfaces 72AA to 72AD, and a color having a low saturation and the same hue as the upper portion is applied to a portion below the virtual line K1. I have.
【0185】一方ロボツト121においては、第4実施
例のロボツト91(図17)に、位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
27に示すような位置検出部122が設けられているこ
とを除いてロボツト91と同様に構成されている。On the other hand, in the robot 121, the position detector 92 (FIG. 1) is added to the robot 91 (FIG. 17) of the fourth embodiment.
The configuration is the same as that of the robot 91 except that a position detection unit 122 as shown in FIG. 27 is provided instead of 8) corresponding to that of FIG.
【0186】この場合位置検出部122には、領域2の
各辺に沿う壁面72AA〜72ADの数と同じ数の色抽
出部94A〜94Dが設けられており、カメラ16から
出力される画像信号S1の画像フオーマツトを画像フオ
ーマツト変換部93においてHSIフオーマツトに変換
した後、かくして得られた画像信号S50を各色抽出部
94A〜94D及び壁検出部123にそれぞれ送出す
る。In this case, the position detection unit 122 is provided with the same number of color extraction units 94A to 94D as the number of the wall surfaces 72AA to 72AD along each side of the region 2, and the image signal S1 output from the camera 16 is provided. Is converted into the HSI format in the image format conversion unit 93, and the image signal S50 thus obtained is sent to each of the color extraction units 94A to 94D and the wall detection unit 123.
【0187】各色抽出部94A〜94Dは、上述のよう
に、画像信号S50に含まれる各画素の色相情報に基づ
いて、図16(B)に示す極座標において指定された色
相から所定角度内の色相の画素を抽出すべき色の画素と
して検出し、当該検出結果に基づいて抽出すべき色の画
素に対応する部分が論理論理「1」レベルに立ち上が
り、他の色の画素に対応する部分が論理「0」レベルに
立ち下がつた色抽出信号S51A〜S51Dを生成し、
これを壁検出部123に送出する。As described above, each of the color extraction units 94A to 94D determines the hue within a predetermined angle from the hue designated on the polar coordinates shown in FIG. 16B based on the hue information of each pixel included in the image signal S50. Is detected as a pixel of a color to be extracted, and a portion corresponding to the pixel of the color to be extracted rises to the logical logic “1” level based on the detection result, and a portion corresponding to the pixel of the other color is a logical Generate color extraction signals S51A to S51D falling to the “0” level,
This is sent to the wall detection unit 123.
【0188】また壁検出部123は、各色抽出部94A
〜94Dからそれぞれ供給される色抽出信号S51A〜
S51Dに基づく画像を重ね合わせて走査することによ
り、ほぼ水平な同じ色相の細長い領域をいずれかの壁面
72AA〜72ADとして検出し、検出結果を壁検出信
号S80としてこのロボツト121の行動を司る最上位
のCPU36に与える。The wall detecting section 123 is provided with the respective color extracting sections 94A.
To the color extraction signals S51A to 94D supplied from
By superimposing and scanning the image based on S51D, an almost horizontal elongated region of the same hue is detected as one of the wall surfaces 72AA to 72AD, and the detection result is used as a wall detection signal S80 to control the behavior of the robot 121. To the CPU 36.
【0189】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラの向き
(すなわちロボツトの頭部)を左右方向に移動させてお
り、壁検出部123から供給される壁検出信号S80に
基づいて、画像信号S50に基づく画像内において最も
画素数の多い壁面(すなわち最も近い壁面)72AA〜
72ADを検出すると共に、当該壁面72AA〜72A
Dの画像内における上端又は下端が水平となるように
(すなわち当該壁面72AA〜72ADに対してカメラ
16の光軸が垂直となるように)カメラ16の向きを調
整する。At this time, the CPU 36 moves the direction of the camera (ie, the head of the robot) in the left-right direction by driving the actuator of the corresponding joint, and the wall detection signal S80 supplied from the wall detection unit 123. , The wall surface having the largest number of pixels in the image based on the image signal S50 (that is, the closest wall surface) 72AA-
72AD, and the wall surfaces 72AA to 72A.
The direction of the camera 16 is adjusted so that the upper end or the lower end in the image of D is horizontal (that is, the optical axis of the camera 16 is perpendicular to the wall surfaces 72AA to 72AD).
【0190】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに垂直に向けられた状態において壁検
出部123は、各色抽出部94A〜94Dから与えられ
る色抽出信号S51A〜S51Dと、画像フオーマツト
変換部93から与えられる画像信号S50に含まれる各
画素の彩度情報とに基づいて、画像信号S50に基づく
画像の中央部におけるその壁面72AA〜72ADの彩
度の大きい方の色が塗布された部分(すなわち仮想線K
1よりも上部分、以下、これを壁面72AA〜72AD
の高彩度部分と呼ぶ)の縦方向の長さHx (図26)
と、画像中央部におけるその壁面72AA〜72ADの
彩度の小さい方の色が塗布された部分(すなわち仮想線
K1よりも下部分、以下、これを壁面72AA〜72A
Dの低彩度部分と呼ぶ)の縦方向の長さLx (図26)
とをそれぞれ画素を単位として検出し、これら検出した
壁面72AA〜72ADの高彩度部分の長さHx 、その
壁面72AA〜72ADの低彩度部分の長さLx 及びそ
の壁面72AA〜72ADの色相とを壁面検出信号S8
1として比較・演算部124に送出する。The wall surface 7 where the optical axis of the camera 16 is closest
In the state where the wall detection unit 123 is vertically oriented to 2AA to 72AD, the wall detection unit 123 outputs the color extraction signals S51A to S51D provided from the color extraction units 94A to 94D and the pixels included in the image signal S50 provided from the image format conversion unit 93. Based on the chroma information of the image signal S50, a portion of the center portion of the image based on the image signal S50 on which the color with the larger chroma of the wall surfaces 72AA to 72AD is applied (that is, the virtual line K
The upper part than 1 hereafter, this is called wall surface 72AA-72AD
Of the vertical direction H x (FIG. 26)
And a portion of the wall 72AA-72AD at the center of the image where the color with the smaller saturation is applied (i.e., a portion below the virtual line K1; hereinafter, this is referred to as the wall 72A-72A).
D x (referred to as low-saturation portion of D) in the vertical direction (FIG. 26)
DOO respectively detect the pixel as a unit, the length H x of the high saturation of these detected walls 72AA~72AD, the hue of the length L x and the wall surface thereof 72AA~72AD low chroma portion of the wall surface 72AA~72AD To the wall detection signal S8
The value is sent to the comparison / calculation unit 124 as 1.
【0191】比較・演算部124は、壁面検出信号S8
1に基づき得られるその壁面72AA〜72ADの色相
と、第1のメモリ125に予め格納されている各壁面7
2AA〜72ADの色相及びそのIDに関するテーブル
とに基づいて、その壁面72AA〜72ADのIDを検
出する。The comparison / arithmetic unit 124 generates the wall detection signal S8
1 and the hue of the wall surfaces 72AA to 72AD obtained based on the first and second wall surfaces 7AA to 72AD stored in the first memory 125 in advance.
The IDs of the wall surfaces 72AA to 72AD are detected based on the hues of 2AA to 72AD and the table relating to the IDs.
【0192】また比較・演算部124は、壁面検出信号
S81に基づき得られる画像中央部におけるその壁面7
2AA〜72ADの高彩度部分及び低彩度部分の各長さ
Hx、Lx とに基づいて次式The comparing / calculating section 124 determines whether or not the wall 7 at the center of the image obtained based on the wall detection signal S81.
Based on the lengths H x and L x of the high chroma portion and the low chroma portion of 2AA to 72AD,
【0193】[0193]
【数8】 (Equation 8)
【0194】で与えられる演算を実行すると共に、かく
して算出された画像中央部におけるその壁面の高さに対
する高彩度部分の縦方向の長さの比率Rx2と、第2のメ
モリ126に予め格納されている各壁面72AA〜72
ADの一端におけるその壁面72AA〜72ADの高さ
に対する高彩度部分の長さの比率Ra2、各壁面72AA
〜72ADの他端におけるその壁面72AA〜72AD
の高さに対する高彩度部分の長さの比率Rb2及び各壁面
72AA〜72ADの長さMとに基づいて、次式The ratio R x2 of the vertical length of the high-saturation portion to the height of the wall surface at the center of the image calculated in this way is stored in the second memory 126 in advance. Each wall surface 72AA-72
The ratio R a2 of the length of the high chroma portion to the height of the wall surfaces 72AA to 72AD at one end of the AD, each wall surface 72AA
Walls 72AA to 72AD at the other end of.
Based on the ratio R b2 of the length of the high chroma portion to the height of the surface and the length M of each of the wall surfaces 72AA to 72AD.
【0195】[0195]
【数9】 (Equation 9)
【0196】で与えられる演算を実行することにより、
その壁面72AA〜72ADの一端からその壁面72A
A〜72ADの画像中央部に撮像されている部分までの
距離x(その壁面72AA〜72ADと平行な方向にお
ける当該壁面72AA〜72ADの一端からロボツト1
21までの距離に相当)を算出する。By executing the operation given by
From one end of the wall surfaces 72AA to 72AD, the wall surface 72A
A distance x to a portion of the image taken at the center of the image of A to 72AD (from one end of the wall surface 72AA to 72AD in a direction parallel to the wall surface 72AA to 72AD, the robot 1
(Equivalent to the distance to 21).
【0197】なお各壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの高さに対する高彩度
部分の縦方向の長さの比率Ra2は、図26に示すよう
に、その壁面72AA〜72ADの一端における高彩度
部分の長さをHa2とし、低彩度部分の長さをLa2として
次式[0197] Note that the ratio R a2 longitudinal length of the high-chroma portions with respect to the height of the wall 72AA~72AD at one end of each wall 72AA~72AD, as shown in FIG. 26, at one end of the wall surface 72AA~72AD the length of the high saturation portions and H a2, the following equation the length of the low saturation part as L a2
【0198】[0198]
【数10】 (Equation 10)
【0199】により与えられる。また各壁面72AA〜
72ADの他端におけるその壁面72AA〜72ADの
高さに対する高彩度部分の長さの比率Rb2は、その壁面
72AA〜72ADの他端における高彩度部分の長さを
Hb2とし、低彩度部分の長さをLb2として次式Is given by In addition, each wall 72AA ~
Ratio R b2 length of the high-chroma portions with respect to the height of the wall 72AA~72AD at the other end of 72AD is the length of the high saturation portions at the other end of the wall 72AA~72AD and H b2, the length of the low saturation part Where L b2 is
【0200】[0200]
【数11】 [Equation 11]
【0201】により与えられる。Given by
【0202】さらにこの後比較・演算部124は、CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。Further, after this, the comparison / calculation unit 124
Under the control of U36, the camera 16 is rotated by 90 [°], and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to obtain the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in the parallel direction.
【0203】さらに比較・演算部124は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ127に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域の地図
情報とに基づいて領域2内における自分の位置を検出
し、検出結果を位置検出信号S82としてCPU36に
送出する。Further, the comparison / calculation unit 124 thereafter calculates the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the position in the direction parallel to the first wall surfaces 72AA to 72AD, and the second I on the walls 72AA-72AD
D and the position in the direction parallel to the second wall surfaces 72AA to 72AD and the map information of the region including the positions of the respective wall surfaces 72AA to 72AD stored in the third memory 127 in advance. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S82.
【0204】これによりこのロボツト121において
は、CPU36が位置検出信号S82に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。As a result, in the robot 121, the CPU 36 operates the area 2 based on the position detection signal S82.
The user is able to recognize his / her own position in the vehicle and take autonomous action according to the surrounding situation based on the recognition result.
【0205】(7−2)第7実施例の動作及び効果 以上の構成において、この位置検出システム120で
は、ロボツト121がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの色と、画像信号S1に基づく画像の中央部お
けるこれら各壁面72AA〜72Dの高さに対する高彩
度部分の長さHx の比率Rx2とを検出し、これら検出結
果と、第1のメモリ125に格納されている各壁面72
AA〜72ADの色及びそのIDと、第2のメモリ12
6に格納されている各壁面72AA〜72ADの長さM
並びに各壁面72AA〜72ADの一端及び他端におけ
る壁面72AA〜72ADの高さに対する高彩度部分の
長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ12
7に格納されている地図情報とに基づいて領域2内にお
ける自分の位置を検出する。(7-2) Operation and Effect of Seventh Embodiment In the above configuration, in the position detection system 120, the robot 121 uses the first and second surroundings based on the image signal S1 output from the camera 16. Wall surface 72AA ~
And color 72AD, detects the ratio R x2 of length H x of the high saturation portions definitive central portion of the image based on the image signal S1 of each wall 72AA~72D to height, and these detection results, the first memory Each wall 72 stored in 125
AA-72AD colors and their IDs and the second memory 12
6, the length M of each of the wall surfaces 72AA to 72AD stored in
And the ratio R a2, R b2 length H a2, H b2 high saturation portion with respect to the height of the wall 72AA~72AD at one end and the other end of each wall 72AA~72AD, third memory 12
7 to detect its own position in the area 2 based on the map information stored in the area 7.
【0206】従つてこの位置検出システム120では、
2つの壁面72AA〜72ADの色相と、これら壁面7
2AA〜72ADの高彩度部分とに基づいてロボツト1
21が領域2内における自分の位置を容易かつ精度良く
認識することができる。Accordingly, in this position detection system 120,
The hues of the two wall surfaces 72AA to 72AD and
Robot 1 based on the high saturation portion of 2AA to 72AD
21 can easily and accurately recognize its own position in the area 2.
【0207】またこの位置検出システム120では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色相で、かつ彩度の大きく異
なる2色を所定パターンで塗布するだけで良いため、極
めて簡単にシステムを構築することができる。In the position detecting system 120, each of the wall surfaces 72AA to 72A arranged along each side of the area 2 is provided.
Since it is only necessary to apply two colors having different hues and greatly different saturations in a predetermined pattern to D, a system can be constructed extremely easily.
【0208】さらにこの位置検出システム120では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域2の床面に信号
発生機を設置する必要がないため、ロボツト121の行
動を妨げるおそれもない。Further, in this position detection system 120,
Since no special signal transmission method such as radio waves is used, it can be used without considering the effects on peripheral devices and radio regulations, and a signal generator is installed on the floor of area 2. Since there is no need, there is no possibility that the action of the robot 121 will be hindered.
【0209】さらにこの位置検出システム120では、
ロボツト121の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。Further, in this position detection system 120,
Since the method is not a method of writing a sign, a sign, or the like on the floor of the action area 2 of the robot 121, paint or the like can be applied to the floor for another purpose.
【0210】さらにこの位置検出システム120では、
ロホツト121のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト121の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト121が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。Further, in this position detection system 120,
By turning the camera 16 of the robot 121 in a substantially horizontal direction, the wall surface 72A on the front of the robot 121 is moved.
Since the A to 72AD can be imaged by the camera 16, the robot 121 does not need to turn the camera 16 in a predetermined direction to detect its own position in the area 2, and the other robots are captured by the camera 16 There is also an advantage that one's own position in the area 2 can be detected.
【0211】以上の構成によれば、各壁面72AA〜7
2AD毎に互いに異なる色相を用いて、これら各壁面7
2AA〜72ADに同じ色相で彩度の異なる2色を所定
パターンでそれぞれ塗布し、ロボツト121が2つの壁
面72AA〜72ADの色相と、これら壁面72AA〜
72ADをカメラ16により垂直に撮像した場合の画像
中央部におけるその壁面72AA〜72ADの高さに対
する高彩度部分の縦方向の長さHx とをそれぞれ検出
し、これら検出結果と、第1のメモリ125に格納され
ている各壁面72AA〜72ADの色及びそのIDと、
第2のメモリ126に格納されている各壁面72AA〜
72ADの長さM並びに各壁面72AA〜72ADの一
端及び他端における壁面72AA〜72ADの高さに対
する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、
第3のメモリ127に格納されている地図情報とに基づ
いて領域2内における自分の位置を検出するようにした
ことにより、ロボツト121が領域2内における自分の
位置を精度良く検出することができ、かくして領域2内
における自分の位置を精度良く検出し得る位置検出シス
テム及びロボツトを実現できる。According to the above configuration, each of the wall surfaces 72AA to 7AA
By using different hues for each 2AD, each of these wall surfaces 7
The robot 121 applies two colors of the same hue and different saturation in a predetermined pattern to the 2AA to 72AD, and the robot 121 applies the hue of the two wall surfaces 72AA to 72AD and the wall surfaces 72AA to 72AD.
Longitudinal length and H x detects respective high saturation portion with respect to the height of the wall 72AA~72AD the image central portion in the case where the captured vertically by the camera 16 and 72AD, and these detection results, the first memory 125 And the color of each wall surface 72AA-72AD stored in the
Each wall surface 72AA- stored in the second memory 126
The length M of the 72AD and the ratio R a2 , R b2 of the lengths Ha 2 and H b2 of the high chroma portion to the height of the wall surfaces 72AA to 72AD at one end and the other end of each of the wall surfaces 72AA to 72AD;
By detecting its own position in the area 2 based on the map information stored in the third memory 127, the robot 121 can accurately detect its own position in the area 2. Thus, it is possible to realize a position detection system and a robot that can accurately detect the position of the user in the area 2.
【0212】(8)第8実施例 (8−1)第8実施例による位置検出システムの構成 図17との対応部分に同一符号を付して示す図28は、
第8実施例による位置検出システム130を示すもので
あり、領域2の各辺に沿つて設けられた各壁面131A
A〜131ADがそれぞれ複数の液晶パネル132のパ
ネル面で構成されている点を除いて第4実施例の位置検
出システム90(図17)と同様に構成されている。(8) Eighth Embodiment (8-1) Configuration of Position Detection System According to Eighth Embodiment FIG. 28 in which the same reference numerals are assigned to parts corresponding to FIG.
FIG. 14 shows a position detection system 130 according to an eighth embodiment, in which each wall surface 131A provided along each side of the area 2;
The configuration is the same as that of the position detection system 90 (FIG. 17) of the fourth embodiment, except that A to 131AD are each configured by a panel surface of a plurality of liquid crystal panels 132.
【0213】この場合各液晶パネル132は、図29に
示すように、領域2の同じ辺に沿うもの同士が同じ色
で、かつ領域2の異なる辺に沿うもの同士がHSI空間
において色相が60〔°〕以上離れた互いに異なる色の光
を領域2内に向けて発射するように制御部133により
制御される。In this case, as shown in FIG. 29, each of the liquid crystal panels 132 has the same color along the same side of the region 2 and has a hue of 60 [ [°]] is controlled by the control unit 133 so as to emit light of different colors separated from each other toward the region 2.
【0214】これによりこの位置検出システム130に
おいては、第4実施例の位置検出システム90(図1
7)と同様に、ロボツト91が各壁面131AA〜13
1ADの色に基づいてその壁面131AA〜131AD
を容易に識別し得るようになされている。Thus, in the position detecting system 130, the position detecting system 90 (FIG. 1) of the fourth embodiment is used.
As in the case of 7), the robot 91 has the wall surfaces 131AA to 13A.
The wall surface 131AA to 131AD based on the color of 1AD
Can be easily identified.
【0215】(8−2)第8実施例の動作及び効果 以上の構成において、この位置検出システム130で
は、図18について上述したように、ロボツト91がカ
メラ16から出力される画像信号S1に基づいて、周囲
の第1及び第2の壁面131AA〜131ADの色と、
画像信号S1に基づく画像内におけるその第1及び第2
の壁面131AA〜131ADの高さとを検出し、当該
検出結果と、第1のメモリ83に予め格納されている各
壁面131AA〜131ADの色及びそのIDと、第2
のメモリ84に予め格納されている基準値Hstdと、第3
のメモリ85に予め格納されている地図情報とに基づい
て領域2内における自分の位置を検出する。(8-2) Operation and Effect of Eighth Embodiment In the above configuration, in the position detection system 130, the robot 91 is based on the image signal S1 output from the camera 16 as described above with reference to FIG. And the colors of the surrounding first and second wall surfaces 131AA to 131AD,
Its first and second in the image based on the image signal S1
The height of the wall surfaces 131AA to 131AD is detected, the detection result, the color and ID of each of the wall surfaces 131AA to 131AD stored in the first memory 83 in advance, and the second
The reference value Hstd stored in advance in the memory 84 of the
Of the user in the area 2 on the basis of the map information stored in the memory 85 in advance.
【0216】従つてこの位置検出システム130によれ
ば、第4実施例の位置検出システム90(図17)と同
様の作用効果を得ることができる。Therefore, according to the position detecting system 130, the same functions and effects as those of the position detecting system 90 (FIG. 17) of the fourth embodiment can be obtained.
【0217】これに加えこの位置検出システム130で
は、各壁面131AA〜131ADが自ら所定の色を発
光するため、例えば第4実施例のように各壁面72AA
〜72ADにおける光の反射を利用する場合に比べてロ
ボツト91内部において色識別を行う際に照明などの外
部環境の影響を受け難くすることができる。In addition, in the position detecting system 130, since each of the wall surfaces 131AA to 131AD emits a predetermined color by itself, for example, as in the fourth embodiment, each of the wall surfaces 72AA
When performing color discrimination inside the robot 91, it is possible to reduce the influence of the external environment such as illumination as compared with the case of using the reflection of light at -72AD.
【0218】またこの位置検出システム130では、各
壁面131AA〜131ADを液晶パネル132のパネ
ル面により構成するようにしているため、ロボツト91
の種類や、作業内容に応じて各壁面131AA〜131
ADの色を自由に切り換えることができる利点をも有し
ている。In the position detection system 130, since the wall surfaces 131AA to 131AD are constituted by the panel surface of the liquid crystal panel 132, the robot 91
Of each wall 131AA-131 according to the type of
There is also an advantage that the color of AD can be freely switched.
【0219】以上の構成によれば、第4実施例の位置検
出システム90(図17)に対し、領域2の各辺う各壁
面131AA〜131ADをそれぞれ複数の液晶パネル
132のパネル面で構成すると共に、これら液晶パネル
132を、領域2の同じ辺に沿うもの同士が同じ色で、
かつ領域2の異なる辺に沿うもの同士がHSI空間にお
いて色相が60〔°〕以上離れた互いに異なる色の光を領
域2内に向けて発射するように制御するようにしたこと
により、ロボツト91内部における色識別に外部環境の
変化の影響を受け難くすることができ、かくして領域2
内における自分の位置を精度良く検出し得る位置検出シ
ステム及びロボツトを実現できる。According to the above configuration, each of the wall surfaces 131AA to 131AD of each of the regions 2 is formed by a plurality of liquid crystal panels 132 in the position detection system 90 (FIG. 17) of the fourth embodiment. At the same time, those liquid crystal panels 132 that are the same color along the same side of region 2 are
In addition, by controlling the light along different sides of the region 2 to emit light of different colors having a hue of 60 ° or more apart in the HSI space toward the region 2, the inside of the robot 91 is controlled. Can be made less susceptible to changes in the external environment in the color discrimination in
A position detection system and a robot that can accurately detect the position of the user in the vehicle can be realized.
【0220】(9)他の実施例 なお上述の第1〜第8実施例においては、本発明を自律
移動型のロボツト3A〜3C、51A〜51C、71、
91、101、111、121に適用するようにした場
合について述べたが、本発明はこれに限らず、この他種
々のロボツト又は他の移動体に適用することができる。(9) Other Embodiments In the above-described first to eighth embodiments, the present invention relates to autonomous mobile robots 3A to 3C, 51A to 51C, 71,
The case where the present invention is applied to 91, 101, 111, and 121 has been described, but the present invention is not limited to this, and can be applied to various other robots or other moving objects.
【0221】また上述の第1実施例においては、図2
(A)のように、識別体23を支持棒22を介して各ロ
ボツト3A〜3Cに取り付けるようにした場合について
述べたが、本発明はこれに限らず、識別体23を例えば
図30のようにロボツト140の頭部12上に配設する
ようにしても良く、要は、ロボツト3A〜3Cに対して
他のロボツト3A〜3Cから見やすい位置に識別体23
を取り付けるのであれば、識別体23の取り付け位置と
しては、この他種々の位置を適用できる。In the first embodiment described above, FIG.
As shown in (A), the case where the identification body 23 is attached to each of the robots 3A to 3C via the support rod 22 has been described. However, the present invention is not limited to this. May be arranged on the head 12 of the robot 140. The point is that the identification body 23 is located at a position that is easy to see from the other robots 3A to 3C with respect to the robots 3A to 3C.
Is attached, various other positions can be applied as the attachment position of the identification body 23.
【0222】さらに上述の第1実施例においては、識別
体23を球状に形成するようにした場合について述べた
が、本発明はこれに限らず、例えば図31(A)のよう
な楕円回転体形状や、図31(B)のような円柱形状等
のこの他種々の形状にするようにしても良い。ただし識
別体23の形状をロボツト3A〜3Cの移動方向と垂直
な中心軸を有する回転体に選定し、その表面を当該ロボ
ツト3A〜3Cの移動方向と平行な複数の帯状領域に分
割し、所定の色パターンで各帯状領域をそれぞれ所定色
に着色するようにすることによつて、領域2が平坦な場
合にどの方向から見ても識別体を同じ形状及び同じ色パ
ターンで見ることができるため、識別体の個体識別を容
易にすることができる。Further, in the above-described first embodiment, the case where the discriminating body 23 is formed in a spherical shape has been described. However, the present invention is not limited to this. For example, an elliptical rotating body as shown in FIG. The shape may be various other shapes such as a column shape as shown in FIG. However, the shape of the identification body 23 is selected as a rotating body having a central axis perpendicular to the moving direction of the robots 3A to 3C, and the surface thereof is divided into a plurality of belt-like regions parallel to the moving direction of the robots 3A to 3C. By coloring each band-shaped region in a predetermined color with the color pattern described above, the identifier can be viewed in the same shape and the same color pattern in any direction when the region 2 is flat. In addition, individual identification of the identification body can be facilitated.
【0223】さらに上述の第1実施例においては、識別
体23の表面を3色に色分けするようにした場合につい
て述べたが、本発明はこれに限らず、この他の数に色分
けするようにしても良い。また上述の第1実施例におい
ては、識別のための色として16色用意するようにした場
合について述べたが、本発明はこれに限らず、この他の
数であつても良い。Further, in the first embodiment described above, the case where the surface of the discriminating body 23 is colored in three colors has been described. However, the present invention is not limited to this. May be. Further, in the above-described first embodiment, a case has been described in which 16 colors are prepared as colors for identification, but the present invention is not limited to this, and other numbers may be used.
【0224】さらに上述の第1実施例においては、他の
ロボツト3A〜3Cに配設されたロボツト3A〜3C毎
に異なる色パターンの識別体23を撮像する撮像手段と
してカメラ16を適用するようにした場合について述べ
たが、本発明はこれに限らず、この他種々の撮像手段を
適用できる。Further, in the above-described first embodiment, the camera 16 is applied as an image pickup means for picking up an image of the identification body 23 having a different color pattern for each of the robots 3A to 3C provided in the other robots 3A to 3C. However, the present invention is not limited to this, and various other imaging means can be applied.
【0225】さらに上述の第1実施例においては、カメ
ラ16から供給される画像情報(画像信号S1)に基づ
いて、カメラ16により撮像された識別体23の色パタ
ーンを検出する色パターン検出手段を、図6のように構
成された複数の色抽出部31A〜31Uと色パターン検
出部32とで構成するようにした場合について述べた
が、本発明はこれに限らず、この他種々の構成を適用で
きる。Further, in the above-described first embodiment, the color pattern detecting means for detecting the color pattern of the identification body 23 imaged by the camera 16 based on the image information (image signal S1) supplied from the camera 16 is provided. 6, a case has been described in which a plurality of color extraction units 31A to 31U and a color pattern detection unit 32 are configured as shown in FIG. 6. However, the present invention is not limited to this. Applicable.
【0226】さらに上述の第1実施例においては、色パ
ターン検出部32により検出された識別体23の色パタ
ーンと、予め記憶している各ロボツト3A〜3Cごとの
識別体23の色パターン情報とに基づいて、カメラ16
により撮像した識別体23を有するロボツト3A〜3C
の個体を識別する識別手段を、比較・演算部33、第1
のメモリ34により構成するようにした場合について述
べたが、本発明はこれに限らず、この他種々の構成を適
用できる。この場合第1のメモリ34に代えてこの他種
々の記憶手段を適用できる。Further, in the first embodiment described above, the color pattern of the discriminator 23 detected by the color pattern detector 32, the color pattern information of the discriminator 23 for each of the robots 3A to 3C stored in advance, and Based on the camera 16
Robots 3A to 3C having an identification body 23 captured by
Identification means for identifying the individual of the comparison / calculation unit 33, the first
Has been described, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied in place of the first memory 34.
【0227】さらに上述の第1実施例においては、カメ
ラ16から供給される画像信号S1に基づく画像内にお
ける識別体23の直径(又は他の部分の大きさでも良
い)を検出する大きさ検出手段を、複数の色抽出部31
A〜31Uと色パターン検出部32とで構成するように
した場合について述べたが、本発明はこれに限らず、こ
の他種々の構成を適用できる。Further, in the above-described first embodiment, size detecting means for detecting the diameter of the identification body 23 (or the size of another portion) in an image based on the image signal S1 supplied from the camera 16. To a plurality of color extraction units 31
Although a case has been described in which the configuration is made up of A to 31U and the color pattern detection unit 32, the present invention is not limited to this, and various other configurations can be applied.
【0228】さらに上述の第1実施例においては、色パ
ターン検出部32により検出された識別体23の大きさ
と、予め記憶している基準値とに基づいて、カメラ16
から識別体23までの距離L1を算出する演算手段を、
比較・演算部33及び第2のメモリ35により構成する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成を適用できる。この場合第2のメ
モリ35に代えてこの他種々の記憶手段を適用できる。Further, in the first embodiment described above, the camera 16 is determined based on the size of the discriminator 23 detected by the color pattern detecting section 32 and a reference value stored in advance.
Calculating means for calculating the distance L1 from the object to the identification body 23,
Although the case has been described in which the configuration is made up of the comparison / calculation unit 33 and the second memory 35, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied instead of the second memory 35.
【0229】さらに上述の第1実施例においては、カメ
ラ16から識別体23までの距離L1を算出するための
基準値を、カメラ16及び識別体23が1〔m〕離れて
いるときの識別体23の画素を単位とした直径に選定す
るようにした場合について述べたが、本発明はこれに限
らず、この他種々の値を適用できる。Further, in the first embodiment, the reference value for calculating the distance L1 from the camera 16 to the discriminating object 23 is set to the discriminating object when the camera 16 and the discriminating object 23 are separated by 1 [m]. Although the case where the diameter is selected in units of 23 pixels has been described, the present invention is not limited to this, and various other values can be applied.
【0230】さらに上述の第1実施例においては、各識
別体23を単に複数色で固有の色パターンに色づけする
ようにした場合について述べたが、本発明はこれに限ら
ず、例えば各識別体23の色パターンをそれぞれ所定の
色空間(例えば図16を用いて説明したHSI空間や、
色を赤色、緑色及び青色の各レベルで表すRGB空間、
又は色を輝度レベル並びに第1及び第2の色差レベルで
表すYUV空間など)において所定の第1の距離だけ離
れた複数色の組み合わせにより形成する(すなわち識別
のための色として所定の色空間において第1の距離だけ
離れた色を用いる)ようにしても良い。Further, in the above-described first embodiment, a case has been described in which each identification body 23 is simply colored in a unique color pattern with a plurality of colors. However, the present invention is not limited to this. Each of the 23 color patterns is stored in a predetermined color space (for example, the HSI space described with reference to FIG.
An RGB space representing colors in red, green and blue levels,
Alternatively, a color is formed by a combination of a plurality of colors separated by a predetermined first distance in a luminance level and a YUV space represented by first and second color difference levels (that is, in a predetermined color space as a color for identification). (A color separated by a first distance) may be used.
【0231】この場合各ロボツト3A〜3Cの個体識別
部30には、色抽出部31A〜31Uに代えて、カメラ
16から供給される画像信号S1をその色空間に応じた
画像フオーマツトの画像信号に変換する変換手段(例え
ば第4実施例の画像フオーマツト変換部93)と、当該
変換手段から出力される画像信号に基づく画像のなかか
らそれぞれ互いに異なる指定された色の画素を抽出する
複数の色抽出手段(例えば第4実施例の各色抽出部94
A〜94D)とを設け、これら変換手段及び複数の色抽
出手段と、色パターン検出部32(図4)とで構成され
る色パターン検出手段によつてカメラ16により撮像し
た識別体23の色パターンを検出するようにするように
すれば良い。このようにすることによつて、ロボツト3
A〜3Cにおける識別体23に着色された色の誤判定を
未然に回避でき、その分より精度良くロボツト3A〜3
Cの個体を識別し得る個体識別システム及びロボツトを
実現できる。なおこの場合、カメラ16から出力される
画像信号S1の画像フオーマツトが上述の色空間に応じ
たものである場合には、変換手段を省略することができ
る。In this case, instead of the color extracting sections 31A to 31U, the individual identifying section 30 of each of the robots 3A to 3C converts the image signal S1 supplied from the camera 16 into an image format image signal corresponding to its color space. Conversion means for conversion (for example, the image format conversion unit 93 of the fourth embodiment) and a plurality of color extractions for extracting pixels of designated colors different from each other from an image based on an image signal output from the conversion means Means (for example, each color extracting unit 94 of the fourth embodiment)
A to 94D), and the color of the identification body 23 captured by the camera 16 by the color pattern detecting means constituted by the converting means, the plurality of color extracting means, and the color pattern detecting section 32 (FIG. 4). What is necessary is just to make it detect a pattern. By doing so, the robot 3
It is possible to avoid erroneous determination of the color of the identification body 23 in A to 3C beforehand, and the robots 3A to 3C can be more accurately performed.
An individual identification system and a robot capable of identifying the individual C can be realized. In this case, if the image format of the image signal S1 output from the camera 16 conforms to the above-described color space, the conversion means can be omitted.
【0232】さらにこの場合、識別体23に塗布する色
の組み合わせとして、隣接する色同士が上述の色空間に
おいて第1の距離よりも大きい第2の距離だけ離れるよ
うに選定するようにしても良く、このようにすることに
よつてより精度良くロボツト3A〜3Cの個体を識別し
得る個体識別システム及びロボツトを実現できる。Further, in this case, the combination of colors applied to the discriminator 23 may be selected so that adjacent colors are separated by a second distance larger than the first distance in the above-described color space. By doing so, it is possible to realize an individual identification system and a robot that can identify the robots 3A to 3C with higher accuracy.
【0233】さらに上述の第1実施例においては、識別
体23として発光しないものを適用するようにした場合
について述べたが、本発明はこれに限らず、識別体23
として、例えば透明な球殻の内部に電球等の発光手段を
収容すると共に、球殻の表面を対応する色パターンの色
づけするなどして識別体23が対応する色パターンの光
を発光するようにしても良く、このようにすることによ
つて識別手段による色識別に誤識別が発生する確立を低
減することができ、その分より精度良くロボツト3A〜
3Cの個体を識別し得る個体識別システム及びロボツト
を実現できる。Further, in the above-described first embodiment, a case has been described in which an object that does not emit light is used as the discriminator 23. However, the present invention is not limited to this.
For example, a light emitting unit such as a light bulb is accommodated in a transparent spherical shell, and the surface of the spherical shell is colored with a corresponding color pattern so that the identifier 23 emits light of the corresponding color pattern. By doing so, it is possible to reduce the probability of occurrence of erroneous identification in the color identification by the identification means, and more accurately, the robots 3A to 3D.
An individual identification system and a robot capable of identifying an individual of 3C can be realized.
【0234】さらに上述の第2実施例においては、図1
0のように識別シール52の表面を色分けするようにし
て色パターンを形成するようにした場合について述べた
が、本発明はこれに限らず、識別シール52の表面を図
32のように色分けするようにしても良く、要は、識別
シール52の表面を複数の色で色分けするのであれば、
色パターンの形状としては、この他種々の形状を適用で
きる。Further, in the second embodiment described above, FIG.
Although the case where the color pattern is formed by color-coding the surface of the identification seal 52 like 0 has been described, the present invention is not limited to this, and the color of the surface of the identification seal 52 is color-coded as shown in FIG. In other words, if the surface of the identification seal 52 is color-coded with a plurality of colors,
Various other shapes can be applied as the shape of the color pattern.
【0235】この場合例えば図33に示すように、複数
種類の識別色のなかから所定数の色を用いて同心状の複
数の環状領域141A〜141Cを色づけするようにし
て色パターンを形成するようにしても良い。In this case, for example, as shown in FIG. 33, a color pattern is formed by coloring a plurality of concentric annular regions 141A to 141C using a predetermined number of colors from a plurality of types of identification colors. You may do it.
【0236】またこれに加えて、例えば図34(A)〜
(C)のように各環状領域141A〜141Cの所定の
径方向に延長する所定色に着色された直線領域141D
や、着色されていない長方形領域141E又は扇状領域
141Fなどの領域を設けるようにしても良い。この場
合直線領域141D、長方形領域141E又は扇状領域
141Fなどの所定形状の領域がロボツト51A〜51
Cの前方向又は後方向などを向くように予め設定してお
くことによつて当該領域の向きに基づいてロボツト51
A〜51Cの向きをも検出し得るようにすることができ
る。In addition to this, for example, FIG.
(C) A linear region 141D colored in a predetermined color extending in a predetermined radial direction of each of the annular regions 141A to 141C as shown in FIG.
Alternatively, a region such as an uncolored rectangular region 141E or a fan-shaped region 141F may be provided. In this case, regions of a predetermined shape such as the linear region 141D, the rectangular region 141E, or the fan-shaped region 141F are the robots 51A to 51A.
The robot 51 is set in advance so as to face the front or the rear of C, so that the robot 51 can be controlled based on the orientation of the area.
The direction of A to 51C can also be detected.
【0237】さらに上述の第2実施例においては、各ロ
ボツト51A〜51Cに互いに異なる色パターンを付与
する手段として表面が所定の色パターンで色分けされた
識別シール52を貼り付けるようにした場合について述
べたが、本発明はこれに限らず、例えばロボツト51A
〜51Cの上面(又はカメラ53により撮像できる他の
所定位置)に直接ペンキを塗ることにより各ロボツト5
1A〜51Cに互いに異なる所定の色パターンを付与す
るようにしても良く、各ロボツト51A〜51Cに互い
に異なる所定の色パターンを付与する手段としては、こ
の他種々の方法を適用できる。Further, in the above-described second embodiment, a case is described in which the identification seal 52 whose surface is color-coded with a predetermined color pattern is attached to each of the robots 51A to 51C as means for giving a different color pattern. However, the present invention is not limited to this.
Each of the robots 5 is directly painted on the upper surface of the robot 51C (or another predetermined position that can be imaged by the camera 53).
Different predetermined color patterns may be assigned to 1A to 51C, and various other methods may be applied as means for assigning different predetermined color patterns to the robots 51A to 51C.
【0238】この場合例えば各ロボツト51A〜51C
に互いに異なる色パターンの光を発光する発光手段(例
えば透明フイルムの下側に電球等の発光体を配設すると
共に、透明フイルムに対応する色パターンで色づけす
る)を配設するようにしても良く、このようにすること
によつて識別手段による色識別に誤識別が発生する確立
を低減することができ、その分より精度良くロボツト3
A〜3Cの個体を識別し得る個体識別システム及びロボ
ツトを実現できる。In this case, for example, each of the robots 51A to 51C
Light emitting means for emitting light having different color patterns from each other (for example, a light emitting body such as a light bulb is provided below the transparent film and colored with a color pattern corresponding to the transparent film) may be provided. By doing so, it is possible to reduce the probability that erroneous identification will occur in the color identification by the identification means, and the robot 3 will be more accurately accordingly.
An individual identification system and a robot capable of identifying individuals A to 3C can be realized.
【0239】さらに上述の第2実施例においては、カメ
ラ53から供給される画像情報(画像信号S1)に基づ
く画像内における各ロボツト51A〜51Cの色パター
ンの位置に基づいて、領域2内における各ロボツト51
A〜51Cの位置を検出する位置検出手段を、比較・演
算部56及びメモリ57で構成するようにした場合につ
いて述べたが、本発明はこれに限らず、この他種々の構
成を適用できる。この場合メモリ57に代えてこの他種
々の記憶手段を適用することができる。Further, in the above-described second embodiment, based on the position of the color pattern of each of the robots 51A to 51C in the image based on the image information (image signal S1) supplied from the camera 53, Robot 51
Although a case has been described where the position detection means for detecting the positions of A to 51C is configured by the comparison / calculation unit 56 and the memory 57, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied instead of the memory 57.
【0240】さらに上述の第2実施例においては、個体
識別部54により検出した各ロボツト51A〜51Cの
位置を電波により各ロボツト51A〜51Cに伝達する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他の赤外線等の無線手段又は有線等のこの他種
々の伝達手段を適用できる。Further, in the above-described second embodiment, the case has been described in which the positions of the robots 51A to 51C detected by the individual identification unit 54 are transmitted to the robots 51A to 51C by radio waves. The present invention is not limited to this, and other wireless means such as infrared rays or other various transmission means such as wires can be applied.
【0241】さらに上述の第2実施例においては、各識
別シール52を単に複数色で固有の色パターンに色分け
するようにした場合について述べたが、本発明はこれに
限らず、例えば各識別シール52の色パターンをそれぞ
れ所定の色空間(例えばHSI空間や、RGB空間又は
YUV空間など)において所定の第1の距離だけ離れた
複数色の組み合わせにより形成する(すなわち識別のた
めの色として所定の色空間において第1の距離だけ離れ
た色を用いる)ようにしても良い。Further, in the above-described second embodiment, a case has been described in which each identification seal 52 is simply colored by a plurality of colors into a unique color pattern. However, the present invention is not limited to this. Each of the 52 color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space (for example, an HSI space, an RGB space, or a YUV space) (that is, a predetermined color as a color for identification). (A color separated by a first distance in a color space may be used).
【0242】この場合個体識別部54には、色抽出部3
1A〜31Uに代えて、カメラ53から供給される画像
信号S30をその色空間に応じた画像フオーマツトの画
像信号に変換する変換手段(例えば第4実施例の画像フ
オーマツト変換部93)と、当該変換手段から出力され
る画像信号に基づく画像のなかからそれぞれ互いに異な
る指定された色の画素を抽出する複数の色抽出手段(例
えば第4実施例の各色抽出部94A〜94D)とを設
け、これら変換手段及び複数の色抽出手段と、色パター
ン検出部55(図11)とで構成される色パターン検出
手段によつてカメラ53により撮像した各識別シール5
2の色パターンを検出するようにするようにしても良
い。このようにすることによつて、個体識別部54にお
ける識別シール52に着色された色の誤判定を未然に回
避でき、その分より精度良くロボツト51A〜51Cの
個体を識別し得る個体識別システムを実現できる。なお
この場合においても、カメラ16から出力される画像信
号S1の画像フオーマツトが上述の色空間に応じたもの
である場合には変換手段を省略することができる。In this case, the individual identifying section 54 includes the color extracting section 3
A conversion unit (for example, an image format conversion unit 93 of the fourth embodiment) for converting the image signal S30 supplied from the camera 53 into an image signal of an image format corresponding to the color space, instead of 1A to 31U; A plurality of color extracting means (for example, each of the color extracting units 94A to 94D of the fourth embodiment) for extracting pixels of a designated color different from each other from an image based on an image signal output from the means. Each identification sticker 5 imaged by the camera 53 by the color pattern detecting means constituted by the means and a plurality of color extracting means and the color pattern detecting section 55 (FIG. 11).
The second color pattern may be detected. By doing so, an erroneous determination of the color of the identification seal 52 in the individual identification section 54 can be avoided beforehand, and an individual identification system that can identify the robots 51A to 51C more accurately by that amount. realizable. In this case as well, if the image format of the image signal S1 output from the camera 16 conforms to the above-described color space, the conversion means can be omitted.
【0243】さらにこの場合、識別シール52に塗布す
る色の組み合わせとして、隣接する色同士が上述の色空
間において第1の距離よりも大きい第2の距離だけ離れ
るように選定するようにしても良く、このようにするこ
とによつてより精度良くロボツト51A〜51Cの個体
を識別し得る個体識別システムを実現できる。Further, in this case, the combination of colors applied to the identification seal 52 may be selected so that adjacent colors are separated by a second distance larger than the first distance in the above-described color space. By doing so, an individual identification system that can identify the robots 51A to 51C with higher accuracy can be realized.
【0244】さらに上述の第3実施例においては、領域
2の各辺に沿つた各壁面72AA〜72ADごとに塗布
する色を変えるようにした場合について述べたが、本発
明はこれに限らず、領域2の各辺に沿つた各壁面72A
A〜72ADをZ方向と平行な複数の領域に分割し、当
該各領域ごとに塗布する色を変えるようにしても良い。Further, in the third embodiment described above, a case has been described in which the color applied to each of the wall surfaces 72AA to 72AD along each side of the region 2 is changed, but the present invention is not limited to this. Each wall surface 72A along each side of the area 2
A to 72AD may be divided into a plurality of regions parallel to the Z direction, and the color to be applied may be changed for each of the regions.
【0245】さらに上述の第1〜第3実施例において
は、色抽出部31A〜31Uを図6のように構成するよ
うにした場合について述べたが、本発明はこれに限ら
ず、要は、供給される画像信号を輝度信号及び色差信号
に分離する分離手段(実施例では分離回路41と、輝度
信号及び色差信号に基づいて、画像信号に基づく画像内
の画素ごとの輝度レベル及び色差レベルを順次検出する
レベル検出手段(実施例ではアナログ/デイジタル変換
回路42、43A、43B)と、レベル検出手段により
検出された画素の輝度レベル及び色差レベルと予め記憶
している各輝度レベルごとの色差レベルの上限値及び下
限値とに基づいて各画素ごとに所定色か否かを判定する
判定手段(実施例では第1〜第4のメモリ44A〜44
D、第1〜第4の比較回路45A〜45D及び判定回路
48)とを設けるようにするのであれば、色抽出部の構
成としては、この他種々の構成を適用できる。Further, in the above-described first to third embodiments, the case where the color extracting units 31A to 31U are configured as shown in FIG. 6 has been described. However, the present invention is not limited to this. Separating means for separating the supplied image signal into a luminance signal and a chrominance signal (in the embodiment, a separating circuit 41, and based on the luminance signal and the chrominance signal, determine the luminance level and chrominance level of each pixel in the image based on the image signal. Level detecting means (analog / digital conversion circuits 42, 43A, 43B in the embodiment) for sequentially detecting, the luminance level and color difference level of the pixel detected by the level detecting means, and the color difference level for each luminance level stored in advance. (For example, the first to fourth memories 44 </ b> A to 44 </ b> A in this embodiment) determine whether or not each pixel has a predetermined color based on the upper limit and the lower limit.
D, if the first to fourth comparison circuits 45A to 45D and the determination circuit 48) are provided, various other configurations can be applied to the configuration of the color extraction unit.
【0246】さらに上述の第3〜第8実施例において
は、領域2の周囲に沿つて設けられた互いに異なる色の
複数の壁面72AA〜72AD、131AA〜131A
Dのうち、対応する所定の壁面72AA〜72AD、1
31AA〜131AD(すなわち正面の壁面72AA〜
72AD、131AA〜131AD)を撮像する撮像手
段としてカメラ16を適用するようにした場合について
述べたが、本発明はこれに限らず、この他種々の撮像手
段を適用できる。Further, in the above-described third to eighth embodiments, a plurality of wall surfaces 72AA to 72AD, 131AA to 131A of different colors provided along the periphery of the region 2 are provided.
D, corresponding predetermined wall surfaces 72AA to 72AD, 1
31AA-131AD (that is, the front wall surface 72AA-
72AD, 131AA to 131AD), the case where the camera 16 is applied as the imaging means for imaging is described. However, the present invention is not limited to this, and various other imaging means can be applied.
【0247】さらに上述の第3〜第8実施例において
は、カメラ16から出力される画像情報(画像信号S
1)に基づいて、当該カメラ16により撮像された壁面
72AA〜72AD、131AA〜131ADの色及び
当該壁面72AA〜72AD、131AA〜131AD
に対する相対位置(その壁面72AA〜72AD、13
1AA〜131ADからの距離L2又はその壁面72A
A〜72AD、131AA〜131ADと平行な方向に
おける当該壁面72AA〜72AD、131AA〜13
1ADの一端からの距離x)を検出する色及び相対位置
検出手段を、複数の色抽出部31A〜31D、94A〜
94E、壁検出部8、103、114、123、比較・
演算部82、104、115、124並びに第1及び第
2のメモリ83、84、105、106、116、11
7、125、126により構成するようにした場合につ
いて述べたが、本発明はこれに限らず、この他種々の構
成を適用できる。この場合第1及び第2のメモリ83、
84、105、106、116、117、125、12
6に代えてこの他種々の記憶手段を適用できる。Further, in the above third to eighth embodiments, the image information (image signal S
Based on 1), the colors of the wall surfaces 72AA to 72AD and 131AA to 131AD imaged by the camera 16 and the wall surfaces 72AA to 72AD, 131AA to 131AD.
Relative to (the wall surfaces 72AA to 72AD, 13
Distance L2 from 1AA to 131AD or its wall surface 72A
The wall surfaces 72AA to 72AD, 131AA to 13 in a direction parallel to A to 72AD and 131AA to 131AD.
The color and relative position detecting means for detecting the distance x) from one end of the 1AD are provided by a plurality of color extracting units 31A to 31D, 94A to
94E, wall detectors 8, 103, 114, 123, comparison
Arithmetic units 82, 104, 115, 124 and first and second memories 83, 84, 105, 106, 116, 11
7, 125, and 126 have been described, but the present invention is not limited to this, and various other configurations can be applied. In this case, the first and second memories 83,
84, 105, 106, 116, 117, 125, 12
Instead of 6, various other storage means can be applied.
【0248】さらに上述の第3〜第8実施例において
は、カメラ16により撮像された壁面72AA〜72A
D、131AA〜131ADの色及び当該壁面72AA
〜72AD、131AA〜131ADに対する相対位置
と、予め記憶している全ての各壁面72AA〜72A
D、131AA〜131ADの色及び全ての壁面72A
A〜72AD、131AA〜131ADの位置を含む領
域2の地図情報とに基づいて領域2内における自分の位
置を検出する位置検出手段を、比較・演算部82、10
4、115、124及び第3のメモリ85、107、1
18、127により構成するようにした場合について述
べたが、本発明はこれに限らず、第3のメモリ85、1
07、118、127に代えてこの他種々の記憶手段を
適用できる。In the third to eighth embodiments, the wall surfaces 72AA to 72A captured by the camera 16 are used.
D, colors of 131AA to 131AD and the corresponding wall surface 72AA
-72AD, relative positions with respect to 131AA-131AD, and all the previously stored wall surfaces 72AA-72A
D, colors of 131AA-131AD and all wall surfaces 72A
A position detecting means for detecting its own position in the area 2 based on the map information of the area 2 including the positions of A to 72AD and 131AA to 131AD,
4, 115, 124 and third memories 85, 107, 1
18 and 127, the present invention is not limited to this, and the third memory 85, 1
Various other storage means can be applied in place of 07, 118, and 127.
【0249】さらに上述の第3〜第8実施例において
は、ロボツト71、91、101、111、121が2
つの壁面72AA〜72AD、131AA〜131AD
から領域2内における自分の位置を検出するようにした
場合について述べたが、本発明はこれに限らず、3以上
の壁面72AA〜72AD、131AA〜131ADか
ら領域2内における自分の位置を検出するようにしても
良い。Further, in the third to eighth embodiments, the robots 71, 91, 101, 111, and 121 have two robots.
Wall surfaces 72AA-72AD, 131AA-131AD
Has described the case where the user's own position in the area 2 is detected, but the present invention is not limited to this, and the user's own position in the area 2 is detected from three or more wall surfaces 72AA to 72AD and 131AA to 131AD. You may do it.
【0250】さらに上述の第4〜第8実施例において
は、識別のための色として、HSI空間において図16
(B)に示す極座標での原点Oまわりの角度が60〔°〕
以上離れた色を選択するようにした場合について述べた
が、本発明はこれに限らず、図16(B)に示す極座標
での原点Oまわりの角度がこれ以外の角度離れた色を用
いるようにしても良い。また識別のための色として、H
SI空間以外の色空間(RGB空間や、YUV空間な
ど)において所定距離だけ離れた色を用いるようにして
も良い。Further, in the above-described fourth to eighth embodiments, the colors for identification in FIG.
The angle around the origin O in the polar coordinates shown in (B) is 60 [°]
The above description has been given of the case where the colors separated from each other are selected. However, the present invention is not limited to this, and the colors around the origin O in polar coordinates shown in FIG. You may do it. Also, as a color for identification, H
Colors separated by a predetermined distance in a color space other than the SI space (such as an RGB space or a YUV space) may be used.
【0251】さらに上述の第4〜第8実施例において
は、単に識別のための色としてHSI空間において図1
6(B)に示す極座標での原点Oまわりの角度が60
〔°〕以上離れた色を選択するようにした場合について
述べたが、本発明はこれに限らず、例えば隣接する壁面
にはHSI空間(又は他の色空間)において60〔°〕以
上離れた色を割り当てる(例えば図16(B)において
壁面72AAには黄色(Y)、壁面72ABにはシアン
(C)、壁面72ACには赤色(R)及び壁面72AD
には青色(B)を塗布する)ようにしても良い。このよ
うにすることによつて、ロボツト91、101、11
1、121内部において壁面72AA〜72AD131
AA〜131ADの色を判別する際の誤判別を未然に回
避でき、その分より精度良く領域2内における自分の位
置を検出し得る位置検出システム及びロボツト装置を構
築することができる。Further, in the above-described fourth to eighth embodiments, in the HSI space, only colors for identification are used.
The angle around the origin O in the polar coordinates shown in FIG.
Although the case where a color separated by [°] or more is selected has been described, the present invention is not limited to this. For example, adjacent walls may be separated by 60 ° or more in the HSI space (or another color space). Colors are assigned (for example, in FIG. 16B, the wall surface 72AA is yellow (Y), the wall surface 72AB is cyan (C), the wall surface 72AC is red (R), and the wall surface 72AD).
May be coated with blue (B). By doing so, the robots 91, 101, 11
Wall surfaces 72AA to 72AD131 inside 1, 121
It is possible to avoid erroneous discrimination when discriminating the colors of AA to 131AD beforehand, and to construct a position detection system and a robot apparatus that can more accurately detect one's own position in the area 2.
【0252】さらに上述の第5実施例においては、各壁
面72AA〜72ADに塗布する色の飽和度(彩度)を
線形に変化させるようにした場合について述べたが、本
発明はこれに限らず、非線形に変化させるようにしても
良い。ただしこの場合には1つの壁面72AA〜72A
Dにおいて同じ飽和度の部分が存在しないようにする必
要がある。In the fifth embodiment, the case where the saturation (saturation) of the color applied to each of the wall surfaces 72AA to 72AD is linearly changed has been described. However, the present invention is not limited to this. , May be changed non-linearly. However, in this case, one wall surface 72AA to 72A
It is necessary to make sure that there is no part with the same degree of saturation in D.
【0253】さらに上述の第5実施例においては、各壁
面72AA〜72ADの飽和度の変化に関する所定デー
タとして、各壁面72AA〜72ADの長さMと、に各
壁面72AA〜72ADの一端及び他端における飽和度
Smin 、Smax とを第2のメモリ106に格納するよう
にした場合について述べたが、本発明はこれに限らず、
要は、そのデータと、壁検出部103により検出された
画像信号S50に基づく画像の中央部におけるその壁面
72AA〜72ADに塗布された色の飽和度Sx とに基
づいて比較・演算部104が領域2内における自分の位
置を検出することができるデータであるのならば、第2
のメモリ106に格納するデータとしてはこれ以外のデ
ータを適用できる。Further, in the fifth embodiment described above, as the predetermined data relating to the change in the degree of saturation of each of the wall surfaces 72AA to 72AD, the length M of each of the wall surfaces 72AA to 72AD, and one end and the other end of each of the wall surfaces 72AA to 72AD. Has been described in the case where the saturations S min and S max are stored in the second memory 106, but the present invention is not limited to this.
In short, the data, comparison and calculation section 104 on the basis of the saturation S x color applied to the wall surface 72AA~72AD at the center of the image based on the image signal S50 detected by the wall detection unit 103 If the data can detect its own position in the area 2, the second
Other data can be applied to the data stored in the memory 106.
【0254】さらに上述の第6実施例においては、壁面
72AA〜72ADの一端の下端近傍から他端の上端近
傍に至るように各壁面72AA〜72ADに斜線112
を表記するようにした場合について述べたが、本発明は
これに限らず、例えば図35に示すように、壁面72A
A〜72ADの一端の下端から他端の上端に至るように
各壁面72AA〜72ADに斜線112を表記するよう
にしても良く、これ以外の形態に斜線を表記するように
しても良い。In the sixth embodiment, the oblique lines 112 are formed on the wall surfaces 72AA to 72AD so as to extend from the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD to the vicinity of the upper end of the other end.
Has been described, but the present invention is not limited to this. For example, as shown in FIG.
The oblique line 112 may be written on each of the wall surfaces 72AA to 72AD from the lower end of one end of A to 72AD to the upper end of the other end, or the diagonal line may be written in other forms.
【0255】さらに上述の第6実施例においては、各壁
面72AA〜72ADにおける壁面72AA〜72AD
の高さに対する斜線112よりも上部分の比率の変化に
関する所定データとして、各壁面72AA〜72ADの
長さMと、各壁面72AA〜72ADの一端及び他端に
おける斜線112よりも上部分及び下部分の長さUa1、
Ub1、La1、Lb1とを第2のメモリ117に格納するよ
うにした場合について述べたが、本発明はこれに限ら
ず、要は、そのデータと、壁検出部115により検出さ
れた画像信号S50に基づく画像の中央部におけるその
壁面72AA〜72ADの高さに対する斜線112より
も上部分(下部分でも良い)の比率Rx とに基づいて比
較・演算部115が領域2内における自分の位置を検出
することができるデータであるのならば、第2のメモリ
117に格納するデータとしてはこれ以外のデータを適
用できる。Further, in the above-described sixth embodiment, the wall surfaces 72AA to 72AD at the wall surfaces 72AA to 72AD are used.
As the predetermined data relating to the change in the ratio of the portion above the oblique line 112 with respect to the height, the length M of each of the wall surfaces 72AA to 72AD, and the portions above and below the oblique line 112 at one end and the other end of each wall surface 72AA to 72AD. Length U a1 ,
The case where U b1 , L a1 , and L b1 are stored in the second memory 117 has been described. However, the present invention is not limited to this. In short, the data and the data detected by the wall detection unit 115 are used. Based on the image signal S50, based on the ratio Rx of the upper part (or lower part) of the oblique line 112 to the height of the wall surfaces 72AA to 72AD at the central part of the image at the central part of the image, the comparing / calculating part 115 If the data can be detected in the second memory 117, other data can be applied as the data stored in the second memory 117.
【0256】さらに上述の第7実施例においては、壁面
72AA〜72ADの上部分と下部分とを分ける仮想線
K1が壁面72AA〜72ADの一端の下端近傍と他端
の上端近傍とを通るようにした場合について述べたが、
本発明はこれに限らず、例えば図36に示すように、仮
想線K1(又は斜線でも良い)が壁面72AA〜72A
Dの一端の下端と、他端の上端とを通るように各壁面7
2AA〜72ADを上部分及び下部分に分けるようにし
ても良く、これ以外の形態に仮想線K1又は斜線を選定
し、又は表記するようにしても良い。In the seventh embodiment, the imaginary line K1 separating the upper part and the lower part of the wall surfaces 72AA to 72AD passes through the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD and the vicinity of the upper end of the other end. I mentioned the case,
The present invention is not limited to this. For example, as shown in FIG. 36, the imaginary line K1 (or may be a diagonal line) has the wall surfaces 72AA to 72A.
Each wall 7 passes through the lower end of one end of D and the upper end of the other end.
The 2AA to 72AD may be divided into an upper portion and a lower portion, and a virtual line K1 or a diagonal line may be selected or described in other forms.
【0257】さらに上述の第7実施例においては、壁面
72AA〜72ADの高さに対する高彩度部分の長さH
x の比率Rx が線形に変化するようにした場合について
述べたが、本発明はこれに限らず、非線形に変化するよ
うにしても良い。ただしこの場合においても、1つの壁
面72AA〜72ADにおいて壁面72AA〜72AD
の高さに対する高彩度部分の長さHx の比率Rx が同じ
となる部分が存在しないようにする必要がある。Further, in the seventh embodiment, the length H of the high chroma portion with respect to the height of the wall surfaces 72AA to 72AD is determined.
Although the case where the ratio Rx of x changes linearly has been described, the present invention is not limited to this, and may change nonlinearly. However, also in this case, the wall surfaces 72AA to 72AD are formed on one wall surface 72AA to 72AD.
The ratio R x high chroma portion of the length H x it is necessary to make no portion to be the same to the height of the.
【0258】さらに上述の第7実施例においては、各壁
面72AA〜72ADにおける壁面72AA〜72AD
の高さに対する高彩度部分の長さHx の比率Rx の変化
に関する所定データとして、各壁面72AA〜72AD
の長さMと、各壁面72AA〜72ADの一端及び他端
における高彩度部分及び低彩度部分の長さHa2、La2、
Hb2、Lb2とを第2のメモリ126に格納するようにし
た場合について述べたが、本発明はこれに限らず、要
は、そのデータと、壁検出部123により検出された画
像信号S50に基づく画像の中央部におけるその壁面7
2AA〜72ADの高さに対する高彩度部分の長さHx
の比率Rx とに基づいて比較・演算部124が領域2内
における自分の位置を検出することができるデータであ
るのならば、第2のメモリ126に格納するデータとし
てはこれ以外のデータを適用できる。Further, in the seventh embodiment, the wall surfaces 72AA to 72AD at the wall surfaces 72AA to 72AD are used.
As the predetermined data relating to the change in the ratio R x high chroma portion of the length H x for height, each wall 72AA~72AD
The length M of the length H a2 of high-chroma portions and low chroma portion at one end and the other end of each wall 72AA~72AD, L a2,
Although the case where H b2 and L b2 are stored in the second memory 126 has been described, the present invention is not limited to this, and the point is that the data and the image signal S50 detected by the wall detection unit 123 are stored. Wall 7 at the center of the image based on
The length H x of the high chroma portion for the height of 2AA to 72AD
If the comparison / calculation unit 124 can detect its own position in the area 2 based on the ratio Rx of the data, other data to be stored in the second memory 126 Applicable.
【0259】さらに上述の第3及び第8実施例において
は、ロボツト91内部において、壁面72AA〜72A
D、131AA〜131ADに対する相対位置として当
該壁面72AA〜72AD、131AA〜131ADか
らの距離を検出し、第4〜第8実施例においては、ロボ
ツト101、111、121内部において、壁面72A
A〜72ADに対する相対位置として当該壁面72AA
〜72ADと平行な方向のおける当該壁面72AA〜7
2ADの一端からの距離を検出するようにした場合につ
いて述べたが、本発明はこれに限らず、これ以外の相対
位置を検出するようにしても良い。Further, in the third and eighth embodiments, the wall surfaces 72AA to 72A are provided inside the robot 91.
D, distances from the wall surfaces 72AA to 72AD and 131AA to 131AD are detected as relative positions with respect to 131AA to 131AD, and in the fourth to eighth embodiments, the wall surfaces 72A inside the robots 101, 111, and 121 are detected.
The wall surface 72AA as a relative position with respect to A to 72AD.
The corresponding wall surfaces 72AA to 7 in a direction parallel to 72AD.
Although the case where the distance from one end of 2AD is detected has been described, the present invention is not limited to this, and other relative positions may be detected.
【0260】さらに上述の第8実施例においては、各壁
面131AA〜131ADを液晶パネルデイスプレイ1
32のパネル面により構成するようにした場合について
述べたが、本発明はこれに限らず、各壁面131AA〜
131ADを液晶パネルデイスプレイ132以外のデイ
スプレイ(例えばCRT(Cathode Ray Tube)など)の
表示面で構成するようにしても良い。また例えば通常の
壁面72AA〜72AD(図13)に凹部を設け、当該
凹部を覆うように所定色のフイルムを貼り付けると共
に、当該凹部内に光源を配設するようにしてその壁面7
2AA〜72ADに割り当てられた色の光を領域2に向
けて発光させるようにしても良く、要は、その壁面に割
り当てられた色の光2を領域に向けて発光する発光手段
により壁面を構成し、又は発光手段を壁面に設けるので
あれば、発光手段の構成としては、この他種々の構成を
適用できる。In the eighth embodiment, each of the wall surfaces 131AA to 131AD is connected to the liquid crystal panel display 1.
Although the description has been given of the case where the panel is constituted by 32 panel surfaces, the present invention is not limited to this, and each wall surface 131AA to
131AD may be configured with a display surface of a display other than the liquid crystal panel display 132 (for example, a CRT (Cathode Ray Tube)). Further, for example, a concave portion is provided in the normal wall surfaces 72AA to 72AD (FIG. 13), a film of a predetermined color is attached so as to cover the concave portion, and a light source is disposed in the concave portion.
The light of the color assigned to 2AA to 72AD may be emitted toward the area 2. In short, the light emitting means for emitting the light 2 of the color assigned to the wall toward the area constitutes the wall. Alternatively, if the light emitting means is provided on the wall surface, various other structures can be applied as the structure of the light emitting means.
【0261】さらに上述の第8実施例においては、単に
各液晶パネルデイスプレイ132が各壁面131AA〜
131AD毎に異なる色の光を発光するようにした場合
について述べたが、本発明はこれに限らず、例えば各液
晶パネルデイスプレイ132に第5〜第7実施例のよう
に割り当てられた色や斜線を表示させると共に、ロボツ
ト91を第5〜第7実施例のように構成するようにして
も良い。Further, in the above-described eighth embodiment, each liquid crystal panel display 132 is simply formed by each of the wall surfaces 131AA to 131A.
Although the case where different colors of light are emitted for each 131AD has been described, the present invention is not limited to this. For example, the colors and diagonal lines assigned to each liquid crystal panel display 132 as in the fifth to seventh embodiments are described. May be displayed, and the robot 91 may be configured as in the fifth to seventh embodiments.
【0262】さらに上述の第4〜第7実施例において
は、カメラ16から出力される画像信号S1の画像フオ
ーマツトをHSI空間に応じた画像フオーマツトに変換
するため画像フオーマツト変換部93を設けるようにし
た場合について述べたが、本発明はこれに限らず、例え
ばカメラ16から出力される画像信号S1の画像フオー
マツトが各壁面72AA〜72ADの色を選定する際に
使用した色空間に対応した画像フオーマツトである場合
には画像フオーマツト変換部93を省略するようにして
も良い。In the fourth to seventh embodiments, the image format converter 93 is provided for converting the image format of the image signal S1 output from the camera 16 into an image format corresponding to the HSI space. Although the case has been described, the present invention is not limited to this. For example, the image format of the image signal S1 output from the camera 16 may be an image format corresponding to the color space used when selecting the colors of the wall surfaces 72AA to 72AD. In some cases, the image format converter 93 may be omitted.
【0263】[0263]
【発明の効果】上述のように本発明によれば、所定の領
域内を移動する移動体又は領域内の他の物体を識別する
識別装置及び方法並びにロボツト装置において、各移動
体又は他の物体に、それぞれ互いに異なる色パターンの
識別体を設け、各移動体又はロボツト装置にそれぞれ設
けられた撮像手段により、他の移動体又は他の物体の識
別体を撮像し、撮像手段から出力される第1の画像情報
に基づいて、当該撮像手段により撮像した識別体の色パ
ターンを検出し、当該検出結果と、予め記憶している各
識別体の色パターン情報とに基づいて、撮像手段により
撮像した識別体又は他の物体を識別するようにしたこと
により、移動体を確実に識別し得る簡易な識別装置及び
方法並びに他の物体を確実に識別し得る簡易な構成のロ
ボツト装置を実現できる。As described above, according to the present invention, in a discriminating apparatus and method for identifying a moving object moving in a predetermined area or another object in the area, and a robot apparatus, each moving object or other object is provided. In each of the moving objects or the robot apparatus, an identification unit having a different color pattern is provided, and an imaging unit provided in each of the moving units or the robot apparatus captures an image of an identification unit of another moving object or another object. Based on the first image information, the color pattern of the identification object imaged by the imaging unit is detected, and the image is imaged by the imaging unit based on the detection result and the color pattern information of each identification object stored in advance. By identifying an identification object or another object, a simple identification device and method capable of reliably identifying a moving object and a robot device having a simple configuration capable of reliably identifying another object are realized. Kill.
【0264】また所定の領域内を移動する複数の移動体
を識別する識別装置及び方法において、領域全体を撮像
する撮像手段を所定位置に配置すると共に、各移動体の
所定位置にそれぞれ互いに異なる色パターンを付与し、
撮像手段から出力される第1の画像情報に基づいて、各
移動体の色パターンをそれぞれ検出し、当該検出結果
と、予め記憶している各移動体にそれぞれ設けられた色
パターンの情報とに基づいて、各移動体を識別するよう
にしたことにより、移動体を確実に識別し得る簡易な識
別装置及び方法を実現できる。[0264] In the identification device and method for identifying a plurality of moving objects moving in a predetermined area, an imaging means for imaging the entire area is arranged at a predetermined position, and different colors are provided at predetermined positions of the moving objects. Pattern,
Based on the first image information output from the imaging unit, the color pattern of each moving body is detected, and the detection result and the previously stored color pattern information provided for each moving body are detected. Based on the identification of each moving object, a simple identification device and a simple identification method capable of reliably identifying the moving object can be realized.
【0265】さらに所定の領域内を移動する移動体又は
自分自身の当該領域内における位置を検出する位置検出
及び方法並びにロボツト装置において、領域の周囲に沿
つて、互いに異なる色の複数の壁面を設け、移動体又は
ロボツト装置に配設された撮像手段により壁面を撮像
し、得られた第1の画像情報に基づいて撮像した壁面の
色及び当該壁面に対する移動体又はロボツトの相対位置
を検出し、検出結果に基づいて領域内における移動体又
はロボツト装置の位置を検出するようにしたことによ
り、領域内における移動体又は自分の位置を精度良く検
出し得る位置検出装置及び方法並びにロボツト装置を実
現できる。Further, in a position detection and method and a robot apparatus for detecting the position of a moving body moving within a predetermined area or the position of the moving object itself within the area, a plurality of wall surfaces of different colors are provided along the periphery of the area. Capturing an image of a wall surface by an imaging unit provided in the moving object or the robot device, detecting a color of the imaged wall surface based on the obtained first image information and a relative position of the moving object or the robot with respect to the wall surface, By detecting the position of the moving object or the robot device in the area based on the detection result, it is possible to realize a position detecting device and method and a robot device that can accurately detect the position of the moving object or the robot in the area. .
【0266】さらに画像信号の輝度信号及び色差信号に
基づいて、画像信号に基づく画像内の各画素ごとの輝度
レベル及び色差レベルを順次検出するレベル検出手段
と、レベル検出手段により検出された画素の輝度レベル
及び色差レベルと、予め記憶している各輝度レベル毎の
色差レベルの上限値及び下限値とに基づいて、各画素ご
とに所定色か否かを判定する判定手段とを設けるように
したことにより、所望の色を精度良く抽出し得る色抽出
装置を実現できる。Further, based on the luminance signal and the color difference signal of the image signal, level detecting means for sequentially detecting the luminance level and the color difference level of each pixel in the image based on the image signal, and A determination unit is provided for determining whether or not each pixel has a predetermined color based on the luminance level and the color difference level, and the upper limit value and the lower limit value of the color difference level for each luminance level stored in advance. This makes it possible to realize a color extraction device that can accurately extract a desired color.
【図1】第1実施例による個体識別システムの全体構成
を示す平面図である。FIG. 1 is a plan view showing the overall configuration of an individual identification system according to a first embodiment.
【図2】第1実施例によるロボツトの構成及び識別体の
構成を示す略線的な側面図である。FIG. 2 is a schematic side view showing a configuration of a robot and a configuration of an identification body according to a first embodiment.
【図3】第1実施例によるロボツトの構成示す略線的な
ブロツク図である。FIG. 3 is a schematic block diagram showing a configuration of a robot according to the first embodiment.
【図4】第1実施例による個体識別部の構成示すブロツ
ク図である。FIG. 4 is a block diagram illustrating a configuration of an individual identification unit according to the first embodiment.
【図5】色抽出部の構成の説明に供する略線図である。FIG. 5 is a schematic diagram used for describing a configuration of a color extraction unit.
【図6】色抽出部の構成を示すブロツク図である。FIG. 6 is a block diagram illustrating a configuration of a color extraction unit.
【図7】第2実施例による個体識別システムの全体構成
を示す平面図である。FIG. 7 is a plan view showing the overall configuration of an individual identification system according to a second embodiment.
【図8】第2実施例による個体識別システムの全体構成
を示す平面図である。FIG. 8 is a plan view showing the overall configuration of an individual identification system according to a second embodiment.
【図9】第2実施例によるロボツトの構成を示す略線的
な斜視図である。FIG. 9 is a schematic perspective view showing a configuration of a robot according to a second embodiment.
【図10】識別シールの説明に供する平面図である。FIG. 10 is a plan view for explaining an identification seal.
【図11】第2実施例による個体識別部の構成示すブロ
ツク図である。FIG. 11 is a block diagram illustrating a configuration of an individual identification unit according to a second embodiment.
【図12】第2実施例によるロボツトの構成示す略線的
なブロツク図である。FIG. 12 is a schematic block diagram showing a configuration of a robot according to a second embodiment.
【図13】第3実施例による位置識別システムの全体構
成を示す斜視図である。FIG. 13 is a perspective view showing an overall configuration of a position identification system according to a third embodiment.
【図14】第3実施例による位置識別システムの全体構
成を示す平面図である。FIG. 14 is a plan view showing an overall configuration of a position identification system according to a third embodiment.
【図15】第3実施例による位置検出部の構成を示すブ
ロツク図である。FIG. 15 is a block diagram illustrating a configuration of a position detection unit according to a third embodiment.
【図16】HSI空間の説明に供する略線図である。FIG. 16 is a schematic diagram used for describing an HSI space.
【図17】第4実施例による位置識別システムの全体構
成を示す平面図である。FIG. 17 is a plan view showing an overall configuration of a position identification system according to a fourth embodiment.
【図18】第4実施例による位置検出部の構成を示すブ
ロツク図である。FIG. 18 is a block diagram illustrating a configuration of a position detection unit according to a fourth embodiment.
【図19】第5実施例による位置識別システムの全体構
成を示す平面図である。FIG. 19 is a plan view showing an overall configuration of a position identification system according to a fifth embodiment.
【図20】第5実施例における各壁面の様子を示す略線
図である。FIG. 20 is a schematic diagram illustrating a state of each wall surface in the fifth embodiment.
【図21】第5実施例による位置検出部の構成を示すブ
ロツク図である。FIG. 21 is a block diagram showing a configuration of a position detection unit according to a fifth embodiment.
【図22】第6実施例による位置識別システムの全体構
成を示す平面図である。FIG. 22 is a plan view showing the overall configuration of a position identification system according to a sixth embodiment.
【図23】第6実施例における各壁面の様子を示す略線
図である。FIG. 23 is a schematic diagram illustrating a state of each wall surface in the sixth embodiment.
【図24】第6実施例による位置検出部の構成を示すブ
ロツク図である。FIG. 24 is a block diagram showing a configuration of a position detector according to a sixth embodiment.
【図25】第7実施例による位置識別システムの全体構
成を示す平面図である。FIG. 25 is a plan view showing the overall configuration of a position identification system according to a seventh embodiment.
【図26】第7実施例における各壁面の様子を示す略線
図である。FIG. 26 is a schematic diagram showing a state of each wall surface in the seventh embodiment.
【図27】第7実施例による位置検出部の構成を示すブ
ロツク図である。FIG. 27 is a block diagram showing a configuration of a position detector according to a seventh embodiment.
【図28】第8実施例による位置識別システムの全体構
成を示す平面図である。FIG. 28 is a plan view showing an overall configuration of a position identification system according to an eighth embodiment.
【図29】第8実施例による位置識別システムの構成の
説明に供する平面図である。FIG. 29 is a plan view for describing the configuration of a position identification system according to an eighth embodiment.
【図30】他の実施例を示す略線的な側面図である。FIG. 30 is a schematic side view showing another embodiment.
【図31】他の実施例を示す側面図及び斜視図である。FIG. 31 is a side view and a perspective view showing another embodiment.
【図32】他の実施例を示す平面図である。FIG. 32 is a plan view showing another embodiment.
【図33】他の実施例を示す平面図である。FIG. 33 is a plan view showing another embodiment.
【図34】他の実施例を示す平面図である。FIG. 34 is a plan view showing another embodiment.
【図35】他の実施例を示す平面図である。FIG. 35 is a plan view showing another embodiment.
【図36】他の実施例を示す平面図である。FIG. 36 is a plan view showing another embodiment.
1、50……個体識別システム、2……領域、3A〜3
C、51A〜51C、71、91、101、111、1
21……ロボツト、16、53……カメラ、23……識
別体、30、54……個体識別部、31A〜31U、9
4A〜94E……色抽出部、32、55……色パターン
抽出部、33、56、82、104、115、124…
…比較・演算部、34、35、44A〜44D、57、
83〜85、105〜107、116〜118、125
〜127……メモリ、36……CPU、41……分離回
路、42、43A、43B……アナログ/デイジタル変
換回路、45A〜45D……比較回路、48……判定回
路、49……フレームメモリ、52……識別シール、5
8……送信部、70……壁、72AA〜72AD、13
1AA〜131AD……壁面、80、102、113、
122……位置検出部、81、103、114、123
……壁検出部、93……画像フオーマツト変換部、13
2……液晶パネル、133……制御部、D1……輝度デ
ータ、D2A、D2B……色差データ、S1、S30、
S50……画像信号、S10A〜S10U、S51A〜
S51D……色抽出信号、S11……識別体情報信号、
S12……識別体検出信号、S20……輝度信号、S2
1A、S21B……色差信号、S31……識別シール検
出信号、S32……ロボツト位置検出信号、S40……
壁検出信号、S41、S62、S71、S82……位置
検出信号。1, 50 ... individual identification system, 2 ... area, 3A-3
C, 51A to 51C, 71, 91, 101, 111, 1
21: robot, 16, 53: camera, 23: identification body, 30, 54: individual identification unit, 31A to 31U, 9
4A to 94E: color extraction unit, 32, 55 ... color pattern extraction unit, 33, 56, 82, 104, 115, 124 ...
... Comparison / calculation units, 34, 35, 44A to 44D, 57,
83-85, 105-107, 116-118, 125
127, a memory, 36, a CPU, 41, a separation circuit, 42, 43A, 43B, an analog / digital conversion circuit, 45A to 45D, a comparison circuit, 48, a determination circuit, 49, a frame memory, 52 identification seal, 5
8 ... transmitting unit, 70 ... wall, 72AA to 72AD, 13
1AA to 131AD: wall surface, 80, 102, 113,
122: Position detecting unit, 81, 103, 114, 123
... Wall detection unit, 93 image format conversion unit, 13
2 ... liquid crystal panel, 133 ... control unit, D1 ... brightness data, D2A, D2B ... color difference data, S1, S30,
S50 ... Image signal, S10A to S10U, S51A to
S51D: color extraction signal; S11: identification body information signal;
S12: identification object detection signal, S20: luminance signal, S2
1A, S21B ... color difference signal, S31 ... identification seal detection signal, S32 ... robot position detection signal, S40 ...
Wall detection signal, S41, S62, S71, S82 ... Position detection signal.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 井上 真 東京都品川区北品川6丁目7番35号ソニー 株式会社内 ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Makoto Inoue 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation
Claims (55)
識別装置において、 各上記移動体にそれぞれ設けられた互いに異なる色パタ
ーンの識別体と、 各上記移動体にそれぞれ設けられ、他の上記移動体に配
設された上記識別体を撮像する撮像手段と、 上記撮像手段から供給される第1の画像情報に基づい
て、当該撮像手段により撮像した上記識別体の上記色パ
ターンを検出する色パターン検出手段と、 上記色パターン検出手段による検出結果と、予め記憶し
ている各上記移動体ごとの上記識別体の色パターン情報
とに基づいて、上記撮像手段により撮像した上記識別体
を有する上記移動体を識別する識別手段とを具えること
を特徴とする識別装置。1. An identification device for identifying a moving object that moves within a predetermined area, comprising: an identifying object having a different color pattern provided on each of the moving objects; Imaging means for imaging the identification object disposed on the moving body; and detecting the color pattern of the identification object imaged by the imaging means based on first image information supplied from the imaging means. A color pattern detection unit; and the identification object imaged by the imaging unit based on a detection result by the color pattern detection unit and color pattern information of the identification object for each moving object stored in advance. An identification device, comprising: identification means for identifying the moving object.
像情報に基づく画像内における上記識別体の大きさを検
出する大きさ検出手段と、 上記検出手段による検出結果と、予め記憶している基準
値とに基づいて当該識別体までの距離を算出する演算手
段とを具えることを特徴とする請求項1に記載の識別装
置。2. A size detecting means for detecting a size of the identification object in an image based on the first image information supplied from the imaging means, and a detection result by the detecting means, The identification device according to claim 1, further comprising: a calculating unit that calculates a distance to the identification object based on the reference value.
なり、その表面が上記移動体の移動方向と平行な複数の
帯状領域に分割され、所定の上記色パターンで各上記帯
状領域がそれぞれ所定色に色づけされたことを特徴とす
る請求項1に記載の識別装置。3. The discriminating body is a rotating body having a center axis perpendicular to the moving direction of the moving body, the surface of which is divided into a plurality of belt-like regions parallel to the moving direction of the moving body. The identification device according to claim 1, wherein each of the band-shaped regions is colored in a predetermined color by the color pattern.
て互いに所定の第1の距離だけ離れた複数色の組み合わ
せにより形成され、上記色パターン検出手段は、上記撮
像手段から供給される上記第1の画像情報 を対応する上記色空間に応じた第2の画像情報に変換し
た後、当該第2の画像情報に基づいて上記撮像手段によ
り撮像した上記識別体の上記色パターンを検出すること
を特徴とする請求項1に記載の識別装置。4. Each of said color patterns is formed by a combination of a plurality of colors separated from each other by a predetermined first distance in a predetermined color space, and said color pattern detection means is provided by said imaging means supplied from said imaging means. After converting the first image information into the second image information corresponding to the corresponding color space, detecting the color pattern of the identification object imaged by the imaging means based on the second image information. The identification device according to claim 1, wherein:
が上記色空間において上記第1の距離より大きい第2の
距離だけ離れるように上記色の組み合わせが選定されて
形成されたことを特徴とする請求項4に記載の識別装
置。5. The color pattern is formed by selecting a combination of the colors such that adjacent colors are separated from each other by a second distance larger than the first distance in the color space. The identification device according to claim 4, wherein
パターンの光を発光することを特徴とする請求項1に記
載の識別装置。6. The identification apparatus according to claim 1, wherein each of said identification bodies emits light of said corresponding color pattern.
識別装置において、 各上記移動体にそれぞれ設けられ、他の上記移動体に配
設された上記移動体毎に異なる色パターンの識別体を撮
像する撮像手段と、 上記撮像手段から供給される第1の画像情報に基づい
て、当該撮像手段により撮像した上記識別体の上記色パ
ターンを検出する色パターン検出手段と、 上記色パターン検出手段による検出結果と、予め記憶し
ている各上記移動体ごとの上記識別体の色パターン情報
とに基づいて、上記撮像手段により撮像した上記識別体
を有する上記移動体を識別する識別手段とを具えること
を特徴とする識別装置。7. An identification device for identifying a moving body moving in a predetermined area, wherein a different color pattern is provided for each of the moving bodies and is different for each of the moving bodies disposed on the other moving bodies. Imaging means for imaging a body; color pattern detection means for detecting the color pattern of the identification object imaged by the imaging means based on first image information supplied from the imaging means; Means for identifying the moving object having the identification object imaged by the imaging means, based on the detection result by the means and color pattern information of the identification object for each of the moving objects stored in advance. An identification device characterized by comprising:
像情報に基づく画像内における上記識別体の大きさを検
出する大きさ検出手段と、 上記検出手段による検出結果と、予め記憶している基準
値とに基づいて当該識別体までの距離を算出する演算手
段とを具えることを特徴とする請求項7に記載の識別装
置。8. A size detection means for detecting a size of the identification object in an image based on the first image information supplied from the imaging means, and a detection result obtained by the detection means, 8. The identification device according to claim 7, further comprising a calculating unit that calculates a distance to the identification object based on the reference value.
なり、その表面が上記移動体の移動方向と平行な複数の
帯状領域に分割され、所定の上記色パターンで各上記帯
状領域がそれぞれ所定色に色づけされたことを特徴とす
る請求項7に記載の識別装置。9. The discriminating body is a rotating body having a central axis perpendicular to the moving direction of the moving body, and its surface is divided into a plurality of band-shaped regions parallel to the moving direction of the moving body, The identification device according to claim 7, wherein each of the band-shaped regions is colored in a predetermined color by the color pattern.
空間において互いに所定の第1の距離だけ離れた複数色
の組み合わせにより形成され、 上記色パターン検出手段は、上記撮像手段から供給され
る上記第1の画像情報を対応する上記色空間に応じた第
2の画像情報に変換した後、当該第2の画像情報に基づ
いて上記撮像手段により撮像した上記識別体の上記色パ
ターンを検出することを特徴とする請求項7に記載の識
別装置。10. Each color pattern is formed by a combination of a plurality of colors separated from each other by a predetermined first distance in a predetermined color space, and said color pattern detection means is supplied from said imaging means. After converting the first image information into the second image information corresponding to the corresponding color space, detecting the color pattern of the identification object imaged by the imaging means based on the second image information. The identification device according to claim 7, characterized in that:
る識別方法において、 各上記移動体に、それぞれ互いに異なる色パターンの識
別体を設ける第1のステツプと、 各上記移動体にそれぞれ設けられた撮像手段により、他
の上記移動体の上記識別体を撮像する第2のステツプ
と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像した上記識別体の上記色パ
ターンを検出する第3のステツプと、 検出した上記識別体の上記色パターンと、予め記憶して
いる各上記識別体の色パターン情報とに基づいて、上記
撮像手段により撮像した上記識別体を識別する第4のス
テツプとを具えることを特徴とする識別方法。11. A method for identifying a moving object moving in a predetermined area, comprising: a first step of providing an identifying object having a different color pattern to each of the moving objects; A second step of taking an image of the identification object of the other moving body by the taken imaging means, and a first step of imaging the identification object taken by the imaging means based on the first image information output from the imaging means. A third step of detecting the color pattern; a color pattern of the detected identification object; and a color pattern information of each identification object stored in advance, the identification object captured by the imaging unit. And a fourth step of identifying the information.
画像情報に基づく画像内における上記識別体の大きさを
検出する検出ステツプと、 検出した上記識別体の大きさと、予め記憶している基準
値とに基づいて当該識別体までの距離を算出する演算ス
テツプとを具えることを特徴とする請求項11に記載の
識別方法。12. A detection step for detecting the size of the identification object in an image based on the first image information output from the imaging means, and the detected size of the identification object are stored in advance. 12. The identification method according to claim 11, further comprising an operation step of calculating a distance to the identification object based on the reference value.
なり、その表面が上記移動体の移動方向と平行な複数の
帯状領域に分割され、所定の上記色パターンで各上記帯
状領域がそれぞれ所定色に着色されたことを特徴とする
請求項11に記載の識別方法。13. The discriminating body is a rotating body having a center axis perpendicular to the moving direction of the moving body, the surface of which is divided into a plurality of belt-like regions parallel to the moving direction of the moving body. The identification method according to claim 11, wherein each of the band-shaped regions is colored in a predetermined color by the color pattern.
空間において所定の第1の距離だけ離れた複数色の組み
合わせにより形成され、 上記第3のステツプでは、上記撮像手段から供給される
上記第1の画像情報を対応する上記色空間に応じた第2
の画像情報に変換した後、当該第2の画像情報に基づい
て上記撮像手段により撮像した上記識別体の上記色パタ
ーンを検出することを特徴とする請求項11に記載の識
別方法。14. Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space. In the third step, the color pattern supplied from the imaging means is provided. The second image information corresponding to the color space corresponding to the second
12. The identification method according to claim 11, wherein the color pattern of the identification object imaged by the imaging unit is detected based on the second image information after the conversion into the image information.
士が上記色空間において上記第1の距離よりも大きい第
2の距離だけ離れるように上記色の組み合わせが選定さ
れて形成されたことを特徴とする請求項14に記載の識
別方法。15. The color pattern according to claim 1, wherein said color combination is selected and formed such that adjacent colors are separated by a second distance greater than said first distance in said color space. 15. The identification method according to claim 14, wherein the identification method is used.
色パターンの光を発光することを特徴とする請求項11
に記載の識別方法。16. The apparatus according to claim 11, wherein each of said discriminators emits light of the corresponding color pattern.
Identification method described in.
なる色パターンの識別体を撮像する撮像手段と、 上記撮像手段から供給される第1の画像情報に基づい
て、当該撮像手段により撮像した上記識別体の上記色パ
ターンを検出する色パターン検出手段と、 上記色パターン検出手段による検出結果と、予め記憶し
ている各上記識別体の色パターン情報とに基づいて、上
記撮像手段により撮像した上記識別体を識別する識別手
段とを具えることを特徴とするロボツト装置。17. An image pickup means for picking up an identification object having a different color pattern provided on each of other objects, and said image pickup means picked up by said image pickup means based on first image information supplied from said image pickup means. A color pattern detection unit that detects the color pattern of the identification object; a detection result obtained by the color pattern detection unit; and a color image information captured by the imaging unit based on color pattern information of each identification object stored in advance. A robot apparatus comprising: identification means for identifying an identification object.
画像情報に基づく画像内における上記識別体の大きさを
検出する大きさ検出手段と、 上記検出手段による検出結果と、予め記憶している基準
値とに基づいて当該識別体までの距離を算出する演算手
段とを具えることを特徴とする請求項17に記載のロボ
ツト装置。18. A size detection means for detecting a size of the identification object in an image based on the first image information supplied from the imaging means, and a detection result obtained by the detection means, 18. The robot apparatus according to claim 17, further comprising a calculating unit that calculates a distance to the identification object based on the reference value.
空間において所定の第1の距離だけ離れた複数色の組み
合わせにより形成され、 上記色パターン検出手段は、上記撮像手段から供給され
る上記第1の画像情報を対応する上記色空間に応じた第
2の画像情報に変換した後、当該第2の画像情報に基づ
いて上記撮像手段により撮像した上記識別体の上記色パ
ターンを検出することを特徴とする請求項17に記載の
ロボツト装置。19. Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space, and the color pattern detecting means is provided by the imaging means. After converting the first image information into the second image information corresponding to the corresponding color space, detecting the color pattern of the identification object imaged by the imaging means based on the second image information. 18. The robot device according to claim 17, wherein
識別する識別装置において、 上記領域全体を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、各上記移動体の所定位置にそれぞれ付与された各上
記移動体ごとに異なる色パターンをそれぞれ検出する色
パターン検出手段と、 上記色パターン検出手段による検出結果と、予め記憶し
ている各移動体にそれぞれ付与された上記色パターンの
情報とに基づいて、各上記移動体を識別する識別手段と
を具えることを特徴とする識別装置。20. An identification device for identifying a plurality of moving objects moving in a predetermined area, comprising: an image pickup means for picking up an image of the entire area; and a first image information output from the image pickup means. A color pattern detection unit that detects a different color pattern for each of the moving bodies respectively assigned to a predetermined position of the moving body; a detection result of the color pattern detection unit; An identification unit for identifying each of the moving objects based on the information on the color pattern provided.
画像情報に基づく画像内における各上記移動体の上記色
パターンの位置に基づいて、上記領域内における各上記
移動体の位置を検出する位置検出手段を具えることを特
徴とする請求項20に記載の識別装置。21. A position of each of the moving objects in the area based on a position of the color pattern of each of the moving objects in an image based on the first image information supplied from the imaging means. 21. The identification device according to claim 20, further comprising a position detection unit.
の所定色のなかから所定数の色を用いて同心状の複数の
環状領域をそれぞれ色づけしてなることを特徴とする請
求項20に記載の識別装置。22. The color pattern according to claim 20, wherein each of the color patterns is formed by coloring a plurality of concentric annular regions by using a predetermined number of colors from among a plurality of types of predetermined colors. Identification device.
領域の径方向に延長する領域を具えることを特徴とする
請求項20に記載の識別装置。23. The identification device according to claim 20, wherein each of said color patterns has a region extending in a radial direction of said annular region.
空間において所定の第1の距離だけ離れた複数色の組み
合わせにより形成され、 上記色パターン検出手段は、上記撮像手段から供給され
る上記第1の画像情報を対応する上記色空間に応じた第
2の画像情報に変換した後、当該第2の画像情報に基づ
いて各上記移動体の上記色パターンをそれぞれ検出する
ことを特徴とする請求項20に記載の識別装置。24. Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space, and the color pattern detection means is provided by the image pickup means. After converting one image information into a second image information corresponding to the corresponding color space, detecting the color pattern of each of the moving objects based on the second image information. Item 21. The identification device according to Item 20.
上記色同士が上記色空間において上記第1の距離よりも
大きい第2の距離だけ離れるように上記色の組み合わせ
が選定されて形成されたことを特徴とする請求項24に
記載の識別装置。25. Each of the color patterns is formed by selecting a combination of the colors so that the adjacent colors are separated from each other by a second distance larger than the first distance in the color space. The identification device according to claim 24, wherein:
する上記色パターンの光を発光する発光手段を具えるこ
とを特徴とする請求項20に記載の識別装置。26. The identification apparatus according to claim 20, further comprising a light emitting means provided on each of said moving bodies to emit light of the corresponding color pattern.
識別する識別方法において、 上記領域全体を撮像する撮像手段を所定位置に配置する
と共に、各上記移動体の所定位置にそれぞれ互いに異な
る色パターンを付与する第1のステツプと、 上記撮像手段から出力される第1の画像情報に基づい
て、各上記移動体の上記色パターンをそれぞれ検出する
第2のステツプと、 上記第2のステツプにおける検出結果と、予め記憶して
いる各移動体にそれぞれ設けられた上記色パターンとに
基づいて、各上記移動体を識別する第3のステツプとを
具えることを特徴とする識別方法。27. An identification method for identifying a plurality of moving objects moving within a predetermined area, wherein an imaging means for imaging the entire area is arranged at a predetermined position, and different from each other at a predetermined position of each moving object. A first step of providing a color pattern; a second step of detecting the color pattern of each of the moving objects based on the first image information output from the imaging means; and a second step of detecting the color pattern of each of the moving objects. And a third step of identifying each of the moving objects based on the detection result in step (1) and the color patterns provided for each of the moving objects stored in advance.
画像情報に基づく画像内における各上記移動体の上記色
パターンの位置に基づいて、上記領域内における各上記
移動体の位置を検出する検出ステツプを具えることを特
徴とする請求項27に記載の識別方法。28. A position of each of the moving objects in the area based on a position of the color pattern of each of the moving objects in an image based on the first image information supplied from the imaging means. 28. The identification method according to claim 27, further comprising a detection step.
て同心状の複数の環状領域をそれぞれ色づけしてなるこ
とを特徴とする請求項27に記載の識別方法。29. A method according to claim 27, wherein each of said color patterns is obtained by coloring a plurality of concentric annular regions using a predetermined number of colors from among a plurality of types of predetermined colors. Identification method.
ことを特徴とする請求項27に記載の識別方法。30. The identification method according to claim 27, wherein each of said color patterns has a region extending in a radial direction of said annular region.
空間において所定の第1の距離だけ離れた複数色の組み
合わせにより形成され、 上記第2のステツプでは、 上記撮像手段から供給される上記第1の画像情報を対応
する上記色空間に応じた第2の画像情報に変換した後、
当該第2の画像情報に基づいて各上記移動体の上記色パ
ターンをそれぞれ検出することを特徴とする請求項27
に記載の識別方法。31. Each of the color patterns is formed by a combination of a plurality of colors separated by a predetermined first distance in a predetermined color space, and in the second step, the color pattern supplied from the imaging means is provided. After converting the first image information into the second image information corresponding to the corresponding color space,
28. The color pattern of each of the moving objects is detected based on the second image information.
Identification method described in.
上記色同士が上記色空間において上記第1の距離よりも
大きい第2の距離だけ離れるように上記色の組み合わせ
が選定されて形成されたことを特徴とする請求項31に
記載の識別装置。32. Each of the color patterns is formed by selecting a combination of the colors such that adjacent colors are separated from each other by a second distance larger than the first distance in the color space. The identification device according to claim 31, characterized in that:
域内における位置を検出する位置検出装置において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面と、 上記移動体に設けられ、対応する所定の上記壁面を撮像
する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具えることを特徴とする位置検出装置。33. A position detecting device for detecting a position of a moving body moving in a predetermined area in the area, comprising: a plurality of wall surfaces of different colors provided along the periphery of the area; Imaging means for imaging the corresponding predetermined wall surface, and the color of the wall surface imaged by the imaging means and the movement with respect to the wall surface based on first image information output from the imaging means. A color and relative position detecting means for detecting a relative position of the body; a detection result of the color and relative position detecting means; a color of each of the wall surfaces and a position of each of the wall surfaces stored in advance. A position detecting device for detecting a position of the moving body in the area based on the map information of the area.
定の色空間において互いに所定の第1の距離だけ離れた
色が選定され、 上記色及び相対位置検出手段は、上記撮像手段から供給
される上記第1の画像情報を対応する上記色空間に応じ
た第2の画像情報に変換した後、当該第2の画像情報に
基づいて上記撮像手段により撮像した上記壁面の色を検
出することを特徴とする請求項33に記載の位置検出装
置。34. A color separated by a predetermined first distance from each other in a predetermined color space as the color of each of the wall surfaces, and the color and relative position detection means are supplied from the imaging means. After converting the first image information into second image information corresponding to the corresponding color space, detecting a color of the wall surface imaged by the imaging unit based on the second image information. The position detecting device according to claim 33, wherein:
空間において上記第1の距離よりも大きい第2の距離だ
け離れるように各上記壁面の色がそれぞれ選定されたこ
とを特徴とする請求項34に記載の位置検出装置。35. The color of each of the wall surfaces is selected such that the colors of adjacent wall surfaces are separated from each other by a second distance larger than the first distance in the color space. Item 35. The position detection device according to Item 34.
る上記色の光を発光することを特徴とする請求項33に
記載の位置検出装置。36. The position detecting device according to claim 33, wherein each of said wall surfaces emits light of the corresponding color toward said area.
域内における位置を検出する位置検出装置において、 上記移動体に設けられ、上記領域の周囲に沿つて設けら
れた互いに異なる色の複数の壁面のうち、対応する所定
の上記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具えることを特徴とする位置検出装置。37. A position detecting device for detecting a position of a moving body moving in a predetermined area in the area, wherein a plurality of different colors provided on the moving body and provided along the periphery of the area. Imaging means for imaging the corresponding predetermined wall surface among the wall surfaces, and the color of the wall surface imaged by the imaging means and A color and relative position detecting means for detecting a relative position of the moving body, a detection result of the color and relative position detecting means, a color of all the wall surfaces stored in advance, and a position of all the wall surfaces, And a position detecting means for detecting a position of the moving body in the area based on the map information of the area.
定の色空間において互いに所定の第1の距離だけ離れた
色が選定され、 上記色及び相対位置検出手段は、上記撮像手段から供給
される上記第1の画像情報を対応する上記色空間に応じ
た第2の画像情報に変換した後、当該第2の画像情報に
基づいて上記撮像手段により撮像した上記壁面の色を検
出することを特徴とする請求項37に記載の位置検出装
置。38. A color separated by a predetermined first distance from each other in a predetermined color space as the color of each of the wall surfaces, and the color and relative position detection means are supplied from the imaging means. After converting the first image information into second image information corresponding to the corresponding color space, detecting a color of the wall surface imaged by the imaging unit based on the second image information. The position detecting device according to claim 37, wherein
方向に上記色の飽和度が変化するように色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の色の飽和度に基づい
て、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする請求項
37に記載の位置検出装置。39. Each of the wall surfaces is colored so that the degree of saturation of the color changes in the longitudinal direction of the wall surface, and the color and relative position detecting means is provided in an image based on the first image information. The distance from one end of the wall of the moving body in a direction parallel to the wall as the relative position of the moving body with respect to the wall based on the saturation of the color of the wall. Item 38. The position detection device according to Item 37.
一端から他端に至るように斜線が表記され、 上記色及び相対位置検出手段は、上記第1の画像信号に
基づく画像内における上記壁面の高さに対する上記壁面
の上記斜線よりも上部分又は下部分の長さの比率に基づ
いて、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする請求項
37に記載の位置検出装置。40. An oblique line is drawn on each of the wall surfaces from one end to the other end in the longitudinal direction of the wall surface, and the color and relative position detecting means is provided in an image based on the first image signal. Based on the ratio of the length of the portion above or below the oblique line of the wall to the height of the wall, as the relative position of the mobile with respect to the wall, the moving body in a direction parallel to the wall The position detecting device according to claim 37, wherein a distance from one end of the wall surface is detected.
方向の一端から他端に至る斜線又は仮想線を境として、
当該斜線又は仮想線よりも上部分及び下部分にそれぞれ
同じ色相で飽和度の異なる上記色に色づけられ、 上記色及び相対位置検出手段は、上記第1の画像信号に
基づく画像内における上記壁面の高さに対する当該壁面
の上記斜線又は上記仮想線よりも上記上部分又は上記下
部分の長さの比率に基づいて、上記壁面に対する上記移
動体の上記相対位置として、上記壁面と平行な方向にお
ける上記移動体の当該壁面の一端からの距離を検出する
ことを特徴とする請求項37に記載の位置検出装置。41. Each of said wall surfaces is bounded by an oblique line or an imaginary line from one end to the other end in the longitudinal direction of said wall surface.
The upper part and the lower part of the oblique line or the imaginary line are colored with the same hue and the different colors with the same hue, respectively, and the color and relative position detection unit detects the wall surface in the image based on the first image signal. Based on the ratio of the length of the upper portion or the lower portion of the oblique line or the imaginary line of the wall with respect to the height, as the relative position of the moving body with respect to the wall, the direction in a direction parallel to the wall. The position detecting device according to claim 37, wherein a distance from one end of the wall surface of the moving body is detected.
域内における位置を検出する位置検出方法において、 上記領域の周囲に沿つて、互いに異なる色の複数の壁面
を設ける第1のステツプと、 上記移動体に配設された撮像手段により上記壁面を撮像
し、得られた第1の画像情報に基づいて、当該撮像手段
により撮像された上記壁面の色及び当該壁面に対する相
対位置を検出する第2のステツプと、 上記第2のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記移
動体の位置を検出する第3のステツプとを具えることを
特徴とする位置検出方法。42. A position detecting method for detecting a position of a moving body moving in a predetermined area in the area, comprising: a first step of providing a plurality of wall surfaces of different colors along the periphery of the area. Capturing an image of the wall surface by an imaging unit disposed on the moving body, and detecting a color of the wall surface captured by the imaging unit and a relative position with respect to the wall surface based on the obtained first image information; A second step, a color of the wall surface detected in the second step and a relative position with respect to the wall surface, and an area including a color of each of the wall surfaces and a position of each of the wall surfaces stored in advance. A third step of detecting the position of the moving body in the area based on the map information.
定の色空間において互いに所定の第1の距離だけ離れた
色が選定され、 上記第2のステツプでは、上記撮像手段から供給される
上記第1の画像情報を対応する上記色空間に応じた第2
の画像情報に変換した後、当該第2の画像情報に基づい
て上記撮像手段により撮像した上記壁面の色を検出する
ことを特徴とする請求項42に記載の位置検出方法。43. Colors separated from each other by a predetermined first distance in a predetermined color space are selected as the colors of the wall surfaces, and in the second step, the colors supplied from the image pickup means are selected. The second image information corresponding to the color space corresponding to the second
43. The position detecting method according to claim 42, wherein after converting the image information into the image information, the color of the wall surface imaged by the imaging unit is detected based on the second image information.
において上記第1の距離よりも大きい第2の距離だけ離
れるように各上記壁面の色が選定されたことを特徴とす
る請求項43に記載の位置検出方法。44. The color of each of said wall surfaces is selected such that said color of adjacent said wall surfaces is separated by a second distance greater than said first distance in said color space. The position detection method according to 1.
方向に上記色の飽和度が変化するように色づけられ、 上記第2のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の上記色の飽和度に基づいて、
上記壁面に対する上記移動体の上記相対位置として、上
記壁面と平行な方向における当該壁面の一端から上記移
動体までの距離を検出することを特徴とする請求項42
に記載の位置検出方法。45. Each of the wall surfaces is colored so that the degree of saturation of the color changes in the longitudinal direction of the wall surface. In the second step, the wall surface in an image based on the first image information is provided. Based on the saturation of the above color,
43. A distance between one end of the wall and the moving body in a direction parallel to the wall as the relative position of the moving body with respect to the wall.
The position detection method according to 1.
手方向の一端から他端に至るように斜線が表記され、 上記第2のステツプでは、上記第1の画像信号に基づく
画像内における上記壁面の高さに対する上記壁面の上記
斜線よりも上部分又は下部分の長さの比率に基づいて、
上記壁面に対する上記移動体の上記相対位置として、上
記壁面と平行な方向における上記移動体の当該壁面の一
端からの距離を検出することを特徴とする請求項42に
記載の位置検出方法。46. A diagonal line is drawn on each of the wall surfaces from one end to the other end in the longitudinal direction of the wall surface, and in the second step, in the image based on the first image signal, Based on the ratio of the length of the upper or lower part of the wall above the oblique line to the height of the wall,
43. The position detecting method according to claim 42, wherein a distance from one end of the wall of the moving body in a direction parallel to the wall is detected as the relative position of the moving body with respect to the wall.
方向の一端から他端に至る斜線又は仮想線を境として、
当該斜線又は仮想線よりも上部分及び下部分にそれぞれ
同じ色相で飽和度の異なる色に色づけられ、 上記第2のステツプでは、上記第1の画像信号に基づく
画像内における上記壁面の高さに対する当該壁面の上記
斜線又は上記仮想線よりも上記上部分又は上記下部分の
長さの比率に基づいて、上記壁面に対する上記移動体の
上記相対位置として、上記壁面と平行な方向における上
記移動体の当該壁面の一端からの距離を検出することを
特徴とする請求項42に記載の位置検出方法。47. Each of said wall surfaces is bounded by an oblique line or an imaginary line extending from one end to the other end in the longitudinal direction of said wall surface.
The upper part and the lower part of the oblique line or the imaginary line are colored with the same hue and different colors, respectively. In the second step, the height of the wall surface in the image based on the first image signal is adjusted. Based on the ratio of the length of the upper portion or the lower portion of the wall relative to the oblique line or the imaginary line, as the relative position of the moving body with respect to the wall surface, the moving body in a direction parallel to the wall surface 43. The position detecting method according to claim 42, wherein a distance from one end of the wall surface is detected.
域に向けて発光することを特徴とする請求項42に記載
の位置検出方法。48. The position detecting method according to claim 42, wherein each of said wall surfaces emits the corresponding color toward said region.
において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する所定の上記壁面を撮像する撮
像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具えることを特徴とするロボツト装置。49. A robot apparatus movable in a predetermined area, comprising: imaging means for imaging the corresponding predetermined wall surface among a plurality of wall surfaces of different colors provided along the periphery of the area; A color and relative position detector for detecting a color of the wall surface captured by the imager and a relative position to the wall based on first image information output from the imager; Detecting the position of the moving body in the area based on each detection result of the means and map information of the area including the colors of all the walls and the positions of all the walls stored in advance. A robot device comprising: a position detecting means.
定の色空間において互いに所定の第1の距離だけ離れた
色が選定され、 上記色及び相対位置検出手段は、上記撮像手段から供給
される上記第1の画像情報を対応する上記色空間に応じ
た第2の画像情報に変換した後、当該第2の画像情報に
基づいて上記撮像手段により撮像した上記壁面の色を検
出することを特徴とする請求項49に記載のロボツト装
置。50. A color separated by a predetermined first distance from each other in a predetermined color space as the color of each of the wall surfaces, and the color and relative position detection means are supplied from the imaging means. After converting the first image information into second image information corresponding to the corresponding color space, detecting a color of the wall surface imaged by the imaging unit based on the second image information. 50. The robot apparatus according to claim 49, wherein
定の色空間において互いに所定の第1の距離だけ離れた
色が選定され、 上記色及び相対位置検出手段は、上記撮像手段から供給
される上記第1の画像情報を対応する上記色空間に応じ
た第2の画像情報に変換した後、当該第2の画像情報に
基づいて上記撮像手段により撮像した上記壁面の色を検
出することを特徴とする請求項49に記載のロボツト装
置。51. A color separated by a predetermined first distance from each other in a predetermined color space as the color of each of the wall surfaces, and the color and relative position detection means are supplied from the imaging means. After converting the first image information into second image information corresponding to the corresponding color space, detecting a color of the wall surface imaged by the imaging unit based on the second image information. 50. The robot apparatus according to claim 49, wherein
方向に上記色の飽和度が変化するように色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の色の飽和度に基づい
て、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする請求項
49に記載のロボツト装置。52. Each of said wall surfaces is colored so that the degree of saturation of said color changes in the longitudinal direction of said wall surface, and said color and relative position detecting means is provided in an image based on said first image information. The distance from one end of the wall of the moving body in a direction parallel to the wall as the relative position of the moving body with respect to the wall based on the saturation of the color of the wall. 50. The robot apparatus according to item 49.
一端から他端に至るように斜線が表記され、 上記色及び相対位置検出手段は、上記第1の画像信号に
基づく画像内における上記壁面の高さに対する上記壁面
の上記斜線よりも上部分又は下部分の長さの比率に基づ
いて、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする請求項
49に記載のロボツト装置。53. A diagonal line is drawn on each of the wall surfaces from one end to the other end in the longitudinal direction of the wall surface, and the color and relative position detecting means is provided in an image based on the first image signal. Based on the ratio of the length of the portion above or below the oblique line of the wall to the height of the wall, as the relative position of the mobile with respect to the wall, the moving body in a direction parallel to the wall 50. The robot apparatus according to claim 49, wherein a distance from one end of the wall surface is detected.
方向の一端から他端に至る斜線又は仮想線を境として、
当該斜線又は仮想線よりも上部分及び下部分にそれぞれ
同じ色相で飽和度の異なる上記色に色づけられ、 上記色及び相対位置検出手段は、上記第1の画像信号に
基づく画像内における上記壁面の高さに対する当該壁面
の上記斜線又は上記仮想線よりも上記上部分又は上記下
部分の長さの比率に基づいて、上記壁面に対する上記移
動体の上記相対位置として、上記壁面と平行な方向にお
ける上記移動体の当該壁面の一端からの距離を検出する
ことを特徴とする請求項49に記載のロボツト装置。54. Each of said wall surfaces is bounded by an oblique line or an imaginary line extending from one end to the other end in the longitudinal direction of said wall surface.
The upper part and the lower part of the oblique line or the imaginary line are colored with the same hue and the different colors with the same hue, respectively, and the color and relative position detection unit detects the wall surface in the image based on the first image signal. Based on the ratio of the length of the upper portion or the lower portion of the oblique line or the imaginary line of the wall with respect to the height, as the relative position of the moving body with respect to the wall, the direction in a direction parallel to the wall. 50. The robot apparatus according to claim 49, wherein a distance from one end of the wall surface of the moving body is detected.
信号に分離する分離手段と、 上記輝度信号及び上記色差信号に基づいて、上記画像信
号に基づく画像内の各画素ごとの輝度レベル及び色差レ
ベルを順次検出するレベル検出手段と、 上記レベル検出手段により検出された上記画素の上記輝
度レベル及び上記色差レベルと、予め記憶している各上
記輝度レベル毎の上記色差レベルの上限値及び下限値と
に基づいて、各上記画素ごとに所定色か否かを判定する
判定手段とを具えることを特徴とする色抽出装置。55. A separating means for separating a supplied image signal into a luminance signal and a color difference signal, and a luminance level and a color difference for each pixel in an image based on the image signal based on the luminance signal and the color difference signal. Level detecting means for sequentially detecting a level; the luminance level and the color difference level of the pixel detected by the level detecting means; and an upper limit value and a lower limit value of the color difference level for each of the luminance levels stored in advance. And a determination means for determining whether or not each of the pixels has a predetermined color based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04878697A JP3512099B2 (en) | 1996-09-30 | 1997-03-04 | Position detecting system, position detecting device, position detecting method, robot device and control method therefor |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8-280041 | 1996-09-30 | ||
JP28004196 | 1996-09-30 | ||
JP04878697A JP3512099B2 (en) | 1996-09-30 | 1997-03-04 | Position detecting system, position detecting device, position detecting method, robot device and control method therefor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003408263A Division JP3928871B2 (en) | 1996-09-30 | 2003-12-05 | Identification apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10151591A true JPH10151591A (en) | 1998-06-09 |
JP3512099B2 JP3512099B2 (en) | 2004-03-29 |
Family
ID=26389114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04878697A Expired - Fee Related JP3512099B2 (en) | 1996-09-30 | 1997-03-04 | Position detecting system, position detecting device, position detecting method, robot device and control method therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3512099B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005262378A (en) * | 2004-03-18 | 2005-09-29 | Oki Electric Ind Co Ltd | Autonomous robot and its control method |
US7126612B2 (en) | 2003-09-29 | 2006-10-24 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and storage medium |
JP2007320032A (en) * | 2007-07-30 | 2007-12-13 | Sony Corp | Robot device and control method for it |
JP2012510839A (en) * | 2008-12-04 | 2012-05-17 | パロット | Set of drone with recognition marker |
WO2016186061A1 (en) * | 2015-05-20 | 2016-11-24 | ライフロボティクス株式会社 | Robot system and robot device |
JP2018119852A (en) * | 2017-01-25 | 2018-08-02 | 株式会社トプコン | Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft |
JP2019207617A (en) * | 2018-05-30 | 2019-12-05 | 日本電気株式会社 | Information processing system |
JP2019207618A (en) * | 2018-05-30 | 2019-12-05 | 日本電気株式会社 | Information processing system |
-
1997
- 1997-03-04 JP JP04878697A patent/JP3512099B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7126612B2 (en) | 2003-09-29 | 2006-10-24 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, program, and storage medium |
JP2005262378A (en) * | 2004-03-18 | 2005-09-29 | Oki Electric Ind Co Ltd | Autonomous robot and its control method |
JP2007320032A (en) * | 2007-07-30 | 2007-12-13 | Sony Corp | Robot device and control method for it |
JP2012510839A (en) * | 2008-12-04 | 2012-05-17 | パロット | Set of drone with recognition marker |
WO2016186061A1 (en) * | 2015-05-20 | 2016-11-24 | ライフロボティクス株式会社 | Robot system and robot device |
JP2016215318A (en) * | 2015-05-20 | 2016-12-22 | ライフロボティクス株式会社 | Robot system and robot device |
JP2018119852A (en) * | 2017-01-25 | 2018-08-02 | 株式会社トプコン | Position specification device, position specification method, position specification system, program for position specification, unmanned aircraft, and target for identifying unmanned aircraft |
JP2019207617A (en) * | 2018-05-30 | 2019-12-05 | 日本電気株式会社 | Information processing system |
JP2019207618A (en) * | 2018-05-30 | 2019-12-05 | 日本電気株式会社 | Information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP3512099B2 (en) | 2004-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6088469A (en) | Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus | |
US8638988B2 (en) | Movement analysis and/or tracking system | |
US7747072B2 (en) | Image processing method, image processing program, its storage medium, and image processing device for extracting points from a color image | |
CN105716611B (en) | Indoor mobile robot and its localization method based on environmental information | |
CN106017458B (en) | Mobile robot combined navigation method and device | |
CN110163025A (en) | Two dimensional code localization method and device | |
US20140111097A1 (en) | Identification device, method and computer program product | |
CN109753945B (en) | Target subject identification method and device, storage medium and electronic equipment | |
KR101295092B1 (en) | Color Detector for vehicle | |
CN107527368B (en) | Three-dimensional space attitude positioning method and device based on two-dimensional code | |
JP6884219B2 (en) | Image analysis technique | |
CN111823237B (en) | Multi-robot positioning method and system based on RGB LED dynamic beacon | |
JPH10151591A (en) | Discriminating device and method, position detecting device and method, and robot device and color sampling device | |
JP3928871B2 (en) | Identification apparatus and method | |
JP2002014038A (en) | Measuring apparatus for visibility status | |
CN111784768A (en) | Unmanned aerial vehicle attitude estimation method and system based on three-color four-lamp mark recognition | |
US20190371005A1 (en) | Recording medium, color label, detection device, image processing device, image processing method and image processing system | |
US20150262349A1 (en) | Free space positioning method and system | |
JPH06348991A (en) | Traveling environment recognizer for traveling vehicle | |
Keser et al. | Traffic signs shape recognition based on contour descriptor analysis | |
RU2785076C1 (en) | Method for autonomous landing of unmanned aircraft | |
RU2792974C1 (en) | Method and device for autonomous landing of unmanned aerial vehicle | |
RU2782702C1 (en) | Device for supporting object positioning | |
US11783497B2 (en) | Position measuring device, position measuring method, and recording medium | |
Mahangade et al. | Lane Following using Image Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040101 |
|
LAPS | Cancellation because of no payment of annual fees |