JP3512099B2 - Position detecting system, position detecting device, position detecting method, robot device and control method therefor - Google Patents

Position detecting system, position detecting device, position detecting method, robot device and control method therefor

Info

Publication number
JP3512099B2
JP3512099B2 JP04878697A JP4878697A JP3512099B2 JP 3512099 B2 JP3512099 B2 JP 3512099B2 JP 04878697 A JP04878697 A JP 04878697A JP 4878697 A JP4878697 A JP 4878697A JP 3512099 B2 JP3512099 B2 JP 3512099B2
Authority
JP
Japan
Prior art keywords
wall surface
color
wall
detecting
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04878697A
Other languages
Japanese (ja)
Other versions
JPH10151591A (en
Inventor
直博 福村
理 花形
浩太郎 佐部
真 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP04878697A priority Critical patent/JP3512099B2/en
Publication of JPH10151591A publication Critical patent/JPH10151591A/en
Application granted granted Critical
Publication of JP3512099B2 publication Critical patent/JP3512099B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する。[Table of Contents] The present invention will be described in the following order.

【0002】発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態 (1)第1実施例 (1−1)第1実施例による個体識別システムの全体構
成(図1〜図4) (1−2)色抽出部の構成(図1〜図6) (1−3)第1実施例の動作及び効果(図1〜図4) (2)第2実施例 (2−1)第2実施例による個体識別システムの全体構
成(図1〜図12) (2−2)第2実施例の動作及び効果(図1〜図12) (3)第3実施例 (3−1)第3実施例による位置検出システムの全体構
成(図13〜図15) (3−2)第3実施例の動作及び効果(図13〜図1
5) (4)第4実施例 (4−1)原理(図16) (4−2)第4実施例による位置検出システムの全体構
成(図14、図17及び図18) (4−3)第4実施例の動作及び効果(図17及び図1
8) (5)第5実施例 (5−1)第5実施例による位置検出システムの全体構
成(図17、図19〜図21) (5−2)第5実施例の動作及び効果(図19〜図2
1) (6)第6実施例 (6−1)第6実施例による位置検出システムの全体構
成(図19、図22〜図24) (6−2)第6実施例の動作及び効果(図22〜図2
4) (7)第7実施例 (7−1)第7実施例による位置検出システムの全体構
成(図14、図25〜図27) (7−2)第7実施例の動作及び効果(図25〜図2
7) (8)第8実施例 (8−1)第8実施例による位置検出システムの全体構
成(図17、図28及び図29) (8−2)第8実施例の動作及び効果(図28及び図2
9) (9)他の実施例(図1〜図36) 発明の効果
BACKGROUND OF THE INVENTION Technical Field of the Invention Means for Solving the Problems to be Solved by the Invention Embodiments of the Invention (1) First Example (1-1) Individual Identification System According to First Example 1 to 4) (1-2) Configuration of color extraction unit (FIGS. 1 to 6) (1-3) Operation and effect of first embodiment (FIGS. 1 to 4) (2) Second Embodiment (2-1) Overall Configuration of Individual Identification System According to Second Embodiment (FIGS. 1 to 12) (2-2) Operation and Effect of Second Embodiment (FIGS. 1 to 12) (3) Third Embodiment (3-1) Overall Configuration of Position Detection System According to Third Embodiment (FIGS. 13 to 15) (3-2) Operations and Effects of Third Embodiment (FIGS. 13 to 1)
5) (4) Fourth Embodiment (4-1) Principle (FIG. 16) (4-2) Overall Configuration of Position Detection System According to Fourth Embodiment (FIGS. 14, 17 and 18) (4-3) Operations and effects of the fourth embodiment (FIGS. 17 and 1)
8) (5) Fifth embodiment (5-1) Overall configuration of position detection system according to fifth embodiment (FIGS. 17, 19 to 21) (5-2) Operation and effect of fifth embodiment (FIG. 19 to 2
1) (6) Sixth embodiment (6-1) Overall configuration of position detection system according to sixth embodiment (FIGS. 19 and 22 to 24) (6-2) Operation and effect of sixth embodiment (FIG. 22 to 2
4) (7) Seventh embodiment (7-1) Overall configuration of position detection system according to seventh embodiment (FIGS. 14, 25 to 27) (7-2) Operation and effect of seventh embodiment (FIG. 7) 25 to FIG.
7) (8) Eighth Embodiment (8-1) Overall Configuration of Position Detection System According to Eighth Embodiment (FIGS. 17, 28 and 29) (8-2) Operation and Effect of Eighth Embodiment (FIG. 28 and FIG.
9) (9) Other Examples (FIGS. 1 to 36) Effects of the Invention

【0003】[0003]

【発明の属する技術分野】本発明は位置検出システム、
位置検出装置及び位置検出方法並びにロボツト装置及び
その制御方法に関し、例えば自律移動型ロボツトの位置
を検出するための位置検出システム及び自律移動型ロボ
ツトに適用して好適なものである。
TECHNICAL FIELD The present invention relates to a position detection system,
The present invention relates to a position detection device, a position detection method, a robot device, and a control method thereof, and is suitable for application to, for example, a position detection system and an autonomous mobile robot for detecting the position of an autonomous mobile robot.

【0004】[0004]

【従来の技術】近年、移動型ロボツトの1つとして、周
囲の環境についての情報を順次取り込み、得られた情報
に基づいて自分で行動を決定して移動し得るようになさ
れた、いわゆる自律移動型ロボツトの研究が進められて
いる。
2. Description of the Related Art In recent years, as one of mobile robots, so-called autonomous movement has been adopted in which information about the surrounding environment is sequentially taken in and the user can decide his / her own behavior based on the obtained information and move. Research on type robots is ongoing.

【0005】[0005]

【発明が解決しようとする課題】ところで、このような
移動型ロボツトが他の移動型ロボツトの個体を識別(例
えば1号機、2号機、……等)する方法としては、各ロ
ボツトにそれぞれ電波、赤外線又は音波などの識別のた
めの特別な信号を発生させる第1の方法と、各ロボツト
にそれぞれ互いに異なる所定色を塗布し、当該色に基づ
いてロボツト識別する第2の方法と、各ロボツトの表面
に識別のための記号やバーコード等を表記する第3の方
法となどが考えられる。
By the way, as a method for such a mobile robot to identify another mobile robot individual (for example, No. 1 machine, No. 2 machine, etc.), the radio waves are transmitted to each robot, A first method of generating a special signal for identification of infrared rays or sound waves, a second method of applying a predetermined color different from each other to each robot and identifying the robot based on the color, and a method of identifying each robot A third method in which a symbol for identification, a barcode, or the like is written on the surface can be considered.

【0006】しかしながら第1の方法では、信号を発信
又は受信するための特別な装置が必要となり、また電波
法規による規制や周辺に存在する他の装置への影響など
のため、希望する信号を発信することができない場合が
ある問題がある。
However, in the first method, a special device for transmitting or receiving a signal is required, and the desired signal is transmitted due to the regulation by the radio regulations and the influence on other devices existing in the vicinity. There are problems that you may not be able to do.

【0007】また第2の方法では、ごく少数のロボツト
だけを識別するのであればロボツトの数だけ識別し易い
色を用意すれば良いため問題がないが、多数のロボツト
を識別するためには微妙な色の違いを利用しなければな
らず、画像処理が複雑になつたり、照明条件等の影響を
受け易くなる問題がある。
In the second method, if only a very small number of robots are to be identified, there is no problem because it is sufficient to prepare colors that are easy to identify as many as the number of robots, but it is delicate to identify a large number of robots. However, there is a problem in that image processing becomes complicated and is easily affected by lighting conditions and the like.

【0008】さらに第3の方法では、ロボツトの向きや
姿勢などにより、記号等が観察できない場合が生じる問
題がある。
Further, the third method has a problem that a symbol or the like may not be observed depending on the direction or posture of the robot.

【0009】一方移動型ロボツトが移動領域内における
自分自身の位置を検出し得るようにする方法としては、
移動領域の床面に色パターンや記号などの標識を表記
し、ロボツトがこれら標識を視覚的に読み取るようにす
る第1の方法と、床面や移動領域の隅部などに電波、赤
外線又は音波などの発信装置を設置し、当該発信装置か
らの信号に基づいて位置を検出する第2の方法と、ロボ
ツトの起動時の位置を何らかの手段によつてロボツトに
与えておき、移動手段の駆動状態(例えば車輪の回転数
等)から移動距離と移動方向を求め、それを積分処理す
ることにより現在の位置を検出する第3の方法などが考
えられる。
On the other hand, as a method for enabling the mobile robot to detect its own position in the mobile area,
The first method is to write a mark such as a color pattern or a symbol on the floor of the moving area so that the robot can read these signs visually, and to use radio waves, infrared rays, or sound waves on the floor or the corners of the moving area. The second method of installing a transmitting device such as the above, and detecting the position based on the signal from the transmitting device, and the position at the time of starting the robot are given to the robot by some means, and the driving state of the moving means. A third method or the like is conceivable in which the moving distance and the moving direction are obtained from (for example, the number of rotations of the wheel) and the current position is detected by integrating the moving distance and the moving direction.

【0010】この場合第1の方法は、ロボツトに配設さ
れたカメラを時々下に向けて床面を撮像するようにし、
又は床面監視用のカメラを別途用意することにより実現
できる。
In this case, the first method is such that the camera installed in the robot is sometimes directed downward to image the floor surface,
Alternatively, it can be realized by separately preparing a camera for monitoring the floor surface.

【0011】しかしながらこの第1の方法を前者の方法
により実現しようとすると、ロボツトが自分の位置を検
出するために下を向いている間は、周囲を十分に見渡す
ことができず、他のロボツトなどの移動体と衝突するお
それがあり、また第1の方法を後者の方法により実現し
ようとすると、床面監視用のカメラを別途用意する分、
製造コストが高くなつたり、ロボツトの重量が増えた
り、又はロボツトの構成が煩雑化する問題がある。
However, if the first method is to be realized by the former method, while the robot is facing downward to detect its own position, it cannot fully overlook the surroundings and other robots. There is a risk of colliding with a moving body such as, and if the first method is to be realized by the latter method, a camera for floor surface monitoring is separately prepared.
There is a problem that the manufacturing cost becomes high, the weight of the robot increases, or the structure of the robot becomes complicated.

【0012】また第2の方法では、発信装置が移動領域
の床面に配置された場合には、それ自体がロボツトの行
動の障害物となる問題がある。
In the second method, when the transmitter is placed on the floor of the moving area, the transmitter itself becomes an obstacle to the robot's behavior.

【0013】さらに第3の方法では、ロボツトの移動距
離と移動方向の測定精度の限界から、測定される現在位
置の誤差が大きくなる問題がある。特にロボツトが頻繁
に方向を変えながら長い距離を移動した場合には、誤差
が累積して大きくなり、正しく現在位置を検出すること
が困難となる。
Further, in the third method, there is a problem that the error of the measured current position becomes large due to the limit of the measuring accuracy of the moving distance and the moving direction of the robot. Especially when the robot moves a long distance while frequently changing its direction, errors accumulate and become large, and it becomes difficult to detect the current position correctly.

【0014】本発明は以上の点を考慮してなされたもの
で、領域内における移動体又は自分の位置を精度良く検
出し得る位置検出システム、位置検出装置及び位置検出
方法並びにロボツト装置及びその制御方法を提案しよう
とするものである。
The present invention has been made in consideration of the above points, and a position detecting system, a position detecting device, a position detecting method, a robot device and their control capable of accurately detecting the position of a moving body or its own in a region. It is intended to propose a method.

【0015】[0015]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、位置検出システムにおいて、所定
の領域の周囲に沿つて設けられた互いに異なる色の複数
の壁面と、当該領域内を移動する移動体に設けられた撮
像手段と、撮像手段から出力される第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する移動体の相対位置を検出する色及び相対
位置検出手段と、色及び相対位置検出手段の各検出結果
と、予め記憶している全ての各壁面の色及び全ての各壁
面の位置を含む領域の地図情報とに基づいて領域内にお
ける移動体の位置を検出する位置検出手段とを設け、各
壁面が、それぞれ壁面の長手方向に色の飽和度が変化す
るように色づけられ、色及び相対位置検出手段が、第1
の画像情報に基づく画像内における壁面の色の飽和度に
基づいて、壁面に対する移動体の相対位置として、壁面
と平行な方向における移動体の当該壁面の一端からの距
離を検出するようにした。この結果この位置検出システ
ムでは、領域内における移動体の位置を容易かつ確実に
検出することができる。
In order to solve such a problem, in the present invention, in a position detection system, a plurality of wall surfaces of different colors provided along the periphery of a predetermined area and moving within the area. And a color for detecting the relative position of the moving body with respect to the wall surface, based on the first image information output from the image pickup means and the image pickup means provided on the moving body. Movement within the area based on the relative position detection means, the detection results of the colors and the relative position detection means, and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance Position detecting means for detecting the position of the body is provided, and each wall surface is colored so that the degree of color saturation changes in the longitudinal direction of the wall surface.
Based on the degree of saturation of the color of the wall surface in the image based on the image information, the distance from the one end of the wall surface in the direction parallel to the wall surface is detected as the relative position of the mobile object with respect to the wall surface. As a result, the position detection system can easily and reliably detect the position of the moving body within the area.

【0016】また本発明においては、位置検出システム
において、所定の領域の周囲に沿つて設けられた互いに
異なる色の複数の壁面と、当該領域内を移動する移動体
に設けられた撮像手段と、撮像手段から出力される第1
の画像情報に基づいて、当該撮像手段により撮像された
壁面の色及び当該壁面に対する移動体の相対位置を検出
する色及び相対位置検出手段と、色及び相対位置検出手
段の各検出結果と、予め記憶している全ての各壁面の色
及び全ての各壁面の位置を含む領域の地図情報とに基づ
いて領域内における移動体の位置を検出する位置検出手
段とを設け、各壁面に、壁面の長手方向の一端から他端
に至るように斜線を表記し、色及び相対位置検出手段
が、第1の画像情報に基づく画像内における壁面の高さ
に対する壁面の斜線よりも上部分又は下部分の長さの比
率に基づいて、壁面に対する移動体の相対位置として、
壁面と平行な方向における移動体の当該壁面の一端から
の距離を検出するようにした。この結果この位置検出シ
ステムでは、領域内における移動体の位置を容易かつ確
実に検出することができる。
Further, in the present invention, in the position detecting system, a plurality of wall surfaces of different colors provided along the periphery of a predetermined area, and an image pickup means provided on a moving body moving in the area, First output from the imaging means
The color and relative position detecting means for detecting the color of the wall surface imaged by the image capturing means and the relative position of the moving body with respect to the wall surface, and the detection results of the color and relative position detecting means in advance, Position detection means for detecting the position of the moving body within the area based on the stored map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces is provided. A diagonal line is drawn so as to extend from one end to the other end in the longitudinal direction, and the color and relative position detecting means indicates that the portion above or below the diagonal line of the wall surface with respect to the height of the wall surface in the image based on the first image information. Based on the length ratio, as the relative position of the moving body to the wall surface,
The distance from the one end of the wall surface of the moving body in the direction parallel to the wall surface is detected. As a result, the position detection system can easily and reliably detect the position of the moving body within the area.

【0017】さらに本発明においては、位置検出システ
ムにおいて、所定の領域の周囲に沿つて設けられた互い
に異なる色の複数の壁面と、当該領域内を移動する移動
体に設けられた撮像手段と、撮像手段から出力される第
1の画像情報に基づいて、当該撮像手段により撮像され
た壁面の色及び当該壁面に対する移動体の相対位置を検
出する色及び相対位置検出手段と、色及び相対位置検出
手段の各検出結果と、予め記憶している全ての各壁面の
色及び全ての各壁面の位置を含む領域の地図情報とに基
づいて領域内における移動体の位置を検出する位置検出
手段とを設け、各壁面が、それぞれ壁面の長手方向の一
端から他端に至る斜線又は仮想線を境として、当該斜線
又は仮想線よりも上部分及び下部分にそれぞれ同じ色相
で飽和度の異なる色に色づけられ、色及び相対位置検出
手段が、第1の画像情報に基づく画像内における壁面の
高さに対する当該壁面の斜線又は仮想線よりも上部分又
は下部分の長さの比率に基づいて、壁面に対する移動体
の相対位置として、壁面と平行な方向における移動体の
当該壁面の一端からの距離を検出するようにした。この
結果この位置検出システムでは、領域内における移動体
の位置を容易かつ確実に検出することができる。
Further, according to the present invention, in the position detecting system, a plurality of wall surfaces of different colors provided along the periphery of a predetermined area, and an image pickup means provided on a moving body moving in the area, Color and relative position detection means for detecting the color of the wall surface imaged by the imaging means and the relative position of the moving body with respect to the wall surface based on the first image information output from the imaging means, and color and relative position detection Position detecting means for detecting the position of the moving body in the area based on each detection result of the means and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. Provided, and each wall surface has a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face as a boundary, and the portions above and below the diagonal line or the imaginary line have the same hue and different degrees of saturation. The color and relative position detecting means is based on the ratio of the length of the upper or lower portion of the wall surface to the height of the wall surface in the image based on the first image information, As a relative position of the moving body with respect to the wall surface, the distance from the one end of the moving body in the direction parallel to the wall surface is detected. As a result, the position detection system can easily and reliably detect the position of the moving body within the area.

【0018】さらに本発明においては、位置検出装置に
おいて、所定の領域内を移動する移動体に設けられ、当
該領域の周囲に沿つて設けられた互いに異なる色の複数
の壁面のうち、対応する所定の壁面を撮像する撮像手段
と、撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された壁面の色及び当該壁
面に対する移動体の相対位置を検出する色及び相対位置
検出手段と、色及び相対位置検出手段の各検出結果と、
予め記憶している全ての各壁面の色及び全ての各壁面の
位置を含む領域の地図情報とに基づいて領域内における
移動体の位置を検出する位置検出手段とを設け、各壁面
が、それぞれ壁面の長手方向に色の飽和度が変化するよ
うに色づけられ、色及び相対位置検出手段が、第1の画
像情報に基づく画像内における壁面の色の飽和度に基づ
いて、壁面に対する移動体の相対位置として、壁面と平
行な方向における移動体の当該壁面の一端からの距離を
検出するようにした。この結果この位置検出装置は、領
域内における移動体の位置を容易かつ確実に検出するこ
とができる。
Further, according to the present invention, in the position detecting device, a corresponding predetermined one of a plurality of wall surfaces of different colors provided on a moving body moving in a predetermined area and provided along the periphery of the area. And a relative position for detecting the color of the wall surface imaged by the imaging means and the relative position of the moving body with respect to the wall surface based on the first image information output from the imaging means. The detection means, each detection result of the color and relative position detection means,
Position detection means for detecting the position of the moving body in the area based on the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance, and each wall surface is Coloring is performed so that the color saturation varies in the longitudinal direction of the wall surface, and the color / relative position detection means determines the moving body relative to the wall surface based on the color saturation of the wall surface in the image based on the first image information. As the relative position, the distance from the one end of the wall surface of the moving body in the direction parallel to the wall surface is detected. As a result, this position detection device can easily and reliably detect the position of the moving body within the area.

【0019】さらに本発明においては、位置検出装置に
おいて、所定の領域内を移動する移動体に設けられ、領
域の周囲に沿つて設けられた互いに異なる色の複数の壁
面のうち、対応する所定の壁面を撮像する撮像手段と、
撮像手段から出力される第1の画像情報に基づいて、当
該撮像手段により撮像された壁面の色及び当該壁面に対
する移動体の相対位置を検出する色及び相対位置検出手
段と、色及び相対位置検出手段の各検出結果と、予め記
憶している全ての各壁面の色及び全ての各壁面の位置を
含む領域の地図情報とに基づいて領域内における移動体
の位置を検出する位置検出手段とを設け、各壁面に、壁
面の長手方向の一端から他端に至るように斜線を表記
し、色及び相対位置検出手段が、第1の画像情報に基づ
く画像内における壁面の高さに対する壁面の斜線よりも
上部分又は下部分の長さの比率に基づいて、壁面に対す
る移動体の相対位置として、壁面と平行な方向における
移動体の当該壁面の一端からの距離を検出するようにし
た。この結果この位置検出装置は、領域内における移動
体の位置を容易かつ確実に検出することができる。
Further, according to the present invention, in the position detecting device, a corresponding predetermined one of a plurality of wall surfaces of different colors provided on the moving body which moves in a predetermined area and provided along the periphery of the area. Imaging means for imaging the wall surface;
Color and relative position detection means for detecting the color of the wall surface imaged by the imaging means and the relative position of the moving body with respect to the wall surface based on the first image information output from the imaging means, and color and relative position detection Position detecting means for detecting the position of the moving body in the area based on each detection result of the means and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. A diagonal line is provided on each wall face so as to extend from one end to the other end in the longitudinal direction of the wall face, and the color and relative position detection means sets the diagonal line of the wall face to the height of the wall face in the image based on the first image information. Based on the ratio of the length of the upper part or the lower part, the distance from the one end of the wall surface of the moving body in the direction parallel to the wall surface is detected as the relative position of the moving body with respect to the wall surface. As a result, this position detection device can easily and reliably detect the position of the moving body within the area.

【0020】さらに本発明においては、位置検出装置に
おいて、所定の領域内を移動する移動体に設けられ、領
域の周囲に沿つて設けられた互いに異なる色の複数の壁
面のうち、対応する所定の壁面を撮像する撮像手段と、
撮像手段から出力される第1の画像情報に基づいて、当
該撮像手段により撮像された壁面の色及び当該壁面に対
する移動体の相対位置を検出する色及び相対位置検出手
段と、色及び相対位置検出手段の各検出結果と、予め記
憶している全ての各壁面の色及び全ての各壁面の位置を
含む領域の地図情報とに基づいて領域内における移動体
の位置を検出する位置検出手段とを設け、各壁面が、そ
れぞれ壁面の長手方向の一端から他端に至る斜線又は仮
想線を境として、当該斜線又は仮想線よりも上部分及び
下部分にそれぞれ同じ色相で飽和度の異なる色に色づけ
られ、色及び相対位置検出手段は、第1の画像情報に基
づく画像内における壁面の高さに対する当該壁面の斜線
又は仮想線よりも上部分又は下部分の長さの比率に基づ
いて、壁面に対する移動体の相対位置として、壁面と平
行な方向における移動体の当該壁面の一端からの距離を
検出するようにした。この結果この位置検出装置は、領
域内における移動体の位置を容易かつ確実に検出するこ
とができる。
Further, according to the present invention, in the position detecting device, a predetermined predetermined corresponding one of a plurality of wall surfaces of different colors provided on the moving body which moves in a predetermined area and is provided along the periphery of the area. Imaging means for imaging the wall surface;
Color and relative position detection means for detecting the color of the wall surface imaged by the imaging means and the relative position of the moving body with respect to the wall surface based on the first image information output from the imaging means, and color and relative position detection Position detecting means for detecting the position of the moving body in the area based on each detection result of the means and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. Provided, each wall is colored with a different hue and saturation with the same hue above and below the slanted line or virtual line, with the slanted line or virtual line extending from one end to the other end in the longitudinal direction of the wall face as a boundary. The color and relative position detecting means determines the wall surface based on the ratio of the length of the upper or lower portion of the wall surface to the height of the wall surface in the image based on the first image information. Against As the relative position of the moving body, and to detect the distance from one end of the wall surface of the moving body on the wall surface in a direction parallel. As a result, this position detection device can easily and reliably detect the position of the moving body within the area.

【0021】さらに本発明においては、位置検出方法に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する壁面を移動体に配設され
た撮像手段により撮像し、得られた第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する第1のステツプと、
第1のステツプにおいて検出した壁面の色及び当該壁面
に対する相対位置と、予め記憶している全ての各壁面の
色及び全ての各壁面の位置を含む領域の地図情報とに基
づいて領域内における移動体の位置を検出する第2のス
テツプとを設け、各壁面が、それぞれ壁面の長手方向に
色の飽和度が変化するように色づけられ、第1のステツ
プでは、第1の画像情報に基づく画像内における壁面の
色の飽和度に基づいて、壁面に対する移動体の相対位置
として、壁面と平行な方向における当該壁面の一端から
移動体までの距離を検出するようにした。この結果この
位置検出方法によれば、領域内における移動体の位置を
容易かつ確実に検出することができる。
Further, according to the present invention, in the position detecting method, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the imaging means arranged on the moving body, A first step for detecting the color of the wall surface imaged by the imaging means and the relative position to the wall surface based on the obtained first image information;
Movement within the area based on the color of the wall surface detected in the first step and the relative position with respect to the wall surface, and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. A second step for detecting the position of the body is provided, and each wall surface is colored so that the saturation of the color changes in the longitudinal direction of the wall surface. In the first step, an image based on the first image information is provided. Based on the saturation of the color of the wall surface inside, the distance from one end of the wall surface to the moving body in the direction parallel to the wall surface is detected as the relative position of the moving body with respect to the wall surface. As a result, according to this position detection method, it is possible to easily and reliably detect the position of the moving body within the area.

【0022】さらに本発明によれば、位置検出方法にお
いて、領域の周囲に沿つて設けられた互いに異なる色の
複数の壁面のうち、対応する壁面を移動体に配設された
撮像手段により撮像し、得られた第1の画像情報に基づ
いて、当該撮像手段により撮像された壁面の色及び当該
壁面に対する相対位置を検出する第1のステツプと、第
1のステツプにおいて検出した壁面の色及び当該壁面に
対する相対位置と、予め記憶している全ての各壁面の色
及び全ての各壁面の位置を含む領域の地図情報とに基づ
いて領域内における移動体の位置を検出する第2のステ
ツプとを設け、各壁面に、それぞれ壁面の長手方向の一
端から他端に至るように斜線を表記し、第1のステツプ
では、第1の画像情報に基づく画像内における壁面の高
さに対する壁面の斜線よりも上部分又は下部分の長さの
比率に基づいて、壁面に対する移動体の相対位置とし
て、壁面と平行な方向における移動体の当該壁面の一端
からの距離を検出するようにした。この結果この位置検
出方法によれば、領域内における移動体の位置を容易か
つ確実に検出することができる。
Further, according to the present invention, in the position detecting method, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the imaging means arranged on the moving body. , A first step for detecting the color of the wall surface imaged by the image pickup means and the relative position to the wall surface based on the obtained first image information, and the color of the wall surface detected in the first step and the A second step for detecting the position of the moving body in the area based on the relative position with respect to the wall surface and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. A diagonal line is drawn on each wall surface so as to extend from one end to the other end in the longitudinal direction of the wall surface. In the first step, the height of the wall surface relative to the height of the wall surface in the image based on the first image information is written. Based on the ratio of length of the upper part or lower part than the line, as the relative position of the moving body with respect to the wall surface, and to detect the distance from one end of the wall surface of the moving body on the wall surface in a direction parallel. As a result, according to this position detection method, it is possible to easily and reliably detect the position of the moving body within the area.

【0023】さらに本発明においては、位置検出方法に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する壁面を移動体に配設され
た撮像手段により撮像し、得られた第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する第1のステツプと、
第1のステツプにおいて検出した壁面の色及び当該壁面
に対する相対位置と、予め記憶している全ての各壁面の
色及び全ての各壁面の位置を含む領域の地図情報とに基
づいて領域内における移動体の位置を検出する第2のス
テツプとを設け、各壁面が、それぞれ壁面の長手方向の
一端から他端に至る斜線又は仮想線を境として、当該斜
線又は仮想線よりも上部分及び下部分にそれぞれ同じ色
相で飽和度の異なる色に色づけられ、第1のステツプで
は、第1の画像情報に基づく画像内における壁面の高さ
に対する当該壁面の斜線又は仮想線よりも上部分又は下
部分の長さの比率に基づいて、壁面に対する移動体の相
対位置として、壁面と平行な方向における移動体の当該
壁面の一端からの距離を検出するようにした。この結果
この位置検出方法によれば、領域内における移動体の位
置を容易かつ確実に検出することができる。
Further, according to the present invention, in the position detecting method, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the imaging means arranged in the moving body, A first step for detecting the color of the wall surface imaged by the imaging means and the relative position to the wall surface based on the obtained first image information;
Movement within the area based on the color of the wall surface detected in the first step and the relative position with respect to the wall surface, and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. A second step for detecting the position of the body is provided, and each wall surface is a diagonal line or an imaginary line extending from one end to the other end of the wall face in the longitudinal direction. Are colored in the same hue and different in saturation, and in the first step, a portion above or below a diagonal line or an imaginary line of the wall surface with respect to the height of the wall surface in the image based on the first image information is Based on the length ratio, the relative position of the moving body to the wall surface is detected as the distance from the one end of the wall surface of the moving body in the direction parallel to the wall surface. As a result, according to this position detection method, it is possible to easily and reliably detect the position of the moving body within the area.

【0024】さらに本発明においては、ロボツト装置に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する所定の壁面を撮像する撮
像手段と、撮像手段から出力される第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、色及び相対位置検出手段の各検出結果と、予め
記憶している全ての各壁面の色及び全ての各壁面の位置
を含む領域の地図情報とに基づいて領域内における移動
体の位置を検出する位置検出手段とを設け、各壁面が、
それぞれ壁面の長手方向に色の飽和度が変化するように
色づけられ、色及び相対位置検出手段が、第1の画像情
報に基づく画像内における壁面の色の飽和度に基づい
て、壁面に対する当該ロボツト装置の相対位置として、
壁面と平行な方向における当該ロボツト装置の当該壁面
の一端からの距離を検出するようにした。この結果この
ロボツト装置では、領域内における移動体の位置を容易
かつ確実に検出することができる。
Further, according to the present invention, in the robot device, an image pickup means for picking up an image of a predetermined predetermined wall surface among a plurality of wall surfaces of different colors provided along the periphery of the area, and output from the image pickup means. Based on the first image information, the color and relative position detecting means for detecting the color of the wall surface imaged by the image capturing means and the relative position with respect to the wall surface, the respective detection results of the color and relative position detecting means, and stored in advance. Position detection means for detecting the position of the moving body in the area based on the map information of the area including the color of all the wall surfaces and the position of all the wall surfaces are provided, each wall surface,
Coloring is performed so that the color saturation varies in the longitudinal direction of the wall surface, and the color and relative position detection means determines the robot for the wall surface based on the color saturation of the wall surface in the image based on the first image information. As the relative position of the device,
The distance from the one end of the wall surface of the robot device in the direction parallel to the wall surface is detected. As a result, the robot apparatus can easily and reliably detect the position of the moving body within the area.

【0025】さらに本発明においては、ロボツト装置に
おいて、領域の周囲に沿つて設けられた互いに異なる色
の複数の壁面のうち、対応する所定の壁面を撮像する撮
像手段と、撮像手段から出力される第1の画像情報に基
づいて、当該撮像手段により撮像された壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、色及び相対位置検出手段の各検出結果と、予め
記憶している全ての各壁面の色及び全ての各壁面の位置
を含む領域の地図情報とに基づいて領域内における移動
体の位置を検出する位置検出手段とを設け、各壁面に、
壁面の長手方向の一端から他端に至るように斜線が表記
され、色及び相対位置検出手段が、第1の画像情報に基
づく画像内における壁面の高さに対する壁面の斜線より
も上部分又は下部分の長さの比率に基づいて、壁面に対
する当該ロボツト装置の相対位置として、壁面と平行な
方向における当該ロボツト装置の当該壁面の一端からの
距離を検出するようにした。この結果このロボツト装置
では、領域内における移動体の位置を容易かつ確実に検
出することができる。
Further, in the present invention, in the robot device, an image pickup means for picking up an image of a predetermined predetermined wall surface among a plurality of wall surfaces of different colors provided along the periphery of the area, and the image output means outputs the image. Based on the first image information, the color and relative position detecting means for detecting the color of the wall surface imaged by the image capturing means and the relative position with respect to the wall surface, the respective detection results of the color and relative position detecting means, and stored in advance. Position detection means for detecting the position of the moving body in the area based on the map information of the area including the color of each wall surface and the position of each wall surface are provided, each wall surface,
A diagonal line is drawn from one end to the other end in the longitudinal direction of the wall surface, and the color and relative position detecting means is located above or below the diagonal line of the wall surface with respect to the height of the wall surface in the image based on the first image information. Based on the ratio of the lengths of the portions, the distance from the one end of the wall surface of the robot device in the direction parallel to the wall surface is detected as the relative position of the robot device with respect to the wall surface. As a result, the robot apparatus can easily and reliably detect the position of the moving body within the area.

【0026】さらに本発明においては、ロボツト装置の
制御方法において、領域の周囲に沿つて設けられた互い
に異なる色の複数の壁面のうち、対応する壁面をロボツ
ト装置に配設された撮像手段により撮像することにより
得られた第1の画像情報に基づいて、当該撮像手段によ
り撮像された壁面の色及び当該壁面に対する相対位置を
検出する第1のステツプと、第1のステツプにおいて検
出した壁面の色及び当該壁面に対する相対位置と、予め
記憶している全ての各壁面の色及び全ての各壁面の位置
を含む領域の地図情報とに基づいて領域内におけるロボ
ツト装置の位置を検出する第2のステツプと、検出結果
に基づいて、ロボツト装置が周囲の状況に応じた行動を
自律的にとるようにロボツト装置の行動を制御する第3
のステツプとを設け、各壁面が、それぞれ壁面の長手方
向に色の飽和度が変化するように色づけられ、第1のス
テツプでは、第1の画像情報に基づく画像内における壁
面の色の飽和度に基づいて、壁面に対するロボツト装置
の相対位置として、壁面と平行な方向における当該壁面
の一端からロボツト装置までの距離を検出するようにし
た。この結果このロボツト装置の制御方法によれば、領
域内における移動体の位置を容易かつ確実に検出するこ
とができる。
Further, in the present invention, in the control method of the robot apparatus, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the imaging means arranged in the robot apparatus. The first step for detecting the color of the wall surface imaged by the imaging means and the relative position with respect to the wall surface based on the first image information obtained by the above, and the color of the wall surface detected in the first step. And a second step for detecting the position of the robot device in the area based on the relative position with respect to the wall surface and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. And, based on the detection result, the robot device controls the action of the robot device so that the robot device autonomously takes action according to the surrounding situation.
And each wall is colored so that the saturation of the color changes in the longitudinal direction of the wall, and in the first step, the saturation of the color of the wall in the image based on the first image information is provided. Based on the above, the distance from one end of the wall surface to the robot device in the direction parallel to the wall surface is detected as the relative position of the robot device with respect to the wall surface. As a result, according to this control method for the robot apparatus, the position of the moving body in the area can be detected easily and reliably.

【0027】さらに本発明においては、ロボツト装置の
制御方法において、領域の周囲に沿つて設けられた互い
に異なる色の複数の壁面のうち、対応する壁面をロボツ
ト装置に配設された撮像手段により撮像することにより
得られた第1の画像情報に基づいて、当該撮像手段によ
り撮像された壁面の色及び当該壁面に対する相対位置を
検出する第1のステツプと、第1のステツプにおいて検
出した壁面の色及び当該壁面に対する相対位置と、予め
記憶している全ての各壁面の色及び全ての各壁面の位置
を含む領域の地図情報とに基づいて領域内におけるロボ
ツト装置の位置を検出する第2のステツプと、検出結果
に基づいて、ロボツト装置が周囲の状況に応じた行動を
自律的にとるようにロボツト装置の行動を制御する第3
のステツプとを設け、各壁面に、それぞれ壁面の長手方
向の一端から他端に至るように斜線が表記され、第1の
ステツプでは、第1の画像情報に基づく画像内における
壁面の高さに対する壁面の斜線よりも上部分又は下部分
の長さの比率に基づいて、壁面に対するロボツト装置の
相対位置として、壁面と平行な方向におけるロボツト装
置の当該壁面の一端からの距離を検出するようにした。
この結果このロボツト装置の制御方法によれば、領域内
における移動体の位置を容易かつ確実に検出することが
できる。
Further, according to the present invention, in the control method of the robot apparatus, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the image pickup means arranged in the robot apparatus. The first step for detecting the color of the wall surface imaged by the imaging means and the relative position with respect to the wall surface based on the first image information obtained by the above, and the color of the wall surface detected in the first step. And a second step for detecting the position of the robot device in the area based on the relative position with respect to the wall surface and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. And, based on the detection result, the robot device controls the action of the robot device so that the robot device autonomously takes action according to the surrounding situation.
And a diagonal line is drawn on each wall surface from one end to the other end in the longitudinal direction of the wall surface. In the first step, the height of the wall surface in the image based on the first image information is compared. As a relative position of the robot device with respect to the wall surface, based on the ratio of the length of the upper part or the lower part of the wall surface, the distance from the one end of the wall surface of the robot device in the direction parallel to the wall surface is detected. .
As a result, according to this control method for the robot apparatus, the position of the moving body in the area can be detected easily and reliably.

【0028】さらに本発明においては、ロボツト装置の
制御方法において、領域の周囲に沿つて設けられた互い
に異なる色の複数の壁面のうち、対応する壁面をロボツ
ト装置に配設された撮像手段により撮像することにより
得られた第1の画像情報に基づいて、当該撮像手段によ
り撮像された壁面の色及び当該壁面に対する相対位置を
検出する第1のステツプと、第1のステツプにおいて検
出した壁面の色及び当該壁面に対する相対位置と、予め
記憶している全ての各壁面の色及び全ての各壁面の位置
を含む領域の地図情報とに基づいて領域内におけるロボ
ツト装置の位置を検出する第2のステツプと、検出結果
に基づいて、ロボツト装置が周囲の状況に応じた行動を
自律的にとるようにロボツト装置の行動を制御する第3
のステツプとを設け、各壁面が、それぞれ壁面の長手方
向の一端から他端に至る斜線又は仮想線を境として、当
該斜線又は仮想線よりも上部分及び下部分にそれぞれ同
じ色相で飽和度の異なる色に色づけられ、第1のステツ
プでは、第1の画像情報に基づく画像内における壁面の
高さに対する当該壁面の斜線又は仮想線よりも上部分又
は下部分の長さの比率に基づいて、壁面に対するロボツ
ト装置の相対位置として、壁面と平行な方向におけるロ
ボツト装置の当該壁面の一端からの距離を検出するよう
にした。この結果このロボツト装置の制御方法によれ
ば、領域内における移動体の位置を容易かつ確実に検出
することができる。
Further, in the present invention, in the control method of the robot apparatus, among the plurality of wall surfaces of different colors provided along the periphery of the area, the corresponding wall surface is imaged by the imaging means arranged in the robot apparatus. The first step for detecting the color of the wall surface imaged by the imaging means and the relative position with respect to the wall surface based on the first image information obtained by the above, and the color of the wall surface detected in the first step. And a second step for detecting the position of the robot device in the area based on the relative position with respect to the wall surface and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. And, based on the detection result, the robot device controls the action of the robot device so that the robot device autonomously takes action according to the surrounding situation.
Is provided, and each wall surface has a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face as a boundary. Colored in different colors, in the first step, based on the ratio of the length of the portion above or below the oblique line or virtual line of the wall surface to the height of the wall surface in the image based on the first image information, As the relative position of the robot device with respect to the wall surface, the distance from one end of the wall surface of the robot device in the direction parallel to the wall surface is detected. As a result, according to this control method for the robot apparatus, the position of the moving body in the area can be detected easily and reliably.

【0029】[0029]

【0030】[0030]

【0031】[0031]

【0032】[0032]

【0033】[0033]

【0034】[0034]

【0035】[0035]

【0036】[0036]

【0037】[0037]

【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.

【0038】(1)第1実施例 (1−1)第1実施例による個体識別システムの全体構
成 図1において、1は全体として本発明を適用した個体識
別システムを示し、所定の領域2内に複数のロボツト3
A〜3Cが配置されている。なお以下の説明において
は、領域2が平坦な長方形状であるものとし、所定の一
辺と平行な方向をX方向(矢印x)、これと垂直な方向
をY方向(矢印y)及び領域2と垂直な方向をZ方向
(矢印z)とする。
(1) First Embodiment (1-1) Overall Configuration of Individual Identification System According to First Embodiment In FIG. 1, reference numeral 1 indicates an individual identification system to which the present invention is applied as a whole, within a predetermined area 2. Multiple robots in 3
A to 3C are arranged. In the following description, it is assumed that the region 2 has a flat rectangular shape, the direction parallel to one predetermined side is the X direction (arrow x), and the direction perpendicular to this is the Y direction (arrow y) and the region 2. The vertical direction is the Z direction (arrow z).

【0039】各ロボツト3A〜3Cにおいては、図2に
示すように、それぞれ胴体部10の上面前端に首部11
を介して頭部12が配設されると共に、胴体部10の下
面の前後左右の4隅にそれぞれ太股部13及び脛部14
からなる右前脚部15A、左前脚部15B、右後脚部1
5C及び左後脚部15D(以下、これらをまとめて各脚
部15A〜15Dと呼ぶ)が配設されることにより構成
されている。
In each of the robots 3A to 3C, as shown in FIG. 2, the neck portion 11 is provided at the front end of the upper surface of the body portion 10, respectively.
The head 12 is disposed through the upper and lower parts, and the thighs 13 and the shins 14 are provided at the four corners of the lower surface of the body 10 in the front, rear, left and right, respectively.
Right front leg 15A, left front leg 15B, right rear leg 1
5C and the left rear leg portion 15D (hereinafter, these are collectively referred to as the leg portions 15A to 15D) are arranged.

【0040】この場合頭部12にはカメラ16が取り付
けられていると共に当該頭部12の所定位置にはマイク
ロホン17(図3)が取り付けられ、かつ頭部12、胴
体部10及び各脚部15A〜15Dの表面にはそれぞれ
複数の接触センサ18A〜18Z(図3)が取り付けら
れている。
In this case, a camera 16 is attached to the head 12, a microphone 17 (FIG. 3) is attached to a predetermined position of the head 12, and the head 12, the body portion 10 and each leg portion 15A. A plurality of contact sensors 18A to 18Z (Fig. 3) are attached to the surfaces of 15D to 15D, respectively.

【0041】さらに胴体部10内には制御部19(図
3)が配設されており、当該制御部19は、図3に示す
ように、カメラ16から供給される画像信号S1、マイ
クロホン17から供給される音声信号S2及び各接触セ
ンサ18A〜18Zからそれぞれ供給されるセンサ信号
S3A〜S3Zに基づいて周囲の状態を認識し、認識結
果に基づいて各構成ユニツト(頭部12、首部11、胴
体部10、各太股部13及び各脛部14)を連結する各
関節部20A〜20J(図2)内のアクチユエータ21
A〜21Jをそれぞれ必要に応じて駆動させるようにな
されている。
Further, a control unit 19 (FIG. 3) is provided in the body portion 10, and the control unit 19 receives the image signal S1 supplied from the camera 16 and the microphone 17 as shown in FIG. The surrounding state is recognized based on the supplied voice signal S2 and the sensor signals S3A to S3Z respectively supplied from the contact sensors 18A to 18Z, and based on the recognition result, each constituent unit (head 12, neck 11, body). Actuator 21 in each joint 20A to 20J (FIG. 2) that connects the portion 10, each thigh 13 and each shin 14).
Each of A to 21J is driven as required.

【0042】これにより各ロボツト3A〜3Cにおいて
は、制御部19の制御のもとに各構成ユニツトを自在に
駆動し得るようになされ、かくして周囲の環境に応じた
行動を自律的にとることができるようになされている。
As a result, in each of the robots 3A to 3C, each constituent unit can be freely driven under the control of the control unit 19, and thus, an action corresponding to the surrounding environment can be autonomously taken. It is made possible.

【0043】かかる構成に加えこの個体識別システム1
の場合、図2(A)からも明らかなように、各ロボツト
3A〜3Cの胴体部10の上面後端部にはそれぞれ支持
棒22を介して各ロボツト3A〜3C毎に異なるパター
ンで色分けされた球状の識別体23が取り付けられてい
る。
In addition to this configuration, this individual identification system 1
In this case, as is apparent from FIG. 2A, the rear end of the upper surface of the body portion 10 of each of the robots 3A to 3C is color-coded in a different pattern for each of the robots 3A to 3C via the support rod 22. A spherical identification body 23 is attached.

【0044】各識別体23は、図2(B)に示すよう
に、球体の表面にそれぞれ複数種類の色の中から所定の
3色をロボツト3A〜3Cの移動方向と垂直な方向(す
なわちZ方向)に並べて帯状に塗布することにより形成
されている。
As shown in FIG. 2B, each discriminator 23 has three predetermined colors on the surface of the sphere, each of which has a predetermined three colors in a direction perpendicular to the moving direction of the robots 3A to 3C (that is, Z). Direction) and are applied in a strip shape.

【0045】また各ロボツト3A〜3Cの制御部19
(図3)内には、それぞれ領域2内を移動する他のロボ
ツト3A〜3Cの個体を識別体23に基づいて識別する
ため、図4に示すような個体識別部30が設けられてい
る。
Further, the control unit 19 of each of the robots 3A to 3C
An individual identification unit 30 as shown in FIG. 4 is provided in (FIG. 3) in order to identify the individuals of the other robots 3A to 3C moving in the area 2 based on the identification body 23.

【0046】すなわち個体識別部30においては、識別
のために用いられた色と同数(例えば16)の色抽出部3
1A〜31Uを有し、カメラ16から供給される画像信
号S1をこれら各色抽出部31A〜31Uにそれぞれ入
力する。
That is, in the individual identifying unit 30, the same number of color extracting units 3 (for example, 16) as the colors used for identification are used.
The image signal S1 having 1A to 31U and supplied from the camera 16 is input to each of the color extracting units 31A to 31U.

【0047】各色抽出部31は、画像信号S1に基づく
画像のなかからそれぞれ所定色の画素を抽出し、当該画
素に対応する部分が論理「1」レベルに立ち上がり、こ
れ以外の画素に対応する部分が論理「0」レベルに立ち
下がつた色抽出信号S10A〜S10Uをそれぞれ色パ
ターン検出部32に送出する。なお各色抽出部31A〜
31Uは、識別のために用いられた複数の色の中からそ
れぞれ互いに異なる色の画素を抽出する。
Each color extraction unit 31 extracts a pixel of a predetermined color from the image based on the image signal S1, the portion corresponding to the pixel rises to the logic "1" level, and the portion corresponding to the other pixels. Sends the color extraction signals S10A to S10U falling to the logic "0" level to the color pattern detection unit 32, respectively. Each color extraction unit 31A-
The unit 31U extracts pixels of different colors from the plurality of colors used for identification.

【0048】色パターン検出部32は、各色抽出部31
A〜31Uからそれぞれ供給される各色抽出信号S10
A〜S10Uに基づき得られる画像を重ね合わせて走査
することにより当該画像内の色がほぼ円形状にZ方向に
3色並んだ部分を検出し、これを識別体23であると判
定してその識別体23の色パターンと、当該画像内にお
ける位置と、画素を単位とした直径とを識別体情報信号
S11として比較・演算部33に送出する。
The color pattern detecting section 32 includes a color extracting section 31 for each color.
Each color extraction signal S10 respectively supplied from A to 31U
By overlapping and scanning the images obtained based on A to S10U, a portion where the colors in the image are arranged in three colors in a substantially circular shape in the Z direction is detected, and this is determined to be the identifying body 23, and The color pattern of the identifier 23, the position in the image, and the diameter in units of pixels are sent to the comparison / calculation unit 33 as the identifier information signal S11.

【0049】比較・演算部33は、供給される識別体情
報信号S11に基づき得られる撮像した識別体23の色
パターンと、第1のメモリ34内に予め格納されている
各識別体23の色パターン及びそのIDに関するテーブ
ルとに基づいて、カメラ16により撮像された識別体2
3のID(すなわちロボツト3A〜3Cの個体)を検出
する。
The comparison / calculation unit 33 determines the color pattern of the imaged identifier 23 obtained based on the supplied identifier information signal S11 and the color of each identifier 23 stored in advance in the first memory 34. The identification body 2 imaged by the camera 16 based on the pattern and the table relating to the ID thereof.
3 IDs (ie, individuals of robots 3A to 3C) are detected.

【0050】また比較・演算部33は、供給される識別
体情報信号S11に基づき得られる撮像された識別体2
3の画像内での画素を単位とした直径(Dpic)と、第2
のメモリ35内に予め格納されている基準値(カメラ1
6及び識別体23が1〔m〕離れているときの識別体2
3の画素を単位とした直径(Dstd))とに基づいて、次
Further, the comparing / calculating section 33 detects the imaged identifier 2 obtained based on the supplied identifier information signal S11.
The diameter (Dpic) in pixels of the image of 3 and the second
Reference value (camera 1
6 and the identifier 2 when the identifier 23 is 1 [m] apart
Based on the diameter (Dstd) in units of 3 pixels,

【0051】[0051]

【数1】 [Equation 1]

【0052】の演算を実行することによりその識別体2
3までの距離L1を算出する。
The identifier 2 is obtained by executing the operation of
The distance L1 to 3 is calculated.

【0053】さらに比較・演算部33は、検出した識別
体23のIDと、(1)式の演算により得られたその識
別体23までの距離L1と、識別体情報信号S11に基
づき得られる画像内における識別体23の位置とを識別
体検出信号S12としてそのロボツト3A〜3C全体の
行動を司る最上位のCPU36に送出する。
Further, the comparison / calculation unit 33 detects the ID of the discriminator 23, the distance L1 to the discriminator 23 obtained by the calculation of the equation (1), and the image obtained based on the discriminant information signal S11. The position of the discriminator 23 in the inside is sent as a discriminant detection signal S12 to the highest CPU 36 which controls the behavior of the entire robot 3A to 3C.

【0054】このようにしてこのロボツト3A〜3Cに
おいては、CPU36が識別体検出信号S12に基づい
て他のロボツト3A〜3Cの位置を認識することがで
き、かくして認識結果に基づいてより周囲の状況に応じ
た行動をとることができるようになされている。
In this way, in the robots 3A to 3C, the CPU 36 can recognize the positions of the other robots 3A to 3C based on the identification object detection signal S12, and thus the surrounding situation based on the recognition result. It is designed to be able to take actions according to.

【0055】(1−2)色抽出部の構成 ここで一般的に、画像信号に基づく画像内の各色は、当
該画像信号に含まれる2つの色差信号(R−Y、B−
Y)のうちの一方の第1の色差信号の信号レベルUをX
軸にとり、他方の第2の色差信号の信号レベルVをY軸
にとつたUV平面上の点として表すことができる。ただ
し同じ色でも照明の条件等によりUV平面上での位置が
多少変化する。
(1-2) Structure of Color Extraction Unit Generally, each color in the image based on the image signal has two color difference signals (RY, B- included in the image signal).
Y), the signal level U of the first color difference signal
On the axis, the signal level V of the other second color difference signal can be represented as a point on the UV plane along the Y axis. However, even with the same color, the position on the UV plane will change slightly depending on the lighting conditions.

【0056】そこで図5に示すように、UV平面におい
て長方形のエリア40を考え、画素の第1及び第2の色
差レベルU、Vがエリア40の中に入つたときにその画
素が抽出しようとしている色であると判定し、かつ照明
条件等の変化に対応させるためその画素の輝度レベルY
によつてエリア40を移動させることによつて、精度良
く画像信号に基づく画像内の対応する色の画素を抽出す
ることができる。
Therefore, as shown in FIG. 5, considering a rectangular area 40 in the UV plane, when the first and second color difference levels U and V of the pixel enter the area 40, the pixel is to be extracted. Luminance level Y of the pixel in order to determine that the color is a certain color and to respond to changes in lighting conditions and the like.
Thus, by moving the area 40, it is possible to accurately extract the pixel of the corresponding color in the image based on the image signal.

【0057】この場合エリア40を指定するには、第1
及び第2の色差レベルU、Vの上限値a1 、b1 及び下
限値a2 、b2 を抽出すべき色に応じて決めれば良く、
またエリア40を輝度レベルYによつて移動させるに
は、予め輝度レベルY毎に第1及び第2の色差レベル
U、Vの上限値a1 、b1 及び下限値a2 、b2 をそれ
ぞれ計算し決定してテーブルを作成し、当該テーブルと
実際の画素の輝度レベルYとに基づいて第1及び第2の
色差レベルU、Vの上限値a1 、b1 及び下限値a2
2 を変化させるようにすれば良い。
In this case, to specify the area 40, the first
And the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the second color difference levels U and V may be determined according to the color to be extracted,
In order to move the area 40 according to the brightness level Y, the upper limit values a 1 and b 1 and the lower limit values a 2 and b 2 of the first and second color difference levels U and V are respectively set in advance for each brightness level Y. A table is created by calculating and determining, and based on the table and the brightness level Y of the actual pixel, the upper and lower limits a 1 and b 1 and the lower limit a 2 of the first and second color difference levels U and V,
It suffices to change b 2 .

【0058】以上の点を考慮し、各ロボツト3A〜3C
の個体識別部30の各色抽出部31A〜31Uは、図6
に示すように構成されている。
In consideration of the above points, each of the robots 3A to 3C
The color extracting units 31A to 31U of the individual identifying unit 30 of FIG.
It is configured as shown in.

【0059】すなわち色抽出部31A〜31Uにおいて
は、カメラ16から供給される画像信号S1を分離回路
41に入力し、当該分離回路41において画像信号S1
を輝度信号S20及び2つの色差信号(R−Y、B−
Y)S21A、S21Bに分離する。
That is, in the color extraction units 31A to 31U, the image signal S1 supplied from the camera 16 is input to the separation circuit 41, and the separation circuit 41 concerned outputs the image signal S1.
Luminance signal S20 and two color difference signals (RY, B-
Y) Separate into S21A and S21B.

【0060】この場合輝度信号S20は、アナログ/デ
イジタル変換回路42において所定の第1の周期でサン
プリングされることにより、各画素にそれぞれ対応する
輝度データD1に順次変換され、この後第1〜第4のメ
モリ44A〜44Dに供給される。
In this case, the luminance signal S20 is sequentially converted into the luminance data D1 corresponding to each pixel by being sampled in the analog / digital conversion circuit 42 at a predetermined first cycle, and then the first to the first. 4 memories 44A to 44D.

【0061】また2つの色差信号S21A、S21Bの
うち一方の第1の色差信号S21Aは、アナログ/デイ
ジタル変換回路43Aにおいて上述の第1の周期でサン
プリングされることにより、各画素にそれぞれ対応する
第1の色差データD2Aに順次変換された後第1及び第
2の比較回路45A、45Bに供給されると共に、他方
の第2の色差信号S21Bは、アナログ/デイジタル変
換回路43Bにおいて上述の第1の周期でサンプリング
されることにより、各画素にそれぞれ対応する第2の色
差データD2Bに順次変換された後第3及び第4の比較
回路45C、45Dに供給される。
Further, one of the two color difference signals S21A and S21B, the first color difference signal S21A is sampled at the above-described first period in the analog / digital conversion circuit 43A, and thus the first color difference signal S21A corresponding to each pixel is obtained. One color difference data D2A is sequentially converted and then supplied to the first and second comparison circuits 45A and 45B, and the other second color difference signal S21B is supplied to the analog / digital conversion circuit 43B. The second color difference data D2B corresponding to each pixel is sequentially converted by being sampled in a cycle, and then supplied to the third and fourth comparison circuits 45C and 45D.

【0062】このとき第1及び第2のメモリ44A、4
4Bには、その色抽出部31A〜31Uが抽出すべき色
に対応させて、それぞれ画素の輝度データD1の値(す
なわち輝度レベルY)毎の第1の色差データD2Aの値
(すなわち第1の色差レベルU)の上限値a1 又は下限
値a2 がテーブルとして格納されると共に、第3及び第
4のメモリ44C、44Dには、それぞれ画素の輝度デ
ータD1の値毎の第2の色差データD2Bの値(すなわ
ち第2の色差レベルV)の上限値b1 又は下限値b2
テーブルとして格納されている。なおこれらの上限値a
1 、b1 及び下限値a2 、b2 は、画素の輝度レベルY
をアドレスとしてアドレスバス46及びデータバス47
を介して上述した最上位のCPU36により設定され
る。
At this time, the first and second memories 44A, 4
4B, the value of the first color difference data D2A (that is, the first color difference data D2A for each value of the luminance data D1 of the pixel (that is, the luminance level Y) is associated with the color to be extracted by the color extracting units 31A to 31U. The upper limit value a 1 or the lower limit value a 2 of the color difference level U) is stored as a table, and second color difference data for each value of the luminance data D1 of the pixel is stored in the third and fourth memories 44C and 44D. The upper limit value b 1 or the lower limit value b 2 of the value of D2B (that is, the second color difference level V) is stored as a table. Note that these upper limit values a
1 and b 1 and the lower limit values a 2 and b 2 are the brightness level Y of the pixel.
Address as an address bus 46 and data bus 47
Is set by the highest CPU 36 described above.

【0063】また第1〜第4のメモリ44A〜44D
は、それぞれ供給される輝度データD1の値をアドレス
として予め格納されたテーブルの中から対応する設定値
を出力するようになされている。
The first to fourth memories 44A to 44D are also provided.
Is configured to output a corresponding set value from a table stored in advance using the value of the brightness data D1 respectively supplied as an address.

【0064】かくして色抽出部31A〜31Uにおいて
は、第1及び第2のメモリ44A〜44Dからそれぞれ
各画素毎に輝度データD1の値に応じた予め設定された
第1の色差レベルの上限値a1 又は下限値a2 が出力さ
れると共に、第3及び第4のメモリ44C、44Dから
それぞれ各画素毎に輝度データD1の値に応じた予め設
定された第2の色差レベルの上限値b1 及び下限値b2
が出力され、これらがそれぞれ対応する第1〜第4の比
較回路45A〜45Dに供給される。
Thus, in the color extracting units 31A to 31U, the upper limit value a of the preset first color difference level a corresponding to the value of the luminance data D1 is set for each pixel from the first and second memories 44A to 44D. 1 or the lower limit value a 2 is output, and the upper limit value b 1 of the preset second color difference level corresponding to the value of the luminance data D1 is set for each pixel from the third and fourth memories 44C and 44D. And the lower limit value b 2
Are supplied to the corresponding first to fourth comparison circuits 45A to 45D.

【0065】第1〜第4の比較回路45A〜45Dにお
いては、それぞれ対応する第1〜第3又は第4のメモリ
44A〜44Dの出力と、順次供給される画素毎の第1
又は第2の色差データD2A、D2Bの値とをそれぞれ
順次比較し、比較結果を順次判定回路48に送出する。
In the first to fourth comparison circuits 45A to 45D, the outputs of the corresponding first to third or fourth memories 44A to 44D and the first to pixel sequentially supplied to each pixel.
Alternatively, the values of the second color difference data D2A and D2B are sequentially compared, and the comparison result is sent to the determination circuit 48 in sequence.

【0066】判定回路48は、例えばアンド回路構成で
なり、各第1〜第4の比較回路45A〜45Dの出力に
基づいて、その画素が第1〜第4のメモリ44A〜44
D内にそれぞれ格納された第1又は第2の色差レベル
U、Vの上限値a1 、b1 又は下限値a2 、b2 により
決定されるエリア40(図5)内に入つているか否かを
判定し、入つている場合には「1」、入つていない場合
には「0」をフレームメモリ49内のその画素に対応す
る位置に格納する。
The determination circuit 48 has, for example, an AND circuit configuration, and the pixel thereof is based on the output of each of the first to fourth comparison circuits 45A to 45D.
Whether it is within the area 40 (FIG. 5) determined by the upper limit values a 1 and b 1 or the lower limit values a 2 and b 2 of the first or second color difference levels U and V respectively stored in D Whether or not it is "1" is stored in the frame memory 49, and "0" is stored in the frame memory 49 at a position corresponding to the pixel.

【0067】かくしてフレームメモリ49からは、その
色抽出部31A〜31Uが抽出すべき色の画素に対応す
る部分のみが論理「1」レベルに立ち上がつた色抽出信
号S10A〜S10Uが出力される。
Thus, the frame memory 49 outputs the color extraction signals S10A to S10U in which only the portions corresponding to the pixels of the colors to be extracted by the color extraction units 31A to 31U are raised to the logic "1" level. .

【0068】このようにして各色抽出部31A〜31U
は、画像信号S1に基づく画像の中から対応する色の画
素を抽出し得るようになされ、かくして得られた色抽出
信号S10A〜S10Uを上述のように色パターン検出
部32(図4)に送出するようになされている。
In this way, the color extracting units 31A to 31U
Is adapted to extract pixels of the corresponding color from the image based on the image signal S1, and the color extraction signals S10A to S10U thus obtained are sent to the color pattern detection unit 32 (FIG. 4) as described above. It is designed to do.

【0069】(1−3)第1実施例の動作及び効果 以上の構成において、この個体識別システム1の場合、
各ロボツト3A〜3Cは、カメラ16により撮像された
識別体23の色パターンと、カメラ16から供給される
画像信号S1に基づく画像内の位置と、画素を単位とす
る直径とを個体識別部30の色抽出部31A〜31U及
び色パターン検出部32により検出し、当該検出された
識別体23の色パターンと、第1のメモリ34内に格納
された各識別体23の色パターン及びそのIDに関する
テーブルに基づいて撮像した識別体23のID(ロボツ
ト3A〜3Cの個体)を検出すると共に、色パターン検
出部32により検出された識別体23の画素を単位とす
る直径と、第2のメモリ35内に格納された基準値とに
基づいてその識別体23までの距離L1を算出し、検出
したその識別体23のIDと、その識別体23までの距
離L1と、画像内におけるその識別体23の位置とをそ
れぞれそのロボツト3A〜3Cの行動を司る最上位のC
PU36に送出する。
(1-3) Operation and effects of the first embodiment With the above configuration, in the case of this individual identification system 1,
Each of the robots 3A to 3C includes a color pattern of the identification body 23 imaged by the camera 16, a position in the image based on the image signal S1 supplied from the camera 16, and a diameter in units of pixels as the individual identification unit 30. The color patterns of the identification bodies 23 detected by the color extraction units 31A to 31U and the color pattern detection unit 32, the color patterns of the identification bodies 23 stored in the first memory 34, and the IDs thereof. The ID of the discriminator 23 (individuals of the robots 3A to 3C) picked up based on the table is detected, the diameter of the discriminator 23 detected by the color pattern detection unit 32 as a unit, and the second memory 35. The distance L1 to the discriminant 23 is calculated based on the reference value stored in the ID, the detected ID of the discriminator 23, the distance L1 to the discriminator 23, and As the uppermost governs the position and the behavior of the robot 3A~3C respective identification member 23 C to definitive
It is sent to the PU 36.

【0070】従つてこの個体識別システム1では、各ロ
ボツト3A〜3Cの最上位のCPUがそれぞれ周囲に位
置する他のロボツト3A〜3Cの個体と、そのロボツト
3A〜3Cまでの距離L1及び方向とを精度良く認識す
ることができる。
Therefore, in this individual identification system 1, the individual CPUs of the other robots 3A to 3C around which the highest CPUs of the robots 3A to 3C are respectively located, and the distances L1 and directions to the robots 3A to 3C. Can be accurately recognized.

【0071】またこの個体識別システム1では、各ロボ
ツト3A〜3Cの識別体23を例えばピンポン球のよう
なものに色を塗ることによつて作製することができるた
め、極めて安価に構築することができる。
Further, in this individual identification system 1, since the identification bodies 23 of the respective robots 3A to 3C can be produced by coloring a thing such as a ping-pong ball, it can be constructed at an extremely low cost. it can.

【0072】さらにこの個体識別システム1では、各ロ
ボツト3A〜3Cが他のロボツト3A〜3Cの個体を識
別し得るようにする手段として特別な信号を利用してい
ないため、周辺機器に悪影響を与えたり、電波法規に基
づく規制を受けたりすることがない。
Further, in this individual identification system 1, since each robot 3A to 3C does not use a special signal as a means for identifying the individual of the other robots 3A to 3C, it adversely affects the peripheral equipment. Or be regulated under the Radio Law.

【0073】さらにこの個体識別システム1では、上述
のように識別体23が球状であり、また複数の識別色を
ロボツト3A〜3Cの移動方向と垂直な方向に帯状に塗
られているため、ロボツト3A〜3Cが移動する領域2
がほぼ平坦である限りにおいて、識別体23をどの方向
から見ても同じ形状及び同じ色パターンに見ることがで
き、かくして各ロボツト3A〜3Cが他のロボツト3A
〜3Cの個体を容易かつ確実に識別することができる。
Further, in the individual identifying system 1, the identifying body 23 is spherical as described above, and a plurality of identifying colors are applied in a strip shape in the direction perpendicular to the moving directions of the robots 3A to 3C, so that the robot is formed. Area 2 where 3A to 3C move
As long as it is substantially flat, the discriminator 23 can be seen to have the same shape and the same color pattern when viewed from any direction.
Individuals of ~ 3C can be easily and reliably identified.

【0074】さらにこの個体識別システム1では、各ロ
ボツト3A〜3Cの識別体23が表面を単色ではなく複
数色を塗り分けるようにして構成されているため、色の
組み合わせ方によつて多数のロボツト3A〜3Cを識別
し得るようにすることができる。この場合識別色として
原色などの色合いの大きく異なる色だけを用いても、組
み合わせの数を多くすることができるため、微妙な色の
違いから個体識別を行う場合に比べて、照明条件等に影
響を受け難い利点がある。
Further, in this individual identification system 1, since the identification bodies 23 of the respective robots 3A to 3C are configured such that the surface is painted in a plurality of colors instead of a single color, a large number of robots can be selected depending on the combination of colors. 3A to 3C can be identified. In this case, it is possible to increase the number of combinations even if only the colors with largely different hues such as primary colors are used as the identification colors, so the lighting conditions are affected more than when individual identification is performed due to the subtle color differences. There is an advantage that is hard to receive.

【0075】以上の構成によれば、各ロボツト3A〜3
Cに、それぞれ互いに異なる色パターンの識別体23を
取り付ける一方、各ロボツト3A〜3Cにおいて、カメ
ラ16により撮像された識別体23の色パターンと、カ
メラ16から供給される画像信号S1に基づく画像内で
の位置及び直径とをそれぞれ検出し、当該検出結果と、
第1のメモリ34内に予め格納された各識別体23の色
パターン及びそのIDに関するテーブルとに基づいて撮
像した識別体23のIDを検出すると共に、検出された
画像信号S1に基づく画像内での識別体23の直径と、
第2のメモリ35内に格納された基準値とに基づいてそ
の識別体23までの距離L1を算出するようにしたこと
により、各ロボツト3A〜3Cがそれぞれ他のロボツト
3A〜3Cの個体を容易かつ確実に識別することがで
き、かくしてロボツト3A〜3Cの個体を確実に認識し
得る簡易な構成の個体識別システム及びロボツトを実現
できる。
According to the above configuration, each of the robots 3A-3
While the identification bodies 23 having different color patterns are attached to C, in each of the robots 3A to 3C, the color pattern of the identification body 23 imaged by the camera 16 and the image based on the image signal S1 supplied from the camera 16 The position and the diameter at, respectively, and the detection result,
The ID of the imaged identification body 23 is detected based on the color pattern of each identification body 23 stored in advance in the first memory 34 and a table relating to the ID, and the detected image signal S1 is detected in the image. The diameter of the identification body 23 of
Since the distance L1 to the discriminator 23 is calculated based on the reference value stored in the second memory 35, each of the robots 3A to 3C facilitates the individual of the other robots 3A to 3C. In addition, it is possible to surely identify, and thus it is possible to realize an individual identification system and a robot having a simple configuration capable of reliably recognizing the individuals of the robots 3A to 3C.

【0076】(2)第2実施例 (2−1)第2実施例による個体識別システムの全体構
成 図7及び図8は、第2実施例による個体識別システム5
0を示すものであり、図2(A)との対応部分に同一符
号を付した図9に示すように、各ロボツト51A〜51
Cの胴体部10の上面にそれぞれ識別シール52が貼り
付けられている。
(2) Second Embodiment (2-1) Overall Configuration of Individual Identification System According to Second Embodiment FIGS. 7 and 8 show an individual identification system 5 according to the second embodiment.
0, and as shown in FIG. 9 in which parts corresponding to those in FIG.
Identification seals 52 are attached to the upper surfaces of the C body portions 10, respectively.

【0077】この場合各ロボツト51A〜51Cの識別
シール52は、図10に示すように、それぞれその表面
が順次隣接する所定数(例えば6個)の帯状領域52A
〜52Fに分けられ、これら各帯状領域52A〜52F
がそれぞれ識別のために選定された複数色のうちのいず
れかの色に着色されることにより構成されている。また
識別シール52の表面の各帯状領域52A〜52Fを着
色する色の組み合わせ(色パターン)は識別シール52
毎に異なるパターンに選定されており、かくして識別シ
ール52の色パターンに基づいてそのロボツト51A〜
51Cの個体を識別し得るようになされている。
In this case, as shown in FIG. 10, the identification seal 52 of each of the robots 51A to 51C has a predetermined number (for example, 6) of strip-shaped regions 52A whose surfaces are successively adjacent to each other.
To 52F, and each of these strip-shaped regions 52A to 52F.
Are colored with any one of a plurality of colors selected for identification. The combination (color pattern) of colors for coloring the strip-shaped areas 52A to 52F on the surface of the identification sticker 52 is the identification sticker 52.
A different pattern is selected for each, and thus the robots 51A ...
51C individuals can be identified.

【0078】一方図7及び図8からも明らかなように、
領域2の上方には当該領域2全体を1画面内に撮影し得
るようにカメラ53が配設されており、当該カメラ53
から出力された画像信号S30が領域2の外部に配設さ
れた個体識別部54に供給されるようになされている。
On the other hand, as is clear from FIGS. 7 and 8,
A camera 53 is arranged above the area 2 so that the entire area 2 can be photographed within one screen.
The image signal S30 output from is supplied to the individual identification unit 54 provided outside the area 2.

【0079】この場合個体識別部54には、図4との対
応部分に同一符号を付して示す図11に示すように、識
別のための色の数に応じた数(16色とする)の色抽出部
31A〜31Uが設けられており、これら色抽出部31
A〜31Uからそれぞれ出力される色抽出信号S10A
〜S10Uがそれぞれ色パターン検出部55に送出され
る。
In this case, in the individual identifying section 54, as shown in FIG. 11 in which parts corresponding to those in FIG. 4 are assigned the same reference numerals, a number (16 colors) corresponding to the number of colors for identification. Of the color extracting units 31A to 31U.
Color extraction signals S10A respectively output from A to 31U
~ S10U are sent to the color pattern detection unit 55, respectively.

【0080】色パターン検出部55は、供給される各色
抽出信号S10A〜S10Uに基づく各画像を重ね合わ
せて走査することにより当該画像内において識別のため
の色が帯状に所定数並んでいる部分を検出し、その部分
をロボツト51A〜51Cの識別シール52と判定し
て、その識別シール52の色パターンと、画像内におけ
る画素を単位とする位置とを識別シール検出信号S31
として比較・演算部56に送出する。なおこの場合領域
2内に位置するロボツト51A〜51Cの数だけ識別シ
ール52が検出され、各識別シール52の色パターンと
画像内における位置とがそれぞれ比較・演算部56に送
出される。
The color pattern detection unit 55 scans the images based on the supplied color extraction signals S10A to S10U by superimposing them on each other to scan a portion where a predetermined number of colors for identification are arranged in strips in the image. It is detected and that portion is determined as the identification sticker 52 of the robot 51A to 51C, and the color pattern of the identification sticker 52 and the position in the image in units of pixels are used as the identification sticker detection signal S31.
Is sent to the comparison / calculation unit 56. In this case, the identification stickers 52 are detected by the number of the robots 51A to 51C located in the area 2, and the color patterns of the identification stickers 52 and the positions in the image are sent to the comparison / calculation unit 56, respectively.

【0081】比較・演算部56は、供給される識別シー
ル検出信号S31に基づき得られる各識別シール52の
色パターンと、予めメモリ57内に格納されている各識
別シール52の色パターン及びそのIDに関するテーブ
ルとに基づいて、カメラ53からの画像信号S30に基
づく画像内の各識別シール52のID(すなわち各ロボ
ツト51A〜51Cの個体)を検出し、かくして得られ
た各識別シール52のID及びその領域2内における位
置情報をロボツト位置検出信号S32として送信部58
を介して領域2内を移動する各ロボツト51A〜51C
に電波により送信する。
The comparison / calculation unit 56 determines the color pattern of each identification sticker 52 obtained based on the supplied identification sticker detection signal S31, the color pattern of each identification sticker 52 stored in the memory 57 in advance, and its ID. The ID of each identification seal 52 in the image based on the image signal S30 from the camera 53 (that is, the individual individual robots 51A to 51C) is detected based on the table of FIG. The position information in the area 2 is sent to the transmitter 58 as a robot position detection signal S32.
Each robot 51A to 51C moving in the area 2 via
To the radio wave.

【0082】各ロボツト51A〜51Cにおいては、図
3との対応部分に同一符号を付した図12に示すよう
に、個体識別部54の発信部58から発信された電波を
アンテナ60を介して受信部61において受信し、得ら
れた各識別シール52のID(すなわち各ロボツト51
A〜51Cの個体)及び領域2内におけるその位置情報
を受信信号S33として制御部62に送出する。
In each of the robots 51A to 51C, as shown in FIG. 12 in which the parts corresponding to those in FIG. 3 are assigned the same reference numerals, the radio waves transmitted from the transmitter 58 of the individual identifying section 54 are received via the antenna 60. The ID of each identification seal 52 received by the unit 61 (that is, each robot 51
The individual information items A to 51C) and their position information in the area 2 are sent to the control unit 62 as a reception signal S33.

【0083】このとき制御部62には、カメラ16から
画像信号1が供給されると共に、マイクロホン17から
音声信号S2が供給され、かつ各接触センサ18A〜1
8Zからセンサ信号S3A〜S3Zが供給される。
At this time, the control section 62 is supplied with the image signal 1 from the camera 16 and the audio signal S2 from the microphone 17, and the contact sensors 18A to 18A-1.
The sensor signals S3A to S3Z are supplied from 8Z.

【0084】かくして制御部62は、供給される画像信
号S1、音声信号S2、各センサ信号S3A〜3Z及び
受信信号S33に基づいて周囲の環境と、領域2内にお
ける自分を含めた各ロボツト51A〜51Cの位置とを
認識し得、認識結果に基づいて自分で行動を決定し、決
定結果に基づいて対応する各アクチユエータ21A〜2
1Jを駆動させる。
Thus, the control unit 62, based on the supplied image signal S1, audio signal S2, sensor signals S3A to 3Z and received signal S33, the surrounding environment and the robots 51A to 51A including itself in the area 2. The position of 51C can be recognized, the action can be determined by itself based on the recognition result, and the corresponding actuators 21A to 21A-2 can be determined based on the determination result.
Drive 1J.

【0085】このようにして各ロボツト51A〜51C
は、それぞれ周囲の環境と、領域2内を移動する自分を
含めた全てのロボツト51A〜51Cの位置とを認識
し、認識結果に基づいて自律的に行動し得るようになさ
れている。
In this way, each of the robots 51A to 51C is
Recognizes the surrounding environment and the positions of all the robots 51A to 51C including the one moving in the area 2 and can act autonomously based on the recognition result.

【0086】(2−2)第2実施例の動作及び効果 以上の構成において、この個体識別システム50では、
領域2全体をその上方からカメラ53により撮像し、得
られた画像信号S30に基づいて、領域2の外部に配設
された個体識別部54により画像信号S30に基づく画
像内の各識別シール52の位置を各色抽出部31A〜3
1U及び色パターン検出部55により検出し、当該検出
結果と、メモリ57内に格納された各識別シール52の
色パターン情報とから画像内における各識別シール52
の位置及びIDを検出し、検出結果を送信部58を介し
て領域2内の各ロボツト51A〜51Cに送信する。
(2-2) Operation and effects of the second embodiment With the above configuration, in the individual identification system 50,
The entire area 2 is imaged from above by a camera 53, and based on the obtained image signal S30, an individual identification unit 54 disposed outside the area 2 detects each identification seal 52 in the image based on the image signal S30. The position of each color extraction unit 31A-3
1U and the color pattern detection unit 55 detects, and from the detection result and the color pattern information of each identification label 52 stored in the memory 57, each identification label 52 in the image.
Position and ID are detected, and the detection result is transmitted to each of the robots 51A to 51C in the area 2 via the transmission unit 58.

【0087】一方各ロボツト51A〜51Cにおいて
は、個体識別部54から送信される各ロボツト51A〜
51Cの領域2内における位置情報と、カメラ16から
供給される画像信号S1と、マイロクホン17から供給
される音声信号S2と、各接触センサ18A〜18Zか
らそれぞれ供給されるセンサ信号S3A〜S3Zとに基
づいて周囲の状況及び各ロボツト51A〜51Cの位置
を認識し、認識結果に基づいて自律的に行動する。
On the other hand, in each of the robots 51A to 51C, each of the robots 51A to 51C transmitted from the individual identifying section 54.
The position information in the area 2 of 51C, the image signal S1 supplied from the camera 16, the audio signal S2 supplied from the mylophone 17, and the sensor signals S3A to S3Z supplied from the contact sensors 18A to 18Z, respectively. Based on the surrounding conditions and the positions of the robots 51A to 51C, the robot autonomously acts based on the recognition result.

【0088】従つてこの個体識別システム50では、各
ロボツト51A〜51Cが領域2内における他のロボツ
ト51A〜51C及び自分自身の絶対的な位置を確実に
認識することができる。
Therefore, in this individual identification system 50, each of the robots 51A to 51C can surely recognize the absolute positions of the other robots 51A to 51C in the area 2 and itself.

【0089】またこの個体識別システム50では、各ロ
ボツト51A〜51Cに対する処置としては、それぞれ
アンテナ60及び受信部61を配設すると共に識別シー
ル52を貼り付けるだけで良いため、各ロボツト51A
〜51Cの構成を第1実施例の各ロボツト3A〜3C
(図2(A))に比べてより簡易化することができる。
またシステム全体としても、領域2全体を撮像するため
のカメラ53及び個体識別部54が必要となるが、これ
はロボツト51A〜51Cの台数によらず一組で良いた
め、第1実施例に比べて構成を簡易化することができ
る。
Further, in the individual identification system 50, as a treatment for each of the robots 51A to 51C, it is sufficient to dispose the antenna 60 and the receiving section 61 and attach the identification seal 52, respectively.
To 51C, each of the robots 3A to 3C of the first embodiment.
This can be simplified compared to (FIG. 2 (A)).
Also, the system as a whole requires a camera 53 and an individual identification unit 54 for picking up an image of the entire area 2. However, since this may be one set regardless of the number of robots 51A to 51C, compared to the first embodiment. The configuration can be simplified.

【0090】またこの個体識別システム50では、識別
シール52の表面を単色ではなく複数の色で塗り分けて
いるため、色の組み合わせ方によつて容易に多数のロボ
ツト51A〜51Cを識別し得るようにすることができ
る。この場合識別のための色として、原色などの色合い
の大きく異なる色を用いたとしても、組み合わせ数を多
くすることができるため、単色を用いて微妙な色の違い
から個体識別を行う場合に比べて、照明条件などの影響
を受け難い利点がある。
Further, in the individual identification system 50, the surface of the identification sticker 52 is painted in a plurality of colors instead of a single color, so that a large number of robots 51A to 51C can be easily identified by the combination of colors. Can be In this case, as a color for identification, even if a color such as a primary color that greatly differs in hue is used, the number of combinations can be increased, so compared to the case of performing individual identification from a subtle color difference using a single color. Therefore, there is an advantage that it is not easily affected by lighting conditions.

【0091】さらにこの個体識別システム50では、領
域2内の各ロボツト51A〜51CのID及び位置を個
体識別部54において集中的に認識することができるた
め、これを記憶しておくことによつて各ロボツト51A
〜51Cの行動の記録として各ロボツト51A〜51C
をそれぞれ制御するプログラムの評価や改良に利用する
ことができる。
Further, in the individual identifying system 50, the IDs and positions of the robots 51A to 51C in the area 2 can be intensively recognized by the individual identifying unit 54, and therefore, by storing them. Each robot 51A
Each robot 51A to 51C as a record of the actions of
It can be used for evaluation and improvement of the programs that control each.

【0092】さらにこの個体識別システム50では、各
ロボツト51A〜51Cの視覚を利用していないため、
各ロボツト51A〜51Cの視覚処理能力が低い場合
や、各ロボツト51A〜51Cが視覚を全く備えていな
い場合でも適用することができる利点もある。
Further, since the individual identification system 50 does not utilize the sights of the robots 51A to 51C,
There is also an advantage that it can be applied even when the visual processing capability of each of the robots 51A to 51C is low, or when each of the robots 51A to 51C has no visual sense.

【0093】以上の構成によれば、ロボツト51A〜5
1Cの行動領域2全体をその上方からカメラ53により
撮像し、得られた画像信号S30に基づく画像内の各識
別シール52の位置を検出し、当該検出結果と、メモリ
57内に格納された各識別シール52の色パターン情報
とから画像内における各識別シール52のID及び位置
を検出し、当該検出結果を領域2内の各ロボツト51A
〜51Cに送信するようにしたことにより、領域2内を
移動する各ロボツト51A〜51Cの絶対的な位置を精
度良く検出することができ、かくして行動領域2内にお
ける各ロボツト51A〜51Cを確実に識別し得る簡易
な構成の個体識別システム及びロボツトを実現できる。
According to the above configuration, the robots 51A-5
The whole action area 2 of 1C is imaged from above by the camera 53, the position of each identification seal 52 in the image based on the obtained image signal S30 is detected, and the detection result and each stored in the memory 57 are detected. The ID and position of each identification sticker 52 in the image are detected from the color pattern information of the identification sticker 52, and the detection result is used for each robot 51A in the area 2.
.. to 51C, the absolute positions of the robots 51A to 51C moving in the area 2 can be accurately detected, and thus the robots 51A to 51C in the action area 2 can be reliably detected. It is possible to realize an individual identification system and a robot having a simple configuration that can be identified.

【0094】(3)第3実施例 (3−1)第3実施例による位置検出システムの全体構
成 図2(A)との対応部分に同一符号を付して示す図13
は、本発明を適用した位置検出システム70を示すもの
であり、ロボツト71の行動領域2の周囲に沿つて所定
高さの壁72が設けられている。
(3) Third Embodiment (3-1) Overall Configuration of Position Detection System According to Third Embodiment FIG. 13 in which parts corresponding to those in FIG.
Shows a position detection system 70 to which the present invention is applied, and a wall 72 having a predetermined height is provided along the periphery of the action area 2 of the robot 71.

【0095】この場合壁72の内壁面72Aは、領域2
の各辺に沿う壁面72AA〜72ADごとにそれぞれ互
いに異なる色が塗られており、かくして塗られた色に基
づいてその壁面72AA〜72ADがどの壁面72AA
〜72ADかを容易に判別し得るようになされている。
In this case, the inner wall surface 72A of the wall 72 is the area 2
Different colors are applied to the wall surfaces 72AA to 72AD along the respective sides, and which wall surface 72AA to 72AD is based on the applied color.
.About.72AD can be easily discriminated.

【0096】一方ロボツト71は、第1実施例のロボツ
ト3A〜3C(図2(A)、図3)の制御部19(図
3)内に個体識別部30(図4)に代えて図15に示す
ような壁識別部80が設けられていることを除いて第1
実施例のロボツト3A〜3Cと同様に構成されている。
On the other hand, the robot 71 is shown in FIG. 15 in place of the individual identification unit 30 (FIG. 4) in the control unit 19 (FIG. 3) of the robots 3A to 3C (FIGS. 2A and 3) of the first embodiment. First, except that a wall identification portion 80 as shown in FIG.
It is constructed similarly to the robots 3A to 3C of the embodiment.

【0097】この場合壁識別部80には、領域2の各辺
に沿う壁面72AA〜72ADの数(4面とする)だけ
色抽出部31A〜31Dが設けられており、カメラ16
から供給される画像信号S1を各色抽出部31A〜31
Dにそれぞれ入力するようになされている。
In this case, the wall identifying section 80 is provided with the color extracting sections 31A to 31D as many as the number of wall surfaces 72AA to 72AD along each side of the area 2 (four surfaces), and the camera 16 is provided.
The image signal S1 supplied from the color extraction units 31A to 31
It is designed to input to D respectively.

【0098】この結果各色抽出部31A〜31Dから
は、それぞれ画像信号S1に基づく画像内の画素のうち
の対応する色の画素に対応する部分が論理「1」レベル
に立ち上がり、他の色の画素に対応する部分が論理
「0」レベルに立ち下がつた色抽出信号S10A〜S1
0Dが出力され、これが壁検出部81に供給される。な
お各色抽出部31A〜31Dは、それぞれ各壁面72A
A〜72ADに塗られた識別のための複数の色の中から
互いに異なる1色だけを抽出する。
As a result, from each of the color extracting units 31A to 31D, the portion corresponding to the pixel of the corresponding color among the pixels in the image based on the image signal S1 rises to the logic "1" level and the pixels of the other colors are displayed. The color extraction signals S10A to S1 in which the portion corresponding to
0D is output and supplied to the wall detection unit 81. In addition, each of the color extraction units 31A to 31D includes each of the wall surfaces 72A.
Only one color different from each other is extracted from the plurality of colors for identification applied to A to 72AD.

【0099】壁検出部81は、各色抽出部31A〜31
Dからそれぞれ供給される色抽出信号S10A〜S10
Dに基づく画像を重ね合わせて走査することにより、ほ
ぼ水平な同色の細長い領域をいずれかの壁面72AA〜
72ADと判断すると共に、その壁面72AA〜72A
Dに塗布された色を検出し、かつ画像信号S1に基づく
画像内におけるその壁面72AA〜72ADの高さを画
素を単位として検出し、これら得られたその壁面72A
A〜72ADの色と画像内における高さとを壁検出信号
S40として比較・演算部82に送出する。
The wall detecting section 81 has the color extracting sections 31A to 31A.
Color extraction signals S10A to S10 respectively supplied from D
By overlapping and scanning the images based on D, a substantially horizontal elongated area of the same color is formed on one of the wall surfaces 72AA to 72AA.
The wall surface 72AA-72A is judged as 72AD
The color applied to D is detected, and the heights of the wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected in units of pixels.
The colors of A to 72AD and the height in the image are sent to the comparison / calculation unit 82 as a wall detection signal S40.

【0100】比較・演算部82は、壁検出信号S40に
基づき得られるその壁面72AA〜72ADの色と、第
1のメモリ83内に予め格納されている各壁面72AA
〜72ADの各色及びそのIDに関するテーブルとに基
づいて、その壁面72AA〜72ADのIDを検索す
る。
The comparison / calculation unit 82 calculates the colors of the wall surfaces 72AA to 72AD obtained based on the wall detection signal S40 and the wall surfaces 72AA stored in advance in the first memory 83.
The IDs of the wall surfaces 72AA to 72AD are searched based on the respective colors of .about.72AD and the table relating to the IDs.

【0101】また比較・演算部82は、壁検出信号S4
0に基づき得られるその壁面72AA〜72ADの画像
内における高さ(Hpicとする)と、第2のメモリ84内
に予め格納されている基準値(ロボツト71が壁面72
AA〜72ADから1〔m〕離れているときの画像内に
おけるその壁面72AA〜72ADの画素を単位とする
高さ(Hstdとする))とに基づいて、次式
Further, the comparison / calculation unit 82 uses the wall detection signal S4.
The height (Hpic) in the image of the wall surfaces 72AA to 72AD obtained based on 0 and the reference value (the robot 71 is the wall surface 72) stored in advance in the second memory 84.
Based on the height of each wall surface 72AA to 72AD in the image at a distance of 1 [m] from AA to 72AD (Hstd),

【0102】[0102]

【数2】 [Equation 2]

【0103】を実行することによりカメラ16からその
壁面72AA〜72ADまでの距離L2を算出する。
The distance L2 from the camera 16 to the wall surfaces 72AA to 72AD of the camera 16 is calculated by executing.

【0104】さらに比較・演算部82は、この後カメラ
16がその壁面(以下、これを第1の壁面と呼ぶ)72
AA〜72ADと異なる壁面(以下、これを第2の壁面
と呼ぶ)72AA〜72ADに向けられた後、同様の処
理を実行することにより第2の壁面72AA〜72AD
のIDと、当該第2の壁面72AA〜72ADまでの距
離L3とを算出する。
Further, in the comparison / calculation unit 82, the wall surface of the camera 16 (hereinafter referred to as the first wall surface) 72
The second wall surfaces 72AA to 72AD are directed to the wall surfaces 72A to 72AD different from AA to 72AD (hereinafter, referred to as second wall surfaces) and then the same processing is performed.
And the distance L3 from the second wall surface 72AA to 72AD.

【0105】さらにこの後比較・演算部82は、上述の
ようにして得られた第1の壁面72AA〜72ADのI
D及び当該第1の壁面72AA〜72ADまでの距離L
2と、第2の壁面72AA〜72ADのID及び当該第
2の壁面72AA〜72ADまでの距離L3と、第3の
メモリ85内に予め格納されている領域2の各辺に沿つ
た各壁面72AA〜72ADの位置を含む領域2の地図
情報とに基づいて領域2内における自分の位置を検出
し、これを位置検出信号S41として当該ロボツト71
の行動を司る最上位のCPU36に送出する。
Further, thereafter, the comparison / arithmetic unit 82 uses the I of the first wall surfaces 72AA to 72AD obtained as described above.
D and the distance L to the first wall surfaces 72AA to 72AD
2, the IDs of the second wall surfaces 72AA to 72AD and the distance L3 to the second wall surfaces 72AA to 72AD, and the wall surfaces 72AA along each side of the area 2 stored in advance in the third memory 85. Based on the map information of the area 2 including the positions of 72 AD to 72 AD, the own position in the area 2 is detected, and this is used as the position detection signal S41.
Is sent to the highest CPU 36 which controls the behavior of

【0106】これによりこのロボツト71においては、
CPU36が位置検出信号S41に基づいて領域2内に
おける自分の位置を認識し得、当該認識結果に基づいて
周囲の状況に応じた行動を自律的にとることができるよ
うになされている。
Thus, in this robot 71,
The CPU 36 can recognize its own position in the area 2 based on the position detection signal S41, and can autonomously take an action according to the surrounding situation based on the recognition result.

【0107】(3−2)第3実施例の動作及び効果 以上の構成において、この位置検出システム70では、
ロボツト71がカメラ16から出力される画像信号S1
に基づいて、周囲の第1及び第2の壁面72AA〜72
ADに塗布された色と、画像信号S1に基づく画像内に
おけるその第1及び第2の壁面72AA〜72ADの高
さHpicとを検出し、当該検出結果と、第1のメモリ83
に予め格納されている各壁面72AA〜72ADの色及
びそのIDと、第2のメモリ84に予め格納されている
基準値Hstdと、第3のメモリ85に予め格納されている
地図情報とに基づいて領域2内における自分の位置を検
出する。
(3-2) Operation and effects of the third embodiment With the above configuration, in the position detecting system 70,
The image signal S1 output from the camera 16 by the robot 71
Based on the first and second wall surfaces 72AA-72
The color applied to AD and the heights Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and the detection result and the first memory 83 are detected.
On the basis of the colors and the IDs of the wall surfaces 72AA to 72AD stored in advance, the reference value Hstd stored in the second memory 84 in advance, and the map information stored in the third memory 85 in advance. Detects its own position in the area 2.

【0108】従つてこの位置検出システム70では、2
つの壁面72AA〜72ADの色及びこれら壁面72A
A〜72ADの画像内における高さHpicからロボツト7
1が領域2内における自分自身の位置を容易かつ精度良
く認識することができる。
Therefore, in this position detecting system 70, 2
The colors of the two wall surfaces 72AA to 72AD and these wall surfaces 72A
Robot 7 from height Hpic in the image of A to 72AD
1 can easily and accurately recognize its own position in the area 2.

【0109】またこの位置検出システム70では、領域
2の各辺に沿つて配置された各壁面72AA〜72AD
にそれぞれ互いに異なる色を塗るだけで良いため、極め
て簡単にシステムを構築することができる。
Further, in this position detection system 70, the wall surfaces 72AA to 72AD arranged along the respective sides of the area 2 are arranged.
Since it is only necessary to apply different colors to each, it is possible to construct a system extremely easily.

【0110】さらにこの位置検出システム70では、電
波などの特別な信号を発信する方法を使用していないた
め、周辺機器への影響や電波法規などを考慮することな
く使用することができ、また領域2の床面に信号発生機
を設置する必要がないため、ロボツト71の移動を妨げ
るおそれもない。
Further, since the position detecting system 70 does not use a method of transmitting a special signal such as a radio wave, the position detecting system 70 can be used without considering the influence on the peripheral equipment and the radio wave regulations, and the area can be used. Since it is not necessary to install a signal generator on the floor of No. 2, there is no risk of obstructing the movement of the robot 71.

【0111】さらにこの位置検出システム70では、ロ
ボツト71の行動領域2の床面に記号や標識等を表記す
る方式ではないため、他の目的のために床面にペイント
などを施すこともできる。
Further, in this position detecting system 70, since the system is not a system in which symbols, signs, etc. are written on the floor of the action area 2 of the robot 71, the floor can be painted for other purposes.

【0112】さらにこの位置検出システム70では、ロ
ボツト71のカメラ16をおおよそ水平方向に向けるこ
とによつて当該ロボツト71の正面の壁面72AA〜7
2ADをカメラ16により撮像することができるため、
ロボツト71が領域2内における自分の位置を検出する
ためにカメラ16を所定方向を向ける必要がなく、また
他のロボツト71をカメラ16でとらえながら領域2内
における自分の位置を検出することができる利点もあ
る。
Further, in this position detecting system 70, the camera 16 of the robot 71 is oriented substantially horizontally so that the front wall surfaces 72AA to 7A of the robot 71 are moved.
Since 2AD can be imaged by the camera 16,
It is not necessary for the robot 71 to point the camera 16 in a predetermined direction in order to detect its own position in the area 2, and it is possible to detect its own position in the area 2 while capturing another robot 71 with the camera 16. There are also advantages.

【0113】以上の構成によれば、ロボツト71の行動
領域2の各辺にそれぞれ沿つて壁面72AA〜72AD
を設けると共に各壁面72AA〜72ADにそれぞれ互
いに異なる色を塗布する一方、ロボツト71が、カメラ
16から出力される画像信号S1に基づいて、当該カメ
ラ16により撮像された少なくとも2以上の壁面72A
A〜72ADの色と、画像信号S1に基づく画像内での
各壁面72AA〜72ADの高さHpicとをそれぞれ検出
し、当該検出結果と、第1のメモリ83に予め格納され
ている各壁面72AA〜72ADの識別色及びそのID
と、第2のメモリ84に予め格納されている基準値Hstd
と、第3のメモリ85に予め格納されている領域2の地
図情報とに基づいて領域2内における自分の位置を検出
するようにしたことにより、ロボツト71が領域2内に
おける自分の位置を精度良く検出することができ、かく
して領域2内における自分自身の位置を精度良く検出し
得る位置検出システム及びロボツトを実現できる。
According to the above configuration, the wall surfaces 72AA to 72AD are provided along the respective sides of the action area 2 of the robot 71.
While applying different colors to the respective wall surfaces 72AA to 72AD, the robot 71 uses at least two wall surfaces 72A imaged by the camera 16 based on the image signal S1 output from the camera 16.
The colors of A to 72AD and the heights Hpic of the wall surfaces 72AA to 72AD in the image based on the image signal S1 are respectively detected, and the detection result and the wall surfaces 72AA stored in advance in the first memory 83. ~ 72AD identification color and its ID
And the reference value Hstd stored in advance in the second memory 84.
By detecting the position of itself in the area 2 based on the map information of the area 2 stored in advance in the third memory 85, the robot 71 can accurately determine its position in the area 2. Therefore, it is possible to realize a position detection system and a robot which can detect the position well and can accurately detect the position of oneself in the area 2.

【0114】(4)第4実施例 (4−1)原理 一般的に色は、色相(Hue )、彩度(Saturation)及び
明度(Intensity )の3つの属性を用いて表すことがで
きる。
(4) Fourth Embodiment (4-1) Principle Generally, a color can be expressed by using three attributes of hue (Hue), saturation (Saturation) and lightness (Intensity).

【0115】この場合これら色相、彩度(飽和度とも呼
ぶ)及び明度の関係は、図16(A)及び(B)に示す
ように、平面上の任意の1点を原点Oとした場合におい
て、色相をこの平面内における原点Oまわりの角度と
し、彩度をこの平面内における原点Oからの距離とし、
かつ明度をこの平面と垂直な方向における原点Oからの
距離とする極座標で表すことができる。なお図16
(B)に示す六角形の各頂点は、それぞれR(赤色)、
Y(黄色)、G(緑色)、C(シアン)、B(青色)及
びM(マゼンダ)に相当する。
In this case, the relationship among the hue, the saturation (also called the saturation) and the lightness is as shown in FIGS. 16A and 16B when the origin O is an arbitrary point on the plane. , Hue is the angle around the origin O in this plane, and saturation is the distance from the origin O in this plane,
In addition, the brightness can be represented by polar coordinates with the distance from the origin O in the direction perpendicular to this plane. Note that FIG.
The vertices of the hexagon shown in (B) are R (red),
It corresponds to Y (yellow), G (green), C (cyan), B (blue) and M (magenta).

【0116】ところで、例えば第1〜第3実施例のよう
に物体(第1実施例における識別体23、第2実施例に
おける識別マーク52及び第3実施例における壁面72
AA〜72AD)に塗られた色の違いによつて物体を識
別するシステムでは、同じ色でも照明条件の変化や、物
体を見る方向などによつて色の見え方が変化する。この
ため例えば第1〜第3実施例では、色を判別する条件に
幅をもたせるようにしてこの変化に対処している。
By the way, an object (identifier 23 in the first embodiment, identification mark 52 in the second embodiment, and wall surface 72 in the third embodiment) as in the first to third embodiments, for example.
In a system for identifying an object based on the difference in the colors applied to AA to 72AD), the appearance of the color changes depending on the illumination conditions, the direction in which the object is viewed, and the like even with the same color. For this reason, for example, in the first to third embodiments, the change is dealt with by giving the condition for distinguishing the color a range.

【0117】しかしながらこのような対処をしたとして
も、物体を塗り分ける色の選び方によつては、照明条件
等が変化したときに、ロボツトの視覚でとらえたある色
の見え方が別の色の判定条件内に入つて違う色として認
識されてしまい、その結果その色で塗られた物体を正し
く識別できなくなるおそれがある。
However, even if such a measure is taken, depending on how to select colors to paint the object differently, when a lighting condition or the like changes, the appearance of one color visually recognized by the robot is different from that of another color. There is a possibility that it will be recognized as a different color if it falls within the judgment condition, and as a result, the object painted in that color cannot be correctly identified.

【0118】このような事態を防止する方法の1つとし
て、例えば識別のために使用する色の組み合わせとし
て、予め所定の色空間において距離の離れた色を用いる
ようにし、ロボツト内部では、カメラから出力される画
像信号のフオーマツトをその色空間のフオーマツトに変
換して色識別を行うようにすれば良い。
As one of the methods for preventing such a situation, for example, as a combination of colors used for identification, colors separated from each other in a predetermined color space are used in advance. The format of the output image signal may be converted into the format of the color space for color identification.

【0119】すなわち識別色として、例えば色を色相、
彩度及び明度の3つの属性を用いて表す色空間(以下、
これをHSI空間と呼ぶ)において色相が所定角度(例
えば60〔°〕)以上離れた複数色を選択すると共に、ロ
ボツト内部においてカメラから出力される画像信号の画
像フオーマツトを、色を色相(H)、彩度(S)及び明
度(I)で表すフオーマツト(以下、これをHSIフオ
ーマツトと呼ぶ)に変換し、かくして得られる画像信号
に基づいて色相からその色を識別するようにすれば、色
識別時に照明条件の変化等の影響を受け難くすることが
でき、色識別の誤判定を効率良く回避し得るものと考え
られる。
That is, as the identification color, for example, a color is a hue,
A color space expressed using three attributes of saturation and lightness (hereinafter,
This is called the HSI space), and a plurality of colors whose hues are separated by a predetermined angle (for example, 60 [°]) or more are selected, and the image format of the image signal output from the camera inside the robot is set to the hue (H) , The saturation (S) and the brightness (I) are converted into a format (hereinafter referred to as an HSI format), and the color is identified from the hue based on the image signal thus obtained. It is considered that it is possible to make it less likely to be affected by changes in lighting conditions, etc., and to avoid erroneous determination of color identification efficiently.

【0120】(4−2)第4実施例による位置検出シス
テムの構成 図14との対応部分に同一符号を付して示す図17は、
第4実施例による位置検出システム90を示すものであ
り、領域2と、当該領域2の各辺に沿う壁72の各壁面
72AA〜72ADとにそれぞれ異なる固有の色が塗ら
れている。
(4-2) Configuration of Position Detection System According to Fourth Embodiment FIG. 17 in which parts corresponding to those in FIG.
It shows the position detection system 90 according to the fourth embodiment, in which the region 2 and the wall surfaces 72AA to 72AD of the wall 72 along each side of the region 2 are painted with different unique colors.

【0121】この場合領域2及び各壁面72AA〜72
ADにそれぞれ塗布する色としては、HSI空間におい
て色相が60〔°〕以上離れた5色(例えば、R、Y、
G、C及びB)が選定されている。
In this case, the area 2 and the wall surfaces 72AA to 72A
As the colors to be applied to AD, five colors whose hues are separated by 60 [°] or more in the HSI space (for example, R, Y,
G, C and B) are selected.

【0122】一方ロボツト91においては、第3実施例
のロボツト71(図14)内に位置検出部80(図1
5)に代えて図15との対応部分に同一符号を付した図
18に示すような位置検出部92が設けられていること
を除いてロボツト71と同様に構成されている。
On the other hand, in the robot 91, the position detector 80 (see FIG. 1) is provided in the robot 71 (see FIG. 14) of the third embodiment.
Instead of 5), the robot 71 has the same configuration as that of the robot 71 except that a position detecting section 92 as shown in FIG.

【0123】この場合位置検出部92には、画像フオー
マツト変換部93と、壁面72AA〜72ADの数と同
数の色抽出部94A〜94Dとが設けられており、画像
フオーマツト変換部93は、カメラ16から供給される
画像信号S1をHSIフオーマツトの画像信号S50に
変換し、これを各色抽出部94A〜94Dにそれぞれ送
出する。
In this case, the position detecting section 92 is provided with an image format converting section 93 and color extracting sections 94A to 94D as many as the number of the wall surfaces 72AA to 72AD. The image signal S1 supplied from the converter is converted into an HSI format image signal S50, which is sent to each of the color extracting units 94A to 94D.

【0124】各色抽出部94A〜94Dは、それぞれ画
像信号S50に含まれる各画素の色相情報に基づいて、
図16(B)に示す極座標において指定された色相から
所定角度内の色相の画素を抽出すべき色の画素として検
出し、当該検出結果に基づいて抽出すべき色の画素に対
応する部分が論理論理「1」レベルに立ち上がり、他の
色の画素に対応する部分が論理「0」レベルに立ち下が
つた色抽出信号S51A〜S51Dを生成し、これを壁
検出部81に送出する。なお各色抽出部94A〜94D
は、壁面72AA〜72ADにそれぞれ塗布した複数色
の中からそれぞれ互いに異なる所定色の画素を抽出す
る。
Each of the color extracting units 94A to 94D, based on the hue information of each pixel included in the image signal S50,
A pixel of a hue within a predetermined angle is detected as a pixel of a color to be extracted from the hue specified in the polar coordinates shown in FIG. 16B, and a portion corresponding to the pixel of the color to be extracted is logical based on the detection result. The color extraction signals S51A to S51D that rise to the logic "1" level and the portions corresponding to the pixels of other colors fall to the logic "0" level are generated and sent to the wall detection unit 81. Each color extraction unit 94A to 94D
Extracts pixels of different predetermined colors from the plurality of colors applied to the wall surfaces 72AA to 72AD.

【0125】この結果図15において上述したように、
これら色抽出信号S51A〜S51Dに基づいて、カメ
ラ16で撮像している壁面72AA〜72ADの色と、
当該壁面72AA〜72ADの画像内における画素を単
位とした高さhpicとが壁検出部81により検出されると
共に、当該検出結果に基づいて比較・演算部82により
第3実施例の場合と同様にして領域2内における自分の
位置が検出され、検出結果が位置検出信号S41として
このロボツト91の行動を司る最上位のCPU36に送
出される。
As a result, as described above with reference to FIG.
Based on these color extraction signals S51A to S51D, the colors of the wall surfaces 72AA to 72AD captured by the camera 16, and
The height hpic in pixels of the wall surfaces 72AA to 72AD in units of pixels is detected by the wall detection unit 81, and based on the detection result, the comparison / calculation unit 82 performs the same operation as in the third embodiment. The position of its own in the area 2 is detected, and the detection result is sent as a position detection signal S41 to the uppermost CPU 36 which controls the action of the robot 91.

【0126】これによりこのロボツト91においては、
CPU36が位置検出信号S41に基づいて領域2内に
おける自分の位置を認識し得、当該認識結果に基づいて
周囲の状況に応じた行動を自律的にとることができるよ
うになされている。
Thus, in this robot 91,
The CPU 36 can recognize its own position in the area 2 based on the position detection signal S41, and can autonomously take an action according to the surrounding situation based on the recognition result.

【0127】(4−3)第4実施例の動作及び効果 以上の構成において、この位置検出システム90では、
第3実施例の位置検出システム70(図14)と同様
に、ロボツト91がカメラ16から出力される画像信号
S1に基づいて周囲の第1及び第2の壁面72AA〜7
2ADの色と、画像信号S1に基づく画像内におけるそ
の第1及び第2の壁面72AA〜72ADの高さHpicと
を検出し、これら検出結果と、第1のメモリ83に予め
格納されている各壁面72AA〜72ADの色及びID
と、第2のメモリ84に予め格納されている基準値Hstd
と、第3のメモリ85に予め格納されている地図情報と
に基づいて領域2内における自分の位置を検出する。
(4-3) Operations and Effects of Fourth Embodiment With the above-mentioned configuration, the position detecting system 90
Similar to the position detection system 70 (FIG. 14) of the third embodiment, the robot 91 uses the image signal S1 output from the camera 16 to determine the surrounding first and second wall surfaces 72AA to 72AA.
The color of 2AD and the heights Hpic of the first and second wall surfaces 72AA to 72AD in the image based on the image signal S1 are detected, and these detection results and the respective values stored in advance in the first memory 83 are detected. Color and ID of wall surfaces 72AA to 72AD
And the reference value Hstd stored in advance in the second memory 84.
And its position in the area 2 based on the map information stored in advance in the third memory 85.

【0128】従つてこの位置検出システム90によれ
ば、第3実施例の位置検出システム70と同様の作用効
果を得ることができる。
Therefore, according to this position detecting system 90, the same operational effect as the position detecting system 70 of the third embodiment can be obtained.

【0129】これに加えこの位置検出システム90で
は、壁72の各壁面72AA〜72AD及び領域2にそ
れぞれ塗布する色として、HSI空間において色相が60
〔°〕以上離れた色を用いており、またロボツト91の
内部処理としてカメラ16から出力される画像信号S1
の画像フオーマツトをHSIフオーマツトに変換した
後、色識別を行うようにしているため、各壁面72AA
〜72ADに対する照明条件等が変化した場合において
もロボツト91内部における色識別時にその影響を受け
難くすることができ、かくしてロボツト91における色
識別の誤判定を効率良く回避することができる。
In addition to this, in the position detecting system 90, the hue applied to the wall surfaces 72AA to 72AD of the wall 72 and the area 2 is 60 in the HSI space.
Colors separated by [°] or more are used, and the image signal S1 output from the camera 16 is output as internal processing of the robot 91.
After the image format of the above is converted into the HSI format, color identification is performed, so that each wall 72AA
Even when the illumination condition or the like for .about.72AD is changed, it is possible to make it difficult to be influenced by the color identification inside the robot 91, and thus it is possible to efficiently avoid the erroneous determination of the color identification in the robot 91.

【0130】以上の構成によれば、第3実施例の位置検
出システム70(図14)に対し、壁72の各壁面72
AA〜72AD及び領域2にそれぞれ塗布する色とし
て、HSI空間において色相が60〔°〕以上離れた色を
用いると共に、ロボツト91の内部処理としてカメラ6
1から出力される画像信号S1をHSIフオーマツトの
画像信号S50に変換した後、当該画像信号S50に基
づいて色識別を行うようにしたことにより、ロボツト9
1における色識別の誤判定を効率良く回避することがで
きる。かくするにつきロボツト91内部における物体の
誤認識を回避し得、かくして領域内における自分の位置
をより精度良く検出し得る位置検出システム及びロボツ
ト装置を実現できる。
According to the above construction, each wall surface 72 of the wall 72 is different from that of the position detecting system 70 (FIG. 14) of the third embodiment.
As colors to be applied to the areas AA to 72AD and the area 2, colors having hues of 60 [°] or more apart in the HSI space are used, and the camera 6 is used as an internal process of the robot 91.
After the image signal S1 output from the first image signal S1 is converted into the HSI format image signal S50, the color identification is performed based on the image signal S50.
Erroneous determination of color identification in 1 can be efficiently avoided. By doing so, it is possible to avoid erroneous recognition of an object inside the robot 91, and thus to realize a position detecting system and a robot apparatus that can detect the position of the object within the area with higher accuracy.

【0131】(5)第5実施例 (5−1)第5実施例による位置検出システムの構成 図17との対応部分に同一符号を付して示す図19は、
第5実施例による位置検出システム100を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において色相が60〔°〕以上離れた互いに異な
る固有の色が塗られている。
(5) Fifth Embodiment (5-1) Configuration of Position Detection System According to Fifth Embodiment FIG. 19 in which parts corresponding to those in FIG.
It shows the position detection system 100 according to the fifth embodiment, and H is provided on each of the wall surfaces 72AA to 72AD of the wall 72.
In the SI space, different unique colors having hues of 60 ° or more are applied.

【0132】この場合各壁面72AA〜72ADの色
は、図20に示すように、各壁面72AA〜72ADの
長手方向の一端が最も低く、当該一端から他端にいくに
従つて彩度(飽和度)が線形に増加するように、すなわ
ち壁面72AA〜72ADの一端におけるその色の彩度
をSmin 、他端における彩度をSmax 及びその壁面72
AA〜72ADの長手方向の長さをMとしたときに、壁
面72AA〜72ADの一端から距離xの位置における
その色の彩度Sx が次式
In this case, as shown in FIG. 20, the color of each wall surface 72AA to 72AD is lowest at one end in the longitudinal direction of each wall surface 72AA to 72AD, and the saturation (saturation degree) increases from one end to the other end. ) Increases linearly, that is, the saturation of the color at one end of the wall surfaces 72AA to 72AD is S min , the saturation at the other end is S max and the wall surface 72 thereof.
When the length in the longitudinal direction of AA to 72AD is M, the saturation S x of the color at the position of distance x from one end of the wall surfaces 72AA to 72AD is

【0133】[0133]

【数3】 [Equation 3]

【0134】を満足するように塗られている。It is painted so as to satisfy.

【0135】一方ロボツト101においては、第4実施
例のロボツト91(図17)に位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
21に示すような位置検出部102が設けられているこ
とを除いてロボツト91と同様に構成されている。
On the other hand, in the robot 101, the position detector 92 (see FIG. 1) is added to the robot 91 (see FIG. 17) of the fourth embodiment.
The robot 91 has the same configuration as that of the robot 91 except that the position detecting unit 102 as shown in FIG.

【0136】この場合位置検出部102には、領域2の
各辺に沿う壁面72AA〜72ADの数と同数の色抽出
部94A〜94Dが設けられており、カメラ16から出
力される画像信号S1の画像フオーマツトを画像フオー
マツト変換部93においてHSIフオーマツトに変換し
た後、かくして得られた画像信号S50を各色抽出部S
51A〜S51Dにそれぞれ送出する。
In this case, the position detection unit 102 is provided with the same number of color extraction units 94A to 94D as the number of wall surfaces 72AA to 72AD along each side of the area 2, and the image signal S1 output from the camera 16 is detected. After the image format is converted into the HSI format in the image format conversion section 93, the image signal S50 thus obtained is converted into each color extraction section S.
51A to S51D, respectively.

【0137】各色抽出部S51A〜S51Dにおいて
は、それぞれ画像信号S50に基づく画像のなかから所
定色の画素を抽出し、当該画素に対応す部分が論理
「1」レベルに立ち上がり、これ以外の色の画素に対応
する部分が論理「0」レベルに立ち下がつた色抽出信号
S51A〜S51Dをそれぞれ壁検出部103に送出す
る。
In each of the color extracting sections S51A to S51D, a pixel of a predetermined color is extracted from the image based on the image signal S50, and the portion corresponding to the pixel rises to the logic "1" level and the other color is extracted. The color extraction signals S51A to S51D in which the portions corresponding to the pixels fall to the logic "0" level are sent to the wall detection unit 103, respectively.

【0138】壁検出部103は、各色抽出部94A〜9
4Dからそれぞれ供給される色抽出信号S51A〜S5
1Dに基づく画像を重ね合わせて走査することにより、
ほぼ水平な同色の細長い領域をいずれかの壁面72AA
〜72ADとして検出し、検出結果を壁検出信号S60
としてこのロボツトの行動を司る最上位のCPU36に
与える。
The wall detecting section 103 has the color extracting sections 94A to 94A.
Color extraction signals S51A to S5 respectively supplied from 4D
By superimposing and scanning 1D-based images,
Walls 72AA of one of the horizontally elongated narrow areas
~ 72AD, the detection result is the wall detection signal S60
Is given to the highest CPU 36 that controls the action of this robot.

【0139】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラ16の向
き(すなわちロボツト101の頭部)を左右方向に移動
させており、壁検出部103から供給される壁検出信号
S60に基づいて、画像信号S50に基づく画像内にお
いて最も画素数の多い壁面(すなわち最も近い壁面)7
2AA〜72ADを検出すると共に、当該壁面72AA
〜72ADの画像内における上端又は下端が水平となる
ように(すなわちその壁面72AA〜72ADに対して
カメラ16の光軸が垂直となるように)カメラ16の向
きを調整する。
At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 101) in the left-right direction by driving the actuators of the corresponding joints, and the wall detection unit 103 supplies the wall detection. Based on the signal S60, the wall surface with the largest number of pixels in the image based on the image signal S50 (that is, the nearest wall surface) 7
2AA to 72AD are detected, and the wall surface 72AA is detected.
The orientation of the camera 16 is adjusted so that the upper end or the lower end in the image of the to 72AD is horizontal (that is, the optical axis of the camera 16 is vertical to the wall surfaces 72AA to 72AD).

【0140】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに対して垂直に合わせられた状態にお
いて、壁検出部103は、各色抽出部94A〜94Dか
らそれぞれ供給される色抽出信号S51A〜S51Dに
基づいてその壁面72AA〜72ADの色を検出すると
共に、このとき画像フオーマツト変換部93から供給さ
れる画像信号S50に基づいて、当該画像信号S50に
基づく画像の中央部におけるその壁面72AA〜72A
Dに塗布された色の彩度Sx を検出し、これら検出した
その壁面72AA〜72ADの色と、画像中央部におけ
るその壁面72AA〜72ADに塗布された色の彩度S
x とを色及び彩度検出信号S61として比較・演算部1
04に送出する。
Then, the wall surface 7 closest to the optical axis of the camera 16
In the state of being vertically aligned with 2AA to 72AD, the wall detection unit 103 detects the colors of the wall surfaces 72AA to 72AD based on the color extraction signals S51A to S51D supplied from the color extraction units 94A to 94D, respectively. At the same time, based on the image signal S50 supplied from the image format conversion unit 93, the wall surfaces 72AA to 72A at the center of the image based on the image signal S50.
The saturation S x of the color applied to D is detected, and the detected colors of the wall surfaces 72AA to 72AD and the saturation S of the color applied to the wall surfaces 72AA to 72AD at the center of the image.
Comparing / calculating section 1 with x as color and saturation detection signal S61
Send to 04.

【0141】比較・演算部104は、色及び彩度検出信
号S61に基づき得られるその壁面72AA〜72AD
の色と、第1のメモリ105に予め格納されている各壁
面72AA〜72ADの色及びそのIDに関するテーブ
ルとに基づいて、その壁面72AA〜72ADのIDを
検出する。
The comparison / calculation unit 104 determines the wall surfaces 72AA to 72AD obtained based on the color and saturation detection signal S61.
Of the wall surfaces 72AA to 72AD stored in advance in the first memory 105 and a table relating to the IDs of the wall surfaces 72AA to 72AD, the IDs of the wall surfaces 72AA to 72AD are detected.

【0142】また比較・演算部104は、色及び彩度信
号S61に基づき得られる画像中央部におけるその壁面
72AA〜72ADの彩度Sx と、予め第2のメモリ1
06に格納されている各壁面72AA〜72ADの一端
及び他端における各彩度Smin 、Smax 並びに各壁面7
2AA〜72ADの長さMとに基づいて(3)式を逆算
することによりその壁面72AA〜72ADと平行な方
向における自分の位置を検出する。
Further, the comparison / calculation unit 104 calculates the saturation S x of the wall surfaces 72AA to 72AD in the central portion of the image obtained based on the color and saturation signal S61, and the second memory 1 in advance.
Saturation S min , S max at one end and the other end of each wall surface 72AA to 72AD stored in 06 and each wall surface 7
The position (3) is reversely calculated based on the length M of 2AA to 72AD to detect its own position in the direction parallel to the wall surfaces 72AA to 72AD.

【0143】さらに比較・演算部105は、この後CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。
Further, the comparison / arithmetic unit 105 then sends CP
Under the control of U36, the camera 16 is rotated by 90 [°] and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to identify the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in parallel directions.

【0144】さらに比較・演算部104は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ107に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域2の地
図情報とに基づいて領域内における自分の位置を検出
し、検出結果を位置検出信号S62としてCPU36に
送出する。
Further, the comparison / calculation unit 104 thereafter obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above and the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second position. I of the wall surfaces 72AA to 72AD
Within the area based on D and the position in the direction parallel to the second wall surfaces 72AA to 72AD, and the map information of the area 2 including the positions of the wall surfaces 72AA to 72AD stored in advance in the third memory 107. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S62.

【0145】これによりこのロボツト101において
は、CPU36が位置検出信号S62に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。
As a result, in the robot 101, the CPU 36 determines the area 2 based on the position detection signal S62.
It is possible to recognize one's position in the inside and autonomously take action according to the surrounding situation based on the recognition result.

【0146】(5−2)第5実施例の動作及び効果 以上の構成において、この位置検出システム100で
は、ロボツト101がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの色と、これら色の画像信号S1に基づく画像
の中央部における彩度Sx とを検出し、これら検出結果
と、第1のメモリ105に格納されている各壁面72A
A〜72ADの色及びそのIDと、第2のメモリ106
に格納されている各壁面72AA〜72ADの長さM並
びに各壁面72AA〜72ADの一端及び他端における
色の彩度Smin 、Smax と、第3のメモリ107に格納
されている地図情報とに基づいて領域2内における自分
の位置を検出する。
(5-2) Operation and Effect of Fifth Embodiment With the above-described structure, in the position detecting system 100, the robot 101 is the first and second surroundings based on the image signal S1 output from the camera 16. Wall 72AA ~
The colors of 72AD and the saturation S x in the central portion of the image based on the image signals S1 of these colors are detected, and these detection results and the respective wall surfaces 72A stored in the first memory 105 are detected.
Colors A to 72AD and their IDs, and the second memory 106
The length M of each wall surface 72AA to 72AD, the color saturation S min and S max at one end and the other end of each wall surface 72AA to 72AD, and the map information stored in the third memory 107. Based on, the position of oneself in the area 2 is detected.

【0147】従つてこの位置検出システム100では、
ロボツト101が2つの壁面72AA〜72ADの色及
びこれら色の彩度の変化に基づいて領域2内における自
分の位置を容易かつ精度良く認識することができる。
Therefore, in this position detecting system 100,
The robot 101 can easily and accurately recognize its own position in the region 2 based on the colors of the two wall surfaces 72AA to 72AD and changes in the saturation of these colors.

【0148】またこの位置検出システム100では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色を水平方向の彩度を変化さ
せて塗布するだけで良いため、極めて簡単にシステムを
構築することができる。
Further, in this position detecting system 100, the wall surfaces 72AA to 72A arranged along the respective sides of the area 2 are arranged.
Since it is only necessary to apply different colors to D by changing the saturation in the horizontal direction, it is possible to construct a system extremely easily.

【0149】さらにこの位置検出システム100では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域の床面に信号発
生機を設置する必要がないため、ロボツト101の行動
を妨げるおそれもない。
Further, in this position detecting system 100,
Since it does not use a method of transmitting special signals such as radio waves, it can be used without considering the influence on peripheral devices and radio regulations, and it is necessary to install a signal generator on the floor of the area. Therefore, there is no possibility of disturbing the action of the robot 101.

【0150】さらにこの位置検出システム100では、
ロボツト101の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。
Further, in this position detecting system 100,
Since it is not a method of writing symbols, signs, etc. on the floor surface of the action area 2 of the robot 101, it is possible to paint the floor surface for other purposes.

【0151】さらにこの位置検出システム100では、
ロホツト101のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト101の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト101が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。
Further, in this position detecting system 100,
By pointing the camera 16 of the robot 101 approximately in the horizontal direction, the front wall surface 72A of the robot 101
Since A to 72AD can be imaged by the camera 16, the robot 101 does not need to orient the camera 16 in a predetermined direction to detect its position in the area 2, and the other robots can be captured by the camera 16. There is also an advantage that the position of oneself in the area 2 can be detected.

【0152】以上の構成によれば、各壁面72AA〜7
2ADに互いに異なる色を水平方向に彩度を変化させて
それぞれ塗布すると共に、ロボツト102が2つの壁面
72AA〜72ADの色と、これら壁面72AA〜72
ADを垂直に撮像した場合におけるその色の画像中央部
での彩度Sx とをそれぞれ検出し、当該検出結果と、第
1のメモリ105に格納されている各壁面72AA〜7
2ADの色及びそのIDと、第2のメモリ106に格納
されている各壁面72AA〜72ADの長さM並びに各
壁面72AA〜72ADの一端及び他端における色の彩
度Smin 、Smax と、第3のメモリ107に格納されて
いる地図情報とに基づいて領域2内における自分の位置
を検出するようにしたことにより、ロボツト101が領
域2内における自分の位置を精度良く検出することがで
き、かくして領域2内における自分の位置を精度良く検
出し得る位置検出システム及びロボツトを実現できる。
According to the above configuration, each wall surface 72AA-7A
Different colors are applied to the 2AD while changing the saturation in the horizontal direction, and the robot 102 applies the colors of the two wall surfaces 72AA to 72AD to the robot 102 and these wall surfaces 72AA to 72AD.
The saturation S x at the center of the image of the color when AD is imaged vertically is detected, and the detection result and the wall surfaces 72AA to 7AA stored in the first memory 105 are detected.
2AD color and its ID, the length M of each wall surface 72AA-72AD stored in the second memory 106, and the color saturation S min , S max at one end and the other end of each wall surface 72AA-72AD, By detecting the position of itself in the area 2 based on the map information stored in the third memory 107, the robot 101 can accurately detect the position of itself in the area 2. Thus, it is possible to realize the position detecting system and the robot which can detect the position of the user within the area 2 with high accuracy.

【0153】(6)第6実施例 (6−1)第6実施例による位置検出システムの構成 図19との対応部分に同一符号を付して示す図22は、
第6実施例による位置検出システム110を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において色相が60〔°〕以上離れた互いに異な
る固有の色が塗布されている。
(6) Sixth Embodiment (6-1) Configuration of Position Detection System According to Sixth Embodiment FIG. 22 in which parts corresponding to those in FIG.
The position detection system 110 by 6th Example is shown, and H is each attached to each wall surface 72AA-72AD of the wall 72.
In the SI space, different unique colors having hues of 60 ° or more are applied.

【0154】またこれら各壁面72AA〜72ADに
は、図23に示すように、一端の下端近傍から他端の上
端近傍に至るように、HSI空間において各壁面72A
A〜72ADに塗布された各色の色相と60〔°〕以上は
なれた色を用いて斜線102が表記されている。
Further, as shown in FIG. 23 , each of the wall surfaces 72AA to 72AD extends from the vicinity of the lower end of one end to the vicinity of the upper end of the other end in the HSI space.
The shaded line 102 is shown using the hues of the respective colors applied to A to 72AD and the colors that are deviated by 60 ° or more.

【0155】一方ロボツト111においては、第4実施
例のロボツト91(図17)に、位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
24に示すような位置検出部113が設けられているこ
とを除いてロボツト91と同様に構成されている。
On the other hand, in the robot 111, the position detector 92 (see FIG. 1) is added to the robot 91 (see FIG. 17) of the fourth embodiment.
The robot 91 has the same configuration as that of the robot 91 except that the position detecting unit 113 as shown in FIG. 24, which is the same as that in FIG.

【0156】この場合位置検出部113には、領域2の
各辺に沿う壁面72AA〜72ADの数よりも1つ多い
数の色抽出部94A〜94Eが設けられており、カメラ
16から出力される画像信号S1の画像フオーマツトを
画像フオーマツト変換部93においてHSIフオーマツ
トに変換した後、かくして得られた画像信号S50を各
色抽出部94A〜94Eにそれぞれ送出する。
In this case, the position detecting section 113 is provided with the number of color extracting sections 94A to 94E, which is one more than the number of wall surfaces 72AA to 72AD along each side of the area 2, and is output from the camera 16. After the image format of the image signal S1 is converted into the HSI format in the image format converting section 93, the image signal S50 thus obtained is sent to each of the color extracting sections 94A to 94E.

【0157】各色抽出部94A〜94Eにおいては、画
像信号S50に基づく画像のなかからそれぞれ対応する
所定色の画素を抽出し、当該画素に対応す部分が論理
「1」レベルに立ち上がり、これ以外の色の画素に対応
する部分が論理「0」レベルに立ち下がつた色抽出信号
S51A〜S51Eをそれぞれ壁検出部114に送出す
る。なお各色抽出部114は、各壁面72AA〜72A
Dに塗布された色及び斜線112の色の中からそれぞれ
互いに異なる色の画素を抽出する。
Each of the color extracting units 94A to 94E extracts a pixel of a corresponding predetermined color from the image based on the image signal S50, and the portion corresponding to the pixel rises to the logic "1" level, and the other parts are extracted. The color extraction signals S51A to S51E in which the portions corresponding to the color pixels fall to the logic "0" level are sent to the wall detection unit 114, respectively. In addition, each color extraction unit 114 has a wall surface 72AA to 72A.
Pixels of different colors are extracted from the color applied to D and the shaded line 112.

【0158】壁検出部114は、各色抽出部94A〜9
4Eからそれぞれ供給される色抽出信号S51A〜S5
1Eに基づく画像を重ね合わせて走査することにより、
ほぼ水平な同色の細長い領域をいずれかの壁面72AA
〜72ADとして検出し、検出結果を壁検出信号S60
としてこのロボツト111の行動を司る最上位のCPU
36に与える。
The wall detecting section 114 has the color extracting sections 94A to 94A.
Color extraction signals S51A to S5 respectively supplied from 4E.
By superimposing and scanning images based on 1E,
Walls 72AA of one of the horizontally elongated narrow areas
~ 72AD, the detection result is the wall detection signal S60
As the highest CPU that controls the actions of this robot 111
Give to 36.

【0159】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラ16の向
き(すなわちロボツト111の頭部)を左右方向に移動
させており、壁検出部114から供給される壁検出信号
S60に基づいて、画像信号S50に基づく画像内にお
いて最も画素数の多い壁面(すなわち最も近い壁面)7
2AA〜72ADを検出すると共に、当該壁面72AA
〜72ADの画像内における上端又は下端が水平となる
ように(すなわち最も近い壁面72AA〜72ADに対
してカメラ16の光軸が垂直となるように)カメラ16
の向きを調整する。
At this time, the CPU 36 moves the direction of the camera 16 (that is, the head of the robot 111) in the left-right direction by driving the actuators of the corresponding joints, and the wall detection unit 114 supplies the wall detection. Based on the signal S60, the wall surface with the largest number of pixels in the image based on the image signal S50 (that is, the nearest wall surface) 7
2AA to 72AD are detected, and the wall surface 72AA is detected.
Camera 16 such that the upper end or the lower end in the image of ~ 72AD is horizontal (that is, the optical axis of camera 16 is perpendicular to the nearest wall surfaces 72AA to 72AD).
Adjust the orientation of.

【0160】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに対して垂直に合わせられた状態にお
いて壁検出部114は、画像中央部におけるその壁面7
2AA〜72ADの斜線112よりも上部分の縦方向の
長さUx と、斜線112よりも下部分の長さLx とをそ
れぞれ画素を単位として検出し、これら検出したその壁
面72AA〜72ADの斜線112よりも上部分の長さ
x 及び下部分の長さLx と、その壁面72AA〜72
ADの色とを色及び長さ検出信号S70として比較・演
算部115に送出する。
The wall surface 7 where the optical axis of the camera 16 is the closest
In the state where the wall detection unit 114 is vertically aligned with 2AA to 72AD, the wall detection unit 114 detects the wall surface 7 at the center of the image.
The vertical length U x of the upper part of the diagonal line 112 of 2AA to 72AD and the length L x of the lower part of the diagonal line 112 are detected in units of pixels, and these detected wall surfaces 72AA to 72AD are detected. The length U x of the upper part and the length L x of the lower part of the oblique line 112 and the wall surfaces 72AA to 72
The color of AD is sent to the comparison / calculation unit 115 as a color and length detection signal S70.

【0161】比較・演算部115は、色及び長さ検出信
号S70に基づき得られるその壁面72AA〜72AD
の色と、第1のメモリ116に予め格納されている各壁
面72AA〜72ADの色及びそのIDに関するテーブ
ルとに基づいて、その壁面72AA〜72ADのIDを
検出する。
The comparison / calculation unit 115 determines the wall surfaces 72AA to 72AD of the color and length detection signals S70.
Of the wall surfaces 72AA to 72AD stored in the first memory 116 in advance and a table relating to the colors and the IDs of the wall surfaces 72AA to 72AD, the IDs of the wall surfaces 72AA to 72AD are detected.

【0162】また比較・演算部115は、色及び長さ検
出信号S70に基づき得られるその壁面72AA〜72
ADの斜線112よりも上部分の長さUx 及び下部分の
長さLx とに基づいて次式
Further, the comparison / calculation unit 115 has wall surfaces 72AA to 72A obtained based on the color and length detection signal S70.
Based on the length U x of the upper part and the length L x of the lower part of the diagonal line 112 of AD,

【0163】[0163]

【数4】 [Equation 4]

【0164】で与えられる演算を実行することにより、
画像信号S50に基づく画像の中央部におけるその壁面
72AA〜72ADの高さ(=Ux +Lx )に対する斜
線112よりも上部分の縦方向の長さUx の比率Rx1
算出する。
By performing the operation given by
Based on the image signal S50, the ratio R x1 of the vertical length U x of the portion above the diagonal line 112 to the height (= U x + L x ) of the wall surfaces 72AA to 72AD in the central portion of the image is calculated.

【0165】そして比較・演算部115は、この演算結
果と、第2のメモリ117に予め格納されている各壁面
72AA〜72ADの長さM、各壁面72AA〜72A
Dの一端におけるその壁面72AA〜72ADの高さに
対する斜線112よりも上部分の縦方向の長さの比率R
a1及び各壁面72AA〜72ADの他端におけるその壁
面72AA〜72ADの高さに対する斜線112よりも
上部分の長さの比率Rb1とに基づいて、次式
Then, the comparison / calculation unit 115, the calculation result, the length M of the wall surfaces 72AA to 72AD stored in advance in the second memory 117, and the wall surfaces 72AA to 72A.
Ratio R of the length in the vertical direction of the portion above the diagonal line 112 to the height of the wall surfaces 72AA to 72AD at one end of D
Based on a1 and the ratio R b1 of the length of the portion above the diagonal line 112 to the height of the wall surfaces 72AA to 72AD at the other ends of the wall surfaces 72AA to 72AD,

【0166】[0166]

【数5】 [Equation 5]

【0167】で与えられる演算を実行することにより、
その壁面72AA〜72ADの一端からその壁面72A
A〜72ADの画像中央部に撮像されている部分までの
距離x(その壁面72AA〜72ADと平行な方向にお
ける当該壁面72AA〜72ADの一端からロボツト1
11までの距離に相当)を算出する。
By executing the operation given by
The wall surface 72A from one end of the wall surface 72AA to 72AD
A distance x to a portion of the image of A to 72AD that is imaged in the central portion (from one end of the wall surface 72AA to 72AD in a direction parallel to the wall surface 72AA to 72AD, the robot 1
(Corresponding to the distance up to 11) is calculated.

【0168】なお各壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの高さに対する斜線1
12よりも上部分の長さの比率Ra1は、図23に示すよ
うに、それぞれその壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの斜線112よりも上
部分の長さをUa1とし、斜線112よりも下部分の長さ
をLa1として次式
It should be noted that the slanted line 1 with respect to the height of the wall surfaces 72AA to 72AD at one end of each wall surface 72AA to 72AD
As for ratio R a1 of the length of the upper part than 12, as shown in FIG. 23, the length of the upper part of the wall surface 72AA to 72AD above the slanted line 112 of the wall surfaces 72AA to 72AD is U a1 , respectively. Let L a1 be the length below the diagonal line 112

【0169】[0169]

【数6】 [Equation 6]

【0170】により与えられ、各壁面72AA〜72A
Dの他端におけるその壁面72AA〜72ADの高さに
対する斜線112よりも上部分の長さの比率Rb1は、そ
の壁面72AA〜72ADの他端におけるその壁面72
AA〜72ADの斜線112よりも上部分の長さをUb1
とし、斜線よりも下部分の長さをLb1として次式
Given by the respective wall surfaces 72AA-72A
The ratio R b1 of the length of the portion above the diagonal line 112 to the height of the wall surfaces 72AA to 72AD at the other end of D is the wall surface 72 at the other end of the wall surfaces 72AA to 72AD.
The length of the portion above the diagonal line 112 of AA to 72AD is U b1.
And the length below the diagonal line is L b1

【0171】[0171]

【数7】 [Equation 7]

【0172】により与えられる。Given by:

【0173】さらに比較・演算部115は、この後CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。
Further, the comparison / arithmetic unit 115 then sends the CP
Under the control of U36, the camera 16 is rotated by 90 [°] and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to identify the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in parallel directions.

【0174】さらに比較・演算部115は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ118に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域の地図
情報とに基づいて領域2内における自分の位置を検出
し、検出結果を位置検出信号S71としてCPU36に
送出する。
Further, the comparison / calculation unit 115 thereafter obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second position. I of the wall surfaces 72AA to 72AD
Within the area 2 based on D and the position in the direction parallel to the second wall surfaces 72AA to 72AD, and the map information of the area including the positions of the wall surfaces 72AA to 72AD stored in advance in the third memory 118. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S71.

【0175】これによりこのロボツト111において
は、CPU36が位置検出信号S71に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。
As a result, in the robot 111, the CPU 36 determines the area 2 based on the position detection signal S71.
It is possible to recognize one's position in the inside and autonomously take action according to the surrounding situation based on the recognition result.

【0176】(6−2)第6実施例の動作及び効果 以上の構成において、この位置検出システム110で
は、ロボツト111がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの各色と、当該画像信号S1に基づく画像中央
部おけるこれら各壁面72AA〜72ADの高さに対す
る斜線112よりも上部分の長さUx の比率Rx1とをそ
れぞれ検出し、これら検出結果と、第1のメモリ116
に予め格納されている各壁面72AA〜72ADの色及
びそのIDと、第2のメモリ117に予め格納されてい
る各壁面72AA〜72ADの長さM並びに各壁面72
AA〜72ADの一端及び他端におけるその壁面72A
A〜72ADの高さに対する斜線112よりも上部分の
長さUa1、Ub1の比率Ra1、Rb1と、第3のメモリ11
8に予め格納されている地図情報とに基づいて領域2内
における自分の位置を検出する。
(6-2) Operations and Effects of the Sixth Embodiment With the above-described structure, in the position detecting system 110, the robot 111 uses the image signal S1 output from the camera 16 to detect the first and second surroundings. Wall 72AA ~
Each color of 72AD and the ratio R x1 of the length U x of the portion above the diagonal line 112 with respect to the height of these wall surfaces 72AA to 72AD in the central portion of the image based on the image signal S1 are respectively detected, and these detection results are obtained. , The first memory 116
The colors and IDs of the wall surfaces 72AA to 72AD stored in advance, the length M of the wall surfaces 72AA to 72AD stored in advance in the second memory 117, and the wall surfaces 72.
Wall surfaces 72A at one end and the other end of AA to 72AD
The ratio R a1 , R b1 of the lengths U a1 , U b1 of the portion above the diagonal line 112 to the height of A to 72 AD, and the third memory 11
Based on the map information stored in advance in 8, the position of itself in the area 2 is detected.

【0177】従つてこの位置検出システム110では、
2つの壁面72AA〜72ADの色及びこれら壁面72
AA〜72ADに表記された斜線112に基づいてロボ
ツト111が領域2内における自分の位置を容易かつ精
度良く認識することができる。
Therefore, in this position detection system 110,
The colors of the two wall surfaces 72AA to 72AD and these wall surfaces 72
The robot 111 can easily and accurately recognize its own position in the area 2 based on the diagonal line 112 indicated by AA to 72AD.

【0178】またこの位置検出システム110では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色を塗布すると共に、斜線1
12を表記するだけで良いため、極めて簡単にシステム
を構築することができる。
Further, in this position detection system 110, the wall surfaces 72AA to 72A arranged along the respective sides of the area 2 are arranged.
Apply different colors to D and shade 1
Since only 12 is required, the system can be constructed very easily.

【0179】さらにこの位置検出システム110では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域2の床面に信号
発生機を設置する必要がないため、ロボツト111の行
動を妨げるおそれもない。
Further, in this position detecting system 110,
Since it does not use a method of transmitting special signals such as radio waves, it can be used without considering the influence on peripheral devices and radio regulations, and a signal generator is installed on the floor of Area 2 Since it is not necessary, there is no fear of disturbing the action of the robot 111.

【0180】さらにこの位置検出システム110では、
ロボツト111の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。
Furthermore, in this position detecting system 110,
Since the system is not a system in which symbols or signs are written on the floor of the action area 2 of the robot 111, it is possible to paint the floor for other purposes.

【0181】さらにこの位置検出システム110では、
ロホツト111のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト111の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト111が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。
Further, in this position detecting system 110,
By pointing the camera 16 of the robot 111 approximately in the horizontal direction, the front wall surface 72A of the robot 111 is
Since A to 72AD can be imaged by the camera 16, the robot 111 does not need to point the camera 16 in a predetermined direction in order to detect its own position in the area 2, and while the other robots are captured by the camera 16. There is also an advantage that the position of oneself in the area 2 can be detected.

【0182】以上の構成によれば、各壁面72AA〜7
2ADに互いに異なる色を塗布すると共に、これら各壁
面72AA〜72ADに斜線112を表記する一方、ロ
ボツト111が2つの壁面72AA〜72ADの色と、
これら壁面72AA〜72ADを垂直に撮像した場合に
おける画像中央部での斜線112よりも上部分の縦方向
の長さUx の比率Rx1とをそれぞれ検出し、これら検出
結果と、第1のメモリ116に予め格納されている各壁
面72AA〜72ADの色及びそのIDと、第2のメモ
リ117に予め格納されている各壁面72AA〜72A
Dの長さM並びに各壁面72AA〜72ADの一端及び
他端におけるその壁面72AA〜72ADの高さに対す
る斜線112よりも上部分の長さUa1、Ub1の比率
a1、Rb1と、第3のメモリ118に予め格納されてい
る地図情報とに基づいて領域2内における自分の位置を
検出するようにしたことにより、ロボツト111が領域
2内における自分の位置を精度良く検出することがで
き、かくして領域2内における自分の位置を精度良く検
出し得る位置検出システム及びロボツトを実現できる。
According to the above structure, the wall surfaces 72AA to 72AA
While applying different colors to 2AD, the diagonal lines 112 are shown on each of the wall surfaces 72AA to 72AD, while the robot 111 has the colors of the two wall surfaces 72AA to 72AD.
When these wall surfaces 72AA to 72AD are vertically imaged, the ratio R x1 of the length U x in the vertical direction above the diagonal line 112 in the central portion of the image is detected, and these detection results and the first memory are detected. The colors and IDs of the wall surfaces 72AA to 72AD stored in advance in 116 and the wall surfaces 72AA to 72A stored in advance in the second memory 117.
The ratio R a1, R b1 of length M and the length of the upper part than the hatched 112 to the height of the wall 72AA~72AD at one end and the other end of each wall 72AA~72AD of D U a1, U b1, the By detecting the position of itself in the area 2 based on the map information stored in advance in the memory 118 of No. 3, the robot 111 can accurately detect the position of itself in the area 2. Thus, it is possible to realize the position detecting system and the robot which can detect the position of the user within the area 2 with high accuracy.

【0183】(7)第7実施例 (7−1)第7実施例による位置検出システムの構成 図14との対応部分に同一符号を付して示す図25は、
第7実施例による位置検出システム120を示すもので
あり、壁72の各壁面72AA〜72ADにそれぞれH
SI空間において60〔°〕以上離れた互いに異なる色相
の色が割り当てられている。
(7) Seventh Embodiment (7-1) Configuration of Position Detection System According to Seventh Embodiment FIG. 25, in which parts corresponding to those in FIG.
It shows a position detection system 120 according to a seventh embodiment, and H is attached to each of the wall surfaces 72AA to 72AD of the wall 72.
Colors of different hues which are separated from each other by 60 degrees or more are assigned in the SI space.

【0184】すなわち各壁面72AA〜72ADには、
図26に示すように、それぞれ長手方向の一端の下端近
傍から他端の上端部近傍に至る仮想線K1を境として、
各壁面72AA〜72ADの仮想線K1よりも上部分に
所定の色相で彩度の大きい色が塗布され、仮想線K1よ
りも下部分に上部分と同じ色相で彩度の小さい色が塗布
されている。
That is, on each of the wall surfaces 72AA to 72AD,
As shown in FIG. 26, with a virtual line K1 extending from the vicinity of the lower end of one end in the longitudinal direction to the vicinity of the upper end of the other end as boundaries,
A color having a predetermined hue and a high saturation is applied to a portion above the virtual line K1 of each wall surface 72AA to 72AD, and a color having a low saturation and having the same hue as the upper portion is applied to a portion below the virtual line K1. There is.

【0185】一方ロボツト121においては、第4実施
例のロボツト91(図17)に、位置検出部92(図1
8)に代えて図18との対応部分に同一符号を付した図
27に示すような位置検出部122が設けられているこ
とを除いてロボツト91と同様に構成されている。
On the other hand, in the robot 121, the position detector 92 (see FIG. 1) is added to the robot 91 (see FIG. 17) of the fourth embodiment.
The robot 91 has the same configuration as that of the robot 91 except that the position detecting unit 122 as shown in FIG.

【0186】この場合位置検出部122には、領域2の
各辺に沿う壁面72AA〜72ADの数と同じ数の色抽
出部94A〜94Dが設けられており、カメラ16から
出力される画像信号S1の画像フオーマツトを画像フオ
ーマツト変換部93においてHSIフオーマツトに変換
した後、かくして得られた画像信号S50を各色抽出部
94A〜94D及び壁検出部123にそれぞれ送出す
る。
In this case, the position detecting section 122 is provided with the same number of color extracting sections 94A to 94D as the number of wall surfaces 72AA to 72AD along each side of the area 2, and the image signal S1 output from the camera 16 is provided. After the image format is converted into an HSI format in the image format conversion unit 93, the image signal S50 thus obtained is sent to each of the color extraction units 94A to 94D and the wall detection unit 123.

【0187】各色抽出部94A〜94Dは、上述のよう
に、画像信号S50に含まれる各画素の色相情報に基づ
いて、図16(B)に示す極座標において指定された色
相から所定角度内の色相の画素を抽出すべき色の画素と
して検出し、当該検出結果に基づいて抽出すべき色の画
素に対応する部分が論理論理「1」レベルに立ち上が
り、他の色の画素に対応する部分が論理「0」レベルに
立ち下がつた色抽出信号S51A〜S51Dを生成し、
これを壁検出部123に送出する。
As described above, the color extracting units 94A to 94D use the hue information of each pixel included in the image signal S50 to determine the hue within a predetermined angle from the hue designated in the polar coordinates shown in FIG. 16 (B). Pixel is detected as a pixel of the color to be extracted, and the portion corresponding to the pixel of the color to be extracted rises to the logic level “1” based on the detection result, and the portion corresponding to the pixel of the other color is logical. The color extraction signals S51A to S51D falling to the “0” level are generated,
This is sent to the wall detection unit 123.

【0188】また壁検出部123は、各色抽出部94A
〜94Dからそれぞれ供給される色抽出信号S51A〜
S51Dに基づく画像を重ね合わせて走査することによ
り、ほぼ水平な同じ色相の細長い領域をいずれかの壁面
72AA〜72ADとして検出し、検出結果を壁検出信
号S80としてこのロボツト121の行動を司る最上位
のCPU36に与える。
Further, the wall detecting section 123 is provided with each color extracting section 94A.
~ Color extraction signals S51A respectively supplied from 94D ~
By scanning the images based on S51D in an overlapping manner, a substantially horizontal elongated area having the same hue is detected as one of the wall surfaces 72AA to 72AD, and the detection result is used as a wall detection signal S80, which is the highest order that controls the action of the robot 121. To the CPU 36.

【0189】このときCPU36は、対応する関節部の
アクチユエータを駆動させることによりカメラの向き
(すなわちロボツトの頭部)を左右方向に移動させてお
り、壁検出部123から供給される壁検出信号S80に
基づいて、画像信号S50に基づく画像内において最も
画素数の多い壁面(すなわち最も近い壁面)72AA〜
72ADを検出すると共に、当該壁面72AA〜72A
Dの画像内における上端又は下端が水平となるように
(すなわち当該壁面72AA〜72ADに対してカメラ
16の光軸が垂直となるように)カメラ16の向きを調
整する。
At this time, the CPU 36 moves the direction of the camera (that is, the head of the robot) left and right by driving the actuators of the corresponding joints, and the wall detection signal S80 supplied from the wall detection unit 123. Based on the image signal S50, the wall surface with the largest number of pixels (that is, the nearest wall surface) 72AA-
While detecting 72AD, the wall surfaces 72AA to 72A
The orientation of the camera 16 is adjusted so that the upper end or the lower end in the image of D is horizontal (that is, the optical axis of the camera 16 is vertical to the wall surfaces 72AA to 72AD).

【0190】そしてカメラ16の光軸が最も近い壁面7
2AA〜72ADに垂直に向けられた状態において壁検
出部123は、各色抽出部94A〜94Dから与えられ
る色抽出信号S51A〜S51Dと、画像フオーマツト
変換部93から与えられる画像信号S50に含まれる各
画素の彩度情報とに基づいて、画像信号S50に基づく
画像の中央部におけるその壁面72AA〜72ADの彩
度の大きい方の色が塗布された部分(すなわち仮想線K
1よりも上部分、以下、これを壁面72AA〜72AD
の高彩度部分と呼ぶ)の縦方向の長さHx (図26)
と、画像中央部におけるその壁面72AA〜72ADの
彩度の小さい方の色が塗布された部分(すなわち仮想線
K1よりも下部分、以下、これを壁面72AA〜72A
Dの低彩度部分と呼ぶ)の縦方向の長さLx (図26)
とをそれぞれ画素を単位として検出し、これら検出した
壁面72AA〜72ADの高彩度部分の長さHx 、その
壁面72AA〜72ADの低彩度部分の長さLx 及びそ
の壁面72AA〜72ADの色相とを壁面検出信号S8
1として比較・演算部124に送出する。
The wall surface 7 where the optical axis of the camera 16 is the closest
2AA to 72AD, the wall detection unit 123 is configured to detect the color extraction signals S51A to S51D provided by the color extraction units 94A to 94D and the pixels included in the image signal S50 provided from the image format conversion unit 93. Based on the saturation information of the image signal S50, the portion of the wall surface 72AA to 72AD in the center of the image based on the image signal S50 to which the color with the higher saturation is applied (that is, the virtual line K).
Upper part than 1, below, this wall surface 72AA-72AD
(Referred to as the high-saturation part of) in the vertical direction H x (Fig. 26)
And a portion of the wall surface 72AA to 72AD in the central portion of the image to which the less saturated color is applied (that is, a portion below the virtual line K1, hereinafter referred to as wall surface 72AA to 72A).
The vertical length L x (referred to as the low saturation portion of D) (FIG. 26)
Are detected in units of pixels, and the length H x of the high saturation part of the wall surfaces 72AA to 72AD, the length L x of the low saturation part of the wall surfaces 72AA to 72AD, and the hue of the wall surfaces 72AA to 72AD are detected. Wall detection signal S8
It is sent to the comparison / calculation unit 124 as 1.

【0191】比較・演算部124は、壁面検出信号S8
1に基づき得られるその壁面72AA〜72ADの色相
と、第1のメモリ125に予め格納されている各壁面7
2AA〜72ADの色相及びそのIDに関するテーブル
とに基づいて、その壁面72AA〜72ADのIDを検
出する。
The comparison / calculation unit 124 uses the wall surface detection signal S8.
The hues of the wall surfaces 72AA to 72AD obtained based on 1 and each wall surface 7 stored in advance in the first memory 125.
The IDs of the wall surfaces 72AA to 72AD are detected based on the hues of 2AA to 72AD and the table related to the IDs.

【0192】また比較・演算部124は、壁面検出信号
S81に基づき得られる画像中央部におけるその壁面7
2AA〜72ADの高彩度部分及び低彩度部分の各長さ
x、Lx とに基づいて次式
Further, the comparison / calculation unit 124 detects the wall surface 7 at the center of the image obtained based on the wall surface detection signal S81.
Based on the lengths H x and L x of the high saturation part and the low saturation part of 2AA to 72AD, the following equation

【0193】[0193]

【数8】 [Equation 8]

【0194】で与えられる演算を実行すると共に、かく
して算出された画像中央部におけるその壁面の高さに対
する高彩度部分の縦方向の長さの比率Rx2と、第2のメ
モリ126に予め格納されている各壁面72AA〜72
ADの一端におけるその壁面72AA〜72ADの高さ
に対する高彩度部分の長さの比率Ra2、各壁面72AA
〜72ADの他端におけるその壁面72AA〜72AD
の高さに対する高彩度部分の長さの比率Rb2及び各壁面
72AA〜72ADの長さMとに基づいて、次式
The ratio R x2 of the length of the high saturation portion in the vertical direction to the height of the wall surface in the central portion of the image thus calculated is stored in advance in the second memory 126 while the calculation given by Each wall surface 72AA to 72
Ratio R a2 of the length of the high saturation portion to the height of the wall surfaces 72AA to 72AD at one end of AD, each wall surface 72AA
Wall surface 72AA to 72AD at the other end of
Based on the ratio R b2 of the length of the high-saturation portion to the height of R and the length M of each wall surface 72AA to 72AD,

【0195】[0195]

【数9】 [Equation 9]

【0196】で与えられる演算を実行することにより、
その壁面72AA〜72ADの一端からその壁面72A
A〜72ADの画像中央部に撮像されている部分までの
距離x(その壁面72AA〜72ADと平行な方向にお
ける当該壁面72AA〜72ADの一端からロボツト1
21までの距離に相当)を算出する。
By performing the operation given by
The wall surface 72A from one end of the wall surface 72AA to 72AD
A distance x to a portion of the image of A to 72AD that is imaged in the central portion (from one end of the wall surface 72AA to 72AD in a direction parallel to the wall surface 72AA to 72AD, the robot 1
21) is calculated.

【0197】なお各壁面72AA〜72ADの一端にお
けるその壁面72AA〜72ADの高さに対する高彩度
部分の縦方向の長さの比率Ra2は、図26に示すよう
に、その壁面72AA〜72ADの一端における高彩度
部分の長さをHa2とし、低彩度部分の長さをLa2として
次式
The ratio R a2 of the length of the high saturation portion in the vertical direction to the height of the wall surfaces 72AA to 72AD at one end of each wall surface 72AA to 72AD is as shown in FIG. Let H a2 be the length of the high saturation part and L a2 be the length of the low saturation part,

【0198】[0198]

【数10】 [Equation 10]

【0199】により与えられる。また各壁面72AA〜
72ADの他端におけるその壁面72AA〜72ADの
高さに対する高彩度部分の長さの比率Rb2は、その壁面
72AA〜72ADの他端における高彩度部分の長さを
b2とし、低彩度部分の長さをLb2として次式
Given by: Moreover, each wall 72AA-
The ratio R b2 of the length of the high saturation portion to the height of the wall surfaces 72AA to 72AD at the other end of 72AD is H b2 when the length of the high saturation portion at the other end of the wall surfaces 72AA to 72AD is H b2. Let L b2 be the following equation

【0200】[0200]

【数11】 [Equation 11]

【0201】により与えられる。Given by:

【0202】さらにこの後比較・演算部124は、CP
U36の制御のもとにカメラ16が90〔°〕回転されて
その壁面72AA〜72AD(以下、これを第1の壁面
72AA〜72ADと呼ぶ)と異なる壁面72AA〜7
2AD(以下、これを第2の壁面72AA〜72ADと
呼ぶ)に向けられた後、同様の処理を実行することによ
り第2の壁面72AA〜72ADのIDと、当該第2の
壁面72AA〜72ADと平行な方向における自分の位
置とを検出する。
Further, thereafter, the comparison / calculation unit 124
Under the control of U36, the camera 16 is rotated by 90 [°] and the wall surfaces 72AA to 72AD different from the wall surfaces 72AA to 72AD (hereinafter, referred to as first wall surfaces 72AA to 72AD).
After being directed to 2AD (hereinafter, referred to as second wall surfaces 72AA to 72AD), the same processing is executed to identify the IDs of the second wall surfaces 72AA to 72AD and the second wall surfaces 72AA to 72AD. Detect your position in parallel directions.

【0203】さらに比較・演算部124は、この後上述
のようにして得られた第1の壁面72AA〜72ADの
ID及び当該第1の壁面72AA〜72ADと平行な方
向における位置と、第2の壁面72AA〜72ADのI
D及び当該第2の壁面72AA〜72ADと平行な方向
における位置と、第3のメモリ127に予め格納されて
いる各壁面72AA〜72ADの位置を含む領域の地図
情報とに基づいて領域2内における自分の位置を検出
し、検出結果を位置検出信号S82としてCPU36に
送出する。
Further, the comparison / calculation unit 124 thereafter obtains the IDs of the first wall surfaces 72AA to 72AD obtained as described above, the positions in the direction parallel to the first wall surfaces 72AA to 72AD, and the second position. I of the wall surfaces 72AA to 72AD
Within the area 2 based on D and the position in the direction parallel to the second wall surfaces 72AA to 72AD, and the map information of the area including the positions of the wall surfaces 72AA to 72AD stored in advance in the third memory 127. It detects its own position and sends the detection result to the CPU 36 as a position detection signal S82.

【0204】これによりこのロボツト121において
は、CPU36が位置検出信号S82に基づいて領域2
内における自分の位置を認識し得、当該認識結果に基づ
いて周囲の状況に応じた行動を自律的にとることができ
るようになされている。
As a result, in the robot 121, the CPU 36 determines the area 2 based on the position detection signal S82.
It is possible to recognize one's position in the inside and autonomously take action according to the surrounding situation based on the recognition result.

【0205】(7−2)第7実施例の動作及び効果 以上の構成において、この位置検出システム120で
は、ロボツト121がカメラ16から出力される画像信
号S1に基づいて周囲の第1及び第2の壁面72AA〜
72ADの色と、画像信号S1に基づく画像の中央部お
けるこれら各壁面72AA〜72Dの高さに対する高彩
度部分の長さHx の比率Rx2とを検出し、これら検出結
果と、第1のメモリ125に格納されている各壁面72
AA〜72ADの色及びそのIDと、第2のメモリ12
6に格納されている各壁面72AA〜72ADの長さM
並びに各壁面72AA〜72ADの一端及び他端におけ
る壁面72AA〜72ADの高さに対する高彩度部分の
長さHa2、Hb2の比率Ra2、Rb2と、第3のメモリ12
7に格納されている地図情報とに基づいて領域2内にお
ける自分の位置を検出する。
(7-2) Operations and Effects of Seventh Embodiment With the above-described structure, in the position detecting system 120, the robot 121 uses the first and second surroundings based on the image signal S1 output from the camera 16. Wall 72AA ~
The color of 72AD and the ratio R x2 of the length H x of the high saturation part to the height of each of the wall surfaces 72AA to 72D in the central portion of the image based on the image signal S1 are detected, and these detection results and the first memory are detected. Each wall 72 stored in 125
Colors AA to 72AD and their IDs, and the second memory 12
Length M of each wall surface 72AA-72AD stored in 6
And the ratio R a2, R b2 length H a2, H b2 high saturation portion with respect to the height of the wall 72AA~72AD at one end and the other end of each wall 72AA~72AD, third memory 12
It detects its own position in the area 2 based on the map information stored in 7.

【0206】従つてこの位置検出システム120では、
2つの壁面72AA〜72ADの色相と、これら壁面7
2AA〜72ADの高彩度部分とに基づいてロボツト1
21が領域2内における自分の位置を容易かつ精度良く
認識することができる。
Therefore, in this position detection system 120,
Hue of two wall surfaces 72AA to 72AD and these wall surfaces 7
Robot 1 based on high saturation part of 2AA-72AD
21 can easily and accurately recognize his / her position in the area 2.

【0207】またこの位置検出システム120では、領
域2の各辺に沿つて配置された各壁面72AA〜72A
Dにそれぞれ互いに異なる色相で、かつ彩度の大きく異
なる2色を所定パターンで塗布するだけで良いため、極
めて簡単にシステムを構築することができる。
Further, in this position detection system 120, the wall surfaces 72AA to 72A arranged along the respective sides of the area 2 are arranged.
Since it is only necessary to apply two colors having different hues and greatly different saturations to D in a predetermined pattern, it is possible to construct a system extremely easily.

【0208】さらにこの位置検出システム120では、
電波などの特別な信号を発信する方法を使用していない
ため、周辺機器への影響や電波法規などを考慮すること
なく使用することができると共に、領域2の床面に信号
発生機を設置する必要がないため、ロボツト121の行
動を妨げるおそれもない。
Further, in this position detecting system 120,
Since it does not use a method of transmitting special signals such as radio waves, it can be used without considering the influence on peripheral devices and radio regulations, and a signal generator is installed on the floor of Area 2 Since it is not necessary, there is no fear of obstructing the action of the robot 121.

【0209】さらにこの位置検出システム120では、
ロボツト121の行動領域2の床面に記号や標識等を表
記する方式ではないため、他の目的のために床面にペイ
ントなどを施すこともできる。
Furthermore, in this position detection system 120,
Since it is not a method of writing symbols, signs, etc. on the floor surface of the action area 2 of the robot 121, it is possible to paint the floor surface for other purposes.

【0210】さらにこの位置検出システム120では、
ロホツト121のカメラ16をおおよそ水平方向に向け
ることによつて当該ロボツト121の正面の壁面72A
A〜72ADをカメラ16により撮像することができる
ため、ロボツト121が領域2内における自分の位置を
検出するためにカメラ16を所定方向に向ける必要がな
く、また他のロボツトをカメラ16でとらえながら領域
2内における自分の位置を検出し得る利点もある。
Further, in this position detecting system 120,
By pointing the camera 16 of the robot 121 approximately in the horizontal direction, the front wall surface 72A of the robot 121
Since A to 72AD can be imaged by the camera 16, the robot 121 does not need to orient the camera 16 in a predetermined direction in order to detect its own position in the area 2, and the other robots can be captured by the camera 16. There is also an advantage that the position of oneself in the area 2 can be detected.

【0211】以上の構成によれば、各壁面72AA〜7
2AD毎に互いに異なる色相を用いて、これら各壁面7
2AA〜72ADに同じ色相で彩度の異なる2色を所定
パターンでそれぞれ塗布し、ロボツト121が2つの壁
面72AA〜72ADの色相と、これら壁面72AA〜
72ADをカメラ16により垂直に撮像した場合の画像
中央部におけるその壁面72AA〜72ADの高さに対
する高彩度部分の縦方向の長さHx とをそれぞれ検出
し、これら検出結果と、第1のメモリ125に格納され
ている各壁面72AA〜72ADの色及びそのIDと、
第2のメモリ126に格納されている各壁面72AA〜
72ADの長さM並びに各壁面72AA〜72ADの一
端及び他端における壁面72AA〜72ADの高さに対
する高彩度部分の長さHa2、Hb2の比率Ra2、Rb2と、
第3のメモリ127に格納されている地図情報とに基づ
いて領域2内における自分の位置を検出するようにした
ことにより、ロボツト121が領域2内における自分の
位置を精度良く検出することができ、かくして領域2内
における自分の位置を精度良く検出し得る位置検出シス
テム及びロボツトを実現できる。
According to the above construction, each wall surface 72AA-7A
By using different hues for each 2AD, these wall surfaces 7
Two colors having the same hue but different saturation are respectively applied to 2AA to 72AD in a predetermined pattern, and the robot 121 has the hues of the two wall surfaces 72AA to 72AD and these wall surfaces 72AA to 72AD.
The vertical length H x of the high saturation portion with respect to the heights of the wall surfaces 72AA to 72AD in the central portion of the image when 72AD is vertically captured by the camera 16 is detected, and these detection results and the first memory 125 are detected. The colors and IDs of the wall surfaces 72AA to 72AD stored in
Each wall surface 72AA stored in the second memory 126
The length M of 72AD and the ratio R a2 , R b2 of the lengths H a2 and H b2 of the high saturation part to the heights of the wall faces 72AA to 72AD at one end and the other end of each wall face 72AA to 72AD,
By detecting the position of itself in the area 2 based on the map information stored in the third memory 127, the robot 121 can accurately detect the position of itself in the area 2. Thus, it is possible to realize the position detecting system and the robot which can detect the position of the user within the area 2 with high accuracy.

【0212】(8)第8実施例 (8−1)第8実施例による位置検出システムの構成 図17との対応部分に同一符号を付して示す図28は、
第8実施例による位置検出システム130を示すもので
あり、領域2の各辺に沿つて設けられた各壁面131A
A〜131ADがそれぞれ複数の液晶パネル132のパ
ネル面で構成されている点を除いて第4実施例の位置検
出システム90(図17)と同様に構成されている。
(8) Eighth Embodiment (8-1) Configuration of Position Detection System According to Eighth Embodiment FIG. 28 in which parts corresponding to those in FIG.
It shows the position detection system 130 according to the eighth embodiment, and each wall surface 131A provided along each side of the area 2.
The position detection system 90 (FIG. 17) of the fourth embodiment is configured in the same manner, except that each of A to 131AD is composed of a plurality of liquid crystal panels 132.

【0213】この場合各液晶パネル132は、図29に
示すように、領域2の同じ辺に沿うもの同士が同じ色
で、かつ領域2の異なる辺に沿うもの同士がHSI空間
において色相が60〔°〕以上離れた互いに異なる色の光
を領域2内に向けて発射するように制御部133により
制御される。
In this case, in each liquid crystal panel 132, as shown in FIG. 29, those along the same side of the area 2 have the same color, and those along different sides of the area 2 have a hue of 60 [in HSI space]. The control unit 133 controls so as to emit lights of different colors apart from each other into the area 2.

【0214】これによりこの位置検出システム130に
おいては、第4実施例の位置検出システム90(図1
7)と同様に、ロボツト91が各壁面131AA〜13
1ADの色に基づいてその壁面131AA〜131AD
を容易に識別し得るようになされている。
As a result, in this position detecting system 130, the position detecting system 90 of the fourth embodiment (see FIG.
In the same manner as 7), the robot 91 is attached to each wall surface 131AA-13A.
The wall surface 131AA-131AD based on the color of 1AD
Are designed to be easily identified.

【0215】(8−2)第8実施例の動作及び効果 以上の構成において、この位置検出システム130で
は、図18について上述したように、ロボツト91がカ
メラ16から出力される画像信号S1に基づいて、周囲
の第1及び第2の壁面131AA〜131ADの色と、
画像信号S1に基づく画像内におけるその第1及び第2
の壁面131AA〜131ADの高さとを検出し、当該
検出結果と、第1のメモリ83に予め格納されている各
壁面131AA〜131ADの色及びそのIDと、第2
のメモリ84に予め格納されている基準値Hstdと、第3
のメモリ85に予め格納されている地図情報とに基づい
て領域2内における自分の位置を検出する。
(8-2) Operation and Effect of Eighth Embodiment With the above configuration, in the position detecting system 130, the robot 91 is based on the image signal S1 output from the camera 16 as described above with reference to FIG. And the colors of the surrounding first and second wall surfaces 131AA to 131AD,
Its first and second in the image based on the image signal S1
The heights of the wall surfaces 131AA to 131AD of the wall surfaces 131AA to 131AD are detected, and the detection results, the colors and the IDs of the wall surfaces 131AA to 131AD stored in advance in the first memory 83, and the second
The reference value Hstd previously stored in the memory 84 of the
It detects its own position in the area 2 based on the map information previously stored in the memory 85 of FIG.

【0216】従つてこの位置検出システム130によれ
ば、第4実施例の位置検出システム90(図17)と同
様の作用効果を得ることができる。
Therefore, according to the position detecting system 130, it is possible to obtain the same operational effect as the position detecting system 90 (FIG. 17) of the fourth embodiment.

【0217】これに加えこの位置検出システム130で
は、各壁面131AA〜131ADが自ら所定の色を発
光するため、例えば第4実施例のように各壁面72AA
〜72ADにおける光の反射を利用する場合に比べてロ
ボツト91内部において色識別を行う際に照明などの外
部環境の影響を受け難くすることができる。
In addition to this, in the position detecting system 130, since the wall surfaces 131AA to 131AD emit light of a predetermined color by themselves, for example, the wall surfaces 72AA as in the fourth embodiment.
It is possible to make it less susceptible to the external environment such as lighting when performing color identification inside the robot 91, as compared with the case where the reflection of light at ~ 72AD is used.

【0218】またこの位置検出システム130では、各
壁面131AA〜131ADを液晶パネル132のパネ
ル面により構成するようにしているため、ロボツト91
の種類や、作業内容に応じて各壁面131AA〜131
ADの色を自由に切り換えることができる利点をも有し
ている。
Further, in the position detecting system 130, since the respective wall surfaces 131AA to 131AD are constituted by the panel surface of the liquid crystal panel 132, the robot 91
Wall surface 131AA-131 according to the type of work and work content
It also has an advantage that the color of AD can be freely switched.

【0219】以上の構成によれば、第4実施例の位置検
出システム90(図17)に対し、領域2の各辺う各壁
面131AA〜131ADをそれぞれ複数の液晶パネル
132のパネル面で構成すると共に、これら液晶パネル
132を、領域2の同じ辺に沿うもの同士が同じ色で、
かつ領域2の異なる辺に沿うもの同士がHSI空間にお
いて色相が60〔°〕以上離れた互いに異なる色の光を領
域2内に向けて発射するように制御するようにしたこと
により、ロボツト91内部における色識別に外部環境の
変化の影響を受け難くすることができ、かくして領域2
内における自分の位置を精度良く検出し得る位置検出シ
ステム及びロボツトを実現できる。
According to the above construction, in the position detecting system 90 (FIG. 17) of the fourth embodiment, the wall surfaces 131AA to 131AD corresponding to the sides of the area 2 are formed by the panel surfaces of the plurality of liquid crystal panels 132, respectively. At the same time, the liquid crystal panels 132 having the same color on the same side of the area 2 are
In addition, the robots along the different sides of the area 2 are controlled so as to emit lights of different colors having hues of 60 [°] or more in the HSI space toward the area 2, so that the inside of the robot 91 is controlled. It is possible to make the color identification in the area less susceptible to the change of the external environment, and thus the area 2
It is possible to realize a position detection system and a robot capable of accurately detecting the position of oneself inside.

【0220】(9)他の実施例 なお上述の第1〜第8実施例においては、本発明を自律
移動型のロボツト3A〜3C、51A〜51C、71、
91、101、111、121に適用するようにした場
合について述べたが、本発明はこれに限らず、この他種
々のロボツト又は他の移動体に適用することができる。
(9) Other Embodiments In the above first to eighth embodiments, the present invention is applied to the autonomous mobile robots 3A to 3C, 51A to 51C, 71.
Although the case where the present invention is applied to 91, 101, 111, 121 has been described, the present invention is not limited to this, and can be applied to various other robots or other moving bodies.

【0221】また上述の第1実施例においては、図2
(A)のように、識別体23を支持棒22を介して各ロ
ボツト3A〜3Cに取り付けるようにした場合について
述べたが、本発明はこれに限らず、識別体23を例えば
図30のようにロボツト140の頭部12上に配設する
ようにしても良く、要は、ロボツト3A〜3Cに対して
他のロボツト3A〜3Cから見やすい位置に識別体23
を取り付けるのであれば、識別体23の取り付け位置と
しては、この他種々の位置を適用できる。
Further, in the above-mentioned first embodiment, FIG.
As described in (A), the case where the identification body 23 is attached to each of the robots 3A to 3C via the support rod 22 has been described, but the present invention is not limited to this, and the identification body 23 is, for example, as shown in FIG. It may be arranged on the head 12 of the robot 140. The point is that the identifier 23 is located at a position easily visible from the other robots 3A to 3C with respect to the robots 3A to 3C.
If is attached, various other positions can be applied as the attachment position of the identification body 23.

【0222】さらに上述の第1実施例においては、識別
体23を球状に形成するようにした場合について述べた
が、本発明はこれに限らず、例えば図31(A)のよう
な楕円回転体形状や、図31(B)のような円柱形状等
のこの他種々の形状にするようにしても良い。ただし識
別体23の形状をロボツト3A〜3Cの移動方向と垂直
な中心軸を有する回転体に選定し、その表面を当該ロボ
ツト3A〜3Cの移動方向と平行な複数の帯状領域に分
割し、所定の色パターンで各帯状領域をそれぞれ所定色
に着色するようにすることによつて、領域2が平坦な場
合にどの方向から見ても識別体を同じ形状及び同じ色パ
ターンで見ることができるため、識別体の個体識別を容
易にすることができる。
Further, in the above-mentioned first embodiment, the case where the identification body 23 is formed in a spherical shape has been described, but the present invention is not limited to this, and for example, an elliptical rotary body as shown in FIG. 31 (A). Other shapes such as the shape and the columnar shape as shown in FIG. 31B may be used. However, the shape of the discriminating body 23 is selected as a rotating body having a central axis perpendicular to the moving directions of the robots 3A to 3C, and the surface thereof is divided into a plurality of strip-shaped regions parallel to the moving direction of the robots 3A to 3C, and predetermined. By coloring each strip-shaped area in a predetermined color with the color pattern of No. 3, the identifier can be seen with the same shape and the same color pattern when viewed from any direction when the area 2 is flat. The individual identification of the identifier can be facilitated.

【0223】さらに上述の第1実施例においては、識別
体23の表面を3色に色分けするようにした場合につい
て述べたが、本発明はこれに限らず、この他の数に色分
けするようにしても良い。また上述の第1実施例におい
ては、識別のための色として16色用意するようにした場
合について述べたが、本発明はこれに限らず、この他の
数であつても良い。
Further, in the above-described first embodiment, the case where the surface of the identification body 23 is color-coded into three colors has been described, but the present invention is not limited to this, and color coding may be performed into other numbers. May be. Further, in the above-described first embodiment, a case has been described in which 16 colors are prepared as the colors for identification, but the present invention is not limited to this, and other numbers may be used.

【0224】さらに上述の第1実施例においては、他の
ロボツト3A〜3Cに配設されたロボツト3A〜3C毎
に異なる色パターンの識別体23を撮像する撮像手段と
してカメラ16を適用するようにした場合について述べ
たが、本発明はこれに限らず、この他種々の撮像手段を
適用できる。
Further, in the above-mentioned first embodiment, the camera 16 is applied as the image pickup means for picking up the image of the identifying body 23 having a different color pattern for each of the robots 3A to 3C arranged in the other robots 3A to 3C. However, the present invention is not limited to this, and various other imaging means can be applied.

【0225】さらに上述の第1実施例においては、カメ
ラ16から供給される画像情報(画像信号S1)に基づ
いて、カメラ16により撮像された識別体23の色パタ
ーンを検出する色パターン検出手段を、図6のように構
成された複数の色抽出部31A〜31Uと色パターン検
出部32とで構成するようにした場合について述べた
が、本発明はこれに限らず、この他種々の構成を適用で
きる。
Further, in the above-described first embodiment, the color pattern detecting means for detecting the color pattern of the identification body 23 imaged by the camera 16 is provided based on the image information (image signal S1) supplied from the camera 16. , The case where the color pattern detecting unit 32 and the plurality of color extracting units 31A to 31U configured as shown in FIG. 6 are configured has been described, but the present invention is not limited to this, and various other configurations are possible. Applicable.

【0226】さらに上述の第1実施例においては、色パ
ターン検出部32により検出された識別体23の色パタ
ーンと、予め記憶している各ロボツト3A〜3Cごとの
識別体23の色パターン情報とに基づいて、カメラ16
により撮像した識別体23を有するロボツト3A〜3C
の個体を識別する識別手段を、比較・演算部33、第1
のメモリ34により構成するようにした場合について述
べたが、本発明はこれに限らず、この他種々の構成を適
用できる。この場合第1のメモリ34に代えてこの他種
々の記憶手段を適用できる。
Further, in the above-described first embodiment, the color pattern of the discriminator 23 detected by the color pattern detecting section 32 and the color pattern information of the discriminator 23 for each of the robots 3A to 3C stored in advance. Based on the camera 16
Robots 3A to 3C having the identification body 23 imaged by
The identification / means for identifying the individual
Although the case has been described in which the memory 34 is used for configuration, the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied instead of the first memory 34.

【0227】さらに上述の第1実施例においては、カメ
ラ16から供給される画像信号S1に基づく画像内にお
ける識別体23の直径(又は他の部分の大きさでも良
い)を検出する大きさ検出手段を、複数の色抽出部31
A〜31Uと色パターン検出部32とで構成するように
した場合について述べたが、本発明はこれに限らず、こ
の他種々の構成を適用できる。
Further, in the above-mentioned first embodiment, the size detecting means for detecting the diameter (or the size of another portion) of the identifying body 23 in the image based on the image signal S1 supplied from the camera 16. To a plurality of color extraction units 31
Although the case where the color pattern detection unit 32 is configured by A to 31U has been described, the present invention is not limited to this and various other configurations can be applied.

【0228】さらに上述の第1実施例においては、色パ
ターン検出部32により検出された識別体23の大きさ
と、予め記憶している基準値とに基づいて、カメラ16
から識別体23までの距離L1を算出する演算手段を、
比較・演算部33及び第2のメモリ35により構成する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成を適用できる。この場合第2のメ
モリ35に代えてこの他種々の記憶手段を適用できる。
Further, in the above-described first embodiment, the camera 16 is based on the size of the identifying body 23 detected by the color pattern detecting section 32 and the reference value stored in advance.
A calculation means for calculating the distance L1 from the identification object 23 to
The case where the comparison / calculation unit 33 and the second memory 35 are used has been described, but the present invention is not limited to this, and various other structures can be applied. In this case, various other storage means can be applied instead of the second memory 35.

【0229】さらに上述の第1実施例においては、カメ
ラ16から識別体23までの距離L1を算出するための
基準値を、カメラ16及び識別体23が1〔m〕離れて
いるときの識別体23の画素を単位とした直径に選定す
るようにした場合について述べたが、本発明はこれに限
らず、この他種々の値を適用できる。
Further, in the above-mentioned first embodiment, the reference value for calculating the distance L1 from the camera 16 to the discriminator 23 is the discriminator when the camera 16 and the discriminator 23 are 1 [m] apart. The case where the diameter is selected with 23 pixels as a unit has been described, but the present invention is not limited to this, and various other values can be applied.

【0230】さらに上述の第1実施例においては、各識
別体23を単に複数色で固有の色パターンに色づけする
ようにした場合について述べたが、本発明はこれに限ら
ず、例えば各識別体23の色パターンをそれぞれ所定の
色空間(例えば図16を用いて説明したHSI空間や、
色を赤色、緑色及び青色の各レベルで表すRGB空間、
又は色を輝度レベル並びに第1及び第2の色差レベルで
表すYUV空間など)において所定の第1の距離だけ離
れた複数色の組み合わせにより形成する(すなわち識別
のための色として所定の色空間において第1の距離だけ
離れた色を用いる)ようにしても良い。
Further, in the above-described first embodiment, the case where each identification body 23 is simply colored in a unique color pattern with a plurality of colors has been described, but the present invention is not limited to this, and each identification body is, for example, Each of the 23 color patterns has a predetermined color space (for example, the HSI space described with reference to FIG. 16 or
RGB space that expresses colors in red, green and blue levels,
Alternatively, a color is formed by a combination of a plurality of colors that are separated by a predetermined first distance in a luminance level and a YUV space that represents first and second color difference levels (that is, in a predetermined color space as a color for identification). Colors separated by a first distance may be used).

【0231】この場合各ロボツト3A〜3Cの個体識別
部30には、色抽出部31A〜31Uに代えて、カメラ
16から供給される画像信号S1をその色空間に応じた
画像フオーマツトの画像信号に変換する変換手段(例え
ば第4実施例の画像フオーマツト変換部93)と、当該
変換手段から出力される画像信号に基づく画像のなかか
らそれぞれ互いに異なる指定された色の画素を抽出する
複数の色抽出手段(例えば第4実施例の各色抽出部94
A〜94D)とを設け、これら変換手段及び複数の色抽
出手段と、色パターン検出部32(図4)とで構成され
る色パターン検出手段によつてカメラ16により撮像し
た識別体23の色パターンを検出するようにするように
すれば良い。このようにすることによつて、ロボツト3
A〜3Cにおける識別体23に着色された色の誤判定を
未然に回避でき、その分より精度良くロボツト3A〜3
Cの個体を識別し得る個体識別システム及びロボツトを
実現できる。なおこの場合、カメラ16から出力される
画像信号S1の画像フオーマツトが上述の色空間に応じ
たものである場合には、変換手段を省略することができ
る。
In this case, in the individual identification section 30 of each of the robots 3A to 3C, instead of the color extraction sections 31A to 31U, the image signal S1 supplied from the camera 16 is converted into the image signal of the image format corresponding to the color space. A conversion means for converting (for example, the image format conversion section 93 of the fourth embodiment) and a plurality of color extractions for extracting pixels of different designated colors from the image based on the image signal output from the conversion means. Means (for example, each color extraction unit 94 of the fourth embodiment)
A to 94D), and the color of the identifying body 23 imaged by the camera 16 by the color pattern detecting means including the converting means, the plurality of color extracting means, and the color pattern detecting section 32 (FIG. 4). The pattern may be detected. By doing this, the robot 3
It is possible to avoid erroneous determination of the color colored on the identification body 23 in A to 3C, and the robots 3A to 3C can be more accurately compared with that.
An individual identification system and a robot capable of identifying the individual C can be realized. In this case, if the image format of the image signal S1 output from the camera 16 corresponds to the above-mentioned color space, the conversion means can be omitted.

【0232】さらにこの場合、識別体23に塗布する色
の組み合わせとして、隣接する色同士が上述の色空間に
おいて第1の距離よりも大きい第2の距離だけ離れるよ
うに選定するようにしても良く、このようにすることに
よつてより精度良くロボツト3A〜3Cの個体を識別し
得る個体識別システム及びロボツトを実現できる。
Furthermore, in this case, the combination of colors applied to the identifying body 23 may be selected so that adjacent colors are separated by a second distance larger than the first distance in the above-mentioned color space. By doing so, an individual identification system and a robot that can identify the individuals of the robots 3A to 3C with higher accuracy can be realized.

【0233】さらに上述の第1実施例においては、識別
体23として発光しないものを適用するようにした場合
について述べたが、本発明はこれに限らず、識別体23
として、例えば透明な球殻の内部に電球等の発光手段を
収容すると共に、球殻の表面を対応する色パターンの色
づけするなどして識別体23が対応する色パターンの光
を発光するようにしても良く、このようにすることによ
つて識別手段による色識別に誤識別が発生する確立を低
減することができ、その分より精度良くロボツト3A〜
3Cの個体を識別し得る個体識別システム及びロボツト
を実現できる。
Further, in the above-described first embodiment, the case where the one that does not emit light is applied as the discriminator 23 is described, but the present invention is not limited to this, and the discriminator 23 is not limited thereto.
For example, a light emitting means such as a light bulb is housed inside a transparent spherical shell, and the surface of the spherical shell is colored with a corresponding color pattern so that the identifying body 23 emits light with a corresponding color pattern. By doing so, it is possible to reduce the probability of erroneous identification in the color identification by the identification means, and the robots 3A ...
An individual identification system and a robot capable of identifying the 3C individual can be realized.

【0234】さらに上述の第2実施例においては、図1
0のように識別シール52の表面を色分けするようにし
て色パターンを形成するようにした場合について述べた
が、本発明はこれに限らず、識別シール52の表面を図
32のように色分けするようにしても良く、要は、識別
シール52の表面を複数の色で色分けするのであれば、
色パターンの形状としては、この他種々の形状を適用で
きる。
Further, in the above-mentioned second embodiment, FIG.
Although the case where the color pattern is formed by color-coding the surface of the identification sticker 52 as described above, the present invention is not limited to this, and the surface of the identification sticker 52 is color-coded as shown in FIG. The point is that if the surface of the identification seal 52 is color-coded with a plurality of colors,
As the shape of the color pattern, various other shapes can be applied.

【0235】この場合例えば図33に示すように、複数
種類の識別色のなかから所定数の色を用いて同心状の複
数の環状領域141A〜141Cを色づけするようにし
て色パターンを形成するようにしても良い。
In this case, for example, as shown in FIG. 33, a color pattern is formed by coloring a plurality of concentric annular regions 141A to 141C using a predetermined number of colors from a plurality of types of identification colors. You can

【0236】またこれに加えて、例えば図34(A)〜
(C)のように各環状領域141A〜141Cの所定の
径方向に延長する所定色に着色された直線領域141D
や、着色されていない長方形領域141E又は扇状領域
141Fなどの領域を設けるようにしても良い。この場
合直線領域141D、長方形領域141E又は扇状領域
141Fなどの所定形状の領域がロボツト51A〜51
Cの前方向又は後方向などを向くように予め設定してお
くことによつて当該領域の向きに基づいてロボツト51
A〜51Cの向きをも検出し得るようにすることができ
る。
In addition to this, for example, FIG.
As shown in (C), a linear region 141D colored in a predetermined color extending in a predetermined radial direction of each annular region 141A to 141C.
Alternatively, an uncolored rectangular area 141E or a fan-shaped area 141F may be provided. In this case, areas of a predetermined shape such as the linear area 141D, the rectangular area 141E or the fan-shaped area 141F are the robots 51A to 51A.
The robot 51 is set in advance so as to face the front direction or the rear direction of C.
It is also possible to detect the orientations of A to 51C.

【0237】さらに上述の第2実施例においては、各ロ
ボツト51A〜51Cに互いに異なる色パターンを付与
する手段として表面が所定の色パターンで色分けされた
識別シール52を貼り付けるようにした場合について述
べたが、本発明はこれに限らず、例えばロボツト51A
〜51Cの上面(又はカメラ53により撮像できる他の
所定位置)に直接ペンキを塗ることにより各ロボツト5
1A〜51Cに互いに異なる所定の色パターンを付与す
るようにしても良く、各ロボツト51A〜51Cに互い
に異なる所定の色パターンを付与する手段としては、こ
の他種々の方法を適用できる。
Further, in the above-described second embodiment, the case where the identification sticker 52 whose surface is color-coded by a predetermined color pattern is attached as means for giving different color patterns to the respective robots 51A to 51C will be described. However, the present invention is not limited to this, for example, the robot 51A.
Each robot 5 by directly painting the upper surface of 51C (or another predetermined position that can be imaged by the camera 53).
1A to 51C may be given different predetermined color patterns, and various other methods may be applied as means for giving different predetermined color patterns to the respective robots 51A to 51C.

【0238】この場合例えば各ロボツト51A〜51C
に互いに異なる色パターンの光を発光する発光手段(例
えば透明フイルムの下側に電球等の発光体を配設すると
共に、透明フイルムに対応する色パターンで色づけす
る)を配設するようにしても良く、このようにすること
によつて識別手段による色識別に誤識別が発生する確立
を低減することができ、その分より精度良くロボツト3
A〜3Cの個体を識別し得る個体識別システム及びロボ
ツトを実現できる。
In this case, for example, each of the robots 51A to 51C
Even if a light emitting means for emitting light of different color patterns (for example, a light emitting body such as a light bulb is provided below the transparent film and the transparent film is colored with a color pattern corresponding to the transparent film) Well, by doing so, it is possible to reduce the probability that erroneous identification occurs in the color identification by the identification means, and the robot 3 can be more accurately correspondingly.
An individual identification system and a robot capable of identifying the individual A to 3C can be realized.

【0239】さらに上述の第2実施例においては、カメ
ラ53から供給される画像情報(画像信号S1)に基づ
く画像内における各ロボツト51A〜51Cの色パター
ンの位置に基づいて、領域2内における各ロボツト51
A〜51Cの位置を検出する位置検出手段を、比較・演
算部56及びメモリ57で構成するようにした場合につ
いて述べたが、本発明はこれに限らず、この他種々の構
成を適用できる。この場合メモリ57に代えてこの他種
々の記憶手段を適用することができる。
Further, in the above-described second embodiment, each area in the area 2 is based on the position of the color pattern of each of the robots 51A to 51C in the image based on the image information (image signal S1) supplied from the camera 53. Robot 51
The case where the position detecting means for detecting the positions of A to 51C is configured by the comparing / calculating unit 56 and the memory 57 has been described, but the present invention is not limited to this, and various other configurations can be applied. In this case, various other storage means can be applied instead of the memory 57.

【0240】さらに上述の第2実施例においては、個体
識別部54により検出した各ロボツト51A〜51Cの
位置を電波により各ロボツト51A〜51Cに伝達する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他の赤外線等の無線手段又は有線等のこの他種
々の伝達手段を適用できる。
Further, in the above-mentioned second embodiment, the case where the position of each of the robots 51A to 51C detected by the individual identifying section 54 is transmitted to each of the robots 51A to 51C by a radio wave has been described. The present invention is not limited to this, and other wireless means such as infrared rays or various other transmission means such as wires can be applied.

【0241】さらに上述の第2実施例においては、各識
別シール52を単に複数色で固有の色パターンに色分け
するようにした場合について述べたが、本発明はこれに
限らず、例えば各識別シール52の色パターンをそれぞ
れ所定の色空間(例えばHSI空間や、RGB空間又は
YUV空間など)において所定の第1の距離だけ離れた
複数色の組み合わせにより形成する(すなわち識別のた
めの色として所定の色空間において第1の距離だけ離れ
た色を用いる)ようにしても良い。
Further, in the above-described second embodiment, the case where each identification seal 52 is simply color-coded into a unique color pattern with a plurality of colors has been described, but the present invention is not limited to this, and for example, each identification sticker. Each of the 52 color patterns is formed by a combination of a plurality of colors that are separated by a predetermined first distance in a predetermined color space (for example, HSI space, RGB space, or YUV space) (that is, a predetermined color for identification. Colors separated by a first distance in the color space may be used).

【0242】この場合個体識別部54には、色抽出部3
1A〜31Uに代えて、カメラ53から供給される画像
信号S30をその色空間に応じた画像フオーマツトの画
像信号に変換する変換手段(例えば第4実施例の画像フ
オーマツト変換部93)と、当該変換手段から出力され
る画像信号に基づく画像のなかからそれぞれ互いに異な
る指定された色の画素を抽出する複数の色抽出手段(例
えば第4実施例の各色抽出部94A〜94D)とを設
け、これら変換手段及び複数の色抽出手段と、色パター
ン検出部55(図11)とで構成される色パターン検出
手段によつてカメラ53により撮像した各識別シール5
2の色パターンを検出するようにするようにしても良
い。このようにすることによつて、個体識別部54にお
ける識別シール52に着色された色の誤判定を未然に回
避でき、その分より精度良くロボツト51A〜51Cの
個体を識別し得る個体識別システムを実現できる。なお
この場合においても、カメラ16から出力される画像信
号S1の画像フオーマツトが上述の色空間に応じたもの
である場合には変換手段を省略することができる。
In this case, the individual identification section 54 includes the color extraction section 3
Instead of 1A to 31U, a conversion unit (for example, the image format conversion unit 93 of the fourth embodiment) for converting the image signal S30 supplied from the camera 53 into an image signal of an image format corresponding to the color space, and the conversion. A plurality of color extraction means (for example, each color extraction section 94A to 94D of the fourth embodiment) for extracting pixels of designated colors different from each other in the image based on the image signal output from the means are provided, and these conversions are performed. Means, a plurality of color extracting means, and a color pattern detecting section 55 (FIG. 11), each identification seal 5 imaged by the camera 53 by the color pattern detecting section.
The two color patterns may be detected. By doing so, an individual identification system capable of avoiding erroneous determination of the color colored on the identification sticker 52 in the individual identification unit 54 and identifying the individuals of the robots 51A to 51C more accurately accordingly. realizable. Even in this case, if the image format of the image signal S1 output from the camera 16 corresponds to the above-mentioned color space, the conversion means can be omitted.

【0243】さらにこの場合、識別シール52に塗布す
る色の組み合わせとして、隣接する色同士が上述の色空
間において第1の距離よりも大きい第2の距離だけ離れ
るように選定するようにしても良く、このようにするこ
とによつてより精度良くロボツト51A〜51Cの個体
を識別し得る個体識別システムを実現できる。
Further, in this case, the combination of colors applied to the identification seal 52 may be selected so that the adjacent colors are separated from each other by the second distance larger than the first distance in the above-mentioned color space. By doing so, it is possible to realize an individual identification system capable of more accurately identifying the individuals of the robots 51A to 51C.

【0244】さらに上述の第3実施例においては、領域
2の各辺に沿つた各壁面72AA〜72ADごとに塗布
する色を変えるようにした場合について述べたが、本発
明はこれに限らず、領域2の各辺に沿つた各壁面72A
A〜72ADをZ方向と平行な複数の領域に分割し、当
該各領域ごとに塗布する色を変えるようにしても良い。
Further, in the above-mentioned third embodiment, the case where the color to be applied is changed for each of the wall surfaces 72AA to 72AD along each side of the area 2 has been described, but the present invention is not limited to this. Each wall surface 72A along each side of region 2
A to 72AD may be divided into a plurality of regions parallel to the Z direction, and the applied color may be changed for each region.

【0245】さらに上述の第1〜第3実施例において
は、色抽出部31A〜31Uを図6のように構成するよ
うにした場合について述べたが、本発明はこれに限ら
ず、要は、供給される画像信号を輝度信号及び色差信号
に分離する分離手段(実施例では分離回路41と、輝度
信号及び色差信号に基づいて、画像信号に基づく画像内
の画素ごとの輝度レベル及び色差レベルを順次検出する
レベル検出手段(実施例ではアナログ/デイジタル変換
回路42、43A、43B)と、レベル検出手段により
検出された画素の輝度レベル及び色差レベルと予め記憶
している各輝度レベルごとの色差レベルの上限値及び下
限値とに基づいて各画素ごとに所定色か否かを判定する
判定手段(実施例では第1〜第4のメモリ44A〜44
D、第1〜第4の比較回路45A〜45D及び判定回路
48)とを設けるようにするのであれば、色抽出部の構
成としては、この他種々の構成を適用できる。
Furthermore, in the above-mentioned first to third embodiments, the case where the color extracting portions 31A to 31U are configured as shown in FIG. 6 has been described, but the present invention is not limited to this, and the point is that Separation means for separating the supplied image signal into a luminance signal and a color difference signal (a separation circuit 41 in the embodiment, and a luminance level and a color difference level for each pixel in the image based on the image signal based on the luminance signal and the color difference signal. Level detection means for sequentially detecting (analog / digital conversion circuits 42, 43A, 43B in the embodiment), luminance levels and color difference levels of pixels detected by the level detection means, and color difference levels for each luminance level stored in advance. Determination means for determining whether each pixel has a predetermined color based on the upper limit value and the lower limit value (in the embodiment, the first to fourth memories 44A to 44).
D, the first to fourth comparison circuits 45A to 45D, and the determination circuit 48) are provided, various other configurations can be applied as the configuration of the color extraction unit.

【0246】さらに上述の第3〜第8実施例において
は、領域2の周囲に沿つて設けられた互いに異なる色の
複数の壁面72AA〜72AD、131AA〜131A
Dのうち、対応する所定の壁面72AA〜72AD、1
31AA〜131AD(すなわち正面の壁面72AA〜
72AD、131AA〜131AD)を撮像する撮像手
段としてカメラ16を適用するようにした場合について
述べたが、本発明はこれに限らず、この他種々の撮像手
段を適用できる。
Furthermore, in the above-mentioned third to eighth embodiments, a plurality of wall surfaces 72AA to 72AD, 131AA to 131A provided along the periphery of the region 2 and having different colors.
Of D, corresponding predetermined wall surfaces 72AA to 72AD, 1
31AA to 131AD (that is, the front wall surface 72AA to
The case where the camera 16 is applied as the image pickup means for picking up images 72AD, 131AA to 131AD) has been described, but the present invention is not limited to this, and various other image pickup means can be applied.

【0247】さらに上述の第3〜第8実施例において
は、カメラ16から出力される画像情報(画像信号S
1)に基づいて、当該カメラ16により撮像された壁面
72AA〜72AD、131AA〜131ADの色及び
当該壁面72AA〜72AD、131AA〜131AD
に対する相対位置(その壁面72AA〜72AD、13
1AA〜131ADからの距離L2又はその壁面72A
A〜72AD、131AA〜131ADと平行な方向に
おける当該壁面72AA〜72AD、131AA〜13
1ADの一端からの距離x)を検出する色及び相対位置
検出手段を、複数の色抽出部31A〜31D、94A〜
94E、壁検出部8、103、114、123、比較・
演算部82、104、115、124並びに第1及び第
2のメモリ83、84、105、106、116、11
7、125、126により構成するようにした場合につ
いて述べたが、本発明はこれに限らず、この他種々の構
成を適用できる。この場合第1及び第2のメモリ83、
84、105、106、116、117、125、12
6に代えてこの他種々の記憶手段を適用できる。
Furthermore, in the above-mentioned third to eighth embodiments, the image information (image signal S
Based on 1), the colors of the wall surfaces 72AA to 72AD, 131AA to 131AD imaged by the camera 16 and the wall surfaces 72AA to 72AD, 131AA to 131AD.
Relative position (the wall surfaces 72AA to 72AD, 13
Distance L2 from 1AA to 131AD or its wall surface 72A
A-72AD, 131AA-131AD, the wall surfaces 72AA-72AD, 131AA-13 in the direction parallel to
The color and relative position detecting means for detecting the distance x) from one end of 1AD is composed of a plurality of color extracting units 31A to 31D, 94A to.
94E, wall detectors 8, 103, 114, 123, comparison /
Arithmetic units 82, 104, 115, 124 and first and second memories 83, 84, 105, 106, 116, 11
Although a case has been described in which it is configured by 7, 125, 126, the present invention is not limited to this, and various other configurations can be applied. In this case, the first and second memories 83,
84, 105, 106, 116, 117, 125, 12
Instead of 6, various other storage means can be applied.

【0248】さらに上述の第3〜第8実施例において
は、カメラ16により撮像された壁面72AA〜72A
D、131AA〜131ADの色及び当該壁面72AA
〜72AD、131AA〜131ADに対する相対位置
と、予め記憶している全ての各壁面72AA〜72A
D、131AA〜131ADの色及び全ての壁面72A
A〜72AD、131AA〜131ADの位置を含む領
域2の地図情報とに基づいて領域2内における自分の位
置を検出する位置検出手段を、比較・演算部82、10
4、115、124及び第3のメモリ85、107、1
18、127により構成するようにした場合について述
べたが、本発明はこれに限らず、第3のメモリ85、1
07、118、127に代えてこの他種々の記憶手段を
適用できる。
Furthermore, in the above-mentioned third to eighth embodiments, the wall surfaces 72AA to 72A taken by the camera 16 are taken.
D, 131AA to 131AD colors and the wall surface 72AA
To 72AD, 131AA to 131AD, and all wall surfaces 72AA to 72A stored in advance.
D, 131AA to 131AD colors and all wall surfaces 72A
The comparison / calculation units 82 and 10 are position detecting means for detecting one's own position in the area 2 based on the map information of the area 2 including the positions of A to 72AD and 131AA to 131AD.
4, 115, 124 and the third memories 85, 107, 1
Although the case where the memory is configured by 18, 127 has been described, the present invention is not limited to this, and the third memory 85, 1
Instead of 07, 118, 127, various other storage means can be applied.

【0249】さらに上述の第3〜第8実施例において
は、ロボツト71、91、101、111、121が2
つの壁面72AA〜72AD、131AA〜131AD
から領域2内における自分の位置を検出するようにした
場合について述べたが、本発明はこれに限らず、3以上
の壁面72AA〜72AD、131AA〜131ADか
ら領域2内における自分の位置を検出するようにしても
良い。
Further, in the above-mentioned third to eighth embodiments, the robots 71, 91, 101, 111, 121 are two.
Wall surfaces 72AA-72AD, 131AA-131AD
However, the present invention is not limited to this, and the position of one's own position in the region 2 is detected from three or more wall surfaces 72AA to 72AD, 131AA to 131AD. You may do it.

【0250】さらに上述の第4〜第8実施例において
は、識別のための色として、HSI空間において図16
(B)に示す極座標での原点Oまわりの角度が60〔°〕
以上離れた色を選択するようにした場合について述べた
が、本発明はこれに限らず、図16(B)に示す極座標
での原点Oまわりの角度がこれ以外の角度離れた色を用
いるようにしても良い。また識別のための色として、H
SI空間以外の色空間(RGB空間や、YUV空間な
ど)において所定距離だけ離れた色を用いるようにして
も良い。
Further, in the above-mentioned fourth to eighth embodiments, the color for identification is shown in FIG. 16 in the HSI space.
The angle around the origin O in polar coordinates shown in (B) is 60 °.
Although the case where the distant colors are selected has been described above, the present invention is not limited to this, and the color around the origin O in polar coordinates shown in FIG. You can Also, as a color for identification, H
Colors apart from each other by a predetermined distance may be used in a color space other than the SI space (RGB space, YUV space, etc.).

【0251】さらに上述の第4〜第8実施例において
は、単に識別のための色としてHSI空間において図1
6(B)に示す極座標での原点Oまわりの角度が60
〔°〕以上離れた色を選択するようにした場合について
述べたが、本発明はこれに限らず、例えば隣接する壁面
にはHSI空間(又は他の色空間)において60〔°〕以
上離れた色を割り当てる(例えば図16(B)において
壁面72AAには黄色(Y)、壁面72ABにはシアン
(C)、壁面72ACには赤色(R)及び壁面72AD
には青色(B)を塗布する)ようにしても良い。このよ
うにすることによつて、ロボツト91、101、11
1、121内部において壁面72AA〜72AD131
AA〜131ADの色を判別する際の誤判別を未然に回
避でき、その分より精度良く領域2内における自分の位
置を検出し得る位置検出システム及びロボツト装置を構
築することができる。
Furthermore, in the above-mentioned fourth to eighth embodiments, the color for the purpose of identification is simply shown in the HSI space in FIG.
The angle around the origin O in polar coordinates shown in 6 (B) is 60.
Although the case where the colors separated by [°] or more are selected has been described, the present invention is not limited to this. For example, the adjacent wall surfaces are separated by 60 ° or more in the HSI space (or another color space). Colors are assigned (for example, in FIG. 16B, the wall surface 72AA is yellow (Y), the wall surface 72AB is cyan (C), the wall surface 72AC is red (R), and the wall surface 72AD).
Alternatively, blue (B) may be applied). By doing this, the robots 91, 101, 11
Wall surfaces 72AA to 72AD131 inside the inside of 1, 121
Erroneous discrimination at the time of discriminating the colors of AA to 131AD can be avoided in advance, and a position detection system and a robot device that can detect the position of oneself within the region 2 with higher accuracy can be constructed.

【0252】さらに上述の第5実施例においては、各壁
面72AA〜72ADに塗布する色の飽和度(彩度)を
線形に変化させるようにした場合について述べたが、本
発明はこれに限らず、非線形に変化させるようにしても
良い。ただしこの場合には1つの壁面72AA〜72A
Dにおいて同じ飽和度の部分が存在しないようにする必
要がある。
Further, in the fifth embodiment described above, the case where the saturation (saturation) of the color applied to each of the wall surfaces 72AA to 72AD is changed linearly has been described, but the present invention is not limited to this. , May be changed non-linearly. However, in this case, one wall surface 72AA-72A
It is necessary to ensure that there is no part of D with the same saturation.

【0253】さらに上述の第5実施例においては、各壁
面72AA〜72ADの飽和度の変化に関する所定デー
タとして、各壁面72AA〜72ADの長さMと、に各
壁面72AA〜72ADの一端及び他端における飽和度
min 、Smax とを第2のメモリ106に格納するよう
にした場合について述べたが、本発明はこれに限らず、
要は、そのデータと、壁検出部103により検出された
画像信号S50に基づく画像の中央部におけるその壁面
72AA〜72ADに塗布された色の飽和度Sx とに基
づいて比較・演算部104が領域2内における自分の位
置を検出することができるデータであるのならば、第2
のメモリ106に格納するデータとしてはこれ以外のデ
ータを適用できる。
Further, in the above-mentioned fifth embodiment, as the predetermined data regarding the change in the saturation of the wall surfaces 72AA to 72AD, the length M of each wall surface 72AA to 72AD and one end and the other end of each wall surface 72AA to 72AD are set. Although the saturation levels S min and S max in the above are stored in the second memory 106, the present invention is not limited to this.
In short, the comparison / calculation unit 104 determines whether the data and the saturation S x of the color applied to the wall surfaces 72AA to 72AD in the central portion of the image based on the image signal S50 detected by the wall detection unit 103 are used. If the data can detect the position of oneself in the area 2, the second
Other data can be applied to the data stored in the memory 106.

【0254】さらに上述の第6実施例においては、壁面
72AA〜72ADの一端の下端近傍から他端の上端近
傍に至るように各壁面72AA〜72ADに斜線112
を表記するようにした場合について述べたが、本発明は
これに限らず、例えば図35に示すように、壁面72A
A〜72ADの一端の下端から他端の上端に至るように
各壁面72AA〜72ADに斜線112を表記するよう
にしても良く、これ以外の形態に斜線を表記するように
しても良い。
Further, in the above-described sixth embodiment, the diagonal lines 112 are formed on the wall surfaces 72AA to 72AD so as to extend from the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD to the vicinity of the upper end of the other end.
However, the present invention is not limited to this. For example, as shown in FIG.
The diagonal lines 112 may be drawn on the wall surfaces 72AA to 72AD so as to extend from the lower end of one end of A to 72AD to the upper end of the other end, and the diagonal line may be drawn in other forms.

【0255】さらに上述の第6実施例においては、各壁
面72AA〜72ADにおける壁面72AA〜72AD
の高さに対する斜線112よりも上部分の比率の変化に
関する所定データとして、各壁面72AA〜72ADの
長さMと、各壁面72AA〜72ADの一端及び他端に
おける斜線112よりも上部分及び下部分の長さUa1
b1、La1、Lb1とを第2のメモリ117に格納するよ
うにした場合について述べたが、本発明はこれに限ら
ず、要は、そのデータと、壁検出部115により検出さ
れた画像信号S50に基づく画像の中央部におけるその
壁面72AA〜72ADの高さに対する斜線112より
も上部分(下部分でも良い)の比率Rx とに基づいて比
較・演算部115が領域2内における自分の位置を検出
することができるデータであるのならば、第2のメモリ
117に格納するデータとしてはこれ以外のデータを適
用できる。
Further, in the above-described sixth embodiment, the wall surfaces 72AA to 72AD of the respective wall surfaces 72AA to 72AD.
As the predetermined data regarding the change in the ratio of the portion above the diagonal line 112 to the height of the wall surface, the length M of each wall surface 72AA to 72AD and the upper and lower portions above the diagonal line 112 at one end and the other end of each wall surface 72AA to 72AD. The length of U a1 ,
The case where U b1 , L a1 , and L b1 are stored in the second memory 117 has been described, but the present invention is not limited to this, and the point is that the data and the wall detection unit 115 detect the data. Based on the image signal S50, the comparison / calculation unit 115 determines whether or not the comparison / calculation unit 115 within the area 2 is based on the ratio R x of the upper part (or the lower part) of the oblique line 112 to the height of the wall surfaces 72AA to 72AD in the central part of the image. Other data can be applied to the data stored in the second memory 117 as long as the data can detect the position.

【0256】さらに上述の第7実施例においては、壁面
72AA〜72ADの上部分と下部分とを分ける仮想線
K1が壁面72AA〜72ADの一端の下端近傍と他端
の上端近傍とを通るようにした場合について述べたが、
本発明はこれに限らず、例えば図36に示すように、仮
想線K1(又は斜線でも良い)が壁面72AA〜72A
Dの一端の下端と、他端の上端とを通るように各壁面7
2AA〜72ADを上部分及び下部分に分けるようにし
ても良く、これ以外の形態に仮想線K1又は斜線を選定
し、又は表記するようにしても良い。
Further, in the above-described seventh embodiment, the virtual line K1 separating the upper and lower portions of the wall surfaces 72AA to 72AD passes through the vicinity of the lower end of one end of the wall surfaces 72AA to 72AD and the vicinity of the upper end of the other end thereof. When I did,
The present invention is not limited to this, and, for example, as shown in FIG. 36, the virtual line K1 (or a diagonal line may be used) has wall surfaces 72AA to 72A.
Each wall surface 7 passes through the lower end of one end of D and the upper end of the other end.
The 2AA to 72AD may be divided into an upper part and a lower part, and the virtual line K1 or the diagonal line may be selected or described in another form.

【0257】さらに上述の第7実施例においては、壁面
72AA〜72ADの高さに対する高彩度部分の長さH
x の比率Rx が線形に変化するようにした場合について
述べたが、本発明はこれに限らず、非線形に変化するよ
うにしても良い。ただしこの場合においても、1つの壁
面72AA〜72ADにおいて壁面72AA〜72AD
の高さに対する高彩度部分の長さHx の比率Rx が同じ
となる部分が存在しないようにする必要がある。
Further, in the above-described seventh embodiment, the length H of the high saturation portion with respect to the height of the wall surfaces 72AA to 72AD is set.
Although the case has been described where the ratio R x of x changes linearly, the present invention is not limited to this, and may change non-linearly. However, even in this case, the wall surfaces 72AA to 72AD are formed on one wall surface 72AA to 72AD.
It is necessary to make sure that there is no portion where the ratio R x of the length H x of the high saturation portion to the height of is the same.

【0258】さらに上述の第7実施例においては、各壁
面72AA〜72ADにおける壁面72AA〜72AD
の高さに対する高彩度部分の長さHx の比率Rx の変化
に関する所定データとして、各壁面72AA〜72AD
の長さMと、各壁面72AA〜72ADの一端及び他端
における高彩度部分及び低彩度部分の長さHa2、La2
b2、Lb2とを第2のメモリ126に格納するようにし
た場合について述べたが、本発明はこれに限らず、要
は、そのデータと、壁検出部123により検出された画
像信号S50に基づく画像の中央部におけるその壁面7
2AA〜72ADの高さに対する高彩度部分の長さHx
の比率Rx とに基づいて比較・演算部124が領域2内
における自分の位置を検出することができるデータであ
るのならば、第2のメモリ126に格納するデータとし
てはこれ以外のデータを適用できる。
Further, in the above-described seventh embodiment, the wall surfaces 72AA to 72AD of the respective wall surfaces 72AA to 72AD.
As the predetermined data regarding the change of the ratio R x of the length H x of the high saturation portion to the height of the wall surfaces 72AA to 72AD
And the lengths H a2 and L a2 of the high saturation portion and the low saturation portion at one end and the other end of each wall surface 72AA to 72AD, respectively.
The case where H b2 and L b2 are stored in the second memory 126 has been described, but the present invention is not limited to this, and the point is that the data and the image signal S50 detected by the wall detection unit 123 are used. Wall 7 at the center of the image based on
The length H x of the high saturation part with respect to the height of 2AA to 72AD
If the comparison / calculation unit 124 can detect its own position in the area 2 based on the ratio R x of R, the other data is stored as the data in the second memory 126. Applicable.

【0259】さらに上述の第3及び第8実施例において
は、ロボツト91内部において、壁面72AA〜72A
D、131AA〜131ADに対する相対位置として当
該壁面72AA〜72AD、131AA〜131ADか
らの距離を検出し、第4〜第8実施例においては、ロボ
ツト101、111、121内部において、壁面72A
A〜72ADに対する相対位置として当該壁面72AA
〜72ADと平行な方向のおける当該壁面72AA〜7
2ADの一端からの距離を検出するようにした場合につ
いて述べたが、本発明はこれに限らず、これ以外の相対
位置を検出するようにしても良い。
Further, in the above-mentioned third and eighth embodiments, inside the robot 91, the wall surfaces 72AA to 72A are formed.
The distances from the wall surfaces 72AA to 72AD and 131AA to 131AD are detected as relative positions with respect to D and 131AA to 131AD. In the fourth to eighth embodiments, the wall surfaces 72A are inside the robots 101, 111 and 121.
The wall surface 72AA as a relative position with respect to A to 72AD
~ 72AD the wall surface 72AA in the direction parallel to 7 ~ 7
The case where the distance from one end of the 2AD is detected has been described, but the present invention is not limited to this, and other relative positions may be detected.

【0260】さらに上述の第8実施例においては、各壁
面131AA〜131ADを液晶パネルデイスプレイ1
32のパネル面により構成するようにした場合について
述べたが、本発明はこれに限らず、各壁面131AA〜
131ADを液晶パネルデイスプレイ132以外のデイ
スプレイ(例えばCRT(Cathode Ray Tube)など)の
表示面で構成するようにしても良い。また例えば通常の
壁面72AA〜72AD(図13)に凹部を設け、当該
凹部を覆うように所定色のフイルムを貼り付けると共
に、当該凹部内に光源を配設するようにしてその壁面7
2AA〜72ADに割り当てられた色の光を領域2に向
けて発光させるようにしても良く、要は、その壁面に割
り当てられた色の光2を領域に向けて発光する発光手段
により壁面を構成し、又は発光手段を壁面に設けるので
あれば、発光手段の構成としては、この他種々の構成を
適用できる。
Further, in the above-described eighth embodiment, each wall surface 131AA to 131AD is connected to the liquid crystal panel display 1.
Although the case where it is configured by 32 panel surfaces has been described, the present invention is not limited to this, and each wall surface 131AA.
131AD may be configured by a display surface of a display (for example, CRT (Cathode Ray Tube)) other than the liquid crystal panel display 132. In addition, for example, the normal wall surfaces 72AA to 72AD (FIG. 13) are provided with concave portions, a film of a predetermined color is attached so as to cover the concave portions, and the light source is arranged in the concave portions, so that the wall surface 7 is formed.
The light of the colors assigned to 2AA to 72AD may be emitted toward the area 2, and in short, the wall surface is configured by the light emitting means that emits the light 2 of the color assigned to the wall toward the area. Alternatively, if the light emitting means is provided on the wall surface, various other configurations can be applied as the configuration of the light emitting means.

【0261】さらに上述の第8実施例においては、単に
各液晶パネルデイスプレイ132が各壁面131AA〜
131AD毎に異なる色の光を発光するようにした場合
について述べたが、本発明はこれに限らず、例えば各液
晶パネルデイスプレイ132に第5〜第7実施例のよう
に割り当てられた色や斜線を表示させると共に、ロボツ
ト91を第5〜第7実施例のように構成するようにして
も良い。
Further, in the above-described eighth embodiment, each liquid crystal panel display 132 is simply attached to each wall surface 131AA.
Although a case has been described in which light of different colors is emitted for each 131AD, the present invention is not limited to this, and for example, colors and diagonal lines assigned to each liquid crystal panel display 132 as in the fifth to seventh embodiments. May be displayed, and the robot 91 may be configured as in the fifth to seventh embodiments.

【0262】さらに上述の第4〜第7実施例において
は、カメラ16から出力される画像信号S1の画像フオ
ーマツトをHSI空間に応じた画像フオーマツトに変換
するため画像フオーマツト変換部93を設けるようにし
た場合について述べたが、本発明はこれに限らず、例え
ばカメラ16から出力される画像信号S1の画像フオー
マツトが各壁面72AA〜72ADの色を選定する際に
使用した色空間に対応した画像フオーマツトである場合
には画像フオーマツト変換部93を省略するようにして
も良い。
Further, in the above fourth to seventh embodiments, the image format conversion section 93 is provided for converting the image format of the image signal S1 output from the camera 16 into the image format corresponding to the HSI space. Although the case has been described, the present invention is not limited to this, and for example, the image format of the image signal S1 output from the camera 16 is an image format corresponding to the color space used when selecting the colors of the wall surfaces 72AA to 72AD. In some cases, the image format conversion unit 93 may be omitted.

【0263】[0263]

【発明の効果】上述のように本発明によれば、位置検出
システム、位置検出装置及び位置検出方法並びにロボツ
ト装置及びその制御方法において、領域の周囲に沿つて
設けられた互いに異なる色の複数の壁面のうち、対応す
る壁面を移動体又はロボツト装置に配設された撮像手段
により撮像し、得られた第1の画像情報に基づいて、当
該撮像手段により撮像された壁面の色及び当該壁面に対
する相対位置を検出すると共に、当該検出した壁面の色
及び当該壁面に対する相対位置と、予め記憶している全
ての各壁面の色及び全ての各壁面の位置を含む領域の地
図情報とに基づいて領域内における移動体又はロボツト
装置の位置を検出するようにし、このとき各壁面を、そ
れぞれ壁面の長手方向に色の飽和度が変化するように色
づけると共に、かかる壁面に対する移動体又はロボツト
装置の相対位置として、第1の画像情報に基づく画像内
における壁面の色の飽和度に基づいて、壁面と平行な方
向における当該壁面の一端から移動体又はロボツト装置
までの距離を検出するようにしたことにより、領域内に
おける移動体又はロボツト装置の位置を容易かつ確実に
検出することができ、かくして移動体又はロボツト装置
を確実に識別し得る簡易な位置検出システム、位置検出
装置及び位置検出方法並びにロボツト装置及びその制御
方法を実現できる。
As described above, according to the present invention, in the position detection system, the position detection device and the position detection method, the robot device and the control method thereof, a plurality of different colors provided along the periphery of the area are provided. Among the wall surfaces, the corresponding wall surface is imaged by the image pickup means arranged in the moving body or the robot device, and based on the obtained first image information, the color of the wall surface imaged by the image pickup means and the relative to the wall surface While detecting the relative position, the area based on the detected color of the wall surface and the relative position with respect to the wall surface, and the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance The position of the moving body or the robot device in the interior is detected, and at this time, each wall surface is colored so that the saturation of the color changes in the longitudinal direction of the wall surface. As the relative position of the moving body or the robot device with respect to the wall surface, from the one end of the wall face in the direction parallel to the wall surface to the moving body or the robot device based on the saturation degree of the color of the wall surface in the image based on the first image information. By detecting the distance of, it is possible to easily and reliably detect the position of the moving body or the robot device in the area, and thus a simple position detecting system capable of surely identifying the moving body or the robot device, The position detecting device, the position detecting method, the robot device and the control method thereof can be realized.

【0264】また本発明によれば、位置検出システム、
位置検出装置及び位置検出方法並びにロボツト装置及び
その制御方法において、領域の周囲に沿つて設けられた
互いに異なる色の複数の壁面のうち、対応する壁面を移
動体又はロボツト装置に配設された撮像手段により撮像
し、得られた第1の画像情報に基づいて、当該撮像手段
により撮像された壁面の色及び当該壁面に対する相対位
置を検出すると共に、当該検出した壁面の色及び当該壁
面に対する相対位置と、予め記憶している全ての各壁面
の色及び全ての各壁面の位置を含む領域の地図情報とに
基づいて領域内における移動体又はロボツト装置の位置
を検出するようにし、このとき各壁面に、それぞれ壁面
の長手方向の一端から他端に至るように斜線を表記する
と共に、かかる壁面に対する移動体又はロボツト装置の
相対位置として、第1の画像情報に基づく画像内におけ
る壁面の高さに対する壁面の斜線よりも上部分又は下部
分の長さの比率に基づいて、壁面と平行な方向における
移動体又はロボツト装置の当該壁面の一端からの距離を
検出するようにしたことにより、領域内における移動体
又はロボツト装置の位置を容易かつ確実に検出すること
ができ、かくして移動体又はロボツト装置を確実に識別
し得る簡易な位置検出システム、位置検出装置及び位置
検出方法並びにロボツト装置及びその制御方法を実現で
きる。
Further, according to the present invention, a position detection system,
In the position detecting device, the position detecting method, the robot device and the control method thereof, the corresponding wall surface among the plurality of wall surfaces of different colors provided along the periphery of the area is imaged by the moving object or the robot device. The color of the wall surface imaged by the image capturing means and the relative position with respect to the wall surface are detected based on the obtained first image information, and the detected color of the wall surface and the relative position with respect to the wall surface are detected. And the position of the moving body or the robot device in the area is detected based on the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance. In addition, the diagonal lines are drawn so as to extend from one end to the other end in the longitudinal direction of the wall surface, respectively, and as the relative position of the moving body or the robot device with respect to the wall surface, Based on the ratio of the length of the upper part or the lower part of the wall surface to the height of the wall surface in the image based on the image information of 1, from one end of the wall surface of the moving body or the robot device in the direction parallel to the wall surface. By detecting the distance of, it is possible to easily and reliably detect the position of the moving body or the robot device in the area, and thus a simple position detecting system capable of surely identifying the moving body or the robot device, The position detecting device, the position detecting method, the robot device and the control method thereof can be realized.

【0265】さらに本発明によれば、位置検出システ
ム、位置検出装置及び位置検出方法並びにロボツト装置
及びその制御方法において、領域の周囲に沿つて設けら
れた互いに異なる色の複数の壁面のうち、対応する壁面
を移動体又はロボツト装置に配設された撮像手段により
撮像し、得られた第1の画像情報に基づいて、当該撮像
手段により撮像された壁面の色及び当該壁面に対する相
対位置を検出すると共に、当該検出した壁面の色及び当
該壁面に対する相対位置と、予め記憶している全ての各
壁面の色及び全ての各壁面の位置を含む領域の地図情報
とに基づいて領域内における移動体又はロボツト装置の
位置を検出するようにし、このとき各壁面を、それぞれ
壁面の長手方向の一端から他端に至る斜線又は仮想線を
境として、当該斜線又は仮想線よりも上部分及び下部分
にそれぞれ同じ色相で飽和度の異なる色に色づけると共
に、かかる壁面に対する移動体の相対位置として、第1
の画像情報に基づく画像内における壁面の高さに対する
当該壁面の斜線又は仮想線よりも上部分又は下部分の長
さの比率に基づいて、壁面と平行な方向における移動体
の当該壁面の一端からの距離を検出するようにしたこと
により、領域内における移動体又はロボツト装置の位置
を容易かつ確実に検出することができ、かくして移動体
又はロボツト装置を確実に識別し得る簡易な位置検出シ
ステム、位置検出装置及び位置検出方法並びにロボツト
装置及びその制御方法を実現できる。
Further, according to the present invention, in the position detection system, the position detection device and the position detection method, the robot device and the control method thereof, among the plurality of wall surfaces of different colors provided along the periphery of the area, The wall surface to be imaged is imaged by the imaging means arranged in the moving body or the robot device, and the color of the wall surface imaged by the imaging means and the relative position to the wall surface are detected based on the obtained first image information. Together with the detected color of the wall surface and the relative position with respect to the wall surface, and the mobile object in the area based on the map information of the area including the colors of all the wall surfaces and the positions of all the wall surfaces stored in advance, The position of the robot device is detected. At this time, each of the wall surfaces is separated by a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face. Together with Coloring in different colors saturation respectively the same hue upper part and lower part of the virtual line, as the relative position of the moving body with respect to such wall, first
From the one end of the wall surface of the moving body in the direction parallel to the wall surface based on the ratio of the length of the upper part or the lower part of the oblique line or virtual line of the wall surface to the height of the wall surface in the image based on the image information of By detecting the distance of, it is possible to easily and reliably detect the position of the moving body or the robot device in the area, and thus a simple position detecting system capable of surely identifying the moving body or the robot device, The position detecting device, the position detecting method, the robot device and the control method thereof can be realized.

【0266】[0266]

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施例による個体識別システムの全体構成
を示す平面図である。
FIG. 1 is a plan view showing the overall configuration of an individual identification system according to a first embodiment.

【図2】第1実施例によるロボツトの構成及び識別体の
構成を示す略線的な側面図である。
FIG. 2 is a schematic side view showing a structure of a robot and a structure of an identification body according to the first embodiment.

【図3】第1実施例によるロボツトの構成示す略線的な
ブロツク図である。
FIG. 3 is a schematic block diagram showing the configuration of a robot according to the first embodiment.

【図4】第1実施例による個体識別部の構成示すブロツ
ク図である。
FIG. 4 is a block diagram showing a configuration of an individual identification unit according to the first embodiment.

【図5】色抽出部の構成の説明に供する略線図である。FIG. 5 is a schematic diagram used to describe a configuration of a color extraction unit.

【図6】色抽出部の構成を示すブロツク図である。FIG. 6 is a block diagram showing a configuration of a color extraction unit.

【図7】第2実施例による個体識別システムの全体構成
を示す平面図である。
FIG. 7 is a plan view showing the overall configuration of an individual identification system according to a second embodiment.

【図8】第2実施例による個体識別システムの全体構成
を示す平面図である。
FIG. 8 is a plan view showing the overall configuration of an individual identification system according to a second embodiment.

【図9】第2実施例によるロボツトの構成を示す略線的
な斜視図である。
FIG. 9 is a schematic perspective view showing the structure of a robot according to a second embodiment.

【図10】識別シールの説明に供する平面図である。FIG. 10 is a plan view for explaining an identification sticker.

【図11】第2実施例による個体識別部の構成示すブロ
ツク図である。
FIG. 11 is a block diagram showing the configuration of an individual identification unit according to the second embodiment.

【図12】第2実施例によるロボツトの構成示す略線的
なブロツク図である。
FIG. 12 is a schematic block diagram showing a configuration of a robot according to a second embodiment.

【図13】第3実施例による位置識別システムの全体構
成を示す斜視図である。
FIG. 13 is a perspective view showing the overall configuration of a position identification system according to a third embodiment.

【図14】第3実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 14 is a plan view showing the overall configuration of a position identification system according to a third embodiment.

【図15】第3実施例による位置検出部の構成を示すブ
ロツク図である。
FIG. 15 is a block diagram showing a configuration of a position detection unit according to a third embodiment.

【図16】HSI空間の説明に供する略線図である。FIG. 16 is a schematic diagram for explaining an HSI space.

【図17】第4実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 17 is a plan view showing the overall configuration of the position identification system according to the fourth embodiment.

【図18】第4実施例による位置検出部の構成を示すブ
ロツク図である。
FIG. 18 is a block diagram showing a configuration of a position detection unit according to a fourth example.

【図19】第5実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 19 is a plan view showing the overall configuration of the position identification system according to the fifth embodiment.

【図20】第5実施例における各壁面の様子を示す略線
図である。
FIG. 20 is a schematic diagram showing the appearance of each wall surface in the fifth embodiment.

【図21】第5実施例による位置検出部の構成を示すブ
ロツク図である。
FIG. 21 is a block diagram showing the configuration of a position detection unit according to the fifth embodiment.

【図22】第6実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 22 is a plan view showing the overall configuration of the position identification system according to the sixth embodiment.

【図23】第6実施例における各壁面の様子を示す略線
図である。
FIG. 23 is a schematic diagram showing the appearance of each wall surface in the sixth embodiment.

【図24】第6実施例による位置検出部の構成を示すブ
ロツク図である。
FIG. 24 is a block diagram showing the configuration of a position detection unit according to a sixth embodiment.

【図25】第7実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 25 is a plan view showing the overall configuration of the position identification system according to the seventh embodiment.

【図26】第7実施例における各壁面の様子を示す略線
図である。
FIG. 26 is a schematic diagram showing the appearance of each wall surface in the seventh embodiment.

【図27】第7実施例による位置検出部の構成を示すブ
ロツク図である。
FIG. 27 is a block diagram showing the configuration of a position detection unit according to a seventh embodiment.

【図28】第8実施例による位置識別システムの全体構
成を示す平面図である。
FIG. 28 is a plan view showing the overall configuration of the position identification system according to the eighth embodiment.

【図29】第8実施例による位置識別システムの構成の
説明に供する平面図である。
FIG. 29 is a plan view for explaining the configuration of the position identification system according to the eighth example.

【図30】他の実施例を示す略線的な側面図である。FIG. 30 is a schematic side view showing another embodiment.

【図31】他の実施例を示す側面図及び斜視図である。FIG. 31 is a side view and a perspective view showing another embodiment.

【図32】他の実施例を示す平面図である。FIG. 32 is a plan view showing another embodiment.

【図33】他の実施例を示す平面図である。FIG. 33 is a plan view showing another embodiment.

【図34】他の実施例を示す平面図である。FIG. 34 is a plan view showing another embodiment.

【図35】他の実施例を示す平面図である。FIG. 35 is a plan view showing another embodiment.

【図36】他の実施例を示す平面図である。FIG. 36 is a plan view showing another embodiment.

【符号の説明】[Explanation of symbols]

1、50……個体識別システム、2……領域、3A〜3
C、51A〜51C、71、91、101、111、1
21……ロボツト、16、53……カメラ、23……識
別体、30、54……個体識別部、31A〜31U、9
4A〜94E……色抽出部、32、55……色パターン
抽出部、33、56、82、104、115、124…
…比較・演算部、34、35、44A〜44D、57、
83〜85、105〜107、116〜118、125
〜127……メモリ、36……CPU、41……分離回
路、42、43A、43B……アナログ/デイジタル変
換回路、45A〜45D……比較回路、48……判定回
路、49……フレームメモリ、52……識別シール、5
8……送信部、70……壁、72AA〜72AD、13
1AA〜131AD……壁面、80、102、113、
122……位置検出部、81、103、114、123
……壁検出部、93……画像フオーマツト変換部、13
2……液晶パネル、133……制御部、D1……輝度デ
ータ、D2A、D2B……色差データ、S1、S30、
S50……画像信号、S10A〜S10U、S51A〜
S51D……色抽出信号、S11……識別体情報信号、
S12……識別体検出信号、S20……輝度信号、S2
1A、S21B……色差信号、S31……識別シール検
出信号、S32……ロボツト位置検出信号、S40……
壁検出信号、S41、S62、S71、S82……位置
検出信号。
1, 50 ... Individual identification system, 2 ... Area, 3A to 3
C, 51A to 51C, 71, 91, 101, 111, 1
21 ... Robot, 16, 53 ... Camera, 23 ... Identification body, 30, 54 ... Individual identification section, 31A to 31U, 9
4A to 94E ... Color extraction unit, 32, 55 ... Color pattern extraction unit, 33, 56, 82, 104, 115, 124 ...
... Comparison / arithmetic unit, 34, 35, 44A to 44D, 57,
83-85, 105-107, 116-118, 125
~ 127 ... memory, 36 ... CPU, 41 ... separation circuit, 42, 43A, 43B ... analog / digital conversion circuit, 45A to 45D ... comparison circuit, 48 ... determination circuit, 49 ... frame memory, 52 …… Identification sticker, 5
8 ... Transmission unit, 70 ... Wall, 72AA to 72AD, 13
1AA to 131AD ... wall surface, 80, 102, 113,
122 ... Position detection unit, 81, 103, 114, 123
... Wall detection unit, 93 ... Image format conversion unit, 13
2 ... Liquid crystal panel 133 ... Control unit, D1 ... Luminance data, D2A, D2B ... Color difference data, S1, S30,
S50 ... Image signal, S10A to S10U, S51A to
S51D ... Color extraction signal, S11 ... Identification object information signal,
S12 ... Identifier detection signal, S20 ... luminance signal, S2
1A, S21B ... Color difference signal, S31 ... Identification sticker detection signal, S32 ... Robot position detection signal, S40 ...
Wall detection signal, S41, S62, S71, S82 ... Position detection signal.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 井上 真 東京都品川区北品川6丁目7番35号ソニ ー株式会社内 (56)参考文献 特開 昭61−277010(JP,A) 特開 平4−21106(JP,A) 特開 平5−46242(JP,A) (58)調査した分野(Int.Cl.7,DB名) B25J 13/00 - 13/08 B25J 9/10 - 9/22 B25J 5/00 G05D 1/00 G06T 1/00 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Makoto Inoue 6-7-35 Kitashinagawa, Shinagawa-ku, Tokyo Sony Corporation (56) Reference JP-A-61-277010 (JP, A) JP-A 4-21106 (JP, A) JP-A-5-46242 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) B25J 13/00-13/08 B25J 9/10-9 / 22 B25J 5/00 G05D 1/00 G06T 1/00

Claims (15)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出システムにおいて、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面と、上記移動体に設けられ、対応する所定の上
記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段と を具え、 各上記壁面は、それぞれ上記壁面の長手方向に上記色の
飽和度が変化するように色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の色の飽和度に基づい
て、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする位置検
出システム
1. A region of a moving body that moves within a predetermined region.
The position detecting system for detecting a position on the inner, different color double of each other provided along connexion around the area
Number of wall surfaces and the corresponding predetermined tops provided on the moving body
An image pickup means for picking up an image of the wall surface, and based on the first image information output from the image pickup means.
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Relative position detection means, the detection results of the color and relative position detection means, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in , each of the wall surface of the color of the color in the longitudinal direction of the wall surface.
Coloring is performed so that the degree of saturation changes, and the color and relative position detecting means adds to the first image information.
Based on the saturation of the wall color in the image
The relative position of the moving body with respect to the wall surface.
The wall of the moving body in a direction parallel to the wall surface.
Position detection characterized by detecting the distance from one end of the surface
Out system .
【請求項2】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出システムにおいて、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面と、上記移動体に設けられ、対応する所定の上
記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面には、上記壁面の長手方向の一端から他端に
至るように斜線が表記され、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する上記壁面
の上記斜線よりも上部分又は下部分の長さの比率に基づ
いて、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする位置検
出システム
2. A region of a moving body that moves within a predetermined region.
The position detecting system for detecting a position on the inner, different color double of each other provided along connexion around the area
Number of wall surfaces and the corresponding predetermined tops provided on the moving body
An image pickup means for picking up an image of the wall surface, and based on the first image information output from the image pickup means.
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Relative position detection means, the detection results of the color and relative position detection means, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
Comprising, in each said wall, the other end from the one longitudinal end of the wall
Diagonal lines are drawn so that the color and relative position detection means are added to the first image information.
The wall surface relative to the height of the wall surface in the image based
Based on the ratio of the length of the upper part or the lower part of the above
The relative position of the moving body with respect to the wall surface.
The wall of the moving body in a direction parallel to the wall surface.
Position detection characterized by detecting the distance from one end of the surface
Out system .
【請求項3】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出システムにおいて、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面と、上記移動体に設けられ、対応する所定の上
記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面は、それぞれ上記壁面の長手方向の一端から
他端に至る斜線又は仮想線を境と して、当該斜線又は仮
想線よりも上部分及び下部分にそれぞれ同じ色相で飽和
度の異なる上記色に色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する当該壁面
の上記斜線又は上記仮想線よりも上記上部分又は上記下
部分の長さの比率に基づいて、上記壁面に対する上記移
動体の上記相対位置として、上記壁面と平行な方向にお
ける上記移動体の当該壁面の一端からの距離を検出する
ことを特徴とする位置検出システム
3. An area of a moving body that moves within a predetermined area.
The position detecting system for detecting a position on the inner, different color double of each other provided along connexion around the area
Number of wall surfaces and the corresponding predetermined tops provided on the moving body
An image pickup means for picking up an image of the wall surface, and based on the first image information output from the image pickup means.
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Relative position detection means, the detection results of the color and relative position detection means, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
From the one end of the wall surface in the longitudinal direction,
As a shaded or border to an imaginary line extending on the other end, the hatched or temporary
Saturated with the same hue above and below the line
The color and the relative position detecting means are colored in different colors, and the color and the relative position detecting means are added to the first image information.
The wall surface relative to the height of the wall surface in the image based
Above the above or below the above-mentioned diagonal line or above virtual line
Based on the ratio of the length of the parts,
The relative position of the moving body is in the direction parallel to the wall surface.
Detect the distance from one end of the wall surface of the moving body
A position detection system characterized by the above .
【請求項4】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出装置において、 上記移動体に設けられ、上記領域の周囲に沿つて設けら
れた互いに異なる色の複数の壁面のうち、対応する所定
の上記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面は、それぞれ上記壁面の長手方向に上記色の
飽和度が変化するように色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の色の飽和度に基づい
て、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする位置検
出装置。
4. A region of a moving body that moves within a predetermined region.
In the position detecting device for detecting the position within the moving body , the position detecting device is provided on the moving body and is provided along the periphery of the area.
Of the wall surfaces of different colors
Imaging means for imaging the above wall, based on the first image information outputted from said image pickup means
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Relative position detection means, the detection results of the color and relative position detection means, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
Comprising, each said wall, each being colored so that the color saturation in the longitudinal direction of the wall surface is changed, the color and relative position detection means, of the wall surface in an image based on the first image information A position detecting device that detects, as the relative position of the moving body with respect to the wall surface, a distance from one end of the wall surface of the moving body in a direction parallel to the wall surface, based on color saturation.
【請求項5】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出装置において、 上記移動体に設けられ、上記領域の周囲に沿つて設けら
れた互いに異なる色の複数の壁面のうち、対応する所定
の上記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面には、上記壁面の長手方向の一端から他端に
至るように斜線が表記され、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する上記壁面
の上記斜線よりも上部分又は下部分の長さの比率に基づ
いて、上記壁面に対する上記移動体の上記相対位置とし
て、上記壁面と平行な方向における上記移動体の当該壁
面の一端からの距離を検出することを特徴とする位置検
出装置。
5. An area of a moving body that moves within a predetermined area.
In the position detecting device for detecting the position within the moving body , the position detecting device is provided on the moving body and is provided along the periphery of the area.
Of the wall surfaces of different colors
Imaging means for imaging the above wall, based on the first image information outputted from said image pickup means
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Relative position detection means, the detection results of the color and relative position detection means, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
The diagonal lines are drawn on each of the wall surfaces so as to extend from one end to the other end in the longitudinal direction of the wall surface, and the color and relative position detecting means are arranged on the wall surface in the image based on the first image information. Based on the ratio of the length of the upper part or the lower part of the wall surface with respect to the height to the height, as the relative position of the moving body with respect to the wall surface, the wall surface of the moving body in the direction parallel to the wall surface A position detecting device that detects a distance from one end.
【請求項6】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出装置において、 上記移動体に設けられ、上記領域の周囲に沿つて設けら
れた互いに異なる色の複数の壁面のうち、対応する所定
の上記壁面を撮像する撮像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する上記移動体の相対位置を検出する色及び
相対位置検 出手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面は、それぞれ上記壁面の長手方向の一端から
他端に至る斜線又は仮想線を境として、当該斜線又は仮
想線よりも上部分及び下部分にそれぞれ同じ色相で飽和
度の異なる上記色に色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する当該壁面
の上記斜線又は上記仮想線よりも上記上部分又は上記下
部分の長さの比率に基づいて、上記壁面に対する上記移
動体の上記相対位置として、上記壁面と平行な方向にお
ける上記移動体の当該壁面の一端からの距離を検出する
ことを特徴とする位置検出装置。
6. A region of a moving body that moves within a predetermined region.
In the position detecting device for detecting the position within the moving body , the position detecting device is provided on the moving body and is provided along the periphery of the area.
Of the wall surfaces of different colors
Imaging means for imaging the above wall, based on the first image information outputted from said image pickup means
The color of the wall surface captured by the image capturing means and
A color for detecting the relative position of the moving body with respect to the wall surface, and
Means leaving a relative position detection, and the detection result of the color and the relative position detection unit, previously stored
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
In each of the wall surfaces, a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face is used as a boundary, and the upper and lower parts of the diagonal line or the phantom line have the same hue and different degrees of saturation. The color and the relative position detecting means are arranged on the upper portion or the lower portion of the wall surface with respect to the height of the wall surface in the image based on the first image information. A position detecting device that detects, as the relative position of the moving body with respect to the wall surface, a distance from one end of the wall surface of the moving body in a direction parallel to the wall surface based on a length ratio.
【請求項7】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出方法において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記移動体に配設
された撮像手段により撮像し、得られた第1の画像情報
に基づいて、当該撮像手段により撮像された上記壁面の
色及び当該壁面に対する相対位置を検出する第1のステ
ツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記移
動体の位置を検出する第2のステツプとを具え、 各上記壁面は、それぞれ上記壁面の長手方向に上記色の
飽和度が変化するように色づけられ、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の上記色の飽和度に基づいて、
上記壁面に対する上記移動体の上記相対位置として、上
記壁面と平行な方向における当該壁面の一端から上記移
動体までの距離を検出することを特徴とする位置検出方
法。
7. A region of a moving body that moves within a predetermined region.
In the position detecting method for detecting a position on the inner, different color double of each other provided along connexion around the area
Among the number of wall surfaces, the corresponding wall surface is provided on the moving body.
First image information obtained by imaging by the image capturing means
Of the wall surface imaged by the imaging means based on
The first step for detecting the color and the relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
A second step for detecting the position of a moving body, wherein each of the wall surfaces is colored so that the degree of saturation of the color changes in the longitudinal direction of the wall surface, and in the first step, the first step is performed. Based on the degree of saturation of the color of the wall surface in the image based on the image information,
As a relative position of the moving body to the wall surface, a position detecting method is characterized by detecting a distance from one end of the wall surface to the moving body in a direction parallel to the wall surface.
【請求項8】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出方法において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記移動体に配設
された撮像手段により撮像し、得られた第1の画像情報
に基づいて、当該撮像手段により撮像された上記壁面の
色及び当該壁面に対する相対位置を検出する第1のステ
ツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記移
動体の位置を検出する第2のステツプとを具え、 各上記壁面には、それぞれ上記壁面の長手方向の一端か
ら他端に至るように斜線が表記され、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の高さに対する上記壁面の上記
斜線よりも上部分又は下部分の長さの比率に基づいて、
上記壁面に対する上記移動体の上記相対位置として、上
記壁面と平行な方向における上記移動体の当該壁面の一
端からの距離を検出することを特徴とする位置検出方
法。
8. A region of a moving body that moves within a predetermined region.
In the position detecting method for detecting a position on the inner, different color double of each other provided along connexion around the area
Among the number of wall surfaces, the corresponding wall surface is provided on the moving body.
First image information obtained by imaging by the image capturing means
Of the wall surface imaged by the imaging means based on
The first step for detecting the color and the relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
A second step for detecting the position of the moving body, and diagonal lines are drawn on each of the wall surfaces so as to extend from one end to the other end in the longitudinal direction of the wall surface. In the first step, the first step is used. Based on the ratio of the length of the upper part or the lower part of the wall surface to the height of the wall surface in the image based on the image information of
A position detecting method characterized by detecting a distance from one end of the wall surface of the moving body in a direction parallel to the wall surface as the relative position of the moving body with respect to the wall surface.
【請求項9】所定の領域内を移動する移動体の当該領域
内における位置を検出する位置検出方法にお いて、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記移動体に配設
された撮像手段により撮像し、得られた第1の画像情報
に基づいて、当該撮像手段により撮像された上記壁面の
色及び当該壁面に対する相対位置を検出する第1のステ
ツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記移
動体の位置を検出する第2のステツプとを具え、 各上記壁面は、それぞれ上記壁面の長手方向の一端から
他端に至る斜線又は仮想線を境として、当該斜線又は仮
想線よりも上部分及び下部分にそれぞれ同じ色相で飽和
度の異なる色に色づけられ、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の高さに対する当該壁面の上記
斜線又は上記仮想線よりも上記上部分又は上記下部分の
長さの比率に基づいて、上記壁面に対する上記移動体の
上記相対位置として、上記壁面と平行な方向における上
記移動体の当該壁面の一端からの距離を検出することを
特徴とする位置検出方法。
9. A region of a moving body that moves within a predetermined region.
Position have contact to the position detecting method for detecting the inner, different color double of each other provided along connexion around the area
Among the number of wall surfaces, the corresponding wall surface is provided on the moving body.
First image information obtained by imaging by the image capturing means
Of the wall surface imaged by the imaging means based on
The first step for detecting the color and the relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
A second step for detecting the position of the moving body, wherein each of the wall surfaces has a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face as a boundary, and a portion above the diagonal line or the imaginary line. The lower portions are colored with the same hue and different in saturation, and in the first step, the oblique line or the virtual line of the wall surface with respect to the height of the wall surface in the image based on the first image information is used. Also detects the distance from one end of the wall surface of the moving body in the direction parallel to the wall surface as the relative position of the moving body with respect to the wall surface, based on the length ratio of the upper portion or the lower portion. A position detection method characterized by the above.
【請求項10】所定の領域内を移動自在のロボツト装置
において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する所定の上記壁面を撮像する撮
像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面は、それぞれ上記壁面の長手方向に上記色の
飽和度が変化するように色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の色の飽和度に基づい
て、上記壁面に対する当該ロボツト装置の上記相対位置
として、上記壁面と平行な方向における当該ロボツト装
の当該壁面の一端からの距離を検出することを特徴と
するロボツト装置。
10. A robot device movable in a predetermined area.
In the above , the colors of different colors provided around the area are
Of the wall surface of the specified number
Based on the image means and the first image information output from the image pickup means
The color of the wall surface captured by the image capturing means and
Color for detecting relative position with respect to the wall surface and relative position detection
Means and each detection result of the color and relative position detection means, and stored in advance.
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
Comprising, each said wall, each being colored so that the color saturation in the longitudinal direction of the wall surface is changed, the color and relative position detection means, of the wall surface in an image based on the first image information based on the color saturation, as the relative position of the robot apparatus with respect to the wall, the robot instrumentation in the wall parallel to the direction
Robot apparatus characterized by detecting the distance from one end of the wall surface of the location.
【請求項11】所定の領域内を移動自在のロボツト装置
において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する所定の上記壁面を撮像する撮
像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面には、上記壁面の長手方向の一端から他端に
至るように斜線が表記され、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する上記壁面
の上記斜線よりも上部分又は下部分の長さの比率に基づ
いて、上記壁面に対する当該ロボツト装置の上記相対位
置として、上記壁面と平行な方向における当該ロボツト
装置の当該壁面の一端からの距離を検出することを特徴
とするロボツト装置。
11. A robot device which is movable within a predetermined area.
In the above , the colors of different colors provided around the area are
Of the wall surface of the specified number
Based on the image means and the first image information output from the image pickup means
The color of the wall surface captured by the image capturing means and
Color for detecting relative position with respect to the wall surface and relative position detection
Means and each detection result of the color and relative position detection means, and stored in advance.
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
The diagonal lines are drawn on each of the wall surfaces so as to extend from one end to the other end in the longitudinal direction of the wall surface, and the color and relative position detecting means are arranged on the wall surface in the image based on the first image information. Based on the ratio of the length of the upper part or the lower part of the wall surface to the height relative to the height, the relative position of the robot device to the wall surface is set as the relative position of the robot in the direction parallel to the wall surface.
Robot apparatus characterized by detecting the distance from one end of the wall surface of the device.
【請求項12】所定の領域内を移動自在のロボツト装置
において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する所定の上記壁面を撮像する撮
像手段と、 上記撮像手段から出力される第1の画像情報に基づい
て、当該撮像手段により撮像された上記壁面の色及び当
該壁面に対する相対位置を検出する色及び相対位置検出
手段と、 上記色及び相対位置検出手段の各検出結果と、予め記憶
している全ての各上記壁面の色及び全ての各上記壁面の
位置を含む上記領域の地図情報とに基づいて上記領域内
における上記移動体の位置を検出する位置検出手段とを
具え、 各上記壁面は、それぞれ上記壁面の長手方向の一端から
他端に至る斜線又は仮想線を境として、当該斜線又は仮
想線よりも上部分及び下部分にそれぞれ同じ色相で飽和
度の異なる上記色に色づけられ、 上記色及び相対位置検出手段は、上記第1の画像情報に
基づく画像内における上記壁面の高さに対する当該壁面
の上記斜線又は上記仮想線よりも上記上部分又は上記下
部分の長さの比率に基づいて、上記壁面に対する当該ロ
ボツト装置の上記相対位置として、上記壁面と平行な方
向における当該ロボツト装置の当該壁面の一端からの距
離を検出することを特徴とするロボツト装置。
12. A robot device movable in a predetermined area.
In the above , the colors of different colors provided around the area are
Of the wall surface of the specified number
Based on the image means and the first image information output from the image pickup means
The color of the wall surface captured by the image capturing means and
Color for detecting relative position with respect to the wall surface and relative position detection
Means and each detection result of the color and relative position detection means, and stored in advance.
Of each of the above wall surfaces and all of the above wall surfaces
Within the area based on the map information of the area including the position
Position detecting means for detecting the position of the moving body in
In each of the wall surfaces, a diagonal line or an imaginary line extending from one end to the other end in the longitudinal direction of the wall face is used as a boundary, and the upper and lower parts of the diagonal line or the phantom line have the same hue and different degrees of saturation. The color and the relative position detecting means are arranged on the upper portion or the lower portion of the wall surface with respect to the height of the wall surface in the image based on the first image information. based on the ratio of length, the respect to the wall surface b
A robot device , wherein a distance from one end of the wall surface of the robot device in a direction parallel to the wall surface is detected as the relative position of the robot device.
【請求項13】所定の領域内を移動自在のロボツト装置
の制御方法において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記ロボツト装置
に配設された撮像手段により撮像することにより得られ
た第1の画像情報に基づいて、当該撮像手段により撮像
された上記壁面の色及び当該壁面に対する相対位置を検
出する第1のステツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記ロ
ボツト装置の位置を検出する第2のステツプと、 上記検出結果に基づいて、上記ロボツト装置が周囲の状
況に応じた行動を自律的にとるように上記ロボツト装置
の行動を制御する第3のステツプとを具え、 各上記壁面は、それぞれ上記壁面の長手方向に上記色の
飽和度が変化するように色づけられ、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の上記色の飽和度に基づいて、
上記壁面に対する上記ロボツト装置の上記相対位置とし
て、上記壁面と平行な方向における当該壁面の一端から
上記ロボツト装置までの距離を検出することを特徴とす
るロボツト装置の制御方法。
13. A robot device movable in a predetermined area.
The control method of a different color double of each other provided along connexion around the area
Of the wall surfaces, the corresponding wall surface is replaced with the robot device.
It is obtained by taking an image with the image pickup means arranged in
Imaged by the image pickup means based on the first image information
The color of the above-mentioned wall surface and its relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
Based on the second step for detecting the position of the robot device and the detection result, the robot device is in the surrounding state.
The robot device described above to autonomously take action according to the situation
And a third step for controlling the behavior of the wall surface , wherein each of the wall surfaces has a color in the longitudinal direction of the wall surface.
Coloring is performed so that the degree of saturation changes, and the first step is based on the first image information.
Based on the saturation of the color of the wall in the image,
As the relative position of the robot device with respect to the wall surface
From one end of the wall in the direction parallel to the wall
Characterized by detecting the distance to the robot device
Robot device control method.
【請求項14】所定の領域内を移動自在のロボツト装置
の制御方法において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記ロボツト装置
に配設された撮像手段により撮像することにより得られ
た第1の画像情報に基づいて、当該撮像手段により撮像
された上記壁面の色及び当該壁面に対する相対位置を検
出する第1のステツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記ロ
ボツト装置の位置を検出する第2のステツプと、 上記検出結果に基づいて、上記ロボツト装置が周囲の状
況に応じた行動を自律的にとるように上記ロボツト装置
の行動を制御する第3のステツプとを具え、 各上記壁面には、それぞれ上記壁面の長手方向の一端か
ら他端に至るように斜線が表記さ れ、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の高さに対する上記壁面の上記
斜線よりも上部分又は下部分の長さの比率に基づいて、
上記壁面に対する上記ロボツト装置の上記相対位置とし
て、上記壁面と平行な方向における上記ロボツト装置の
当該壁面の一端からの距離を検出することを特徴とする
ロボツト装置の制御方法。
14. A robot device which is movable within a predetermined area.
The control method of a different color double of each other provided along connexion around the area
Of the wall surfaces, the corresponding wall surface is replaced with the robot device.
It is obtained by taking an image with the image pickup means arranged in
Imaged by the image pickup means based on the first image information
The color of the above-mentioned wall surface and its relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
Based on the second step for detecting the position of the robot device and the detection result, the robot device is in the surrounding state.
The robot device described above to autonomously take action according to the situation
And a third step for controlling the behavior of the wall surface.
A diagonal line is drawn from the other end to the other end, and in the first step, based on the first image information,
The above of the wall surface with respect to the height of the wall surface in the image
Based on the ratio of the length above or below the diagonal,
As the relative position of the robot device with respect to the wall surface
The robot device in the direction parallel to the wall surface.
Characterized by detecting the distance from one end of the wall surface
Robot device control method.
【請求項15】所定の領域内を移動自在のロボツト装置
の制御方法において、 上記領域の周囲に沿つて設けられた互いに異なる色の複
数の壁面のうち、対応する上記壁面を上記ロボツト装置
に配設された撮像手段により撮像することにより得られ
た第1の画像情報に基づいて、当該撮像手段により撮像
された上記壁面の色及び当該壁面に対する相対位置を検
出する第1のステツプと、 上記第1のステツプにおいて検出した上記壁面の色及び
当該壁面に対する相対位置と、予め記憶している全ての
各上記壁面の色及び全ての各上記壁面の位置を含む上記
領域の地図情報とに基づいて上記領域内における上記ロ
ボツト装置の位置を検出する第2のステツプと、 上記検出結果に基づいて、上記ロボツト装置が周囲の状
況に応じた行動を自律的にとるように上記ロボツト装置
の行動を制御する第3のステツプとを具え、 各上記壁面は、それぞれ上記壁面の長手方向の一端から
他端に至る斜線又は仮想線を境として、当該斜線又は仮
想線よりも上部分及び下部分にそれぞれ同じ色相で飽和
度の異なる色に色づけられ、 上記第1のステツプでは、上記第1の画像情報に基づく
画像内における上記壁面の高さに対する当該壁面の上記
斜線又は上記仮想線よりも上記上部分又は上記下部分の
長さの比率に基づいて、上記壁面に対する上記ロボツト
装置の上記相対位置として、上記壁面と平行な方向にお
ける上記ロボツト装置の当該壁面の一端からの距離を検
出することを特徴とするロボツト装置の制御方法。
15. A robot device movable in a predetermined area.
The control method of a different color double of each other provided along connexion around the area
Of the wall surfaces, the corresponding wall surface is replaced with the robot device.
It is obtained by taking an image with the image pickup means arranged in
Imaged by the image pickup means based on the first image information
The color of the above-mentioned wall surface and its relative position to the wall surface.
And the color of the wall surface detected in the first step and
Relative position with respect to the wall surface and all of the previously stored
The above including the color of each wall surface and the position of each wall surface
Based on the map information of the area,
Based on the second step for detecting the position of the robot device and the detection result, the robot device is in the surrounding state.
The robot device described above to autonomously take action according to the situation
And a third step for controlling the behavior of each of the wall surfaces, each wall surface from one end in the longitudinal direction of the wall surface.
With the diagonal line or virtual line reaching the other end as a boundary, the diagonal line or temporary line
Saturated with the same hue above and below the line
Are colored in different degrees, and the first step is based on the first image information.
The above of the wall surface with respect to the height of the wall surface in the image
Of the upper part or the lower part above the diagonal line or the above virtual line
Based on the length ratio, the robot for the wall
As the relative position of the device, in the direction parallel to the wall surface.
Check the distance from one end of the wall surface of the robot device.
A method for controlling a robot device, which is characterized by issuing.
JP04878697A 1996-09-30 1997-03-04 Position detecting system, position detecting device, position detecting method, robot device and control method therefor Expired - Fee Related JP3512099B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04878697A JP3512099B2 (en) 1996-09-30 1997-03-04 Position detecting system, position detecting device, position detecting method, robot device and control method therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-280041 1996-09-30
JP28004196 1996-09-30
JP04878697A JP3512099B2 (en) 1996-09-30 1997-03-04 Position detecting system, position detecting device, position detecting method, robot device and control method therefor

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003408263A Division JP3928871B2 (en) 1996-09-30 2003-12-05 Identification apparatus and method

Publications (2)

Publication Number Publication Date
JPH10151591A JPH10151591A (en) 1998-06-09
JP3512099B2 true JP3512099B2 (en) 2004-03-29

Family

ID=26389114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04878697A Expired - Fee Related JP3512099B2 (en) 1996-09-30 1997-03-04 Position detecting system, position detecting device, position detecting method, robot device and control method therefor

Country Status (1)

Country Link
JP (1) JP3512099B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4217575B2 (en) 2003-09-29 2009-02-04 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
JP4254588B2 (en) * 2004-03-18 2009-04-15 沖電気工業株式会社 Autonomous robot and control method thereof
JP2007320032A (en) * 2007-07-30 2007-12-13 Sony Corp Robot device and control method for it
FR2939325B1 (en) * 2008-12-04 2015-10-16 Parrot DRONES SYSTEM WITH RECONNAISSANCE BEACONS
JP6629520B2 (en) * 2015-05-20 2020-01-15 ライフロボティクス株式会社 Robot system
JP6773573B2 (en) * 2017-01-25 2020-10-21 株式会社トプコン Positioning device, position identification method, position identification system, position identification program, unmanned aerial vehicle and unmanned aerial vehicle identification target
JP2019207617A (en) * 2018-05-30 2019-12-05 日本電気株式会社 Information processing system
JP2019207618A (en) * 2018-05-30 2019-12-05 日本電気株式会社 Information processing system

Also Published As

Publication number Publication date
JPH10151591A (en) 1998-06-09

Similar Documents

Publication Publication Date Title
US6088469A (en) Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
US11600075B2 (en) Nighttime sensing
KR102461938B1 (en) Method of identifying obstacle on a driving surface and robot implementing thereof
US7539563B2 (en) System and method for identifying objects in a space
JP5043133B2 (en) Land recognition landmark for mobile robot, and position recognition apparatus and method using the same
JP2001325069A (en) Device and method for detecting position
US7747072B2 (en) Image processing method, image processing program, its storage medium, and image processing device for extracting points from a color image
US8638988B2 (en) Movement analysis and/or tracking system
US9295141B2 (en) Identification device, method and computer program product
JP3512099B2 (en) Position detecting system, position detecting device, position detecting method, robot device and control method therefor
CN110163025A (en) Two dimensional code localization method and device
CN107527368B (en) Three-dimensional space attitude positioning method and device based on two-dimensional code
CN111823237B (en) Multi-robot positioning method and system based on RGB LED dynamic beacon
US20060261247A1 (en) System and method for image identification employed thereby
JP5019478B2 (en) Marker automatic registration method and system
JP3928871B2 (en) Identification apparatus and method
JPH01243104A (en) Mark identifying device in image pickup means
KR101243848B1 (en) Device of Hook-Angle Recognition for Unmanned Crane
JPH01197808A (en) Guidance system for unmanned vehicle
JPH10149435A (en) Environment recognition system and mark used therefor
Garcia et al. 100fps camera-based UGV localization system using Cyclone V FPSoC
JPH06147828A (en) Position/attitude measuring equipment
US11783497B2 (en) Position measuring device, position measuring method, and recording medium
US20240319827A1 (en) Display Control System for Drawing
Mahandi et al. Object Mapping Estimation on Multi-agent Robot Using Omnidirectional Camera

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040101

LAPS Cancellation because of no payment of annual fees