JPH1083455A - Object recognizing device and method - Google Patents

Object recognizing device and method

Info

Publication number
JPH1083455A
JPH1083455A JP9173545A JP17354597A JPH1083455A JP H1083455 A JPH1083455 A JP H1083455A JP 9173545 A JP9173545 A JP 9173545A JP 17354597 A JP17354597 A JP 17354597A JP H1083455 A JPH1083455 A JP H1083455A
Authority
JP
Japan
Prior art keywords
individually
landmark
regions
neural network
reference object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9173545A
Other languages
Japanese (ja)
Inventor
Atsushi Tani
淳 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP9173545A priority Critical patent/JPH1083455A/en
Publication of JPH1083455A publication Critical patent/JPH1083455A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase a learning capacity of a neural network. SOLUTION: The color image data of an object which is fetched from a television camera is quantized in the space of hues and saturation. That is, when color image data which is defined by the hue and saturation of the color image data exists within the range of an area A1, the data is quantized as red data. Similarly, when color image data exists within the range of an area A2 or an area A3, it is defined as green or blue quantization data respectively. In this way, after data is quantized to a small number of quantization data, each quantization data is separately stored in a neural network.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体認識装置およ
び方法に関し、特に認識すべき物体を、迅速且つ確実に
認識することができるようにした、物体認識装置および
方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for recognizing an object, and more particularly, to an apparatus and method for recognizing an object to be recognized quickly and reliably.

【0002】[0002]

【従来の技術】工場において、物品を運搬するとき移動
ロボットが用いられる場合がある。通常、この移動ロボ
ットを移動させるのに地面あるいは建物内の床等にガイ
ド線を埋め込み、このガイド線をトレースすることによ
り移動ロボットを所定の目的地に案内するようになされ
ている。このようにすると、運転者を必要とせずに移動
ロボットを所定の目的地に移動させることができる。
2. Description of the Related Art In a factory, a mobile robot is sometimes used when carrying articles. Usually, a guide line is buried in the ground or a floor in a building for moving the mobile robot, and the mobile robot is guided to a predetermined destination by tracing the guide line. In this way, the mobile robot can be moved to a predetermined destination without requiring a driver.

【0003】しかしながら、このような方法による場
合、移動ロボットは常に一定の走行経路しか走行するこ
とができず、途中に意図しない障害物があった場合にお
いては目的地に到達することができなくなる課題があっ
た。
However, according to such a method, the mobile robot can always travel only on a fixed traveling route, and cannot reach the destination if there is an unintended obstacle on the way. was there.

【0004】そこで、途中に障害物が存在する場合にお
いては、臨時にガイド線から離れ、障害物を回避した
後、再びガイド線に沿って走行させることが、例えば特
開平3−73004号公報に開示されている。
Therefore, when an obstacle is present on the way, it is possible to temporarily move away from the guide line, avoid the obstacle, and then run the vehicle again along the guide line. It has been disclosed.

【0005】しかしながら、このような従来の方法は、
基本的にガイド線に沿って進むものであるため、ガイド
線を設けなければならず、工場内の設備等のレイアウト
を変更したような場合においては、ガイド線も変更しな
ければならず、変更は容易ではなかった。
[0005] However, such a conventional method is as follows.
The guide line basically follows the guide line, so the guide line must be provided, and when the layout of the equipment in the factory is changed, the guide line must also be changed. Was not.

【0006】そこで、移動ロボットに目的地から発せら
れている例えば電波を受信させ、その電波を発信する方
向に移動させる方法も提案されている。
[0006] Therefore, a method has been proposed in which a mobile robot receives, for example, radio waves emitted from a destination and moves in a direction in which the radio waves are transmitted.

【0007】しかしながら、このように、移動空間の絶
対位置を検出するようにすると、ロボットが移動できる
範囲が限られてしまうばかりでなく、システム全体が大
がかりとなり、コストが高くなる。
However, detecting the absolute position of the moving space in this way not only limits the range in which the robot can move, but also increases the size of the entire system and increases the cost.

【0008】そこで、例えば、所定の位置にランドマー
ク(目印)を配置し、そのランドマークを基準にして、
自律的にロボットを移動させることが考えられる。この
ようにすれば、ロボットが、ランドマークを、例えばテ
レビカメラで撮像し、これを認識するようにすればよい
ので、比較的簡単に、且つ自由な経路でロボットを移動
させることが可能となる。
Therefore, for example, landmarks (marks) are arranged at predetermined positions, and based on the landmarks,
It is conceivable to move the robot autonomously. With this configuration, the robot can capture landmarks with, for example, a television camera and recognize the landmarks. Therefore, it is possible to relatively easily move the robot along a free path. .

【0009】ところで、このように、ランドマークを基
準にして自律的にロボットを移動させるようにするに
は、ランドマークを認識する必要が生じる。従来、ラン
ドマークを容易に認識することができるようにするため
に、ランドマークを予め一定の形状に決めておくように
していた。そして、一定の形状のランドマークであるか
否かを、テレビカメラの出力を処理することで判定する
ようにしている。
By the way, in order to autonomously move the robot with reference to the landmark, it is necessary to recognize the landmark. Conventionally, landmarks have been determined in advance to have a predetermined shape so that the landmarks can be easily recognized. Then, whether or not the landmark is a fixed shape is determined by processing the output of the television camera.

【0010】[0010]

【発明が解決しようとする課題】しかしながら、このよ
うに、撮像された形状が、予め定められている形状と等
しいか否かを認識させるために、相関記憶などにより、
ピクセルイメージで学習を行わせるようにすると、記憶
容量に限界が生じる課題があった。また、形状の近似し
たランドマークは、識別することが困難となる課題があ
った。
However, in order to recognize whether or not the imaged shape is equal to a predetermined shape, correlation storage or the like is used.
There is a problem in that the learning capacity is limited when learning is performed using a pixel image. In addition, there is a problem that it is difficult to identify landmarks having similar shapes.

【0011】本発明はこのような状況に鑑みてなされた
ものであり、より多くの認識すべき基準物体(ランドマ
ーク)を記憶することができるようにするとともに、近
似した基準物体でも、正確に認識することができるよう
にするものである。
The present invention has been made in view of such a situation, and is capable of storing a larger number of reference objects (landmarks) to be recognized. It is to be able to recognize.

【0012】[0012]

【課題を解決するための手段】請求項1に記載の物体認
識装置は、認識すべき基準物体を撮像して対応するカラ
ー画像データを出力する撮像手段と、撮像手段によって
出力された基準物体のカラー画像データを、予め所定の
色空間上に有限個に区分された領域の何れかに属するデ
ータとして個別に量子化する量子化手段と、予め量子化
手段によって個別に量子化された量子化データを、各領
域毎に個別に学習して記憶する記憶手段と、予め記憶手
段に個別に記憶されている各領域毎の量子化データと、
量子化手段から出力される各領域毎の量子化データと
を、各領域毎に個別に比較する比較手段と、比較手段に
よって各領域毎に個別に比較された比較結果に基づい
て、排他的に特定の基準物体を判定する判定手段とを備
えることを特徴とする。
An object recognizing device according to claim 1 is an image recognizing device for capturing an image of a reference object to be recognized and outputting corresponding color image data; Quantizing means for individually quantizing the color image data as data belonging to any one of a finite number of areas in a predetermined color space; and quantized data individually quantized by the quantizing means in advance. A storage means for individually learning and storing for each area, and quantized data for each area individually stored in advance in the storage means,
The comparing means for individually comparing the quantized data for each area output from the quantizing means for each area, and the exclusive means based on the comparison result individually compared for each area by the comparing means. Determining means for determining a specific reference object.

【0013】請求項8に記載の物体認識方法は、認識す
べき基準物体を撮像して得られる基準物体のカラー画像
データを、予め所定の色空間上に有限個に区分された領
域の何れかに属するデータとして個別に量子化し、予め
個別に量子化された量子化データを各領域毎に個別に学
習して記憶し、予め個別に記憶されている各領域毎の量
子化データと、撮像して得られる各領域毎の量子化デー
タとを、各領域毎に個別に比較し、各領域毎に個別に比
較された比較結果に基づいて、排他的に特定の基準物体
を判定することを特徴とする。
[0013] In the object recognition method according to the present invention, the color image data of the reference object obtained by imaging the reference object to be recognized is stored in a predetermined color space in any of a limited number of regions. Individually quantized as data belonging to, individually learned and quantized data previously individually learned and stored for each region, and quantized data for each region previously individually stored and captured. The quantized data of each region obtained by the above is individually compared for each region, and a specific reference object is exclusively determined based on the comparison result individually compared for each region. And

【0014】請求項1に記載の物体認識装置および請求
項8に記載の物体認識方法においては、物体のカラー画
像データが、色相と彩度の空間において量子化データに
量子化される。認識すべき物体の量子化データは、量子
化データ毎に個別に予め記憶される。撮像した物体の量
子化データは、予め記憶されている量子化データと、対
応する量子化データ毎に個別に比較される。
In the object recognition device according to the first aspect and the object recognition method according to the eighth aspect, the color image data of the object is quantized into quantization data in a hue and saturation space. The quantized data of the object to be recognized is individually stored in advance for each quantized data. The quantized data of the imaged object is individually compared with the previously stored quantized data for each corresponding quantized data.

【0015】[0015]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.

【0016】請求項1に記載の物体認識装置は、認識す
べき基準物体を撮像して対応するカラー画像データを出
力する撮像手段(例えば、図2のテレビカメラ12)
と、撮像手段によって出力された基準物体のカラー画像
データを、予め所定の色空間上に有限個に区分された領
域の何れかに属するデータとして個別に量子化する量子
化手段(例えば、図2の量子化回路25)と、予め量子
化手段によって個別に量子化された量子化データを、各
領域毎に個別に学習して記憶する記憶手段(例えば、図
5の相関記憶ネット41)と、予め記憶手段に個別に記
憶されている各領域毎の量子化データと、量子化手段か
ら出力される各領域毎の量子化データとを、各領域毎に
個別に比較する比較手段(例えば、図5の相関記憶ネッ
ト41)と、比較手段によって各領域毎に個別に比較さ
れた比較結果に基づいて、排他的に特定の基準物体を判
定する判定手段(例えば、図5のウィナーテイクオール
型ニューラルネットワーク42)とを備えることを特徴
とする。
The object recognizing device according to the first aspect of the present invention captures a reference object to be recognized and outputs corresponding color image data (for example, the television camera 12 in FIG. 2).
And quantizing means for individually quantizing the color image data of the reference object output by the imaging means as data belonging to any one of a finite number of areas in a predetermined color space in advance (for example, FIG. And a storage unit (e.g., the correlation storage net 41 in FIG. 5) that learns and stores the quantized data individually quantized by the quantization unit separately for each region. Comparison means for individually comparing the quantized data for each area previously stored individually in the storage means and the quantized data for each area output from the quantization means for each area (for example, FIG. 5 for determining a specific reference object exclusively based on the comparison result individually compared for each region by the comparing means (for example, the winner-take-all type neural network shown in FIG. 5). Net Characterized in that it comprises a workpiece 42) and.

【0017】図1は、本発明の物体認識装置を応用し
た、自律的に経路を移動する移動ロボットの外観構成を
示している。この実施の形態においては、ロボット11
の上部にテレビカメラ12が取り付けられ、周囲の画像
を撮像するようになされている。ロボット11の下側に
は、車輪13が取り付けられ、任意の位置に移動できる
ようになされている。また、ロボット11の側面には、
ディスプレイ14が取り付けられ、所定の文字や画像が
表示されるようになされている。
FIG. 1 shows the external configuration of a mobile robot that autonomously moves along a route, to which the object recognition device of the present invention is applied. In this embodiment, the robot 11
A television camera 12 is attached to the upper part of the camera to capture images of the surroundings. Wheels 13 are attached to the lower side of the robot 11 so that the robot 13 can move to an arbitrary position. Also, on the side of the robot 11,
The display 14 is attached, and predetermined characters and images are displayed.

【0018】図2は、ロボット11の内部の構成例を示
している。テレビカメラ12は、周囲の映像をカラー画
像として取り込み、取り込んだカラー画像データを制御
回路24と量子化回路25に出力している。量子化回路
25は入力されたカラー画像データを量子化し、ニュー
ラルネットワーク認識装置23に出力するようになされ
ている。ニューラルネットワーク認識装置23は、量子
化回路25より入力されたカラー画像データから、後述
するランドマークを認識し、認識結果を制御回路24に
出力するようになされている。例えば、マイクロコンピ
ュータなどよりなる制御回路24は、ニューラルネット
ワーク認識装置23に対して、ロボットの移動方向を通
知するとともに、ニューラルネットワーク認識装置23
より供給された、次のランドマークの予測結果をCR
T,LCDなどよりなるディスプレイ14に出力し、表
示させるようになされている。
FIG. 2 shows an example of the internal configuration of the robot 11. The television camera 12 captures the surrounding video as a color image, and outputs the captured color image data to the control circuit 24 and the quantization circuit 25. The quantization circuit 25 quantizes the input color image data and outputs it to the neural network recognition device 23. The neural network recognition device 23 recognizes a landmark to be described later from the color image data input from the quantization circuit 25, and outputs a recognition result to the control circuit 24. For example, the control circuit 24 including a microcomputer notifies the neural network recognition device 23 of the moving direction of the robot,
CR of the prediction of the next landmark supplied from
The data is output to and displayed on a display 14 composed of a T, LCD, or the like.

【0019】また、制御回路24は、モータ21を駆動
し、テレビカメラ12を所定の方向に指向させるように
なされている。さらに制御回路24は、モータ22を駆
動し、車輪13を回転して、ロボット11を所定の位置
に移動させるようになされている。
The control circuit 24 drives the motor 21 to direct the television camera 12 in a predetermined direction. Further, the control circuit 24 drives the motor 22, rotates the wheels 13, and moves the robot 11 to a predetermined position.

【0020】図3は、ロボット11の移動空間を平面的
に表している。この実施の形態においては、障害物10
Aと障害物10Bの回りに、ロボット11が現在位置を
認識するためのランドマーク1乃至ランドマーク5が配
置されている。この実施の形態の場合、ロボット11
は、ランドマーク1、ランドマーク2、ランドマーク5
の経路で、障害物10Aの周囲を反時計方向に移動する
か、またはランドマーク1、ランドマーク2、ランドマ
ーク3、ランドマーク4、ランドマーク5の経路で、障
害物10Aと障害物10Bの周囲を反時計方向に移動す
るものとする。
FIG. 3 shows the moving space of the robot 11 in a plan view. In this embodiment, the obstacle 10
Landmarks 1 to 5 for the robot 11 to recognize the current position are arranged around A and the obstacle 10B. In the case of this embodiment, the robot 11
Are landmark 1, landmark 2, landmark 5
Move around the obstacle 10A in the counterclockwise direction along the path of the landmark 1, the landmark 2, the landmark 3, the landmark 4, the landmark 4, and the landmark 5 to move the obstacle 10A and the obstacle 10B. It is assumed that it moves around in the counterclockwise direction.

【0021】この場合、制御回路24は、図4に示す処
理を実行する。最初にステップS1において、制御回路
24は、ランドマークが発見されたか否かを判定する。
すなわち、テレビカメラ12は、周囲の画像を撮像し、
撮像した結果得られたカラー画像データを量子化回路2
5を介してニューラルネットワーク認識装置23に出力
している。ニューラルネットワーク認識装置23は、後
述するように、ランドマークを認識すると、その認識結
果を制御回路24に出力する。制御回路24は、ニュー
ラルネットワーク認識装置23の出力をモニタし、ラン
ドマークが発見されたか否かを判定し、まだ発見されて
いない場合においては、ステップS2に進み、モータ2
1を駆動して、テレビカメラ12を所定の方向に回動さ
せたり、モータ22を駆動して、ロボット1が、図3に
おいて障害物10A,10Bの周囲を反時計方向に移動
するように車輪13を回転させる。このステップS1,
S2の処理は、ステップS1において、ランドマークが
発見されたと判定されるまで繰り返し実行される。
In this case, the control circuit 24 executes the processing shown in FIG. First, in step S1, the control circuit 24 determines whether a landmark has been found.
That is, the television camera 12 captures the surrounding image,
The color image data obtained as a result of imaging is quantized by the quantization circuit 2
5 to the neural network recognition device 23. When the landmark is recognized, the neural network recognition device 23 outputs the recognition result to the control circuit 24 as described later. The control circuit 24 monitors the output of the neural network recognizing device 23 to determine whether or not a landmark has been found. If the landmark has not been found yet, the process proceeds to step S2 and the motor 2
1 to rotate the television camera 12 in a predetermined direction or to drive the motor 22 so that the robot 1 can move the wheels around the obstacles 10A and 10B in FIG. 13 is rotated. This step S1,
The process of S2 is repeatedly executed until it is determined in step S1 that a landmark has been found.

【0022】ステップS1において、ランドマークが発
見されたと判定された場合、ステップS3に進み、制御
回路24は、発見したランドマークの方向に障害物が存
在するか否かを判定する。すなわち、制御回路24は、
テレビカメラ12の出力から障害物の有無を判定し、障
害物が存在すると判定した場合においては、ステップS
4に進み、車輪13を右方向に回転する処理を実行す
る。このとき制御回路24は、モータ22を駆動し、車
輪13を右方向(時計方向)に回転させる。
If it is determined in step S1 that a landmark has been found, the process proceeds to step S3, where the control circuit 24 determines whether an obstacle exists in the direction of the found landmark. That is, the control circuit 24
The presence or absence of an obstacle is determined from the output of the television camera 12, and if it is determined that an obstacle exists, the process proceeds to step S
Then, the process proceeds to step 4 in which the wheel 13 is rotated rightward. At this time, the control circuit 24 drives the motor 22 to rotate the wheels 13 clockwise (clockwise).

【0023】その後、ステップS3に戻り、ロボット1
1が新たに指向した方向に、障害物が存在するか否かを
再び判定する。障害物が存在すると判定された場合、再
びステップS4に進み、ロボット11をさらに時計方向
に回転する処理が行われる。そして、ステップS3にお
いて、障害物が存在しないと判定された場合、ステップ
S5に進み、制御回路24は、ロボット11をステップ
S1で発見されたランドマークの方向に移動させる処理
を実行する。すなわち、このとき制御回路24は、モー
タ22を駆動し、車輪13を回転させ、ロボット11を
ランドマークの方向に移動させる。
Thereafter, the flow returns to step S3, where the robot 1
It is determined again whether or not an obstacle exists in the direction in which 1 has newly pointed. If it is determined that an obstacle exists, the process proceeds to step S4 again, and a process of rotating the robot 11 further clockwise is performed. If it is determined in step S3 that there is no obstacle, the process proceeds to step S5, and the control circuit 24 executes a process of moving the robot 11 in the direction of the landmark found in step S1. That is, at this time, the control circuit 24 drives the motor 22, rotates the wheel 13, and moves the robot 11 in the direction of the landmark.

【0024】次にステップS6に進み、制御回路24
は、ランドマークに到達したか否かを、テレビカメラ1
2の出力とニューラルネットワーク認識装置23の出力
から判定する。すなわち、制御回路24は、ニューラル
ネットワーク認識装置23よりランドマークが検出され
ていることを表す信号が入力されているとともに、テレ
ビカメラ12が充分大きなランドマークの画像を出力し
ているとき、ランドマークに到達したものと判定する。
ランドマークにまだ到達していない場合においては、ス
テップS3に戻り、それ以降の処理を繰り返し実行し、
ランドマークに到達したと判定された場合、ステップS
1に戻り、新たなランドマークを発見し、そのランドマ
ークに向かって、上述した場合と同様の処理が実行され
る。
Then, the process proceeds to a step S6, wherein the control circuit 24
Indicates whether or not a landmark has been reached
2 and the output of the neural network recognition device 23. That is, when a signal indicating that a landmark has been detected is input from the neural network recognition device 23 and the TV camera 12 is outputting a sufficiently large landmark image, the control circuit 24 Is determined to have been reached.
If the landmark has not been reached yet, the process returns to step S3, and the subsequent processing is repeatedly executed.
If it is determined that the landmark has been reached, step S
Returning to step 1, a new landmark is found, and the same processing as described above is executed toward the new landmark.

【0025】以上のようにして、ロボット11は、障害
物10Aに衝突しないように、ランドマーク1に向かっ
て走行し、ランドマーク1に到達したら、ランドマーク
1からランドマーク2に向かって走行する。ランドマー
ク2に到達したら、さらにランドマーク5に向かって走
行し、ランドマーク5に到達したら、そこからランドマ
ーク1に向かって走行する。
As described above, the robot 11 travels toward the landmark 1 so as not to collide with the obstacle 10A, and travels from the landmark 1 toward the landmark 2 when it reaches the landmark 1. . When the vehicle reaches the landmark 2, the vehicle travels further toward the landmark 5. When the vehicle reaches the landmark 5, the vehicle travels toward the landmark 1 from there.

【0026】あるいはまた、ロボット11は、ランドマ
ーク2に到達したとき、ランドマーク5の方向でなく、
ランドマーク3の方向に移動し、ランドマーク3に到達
したら、そこからランドマーク4に進み、ランドマーク
4に到達したら、ランドマーク5に進む。
Alternatively, when the robot 11 reaches the landmark 2, the robot 11
After moving in the direction of the landmark 3 and reaching the landmark 3, proceed to the landmark 4 from there, and proceed to the landmark 5 when reaching the landmark 4.

【0027】ロボット11が、2つのルートのうち、い
ずれのルートを移動するかは、制御回路24により予め
プログラムすることが可能である。
Which of the two routes the robot 11 travels can be programmed in advance by the control circuit 24.

【0028】ここで、ニューラルネットワーク認識装置
23の構成について説明する。図5に示すように、ニュ
ーラルネットワーク認識装置23は、ホップフィールド
(Hopfield)型ニューラルネットワークにより構成され
る相関記憶ネット(associative memory net)41、ウ
ィナーテイクオール(winner-take-all)型ニューラル
ネットワーク42、およびリカレント(Recurrent)型
ニューラルネットワーク43により基本的に構成されて
いる。
Here, the configuration of the neural network recognition device 23 will be described. As shown in FIG. 5, the neural network recognizing device 23 includes an associative memory net 41 composed of a Hopfield type neural network, and a winner-take-all type neural network 42. , And a recurrent type neural network 43.

【0029】なお、相結合型(Interconnection type)
ニューラルネットワークの一種である上記ホップフィー
ルド型ニューラルネットワークは、セールスマン巡回問
題などに代表される最適化問題、または不完全な入力パ
ターンから完全なパターンを記憶想起する連想記憶など
への応用が提案されている。
Incidentally, a phase connection type (Interconnection type)
The Hopfield-type neural network, which is a type of neural network, has been proposed for applications to optimization problems typified by the salesman traveling problem, or to associative memories that store and recall complete patterns from incomplete input patterns. ing.

【0030】また、上記リカレント型ニューラルネット
ワークの、移動ロボットの学習面への応用の詳細につい
ては、文献「ロボットにおける認知と自律性の構造:力
学形の見地から」日本ロボット学会誌Vol.14 No.4.pp.4
74〜477,1996、およびJ.Tani:"Model-Based Learning fo
r Mobile Robot Navigation from the Dynamical Syste
ms Perspective."IEEE Trans.System,Man,and Cybernet
ics Part B:Cybernetics,Vol.26.No3,June 1996に開示
されている。
For details of the application of the recurrent neural network to the learning surface of a mobile robot, see the document “Structure of Cognition and Autonomy in Robots: From the Perspective of Dynamic Forms”, Journal of the Robotics Society of Japan, Vol. .4.pp.4
74-477, 1996, and J. Tani: "Model-Based Learning fo
r Mobile Robot Navigation from the Dynamical Syste
ms Perspective. "IEEE Trans.System, Man, and Cybernet
ics Part B: Cybernetics, Vol. 26. No. 3, June 1996.

【0031】テレビカメラ12より出力されたカラー画
像データは、相関記憶ネット41に入力される前に、量
子化回路25に入力され、量子化される。すなわち、量
子化回路25は、図6に示すように、色の3要素である
色相(色の種類)、彩度(無彩色から純色にいたる色の
濃淡)、明度の内の、色相と彩度で規定される空間(テ
ーブル)を有し、この所定の色相と彩度で規定されるカ
ラー画像データのうち、領域A1の範囲に属するカラー
画像データは、すべて例えば赤のデータとして量子化す
る。同様に、領域A2に属するカラー画像データは、す
べて緑のデータとして量子化し、さらに、領域A3に属
するカラー画像データは、すべて青のデータとして量子
化する。すなわち、カラー画像データは、有限個に区分
された領域A1,A2,A3の何れかに属するデータと
して個別に量子化される。
The color image data output from the television camera 12 is input to the quantization circuit 25 and quantized before being input to the correlation storage network 41. That is, as shown in FIG. 6, the quantization circuit 25 determines the hue (color type), saturation (color density from achromatic color to pure color), and hue and color among lightness, which are three elements of color. It has a space (table) defined by degrees, and among the color image data defined by the predetermined hue and saturation, all the color image data belonging to the range of the area A1 are quantized as, for example, red data. . Similarly, all the color image data belonging to the area A2 is quantized as green data, and all the color image data belonging to the area A3 is quantized as blue data. That is, the color image data is individually quantized as data belonging to any of the finite number of areas A1, A2, and A3.

【0032】なお、ここにおける赤、緑、および青の名
称は、便宜的なものに過ぎず、それ以外の名称であって
もよい。すなわち、これらの名称は、各領域の単なるコ
ード(量子化データの名称)にすぎない。
It should be noted that the names of red, green and blue here are merely for convenience, and other names may be used. That is, these names are merely codes (names of quantized data) of each area.

【0033】色相と彩度により規定される空間上に存在
するカラー画像データは、無限に存在するのであるが、
これをこの実施の形態の場合、3個の量子化データに量
子化する。このように、多くの数のカラー画像データ
を、充分少ない数の量子化データに量子化することで、
ニューラルネットワークによる物体の学習と認識が可能
となる。このように、量子化回路25によりカラー画像
データを量子化した量子化データが、ニューラルネット
ワーク認識装置23に供給される。従って、ニューラル
ネットワーク認識装置23に入力される量子化データ
は、図6に示した空間により規定される3つのデータの
いずれかにより表されたデータとなる。
Although the color image data existing in the space defined by the hue and the saturation exists infinitely,
In the case of this embodiment, this is quantized into three pieces of quantized data. In this way, by quantizing a large number of color image data into a sufficiently small number of quantized data,
Learning and recognition of objects by neural networks are possible. In this way, the quantized data obtained by quantizing the color image data by the quantization circuit 25 is supplied to the neural network recognition device 23. Therefore, the quantized data input to the neural network recognition device 23 is data represented by any one of the three data defined by the space shown in FIG.

【0034】図5に示すように、相関記憶ネット41
は、図6に示した量子化ステップの数(この実施の形態
の場合3個)に対応する数のフィールドを有している。
フィールド41Rは、図6における領域A1の赤の量子
化データに対応するフィールドであり、フィールド41
Gは、図6の領域A2の緑の量子化データに対応するフ
ィールドであり、そして、フィールド41Bは、図6の
領域A3の青の量子化データに対応するフィールドであ
る。量子化回路25より出力された3つの量子化データ
により構成される入力パターンは、相関記憶ネット41
の、それぞれ対応するフィールドのニューロンに入力さ
れる(想起される)。
As shown in FIG. 5, the correlation storage net 41
Has a number of fields corresponding to the number of quantization steps (three in this embodiment) shown in FIG.
The field 41R is a field corresponding to the red quantized data in the area A1 in FIG.
G is a field corresponding to the green quantized data in the area A2 in FIG. 6, and the field 41B is a field corresponding to the blue quantized data in the area A3 in FIG. The input pattern composed of the three pieces of quantized data output from the quantization circuit 25 is stored in the correlation storage net 41.
Are input (recalled) to the neurons in the corresponding fields.

【0035】すなわち、各ニューロンの内部の状態をU
とするとき、次式が成立する。
That is, the internal state of each neuron is represented by U
Then, the following equation is established.

【0036】[0036]

【数1】 (Equation 1)

【0037】ここで、iはニューロンの番号を表し、t
は所定の時刻を表している。従って、Ui t+1は、i番目
のニューロンの時刻t+1におけるニューロンの内部の
状態を表している。
Here, i represents the number of the neuron, and t
Represents a predetermined time. Thus, U i t + 1 represents the internal state of the ith neuron at time t + 1.

【0038】ここで、kは、ダンパを表す定数であり、
αも所定の定数である。
Here, k is a constant representing a damper,
α is also a predetermined constant.

【0039】Wijは、i番目のニューロンからj番目の
ニューロンに対する結合重み係数を表している。a
j tは、j番目の時刻tにおけるニューロンの出力を表し
ている。この出力は、次式により規定される。
W ij represents a connection weight coefficient from the i-th neuron to the j-th neuron. a
j t represents the output of the neuron at the j-th time t. This output is defined by the following equation.

【0040】[0040]

【数2】 (Equation 2)

【0041】ここで、logistic(A)は、Aに対してシ
グモイド関数(sigmoid function)を乗算することを表
している。また、Tは定数を表している。すなわち、上
記式は、ニューロンの内部状態を定数Tで割算した結果
にシグモイド関数を乗算した結果が、ニューロンの出力
となることを意味している。
Here, logistic (A) indicates that A is multiplied by a sigmoid function. T represents a constant. That is, the above equation means that the result of multiplying the result of dividing the internal state of the neuron by the constant T by the sigmoid function is the output of the neuron.

【0042】以上のようにして、相関記憶ネット41の
各ニューロンの発火状態により3つの量子化データが個
別に比較され、想起のダイナミクスが行われるのに対
し、学習のダイナミクスは、次の式により表される。
As described above, the three quantized data are individually compared according to the firing state of each neuron of the correlation storage net 41, and the recall dynamics are performed. On the other hand, the learning dynamics are represented by the following equations. expressed.

【0043】[0043]

【数3】 (Equation 3)

【0044】上記式における0.5は、閾値として機能
する。すなわち、各ニューロンの出力は0乃至1の間の
活動値となるが、0.5より小さい活動値であるとき、
結合重み係数を負にし、0.5より大きい場合、結合重
み係数を正にする機能を有している。
0.5 in the above equation functions as a threshold value. That is, the output of each neuron is an activity value between 0 and 1, but when the activity value is less than 0.5,
It has a function to make the connection weight coefficient negative and to make the connection weight coefficient positive when it is larger than 0.5.

【0045】ニューラルネットワークにランドマーク1
乃至ランドマーク5を認識の基準となる基準物体として
学習させると、その学習の結果は、この結合重み係数W
ijとして記憶されることになる。
Landmark 1 in neural network
When the landmark 5 is learned as a reference object serving as a reference for recognition, the result of the learning is represented by
ij .

【0046】ウィナーテイクオール型ニューラルネット
ワーク42は、少なくとも認識すべきランドマークの数
に対応する数のニューロン(この実施の形態の場合、5
個のニューロン)を有し、相関記憶ネット41の各フィ
ールド41R,41G,41Bから各々の活動値の入力
が行われたとき、5個のニューロンのうち、最も大きな
活動値を出力する1個のニューロンの出力を1.0と
し、他の4個のニューロンの出力を0.0とする学習を
行わせる。これにより、相関記憶ネット41の3つのフ
ィールド41R,41G,41Bで個別に比較された出
力パターンから、勝者全奪により1つのランドマークが
判定され、そのランドマークに対応する唯一のニューロ
ンが発火することになる。
The winner-take-all type neural network 42 has at least as many neurons (5 in this embodiment as the number of landmarks to be recognized).
When each activity value is input from each field 41R, 41G, 41B of the correlation storage net 41, one of the five neurons that outputs the largest activity value is output. Learning is performed in which the output of the neuron is set to 1.0 and the outputs of the other four neurons are set to 0.0. As a result, one landmark is determined based on the output patterns that are individually compared in the three fields 41R, 41G, and 41B of the correlation storage net 41, and the only neuron corresponding to the landmark is fired. Will be.

【0047】このように、ウィナーテイクオール型ニュ
ーラルネットワーク42においては、勝者全奪により、
排他的に唯一のニューロンが発火するので、その出力を
処理する後段のリカレント型ニューラルネットワーク4
3の構成を簡単にすることができる。
As described above, in the winner-take-all type neural network 42, by taking all the winners,
Since only one neuron is fired exclusively, the subsequent recurrent neural network 4 that processes its output
3 can be simplified.

【0048】リカレント型ニューラルネットワーク43
は、入力層51、中間層52、および出力層53によ
り、基本的に構成されている。入力層51は、ウィナー
テイクオール型ニューラルネットワーク42に対応する
5個のニューロンを有するパターンノード51A、リカ
レント型ニューラルネットワーク43の内部状態を保持
するニューロンを有するコンテクストノード(context
node)51B、並びに制御回路24より次に移動する方
向が指令されるニューロンを有する方向ノード51Cに
より構成されている。
Recurrent neural network 43
Is basically composed of an input layer 51, an intermediate layer 52, and an output layer 53. The input layer 51 includes a pattern node 51A having five neurons corresponding to the winner-take-all type neural network 42 and a context node (context) having neurons holding the internal state of the recurrent type neural network 43.
node) 51B, and a direction node 51C having a neuron to which a direction to move next is instructed by the control circuit 24.

【0049】出力層53は、5個のランドマークに対応
するニューロンを有するパターンノード53Aと、入力
層51におけるコンテクストノード51Bに対応するコ
ンテクストノード53Bを有している。中間層52の各
ニューロンは、入力層51と出力層53の各ノードを結
合している。また、出力層53のコンテクストノード5
3Bのニューロンの出力は、入力層51のコンテクスト
ノード51Bのニューロンに帰還されている。これによ
り、内部的に履歴を反映させるコンテクストループ(co
ntext loop)が形成されている。
The output layer 53 has a pattern node 53A having neurons corresponding to five landmarks, and a context node 53B corresponding to the context node 51B in the input layer 51. Each neuron of the intermediate layer 52 connects each node of the input layer 51 and each node of the output layer 53. Also, the context node 5 of the output layer 53
The output of the 3B neuron is fed back to the context node 51B neuron of the input layer 51. This allows the context loop (co
ntext loop) is formed.

【0050】リカレント型ニューラルネットワーク43
は、ウィナーテイクオール型ニューラルネットワーク4
2から、入力層51のパターンノード51Aに、1つの
ランドマークに対応する入力がなされると、次に現れる
ランドマークを予測し、出力層53から出力する。
Recurrent neural network 43
Is the winner-take-all type neural network 4
From 2, when an input corresponding to one landmark is made to the pattern node 51 A of the input layer 51, the next appearing landmark is predicted and output from the output layer 53.

【0051】ニューラルネットワーク認識装置23は、
量子化回路25よりカラー画像データが入力されると、
図7のフローチャートに示す処理を実行する。
The neural network recognition device 23
When color image data is input from the quantization circuit 25,
The processing shown in the flowchart of FIG. 7 is executed.

【0052】最初にステップS11において、ランドマ
ークが探索されるまで待機する。この実施の形態の場
合、ランドマーク1乃至ランドマーク5は、いずれも所
定の色で着色されており、ニューラルネットワーク認識
装置23は、カラー画像データが入力されたとき、ステ
ップS11でYESの判定を行い、ステップS12に進
む。
First, in step S11, the process waits until a landmark is searched. In the case of this embodiment, the landmarks 1 to 5 are all colored in a predetermined color, and the neural network recognizing device 23 determines YES in step S11 when color image data is input. The process proceeds to step S12.

【0053】ステップS12においては、ニューラルネ
ットワーク認識装置23は、いま探索されたランドマー
ク(現ランドマーク)の認識処理を実行する。この認識
処理は、ニューラルネットワーク認識装置23の相関記
憶ネット41において実行される。
In step S12, the neural network recognizing device 23 executes a process of recognizing the landmark (current landmark) just searched. This recognition processing is executed in the correlation storage net 41 of the neural network recognition device 23.

【0054】ステップS12の現ランドマークの認識処
理が終了したとき、次にステップS13に進み、ウィナ
ーテイクオール型ニューラルネットワーク42におい
て、ステップS12で得られた認識結果の絞り込み処理
を行う。すなわち、5つのランドマークのうちのいずれ
が認識されたのかを明確にする。そして、ステップS1
4に進み、現在のランドマークの次に現れるランドマー
クをリカレント型ニューラルネットワーク43において
予測する処理を行う。予測した結果は、ディスプレイ1
4に表示される。以上の処理は、ランドマークが探索さ
れるごとに繰り返し実行される。
When the current landmark recognition process in step S12 is completed, the process proceeds to step S13, where the process of narrowing down the recognition result obtained in step S12 is performed in the winner-take-all type neural network 42. That is, it is clear which of the five landmarks has been recognized. Then, step S1
Then, the process proceeds to step 4 in which the recurrent neural network 43 predicts a landmark appearing next to the current landmark. The predicted result is displayed on display 1
4 is displayed. The above processing is repeatedly executed each time a landmark is searched.

【0055】いま、ランドマーク1乃至ランドマーク5
の認識すべき基準の物体としての画像が、相関記憶ネッ
ト41における結合重み係数として記憶(学習)された
ものとする。この状態で、例えば、相関記憶ネット41
に、テレビカメラ12で撮影され、量子化回路25で量
子化されたランドマーク2のパターンが入力されると、
フィールド41R,41G,41Bには、それぞれラン
ドマーク2の量子化された赤のデータ、緑のデータ、お
よび青のデータが、それぞれ所定の位置に発火する。ウ
ィナーテイクオール型ニューラルネットワーク42は、
各フィールドの発火状態から対応するランドマークを判
定し、判定結果に基づいて1つのランドマークに対応す
るニューロンを発火させる。いまの場合、ランドマーク
2に対応するニューロンが発火する。
Now, landmarks 1 to 5
Is stored (learned) as a connection weight coefficient in the correlation storage net 41. In this state, for example, the correlation storage net 41
Then, when the pattern of the landmark 2 captured by the television camera 12 and quantized by the quantization circuit 25 is input,
In the fields 41R, 41G, and 41B, quantized red data, green data, and blue data of the landmark 2 fire at predetermined positions, respectively. The winner-take-all type neural network 42
A corresponding landmark is determined from the firing state of each field, and a neuron corresponding to one landmark is fired based on the determination result. In this case, the neuron corresponding to the landmark 2 fires.

【0056】そこで、リカレント型ニューラルネットワ
ーク43の入力層51のパターンノード51Aには、ウ
ィナーテイクオール型ニューラルネットワーク42のニ
ューロンに対応して、ランドマーク2に対応するニュー
ロンが発火する。また、このとき、制御回路24は、次
に進むべき方向は左であるのか右であるのかを判定し、
その方向に対応する信号を入力層51の方向ノード51
Cに入力する。図5の実施の形態においては、左方向に
対応するニューロンが発火されている。このため、リカ
レント型ニューラルネットワーク43は、ランドマーク
2の次に到来するランドマークを予測し、その予測結果
を出力層53のパターンノード53Aに出力する。図3
に示すように、ランドマーク2が検出された状態におい
て、次に移動する方向が左方向である場合においては、
次に現れるランドマークは、ランドマーク5となる。従
って、この場合、図5に示すように、出力層53では、
ランドマーク5に対応する番号5のニューロンが発火す
る。
Therefore, a neuron corresponding to the landmark 2 is fired at the pattern node 51A of the input layer 51 of the recurrent neural network 43, corresponding to the neuron of the winner-take-all neural network 42. At this time, the control circuit 24 determines whether the next direction to go is left or right,
A signal corresponding to the direction is sent to a direction node 51 of the input layer 51.
Input to C. In the embodiment of FIG. 5, the neuron corresponding to the left direction is fired. Therefore, the recurrent neural network 43 predicts a landmark arriving next to the landmark 2 and outputs the prediction result to the pattern node 53A of the output layer 53. FIG.
As shown in the figure, when the landmark 2 is detected and the next moving direction is the left direction,
The next landmark to appear is landmark 5. Therefore, in this case, as shown in FIG.
The neuron with the number 5 corresponding to the landmark 5 fires.

【0057】制御回路24は、ニューラルネットワーク
認識装置23より、次のランドマークを予測するデータ
の入力を受けたとき、これに対応する番号をディスプレ
イ14に出力し、表示させる。いまの場合、例えば、番
号5がディスプレイ14に表示される。これにより、使
用者は、次に現れるランドマークがランドマーク5であ
ることを知ることができる。
When receiving the data for predicting the next landmark from the neural network recognition device 23, the control circuit 24 outputs the number corresponding to the input to the display 14 for display. In this case, for example, the number 5 is displayed on the display 14. Thereby, the user can know that the landmark that appears next is the landmark 5.

【0058】リカレント型ニューラルネットワーク43
の入力層51のパターンノード51Aにおけるランドマ
ーク2に対応するニューロンが発火した状態において、
方向ノード51Cで右方向に対応するニューロンを発火
させた場合においては、図3に示すように、ランドマー
ク2から右方向に移動したとき、次に現れるランドマー
クはランドマーク3であるので、出力層53のパターン
ノード53Aにおいては、ランドマーク3に対応する番
号3のニューロンが発火することになる。
Recurrent neural network 43
In the state where the neuron corresponding to the landmark 2 in the pattern node 51A of the input layer 51 of the
In the case where the neuron corresponding to the right direction is fired at the direction node 51C, as shown in FIG. At the pattern node 53A of the layer 53, the neuron of number 3 corresponding to the landmark 3 fires.

【0059】また、例えばランドマーク4が、ランドマ
ーク1と近似した色彩のランドマークであったとする
と、ランドマーク1とランドマーク4のいずれが認識さ
れたのかが不明瞭となる。しかしながら、この実施の形
態の場合、リカレント型ニューラルネットワーク43に
コンテクストループが設けられているため、内部的に履
歴が反映され、これにより、ランドマーク1乃至4の時
系列的な出現順序、すなわち、状態の遷移も識別され
る。
For example, if the landmark 4 is a landmark having a color similar to that of the landmark 1, it is unclear which of the landmark 1 and the landmark 4 has been recognized. However, in the case of this embodiment, since the context loop is provided in the recurrent neural network 43, the history is internally reflected, whereby the time-series appearance order of the landmarks 1 to 4, that is, State transitions are also identified.

【0060】図3に示すように、ランドマーク4はラン
ドマーク3の次に表れるものであり、ランドマーク1は
ランドマーク5の次に表れるものである。リカレント型
ニューラルネットワーク43においては、そのコンテク
ストノード51B,53Bにより、現在の状態がどの状
態であるのかを識別できるため、直前に認識されたラン
ドマークがランドマーク3である場合においては、次に
入力されるランドマークは、ランドマーク1ではなくラ
ンドマーク4であることが認識される。同様に、直前に
認識されていたランドマークが、ランドマーク5である
場合においては、次に予測されるランドマークは、ラン
ドマーク4ではなくランドマーク1であることを認識す
ることができる。
As shown in FIG. 3, the landmark 4 appears next to the landmark 3, and the landmark 1 appears next to the landmark 5. In the recurrent neural network 43, the context nodes 51B and 53B make it possible to identify the current state, and if the landmark recognized immediately before is the landmark 3, the next input is performed. The recognized landmark is recognized as landmark 4 instead of landmark 1. Similarly, when the landmark recognized immediately before is the landmark 5, it can be recognized that the landmark predicted next is not the landmark 4 but the landmark 1.

【0061】以上、自律的に経路を移動する移動ロボッ
トが現在位置を認識するためのランドマークを認識する
場合を例として本発明の実施の形態を説明したが、本発
明は、ロボット以外において、所定の物体を認識する場
合にも適応することが可能である。
The embodiment of the present invention has been described above by taking as an example a case where a mobile robot that autonomously moves along a route recognizes a landmark for recognizing a current position. It is also possible to adapt when recognizing a predetermined object.

【0062】[0062]

【発明の効果】以上の如く、請求項1に記載の物体認識
装置および請求項8に記載の物体認識方法によれば、記
憶されている量子化データと、撮像した基準物体のカラ
ー画像データの量子化データとを、予め所定の色空間上
に有限個に区分された領域毎に個別に比較するようにし
たので、学習容量が大きくなり、多くの基準物体を記憶
し、認識することが可能となる。
As described above, according to the object recognizing device of the first aspect and the object recognizing method of the eighth aspect, the stored quantized data and the color image data of the captured reference object are compared. Quantized data is individually compared in advance for each finite number of areas in a predetermined color space, so the learning capacity is large, and many reference objects can be stored and recognized. Becomes

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の物体認識装置を応用したロボットの外
観構成を示す図である。
FIG. 1 is a diagram showing an external configuration of a robot to which an object recognition device of the present invention is applied.

【図2】図1の実施の形態の内部の構成を示すブロック
図である。
FIG. 2 is a block diagram showing an internal configuration of the embodiment of FIG.

【図3】図1の実施の形態の移動する空間を説明する図
である。
FIG. 3 is a diagram illustrating a moving space according to the embodiment of FIG. 1;

【図4】図2の制御回路の動作を説明するフローチャー
トである。
FIG. 4 is a flowchart illustrating an operation of the control circuit of FIG. 2;

【図5】図2のニューラルネットワーク認識装置23の
詳細な構成例を示す図である。
5 is a diagram showing a detailed configuration example of the neural network recognition device 23 of FIG.

【図6】図2の量子化回路25の動作を説明する図であ
る。
FIG. 6 is a diagram for explaining the operation of the quantization circuit 25 of FIG. 2;

【図7】図2のニューラルネットワーク認識装置23の
動作を説明するフローチャートである。
7 is a flowchart illustrating the operation of the neural network recognition device 23 of FIG.

【符号の説明】[Explanation of symbols]

11 ロボット, 12 テレビカメラ, 13 車
輪, 14 ディスプレイ, 23 ニューラルネット
ワーク認識装置, 24 制御回路, 25 量子化回
路, 41 相関記憶ネット, 42 ウィナーテイク
オール型ニューラルネットワーク, 43 リカレント
型ニューラルネットワーク
Reference Signs List 11 robot, 12 TV camera, 13 wheels, 14 display, 23 neural network recognition device, 24 control circuit, 25 quantization circuit, 41 correlation storage net, 42 winner-take all type neural network, 43 recurrent type neural network

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 認識すべき基準物体を撮像して対応する
カラー画像データを出力する撮像手段と、 前記撮像手段によって出力された前記基準物体のカラー
画像データを、予め所定の色空間上に有限個に区分され
た領域の何れかに属するデータとして個別に量子化する
量子化手段と、 予め前記量子化手段によって個別に量子化された量子化
データを、前記各領域毎に個別に学習して記憶する記憶
手段と、 予め前記記憶手段に個別に記憶されている前記各領域毎
の量子化データと、前記量子化手段から出力される前記
各領域毎の量子化データとを、前記各領域毎に個別に比
較する比較手段と、 前記比較手段によって前記各領域毎に個別に比較された
比較結果に基づいて、排他的に特定の基準物体を判定す
る判定手段とを備えることを特徴とする物体認識装置。
1. An image pickup means for picking up an image of a reference object to be recognized and outputting corresponding color image data, and converting the color image data of the reference object output by the image pickup means into a predetermined color space on a predetermined color space in advance. Quantizing means for individually quantizing as data belonging to any of the divided regions; and Quantized data individually quantized by the quantizing means in advance and individually learned for each of the regions. A storage unit for storing, the quantized data for each of the regions, which are individually stored in advance in the storage unit, and the quantized data for each of the regions output from the quantizing unit, for each of the regions. And a determination unit for exclusively determining a specific reference object based on a comparison result individually compared for each of the regions by the comparison unit. Body recognition device.
【請求項2】 前記所定の色空間は、色の3要素である
色相、彩度、明度の内の、色相と彩度で規定される空間
であることを特徴とする請求項1に記載の物体認識装
置。
2. The predetermined color space according to claim 1, wherein the predetermined color space is a space defined by hue and saturation among hue, saturation, and brightness, which are three elements of color. Object recognition device.
【請求項3】 前記記憶手段は、認識すべき基準物体に
対応する量子化データを、前記各領域毎に、ニューラル
ネットワークの各ニューロン間の結合重み係数として記
憶し、 前記比較手段は、前記各領域毎に、ニューラルネットワ
ークの各ニューロンの発火状態により量子化データを比
較し、 前記記憶手段と、前記比較手段とによって、現時点で撮
像している基準物体の認識を行う相関記憶ネットを構成
することを特徴とする請求項1に記載の物体認識装置。
3. The storage means stores quantized data corresponding to a reference object to be recognized as a connection weighting factor between neurons of a neural network for each of the regions. For each region, quantized data is compared according to the firing state of each neuron of the neural network, and the storage means and the comparing means constitute a correlation storage net for recognizing a reference object which is currently being imaged. The object recognition device according to claim 1, wherein:
【請求項4】 前記相関ネットは、ホップフィールド型
ニューラルネットワークによって構成されていることを
特徴とする請求項3に記載の物体認識装置。
4. The object recognition apparatus according to claim 3, wherein the correlation net is constituted by a Hopfield type neural network.
【請求項5】 前記判定手段は、前記比較手段の比較結
果の絞り込みを行うためのウィナーテイクオール型ニュ
ーラルネットワークによって構成されていることを特徴
とする請求項1に記載の物体認識装置。
5. The object recognition apparatus according to claim 1, wherein said determination means is constituted by a winner-take-all type neural network for narrowing down a comparison result of said comparison means.
【請求項6】 前記判定手段によって判定された基準物
体の時系列的な出現順序を学習し、前記判定手段の判定
結果に基づいて、次に現れる基準物体を予測するため
の、内部的に履歴を反映させるコンテクストループを有
するリカレント型ニューラルネットワークをさらに備え
ることを特徴とする請求項1に記載の物体認識装置。
6. An internal history for learning a time-series appearance order of a reference object determined by said determination means and for predicting a next reference object to appear based on a determination result of said determination means. 2. The object recognition apparatus according to claim 1, further comprising a recurrent neural network having a context loop that reflects the information.
【請求項7】 前記基準物体は、自律的に経路を移動す
る移動ロボットが現在位置を認識するためのランドマー
クとして使用することを特徴とする請求項1に記載の物
体認識装置。
7. The object recognition device according to claim 1, wherein the reference object is used as a landmark for a mobile robot autonomously moving on a route to recognize a current position.
【請求項8】 認識すべき基準物体を撮像して得られる
前記基準物体のカラー画像データを、予め所定の色空間
上に有限個に区分された領域の何れかに属するデータと
して個別に量子化し、 予め個別に量子化された量子化データを前記各領域毎に
個別に学習して記憶し、 予め個別に記憶されている前記各領域毎の量子化データ
と、撮像して得られる前記各領域毎の量子化データと
を、前記各領域毎に個別に比較し、 前記各領域毎に個別に比較された比較結果に基づいて、
排他的に特定の基準物体を判定することを特徴とする物
体認識方法。
8. A method of individually quantizing color image data of a reference object obtained by imaging a reference object to be recognized as data belonging to any one of a finite number of regions in a predetermined color space. , Individually learning and storing the quantized data individually quantized in advance for each of the regions, and the quantized data for each of the regions previously stored individually, and the respective regions obtained by imaging. Quantized data for each of the regions is compared individually for each region, and based on a comparison result individually compared for each region,
An object recognition method characterized by exclusively determining a specific reference object.
【請求項9】 前記各領域毎に個別に比較された比較結
果に基づいて、排他的に判定された基準物体の時系列的
な出現順序を学習し、 前記判定結果に基づいて、次に現れる基準物体を予測す
ることを特徴とする請求項8に記載の物体認識方法。
9. A chronological order of appearance of a reference object determined exclusively based on a comparison result individually compared for each of the regions, and a next appearing order is determined based on the determination result. The method according to claim 8, wherein a reference object is predicted.
JP9173545A 1996-07-08 1997-06-30 Object recognizing device and method Withdrawn JPH1083455A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9173545A JPH1083455A (en) 1996-07-08 1997-06-30 Object recognizing device and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-177577 1996-07-08
JP17757796 1996-07-08
JP9173545A JPH1083455A (en) 1996-07-08 1997-06-30 Object recognizing device and method

Publications (1)

Publication Number Publication Date
JPH1083455A true JPH1083455A (en) 1998-03-31

Family

ID=26495485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9173545A Withdrawn JPH1083455A (en) 1996-07-08 1997-06-30 Object recognizing device and method

Country Status (1)

Country Link
JP (1) JPH1083455A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099915A (en) * 2000-08-16 2002-04-05 Oce Technologies Bv Color document interpretation
US6754560B2 (en) 2000-03-31 2004-06-22 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2009508263A (en) * 2005-09-13 2009-02-26 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド Hybrid control device
CN102313547A (en) * 2011-05-26 2012-01-11 东南大学 Vision navigation method of mobile robot based on hand-drawn outline semantic map
JP2018096834A (en) * 2016-12-13 2018-06-21 ソニーセミコンダクタソリューションズ株式会社 Data processor, data processing method, program, and electronic equipment
CN111591624A (en) * 2020-06-05 2020-08-28 浙江聚森检测科技有限公司 Intelligent stock analysis solid waste compartment

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754560B2 (en) 2000-03-31 2004-06-22 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2011115944A (en) * 2000-03-31 2011-06-16 Sony Corp Robot device, robot device action control method, and program
JP2002099915A (en) * 2000-08-16 2002-04-05 Oce Technologies Bv Color document interpretation
JP2009508263A (en) * 2005-09-13 2009-02-26 ニューロサイエンシーズ リサーチ ファンデーション インコーポレイテッド Hybrid control device
JP2013020644A (en) * 2005-09-13 2013-01-31 Neurosciences Research Foundation Inc Hybrid control device
CN102313547A (en) * 2011-05-26 2012-01-11 东南大学 Vision navigation method of mobile robot based on hand-drawn outline semantic map
JP2018096834A (en) * 2016-12-13 2018-06-21 ソニーセミコンダクタソリューションズ株式会社 Data processor, data processing method, program, and electronic equipment
US11120287B2 (en) 2016-12-13 2021-09-14 Sony Semiconductor Solutions Corporation Data processing device, data processing method, program, and electronic device
JP2021165754A (en) * 2016-12-13 2021-10-14 ソニーセミコンダクタソリューションズ株式会社 Imaging system, imaging processing method and program
US11869233B2 (en) 2016-12-13 2024-01-09 Sony Semiconductor Solutions Corporation Data processing device, data processing method, program, and electronic device
CN111591624A (en) * 2020-06-05 2020-08-28 浙江聚森检测科技有限公司 Intelligent stock analysis solid waste compartment

Similar Documents

Publication Publication Date Title
US5963663A (en) Land mark recognition method for mobile robot navigation
US11097416B2 (en) Mobile robot system, mobile robot, and method of controlling the mobile robot system
US20180319015A1 (en) Apparatus and methods for hierarchical training of robots
US20200401148A1 (en) Path planning for autonomous moving devices
CN107403426B (en) Target object detection method and device
US11559902B2 (en) Robot system and control method of the same
CN114080583A (en) Visual teaching and repetitive motion manipulation system
CN111931764A (en) Target detection method, target detection framework and related equipment
Palazzo et al. Domain adaptation for outdoor robot traversability estimation from RGB data with safety-preserving loss
Hwang et al. A distributed active-vision network-space approach for the navigation of a car-like wheeled robot
JP2024519299A (en) Method and system for robot navigation in unknown environments - Patents.com
JPH1083455A (en) Object recognizing device and method
JP2022521881A (en) Systems for obtaining predictions of vehicle actions and corresponding methods
CN112712556A (en) Method for training a neural convolutional network, method, apparatus, and storage medium for determining a positioning pose
KR20210042537A (en) Method of estimating position in local area in large sapce and robot and cloud server implementing thereof
JP3827037B2 (en) Learning method and apparatus, robot, and recording medium
Souza et al. Template-based autonomous navigation and obstacle avoidance in urban environments
Jokić et al. Mobile robot decision-making system based on deep machine learning
CN116700228A (en) Robot path planning method, electronic device and readable storage medium
Razavian et al. Cognitive based adaptive path planning algorithm for autonomous robotic vehicles
JP2006127047A (en) Robot and communication robot system
Wen et al. A Hybrid Technique for Active SLAM Based on RPPO Model with Transfer Learning
Jeni et al. Hierarchical reinforcement learning for robot navigation using the intelligent space concept
Macias et al. Indoor navigation based on model switching in overlapped known regions
Derbas et al. SLAM Algorithm for Omni-Directional Robots based on ANN and EKF

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040907