JPH0738223B2 - Image recognition device for mobile robots - Google Patents

Image recognition device for mobile robots

Info

Publication number
JPH0738223B2
JPH0738223B2 JP62186604A JP18660487A JPH0738223B2 JP H0738223 B2 JPH0738223 B2 JP H0738223B2 JP 62186604 A JP62186604 A JP 62186604A JP 18660487 A JP18660487 A JP 18660487A JP H0738223 B2 JPH0738223 B2 JP H0738223B2
Authority
JP
Japan
Prior art keywords
target object
basic
key
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62186604A
Other languages
Japanese (ja)
Other versions
JPS6431188A (en
Inventor
一則 小野口
睦 渡辺
Original Assignee
工業技術院長
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 工業技術院長 filed Critical 工業技術院長
Priority to JP62186604A priority Critical patent/JPH0738223B2/en
Publication of JPS6431188A publication Critical patent/JPS6431188A/en
Publication of JPH0738223B2 publication Critical patent/JPH0738223B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Input (AREA)

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、被認識体の画像情報から抽出した基本図形お
よび基準モデルの基本図形の両図形に関連する情報に基
づいて基準モデルに対応する被認識体を認識する移動ロ
ボット用画像認識装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Object of the Invention (Industrial field of application) The present invention is based on information related to both basic figures extracted from image information of a recognition object and basic figures of a reference model. The present invention relates to an image recognition device for a mobile robot that recognizes an object to be recognized corresponding to a reference model.

(従来の技術) 移動ロボットを自律的に走行させる場合には、移動ロボ
ットの目としてカメラ等の撮像装置をロボットに設け、
この撮像装置で撮像した画像の中から目標物を検出しな
がら走行させることが必要である。
(Prior Art) When a mobile robot autonomously travels, an imaging device such as a camera is provided on the robot as eyes of the mobile robot,
It is necessary to travel while detecting the target object from the image captured by this imaging device.

このように目標物を検出する方法としては、従来、目標
物に関する特徴を予め基準モデルとして登録しておき、
この基準モデルの特徴情報を用いて、画像の中から目標
物を検出する方法がある。具体的には、この方法の一つ
として、目標物の画像または代表的な二次元形状を基準
モデルとして登録し、撮像画像の中の被認識体の図形と
基準モデルの図形とのマッチングを検出することで、被
認識体に対応する基準モデルを検出し、該基準モデルか
ら該被認識体を目標物として認識することが行われてい
る。
As a method of detecting a target object in this way, conventionally, the features relating to the target object are registered in advance as a reference model,
There is a method of detecting a target object in an image using the characteristic information of the reference model. Specifically, as one of the methods, an image of a target object or a typical two-dimensional shape is registered as a reference model, and matching between the figure of the object to be recognized in the captured image and the figure of the reference model is detected. By doing so, the reference model corresponding to the recognition object is detected, and the recognition object is recognized as the target object from the reference model.

(発明が解決しようとする問題点) 目標物は通常三次元物体であるが、このような三次元物
体を撮像して画像として得られる物体の形状は目標物を
見る方向によって変化して異なるため、上述したように
単純な二次元形状を用いて目標物を検出する従来の方法
では、目標物を適確に検出できず、また検出精度が悪い
という問題がある。
(Problems to be Solved by the Invention) The target is usually a three-dimensional object, but the shape of the object obtained by imaging such a three-dimensional object as an image changes and differs depending on the direction in which the target is viewed. As described above, the conventional method for detecting a target object using a simple two-dimensional shape has a problem that the target object cannot be detected accurately and the detection accuracy is poor.

また、目標物の三次元構造をCAD等で記述した三次元モ
デルを用いて、種々の二次元投影図形を発生させ、この
二次元図形によって画像上でマッチングを検出する方法
も他の方法としてあるが、三次元モデルの入力に手間が
かかると共に、モデルの解析や照合が複雑になるという
問題がある。
Another method is to generate various two-dimensional projected figures by using a three-dimensional model in which the three-dimensional structure of the target object is described in CAD, etc., and detect the matching on the image by these two-dimensional figures. However, there is a problem that it takes time and effort to input a three-dimensional model, and analysis and verification of the model become complicated.

本発明は、上記に鑑みてなされたもので、その目的とす
るところは、二次元図形を用いて比較的簡単かつ精度良
く認識処理を行う移動ロボット用画像認識装置を提供す
ることにある。
The present invention has been made in view of the above, and an object of the present invention is to provide an image recognition device for a mobile robot that performs recognition processing using a two-dimensional figure in a relatively simple and accurate manner.

[発明の構成] (問題点を解決するための手段) 前記目的を達成するため、本発明の移動ロボット用画像
認識装置は、基準モデルに対応する被認識体を画像情報
から認識する移動ロボット用画像認識装置であって、第
1図に示すように、基準モデルを構成する基本図形を該
図形のパラメータとともに記憶する基本図形記憶手段2
1、基準モデルの前記基本図形間の位置関係を記憶する
位置関係記憶手段23と、被認識体の画像情報から基本図
形を該図形のパラメータとともに抽出する基本図形抽出
手段25と、被認識体の前記抽出した基本図形間の位置関
係を検出する位置関係検出手段27と、基準モデルおよび
被認識体の両者の前記基本図形、パラメータおよび基本
図形間の位置関係に基づいて基準モデルに対応する被認
識体を画像情報から識別する識別手段29とを有すること
を要旨とする。
[Configuration of the Invention] (Means for Solving Problems) In order to achieve the above object, an image recognition device for a mobile robot according to the present invention is a mobile robot for recognizing an object to be recognized corresponding to a reference model from image information. An image recognition apparatus, as shown in FIG. 1, a basic figure storing means 2 for storing a basic figure forming a reference model together with parameters of the figure.
1. Positional relationship storage means 23 for storing the positional relationship between the basic figures of the reference model, basic figure extraction means 25 for extracting the basic figure together with the parameters of the figure from the image information of the object to be recognized, The positional relationship detecting means 27 for detecting the positional relationship between the extracted basic figures, and the recognized object corresponding to the reference model based on the positional relationship between the basic figure of both the reference model and the object to be recognized and the basic figure. The gist is to have an identification means 29 for identifying the body from the image information.

(作用) 本発明の移動ロボット用画像認識装置は、基準モデルを
構成する基本図形、該基本図形のパラメータおよび基本
図形間の位置関係を予め記憶しておくとともに、被認識
体の画像情報から基本図形をパラメータおよび基本図形
間の位置関係とともに検出し、基準モデルおよび被認識
体の両者の前記基本図形、パラメータおよび基本図形間
の位置関係に基づいて基準モデルに対応する被認識体を
画像情報から認識している。
(Operation) The image recognition apparatus for a mobile robot according to the present invention stores in advance the basic figure forming the reference model, the parameters of the basic figure, and the positional relationship between the basic figures, and the basic figure is calculated from the image information of the object to be recognized. The figure is detected together with the positional relationship between the parameter and the basic figure, and the recognized object corresponding to the reference model is detected from the image information based on the positional relationship between the basic figure, the parameter and the basic figure of both the reference model and the recognized object. It has recognized.

(実施例) 以下、図面を用いて本発明の実施例を説明する。(Examples) Examples of the present invention will be described below with reference to the drawings.

第2図は本発明の一実施例に係る移動ロボット用画像認
識装置の構成を示すブロック図である。この移動ロボッ
ト用画像認識装置は、移動ロボットで撮像した被認識体
である目標物の画像を画像入力部4を介して画像メモリ
5に記憶している。この画像メモリ5に記憶された画像
情報は基本図形抽出部2に供給され、ここで画像情報か
ら基本図形および基本図形に関連する各種情報が抽出さ
れる。
FIG. 2 is a block diagram showing the configuration of an image recognition device for a mobile robot according to an embodiment of the present invention. The image recognition device for a mobile robot stores an image of a target object, which is an object to be recognized, captured by the mobile robot in an image memory 5 via an image input unit 4. The image information stored in the image memory 5 is supplied to the basic figure extracting unit 2, where the basic figure and various information related to the basic figure are extracted from the image information.

一方、本画像認識装置は、目標物に対応する目標物モデ
ル、すなわち基準モデルを作成して入力する目標物モデ
ル作成部1を有し、この目標物モデル作成部1から検出
したい目標物に対応する目標物モデルに関連する情報
を、該目標モデルを構成する基本図形に分解しながら、
該基本図形に関連する情報および基本図形の抽出方法・
順序等に関する情報として分析し、これらの情報を目標
物モデル記憶部6に記憶する。
On the other hand, the image recognition apparatus has a target object model creation unit 1 for creating and inputting a target object model corresponding to the target object, that is, a reference model, and supports the target object to be detected from the target object model creation unit 1. While decomposing the information related to the target model into the basic figures forming the target model,
Information related to the basic figure and a method of extracting the basic figure
It is analyzed as information regarding the order and the like, and these pieces of information are stored in the target object model storage unit 6.

更に詳細に説明すると、目標物モデルは、一般にいくつ
かの二次元の基本図形で構成されているが、本発明にお
いては予め目標物モデルを基本図形に分解して細分化
し、この基本図形を前記基本図形抽出部2で抽出された
被認識体である目標物の撮像画像の基本図形と比較する
とともに、この比較においては単に基本図形の比較のみ
でなく、基本図形の大きさ等のパラメータ、基本図形間
の位置関係等の比較も行って撮像画像の物体が目標物モ
デルに等しいか否か識別することで認識動作を行ってい
るのである。
More specifically, the target object model is generally composed of some two-dimensional basic figures, but in the present invention, the target object model is previously decomposed into basic figures and subdivided, and the basic figures are described above. The comparison is made not only with the comparison of the basic figures but also with the parameters such as the size of the basic figures, the basic figures, and the like. The recognition operation is performed by comparing the positional relationship between figures and identifying whether or not the object in the captured image is equal to the target object model.

このため、目標物モデル記憶部6には、目標物モデル作
成部1からの入力によって検出したい目標物に対して目
標物モデルから次に示す第1ないし第4の情報を記憶し
ている。
Therefore, the target object model storage unit 6 stores the following first to fourth information from the target object model for the target object to be detected by the input from the target object model creating unit 1.

1.目標物を構成する基本図形の種類 2.基本図形の抽出処理法 3.基本図形のパラメータ 4.基本図形間の関係および抽出順序 第3図ないし第5図を用いて具体的に説明する。1. Types of basic figures that compose the target 2. Basic figure extraction processing method 3. Basic figure parameters 4. Relationship between basic figures and extraction sequence A concrete explanation will be given with reference to FIG. 3 to FIG. .

まず基本図形の種類に関する第1の情報について説明す
ると、基本図形としては例えば楕円(および円)、平行
線、矩形、三角形、等の種々の基本図形があるが、これ
らの基本図形の情報が目標物モデルに対応して記憶され
る。例えば、第3図では破線枠によって囲んで示すメー
タが目標物とした場合、第1の情報としては、第4図に
示すように、円11、平行線12,13が抽出されて目標物モ
デル記憶部6に記憶される。
First, the first information regarding the types of basic figures will be explained. As basic figures, there are various basic figures such as ellipses (and circles), parallel lines, rectangles, triangles, etc. It is stored corresponding to the physical model. For example, in FIG. 3, when the meter surrounded by a broken line frame is the target object, as the first information, as shown in FIG. 4, a circle 11, parallel lines 12 and 13 are extracted and the target object model is extracted. It is stored in the storage unit 6.

また、基本図形の抽出処理法に関する第2の情報として
は、基本図形を抽出するために輪郭線を検出する手順、
すなわち微分フィルタリングを行って輪郭線がある変化
部分を取り出し、これを2値化してから、ノイズを除去
した後、細線化を行うという手順からなる輪郭線検出手
順がしきい値とともに記憶される。
Also, as the second information regarding the basic figure extraction processing method, there is a procedure for detecting a contour line for extracting a basic figure,
That is, a contour line detection procedure including a procedure in which differential filtering is performed to extract a changed portion having a contour line, this is binarized, noise is removed, and then thinning is performed is stored together with a threshold value.

更に、基本図形のパラメータに関する第3の情報として
は、基本図形が楕円の場合には、その中心座標、傾き、
長軸長、短軸長が記憶され、平行線の場合には、傾き、
重複部分の間隔、長さ等が記憶される。
Furthermore, as the third information regarding the parameters of the basic figure, when the basic figure is an ellipse, its center coordinates, inclination,
The major axis length and the minor axis length are stored, and in the case of parallel lines, the inclination,
The interval, length, etc. of the overlapping portion are stored.

基本図形間の関係および抽出順序に関する第4の情報と
しては、基本図形の抽出順序、画像上の配置、基本図形
間の位置関係または接続関係等が記憶される。
As the fourth information regarding the relationship between the basic figures and the extraction order, the extraction order of the basic figures, the arrangement on the image, the positional relationship between the basic figures, the connection relationship, and the like are stored.

なお、抽出順序においては、垂直エッジや長いエッジの
ような画像中の強い特徴や、楕円や円のような目標物に
固有の特徴が優先して抽出される。例えば、第4図のメ
ータの例では、最初に円11が抽出されてから、次に平行
線13が抽出され、最後に平行線12が抽出される。
In the extraction order, strong features in the image such as vertical edges and long edges and features unique to the target object such as ellipses and circles are preferentially extracted. For example, in the meter example of FIG. 4, the circle 11 is first extracted, then the parallel line 13 is extracted, and finally the parallel line 12 is extracted.

また、画像上の配置としては、基本図形間の相対的位置
関係、すなわちある1つの基本図形に着目した場合、こ
の基本図形を基準として他のすべての基本図形の位置を
記述したデータが用いられる。例えば、第4図に示す例
の場合には、各基本図形の中心間のベクトルデータ(す
なわち、画像の左上隅を原点とした時の距離およびX軸
からの角度等のデータ)が記憶される。また、接続関係
としては、どの基本図形同志が画像上で接続されている
かが記述される。すなわち、第4図の例では、「円11−
平行線12」(円11は平行線12に接続している)、「平行
線12−円11,平行線13」(平行線12は円11と平行線13に
接続している)、および「平行線13−平行線12」(平行
線13は平行線12に接続している)のような接続リストが
記憶される。
As for the arrangement on the image, when the relative positional relationship between the basic figures is focused, that is, when one certain basic figure is focused, data describing the positions of all the other basic figures based on this basic figure is used. . For example, in the case of the example shown in FIG. 4, vector data between the centers of the respective basic figures (that is, data such as the distance when the upper left corner of the image is the origin and the angle from the X axis) are stored. . Further, as the connection relationship, which basic figures are connected to each other on the image is described. That is, in the example of FIG.
Parallel line 12 "(circle 11 is connected to parallel line 12)," parallel line 12-circle 11, parallel line 13 "(parallel line 12 is connected to circle 11 and parallel line 13), and A connection list such as "parallel line 13-parallel line 12" (parallel line 13 is connected to parallel line 12) is stored.

以上のような第1ないし第4の情報が目標物モデル記憶
部6に各目標物モデルに対応して記憶され、これらの情
報は目標物モデル記憶部6から前記基本図形抽出部2お
よび目標物決定部3に供給されている。基本図形抽出部
2には、前述したように、前記画像メモリ5から入力さ
れた被認識体である目標物の画像情報が入力されている
が、この画像情報から前記目標物モデルについて前述し
たと同様に基本図形および該基本図形に関連する情報が
抽出される。
The above-described first to fourth information are stored in the target object model storage unit 6 in association with each target object model, and these information are stored in the target object model storage unit 6 into the basic figure extracting unit 2 and the target object. It is supplied to the decision unit 3. As described above, the basic figure extracting unit 2 receives the image information of the target object which is the recognition target input from the image memory 5, and the target object model is described based on this image information. Similarly, the basic graphic and information related to the basic graphic are extracted.

それから、この抽出された被認識体に対する基本図形に
関連する情報は目標物決定部3に供給され、ここで前記
目標物モデル記憶部6から入力された目標物モデルに対
する基本図形に関連する情報と照合され、被認識体が目
標物モデルであるか否か認識されるのである。
Then, the information related to the extracted basic figure for the object to be recognized is supplied to the target object determining unit 3, where the information related to the basic figure for the target object model input from the target object model storage unit 6 is stored. It is collated and it is recognized whether or not the object to be recognized is the target object model.

次に、第6図のフローチャートを参照して作用を説明す
る。
Next, the operation will be described with reference to the flowchart of FIG.

本移動ロボット用画像認識装置によって被認識体である
目標物の認識を行うに当っては、前述したような目標物
モデルに対する基本図形および該基本図形に関連する各
種情報等が前記目標物モデル作成部1を介して前記目標
物モデル記憶部6に予め記憶されているものであり、こ
の状態から作用を説明する。
In recognizing the target object which is the recognition target by the image recognition device for the mobile robot, the basic figure for the target model as described above and various information related to the basic figure are created. It is previously stored in the target object model storage unit 6 via the unit 1, and the operation will be described from this state.

移動ロボットに設けられた図示しない撮像装置で撮像し
た画像情報が画像入力部4に入力されると(ステップ11
0)、この画像情報は画像メモリ5に記憶され、画像メ
モリ5から基本図形抽出部2に入力される。基本図形抽
出部2は、この画像情報から目標物の基準となる基本図
形(以下、キー図形と称する)を抽出設定する(ステッ
プ120)。このキー図形は前記第4の情報の抽出順序に
従って選択される。この選択されたキー図形は前記第2
および第3の情報を用いて抽出される(ステップ13
0)。キー図形が抽出されない場合には、前記第4の情
報の抽出順序に従ってキー図形が再度選択される(ステ
ップ140)。
When image information captured by an imaging device (not shown) provided in the mobile robot is input to the image input unit 4 (step 11
0), this image information is stored in the image memory 5, and is input from the image memory 5 to the basic figure extracting unit 2. The basic figure extraction unit 2 extracts and sets a basic figure (hereinafter, referred to as a key figure) which is a reference of the target object from this image information (step 120). This key figure is selected according to the extraction order of the fourth information. This selected key figure is the second
And extracted using the third information (step 13
0). If the key figure is not extracted, the key figure is selected again according to the extraction order of the fourth information (step 140).

また、キー図形は複数個抽出される可能性があるので、
目標物を構成する他の基本図形を抽出し、目標物の候補
の絞り込みを行う。このため、キー図形以外の他の基本
図形が存在すると予想される画像上の領域を設定する
(ステップ150〜170)。この設定には目標物モデル記憶
部6の前記第4の情報のデータを使用する。すなわち、
キー図形と他の基本図形との間の相対的位置情報を使用
して、キー図形から他の基本図形までの画像上の変位量
を求め、キー図形の画像上の位置にこの変位量を加えた
位置を中心にウインドゥを設定する。ウインドゥの大き
さは前記第3の情報を使用して決定する。例えば、注目
している基本図形が楕円の場合には長軸長を、平行線の
場合には傾きと重複部分の長さを使用して決定する。第
5図(a),(b)は領域設定の例を示しているもので
あるが、キー図形である円に対して相対的位置関係デー
タ(γ,θ)を用いて、ウインドゥの中心を定め、破線
で示すウインドゥを設定する。
Also, because there is a possibility that multiple key figures will be extracted,
Other basic figures forming the target object are extracted to narrow down the target object candidates. For this reason, an area on the image where other basic figures other than the key figure are expected to exist is set (steps 150 to 170). The data of the fourth information of the target object model storage unit 6 is used for this setting. That is,
Using the relative position information between the key figure and other basic figures, find the amount of displacement on the image from the key figure to the other basic figure, and add this amount of displacement to the position of the key figure on the image. Set the window centered around the position. The size of the window is determined using the third information. For example, if the basic figure of interest is an ellipse, the major axis length is used, and if it is a parallel line, the inclination and the length of the overlapping portion are used. FIGS. 5 (a) and 5 (b) show an example of area setting, but the relative position relation data (γ, θ) is used for the circle which is the key figure to determine the center of the window. And set the window shown by the broken line.

このようにして探索領域を設定した後、この領域内にお
いて前記第2および第3の情報を使用して、基本図形の
検出を行う(ステップ180)。この場合、前記第2の情
報に示された処理手順に従って検出された基本図形の中
で、前記第3の情報の目標物モデルのパラメータに近い
ものを選択する。
After setting the search area in this way, the basic figure is detected in this area using the second and third information (step 180). In this case, among the basic figures detected according to the processing procedure indicated by the second information, one that is close to the parameter of the target object model of the third information is selected.

以上の処理を繰返すことにより被認識体である目標物を
構成するキー図形以外のすべての基本図形を検出し(ス
テップ190)、更にキー図形候補のすべてに対して同様
の処理を行って、キー図形候補のすべてに対して基本図
形を検出する(ステップ200)。
By repeating the above processing, all the basic figures other than the key figures that constitute the target object that is the object to be recognized are detected (step 190), and the same processing is performed for all of the key figure candidates, A basic figure is detected for all the figure candidates (step 200).

このようにキー図形および各キー図形候補に対する基本
図形が検出されると、各キー図形候補Kiの確実度Siを次
式によって計算する(ステップ210)。
When the key figure and the basic figure for each key figure candidate are thus detected, the certainty Si of each key figure candidate Ki is calculated by the following equation (step 210).

ここで、Pijはキー図形候補Kiの周囲で検出された基本
図形の中の1つの基本図形Fijの信頼度であり、目標物
モデル記憶部6の前記第3の情報に示されたパラメータ
とこの基本図形Fijのパラメータとの間の誤差から求め
られるものである。例えば、平行線の場合、間隔や傾き
の誤差が小さい基本図形Fijには値の大きい信頼度Pijが
与えられる。nは目標物を達成する基本図形の数(キー
図形は除く)であり、検出されなかった基本図形Fijに
は信頼度Pij=Oが与えられる。また、Qiはキー図形Ki
について求めた接続リストLと前記第4の情報から得た
目標物モデルの接続リストLmとの間のマッチングの度合
であり、キー図形Kiについて求めた接続リストLが目標
物モデルの接続リストLmの部分集合となるリストの場
合、その要素数が大きい程、大きな値を与えられる。接
続リストLがLmの部分集合でない場合にはQi=Oが与え
られる。
Here, Pij is the reliability of one basic figure Fij among the basic figures detected around the key figure candidate Ki, and the parameter shown in the third information of the target object model storage unit 6 and this It is obtained from the error between the basic figure Fij and the parameter. For example, in the case of parallel lines, the reliability Pij having a large value is given to the basic figure Fij having a small gap or inclination error. n is the number of basic figures (excluding key figures) that achieve the target object, and reliability Pij = O is given to the basic figure Fij that has not been detected. Qi is the key figure Ki
Is a degree of matching between the connection list L obtained with respect to the connection list Lm of the target object model obtained from the fourth information, and the connection list L obtained with respect to the key figure Ki is the connection list Lm of the target object model. In the case of a list that is a subset, the larger the number of elements, the larger the value. If the connection list L is not a subset of Lm, then Qi = O is given.

以上の定義から、確実度Siが大きいもの程、目標物モデ
ルに近い基本図形構成を有する被認識体、すなわち目標
物になるわけである。従って、目標物決定部3におい
て、最大の確実度Siを有するキー図形Kiを選択し、この
キー図形Kiと基本図形Fij(j=1−n)を目標物モデ
ルに対応する目標物として出力する(ステップ220)。
From the above definition, the larger the certainty factor Si, the more the target object, that is, the target object, having a basic figure configuration close to that of the target object model. Therefore, the target determination unit 3 selects the key figure Ki having the maximum certainty Si and outputs this key figure Ki and the basic figure Fij (j = 1-n) as the target corresponding to the target model. (Step 220).

[発明の効果] 以上説明したように、本発明によれば、基準モデルを構
成する基本図形、該基本図形のパラメータおよび基本図
形間の位置関係を予め記憶しておくとともに、被認識体
の画像情報から基本図形をパラメータおよび基本図形間
の位置関係とともに検出し、基準モデルおよび被認識体
の両者の前記基本図形、パラメータおよび基本図形間の
位置関係に基づいて基準モデルに対応する被認識体を認
識しているので、三次元の被認識体でも簡単な二次元の
基本図形に変換することで精度良く適確に且つ比較的簡
単に認識することができる。
[Effects of the Invention] As described above, according to the present invention, the basic figure forming the reference model, the parameters of the basic figure, and the positional relationship between the basic figures are stored in advance, and the image of the recognized object is also stored. The basic figure is detected from the information together with the positional relationship between the parameter and the basic figure, and the recognized object corresponding to the reference model is determined based on the positional relationship between the basic figure, the parameter and the basic figure of both the reference model and the recognized object. Since it is recognized, even a three-dimensional object to be recognized can be recognized accurately, accurately and relatively easily by converting it into a simple two-dimensional basic figure.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の基本構成を示す図、第2図は本発明の
一実施例に係る移動ロボット用画像認識装置の構成を示
すブロック図、第3図ないし第5図は第2図の画像認識
装置の図形処理を説明するための図、第6図は第2図の
画像認識装置の作用を示すフローチャートでである。 21…基本図形記憶手段 23…位置関係記憶手段 25…基本図形抽出手段 27…位置関係検出手段 29…識別手段
1 is a diagram showing the basic configuration of the present invention, FIG. 2 is a block diagram showing the configuration of an image recognition device for a mobile robot according to an embodiment of the present invention, and FIGS. 3 to 5 are FIG. FIG. 6 is a diagram for explaining the graphic processing of the image recognition apparatus, and FIG. 6 is a flowchart showing the operation of the image recognition apparatus of FIG. 21 ... Basic figure storage means 23 ... Position relation storage means 25 ... Basic figure extraction means 27 ... Position relation detection means 29 ... Identification means

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】移動ロボットで撮像した被認識体である目
標物の画像を記憶するための画像メモリと、 各目標物に対応し基準となる目標物モデルを作成する目
標物モデル作成部と、 この目標物モデル作成部で作成された目標物モデル毎に
各目標物を構成する基本図形をその抽出処理法、パラメ
ータ、基本図形間の相対的位置関係及び接続関係と共に
記憶した目標物モデル記憶部と、 前記画像メモリに記憶された目標物の画像に対し、前記
目標物モデル毎の目標物の基準となるキー図形を前記目
標物モデル記憶部に記憶される抽出処理法及びパラメー
タを用いて夫々抽出し、前記画像上の各キー図形に対し
て当該目標物モデルの基本図形間の相対的位置関係を用
いてウィンドウを夫々設定し、各キー図形のウィンドウ
に対して当該目標物モデルの基本図形の抽出処理法及び
パラメータを用いて各キー図形に接続した全ての基本図
形をパラメータと共に検出し、各キー図形に対して検出
された全ての基本図形のパラメータと当該目標物モデル
の夫々対応した基本図形のパラメータとの誤差及び各キ
ー図形に対して検出された全ての基本図形の接続関係と
当該目標物モデルの基本図形間の接続関係とのマッチン
グの度合から各キー図形の確実度を計算する基本図形抽
出部と、 この基本図形抽出部により計算された各キー図形の確実
度に対し、最大の確実度のキー図形及びこれに接続した
全ての基本図形を選択し、このキー図形の当該目標物モ
デルに対応した目標物として出力する目標物決定部と、 を具備したことを特徴とする移動ロボット用画像認識装
置。
1. An image memory for storing an image of a target object which is an object to be recognized captured by a mobile robot, and a target object model creating section for creating a reference target object model corresponding to each target object. A target object model storage unit that stores the basic figures forming each target object for each target object model created by this target object model creation section together with the extraction processing method, parameters, relative positional relationship between basic figures, and connection relationship And, for the image of the target object stored in the image memory, a key figure serving as a reference of the target object for each target object model is respectively stored using the extraction processing method and parameters stored in the target object model storage unit. The target object model is extracted and each window is set for each key figure on the image by using the relative positional relationship between the basic figures of the target object model. All the basic figures connected to each key figure are detected together with the parameters by using the basic figure extraction processing method and parameters, and the parameters of all the detected basic figures for each key figure correspond to the target model. The certainty of each key figure is determined from the error of the basic figure parameters and the degree of matching between the connection relationship of all the basic figures detected for each key figure and the connection relationship between the basic figures of the target model. With respect to the basic figure extraction unit to be calculated and the certainty of each key figure calculated by this basic figure extraction unit, select the key figure with the maximum certainty and all the basic figures connected to this, and select this key figure. An image recognition device for a mobile robot, comprising: a target object determination unit that outputs a target object corresponding to the target object model;
JP62186604A 1987-07-28 1987-07-28 Image recognition device for mobile robots Expired - Lifetime JPH0738223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62186604A JPH0738223B2 (en) 1987-07-28 1987-07-28 Image recognition device for mobile robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62186604A JPH0738223B2 (en) 1987-07-28 1987-07-28 Image recognition device for mobile robots

Publications (2)

Publication Number Publication Date
JPS6431188A JPS6431188A (en) 1989-02-01
JPH0738223B2 true JPH0738223B2 (en) 1995-04-26

Family

ID=16191473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62186604A Expired - Lifetime JPH0738223B2 (en) 1987-07-28 1987-07-28 Image recognition device for mobile robots

Country Status (1)

Country Link
JP (1) JPH0738223B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03114064A (en) * 1990-06-01 1991-05-15 Konica Corp Method for fixing toner image
JP3426002B2 (en) * 1993-09-20 2003-07-14 三菱電機株式会社 Object recognition device
JP3224500B2 (en) * 1995-10-05 2001-10-29 日本電信電話株式会社 Drawing recognition method
JP4218171B2 (en) * 2000-02-29 2009-02-04 株式会社日立製作所 Scanning electron microscope, matching method, and computer-readable recording medium recording program
JP4301261B2 (en) * 2006-07-10 2009-07-22 株式会社日立製作所 Pattern matching method and apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61262986A (en) * 1985-05-17 1986-11-20 Fujitsu Ltd Producing device for seeming dictionary of cube
JPH0644282B2 (en) * 1985-10-02 1994-06-08 富士通株式会社 Object search method

Also Published As

Publication number Publication date
JPS6431188A (en) 1989-02-01

Similar Documents

Publication Publication Date Title
CN108875911B (en) Parking space detection method
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP2919284B2 (en) Object recognition method
US10198632B2 (en) Survey data processing device, survey data processing method, and survey data processing program
CN108917593B (en) Intelligent measurement system and method based on element configuration of workpiece to be measured
CN109934847B (en) Method and device for estimating posture of weak texture three-dimensional object
US7340089B2 (en) Geometric pattern matching using dynamic feature combinations
Fouhey et al. Multiple plane detection in image pairs using j-linkage
JPH0685183B2 (en) Identification method of 3D object by 2D image
JP2007516503A (en) Face identification authentication using 3D modeling
JP2010541065A (en) 3D beverage container positioning device
CN106096555A (en) The method and apparatus of three dimensional face detection
JP2001266130A (en) Picture processor, plane detecting method and recording medium recording plane detection program
JP4082190B2 (en) Human presence position detection device, detection method thereof, and autonomous mobile device using the detection device
Ramisa et al. Mobile robot localization using panoramic vision and combinations of feature region detectors
JPH0738223B2 (en) Image recognition device for mobile robots
JP4745966B2 (en) Automatic target identification system
JP3499807B2 (en) Target classification method and apparatus for radar
JPH0953915A (en) Method for recognizing overlapping state
CN113869364A (en) Image processing method, image processing apparatus, electronic device, and medium
CN113567550A (en) Ground material detection method and device, electronic equipment, chip and storage medium
Baligh Jahromi et al. Layout slam with model based loop closure for 3d indoor corridor reconstruction
JP2000074628A (en) Method and device for three-dimensional positioning and medium recording software for realizing the method
US20180293467A1 (en) Method for identifying corresponding image regions in a sequence of images
Hao et al. Saliency-guided repetition detection from facade point clouds

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term