JPS62269287A - Visual recognizing device - Google Patents

Visual recognizing device

Info

Publication number
JPS62269287A
JPS62269287A JP61113164A JP11316486A JPS62269287A JP S62269287 A JPS62269287 A JP S62269287A JP 61113164 A JP61113164 A JP 61113164A JP 11316486 A JP11316486 A JP 11316486A JP S62269287 A JPS62269287 A JP S62269287A
Authority
JP
Japan
Prior art keywords
degree
matching
line segment
model
constituent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61113164A
Other languages
Japanese (ja)
Other versions
JPH0614361B2 (en
Inventor
Kan Nakano
冠 中野
Toshitaka Kuno
久野 敏孝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP61113164A priority Critical patent/JPH0614361B2/en
Publication of JPS62269287A publication Critical patent/JPS62269287A/en
Publication of JPH0614361B2 publication Critical patent/JPH0614361B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To accurately recognize an object even when both end points of a constituent segment is not obtained exactly but obtained as interrupted segments by making an area determined by positional relation of a segment and corresponding indeterminate method as the base of degree of collation. CONSTITUTION:The degree of collation arithmetic section D consists of the length degree of collation arithmetic unit 12, an attitude candidate arithmetic unit 13, an attitude deciding device 14, an existence possible area arithmetic unit 16, the degree of collation arithmetic unit 17, a collation success deciding device 18, a constituent straight line set storing memory 109, a model straight line set storing memory 110, an attitude possible storing memory 111 and an existence possible area storing memory 112. When cumulative degree of collation exceeds a preset threshold level, it is recognized as the success of collation, and a starting signal is outputted to a collation after processing section. If cumulative degree of collation does not exceed the threshold level, the obtained correspondent set is additionally stored in a correspondent set list memory 107 together with the cumulative degree of collation. A starting signal S3 is outputted to a constituent straight line selecting device 11, and next correspondent set is formed.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発°明は検出物体を含む画像の中から、精度良く所望
の物体の輪郭を特定する装置に関する。本発明は、特定
された輪郭から、容易に検出物体の形状、位置、姿勢等
を求めることが出来るので、例えば、ロボットの視覚認
識装置に応用出来る。
The present invention relates to a device that accurately identifies the outline of a desired object from an image containing the detected object. Since the present invention can easily determine the shape, position, orientation, etc. of a detected object from the identified contour, it can be applied to, for example, a visual recognition device for a robot.

【従来技術】[Prior art]

従来、検出の対象となっている物体を撮像し、得られた
画像データを処理して、所定の物体を認識する方法の1
つに、物体の特徴点をモデルのそれと比較する方法が知
られている(特開昭59−111575号)。その方法
は、特徴点に、画像の輪郭の角部が選択され、その特徴
点間の距離マツプを求め、モデルに於ける特徴点間の距
離マツプと比較し、それらの一致の程度から、検出の対
象となっている物体上の特徴点を検出し、所望の物体を
認識するというものである。その他、画像から輪郭線を
抽出し、その輪郭線を直線、円、楕円等のプリミティブ
で近似し、それらのプリミティブ間の位置関係を表す距
離マツプを演算し、これをモデルの距離マツプと比較し
、その一致の程度から、所望の物体を認識する方法(特
開昭60−204086号)が知られている。
Conventionally, one of the methods of recognizing a predetermined object by capturing an image of the object to be detected and processing the obtained image data.
One known method is to compare feature points of an object with those of a model (Japanese Unexamined Patent Publication No. 111575/1982). In this method, corners of the outline of the image are selected as feature points, a distance map between the feature points is calculated, and the distance map between the feature points is compared with the distance map between the feature points in the model. Based on the degree of agreement, detection is performed. This method detects feature points on an object and recognizes the desired object. Other methods include extracting contour lines from images, approximating the contour lines with primitives such as straight lines, circles, and ellipses, calculating distance maps that represent the positional relationships between these primitives, and comparing this with the distance map of the model. A method (Japanese Unexamined Patent Publication No. 60-204086) is known in which a desired object is recognized based on the degree of coincidence.

【発明が解決しようとする問題点】[Problems to be solved by the invention]

上記第1の方法は、角部、円の輪郭したがって円の中心
等の特徴点を精度良く検出する事が困難であり、そのた
め、認識の精度が良くないという問題がある。又第2の
方法は、輪郭線を直線、円、楕円等のプリミティブで精
確に近似するには、輪郭線を精確に抽出する必要があり
、そのためには、物体を撮像する時の照明と背景の整備
を厳格に行わなければならないという問題がある。たと
えば、照明、背景を工夫し、画像処理を精度良く行って
も、輪郭線は連続したものとはならず、幾つかの箇所で
切断されたものとなる。この為、線分の両端等の特徴点
が精確に把握出来ないため、物体認識の精度が上がらな
い。また、ロボット制御では、物体の位置、姿勢を精度
良く認識するため、物体の一部をズームして撮像する場
合がある。かかる場合には、物体の輪郭線の一部だけし
か画像として得られないため、距離マツプの適用が困難
である。 このように従来の方法は、輪郭線の一部を代表する特徴
点を抽出しその特徴点間の距離マツプをもとめ、モデル
のそれと比較するという方法である。したがって、物体
fJLtの精度は特徴点を如何に精確に把握するかにか
かっている。ところが、特徴点は点として把握されるた
め、輪郭線の抽出精度の良否に直接影ゼされる。このた
め、現実には、輪郭線が切れ切れの線分としてしか把握
出来ない場合には、物体認識の精度に問題がある。 本発明は、上記の問題点を解決するためになされたもの
であり、その目的とするところは、得られた輪郭線が、
切れ切れのものであり、輪郭線を構成する線分の両端の
点が精確に把握出来ない場合、検出の対象とする物体の
一部の画像のみが得られた場合、検出物体が他の物体と
重畳している場合等にも、精確に目的とする物体の存在
位置、姿勢等を認識する事である。
The first method has a problem in that it is difficult to accurately detect feature points such as corners, the outline of a circle, and the center of a circle, and therefore the recognition accuracy is not good. In the second method, in order to accurately approximate the contour line with primitives such as straight lines, circles, and ellipses, it is necessary to extract the contour line accurately. There is a problem in that maintenance must be carried out strictly. For example, even if the illumination and background are devised and image processing is performed with high accuracy, the contour line will not be continuous, but will be cut at several points. For this reason, feature points such as the ends of the line segment cannot be accurately grasped, and the accuracy of object recognition cannot be improved. Furthermore, in robot control, in order to accurately recognize the position and orientation of an object, a part of the object may be zoomed and imaged. In such a case, it is difficult to apply a distance map because only a part of the outline of the object can be obtained as an image. In this way, the conventional method is to extract feature points representing a part of the contour, obtain a distance map between the feature points, and compare it with that of the model. Therefore, the accuracy of the object fJLt depends on how accurately the feature points are grasped. However, since feature points are understood as points, they are directly affected by the accuracy of contour line extraction. Therefore, in reality, when a contour line can only be understood as a broken line segment, there is a problem in the accuracy of object recognition. The present invention has been made to solve the above problems, and its purpose is to ensure that the obtained contour line is
If the object is a broken object and the points at both ends of the line segment that make up the contour cannot be accurately grasped, or if only a partial image of the object to be detected is obtained, the object to be detected may be different from other objects. It is necessary to accurately recognize the location, orientation, etc. of a target object even when the objects are superimposed.

【問題点を解決するための手段および作用】上記問題点
を解決するだめの発明の構成は次の通りである。即ち、
本発明は、2次元画像から輪郭線を構成する複数の構成
線分を抽出し、その構成線分の存在する位置に関する情
報を求める構成線分抽出手段と、 検出物体の照合の対象となるモデルの輪郭線の少なくと
も主要部を構成するモデル線分の位置に関する情報を記
憶したモデル線分記憶手段と、抽出された構成線分と、
モデル線分とを照合し、その一致の程度により、前記モ
デル線分に対応した前記構成線分を特定する照合手段と
、からなる視見認識装置であって、 前記照合手段は、1のモデル線分と1の構成線分との照
合の一致の程度を算定するに際し、照合の対象となって
いる1のモデル線分である特定モデル線分と、他のモデ
ル線分との位置関係から、前記性のモデル線分をそれに
対応した他の構成成分を基準としてそれに対応させた時
、その対応の不確定性により生じる前記特定モデル線分
の位置し得る範囲を求め、該範囲から前記特定モデル線
分に対応した構成線分の存在可能性領域を求める存在可
能性領域演算手段と、構成線分が該存在可能性領域に存
在する程度に応じて、照合の一致の程度を算定する存在
位置判定手段とを有することをことを特徴とするもので
ある。 ここで、構成線分、モデル線分としては、直線の他、円
弧、楕円曲線、双曲線、放物線等の曲線も含まれるが、
単に直線線分のみにより構成する事も出来る。位置に関
する情報は、直線線分であれば、両端の位置座標の他、
一端又は中点の位置座標と長さ及び傾斜角の組等で表す
事が出来る。 又、曲線線分であれば、曲線の種類と両端の位置座標と
曲線上の任意の位置座標の組等で表す事が出来る。 存在可能性領域演算手段によって求められる特定モデル
線分の存在可能性領域は、概念的に図示すると第2図の
ようになる。(a)図のようにモデル線分は(ff1l
、mztm3.m4.m5)に設定されているものとし
、構成線分は(e+〜e、4)が抽出されたものとする
。今、モデル線分m+ と構成線分e1が(b)図に示
すように長さΔLの誤差で対応しているものとする。こ
のモデル線分m+と構成線分e、の対応の方法は一般に
4通りある。 即ちモデル線分の端点Aを構成線分の端点Cに対応させ
る方法、同様に、端点Bを端点りに、端点Aを端点りに
、端点Bを端点Cに対応させる方法である。この内削2
者が(c)(d)に図示されている。図から明らかなよ
うに、モデル線分m2〜m、は、構成線分e1に対しΔ
Lの位置の不確定性を有していることになる。したがっ
て、モデル線分m3に注目すれば(照合の対象となり注
目されているモデル線分を「特定線分」という)、その
特定モデル線分m、の位置し得る範囲は、構成線分e1
を基準として固定した時、(e)図に示すように81と
82で示す範囲となる。すると、特定モデル線分m、に
対応した構成線分は、少なくともこの範囲に存在しなけ
ればならない。よって、この領域に存在する構成線分は
、この特定モデル線分に対応し得るものであり、逆にこ
の範囲に存在しない構成線分は、この特定モデル線分に
対応しないとして、特定モデル線分に対する構成線分の
一致の程度を算定することが出来る。 上記の説明は、モデル線分m1と構成線分e1とが、対
応しているとして、モデル線分m、と対応する構成線分
の一致の程度を算定するものであるが、既に、モデル線
分(mI+ m 2+ m 31 m 4)と構成線分
(e l+ e 21 e 3. e 4)とが対応し
ているとして、特定モデル線分m、と照合される構成線
分の一致の程度を算定する場合の上記の特定モデル線分
m6の採り得る範囲Sは、 として求められる。但し、N (m+、e+、; ms
)は、モデル線分m、を構成線分e、に対応させた時の
特定モデル線分m、の採り得る範囲である。したがって
、Sは、それらの共通部分となる。 モデル線分と構成線分との組合せは、当初からモデル線
分の数に対応した数の構成線分を任意に対応させて対応
組を生成し、その各組毎の特定モデル線分に対し上記の
範囲を求め、その特定モデル線分に対する照合の一致の
程度を算定し、特定モデル線分を順次変化させた時のそ
の照合の一致の程度の総和から、その組の全体の照合の
一致の程度を算定する方法がある。また、実施例で説明
するように、モデル線分を逐次選択し、照合の一致の程
度を算定しながら、それまでに求められた照合の一致の
程度の最も大きい組に対し、更にモデル線分を選択する
という木状に対応組を展開する効率の良い方法にも本発
明は適用出来る。 上記の特定モデル線分の存在し得る範囲は、そのまま対
応する構成線分の存在可能性領域とすることも出来るが
、上記範囲に許容誤差幅を付加してこれを存在可能性領
域とすることも出来る。 又、上記の特定モデルの存在し得る範囲の求め方は、理
解を容易にする為に、やや限定して説明しているが、上
記の対応関係によって求める方法に限定するものではな
い。要は、1のモデル線分を1の構成線分に一定の不確
定性をもって対応ずけた時、モデル線分間の相対的位置
関係によって定められる特定モデル線分の存在し得る範
囲を求めることでる。 又、上記の存在可能性領域による判定の他、モデル線分
間の相対的姿勢により、1のモデル線分を1の構成線分
に対応させた時、特定モデル線分の採り得る姿勢を求め
、照合する構成線分のこの姿勢との一致の程度を加味す
ることにより、さらに、照合の信頼性及びスピードが向
上する。 又、モデル線分と構成線分の長さの一致の程度を算定し
、これを、上記照合の一致の程度に加味して判定すれば
、さらに、認識の精度が向上する。 上記した様に、本発明装置では、照合手段の存在可能性
領域演算手段の作用により、特定モデル線分と対応すべ
き構成線分の存在すべき領域が算定され、存在位置判定
手段の作用により、構成線分がその領域に存在する程度
に応じて、特定モデル線分とそれに対応する構成線分の
照合の一致の程度が算定される。したがって、照合の一
致の程度の判定に存在可能性領域という概念を導入し、
いわば、面積という2次元的特徴量により判定している
ため、構成線分の両端点等の1次元的特徴量は必ずしも
精確に知る必要はない。このため、構成線分が切れ切れ
にしか求められなかったり、検出物体の1部の輪郭線に
関する構成線分しか得られない場合でも、構成線分間の
相対的位置関係が、情報として含まれていさえすれば、
上記の存在可能性領域を演算することが出来、精確に検
出物体を認aF1する事が出来る。
[Means and operations for solving the problems] The structure of the invention to solve the above problems is as follows. That is,
The present invention provides a constituent line segment extraction means for extracting a plurality of constituent line segments constituting a contour line from a two-dimensional image and obtaining information regarding the position of the constituent line segments, and a model to be a target of matching of a detected object. model line segment storage means that stores information regarding the positions of model line segments that constitute at least the main part of the contour line; and extracted component line segments;
A visual recognition device comprising a matching means for matching a model line segment with a model line segment and identifying the component line segment corresponding to the model line segment based on the degree of matching; When calculating the degree of matching between a line segment and the component line segment 1, it is determined based on the positional relationship between the specific model line segment, which is the model line segment 1 that is the target of matching, and other model line segments. , when the model line segment of the above-mentioned gender is made to correspond to the corresponding other constituent components, a range in which the specific model line segment can be located due to the uncertainty of the correspondence is determined, and from this range, the specific model line segment is found. Existence possibility region calculation means for calculating the existence possibility region of component line segments corresponding to the model line segment, and existence possibility region calculating means for calculating the degree of matching in matching according to the extent to which the component line segments exist in the existence possibility region. The apparatus is characterized in that it has a position determination means. Here, constituent line segments and model line segments include not only straight lines but also curves such as circular arcs, elliptic curves, hyperbolas, and parabolas.
It can also be constructed simply from straight line segments. Information regarding the position includes, in addition to the position coordinates of both ends, if it is a straight line segment.
It can be expressed as a set of position coordinates of one end or midpoint, length, and inclination angle. Further, if it is a curved line segment, it can be expressed by a set of the type of curve, position coordinates of both ends, and arbitrary position coordinates on the curve. The possible existence area of a specific model line segment determined by the existence possibility area calculation means is conceptually illustrated in FIG. 2. (a) As shown in the figure, the model line segment is (ff1l
, mztm3. m4. m5), and the constituent line segments (e+ to e, 4) are extracted. Now, it is assumed that the model line segment m+ and the component line segment e1 correspond to each other with an error of length ΔL as shown in FIG. Generally, there are four ways to correspond between the model line segment m+ and the component line segment e. That is, the method is to make the end point A of the model line segment correspond to the end point C of the constituent line segment, and similarly, the method is to make the end point B correspond to the end point, the end point A to the end point, and the end point B to the end point C. This inner cutting 2
are illustrated in (c) and (d). As is clear from the figure, the model line segments m2 to m are Δ
This means that there is uncertainty in the position of L. Therefore, if we pay attention to the model line segment m3 (the model line segment that is the target of matching and is focused on is referred to as a "specific line segment"), the range in which the specific model line segment m can be located is the constituent line segment e1.
When fixed as a reference, the range shown by 81 and 82 is obtained as shown in FIG. Then, the constituent line segments corresponding to the specific model line segment m must exist at least within this range. Therefore, the constituent line segments that exist in this area can correspond to this specific model line segment, and conversely, the constituent line segments that do not exist in this range are considered not to correspond to this specific model line segment, and are considered to be the specific model line segments. It is possible to calculate the degree of coincidence of the constituent line segments with respect to the segment. The above explanation assumes that the model line segment m1 and the component line segment e1 correspond, and calculates the degree of coincidence between the model line segment m and the corresponding component line segment. Assuming that the component line segment (mI + m 2 + m 31 m 4) corresponds to the component line segment (e l + e 21 e 3. e 4), the degree of coincidence of the component line segment that is matched with the specific model line segment m. The possible range S of the above-mentioned specific model line segment m6 when calculating is calculated as follows. However, N (m+, e+,; ms
) is the possible range of the specific model line segment m when the model line segment m is made to correspond to the constituent line segment e. Therefore, S becomes their common part. The combination of model line segments and component line segments is created by arbitrarily matching the number of component line segments corresponding to the number of model line segments from the beginning to generate correspondence sets, and then for each set of specific model line segments. Find the above range, calculate the degree of matching of the matching for that specific model line segment, and calculate the matching of the entire set from the sum of the matching degrees of matching when changing the specific model line segment sequentially. There is a method to calculate the degree of In addition, as explained in the example, while sequentially selecting model line segments and calculating the degree of matching in matching, further model line segments are The present invention can also be applied to an efficient method of expanding correspondence sets in a tree-like manner by selecting . The range in which the above specific model line segment can exist can be used as it is as the existence possibility area of the corresponding component line segment, but it is possible to add a tolerance range to the above range and make this the existence possibility area. You can also do it. Further, the method for determining the possible range of the above-mentioned specific model is explained in a somewhat limited manner to facilitate understanding, but the method is not limited to the method of determining based on the above-mentioned correspondence relationship. The point is, when one model line segment is associated with one component line segment with a certain degree of uncertainty, the range in which a specific model line segment can exist is determined by the relative positional relationship between the model lines. . In addition to the determination based on the above-mentioned existence possibility region, based on the relative posture between model line segments, when one model line segment is made to correspond to one constituent line segment, the possible posture of a specific model line segment is determined, By taking into consideration the degree of coincidence with this orientation of the constituent line segments to be verified, the reliability and speed of verification are further improved. Furthermore, if the degree of agreement between the lengths of the model line segment and the constituent line segments is calculated, and this is added to the degree of agreement in the above-mentioned comparison for determination, the recognition accuracy can be further improved. As described above, in the device of the present invention, the region in which the constituent line segments corresponding to the specific model line segment should exist is calculated by the action of the existence possibility region calculating means of the matching means, and the region in which the constituent line segments that should correspond to the specific model line segment should exist is calculated by the action of the existence position determining means. , the degree of matching between the specific model line segment and the corresponding constituent line segment is calculated according to the extent to which the constituent line segment exists in the area. Therefore, we introduce the concept of existence possibility region to determine the degree of matching,
In other words, since the determination is made based on a two-dimensional feature called area, it is not necessarily necessary to accurately know one-dimensional features such as both end points of the constituent line segments. Therefore, even if the constituent line segments can only be obtained in pieces, or only constituent line segments related to a part of the contour of the detected object can be obtained, the relative positional relationship between the constituent line segments may not be included as information. if,
The above existence possibility region can be calculated, and the detected object can be accurately recognized aF1.

【実施例】【Example】

以下、本発明を具体的な実施例に基づいて説明する。本
実施例装置Rは、第11図に示すように、検出物体Qの
位置及び姿勢を検出し、その物体を作業対象とするロボ
ットSの姿勢を制御するロボット制御装置Tに、予め教
示されたモデルの位置、姿勢に対する検出物体の位置及
び姿勢の変位データを出力し、ロボットの教示経路を補
正する為に使用される視覚認識装置に関するものである
。 (1)全体の構成 本装置は、第1図に示すように、大きく分けて5つの部
分から戊る。即ち、検出物体を撮像しその映像信号を処
理して、検出物体を含む全ての物体の輪郭線を構成する
直線の線分(以下、構成線分が直線の線分で構成された
ものを「構成直線」という)を抽出しその位置に関する
情報を記憶する構成直線抽出部Aと、検出物体の照合の
対象となるモデルの輪郭線の少なくとも主要部を構成す
る直線の線分(以下、モデル線分が直線の線分で構成さ
れたものを「モデル直線」という)の位置に関する情報
を作成し記憶するモデリング部Bと、モデル直線と構成
直線とを順次所定の論理に従って選択し、モデル直線と
構成直線との組(以下単に「対応組」という)を発生さ
せる対応組生成部Cと、新たに選択されたモデル直線と
対応する構成直線の照合の一致の程度(以下単に「照合
度」という)を算出する照合度演算部りと、照合の結果
に基づき検出物体の位置及び姿勢を演算する照合後処理
部Eとから成る。 本実施例装Uでは、モデル線分及び構成線分を全て直線
で構成している。また、対応組の生成は、第3図に示す
様に照合の対象となるモデル直線を順次増加させる探索
木に沿って、過去の照合度の内最大の枝を選択するとい
う順序論理に従っている。そして、照合度が所定値以上
になった時、検出物体が認識されたものとしている。 (2)対応粗生成の論理 モデル直線は、第5図に示す様に、(ml+ m2rm
 s、 m +)が選択され、構成直線には、(e+ 
−e目)が抽出されたものとする。モデル直線は、認識
の重要度に応じて重み値(ω8の2ω3ω4)が与えら
れている。第1ステツプで、1番目のモデル直線が選択
される。その選択は最も重み値が大きいものが選択され
る。この重み値の172が、累積される照合度(本実施
例では、各ステップ毎に求められる特定モデル直線に対
する照合度を累積して対応組全体の照合度としているの
で、この累積された照合度を特に区別する場合には「累
積照合度」という)の初期値とされる。図中、累積照合
度は0内の数値で示されている。次に第2ステツプで、
選択されたモデル直線m、に対し、(e+〜e14)の
構成直線を対応させて対応組(以下、第nステップで生
成された対応組を特に区別する場合には、「n次対応組
」という」が生成される。そして、この2次対応組の全
てに対し照合度演算部りによって特定モデル直線に対す
る照合度が演算され、その照合度は累積照合度に加算さ
れ、新たな累積照合度が算定される。そして、過去に生
成された対応組(1次〜2次対応組)の内、累積照合度
の最も大きい対応組(m In 814>が選択される
。次に第3ステツプに移行し、2番目のモデル直線を組
み込んだ3次対応組が生成される。この時の累積照合度
は、組み込んだモデル直線の重み値の1/2が加算され
る。その後、今までに生成された対応組(1次〜3次対
応組)の中から累積照合度の最大の対応組(m l+ 
e l 4 + m 2)が選択される。次に第4ステ
ツプで、第2ステツプと同様に、構成直線が組み込まれ
た4次対応組が生成され、累積照合度が算定される。以
下、同様に、奇数ステップで新たなモデル直線、偶数ス
テップで構成直線が組み込まれ、累積照合度が最大とな
る対応組が選択されるという処理が、全てのモデル直線
が選択される方向に、探索木経路に沿って進行される。 (3)構成直線抽出部 構成直線抽出部Aは、カメラ、画像入力装置1、微分装
置2、輪郭線検出装置3、輪郭線折線近似装置4と、各
装置の出力データを記憶するメモリ101〜104から
成る。 (a)画像入力装置 カメラにより撮像した物体の電子像を走査して、映像信
号を取り出し、受光面の画素座標に対応してサンプリン
グし、256の明度レベルにディジタル化して、画像メ
モリ101の画素座標に対応したアドレスに記憶して濃
淡画像を作成する装置である。 (b)微分装置 画像メモリ101に記憶されている濃淡画像の各画素座
標における明度勾配(グラディエンド)を演算し、その
結果を画像メモリ102に記憶して微分画像を作成する
装置である。 明度勾配の演算方法は、画素座標上の動点Pを含む3×
3のメツシュ状に分割された各画素の明度を用いて、ソ
ーベルオペレータによって演算している。ここでソーベ
ルオペレータとは、第7図に示す様に3×3の各画素の
明度をa−1とした時、動点Pにおける明度勾配(fX
、fy)を次のように演算するものである。 f 、= c + 2 f + i −(a + 2 
d + g )  −(2)f y= g + 2 h
 + i −(a + 2 b + c )  −(3
)このような、ソーベルオペレータによる微分演算は、
積和演算器で構成している。 (C)輪郭線抽出装置 画像メモIJ 102から微分画像を入力して、輪郭線
を検出し、その輪郭線上の点の画素座標を輪郭線リスト
メモリ103に形成する装置である。 輪郭線上の点は明度勾配の絶対値がその周りの点のそれ
に比べて大きくなることが知られている。 したがって、輪郭線を構成する点列は、画素座標上の動
点Pにおける明度勾配の絶対値が所定値よりも大きく且
つその周りの点のそれよりも小さくない点を検出し、そ
の点から出発し、明度勾配の方向に垂直な方向の隣接画
素をその点に隣接した輪郭線上の点として選択し、選択
された点を基準にその点の明度勾配から次の輪郭線上の
点を選択するという操作を逐次実行することにより求め
ることが出来る。 (d)輪郭線折線近似装置 輪郭線リストメモリ103から輪郭線上の点列を入力し
てその点列データから輪郭線を追跡し、それを折線近似
して、各折線の両端の画素座標を構成直線リストメモリ
104に作成する装置である。 折線近似は、輪郭線リストメモリにおける点について、
この点の輪郭線に沿う方向ベクトルの向きが、許容誤差
範囲内で等しい点列を同一の直線を構成する点列とする
ことによって行う。 ここで、輪郭線に沿う方向ベクトルの向きとは、輪郭線
リストにおける任意の点をPI(Pi” 、 Pi’)
とし、輪郭線リストにおいてPLのaだけ前後にある点
をP、、−、(P、−♂、Pt−&ツ)及びP、やa(
Pleaに。 Pい、γ)とする時、 Plea’     Pi−a’ Plea’  −Pt−a” として与えられる。 折線の節点は、輪郭線上の点における方向ベクトルの向
きが所定値以上に変化する点として検出する事が出来る
。 この様にして第6図に示す様に求められた直線(構成直
線)は、その両端点の画素座標により特定され、次の様
に構成直線リストメモリに記憶される。 ×11ylI×2盲y2’X+コ’Y+2X22yx’
−−−、、、、−xl″y1″×21′y2゜ ここで(X+’ * ”!+’ )+ (X+’ + 
y+’ )は、i@目の構成直線e1の端点座標である
。 (4)モデリング部 検出物体の照合の対象となるモデルにおける輪郭線の主
要部を構成する直線(モデル直線)の位置に関する情報
を作成し、記憶する装置である。 このデータの入力はCR7画面上でカーソルを動かして
モデル直線m、を発生させ、その直線の端点の位置を指
定することにより行われる。端点が指定されると、その
点の画素座標が自動的に生成され、モデル直線リストモ
メリ105に記憶される。又、モデル直線には、重み値
ω1が設定され、それはモデル直線重み値リストメモリ
106に記憶される。この重み値は1のモデル直線に対
する照合度の比重を示すものである。したがって、モデ
ルの形態を良く代表しておりその直線が認識されれば物
体を特定出来る程度の高い直線程重み値は大きく設定さ
れる。又、ロボットにより把持される物体の稜線のよう
に、これが認識されることが特に重要となる場合には、
認識の重要度の高いモデル直線程重み値は大きく設定さ
れる。又、物体を撮像した画像に於いて、安定して良質
の構成直線が検出される場合には、この直線に対応した
モデル直線の重み値は大きく設定される。この様に重み
値を設定することにより、照合精度を向上させる事が出
来る。又、モデル直線は重み値の大きい順に選択され、
累積照合度の最も大きい対応組が迅択され、累積照合度
が所定値に達した時に、照合に成功したとして、照合操
作を打ち切るようにしているので、上記の様に重み値を
設定すれば、照合速度も向上させる事が出来る。係るモ
デリング部Bの作用により、第4図のモデルの輪郭線に
対し第5図の様なモデル直線の位置に関する情報が入力
される。 (5)対応組生戊部 対応組生成部Cは、対応組リスト初期化装置6、モデル
直線選択及びリスト作成装置9、構成直線選択装置11
、最大照合度対応組選択装置8、対応組リストメモリ1
07、最大照合度対応組格納メモリ108と、状態レジ
スタ7.10とから成る。対応組生成部Cは、第3図に
示す論理にしたがって対応組を生成、選択し照合度演算
部りに出力する装置である。 (a)対応組すスト初期化装置 輪郭線折線近似装置4から、構成直線の生成が完了した
旨の信号を入力して、対応組リストメモリ107をクリ
アし、状態レジスタ7のビットをオンに設定する装置で
ある。 (b)対応組リストメモリ 本メモリ107は、モデル直線選択及びリスト作成装置
9により生成された対応組と照合度(第3図の奇数ステ
ップの処理結果)が、又照合度演算装置17から照合度
(第3図の偶数ステップの処理により演算された照合度
)が書き込まれる。 又、最大照合度対応組選択装置8からアクセスされる記
憶装置である。 (C)最大照合度対応組格納メモリ 本メモリ108は、第3図に於いて、次の探索枝を選択
するために、選択された最大の照合度を有する対応組と
その照合度を記憶する装置である。 (d)モデル直線選択及びリスト作成装置本装置9は、
第3図の奇数ステップの対応組を生成しその照合度を演
算する装置である。即ち、最大照合度対応組選択装置8
から起動信号S1を入力し、最大照合度対応組格納メモ
リ108に記憶されている対応組(親節点)に対し、モ
デル直線リストメモリ105から、選択されていないモ
デル直線を選択し、対ボ組と新たな照合度を対応組リス
トメモリに追加作成する装置である。 第1ステツプでは、全てのモデル直線m、が選択され、
その累積照合度ρは、それぞれの重み値ω1の172と
して初期設定される。一般には、重み値を大きい順にω
1〜(DHとし、それに対応するモデル直線を市、〜i
?i、4とし、それまでに選択されたモデル直線を苗、
〜苗3、累積照合度が最も大きくなる選択された対応組
の構成直線を61〜さ、とすると、最大照合度対応組格
納メモリ108には、次の対応組と累積照合度が記憶さ
れている。 (市1  苗2.書、  書、;ρ81.)     
・(4)したがって、新たに生成される対応組と照合度
は、次のようになる。 (苗、−苗2.苗2.δ1−・δ、;ρ。、1)   
−(5)但し、i=P+1 、  ゛閂である。 そして、新たな奇数ステップの累積照合度ρ。、Iは次
のように前の偶数ステップの累積照合度ρ61、と、重
み値フ、を用いて次式で求めている。 ρ0・1:ρi、p+必1 / 2       −(
6)である。 この様にして、奇数ステップの累積照合度を含む対応組
が生成されると、本装置9の処理が完了した事を示すた
め、状態レジスタ10のビットがリセットされる。 (e)構成直線選択装置 本装置11は、最大照合度対応組選択装置8からの起動
信号S2を受信して、最大照合度対応組格納メモリ10
8に記憶されている対応組(第3図の奇数ステップの照
合度が最大の対応組)に対し、次の偶数ステップの対応
組を生成するための装置である。メモリ108.104
から選択された構成直線とモデル直線は、それぞれ、メ
モリ109と110に出力される。R大照合度対応組格
納リストメモリ108には、次の対応組が記憶されてい
る。 (ilil+、  苗1.苗P+l+E+  ・・δP
 )       −(7)したがって、この対応組か
ら、次の対応組が順次生成される。 (笛、  市1.市P+1.6.−δ1.δt )  
   −(S)但し、i=P+1 、−Mである。 そして、第2ステツプの照合度を算出する時は、選択さ
れたモデル直線が1本のため、姿勢候補、存在可能性領
域は演算する事が出来ないため、長さ照合度演算装置1
・2のみを起動する信号が出力される、又、他のステッ
プの時は、長さ照合度演算装置12を起動する信号と、
最初の対応組の照合度の演算時に姿勢候補演算装置13
と存在可能性領域演算装置15を起動する信号が出力さ
れる。 照合度演算部りからは、照合度が演算される度に、対応
組リストメモリ107に生成された対応組と累積照合度
が出力される。全ての照合度が算出された時、構成直線
選択装置11の処理が完了したことを示すため、状態レ
ジスタ7のビットがセットされる。 (f)最大照合度対応組選択装置 本装置8は、各ステップで今までに生成されている対応
組の中から累積照合度の最大の対応組を選択する装置で
ある。即ち、対応組リストメモリ107に記憶されてい
る対応組の中から、累積照合皮の最大の対応組が選択さ
れ、その対応組は、最大照合度対応相格納メモリ108
に記憶される。 また、選ばれた対応組は対応組リストメモリから削除さ
れ、同一の対応組を選択することのないようにしている
。対応組リストメモリが、初期状態以外で空の時は、全
ての対応組に関し累積照合度を演算したにも拘わらず、
累積照合度が所定値に達しなかったことを意味しており
、この場合には、照合失敗の信号が出力される。又本装
置は、状態レジスタ7.8のビットの状態に応じて、偶
数ステップと奇数ステップの処理を区別して、装置9と
装置11とを交互に起動するようにしている。 (6)照合度演算部 照合度演算部りは、長さ照合度演算装置12、姿勢候補
演算装置13、姿勢判定装置14、存在可能性領域演算
装置15、存在位置判定装置16、照合度演算装置17
、照合成功判定装置18、構成直線組格納メモリ109
、モデル直線組格納メモリ110、姿勢候補格納メモリ
111、存在可能性領域格納メモリ112から成る。 本装置は、構成直線選択装置11が構成直線組格納メモ
リ109とモデル直線組格納110に出力した構成直線
とモデル直線との組合せに関し、特定モデル直線に対す
る照合度を演算し、累積照合度に加算する装置である。 累積照合度が予め設定された閾値を越えれば、照合の成
功として、照合後処理部に起動信号が出力される。累積
照合度が閾値を越えなければ、この求められた対応組は
、累積照合度と共に対応組リストメモリ107に追加記
憶され、構成直線選択装置11に起動信号S3が出力さ
れ、次の対応組が生成される。 (a)長さ照合度演算装置 本装置12は、モデル直線の長さと構成直線の長さから
長さ照合度Δρ、を次式により演算する装置である。 ただし、Len(rii p) 、 Ien(g p)
は、モデル直線、構成直線の長さである。 (b)姿勢候補演算装置 対応組(帛、・苗1.宙P+1.6.−61.δ、)に
於いて、第8図に示す様に、モデル直線前1.吊2.1
の成す角をθmp+、とじ、構成直線δ1の平面座標X
軸との成す角をθ1、特定モデル直線前pa1に照合す
べき構成直線6IのX軸との成す角の期待値を汐とする
。すると、期待値θは次式で求められる。 ただし、−π/2≦汐≦π/2を満たすように、α0又
はaI)式が選択される。 汐=01+θmp++           ”−αQ
i=θ1+θmp++±π        −αυこの
)IJI待値δは、姿勢候補格納メモリ111に記憶さ
れる。 (C)姿勢判定装置 選択された構成直線δiが実際にX軸となす角θ1を求
め、その値と期待値θとから、次式により、姿勢照合度
Δρ2が算定される。 △ρ、−(1,21汐−0,1/π)Xo、2  ゛・
−αの(d)存在可能性領域演算装置 モデル直線苗l、市、 、−、,19i2゜1と構成直
線δ1゜ε2.  δ2から構成直線δpa+の存在可
能性領域を演算し、領域の角部の座標が存在可能性領域
格納メモリ112に格納される。 δpa+の存在可能性領域Aδpalは次式で与えられ
る。 ここでN(苗5.δ1;mp+1)はモデル直線前、に
構成直線δ、を対応づけたとき、特定モデル直線前p+
1と他のモデル直線前2間の相互の位置関係により決定
される特定モデル直線前pa1の存在し得る範囲である
。したがって、領域△δpa+は他のモデル直線を変化
させた時の個々の領域の共通部分となる。 (e)存在位置判定装置 構成直線δ、+1が存在可能性領域に含まれるかどうか
を検証し、含まれる程度により領域照合度Δρ3が次式
により算定される。 Δρ、=0.5(全部が含まれる時) = 0.25 (一部が含まれる時)04)二〇  (
全く含まれない時) (f)照合度演算装置 木製Uは長さ照合度演算装置12、姿勢判定装置14、
存在位置判定装置16の出力Δρ1.Δρ2、Δρ、を
総計し、特定モデル直線と選択された構成直線との照合
度ρ′が演算され、前累積照合度ρ。、P+、に照合度
ρ′が加算されて、新たな偶数ステップの累積照合度ρ
5.lが求められる。 ρ11.は次式で演算される。 Δρ1+Δρ2+Δρ、<THIならばρ、、、=−1
・−・09 そうでないならば ρ1.I=ρO+ P + 1 ” (Δρ1+Δρ2
+Δρ、)ω、/2−OED但しρ。、□1は最大照合
度対応組格納メモリ108に格納されている対応組(m
、m、−・−”’m、。 4.δ1百2゛−・・ δp)の累積照合度である。即
ち、今、照合度が算出されている対応組の親節点の累積
照合度である。この演算結果は、その対応組とともに、
対応組リストメモリ107に追加記憶される。 (g)照合成功判定装置 照合度演算装置17により、演算された累積照合度が、
予め設定された閾値TH2より大きい時、照合成功とし
て、構成直線抽出部メモリ109とモデル直線組格納メ
モリ110に記憶されいる対応組を位置回転パラメータ
演算装置19に転送する装置である。 (7)照合後処理部 (a)位置・回転パラメータ演算装置 照合に成功した対応組(市、苗2−・−苗、+1゜e 
+ 82 ””” e pal )からモデルに対する
検出物体の姿勢と位置の変位を求め、ロボット制御装置
へ出力する装置である。 位置・回転パラメータの求め方を次に述べる。 まず、宙、苗、  −苗palの中から平行でない2直
線m1°m2*を選び、これに対応する構成直線をe 
、 * e 、 *と置く。例えばm+’ m2” e
+” e2”が第9図に示す様な位置関係にあるとする
。姿勢の変位は、mどe1′の座標X軸との成す角θ3
.θ。を用いてθ。−01として求めることが出来る。 位置の変位は、、、* m2*とe 、 I e 2*
の交点のずれを知ることによって求めることが出来る。 交点C、、C。 の座標を(Cm’ 、 Cm’ ) 、  (Ce” 
、 Ce’ )として位置の変位は(CeX−Cm’ 
、Ce y−Cm’ )として求められる。このように
検出物体のモデルに対する位置・姿勢の変位量をロボッ
トに教え、ロボットは、これらの変位量を用いて物体の
把持位置を修正することが出来る。 (8)作用 次に、第3図にしたがって、作用を説明する。 構成直線抽出部Aにより、構成直線の抽出が完了すると
、対応組リスト初期化装置6は、対応組リストメモリ1
07をクリアし、状態レジスタ7をオンにする。状態レ
ジスタがオンの時、最大照合度対応組選択装置8は、起
動信号S1をモデル直線及びリスト作成装置9に出力し
、装置9は、モデル直線リストメモリ105から、1次
対応組を生成し、モデル直線重み値リスト106から重
み値を選択して、累積照合度と共に、これらを対応組リ
ストメモリ107に記憶し、状態レジスタ10をオフに
する。すると、最大照合度対応組選択装置8は、1次対
応組の中から、累積照合度の】ても大きい対応組を選択
し、これを最大照合度格納メモIJ 108に記憶し、
構成直線選択装置11に起動信号S2を出力し、装置1
1は、構成直線リストメモU 104から、構成直線を
選択し、最初の2次対応組を生成し、メモリ109.1
10に記憶し、長さ照合度演算装置12に起動信号を出
力する。この演算装置は、上記(9)式に従って、モデ
ル直線と構成直線との照合度を演算する。この演算結果
は、照合度演算装置17により、累積照合度と共にその
対応組が対応組リストメモリに追加的に記憶される。そ
の後、上記装置は、上記の処理を順次繰り返して実行し
、2次対応組の全てが展開され、累積照合度がメモIJ
 107に得られる。第2ステツプの演算が全て完了す
ると、装置11は、状態レジスタ7をオンにする。する
と、装置8は、2次対応組の中から最大の累積照合度を
有する対応組を選択し、装置9に起動信号を出力する。 その装置9は、第1ステツプと同様にモデル直線を組込
み累積照合度を演算して、3次対応組をメモリ107に
展開し、状態レジスタ10をオフにする。その後、装置
8は、装置11に起動信号を出力し、装置11は、第2
ステツプと同様に最初の4次対応組を生成し、演算装置
12.13.15に起動信号を出力する。各演算装置は
、(9)、αり、αa式により、各照合度を演算し、そ
れらの結果に基づき照合度演算装置17により累積照合
度が演算される。これらの結果は、選択された対応組と
共に、メモリ107に記憶される。装置11は、次の対
応組を生成し、装置12.14.16が起動されて、上
記と同様に第4ステツプの他の対応組に関する照合度の
演算が実行される。 次に上記の第3ステツプの演算処理と同様にして奇数ス
テップの演算が、第4ステツプの演算処理と同様にして
、偶数ステップの演算が実行される。 このように、演算が進行する過程で、照合成功判定装置
18により、累積照合度が所定値以上となった時に、照
合処理が完了する。 (9)変形例 存在可能性領域の演算は、第10図に示すように、選択
されたモデル直線m l + m 20交点0から特定
モデル直線苗2の両端点までの距離tL、dzをを算定
し、対応する構成直線δ、とδ2の交点O1から照合し
ようとしている構成直線δ2の方向に距離d+、d2を
とり、これに一定の幅ΔWを設けた範囲を存在可能性領
域とする事も出来る。 (10他の実施例 本装置は、第12図に示すように、コンピュータシステ
ムにより構成する事も出来る。構成直線は、構成直線抽
出回路30により抽出され、それらの両端点の画素座標
が作業メモリ41に格納される。CPU40の処理手順
は、第13図に示されている。上記した処理と同様な処
理手順となっている。即ち、ステップ100では、第1
ステツプの対応組を生成してそれらの累積照合度の初期
値を設定し、それらは、大きい対応組から順に記憶領域
Aに記憶される。ステップ114〜118では、偶数ス
テップの対応組を生成し、各照合度を演算し、累積照合
度が求められる。これに対しステップ122〜12.6
では、ilステップを除く奇数ステップの対応組と累積
照合度が演算される。そして、ステップ120では、今
までに、生成された対応組が累積照合度の大きい順に並
べ換えらる。演算処理の終了は、ステップ102または
、ステップ106で行われる。前者は累積照合度が所定
値に達する前に全ての対応組の生成が終了したことを意
味しており、照合の失敗を示している。これに対し、後
者は累積照合度が所定値に達した時に、終了するもので
あり、検出物体を認識するに十分な照合が行われたこと
を意味している。 【発明の効果] 本発明は、視覚認識装置において、1のモデル線分と1
の構成線分との照合の一致の程度を算定するに際し、照
合の対象となっている1のモデル線分である特定モデル
線分と、他のモデル線分との位置関係から、前記他のモ
デル線分をそれに対応した他の構成成分を基卒としてそ
れに対応させた時、その対応の不確定性により生じる前
記特定モデル線分の位置し得る範囲を求め、該範囲から
前記特定モデル線分に対応した構成線分の存在可能性領
域を求める手段と、構成線分が該存在可能性領域に存在
する程度に応じて、照合の一致の程度を算定する手段と
を具備させたことを特徴とするものである。 したがって、本発明では、線分の位置関係と対応の不確
定性により決定される領域を照合度の基礎としているの
で、構成線分の両端点が精確に求められず、切れ切れの
線分として求められる場合にも、線分の位置関係の情報
は把握出来るため、精確な物体の認識が行われる。また
、ロボットに使用される視覚認識装置の様に、検出物体
の一部を拡大して撮像する場合にも、線分間の位置関係
の情報量は含まれているので、検出物体を容易に認識す
る事が出来る。
The present invention will be described below based on specific examples. As shown in FIG. 11, the device R of this embodiment is configured in advance to a robot control device T that detects the position and orientation of a detection object Q and controls the orientation of a robot S that uses the object as a work target. The present invention relates to a visual recognition device that outputs displacement data of the position and orientation of a detected object with respect to the position and orientation of a model, and is used to correct the taught path of a robot. (1) Overall configuration The present device is roughly divided into five parts, as shown in FIG. That is, by capturing an image of the detected object and processing its video signal, straight line segments that constitute the outline of all objects including the detected object (hereinafter, constituent line segments composed of straight line segments are referred to as " A constituent straight line extraction unit A extracts constituent straight lines (hereinafter referred to as "constituent straight lines") and stores information regarding their positions; A modeling section B creates and stores information regarding the position of a "model straight line", which is composed of straight line segments, and selects the model straight line and the constituent straight lines sequentially according to a predetermined logic. A correspondence set generation unit C generates a pair with a constituent straight line (hereinafter simply referred to as a "correspondence set") and a degree of matching between the newly selected model straight line and the corresponding constituent straight line (hereinafter simply referred to as a "matching degree"). ), and a post-verification processing section E that calculates the position and orientation of the detected object based on the results of the verification. In this embodiment U, all the model line segments and constituent line segments are straight lines. Furthermore, the generation of correspondence pairs follows a sequential logic in which the branch with the highest past matching degree is selected along a search tree that sequentially increases the number of model straight lines to be matched, as shown in FIG. Then, when the degree of matching exceeds a predetermined value, it is assumed that the detected object has been recognized. (2) The logical model straight line of the corresponding coarse generation is (ml + m2rm
s, m +) is selected, and the constituent line is (e+
−eth) is extracted. The model straight line is given a weight value (2ω3ω4 of ω8) depending on the importance of recognition. In the first step, the first model straight line is selected. The one with the largest weight value is selected. This weight value of 172 is the accumulated matching degree (in this embodiment, since the matching degrees for the specific model straight line obtained at each step are accumulated and used as the matching degree for the entire corresponding set, this accumulated matching degree is When this is particularly distinguished, it is used as the initial value of the "cumulative matching degree"). In the figure, the cumulative matching degree is shown as a value within 0. Next, in the second step,
The constituent lines (e+ to e14) are made to correspond to the selected model straight line m, to form a correspondence set (hereinafter, when the correspondence set generated in the n-th step is particularly distinguished, the "n-th correspondence set") Then, for all of these quadratic correspondence sets, the matching degree for the specific model straight line is calculated by the matching degree calculation unit, and the matching degree is added to the cumulative matching degree, and a new cumulative matching degree is generated. is calculated.Then, among the correspondence sets generated in the past (primary to secondary correspondence sets), the correspondence set with the highest cumulative matching degree (m In 814>) is selected.Next, in the third step A cubic correspondence set incorporating the second model straight line is generated. At this time, 1/2 of the weight value of the incorporated model straight line is added to the cumulative matching degree. The correspondence set with the maximum cumulative matching degree (m l+
e l 4 + m 2) is selected. Next, in the fourth step, similarly to the second step, a quaternary correspondence set incorporating the constituent straight lines is generated, and the cumulative matching degree is calculated. Thereafter, in the same way, new model straight lines are incorporated in odd-numbered steps, constituent straight lines are incorporated in even-numbered steps, and the corresponding set with the maximum cumulative matching degree is selected, in the direction that all model straight lines are selected. Progress is made along the search tree path. (3) Constituent straight line extraction unit The constituent straight line extraction unit A includes a camera, an image input device 1, a differentiator 2, a contour detection device 3, a contour line broken line approximation device 4, and a memory 101 to 101 for storing output data of each device. It consists of 104 pieces. (a) An image input device scans an electronic image of an object captured by a camera, extracts a video signal, samples it corresponding to the pixel coordinates of the light-receiving surface, digitizes it to 256 brightness levels, and converts it into pixels in the image memory 101. This is a device that creates a grayscale image by storing it in an address corresponding to the coordinates. (b) Differentiator This is a device that calculates the brightness gradient (gradient end) at each pixel coordinate of the grayscale image stored in the image memory 101 and stores the result in the image memory 102 to create a differential image. The brightness gradient calculation method is 3× including the moving point P on the pixel coordinates.
The brightness of each pixel divided into three meshes is used for calculation using a Sobel operator. Here, the Sobel operator means the brightness gradient (fX
, fy) are calculated as follows. f, = c + 2 f + i − (a + 2
d + g ) −(2) f y= g + 2 h
+ i −(a + 2 b + c) −(3
) This kind of differential operation using the Sobel operator is
It consists of a product-sum calculator. (C) Contour extraction device This device inputs a differential image from the image memo IJ 102, detects a contour, and stores the pixel coordinates of points on the contour in the contour list memory 103. It is known that the absolute value of the brightness gradient of a point on the contour line is larger than that of the surrounding points. Therefore, the sequence of points constituting the contour line is determined by detecting a point where the absolute value of the brightness gradient at the moving point P on the pixel coordinates is larger than a predetermined value and not smaller than that of the surrounding points, and starting from that point. Then, the adjacent pixels in the direction perpendicular to the direction of the brightness gradient are selected as points on the contour line adjacent to that point, and the next point on the contour line is selected based on the brightness gradient of that point based on the selected point. It can be obtained by sequentially executing operations. (d) Contour line broken line approximation device Input a sequence of points on the contour line from the contour line list memory 103, trace the contour line from the point sequence data, approximate it to a broken line, and configure pixel coordinates at both ends of each broken line. This is a device for creating a straight line list memory 104. The polygonal line approximation is about points in the contour list memory,
This is done by defining a series of points that constitute the same straight line as a series of points whose direction vectors along the contour line of the points are equal within a tolerance range. Here, the direction of the direction vector along the contour line means that any point in the contour list is PI(Pi", Pi')
Then, in the contour list, the points that are before and after PL by a are P,, -, (P, -♂, Pt-&tsu) and P, and a (
To Plea. Plea', γ), it is given as Plea'Pi-a'Plea' - Pt-a''. A broken line node is detected as a point where the direction vector at a point on the contour line changes by more than a predetermined value. The straight lines (constituent straight lines) obtained in this way as shown in Fig. 6 are specified by the pixel coordinates of both end points, and are stored in the constituent straight line list memory as follows. × 11ylI×2blindy2'X+ko'Y+2X22yx'
---,,,,-xl″y1″×21′y2゜Here, (X+' * ”!+' )+ (X+' +
y+') is the coordinate of the end point of the i@th constituent straight line e1. (4) Modeling unit This is a device that creates and stores information regarding the position of a straight line (model straight line) that constitutes the main part of the contour line in a model that is a target of matching of detected objects. This data is input by moving a cursor on the CR7 screen to generate a model straight line m, and specifying the position of the end point of the straight line. When an end point is designated, the pixel coordinates of that point are automatically generated and stored in the model straight line list memory 105. Further, a weight value ω1 is set for the model straight line, and it is stored in the model straight line weight value list memory 106. This weight value indicates the degree of matching for one model straight line. Therefore, the weight value is set larger for a straight line that better represents the form of the model and can identify an object if the straight line is recognized. In addition, when it is particularly important to recognize the ridgeline of an object to be grasped by a robot,
The weight value is set larger for a model line with higher recognition importance. Furthermore, when a constituent straight line of good quality is stably detected in an image of an object, the weight value of the model straight line corresponding to this straight line is set to a large value. By setting the weight values in this way, matching accuracy can be improved. In addition, the model straight lines are selected in order of increasing weight value,
The matching set with the highest cumulative matching degree is quickly selected, and when the cumulative matching degree reaches a predetermined value, the matching is considered successful and the matching operation is aborted, so by setting the weight value as above, , it is possible to improve the matching speed. Due to the action of the modeling unit B, information regarding the position of the model straight line as shown in FIG. 5 is inputted with respect to the contour line of the model shown in FIG. (5) The corresponding group generation unit C includes a corresponding group list initialization device 6, a model straight line selection and list creation device 9, and a constituent straight line selection device 11.
, maximum matching degree matching pair selection device 8, matching pair list memory 1
07. It consists of a maximum matching degree correspondence group storage memory 108 and a status register 7.10. The correspondence set generation section C is a device that generates and selects correspondence sets according to the logic shown in FIG. 3, and outputs them to the matching degree calculation section. (a) Corresponding group initialization device Inputs a signal from the contour line broken line approximation device 4 to the effect that the generation of the constituent straight lines has been completed, clears the corresponding group list memory 107, and turns on the bit of the status register 7. This is the device to be configured. (b) Correspondence set list memory This memory 107 stores the correspondence sets generated by the model straight line selection and list creation device 9 and the matching degree (processing results of odd-numbered steps in FIG. 3), and the matching degree calculating device 17. The degree (the degree of matching calculated by the even-numbered step processing in FIG. 3) is written. It is also a storage device accessed by the maximum matching degree correspondence group selection device 8. (C) Maximum matching degree correspondence set storage memory This memory 108 stores the selected matching set having the maximum matching degree and its matching degree in order to select the next search branch in FIG. It is a device. (d) Model straight line selection and list creation device This device 9 includes:
This is a device that generates a corresponding set of odd-numbered steps shown in FIG. 3 and calculates the degree of matching. That is, the maximum matching degree corresponding group selection device 8
, inputs the activation signal S1 from , selects an unselected model straight line from the model straight line list memory 105 for the corresponding set (parent node) stored in the maximum matching degree corresponding set storage memory 108, and selects the unselected model straight line from the model straight line list memory 105. This is a device that adds and creates a new matching degree to the correspondence set list memory. In the first step, all model straight lines m, are selected,
The cumulative matching degree ρ is initially set as 172 for each weight value ω1. In general, the weight values are ω
1~(DH, and the corresponding model straight line is city,~i
? i, 4, and the model straight line selected so far is Nae,
~Seedling 3, assuming that the constituent straight line of the selected correspondence set with the largest cumulative matching degree is 61~, then the next correspondence group and the cumulative matching degree are stored in the maximum matching degree correspondence group storage memory 108. There is. (City 1 Nae 2. calligraphy, calligraphy; ρ81.)
-(4) Therefore, the newly generated correspondence set and matching degree are as follows. (Seedling, - Seedling 2. Seedling 2. δ1-・δ,; ρ., 1)
-(5) However, i=P+1, which is a bar. Then, the new odd-numbered step cumulative matching degree ρ. , I are calculated using the following equation using the cumulative matching degree ρ61 of the previous even-numbered step and the weight value f. ρ0・1: ρi, p+necessary 1/2 −(
6). When a correspondence set including the cumulative matching degrees of odd-numbered steps is generated in this way, the bit of the status register 10 is reset to indicate that the processing of the apparatus 9 is completed. (e) Constituent line selection device This device 11 receives the activation signal S2 from the maximum matching degree corresponding group selection device 8, and selects the maximum matching degree corresponding group storage memory 10.
This is a device for generating the next even-numbered step correspondence set for the correspondence set stored in 8 (the correspondence set with the maximum matching degree for the odd-numbered steps in FIG. 3). Memory 108.104
The constituent straight lines and model straight lines selected from are output to memories 109 and 110, respectively. The following correspondence sets are stored in the R high matching degree correspondence set storage list memory 108. (ilil+, seedling 1. seedling P+l+E+ ・・δP
) - (7) Therefore, the next correspondence set is sequentially generated from this correspondence set. (Flute, City 1. City P+1.6.-δ1.δt)
-(S) However, i=P+1, -M. When calculating the matching degree in the second step, since there is only one model straight line selected, the posture candidate and existence possibility region cannot be calculated, so the length matching degree calculation device 1
・A signal to activate only step 2 is output, and in the case of other steps, a signal to activate length matching degree calculation device 12,
Posture candidate calculation device 13 when calculating the matching degree of the first correspondence set.
A signal for activating the existence possibility region calculation device 15 is output. The matching degree calculating section outputs the corresponding pairs generated in the matching group list memory 107 and the cumulative matching degree every time the matching degree is calculated. When all matching degrees have been calculated, a bit in the status register 7 is set to indicate that the processing of the constituent straight line selection device 11 has been completed. (f) Maximum Matching Degree Corresponding Group Selection Device This device 8 is a device that selects the corresponding pair having the maximum cumulative matching degree from among the corresponding pairs generated so far in each step. That is, from among the correspondence sets stored in the correspondence set list memory 107, the correspondence set with the largest cumulative matching skin is selected, and that correspondence set is stored in the maximum matching degree correspondence phase storage memory 108.
is memorized. Furthermore, the selected correspondence group is deleted from the correspondence group list memory to prevent the same correspondence group from being selected. When the correspondence list memory is empty in a state other than the initial state, even though the cumulative matching degree has been calculated for all correspondence pairs,
This means that the cumulative matching degree has not reached a predetermined value, and in this case, a matching failure signal is output. Further, this device distinguishes between even-numbered steps and odd-numbered step processing according to the state of the bits in the status register 7.8, and starts up the device 9 and the device 11 alternately. (6) Matching degree calculation unit The matching degree calculation unit includes a length matching degree calculating device 12, a posture candidate calculating device 13, a posture determining device 14, an existence possibility region calculating device 15, an existence position determining device 16, and a matching degree calculating device. Device 17
, matching success determination device 18 , constituent line set storage memory 109
, a model straight line set storage memory 110, a posture candidate storage memory 111, and a possibility region storage memory 112. This device calculates the matching degree for a specific model straight line for the combination of the constituent straight line and model straight line outputted by the constituent straight line selection device 11 to the constituent straight line group storage memory 109 and the model straight line group storage memory 110, and adds it to the cumulative matching degree. It is a device that does If the cumulative matching degree exceeds a preset threshold, it is determined that the matching is successful, and an activation signal is output to the post-matching processing section. If the cumulative matching degree does not exceed the threshold value, the obtained corresponding pair is additionally stored in the corresponding group list memory 107 together with the cumulative matching degree, and the starting signal S3 is output to the constituent straight line selection device 11, and the next corresponding group is selected. generated. (a) Length matching degree calculation device This device 12 is a device that calculates the length matching degree Δρ from the length of the model straight line and the length of the constituent straight lines using the following equation. However, Len(rii p), Ien(g p)
is the length of the model straight line and the constituent straight line. (b) As shown in FIG. 8, in the posture candidate arithmetic unit correspondence group (帛,・Sapling 1. Air P+1.6.-61.δ,), the model line front 1. Hanging 2.1
The angle formed by is θmp+, and the plane coordinate of the constituent line δ1 is
The angle formed with the axis is θ1, and the expected value of the angle formed with the X axis of the constituent straight line 6I to be compared with the specific model straight line pa1 is defined as shi. Then, the expected value θ is obtained by the following formula. However, the α0 or aI) formula is selected so as to satisfy −π/2≦shio≦π/2. Shio=01+θmp++ ”-αQ
i=θ1+θmp++±π−αυThis) IJI waiting value δ is stored in the posture candidate storage memory 111. (C) Attitude determining device The angle θ1 actually formed by the selected constituent straight line δi with the X-axis is determined, and the attitude matching degree Δρ2 is calculated from the value and the expected value θ using the following equation. △ρ, −(1,21 氐−0,1/π)Xo, 2 ゛・
(d) Existence possibility region arithmetic unit model of -α Straight line Nae l, City, , -, ,19i2゜1 and constituent line δ1゜ε2. The possible existence area of the constituent straight line δpa+ is calculated from δ2, and the coordinates of the corners of the area are stored in the possible existence area storage memory 112. The existence possibility area Aδpal of δpa+ is given by the following equation. Here, N (seedling 5. δ1; mp+1) is before the model line, and when the constituent line δ is associated with the line before the specific model line, p+
This is the range in which the specific model straight line front pa1 can exist, which is determined by the mutual positional relationship between the model straight line front pa1 and the other model straight line front 2. Therefore, the area Δδpa+ becomes a common part of the individual areas when other model straight lines are changed. (e) Existence position determination device configuration It is verified whether the straight line δ, +1 is included in the existence possibility area, and the area matching degree Δρ3 is calculated according to the following equation based on the degree of inclusion. Δρ, = 0.5 (when all are included) = 0.25 (when some are included) 04) 20 (
(f) Matching degree calculation device Wooden U is a length matching degree calculation device 12, posture determination device 14,
Output Δρ1 of the existence position determining device 16. By summing Δρ2 and Δρ, the matching degree ρ′ between the specific model straight line and the selected constituent straight line is calculated, and the previous cumulative matching degree ρ is calculated. , P+, and the matching degree ρ' is added to the new even-numbered step cumulative matching degree ρ.
5. l is found. ρ11. is calculated using the following formula. Δρ1+Δρ2+Δρ, if <THI then ρ,,,=-1
・-・09 If not, ρ1. I=ρO+P+1” (Δρ1+Δρ2
+Δρ, )ω, /2-OED where ρ. , □1 is the correspondence set (m
,m,--"'m,. 4.This is the cumulative matching degree of δ112゛-...δp). In other words, it is the cumulative matching degree of the parent node of the corresponding set whose matching degree is currently being calculated. The result of this operation, along with its corresponding set, is
It is additionally stored in the corresponding group list memory 107. (g) Matching success determination device The cumulative matching degree calculated by the matching degree calculating device 17 is
When it is larger than a preset threshold TH2, it is determined that the matching is successful, and the corresponding set stored in the constituent straight line extractor memory 109 and the model straight line set storage memory 110 is transferred to the position/rotation parameter calculation device 19. (7) Post-verification processing unit (a) Position/rotation parameter calculation unit Corresponding group that was successfully matched (Ichi, Nae2-・- Nae, +1゜e
This is a device that calculates the posture and position displacement of the detected object with respect to the model from the + 82 """ e pal) and outputs it to the robot control device. How to determine the position and rotation parameters is described below. - Select two non-parallel straight lines m1°m2* from the seedling pal, and draw the corresponding constituent straight lines e
, *e, *. For example, m+'m2" e
Assume that +"e2" is in a positional relationship as shown in FIG. The displacement of the posture is the angle θ3 formed between mdoe1' and the coordinate X axis.
.. θ. using θ. It can be obtained as -01. The displacement of the position is, , * m2 * and e , I e 2 *
It can be determined by knowing the deviation of the intersection points. Intersection C,,C. Let the coordinates of (Cm', Cm'), (Ce”
, Ce'), and the positional displacement is (CeX-Cm')
, Cey-Cm'). In this way, the amount of displacement in the position and orientation of the detected object with respect to the model is taught to the robot, and the robot can use these amounts of displacement to correct the gripping position of the object. (8) Effect Next, the effect will be explained according to FIG. When the component straight line extraction unit A completes the extraction of the component straight lines, the corresponding group list initialization device 6 stores the corresponding group list memory 1.
Clears 07 and turns on status register 7. When the status register is on, the maximum matching degree correspondence set selection device 8 outputs the activation signal S1 to the model straight line and list creation device 9, and the device 9 generates the first correspondence set from the model straight line list memory 105. , selects weight values from the model straight line weight value list 106, stores them together with the cumulative matching degree in the correspondence set list memory 107, and turns off the status register 10. Then, the maximum matching degree correspondence group selection device 8 selects the correspondence group with the largest cumulative matching degree from among the primary correspondence sets, and stores this in the maximum matching degree storage memo IJ 108.
A starting signal S2 is output to the constituent straight line selection device 11, and the device 1
1 selects a constituent line from the constituent line list memo U 104, generates the first quadratic correspondence set, and stores it in the memory 109.1.
10, and outputs an activation signal to the length matching degree calculation device 12. This calculation device calculates the degree of matching between the model straight line and the constituent straight lines according to the above equation (9). The result of this calculation is additionally stored by the matching degree calculation device 17 together with the cumulative matching degree in the corresponding group list memory. Thereafter, the device sequentially repeats the above processing, expands all the secondary correspondence sets, and determines the cumulative matching degree in the memo IJ.
Obtained at 107. When all the operations of the second step are completed, the device 11 turns on the status register 7. Then, the device 8 selects the correspondence group having the maximum cumulative matching degree from among the secondary correspondence groups, and outputs an activation signal to the device 9. As in the first step, the device 9 incorporates the model straight line, calculates the cumulative degree of matching, develops the cubic correspondence set in the memory 107, and turns off the status register 10. After that, the device 8 outputs an activation signal to the device 11, and the device 11 outputs the activation signal to the second device 11.
Similar to step 1, a first quaternary correspondence set is generated and a start signal is output to the arithmetic units 12, 13, and 15. Each arithmetic device calculates each matching degree using equations (9), α, and αa, and based on these results, a cumulative matching degree is calculated by the matching degree calculating device 17. These results are stored in memory 107 along with the selected correspondence set. The device 11 generates the next correspondence set, and the devices 12, 14, and 16 are activated to perform the computation of the degree of matching regarding the other correspondence sets in the fourth step in the same manner as above. Next, the odd-numbered step calculations are performed in the same manner as the third step calculation processing described above, and the even-numbered step calculations are performed in the same manner as the fourth step calculation processing. In this manner, as the calculation progresses, the matching success determination device 18 completes the matching process when the cumulative matching degree becomes equal to or greater than a predetermined value. (9) As shown in FIG. 10, the calculation of the possibility of the existence of a modified example is performed by calculating the distance tL, dz from the selected model straight line m l + m 20 intersection 0 to both end points of the specific model straight line seedling 2. Calculate the distance d+, d2 from the intersection O1 of the corresponding constituent straight line δ and δ2 in the direction of the constituent straight line δ2 to be compared, and set the range with a certain width ΔW as the possible existence area. You can also do it. (10 Other Embodiments The present apparatus can also be configured by a computer system as shown in FIG. 41. The processing procedure of the CPU 40 is shown in FIG.
Corresponding sets of steps are generated and initial values of their cumulative matching degrees are set, and the corresponding sets are stored in the storage area A in descending order of size. In steps 114 to 118, a corresponding set of even steps is generated, each matching degree is calculated, and a cumulative matching degree is determined. In contrast, steps 122-12.6
Then, the corresponding set of odd steps excluding the il step and the cumulative matching degree are calculated. Then, in step 120, the correspondence sets that have been generated so far are sorted in descending order of cumulative matching degree. The arithmetic processing is completed in step 102 or step 106. The former means that generation of all correspondence pairs is completed before the cumulative matching degree reaches a predetermined value, indicating a matching failure. On the other hand, the latter ends when the cumulative matching degree reaches a predetermined value, which means that matching has been performed sufficient to recognize the detected object. Effects of the Invention The present invention provides a visual recognition device in which one model line segment and one
When calculating the degree of matching between the constituent line segments of When a model line segment is made to correspond to other constituent components corresponding to it, a range in which the specific model line segment can be located is determined due to uncertainty in the correspondence, and from this range, the specific model line segment is The present invention is characterized by comprising a means for determining a region of possibility of the existence of constituent line segments corresponding to the above, and a means for calculating the degree of matching in matching according to the degree to which the constituent line segments exist in the region of possibility of existence. That is. Therefore, in the present invention, since the matching degree is based on the region determined by the positional relationship of line segments and the uncertainty of correspondence, both end points of the constituent line segments cannot be accurately determined, but are instead determined as broken line segments. Even in cases where objects are identified, information on the positional relationships of line segments can be grasped, allowing accurate object recognition. In addition, even when a part of the detected object is enlarged and imaged, such as in visual recognition devices used in robots, the amount of information about the positional relationship between line segments is included, making it easy to recognize the detected object. I can do it.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の具体的な一実施例に係る視覚J y
t装置のB4成を示したブロックダイヤグラム、第2図
は、存在可能性領域を説明する為の説明図、第3図は、
対応組を発生する論理を説明する説明図、第4図はモデ
ルの輪郭線を示した外形図、第5図は、モデル直線を示
した説明図、第6図は、画像から抽出された輪郭線を折
線近似して求めた構成直線の配置図、第7図は、微分演
算子を説明した説明図、第8図は、姿勢照合度の演算を
説明する説明図、第9図は、モデルに対する検出物体の
姿勢、位置の変位を示した説明図である。第10図は、
他の存在可能性領域を示した説明図、第11図は、実施
例装置を使用したロボットシステム全体の構成を示した
ブロックダイヤグラム、第12図は、他の実施例装置の
構成を示したブロックダイヤグラム、第13図は、同実
施例装置で使用されたCPUの処理手順を示したフロー
チャートである。
FIG. 1 shows visual perception J y according to a specific embodiment of the present invention.
A block diagram showing the B4 configuration of the t device, FIG. 2 is an explanatory diagram for explaining the existence possibility region, and FIG.
An explanatory diagram explaining the logic of generating correspondence sets, Fig. 4 is an outline diagram showing the contour line of the model, Fig. 5 is an explanatory diagram showing the model straight line, and Fig. 6 is an explanatory diagram showing the contour extracted from the image. Fig. 7 is an explanatory diagram explaining the differential operator, Fig. 8 is an explanatory diagram explaining the calculation of the posture matching degree, and Fig. 9 is the model. FIG. 4 is an explanatory diagram showing the attitude and position displacement of a detected object relative to the detected object. Figure 10 shows
An explanatory diagram showing another possible existence area, FIG. 11 is a block diagram showing the configuration of the entire robot system using the example device, and FIG. 12 is a block diagram showing the configuration of another example device. The diagram, FIG. 13, is a flowchart showing the processing procedure of the CPU used in the device of the same embodiment.

Claims (5)

【特許請求の範囲】[Claims] (1)2次元画像から画像の輪郭線を求め、その輪郭線
から輪郭線を構成する複数の構成線分を抽出し、その抽
出された構成線分の存在する位置に関する情報を求める
構成線分抽出手段と、検出物体の照合の対象となるモデ
ルの輪郭線の少なくとも主要部を構成するモデル線分の
位置に関する情報を記憶したモデル線分記憶手段と、前
記構成線分抽出手段により抽出された構成線分と、前記
モデル線分記憶手段に記憶されているモデル線分とを照
合し、その一致の程度を算定し、その一致の程度により
、前記モデル線分に対応した前記構成線分を特定する照
合手段と、からなる視覚認識装置であって、 前記照合手段は、1のモデル線分と1の構成線分との照
合の一致の程度を算定するに際し、照合の対象となって
いる1のモデル線分である特定モデル線分と、他のモデ
ル線分との位置関係から、前記他のモデル線分をそれに
対応した他の構成成分を基準としてそれに対応させた時
、その対応の不確定性により生じる前記特定モデル線分
の位置し得る範囲を求め、該範囲から前記特定モデル線
分に対応した構成線分の存在可能性領域を求める存在可
能性領域演算手段と、構成線分が該存在可能性領域に存
在する程度に応じて、照合の一致の程度を算定する存在
位置判定手段とを有することをことを特徴とする視覚認
識装置。
(1) Obtain the image outline from the two-dimensional image, extract multiple constituent line segments that make up the outline from the contour, and obtain information regarding the positions of the extracted constituent line segments. an extraction means, a model line storage means storing information regarding the positions of model line segments constituting at least the main part of the contour of the model to be compared with the detected object; The constituent line segments are compared with the model line segments stored in the model line segment storage means, the degree of coincidence is calculated, and the constituent line segments corresponding to the model line segments are determined based on the degree of coincidence. A visual recognition device comprising a matching means for specifying, the matching means being a target of matching when calculating the degree of matching between one model line segment and one constituent line segment. Based on the positional relationship between the specific model line segment, which is the model line segment 1, and other model line segments, when the other model line segment is made to correspond to it based on the other corresponding component, the corresponding Existence possibility region calculating means for determining a possible range in which the specific model line segment may be located due to uncertainty, and calculating an existence possibility region for a constituent line segment corresponding to the specific model line segment from the range; 1. A visual recognition device, comprising: an existence position determining means for calculating the degree of matching according to the extent to which the object exists in the existence possibility region.
(2)前記照合手段は、1のモデル線分と1の構成線分
との照合の一致の程度を算定するに際し、照合の対象と
なっている1のモデル線分である特定モデル線分の他の
モデル線分に対する相対姿勢から、前記他のモデル線分
をそれに対応した他の構成成分に対応させた時、前記特
定モデル線分の採り得る姿勢から、前記特定モデル線分
に対応した構成線分の採り得る姿勢を求める姿勢候補演
算手段と、構成線分が前記採り得る姿勢に一致する程度
を算定する姿勢判定手段とを有し、前記存在可能性領域
による一致の程度に加味して、照合の一致の程度を算定
することを特徴とする特許請求の範囲第1項記載の視覚
認識装置。
(2) When calculating the degree of matching between one model line segment and one constituent line segment, the matching means may be configured to match a specific model line segment that is one model line segment that is the object of matching. When the other model line segment is made to correspond to its corresponding other component based on the relative attitude with respect to the other model line segment, the configuration corresponding to the specific model line segment is determined from the possible postures of the specific model line segment. A posture candidate calculating means for calculating possible postures of a line segment, and a posture determining means for calculating the degree to which the constituent line segments match the possible postures, taking into account the degree of coincidence according to the existence possibility region. The visual recognition device according to claim 1, wherein the visual recognition device calculates the degree of matching in the comparison.
(3)前記照合手段は、1のモデル線分と1の構成線分
との照合の一致の程度を算定するに際し、それらの線分
の長さの一致の程度を算定する長さ照合度演算手段を有
し、それにより求められた一致の程度をさらに加味して
照合の一致の程度を算定することを特徴とする特許請求
の範囲第2項記載の視覚認識装置。
(3) When calculating the degree of matching between the model line segment 1 and the component line segment 1, the matching means calculates the degree of matching of the lengths of the line segments. 3. The visual recognition device according to claim 2, further comprising means for calculating the degree of matching in verification by further taking into consideration the degree of matching determined by the means.
(4)前記構成線分と前記モデル線分は、直線線分であ
り、前記構成線分抽出手段は、検出物体の輪郭線を折線
近似する折線近似手段を有することを特徴とする特許請
求の範囲第1項記載の視覚認識装置。
(4) The constituent line segments and the model line segments are straight line segments, and the constituent line segment extracting means includes a broken line approximation means that approximates the contour of the detected object as a broken line. A visual recognition device according to scope 1.
(5)前記照合手段は、それまでに算定された照合の一
致の程度の最も高いモデル線分と構成線分との組を順次
選択しながら、照合の対象となるモデル線分を逐次増加
さて照合の一致の程度を算定する順序処理手段を有する
ことを特徴とする特許請求の範囲第1項記載の視覚認識
装置。
(5) The matching means sequentially increases the number of model line segments to be matched while sequentially selecting pairs of model line segments and constituent line segments that have the highest degree of matching calculated up to that point. 2. The visual recognition device according to claim 1, further comprising an order processing means for calculating the degree of matching.
JP61113164A 1986-05-16 1986-05-16 Visual recognition device Expired - Lifetime JPH0614361B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61113164A JPH0614361B2 (en) 1986-05-16 1986-05-16 Visual recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61113164A JPH0614361B2 (en) 1986-05-16 1986-05-16 Visual recognition device

Publications (2)

Publication Number Publication Date
JPS62269287A true JPS62269287A (en) 1987-11-21
JPH0614361B2 JPH0614361B2 (en) 1994-02-23

Family

ID=14605171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61113164A Expired - Lifetime JPH0614361B2 (en) 1986-05-16 1986-05-16 Visual recognition device

Country Status (1)

Country Link
JP (1) JPH0614361B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111516A (en) * 1989-04-11 1992-05-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Apparatus for visual recognition
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
CN116934719A (en) * 2023-07-26 2023-10-24 苏州德斯米尔智能科技有限公司 Automatic detection system for belt conveyor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6636635B2 (en) 1995-11-01 2003-10-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111516A (en) * 1989-04-11 1992-05-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Apparatus for visual recognition
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
CN116934719A (en) * 2023-07-26 2023-10-24 苏州德斯米尔智能科技有限公司 Automatic detection system for belt conveyor
CN116934719B (en) * 2023-07-26 2024-02-13 苏州德斯米尔智能科技有限公司 Automatic detection system for belt conveyor

Also Published As

Publication number Publication date
JPH0614361B2 (en) 1994-02-23

Similar Documents

Publication Publication Date Title
KR100323569B1 (en) Handwriting input display
US7403634B2 (en) Object tracking apparatus and method
JP6265027B2 (en) Display device, position specifying program, and position specifying method
Stenger et al. Model-Based Hand Tracking Using an Unscented Kalman Filter.
Takeda et al. Planning the motions of a mobile robot in a sensory uncertainty field
JP2020500767A (en) Automatic vehicle parking system and method
CN113537208A (en) Visual positioning method and system based on semantic ORB-SLAM technology
US20070183665A1 (en) Face feature point detecting device and method
CN107329962B (en) Image retrieval database generation method, and method and device for enhancing reality
JP7201909B2 (en) DATASET CREATION METHOD, DATASET CREATION DEVICE, AND DATASET CREATION PROGRAM
JP2016006589A (en) Display device, control program and control method
CN111239763A (en) Object positioning method and device, storage medium and processor
US20090010496A1 (en) Image information processing apparatus, judging method, and computer program
Dickinson et al. Integrating qualitative and quantitative shape recovery
US20080019568A1 (en) Object tracking apparatus and method
Chen et al. Determining pose of 3D objects with curved surfaces
CN111178170B (en) Gesture recognition method and electronic equipment
JP3361946B2 (en) Solid model automatic generation apparatus and method
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
JPH09212643A (en) Method for recognition of three-dimensional object and device therefor
JP2019211981A (en) Information processor, information processor controlling method and program
JPS62269287A (en) Visual recognizing device
US10853561B2 (en) System and method for automatically annotating a map
CN115760919A (en) Single-person motion image summarization method based on key action characteristics and position information
CN107480710B (en) Feature point matching result processing method and device