JPH02189691A - Device for recognizing object - Google Patents

Device for recognizing object

Info

Publication number
JPH02189691A
JPH02189691A JP1009430A JP943089A JPH02189691A JP H02189691 A JPH02189691 A JP H02189691A JP 1009430 A JP1009430 A JP 1009430A JP 943089 A JP943089 A JP 943089A JP H02189691 A JPH02189691 A JP H02189691A
Authority
JP
Japan
Prior art keywords
model
edge image
line segments
line segment
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1009430A
Other languages
Japanese (ja)
Other versions
JP2861014B2 (en
Inventor
Toshio Kato
敏夫 加藤
Yoshiaki Ito
伊東 義明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
NipponDenso Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NipponDenso Co Ltd filed Critical NipponDenso Co Ltd
Priority to JP1009430A priority Critical patent/JP2861014B2/en
Publication of JPH02189691A publication Critical patent/JPH02189691A/en
Application granted granted Critical
Publication of JP2861014B2 publication Critical patent/JP2861014B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the recognition accuracy of a high-order object and a low-order object by collating the edge image of a detected object selected by a candidate selecting means with a detailed model segment and specifying the detected object in accordance with the collated result. CONSTITUTION:A constitutional part constituting the contour of a detected object is collated with a main model segment by the candidate selecting means, and when the object has collation more than a fixed value, the detected object is selected as a candidate. An edge image is found out through an edge image computing means by binarizing the differential images of plural density images having respectively different light irradiating directions and a composed edge image is found out by composing the edge images. The edge image has a fixed width and is not disconnected by disturbance like a contour line. The edge images of all candidates are collated with the detailed model segment by an object specifying means and the object is specified in accordance with the collated result. Since the edge of the object is not disconnected, the high-order object and the low-order object can be surely discriminated.

Description

【発明の詳細な説明】[Detailed description of the invention] 【産業上の利用分野】[Industrial application field]

本発明は、物体認識装置に関し、例えば、ロボットによ
り、不規則に積み重ねられた多数の加工物体の中から、
最上位にある物体を把持する場合に、その把持すべき最
上位物体を高速且つ高精度で認識できる物体認識装置に
関するものである。
TECHNICAL FIELD The present invention relates to an object recognition device.
The present invention relates to an object recognition device that can recognize the topmost object to be gripped at high speed and with high precision when gripping the topmost object.

【従来技術】[Prior art]

従来、この種の物体認識装置では、撮像された濃淡画像
と予めモデル物体で撮像したモデル濃淡画像との相関を
とることで物体を認識することやく特開昭60−485
79号公報)、物体の輪郭線を抽出して、予め登録され
たモデルの輪郭線と照合させることで物体を認識するこ
と(特開昭62−269287号公報)が行われている
Conventionally, this type of object recognition device recognizes an object by correlating a captured grayscale image with a model grayscale image previously captured using a model object.
(Japanese Patent Laid-Open No. 62-269287), the object is recognized by extracting the contour of the object and comparing it with the contour of a pre-registered model.

【発明が解決しようとする課題】[Problem to be solved by the invention]

しかし、前者は濃淡画像において1方向の相関を取るた
め、認識物体が円柱物体等の簡単な形状の物体に限られ
たり、照合部分では最上位に物体が存在しても他の部分
では下位に存在し、全体として把持するのに適当でない
物体まで、最上位物体として認ム1してしまうという問
題がある。 又、後者は、画像上において抽出された検出物体の輪郭
線が照明等の外乱の影Vで通常切断されたものとなるた
め、物体が下位に存在して輪郭線が切断される場合と区
別が付かないこと、モデルの詳細な輪郭線と照合すると
An lJk精度は向上するが認識速度が低下すること
、モデルの主要な一部の輪郭線と照合すると認識速度が
向上するが、照合しない輪郭線の部分が上位物体で邪魔
されているような場合にも、その物体を最上位物体とし
て認識してしまうとう問題があった。 本発明は、上記の課題を解決するために成されたもので
あり、その目的とするところは、複雑な背景中に存在す
る物体や不規則に積み上げられた物体の中から、ロボッ
トが把持するに適当な物体、即ち、最上位物体を効率良
く認識することである。
However, since the former takes a correlation in one direction in a grayscale image, the recognized object may be limited to objects with simple shapes such as cylindrical objects, or even if there is an object at the top in the matching part, it may be at the bottom in other parts. There is a problem in that even objects that exist and are not suitable to be grasped as a whole are recognized as the topmost object. In addition, in the latter case, the contour line of the detected object extracted on the image is normally cut by the shadow V of disturbance such as illumination, so it is difficult to distinguish it from the case where the object is located below and the contour line is cut. matching with detailed contours of the model improves An lJk accuracy but reduces recognition speed; matching with some major contours of the model improves recognition speed, but contours that are not matched Even when a line portion is obstructed by a higher-level object, there is a problem in that the object is recognized as the highest-level object. The present invention has been made to solve the above problems, and its purpose is to enable a robot to grasp objects from among objects existing in a complex background or irregularly piled up. The objective is to efficiently recognize an object that is appropriate for the object, that is, the topmost object.

【課題を解決するための手段】[Means to solve the problem]

上記課題を解決するための発明の構成は、第1図にその
概要を示すように、2次元画像から検出物体の輪郭線を
求め、その輪郭線から輪郭線を構成する複数の構成線分
を抽出し、その構成線分と照合の対象となるモデルの輪
郭線を構成する曲線又は直線の一部(本発明ではモデル
線分と称す)を照合し、その一致の程度から物体をRJ
 L’lする物体認識装置において、 前記モデルの輪郭線の主要部を構成する主要モデル線分
の位置等に関する情報を記憶した主要モデル線分記憶手
段と、 前記モデルの輪郭線の略全体を構成する詳細モデル線分
の位置等に関する情報を記憶した詳細モデル線分記憶手
段と、 前記検出物体の構成線分と前記主要モデル線分記t@手
段に記憶された主要モデル線分とを照合し、その照合結
果に応じて検出物体の位置及び姿勢を求めて検出物体の
候補を選択する候補選択手段と、照明の照射方向の異な
る複数の濃淡画像の微分画像を2値化したエツジ画像を
求め、それらのエツジ画像を合成して合成エツジ画像を
求めるエツジ画像演算手段と、 前記合成エツジ画像上において、前記候補選択手段によ
り選択された検出物体の位置及び姿勢に基づいて、前記
詳細モデル線分記憶手段に記憶されている詳細モデル線
分と検出物体のエツジ画像とを照合し、その照合結果に
応じて検出物体を特定する物体特定手段とを設けたこと
である。
The configuration of the invention for solving the above problems is as shown in the outline in FIG. The extracted line segments are compared with a part of the curve or straight line that constitutes the outline of the model to be compared (referred to as a model line segment in the present invention), and based on the degree of matching, the object is identified as RJ.
L'l object recognition device, comprising: main model line segment storage means storing information regarding the positions of main model line segments constituting the main part of the contour line of the model; and substantially the entire contour line of the model. a detailed model line segment storage means that stores information regarding the position of the detailed model line segment, etc., and the constituent line segments of the detected object are compared with the main model line segments stored in the main model line segment recording means. , a candidate selection means for determining the position and orientation of the detected object according to the comparison result and selecting a candidate for the detected object; and obtaining an edge image by binarizing differential images of a plurality of grayscale images with different illumination directions. , edge image calculation means for synthesizing these edge images to obtain a synthetic edge image; and on the synthetic edge image, based on the position and orientation of the detected object selected by the candidate selection means, The object identification means is provided for comparing detailed model line segments stored in the storage means with edge images of the detected object, and specifying the detected object according to the comparison result.

【作用】[Effect]

第1段階では、候補選択手段により、検出物体の輪郭線
を(1゛り成する構成線分と主要モデル線分との照合が
行われて、一定量以上一致する物体が検出物体の候補と
して選択される。 第2段階では、エツジ画像演算手段により、照明の照射
方向の異なる複数のa淡側像の微分画像を2値化したエ
ツジ画像が求められ、そのエツジ画像を合成した合成エ
ツジ画像が求められる。このエツジ画像は、異なる方向
から照明して得られる画像の合成であることと、微分画
像を所定の閾値を境に2値化した画像であるため、物体
の輪郭線とは異なり、一定の幅をもっており、輪郭線の
ように外乱により途切れることはない。次に、物体特定
手段により、第1段階で選択された検出物体の全候補の
エツジ画像と詳細モデル線分とが照合され、その照合結
果に応じて、対象とする物体が特定される。 このように、第1段階では、物体の構成線分を特徴ある
主要モデル線分と照合して、検出物体の位置及び姿勢を
求めているので、演算時間が短縮される。又、第2段階
では、第1段階で選択された検出物体の候補の位置及び
姿勢に基づいて、詳細モデル線分をエツジ画像上に投影
した時の一致の程度で、最終的な検出物体が特定される
。この第2段階の照合は、第1段階で既に選択された候
補だけで実行されることや、既に、その候補の位置や姿
勢が求められていることから、エツジ画像上で詳細モデ
ル線分がどれほど認められるかという簡単な照合となる
ため、その演算時間は短い。 又、エツジ画像は外乱により物体のエツジが途切れるこ
とがないため、確実に上位物体と下位物体とを判別でき
る。
In the first stage, the candidate selection means compares the contour line of the detected object with the main model line segments and the main model line segments, and selects objects that match a certain amount or more as candidates for the detected object. In the second stage, an edge image is obtained by binarizing the differential images of a plurality of a-light side images with different illumination directions by the edge image calculation means, and a composite edge image is created by combining the edge images. This edge image is a composite of images obtained by illuminating from different directions, and is an image obtained by binarizing a differential image using a predetermined threshold. , has a constant width and will not be interrupted by disturbances like a contour line.Next, the object identification means compares the edge images of all candidates for the detected object selected in the first step with the detailed model line segments. The target object is identified according to the matching results.In this way, in the first step, the constituent line segments of the object are matched with the characteristic main model line segments to determine the position and orientation of the detected object. , the calculation time is shortened.In addition, in the second stage, detailed model line segments are projected onto the edge image based on the position and orientation of the detection object candidate selected in the first stage. The final detected object is identified based on the degree of coincidence at the time.This second stage matching is performed only with the candidates already selected in the first stage, or the candidate's position and orientation have already been determined. is required, so the calculation time is short because it is a simple comparison of how many detailed model line segments are recognized on the edge image.Also, in the edge image, the edges of the object are not interrupted due to disturbances. Therefore, it is possible to reliably distinguish between higher-ranking objects and lower-ranking objects.

【実施例】【Example】

以下、本発明を具体的な実施例に基づいて説明する。 第2図において、多くの工作物Wがパレ・ノド5上に載
置されており、そのパレット5の上部から工作物Wを撮
像するカメラ6が設けられている。 又、工作物Wの照明装置として中央上部から工作物Wを
一様に照射する第1照明装@7と、工作物Wを左上方か
ら照射する第2照明装置8と、工作物Wを右上方から照
射する第3照明装置9とが設けられている。これらの照
明袋!?、8.9は照明制御回路2によって指令された
時に工作物Wを照射するように構成されている。 物体認識装置Aは、照合、判定等のデータ処理を行う中
央処理装置1と、カメラ6により得られた映像信号を処
理して、検出物体の輪郭線を検出して、輪郭線を構成す
る構成線分を抽出し、又、合成エツジ画像を求める等の
データ処理を行う画像処理装置3と、モデルに関するデ
ータや検出物体に関するデータを記や、αする記(、α
装置4と、照明制御回路2とで構成されている。 更に、画像処理装置3は、カメラ6の出力する映像信号
をサンプリングして、濃淡レベルをディジタル化した濃
淡画像データを生成する画像入力装置31と、その濃淡
画像データから微分演算により明度勾配を求め、物体画
像のエツジを表すエツジ画像データを生成するエツジ検
出装置32と、そのエツジ画像データから輪郭線を追跡
し、その輪郭線を構成する構成線分を抽出し、その構成
線分の位置に関するデータを生成する線分抽出装置33
とで構成されている。 又、記憶装置4はRAM等で構成されており、モデルの
輪郭線の主要部を構成する主要モデル線分の位置に関す
る情報を記憶する主要モデル線分メモリ41と、主要モ
デル線分に対して所定値以上の照合度を有する構成線分
の組みから求められた検出物体候補の位置及び姿勢に関
するデータを記tαする候補データメモリ42と、モデ
ルの輪郭線の略全体を構成する詳細モデル線分の位置等
に関する情報を記憶する詳細モデル線分メモリ43と、
詳細モデル線分と選択された検出物体候補に対応する中
央処理装置内のメモリ上のエツジ画像と照合し、その結
果を記憶する認識結果メモリ44とで構成されている。 次に、物体認識装置Aの処理手順を示した第3図及び第
4図のフローチャートと、第5図の説明図にしたがって
本装置の作用を説明する。 照明制御回路2により、通常、第1照明装置7が点燈さ
れており、カメラ6で得られた映像信号は画像入力装置
31に入力している。そして、画像入力装置31では、
映像信号をサンプリングしてディジタル信号に変換して
濃淡画像が生成されている。その濃淡画像データはエツ
ジ検出装置32に入力し、微分されてエツジ画像が生成
される。 そのエツジ画像データは線分抽出装置33に入力し、稜
線を追跡することで物体の輪郭線が抽出され、更に、そ
の輪郭線は折線や円で近似されて第5図(a)に示すよ
うな線分画像が得られる。 そして、ステップ100において、中央処理装置1は、
線分画像から、半径が主要モデル線分の対応する円の半
径に略等しい円や長さが一定値以上の直線から成る構成
線分を抽出し、ステップ102で円の中心位置や半径と
直線の両端位置のデータを、それぞれ、中央処理装置内
の構成線分メモリの領域A及び領域Bに記憶する。 一方、主要モデル線分メモリ41には、第5図(b)に
示すような主要モデル線分の要素である円の中心位置や
線分の両端位置の位置データが記憶されている。本実施
例では、主要モデル線分はモデルに形成された穴の輪郭
を示す円C1と主要綾線の一部を示す直線Ll、 L2
. L3で構成されている。 次に、ステップ104へ移行して、構成線分メモリ34
の領域Aが空か否かを判定することにより、照合の対象
である構成線分が残存するか否かが判定される。最初の
実行サイクルでは、構成線分の抽出が成功した限りにお
いて、当然、領域Aは空ではないので、ステップ106
へ移行して、中央処理袋¥!ll内のす、を成線分メモ
リの領域Aから任意の構成線分である円が1つ選択され
る。 次に、ステップ108で、前記構成線分メモリの領域B
から任意の構成線分である直線が3本選択される。そし
て、ステップ110へ移行して、選択された構成線分と
主要モデル線分メモリ41に記憶されている主要モデル
線分との全ての組合に付いて一致度が演算される。 一数置ρは、抽出された構成線分と主要モデル線分とが
、それらの相対的位置関係を含めて、どれほど一致して
いるかを示すパラメータであり、本実施例では、次式で
求める。 ρ=Eω、・(Δα、・Δβl) 但し、ω羞は主要モデル線分に与えられた重みであり、
重みの大きい主要モデル線分と一致すれば、それだけ全
体としての一致度が大きくなる。 ω1は円、ω2〜ω4は直線の重みである。 又、Δα1はi番目のモデル線分と照合の対象の構成線
分との一致度を示す。 円の場合には、主要モデル線分の円の半径と略等しい円
が構成線分として既に抽出されているので、Δα+=1
.Oである。 さ、length(eJ)は抽出された、j番目の構成
線分eJの長さである。 又、Δβ量は構成線分間の相対的位置関係と主要モデル
線分間の相対的位置関係の一致度を示す。 円の場合には、同様に、Δβ、=i、oである。 又、直線については(1≠1)、 構成線分e、が領域Sに存在するとき、Δβi=1.0 構成線分elが領域Sに一部含まれるとき、Δβi=0
.5 構成線分e、が領域Sに全く含まれないきき、Δβ1−
0 ただし、領域Sは次式で定義される。 分e3を片方づつ端点を一致させて対応付けた時に、主
要モデル線分間の相対的位置関係により決定される、主
要モデル線分−の存在可能範囲である。 したがって、領域Sは、3つの主要モデル線分と3つの
構成線分のそれぞれの対応関係から決定される存在可能
領域の共通領域である。 このようにして、ステップ110で一数置ρが演算され
る。また、主要モデル線分と選択された構成線分の組合
せは、本実施例では円と円とを対応させており、他の3
つの直線の対応関係により6通り存在するが、その各組
合せに関して、−数置が演算され、その内、−数置の最
大の組が、主要モデル線分と対応の可能性のある組合せ
として選択される。 そして、次のステップ112でその一数置ρがしきい値
Thより大きいか否かが判定され、−数置ρがしきい値
Thより大きい場合には、ステップ118において、抽
出された構成線分の1つである円の中心位置から検出物
体の位置が、主要モデル線分のうちの特定な直線に対応
する構成線分の直線の傾きから検出物体の姿勢が演算さ
れ、それらの値は候補データメモリ42に記憶される。 そして、ステップ120において、選択された検出物体
の候補の数は十分か否かが判定され、十分でない場合に
は、ステップ122に移行して、抽出された構成線分を
中央処理装置1内の構成線分メモリから消去し、ステッ
プ104へ戻り、次の構成線分の抽出が行われる。 一方、ステップ112において、−数置ρがしきい値T
hより大きくない場合には、選択された構成線分と主要
モデル線分との対応組は評価済のラベルを付けられて領
域Bに戻される。そして、ステップ114へ移行して、
中央処理装置1内の構成線分メモリの領域Bに記憶され
ている構成線分の中から抽出される他の組合せが存在す
るか否かが判定され、他の組合せが存在する場合には、
ステップ108へ移行して、構成線分のうちから3つの
他の直線が抽出され、その全対応組に対して、上記と同
様に一数置ρが演算される。又、抽出される構成線分の
他の組合せが存在しない場合には、ステップ116にお
いて、抽出された構成線分の円はモデルに対応した円で
ないとして中央処理装置1内の構成成分メモリの領域A
から削除され、ステップ104に戻り、次の他の円が抽
出されて、他の3つの直線が選択され対応組が生成され
、同様にして一致度が演算される。 又、ステップ120で選択された検出物体の候補数が十
分であれば、候補の選択を打ち切り、ステップ124以
下の処理が実行される。このとき、検出物体の候補は第
5図(C)に示すように選択されている。 ステップ124では第2照明装置8が点燈され、加工物
体Wは左上方から照射され、カメラ6から映像信号が入
力され、ステップ126において、エツジ検出袋Vfi
32により濃淡画像を微分して2値化したエツジ画像が
中央処理装置内のエツジ画像メモリに記憶される。次に
、ステップ128では第3照明装置9が点燈され、加工
物体Wは右上方から照射され、カメラ6から映像信号が
入力され、ステップ130において、エツジ検出装置3
2により濃淡画像を微分して2値化した右上方照明時の
エツジ画像が得られる。次に、ステップ132で、中央
処理装置lにより、その右上方照明時のエツジ画像と既
にエツジ画像メモリに記憶されている左上方照明時のエ
ツジ画像との論理和が演算された後、第5図(d)に示
すような合成エツジ画像がエツジ画像メモリに記憶され
る。 次に、ステップ134において、候補データメモリ42
に記憶された1つの検出物体候補の位置及び姿勢データ
が選択される。次に、ステップ136において、中央処
理袋ul内のエツジ画像メモリに記憶されている合成エ
ツジ画像上において、検出物体候補の位置及び姿勢デー
タに基づいて、詳細モデル線分メモリ43上に記憶され
ている第5図(e)に示すような詳細モデル線分を投影
した時、その詳細モデル線分と合成エツジ画像の選択さ
れた第に番の検出物体候補のエツジとの重なりの画素数
13が演算される。 但し、B、は詳細モデル線分e、における重なりの画素
数であり、mは詳細モデル線分の数である。 そして、次のステップ138で、候補データメモリ42
に記憶されている全ての検出物体候補について、重なり
画素数の演算が完了していないと判定された場合には、
ステップ134へ戻り、その他の検出物体候補について
、重なり画素数が演算される。 そして、選択された全検出物体候補について、重なり画
素数7bが演算されると、ステップ140でその重なり
画素数γ3の最大な検出物体が最も上にある物体として
SR識される。 このようにして、不規則に積み重ねられた同一形状をし
た多数の物体の中から最上位にある物体を第5図(f)
に示すように精度良く認識することができる。 又、重なり画素数15の代わりに、詳細モデル線分el
の画素数をV、とするとき Iil/vl≧T を全詳細モデル線分について満たす検出物体候補の中で
重なり割合の最大値の物体を最上位物体とKntAする
ようにしても良い。 但し、Tは各詳細モデル線分の重なり割合の許容値であ
る。
The present invention will be described below based on specific examples. In FIG. 2, many workpieces W are placed on a pallet gutter 5, and a camera 6 is provided to take an image of the workpieces W from above the pallet 5. In addition, as illumination devices for the workpiece W, a first illumination device @7 uniformly illuminates the workpiece W from the upper center, a second illumination device 8 illuminates the workpiece W from the upper left, and a second illumination device @7 illuminates the workpiece W from the upper right. A third lighting device 9 that emits light from both directions is provided. These lighting bags! ? , 8.9 are configured to illuminate the workpiece W when commanded by the illumination control circuit 2. The object recognition device A includes a central processing unit 1 that performs data processing such as matching and determination, and a configuration that processes a video signal obtained by a camera 6 to detect an outline of a detected object and configure the outline. An image processing device 3 performs data processing such as extracting line segments and obtaining a composite edge image;
It is composed of a device 4 and a lighting control circuit 2. Furthermore, the image processing device 3 includes an image input device 31 that samples the video signal output from the camera 6 and generates grayscale image data in which the grayscale level is digitized, and calculates a brightness gradient from the grayscale image data by differential calculation. , an edge detection device 32 that generates edge image data representing edges of an object image, traces a contour line from the edge image data, extracts constituent line segments that constitute the contour line, and detects the position of the constituent line segments. Line segment extraction device 33 that generates data
It is made up of. The storage device 4 is composed of a RAM, etc., and includes a main model line segment memory 41 that stores information regarding the positions of main model line segments that constitute the main part of the contour of the model, and Candidate data memory 42 that stores data related to the position and orientation of a detected object candidate obtained from a set of constituent line segments having a degree of matching equal to or higher than a predetermined value, and a detailed model line segment that constitutes substantially the entire contour of the model. a detailed model line segment memory 43 that stores information regarding the position, etc. of the
It is comprised of a recognition result memory 44 that compares the detailed model line segment with an edge image on the memory in the central processing unit corresponding to the selected detection object candidate and stores the result. Next, the operation of the object recognition apparatus A will be explained according to the flowcharts of FIGS. 3 and 4 showing the processing procedure of the object recognition apparatus A, and the explanatory diagram of FIG. 5. The first lighting device 7 is normally turned on by the lighting control circuit 2, and a video signal obtained by the camera 6 is input to the image input device 31. Then, in the image input device 31,
A grayscale image is generated by sampling a video signal and converting it into a digital signal. The grayscale image data is input to an edge detection device 32 and differentiated to generate an edge image. The edge image data is input to the line segment extraction device 33, and by tracing the edges, the outline of the object is extracted, and the outline is approximated by broken lines or circles, as shown in FIG. 5(a). A line segment image can be obtained. Then, in step 100, the central processing unit 1
Constituent line segments consisting of circles whose radius is approximately equal to the radius of the circle corresponding to the main model line segment and straight lines whose length is greater than a certain value are extracted from the line segment image, and in step 102, the center position of the circle, the radius, and the straight line are extracted. The data at both end positions are stored in area A and area B of the constituent line segment memory in the central processing unit, respectively. On the other hand, the main model line segment memory 41 stores position data of the center position of a circle, which is an element of the main model line segment, and the positions of both ends of the line segment, as shown in FIG. 5(b). In this example, the main model line segments are a circle C1 that shows the outline of a hole formed in the model, and straight lines Ll and L2 that show a part of the main twill lines.
.. It is composed of L3. Next, proceeding to step 104, the constituent line segment memory 34
By determining whether or not area A is empty, it is determined whether or not the constituent line segment to be verified remains. In the first execution cycle, as long as the component line segment extraction is successful, area A is naturally not empty, so step 106
Move to central processing bag ¥! One circle, which is an arbitrary component line segment, is selected from area A of the component line segment memory. Next, in step 108, area B of the constituent line segment memory
Three straight lines, which are arbitrary constituent line segments, are selected from . Then, the process moves to step 110, and the degree of coincidence is calculated for all combinations of the selected constituent line segments and the main model line segments stored in the main model line segment memory 41. The numeral ρ is a parameter that indicates how much the extracted constituent line segments and the main model line segments match, including their relative positional relationship, and in this example, it is calculated using the following formula. . ρ=Eω, ・(Δα, ・Δβl) However, ω is the weight given to the main model line segment,
The more the main model line segment has a large weight, the greater the degree of matching as a whole. ω1 is the weight of a circle, and ω2 to ω4 are the weights of straight lines. Further, Δα1 indicates the degree of matching between the i-th model line segment and the constituent line segments to be compared. In the case of a circle, a circle that is approximately equal to the radius of the circle of the main model line segment has already been extracted as a constituent line segment, so Δα+=1
.. It is O. Here, length(eJ) is the length of the extracted j-th constituent line segment eJ. Further, the Δβ amount indicates the degree of agreement between the relative positional relationship between the constituent line segments and the relative positional relationship between the main model line segments. Similarly, in the case of a circle, Δβ,=i,o. Also, regarding straight lines (1≠1), when the component line segment e exists in the region S, Δβi = 1.0 When the component line segment el is partially included in the region S, Δβi = 0
.. 5 If the constituent line segment e is not included in the area S at all, Δβ1−
0 However, the area S is defined by the following equation. This is the range in which the main model line segment - can exist, which is determined by the relative positional relationship between the main model lines when the segment e3 is matched one by one by matching the end points. Therefore, the region S is a common region of possible regions determined from the correspondence between the three main model line segments and the three component line segments. In this way, the numeric value ρ is calculated in step 110. In addition, in this example, the combination of the main model line segment and the selected component line segment corresponds to a circle, and the other three
There are six possible combinations depending on the correspondence between the two straight lines, and for each combination, a -number position is calculated, and among them, the largest set of -number positions is selected as a possible combination that corresponds to the main model line segment. be done. Then, in the next step 112, it is determined whether or not the numeral ρ is larger than the threshold Th. If the - numeral ρ is larger than the threshold Th, in step 118, the extracted constituent line The position of the detected object is calculated from the center position of the circle, which is one of the minutes, and the attitude of the detected object is calculated from the slope of the straight line of the component line segment corresponding to a specific straight line among the main model line segments. The candidate data memory 42 stores the candidate data. Then, in step 120, it is determined whether the number of selected detection object candidates is sufficient. If not, the process moves to step 122, and the extracted constituent line segments are It is deleted from the constituent line segment memory, and the process returns to step 104, where the next constituent line segment is extracted. On the other hand, in step 112, the -numeric value ρ is the threshold value T
If it is not larger than h, the correspondence set of the selected component line segment and the main model line segment is returned to region B with a label of evaluated. Then, proceeding to step 114,
It is determined whether or not there are other combinations to be extracted from among the constituent line segments stored in area B of the constituent line segment memory in the central processing unit 1, and if there are other combinations,
Proceeding to step 108, three other straight lines are extracted from the constituent line segments, and the single digit ρ is calculated for all corresponding sets thereof in the same manner as described above. If there are no other combinations of component line segments to be extracted, in step 116, the circle of the extracted component line segments is determined not to correspond to the model and is stored in the area of the component memory in the central processing unit 1. A
, the process returns to step 104, the next other circle is extracted, the other three straight lines are selected, a corresponding set is generated, and the degree of coincidence is calculated in the same way. Further, if the number of detected object candidates selected in step 120 is sufficient, selection of candidates is discontinued and the processes from step 124 onwards are executed. At this time, detection object candidates are selected as shown in FIG. 5(C). In step 124, the second illumination device 8 is turned on, the workpiece W is illuminated from the upper left, a video signal is input from the camera 6, and in step 126, the edge detection bag Vfi
32, the grayscale image is differentiated and binarized into an edge image, which is then stored in an edge image memory within the central processing unit. Next, in step 128, the third illumination device 9 is turned on, the workpiece W is illuminated from the upper right, a video signal is input from the camera 6, and in step 130, the edge detection device 3
By differentiating the grayscale image by 2, a binarized edge image at the time of upper right illumination is obtained. Next, in step 132, the central processing unit l calculates the logical sum of the edge image when the upper right side is illuminated and the edge image when the upper left side is illuminated, which is already stored in the edge image memory. A composite edge image as shown in Figure (d) is stored in the edge image memory. Next, in step 134, the candidate data memory 42
The position and orientation data of one detected object candidate stored in is selected. Next, in step 136, on the composite edge image stored in the edge image memory in the central processing bag ul, data is stored in the detailed model line segment memory 43 based on the position and orientation data of the detected object candidate. When a detailed model line segment as shown in FIG. 5(e) is projected, the number of pixels of overlap between the detailed model line segment and the selected edge of the detected object candidate in the composite edge image is 13. Calculated. However, B is the number of overlapping pixels in detailed model line segment e, and m is the number of detailed model line segments. Then, in the next step 138, the candidate data memory 42
If it is determined that the calculation of the number of overlapping pixels has not been completed for all detected object candidates stored in the
Returning to step 134, the number of overlapping pixels is calculated for other detection object candidates. Then, when the number of overlapping pixels 7b is calculated for all the selected detected object candidates, in step 140, the detected object with the maximum number of overlapping pixels γ3 is recognized as the uppermost object by SR. In this way, the topmost object is selected from a large number of irregularly stacked objects with the same shape as shown in Figure 5(f).
As shown in the figure, it can be recognized with high accuracy. Also, instead of 15 overlapping pixels, detailed model line segment el
When the number of pixels is V, the object with the maximum overlap ratio among the detection object candidates that satisfy Iil/vl≧T for all detailed model line segments may be set to the topmost object. However, T is the allowable value of the overlapping ratio of each detailed model line segment.

【発明の効果】【Effect of the invention】

本発明は、検出物体の構成線分と主要モデル線分とを照
合し、その照合結果に応じて検出物体の候補を選択する
候補選択手段と、照明の照射方向の異なる複数の濃淡画
像の微分画像を2値化して合成した合成エツジ画像を求
めるエツジ画像演算手段と、合成エツジ画像上において
、候補選択手段により選択された検出物体のエツジ画像
と、詳細モデル線分とを照合し、その照合結果に応じて
検出物体を特定する物体特定手段とを有しているので、
候補選択時間が短縮されること、詳細モデル線分との照
合方法が簡単となり照合時間が短縮されること、外乱で
は途切れることのないエツジ画像を用いて照合している
ので、上位物体と下位物体の認識精度が高くなること等
のWI著な効果を有する。
The present invention provides a candidate selection means for comparing constituent line segments of a detection object with main model line segments and selecting detection object candidates according to the comparison result, and differentiation of a plurality of grayscale images with different illumination directions. An edge image calculation means for obtaining a composite edge image obtained by binarizing and synthesizing the images, and comparing the edge image of the detected object selected by the candidate selection means with the detailed model line segment on the composite edge image. Since it has object identification means for identifying the detected object according to the result,
The candidate selection time is shortened, the matching method with detailed model line segments is simple and the matching time is shortened, and since matching is performed using edge images that are not interrupted by disturbances, it is possible to distinguish between higher-ranking objects and lower-ranking objects. WI has significant effects such as increased recognition accuracy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の概略を示したブロックダイヤグラム、
第2図は本発明の具体的な一実施例に係る物体認識装置
の構成を示したブロックダイヤグラム、第3図、第4図
は同装置の作用を示したフローチャート、第5図はデー
タ処理を示した説明図である。 1 中央処理装置 2 照明制御回路 3・画像処理装置 4 記tα装置 6−カメラ 7 第1照明装置 8 第2照明装置 9 第3 !!@明装置特許出願人
  日本電装株式会社 代 理 人  弁理士 藤谷 修 第 図
FIG. 1 is a block diagram showing an outline of the present invention;
FIG. 2 is a block diagram showing the configuration of an object recognition device according to a specific embodiment of the present invention, FIGS. 3 and 4 are flowcharts showing the operation of the device, and FIG. 5 is a data processing diagram. FIG. 1 Central processing unit 2 Lighting control circuit 3/image processing device 4 tα device 6-camera 7 First lighting device 8 Second lighting device 9 Third! ! @Mei device patent applicant Representative of Nippondenso Co., Ltd. Patent attorney Shudai Fujitani

Claims (1)

【特許請求の範囲】 2次元画像から検出物体の輪郭線を求め、その輪郭線か
ら輪郭線を構成する複数の構成線分を抽出し、その構成
線分と照合の対象となるモデルの輪郭線を構成するモデ
ル線分とを照合し、その一致の程度から物体を認識する
物体認識装置において、 前記モデルの輪郭線の主要部を構成する主要モデル線分
の位置等に関する情報を記憶した主要モデル線分記憶手
段と、 前記モデルの輪郭線の略全体を構成する詳細モデル線分
の位置等に関する情報を記憶した詳細モデル線分記憶手
段と、 前記検出物体の構成線分と前記主要モデル線分記憶手段
に記憶された主要モデル線分とを照合し、その照合結果
に応じて検出物体の位置及び姿勢を求めて検出物体の候
補を選択する候補選択手段と、照明の照射方向の異なる
複数の濃淡画像の微分画像を2値化したエッジ画像を求
め、それらのエッジ画像を合成して合成エッジ画像を求
めるエッジ画像演算手段と、 前記合成エッジ画像上において、前記候補選択手段によ
り選択された検出物体の位置及び姿勢に基づいて、前記
詳細モデル線分記憶手段に記憶されている詳細モデル線
分と検出物体のエッジ画像とを照合し、その照合結果に
応じて検出物体を特定する物体特定手段と を有することを特徴とする物体認識装置。
[Claims] A contour line of a detected object is obtained from a two-dimensional image, a plurality of constituent line segments constituting the contour line are extracted from the contour line, and a contour line of a model to be compared with the constituent line segments is extracted. In an object recognition device that recognizes an object based on the degree of matching by comparing model line segments that make up the model, the main model stores information such as the position of the main model line segments that make up the main part of the contour of the model. Line segment storage means; Detailed model line segment storage means that stores information regarding the positions, etc. of detailed model line segments that constitute substantially the entire contour of the model; Constituent line segments of the detected object and the main model line segments. candidate selection means for comparing the main model line segments stored in the storage means, determining the position and orientation of the detection object according to the comparison result, and selecting detection object candidates; an edge image calculation means for obtaining an edge image obtained by binarizing a differential image of a grayscale image and synthesizing these edge images to obtain a composite edge image; and a detection selected by the candidate selection means on the composite edge image. Object specifying means for comparing the detailed model line segment stored in the detailed model line segment storage means with an edge image of the detected object based on the position and orientation of the object, and specifying the detected object according to the comparison result. An object recognition device comprising:
JP1009430A 1989-01-18 1989-01-18 Object recognition device Expired - Fee Related JP2861014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1009430A JP2861014B2 (en) 1989-01-18 1989-01-18 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1009430A JP2861014B2 (en) 1989-01-18 1989-01-18 Object recognition device

Publications (2)

Publication Number Publication Date
JPH02189691A true JPH02189691A (en) 1990-07-25
JP2861014B2 JP2861014B2 (en) 1999-02-24

Family

ID=11720118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1009430A Expired - Fee Related JP2861014B2 (en) 1989-01-18 1989-01-18 Object recognition device

Country Status (1)

Country Link
JP (1) JP2861014B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003086996A (en) * 2001-09-14 2003-03-20 Fuji Mach Mfg Co Ltd Method and device for retrieving reference mark
JP2007316966A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Mobile robot, control method thereof and program
JP2009115783A (en) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc Method and system for determining 3d posture of object in scene
JP2009295116A (en) * 2008-06-09 2009-12-17 Ihi Corp Object recognition device and method
JP2010184308A (en) * 2009-02-10 2010-08-26 Fanuc Ltd Workpiece taking-out device
JP2011138490A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc Method for determining pose of object in scene
US8041105B2 (en) 2006-08-30 2011-10-18 Kabushiki Kaisha Toshiba Pattern evaluation method, computer-readable medium, and semiconductor device manufacturing method
JP2012026767A (en) * 2010-07-20 2012-02-09 Sumitomo Metal Ind Ltd Edge detection method and detection system, traveling situation measurement method and measurement system of band material, traveling control method and control system of band material, and manufacturing method and manufacturing system of band material
JP2017075915A (en) * 2015-10-16 2017-04-20 日本電気硝子株式会社 Object position recognition method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003086996A (en) * 2001-09-14 2003-03-20 Fuji Mach Mfg Co Ltd Method and device for retrieving reference mark
JP2007316966A (en) * 2006-05-26 2007-12-06 Fujitsu Ltd Mobile robot, control method thereof and program
US8041105B2 (en) 2006-08-30 2011-10-18 Kabushiki Kaisha Toshiba Pattern evaluation method, computer-readable medium, and semiconductor device manufacturing method
JP2009115783A (en) * 2007-11-07 2009-05-28 Mitsubishi Electric Research Laboratories Inc Method and system for determining 3d posture of object in scene
JP2009295116A (en) * 2008-06-09 2009-12-17 Ihi Corp Object recognition device and method
JP2010184308A (en) * 2009-02-10 2010-08-26 Fanuc Ltd Workpiece taking-out device
JP2011138490A (en) * 2009-12-28 2011-07-14 Mitsubishi Electric Research Laboratories Inc Method for determining pose of object in scene
JP2012026767A (en) * 2010-07-20 2012-02-09 Sumitomo Metal Ind Ltd Edge detection method and detection system, traveling situation measurement method and measurement system of band material, traveling control method and control system of band material, and manufacturing method and manufacturing system of band material
JP2017075915A (en) * 2015-10-16 2017-04-20 日本電気硝子株式会社 Object position recognition method

Also Published As

Publication number Publication date
JP2861014B2 (en) 1999-02-24

Similar Documents

Publication Publication Date Title
AU2018315631B2 (en) A refuse collection system
JPH01196501A (en) Object recognizing apparatus for robot
CN108256574A (en) Robot localization method and device
CN108875805A (en) The method for improving detection accuracy using detection identification integration based on deep learning
JP2555822B2 (en) High-speed picking device for piled parts
CN113877836B (en) Intelligent identification sorting system based on visual detection system
JPH02189691A (en) Device for recognizing object
CN105095848A (en) Object identification method and system
CN111242899A (en) Image-based flaw detection method and computer-readable storage medium
CN113522786A (en) Visual detection method, system and device for grabbing and sorting ship parts
JP3225740B2 (en) High-speed picking device for piled parts
JP2555824B2 (en) High-speed picking device for piled parts
JP2679490B2 (en) High-speed picking device for piled parts
CN111160374B (en) Color recognition method, system and device based on machine learning
JPH10105873A (en) Device for recognizing number plate of vehicle
JP2555823B2 (en) High-speed picking device for piled parts
CN115984759A (en) Substation switch state identification method and device, computer equipment and storage medium
CN113524172B (en) Robot, article grabbing method thereof and computer-readable storage medium
Sinkevicius et al. Amber gemstones sorting by colour
JPH07121713A (en) Pattern recognition method
JPS6344103A (en) Apparatus for confirming position and posture
CN113971746A (en) Garbage classification method and device based on single hand teaching and intelligent sorting system
JPH0739827A (en) Method for identifying many kinds of articles
Guo et al. Real-time detection and classification of machine parts with embedded system for industrial robot grasping
Jørgensen et al. Detecting danger labels with RAM-based neural networks

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees