JPH0525354B2 - - Google Patents

Info

Publication number
JPH0525354B2
JPH0525354B2 JP61159849A JP15984986A JPH0525354B2 JP H0525354 B2 JPH0525354 B2 JP H0525354B2 JP 61159849 A JP61159849 A JP 61159849A JP 15984986 A JP15984986 A JP 15984986A JP H0525354 B2 JPH0525354 B2 JP H0525354B2
Authority
JP
Japan
Prior art keywords
shape
feature
points
point
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61159849A
Other languages
Japanese (ja)
Other versions
JPS6316383A (en
Inventor
Kazuhiko Fukuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP61159849A priority Critical patent/JPS6316383A/en
Publication of JPS6316383A publication Critical patent/JPS6316383A/en
Publication of JPH0525354B2 publication Critical patent/JPH0525354B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】[Detailed description of the invention]

〔産業上の利用分野〕 本発明はiTVカメラ等を用いて対象物体の形状
を撮像し、その形状の認識および分類を行う方法
に関する。 〔従来の技術〕 この種の形状認識装置の代表的なものとして、
米国のSRi(スタンフオード研究所)で開発され
たVision Moduleが広く知られている。これは、
主としてロボツトの目として開発されたもので、
対象となる物体の形状をテレビカメラで撮像し、
A/D変換により2値または多値のパターンに変
換した後、連結性解析により対象形状の輪郭を抽
出するとゝもに形状の特徴量(面積、周囲長、形
状係数など。)を計測し、この特徴量をあらかじ
め学習させておいた標準パターンの特徴量と比較
することにより、形状の識別、分類(すなわち、
その形状があらかじめ憶えさせた形状のどれであ
るか、どのグラスに属するかなど。)およびその
形状の視野内における位置ならびに方向を算出
し、ロボトツによる制御などの情報を提供するも
のである。 第7図は一般的な形状認識装置を示す概要図で
ある。同図において、11はテレビカメラ等を含
む入力装置、12は前処理回路、13は形状切出
回路、14は連結性解析部、15は特徴量計算
部、16は形状認識部、17は標準パターン記憶
部、18は出力装置である。 テレビカメラ等により撮像された対象形状の撮
像(Video)信号は、前処理回路12にてA/D
変換、ノイズ除去等の処理が施され、デイジタル
画像信号に変換された後、形状切出回路13によ
り所定の閾値にて2値または多値のパターンに変
換される。以下の説明では2値のパターンに変換
される場合を示すが、必ずしも2値に限定される
ものではない。次に、対象形状の2値パターンは
マイクロコンピユータ等の演算処理装置に入力さ
れ、その連結性解析部14により形状の輪郭抽出
や分離を行い、特徴量計算部15により形状の面
積・周囲長・穴の数・穴面積・形状係数等の形状
識別パラメータが計算されるとゝもに、重心位
置・慣性モーメントなどの位置・方向識別パラメ
ータが計算される。対象形状の識別は一般に、あ
らかじめシヨウイング(テイーチング)と呼ばれ
る形状の教示動作により作成され、記憶部17に
格納されている形状識別パラメータの標準パター
ンを用いて形状識別部16により識別される。こ
のシヨウイングにおいては、あらかじめ識別させ
たい形状をくり返し撮像し、前記形状識別パラメ
ータを計算して統計処理等を施すことにより、形
状識別パラメータの標準パターンが作成され、メ
モリ17に記憶されるものである。 また、形状識別部16ではその識別手法とし
て、例えば第8図に示すように判定木(Binary
Decision Tree)を用いて、未知形状の形状識別
パラメータとシヨウイングで記憶された形状識別
パラメータの標準パターンとを比較することによ
り、シヨウイングで憶えさせた形状のどれである
かを判別することができる。なお、第8図は特徴
量が〜まであり、各特徴量の各々について設
定値a〜fと比較して、形状1〜7のいずれかを
判定するものである。 〔発明が解決しようとする問題点〕 さて、このような形状識別装置においては、対
象形状の判別を撮像視野内における形状の位置、
方向に関係なく行わせるための形状識別パラメー
タとして、いわゆるspace−independentな特徴
量、すなわちスカラ量を用いている。一般に用い
られている形状識別パラメータを次表に示す。
[Industrial Application Field] The present invention relates to a method of capturing an image of the shape of a target object using an iTV camera or the like, and recognizing and classifying the shape. [Prior art] As a typical shape recognition device of this type,
The Vision Module developed by SRi (Stanford Research Institute) in the United States is widely known. this is,
It was mainly developed as an eye for robots.
The shape of the target object is imaged with a television camera,
After converting into a binary or multivalued pattern using A/D conversion, the outline of the target shape is extracted using connectivity analysis, and the feature values of the shape (area, perimeter, shape coefficient, etc.) are measured. By comparing this feature amount with the feature amount of a standard pattern that has been trained in advance, shape identification and classification (i.e.,
Which of the pre-memorized shapes does the shape belong to, which glass does it belong to, etc. ), and the position and direction of its shape within the field of view, and provides information for robot control, etc. FIG. 7 is a schematic diagram showing a general shape recognition device. In the figure, 11 is an input device including a television camera, 12 is a preprocessing circuit, 13 is a shape extraction circuit, 14 is a connectivity analysis section, 15 is a feature calculation section, 16 is a shape recognition section, and 17 is a standard The pattern storage section 18 is an output device. An image (video) signal of the object shape captured by a television camera or the like is sent to an A/D in a preprocessing circuit 12.
After being subjected to processing such as conversion and noise removal and converted into a digital image signal, the shape cutting circuit 13 converts it into a binary or multivalued pattern using a predetermined threshold value. In the following explanation, a case where the pattern is converted into a binary pattern will be described, but it is not necessarily limited to binary patterns. Next, the binary pattern of the target shape is input to an arithmetic processing device such as a microcomputer, the connectivity analysis section 14 extracts and separates the outline of the shape, and the feature amount calculation section 15 calculates the area, perimeter, etc. of the shape. Shape identification parameters such as the number of holes, hole area, shape factor, etc. are calculated, as well as position/direction identification parameters such as the center of gravity position, moment of inertia, etc. Generally, the target shape is identified by the shape identification unit 16 using a standard pattern of shape identification parameters that is created in advance by a shape teaching operation called showing (teaching) and stored in the storage unit 17. In this shooting, a standard pattern of shape identification parameters is created by repeatedly imaging the shape to be identified in advance, calculating the shape identification parameters, and performing statistical processing, etc., and stored in the memory 17. . In addition, the shape identification unit 16 uses a decision tree (Binary
By comparing the shape identification parameters of an unknown shape with the standard pattern of shape identification parameters memorized by shooting, it is possible to determine which of the shapes memorized by shooting is using the decision tree. In addition, in FIG. 8, the feature amounts are up to . [Problems to be Solved by the Invention] Now, in such a shape identification device, discrimination of a target shape is performed based on the position of the shape within the imaging field of view,
A so-called space-independent feature quantity, that is, a scalar quantity, is used as a shape identification parameter to perform the process regardless of direction. The commonly used shape identification parameters are shown in the table below.

【表】【table】

〔問題点を解決するための手段〕[Means for solving problems]

入力された対象形状を連結性解析により個々の
形状を抽出して形状の輪郭および特徴点〔形状の
輪郭が変化する点(凸点、凹点)および形状の重
心(全体重心、穴重心等)〕を抽出した後、その
中から基準となる特徴点(基準点と呼ぶ)を1つ
選出し、その基準点から他の特徴点(凸点、凹
点、重心)に至る「形状特徴ベクトル」を求め、
その特徴ベクトル群間で積、和を含むベクトル演
算を実施して得られる特徴量を形状の判別に用い
ることにより、形状のもつ相関性を形状識別にと
り入れ、従来からの形状特徴量(面積、周囲長、
形状係数など)によるミクロ的絶対量と、前記特
徴ベクトルによるマクロ的相関量とを合わせて形
状判別に用いることができるようにし、形状識別
を安定化させるものである。 〔作用〕 すなわち、形状特徴ベクトルは、画像全体から
見るとspace−independentであるが、形状の各
特徴点の相対的関係においてspace−dependent
な量であり、形状自身の(内部の)位置関係を表
現することができるので、このベクトル量により
従来からの形状特徴量の不充分な点を補うように
する。 〔実施例〕 実施例を説明する前に、第2図ないし第4図を
参照してその概念を説明する。なお、第2図は本
発明の概念を説明するための説明図、第3図は小
突起部が充分に安定している場合の例を説明する
ための説明図、第4図は真円の場合の特徴量抽出
方法を説明するための説明図である。 まず、最初に良く知られている連結性解析によ
り、形状のもつ連結成分が抽出され、次に輪郭追
跡により形状の輪郭点が抽出される。その結果、
第2図イの如き形状1、輪郭2、穴3、線要素4
等が抽出される。このとき、輪郭点の各方向コー
ドの変化を検出することにより、形状の凸点Pi
(i=1、2……、n)、凹点Nj(j=1、2…
…、n)を抽出する。実際のデイジタル画像は、
ノイズや量子化誤差あるいは照明のばらつきなど
があるので、凸点、凹点などの端点の検出には平
均化または平滑化処理が必要であるが、これにつ
いては後述することとする。次に、形状を構成す
る各線要素4から、形状の重心Gk(k=0、1、
……n)を算出する。重心には形状全体の重心と
穴の重心などがある。 さて、本発明においては、形状の中での前記各
特徴点の相対的位置関係が重要なので、Pi,Nj
Gkの各特徴点への番号のふり方は任意であつて
はならない。このとき、形状の位置や姿勢に関係
なく一定にPj,Ni,Gkをspace−dependentにラ
ベリングする方法はいくつかあるが、ここでは例
えば、Pi,Njについては形状を構成する辺のうち
最大の辺長のものの左端をP1とし、以下反時計
まわりにP2,P3,……Pnをラベリングし、凹点
があらわれたら順にN1,N2,……Nnをラベリン
グするものとする。また、重心Gkについては全
体重心をG0とし、以下G0に最も近いGk点をG1
し、順次G2,G3……Goとラベリングして行くも
のとする。こうして、各特徴点(Pi,Nj,Gk
が第2図ロの如く抽出される。次に、上記のよう
にして抽出された各特徴点(Pi,Nj,Gk)の中
から、形状特徴ベクトルの始点となるべき「形状
基準点」を決めるわけであるが、前述したように
特徴点(Pi,Nj,Gk)は形状の内部においては
space−dependentなラベリングがなされている
ので、どの点を選んでもよい。すなわち、P2
らP2と固定しておいてもよいし、またユーザプ
ログラマブルにして、対象形状毎に可変にしても
よい。以下の説明では、仮に形状基準点をP2
しておく。次に、第2図ハに示すように点P2
ら各特徴点に至る形状特徴ベクトルμi→および
νi→を求める。形状特徴ベクトルも形状特徴点と
同様にspace−dependentな量であるべきなので、
P2より形状の輪郭を反時計まわりに回つたとき
の最初の特徴点(第2図ハではP3)とで形成す
る形状特徴ベクトルμ→とし、以下順次(反時計
まわりに)μ→,μ→……,μn→とする。また、
特徴点と重心とが形成する特徴ベクトルについて
は、例えばP2とG0が形成する特徴ベクトルを
ν→とし、以下P2とG1が形成するものをν→と
し、同様にν→,……,νn→とする。ただし、こ
こで示いた特徴ベクトルの決め方は、1例であつ
てこれに限定されるものではない。 以上のようにして求められた形状特徴ベクトル
の相互関係を求めるための基本ベクトル演算とし
て、以下のものを定義し、この各ベクトル演算に
より各ベクトル化特徴量(特徴ベクトル間ベクト
ル積、特徴ベクトル和、特徴ベクトル間絶対値の
比など)を求める。 (1) 特徴ベクトル間ベクトル積 凹凸点間 mij→=μ→×μj→ …… 重心間 mij→=νi→×νi→ …… 凹凸点・重心間 lij→=μi→×νi→ …… (2) 特徴ベクトル和 M= 〓i μi→+ 〓j νi→ …… (3) 特徴ベクトル間絶対値の比 凹凸点間 sij=|μi→|/|μj→| …… 重心間 tij=|νi→|/|νj→| …… 凹凸点・重心間 uij=|μi→|/|νi→| …… 上記ベクトル演算の形状的意味は、以下の通り
である。すなわち、特徴ベクトル間ベクトル積
は、形状特徴点の中の任意の3点で構成する部分
の面積および向き(角度)であり、特徴ベクトル
間絶対値の比は、形状特徴点の中の任意の3点で
構成する部分の辺長比である。また、特徴ベクト
ル和は、形状の特徴を示すと同時に、形状の姿勢
も示すものである。このほか、形状の複雑性また
は特異性に応じていくつかの特徴ベクトルの演算
を定義することができるが、本発明においては基
本的なものとして、上記(1)〜(3)のみを示した。 次に、このような形状特徴ベクトルによる形状
特徴量と、従来から用いられている形状特徴量と
の関係について、以下に示す。 本発明において示した形状特徴ベクトルは、形
状の骨格をなす部分についての形状の情報抽出で
あり、形状のミクロな誤差は見ないで形状が形状
として成り立つていることの本質を抽出しようと
するものである。ただし、形状のミクロな部分に
ついてもその部分が形状の本質をなす場合で、か
つその部分が形状として安定している場合にはそ
の部分の端点を抽出して、形状特徴ベクトル群の
中に加えることができる。第3図はかゝる場合を
説明するためもので、Psが抽出される端点であ
る。 一方、従来からある形状特徴量(面積、周囲
長、形状係数など)は、形状のもつ性質を表現し
ているものであるが、絶対量でのパラメータであ
るため、形状からの情報抽出がミクロ的になりや
すく、したがつて細かい部分の変動の影響をうけ
やすい。しかし、前記の形状特徴ベクトルでは抽
出しにくい部分の特徴を抽出できる場合も多く、
いわば形状に応じて相補的に用いていく必要があ
る。相補的に用いる例を第4図に示す。これは、
形状が真円の円弧5のみで構成されている例であ
り、このような場合は円弧を直線近似して形状特
徴ベクトルを抽出する方法も考えられるが、真円
であればある程直線近似がむずかしくなるため、
むしろ形状特徴ベクトルは円弧間の相対的位置関
係を抽出し、円弧部分の大きさ等については面
積、周囲長、形状係数等にて判別するべきであ
る。 以上、述べてきた本発明による形状識別の概略
をフローにしたものを、第1図に示す。 すなわち、今まで述べきたように、対象形状を
とり込んだ後、連結性解析、輪郭追跡を経て、本
方式による形状特徴点(Pi,Nj,Gk)を抽出す
る(、、参照)。次に、対象形状の輪郭追
跡による方向コードデータをもとに形状輪郭の直
線性を解析し、円弧部分の有無を調べる(、
参照)。円弧性部分であつても、例えば第5図の
如く直線近似が可能のものは直線近似を行つて、
特徴点を抽出する。また、直線近似が不可能なも
の(真円など)については、その部分のみを円弧
部処理ルーチンへもつていく(、、参照)。
本方式においては、真円のように円弧成分のみで
閉じている形状を直線近似不可とし、それ以外の
円弧性成分は円弧成分の代表点を抽出して、直線
近似するものとする。次に、抽出された特徴点群
から形状特徴ベクトルを抽出し(参照)、前述
したようなベクトル演算を行つて形状のもつ本質
的な特徴量を算出する(参照)。次に、あらか
じめシヨウイング等により学習しておいた、(特
徴ベクトルによる)特徴量の標準パターンと比較
することにより、形状を識別する(参照)。一
方、真円などの円弧部分については、その部分
(閉図形)に関する通常の特徴量(面積、周囲長、
形状係数等)を算出(参照)、シヨウイングに
より学習しておいた、円弧部の標準パターンと比
較して、その部分をもつ形状の候補を選出する
(参照)。最後に、特徴ベクトルによる判別と円
弧部の形状候補とを整合することにより、最終的
な形状識別効果を得る(参照)。 こゝで実際に入力されたデイジタル画像を扱う
上での具体的処理について述べる。 まず、端点(凸点、凹点)の検出については、
基本的には方向コードの変化分の検出を行うこと
で得られるが、一般に入力画像をデイジタル化し
たあとの輪郭は、第6図イのように一般になめら
かではなく、このままでは必要以上に多くの端点
が検出され、しかも位置的に不安定な端点が多く
なる。そこで、輪郭追跡時に、方向コードの平滑
化処理または平均化処理を行うことにより、安定
な端点を検出するようにする。この平滑化処理と
しては、例えば第6図ロに示すように、着目輪郭
画素の方向コードと前後m画素の方向コードとを
合わせて平均化し、それを改めて着目画素の方向
コードとする方法で実現できる(一般にm=2程
度)。次に、このようにして平滑化した後、第6
図ハに示すように、輪郭画素の方向コードを検出
するに当たつてn画素のウインドウを設け(例え
ばn=10)、ウインドウを輪郭の沿つて動かし、
ウインドウの両端の画素の方向コードの変化が一
定値以上続いた場合はその部分を端点として抽出
することにより、小さな突起状のノイズ形状を端
点として検出されるのを防ぐことができる。ま
た、このように端点は安定に検出されても、周囲
条件のばらつきにより、必ずしも一画素単位での
正確さで検出されるわけではなく、一定のばらつ
き(分布)をもつているはずである。そこで、ば
らつきの程度は各端点ではほぼ同様であると見な
して、シヨウイング時に各特徴ベクトルの演算後
に点の拡がりを考慮した一定のマージンを付加し
ておくものとする。これにより、必ずしも多数回
のシヨウイングをくり返さなくても、比較的安定
した標準パターンが得られることになる。 なお、本発明における特徴ベクトルの演算につ
いては、対象がデイジタルであることから必ずし
も演算をすべて実行する必要はなく、高速化のた
めにベクトル演算のテーブルをメモリに格納して
おき、テーブルをサーチすることで近似的な演算
結果を得ることができる。 〔発明の効果〕 本発明によれば、形状の輪郭の変化(変曲部)
を中心にして検出されるために変化のない部分の
形状誤差に左右されずに形状の本質を表現するこ
とができる形状特徴ベクトルを用い、この形状特
徴ベクトル群の間で積、和を含むベクトル演算を
して得られるベクトル化特徴量に基づき識別を行
うようにしたので、安定かつ高精度な識別が可能
となる。
The input target shape is extracted by connectivity analysis to extract individual shapes, and the shape outline and feature points [points where the shape outline changes (convex points, concave points) and the center of gravity of the shape (overall center of gravity, hole center of gravity, etc.) ], select one feature point from among them to serve as a reference point (referred to as a reference point), and create a "shape feature vector" from that reference point to other feature points (convex points, concave points, center of gravity). seek,
By using the feature values obtained by performing vector operations including products and sums between the feature vector groups for shape discrimination, the correlation of shapes is incorporated into shape recognition, and the conventional shape feature values (area, Perimeter,
The micro-absolute amount based on shape coefficients, etc.) and the macro-level correlation amount based on the feature vector can be used together for shape discrimination, thereby stabilizing shape discrimination. [Effect] In other words, the shape feature vector is space-independent when viewed from the entire image, but it is space-dependent in the relative relationship of each feature point of the shape.
Since this vector quantity can express the (internal) positional relationship of the shape itself, this vector quantity is used to compensate for the insufficiency of conventional shape feature quantities. [Embodiment] Before explaining the embodiment, the concept will be explained with reference to FIGS. 2 to 4. Furthermore, Fig. 2 is an explanatory diagram for explaining the concept of the present invention, Fig. 3 is an explanatory diagram for explaining an example in which the small protrusion is sufficiently stable, and Fig. 4 is an explanatory diagram for explaining the case where the small protrusion is sufficiently stable. FIG. First, connected components of a shape are extracted by well-known connectivity analysis, and then contour points of the shape are extracted by contour tracking. the result,
Shape 1, contour 2, hole 3, line element 4 as shown in Figure 2 A
etc. are extracted. At this time, by detecting changes in each direction code of the contour points, the convex point P i of the shape is
(i=1, 2..., n), concave point N j (j=1, 2...
..., n) is extracted. The actual digital image is
Since there are noises, quantization errors, illumination variations, etc., averaging or smoothing processing is required to detect end points such as convex points and concave points, but this will be described later. Next, from each line element 4 constituting the shape, the center of gravity G k (k=0, 1,
... n) is calculated. The center of gravity includes the center of gravity of the entire shape and the center of gravity of a hole. Now, in the present invention, since the relative positional relationship of each feature point in the shape is important, P i , N j ,
The numbering of each feature point in G k must not be arbitrary. At this time, there are several methods for labeling P j , N i , and G k in a space-dependent manner regardless of the position and orientation of the shape . The left end of the side with the longest side length is set as P 1 , and the following is labeled counterclockwise as P 2 , P 3 , ...Pn, and when a concave point appears, it is labeled N 1 , N 2 , ...Nn in order. It shall be. Regarding the center of gravity Gk , the overall center of gravity is G0 , the Gk point closest to G0 is hereinafter G1 , and the labels are sequentially labeled G2 , G3 ... G0 . In this way, each feature point (P i , N j , G k )
is extracted as shown in Figure 2B. Next, from among the feature points (P i , N j , G k ) extracted as described above, the "shape reference point" that should be the starting point of the shape feature vector is determined. As shown, the feature points (P i , N j , G k ) are inside the shape.
Since space-dependent labeling is performed, any point can be selected. That is, if P 2 , it may be fixed as P 2 , or it may be user programmable and variable for each target shape. In the following explanation, the shape reference point is assumed to be P2 . Next, as shown in FIG. 2C, shape feature vectors μi→ and νi→ from point P2 to each feature point are determined. Since shape feature vectors should also be space-dependent quantities like shape feature points,
The shape feature vector formed by P 2 and the first feature point (P 3 in Figure 2 C) when going counterclockwise around the contour of the shape is assumed to be μ 1 →, and then μ 2 in turn (counterclockwise) →, μ 3 →..., μn →. Also,
Regarding the feature vector formed by the feature point and the center of gravity, for example, let the feature vector formed by P 2 and G 0 be ν 1 →, hereafter the feature vector formed by P 2 and G 1 be ν 2 →, and similarly, ν 3 →, ..., νn→. However, the method of determining the feature vectors shown here is just one example and is not limited to this. The following basic vector operations are defined to determine the mutual relationships between the shape feature vectors obtained as described above, and each vectorized feature quantity (vector product between feature vectors, feature vector sum , the ratio of absolute values between feature vectors, etc.). (1) Vector product between feature vectors Between uneven points mij→=μ 1 →×μj→ ... Between centers of gravity mij→=νi→×νi→ ... Between uneven points and centers of gravity lij→=μi→×νi→ ... ( 2) Feature vector sum M= 〓 i μi→+ 〓 j νi→ ... (3) Ratio of absolute values between feature vectors Between uneven points s ij = |μi→ | / | μj → | ... Between centroids t ij = |νi→|/|νj→| ... u ij between uneven points and center of gravity = |μi→|/|νi→| ... The geometrical meaning of the above vector operation is as follows. In other words, the vector product between feature vectors is the area and orientation (angle) of a portion made up of any three points among the shape feature points, and the ratio of absolute values between feature vectors is the This is the side length ratio of the part made up of three points. Further, the feature vector sum indicates not only the characteristics of the shape but also the orientation of the shape. In addition, several feature vector operations can be defined depending on the complexity or specificity of the shape, but in the present invention, only the above (1) to (3) are shown as basic ones. . Next, the relationship between the shape feature amount based on such a shape feature vector and the shape feature amount conventionally used will be described below. The shape feature vector shown in this invention is the extraction of shape information about the part that forms the skeleton of the shape, and attempts to extract the essence of the shape as a shape without looking at micro errors in the shape. It is. However, if the microscopic part of the shape is the essence of the shape and the part is stable as a shape, the end points of that part are extracted and added to the shape feature vector group. be able to. Figure 3 is for explaining such a case, and shows the end point from which Ps is extracted. On the other hand, conventional shape features (area, perimeter, shape coefficient, etc.) express the properties of a shape, but since they are parameters in absolute quantities, information extraction from the shape is difficult. It is therefore easy to be affected by fluctuations in small details. However, in many cases it is possible to extract features that are difficult to extract using the shape feature vectors mentioned above.
In other words, it is necessary to use them in a complementary manner depending on the shape. An example of complementary use is shown in FIG. this is,
This is an example in which the shape is composed of only circular arcs 5 that are perfect circles.In such a case, a method of extracting shape feature vectors by linearly approximating the circular arcs may be considered, but the more perfect circles are, the more linear approximation becomes. Because it becomes difficult,
Rather, the shape feature vector should extract the relative positional relationship between circular arcs, and the size of the circular arc portion should be determined based on the area, perimeter, shape coefficient, etc. FIG. 1 shows an outline of the flow of shape identification according to the present invention as described above. That is, as described above, after capturing the target shape, the shape feature points (P i , N j , G k ) are extracted using this method through connectivity analysis and contour tracking (see ). . Next, the linearity of the shape contour is analyzed based on the direction code data obtained by contour tracking of the target shape, and the presence or absence of circular arc parts is investigated (
reference). Even if it is a circular arc part, for example, if a straight line approximation is possible as shown in Fig. 5, a straight line approximation is performed.
Extract feature points. Also, for things that cannot be approximated by a straight line (such as a perfect circle), only that part is sent to the arc part processing routine (see ).
In this method, a shape that is closed only by circular arc components, such as a perfect circle, cannot be approximated by a straight line, and other circular arc components are approximated by a straight line by extracting representative points of the circular arc components. Next, a shape feature vector is extracted from the extracted feature point group (reference), and the vector operation as described above is performed to calculate the essential feature amount of the shape (reference). Next, the shape is identified (reference) by comparing it with a standard pattern of feature quantities (based on feature vectors) that has been learned in advance by shooting or the like. On the other hand, for circular arc parts such as perfect circles, the usual feature values (area, perimeter,
Shape coefficients, etc.) are calculated (reference) and compared with the standard pattern of circular arc parts learned through shooting, and candidates for the shape containing that part are selected (reference). Finally, the final shape recognition effect is obtained by matching the discrimination based on the feature vector with the shape candidate of the circular arc portion (see). Here, we will discuss specific processing for handling digital images that are actually input. First, regarding detection of end points (convex points, concave points),
Basically, it can be obtained by detecting changes in the direction code, but the contour after digitizing the input image is generally not smooth as shown in Figure 6A, and if left as it is, there will be more data than necessary. End points are detected, and the number of end points that are positionally unstable increases. Therefore, stable end points are detected by smoothing or averaging the direction code during contour tracing. This smoothing process can be achieved, for example, by averaging the direction code of the contour pixel of interest and the direction codes of m pixels before and after it, and then reusing this as the direction code of the pixel of interest, as shown in Figure 6B. Yes (generally m = about 2). Next, after smoothing in this way, the sixth
As shown in FIG.
If the change in the direction code of pixels at both ends of the window continues for a certain value or more, that portion is extracted as an end point, thereby preventing small protruding noise shapes from being detected as end points. Further, even if the end points are detected stably in this way, they are not necessarily detected with accuracy on a pixel-by-pixel basis due to variations in the surrounding conditions, and there will be a certain variation (distribution). Therefore, it is assumed that the degree of dispersion is almost the same at each end point, and a certain margin is added in consideration of the spread of points after calculating each feature vector during shooting. As a result, a relatively stable standard pattern can be obtained without necessarily repeating shooting many times. Regarding feature vector calculations in the present invention, since the object is digital, it is not necessarily necessary to execute all calculations, but to speed up the calculation, a table of vector calculations is stored in memory and the table is searched. By doing this, approximate calculation results can be obtained. [Effects of the Invention] According to the present invention, the change in the outline of the shape (inflection part)
Using a shape feature vector that can express the essence of the shape without being affected by shape errors in unchanged parts because it is detected centered on Since identification is performed based on vectorized feature amounts obtained by calculation, stable and highly accurate identification is possible.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例を示すフローチヤー
ト、第2図は本発明の概念を説明するための説明
図、第3図は小突起部が充分に安定している場合
の例を説明するための説明図、第4図は真円の場
合の特徴量抽出方法を説明するための説明図、第
5図は直線近似が可能な円弧パターンを説明する
ための説明図、第6図はデイジタル画像の具体的
な処理方法を説明するための説明図、第7図は一
般的な形状認識装置を示す概要図、第8図は第7
図における判別方法の一例を示すトリー図であ
る。 符号説明、1……対象物(形状)、2……輪郭、
3……穴、4……線要素、5……真円、11……
入力装置、12……前処理回路、13……形状切
出回路、14……連結性解析部、15……特徴量
計算部、16……形状識別部、17……標準パタ
ーン記憶部、18……出力装置、P1〜Po……凸
点、N1〜No……凹点、G0〜Go……重心。
FIG. 1 is a flowchart showing an embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining the concept of the present invention, and FIG. 3 is an example in which the small protrusion is sufficiently stable. Figure 4 is an explanatory diagram to explain the feature extraction method for a perfect circle. Figure 5 is an explanatory diagram to explain a circular arc pattern that can be approximated by a straight line. Figure 6 is a digital diagram. An explanatory diagram for explaining a specific image processing method, FIG. 7 is a schematic diagram showing a general shape recognition device, and FIG.
It is a tree diagram which shows an example of the discrimination method in a figure. Code explanation, 1...Object (shape), 2...Outline,
3...Hole, 4...Line element, 5...Perfect circle, 11...
Input device, 12... Preprocessing circuit, 13... Shape extraction circuit, 14... Connectivity analysis section, 15... Feature value calculation section, 16... Shape identification section, 17... Standard pattern storage section, 18 ... Output device, P 1 - P o ... Convex point, N 1 - N o ... Concave point, G 0 - G o ... Center of gravity.

Claims (1)

【特許請求の範囲】 1 対象物を撮像しその撮像信号を画像処理して
対象物形状を認識する形状認識方法であつて、 前記対象物形状の輪郭追跡をして各特徴点を抽
出し、該各特徴点間の直線性を解析して直線近似
が可能か否かを判断し、その結果直接近似が可能
なときは各特徴点の中から基準となる基準特徴点
を1つ選び、該基準特徴点から他の各特徴点に至
る形状特徴ベクトルを求め、該形状特徴ベクトル
群の間で積、和を含むベクトル演算をしてベクト
ル化特徴量を求め、該ベクトル化特徴量にもとづ
き認識を行う一方、前記輪郭追跡の結果直線近似
ができないと判断されるときは、その各特徴点に
よる形状特徴ベクトルと形状特徴量とにもとづき
認識を行うことを特徴とする形状認識方法。
[Scope of Claims] 1. A shape recognition method for recognizing the shape of an object by capturing an image of the object and processing the image signal, comprising: tracing the outline of the object shape and extracting each feature point; Analyze the linearity between the feature points to determine whether linear approximation is possible, and if direct approximation is possible, select one standard feature point from among the feature points, and Find the shape feature vectors from the reference feature point to each other feature point, perform vector operations including product and sum among the group of shape feature vectors to find vectorized features, and perform recognition based on the vectorized features. However, when it is determined that linear approximation is not possible as a result of the contour tracing, recognition is performed based on a shape feature vector and a shape feature amount based on each feature point.
JP61159849A 1986-07-09 1986-07-09 Shape recognizing method Granted JPS6316383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61159849A JPS6316383A (en) 1986-07-09 1986-07-09 Shape recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61159849A JPS6316383A (en) 1986-07-09 1986-07-09 Shape recognizing method

Publications (2)

Publication Number Publication Date
JPS6316383A JPS6316383A (en) 1988-01-23
JPH0525354B2 true JPH0525354B2 (en) 1993-04-12

Family

ID=15702577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61159849A Granted JPS6316383A (en) 1986-07-09 1986-07-09 Shape recognizing method

Country Status (1)

Country Link
JP (1) JPS6316383A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209353A (en) * 2005-01-26 2006-08-10 Sharp Corp Image determination apparatus, image formimg apparatus, image determination method, image determination program, image formimg program, and computer readable recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE59610869D1 (en) * 1995-10-17 2004-01-29 Inventio Ag Safety device for multimobile elevator groups

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209353A (en) * 2005-01-26 2006-08-10 Sharp Corp Image determination apparatus, image formimg apparatus, image determination method, image determination program, image formimg program, and computer readable recording medium

Also Published As

Publication number Publication date
JPS6316383A (en) 1988-01-23

Similar Documents

Publication Publication Date Title
US9875427B2 (en) Method for object localization and pose estimation for an object of interest
US8781221B2 (en) Hand gesture recognition system
CN109684959B (en) Video gesture recognition method and device based on skin color detection and deep learning
JP6032921B2 (en) Object detection apparatus and method, and program
Goyal et al. Sign language recognition system for deaf and dumb people
US20170011523A1 (en) Image processing apparatus, image processing method, and storage medium
CN106648078B (en) Multi-mode interaction method and system applied to intelligent robot
US20140204238A1 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
EP3376433B1 (en) Image processing apparatus, image processing method, and image processing program
JP5153434B2 (en) Information processing apparatus and information processing method
JP5262705B2 (en) Motion estimation apparatus and program
Arbeiter et al. Evaluation of 3D feature descriptors for classification of surface geometries in point clouds
EP2889834A1 (en) Object discrimination device, object discrimination method, and program
CN110490171B (en) Dangerous posture recognition method and device, computer equipment and storage medium
CN112365462A (en) Image-based change detection method
CN113111844A (en) Operation posture evaluation method and device, local terminal and readable storage medium
CN112668374A (en) Image processing method and device, re-recognition network training method and electronic equipment
JP2018041273A (en) Image recognition device, method for controlling image recognition device, and program
JP2002163655A (en) Personal authenticating device
Chen et al. Exploring depth information for head detection with depth images
Ghoshal et al. An improved scene text and document image binarization scheme
Fritz et al. Attentive object detection using an information theoretic saliency measure
Fritz et al. Object recognition using local information content
JP2008140093A (en) Abnormal event extraction device, abnormal event extraction method, program for the method, and storage medium recording the program
JPH0525354B2 (en)