JPH0628472A - Method and device for recognizing image - Google Patents

Method and device for recognizing image

Info

Publication number
JPH0628472A
JPH0628472A JP4097546A JP9754692A JPH0628472A JP H0628472 A JPH0628472 A JP H0628472A JP 4097546 A JP4097546 A JP 4097546A JP 9754692 A JP9754692 A JP 9754692A JP H0628472 A JPH0628472 A JP H0628472A
Authority
JP
Japan
Prior art keywords
network
image
node
center
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4097546A
Other languages
Japanese (ja)
Inventor
Takashi Matsumoto
尚 松本
Hideo Yoshimura
秀男 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Chemical Industry Co Ltd
Original Assignee
Asahi Chemical Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Chemical Industry Co Ltd filed Critical Asahi Chemical Industry Co Ltd
Priority to JP4097546A priority Critical patent/JPH0628472A/en
Publication of JPH0628472A publication Critical patent/JPH0628472A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the recognition rate even in the case where a pattern is deformed or missing by generating a network from a relative position relation of a rule of the pattern, and deciding from a structure of this network. CONSTITUTION:From an image signal having patterns arrayed by a prescribed rule, outlines of the patterns are extracted, respectively, a centroid position of a range surrounded by the outline is detected, the centroid position becomes a node, a segment for connecting an arbitrary centroid position and the centroid position being adjacent thereto become an arc, and from a prescribed network setting start point, a network is enlarged successively based on a relative position relation condition determined in advance based on the rule, and based on this network, an array of an image is recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、編地の編目配列の認識
や編地の欠点検出、結晶構造の検出等のような予め規則
性が既知で一定の規則性を有する配列を認識する画像認
識方法およびその画像認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image for recognizing an array having a known regularity and a certain regularity such as the recognition of the stitch arrangement of the knitted fabric, the defect detection of the knitted fabric, the detection of the crystal structure and the like. The present invention relates to a recognition method and an image recognition device thereof.

【0002】[0002]

【従来の技術】パターンの配列を認識する方法として、
画像信号からそれぞれパターンの重心位置を検出し、該
重心位置をノードとし、任意の重心位置とそれに隣接す
る重心位置とを結ぶ線分をアークとして、ノードおよび
アークからなるネットワークを設定し、このネットワー
クから弛緩法を利用して編目配列の画像を認識する方法
が知られている(特開平2−310781号公報)。
2. Description of the Related Art As a method for recognizing a pattern arrangement,
The position of the center of gravity of the pattern is detected from each of the image signals, the position of the center of gravity is used as a node, and the line segment connecting an arbitrary position of the center of gravity and an adjacent position of the center of gravity is used as an arc to set a network of nodes and arcs. There is known a method of recognizing a stitch array image by utilizing the relaxation method (Japanese Patent Laid-Open No. 2-310781).

【0003】[0003]

【発明が解決しようとする課題】上記の方法において
は、設定されたネットワークに基づいて画像認識するの
で、物体を2値化して取り出した段階や隣接関係を抽出
した段階での誤差認識を修復できないという問題があっ
た。例えば、編地の重なりや糸のほつれにより、重心位
置が消去されたり、本来1つの重心位置であるべき部分
が2つに分割されたりといった場合、認識率が低下する
という問題があった。また、天竺で編成された編地の編
目などは規則的に配列しているが、編地自体が変形しや
すい構造であるため編目の配列を精度良く認識すること
は難しい。
In the above method, since the image is recognized based on the set network, it is impossible to recover the error recognition at the stage when the object is binarized and extracted or the adjacent relation is extracted. There was a problem. For example, when the position of the center of gravity is erased due to the overlapping of the knitted fabric or the fray of the yarn, or the portion which should originally be one position of the center of gravity is divided into two, there is a problem that the recognition rate is lowered. Further, although the stitches of the knitted fabric knitted with the plain cloth are regularly arranged, it is difficult to accurately recognize the arrangement of the stitches because the knitted fabric itself is easily deformed.

【0004】そこで、本発明はより信頼性の高い認識方
法およびその装置を提供することを課題とする。
Therefore, an object of the present invention is to provide a more reliable recognition method and its apparatus.

【0005】[0005]

【課題を解決する為の手段】上記課題を解決するため
に、本発明の請求項1は、一定の規則で配列された複数
のパターンを有する画像信号から前記パターンの輪郭を
それぞれ抽出し、該輪郭で囲まれた範囲の重心位置をそ
れぞれ検出し、各重心位置をノードとし、任意の重心位
置とそれに隣接する重心位置とを結ぶ線分をアークとし
て、ネットワーク設定開始点から前記一定の規則に基づ
いて予め定められた相対位置関係条件に基づき順次ネッ
トワークを拡大し、このネットワークに基づいて画像の
配列を認識することを特徴とする配置認識方法である。
In order to solve the above-mentioned problems, the first aspect of the present invention is to extract the contours of the pattern from an image signal having a plurality of patterns arranged according to a certain rule. Detect the respective barycentric positions in the area enclosed by the contour, use each barycentric position as a node, and use the line segment that connects any barycentric position and its adjacent barycentric position as an arc. Based on a predetermined relative positional relationship condition, the network is sequentially expanded, and the arrangement of images is recognized based on the network.

【0006】また、本発明の請求項2は、画像入力手段
と、該画像入力手段から入力された画像信号からパター
ンの輪郭を抽出する輪郭線抽出手段と、該輪郭で囲まれ
た範囲の重心位置を検出して記憶する重心位置検出手段
と、重心位置をノードとし、任意の重心位置とそれに隣
接する重心位置とを結ぶ線分をアークとして、ノードお
よびアークからなるネットワークを設定するために所定
のノードを決定するネットワーク設定開始点決定手段
と、該ネットワーク設定開始点から予め定められた相対
位置関係条件に基づいて順次ネットワークを拡大して、
前記画像信号の範囲でネットワークを設定するネットワ
ーク設定手段と、該設定されたネットワークに基づいて
画像の配列を認識する認識手段と、該認識手段によって
認識された結果を出力する出力手段と、を具備すること
を特徴とする画像認識装置である。
According to a second aspect of the present invention, the image inputting means, the contour line extracting means for extracting the contour of the pattern from the image signal input from the image inputting means, and the center of gravity of the range surrounded by the contour. A barycentric position detecting means for detecting and storing a position, a barycentric position as a node, and a line segment connecting an arbitrary barycentric position and a barycentric position adjacent thereto as an arc, a predetermined for setting a network of nodes and arcs Network setting start point determining means for determining the node of, and the network is sequentially expanded from the network setting start point based on a predetermined relative positional relationship condition,
A network setting unit that sets a network within the range of the image signal, a recognition unit that recognizes an array of images based on the set network, and an output unit that outputs a result recognized by the recognition unit. An image recognition device characterized by the following.

【0007】[0007]

【作用】本発明によれば、画像の不明瞭やノイズの少な
い最も規則性の高い部分をネットワーク設定開始点と
し、このネットワーク設定開始点から一定の規則に基づ
いて予め定められた相対位置関係条件に基づいて順次ネ
ットワークを拡大してネットワークを形成するため、画
像に不明瞭な部分やノイズが存在しても、誤ってネット
ワークを形成することを防ぎ、規則性に忠実で正確なネ
ットワークを形成することができる。従って、このネッ
トワークに基づいて精度良い認識をすることができる。
According to the present invention, the most regular part of the image with less unclearness and noise is set as the network setting start point, and the relative positional relationship condition determined in advance from this network setting start point based on a certain rule. Network is expanded sequentially to form a network, so even if there are unclear parts or noise in the image, it is possible to prevent the network from being formed by mistake and form a network that is faithful to the regularity and accurate. be able to. Therefore, accurate recognition can be performed based on this network.

【0008】[0008]

【実施例】以下、本発明を図面に基づいて詳細に説明す
る。図1は本発明の基本構成を示す図である。図1にお
いて、100は認識対象のパターンを撮影した画像信号
を入力する画像入力手段である。
The present invention will be described in detail below with reference to the drawings. FIG. 1 is a diagram showing the basic configuration of the present invention. In FIG. 1, reference numeral 100 is an image input means for inputting an image signal of a pattern to be recognized.

【0009】200は該画像入力手段から入力された画
像信号を2値化してパターンの輪郭を抽出する輪郭線抽
出手段である。300は該輪郭線抽出手段により抽出さ
れたパターンの輪郭線で囲まれた範囲の重心位置を検出
して記憶する重心位置検出手段である。400は該重心
位置をノードとし、任意の重心位置とそれに隣接する重
心位置とを結ぶ線分をアークとして、ノードおよびアー
クからなるネットワークを設定するために所定のノード
を決定するネットワーク設定開始点決定手段である。
Reference numeral 200 is a contour line extraction means for binarizing the image signal input from the image input means to extract the contour of the pattern. Reference numeral 300 denotes a center-of-gravity position detection unit that detects and stores the center-of-gravity position in the range surrounded by the contour lines of the pattern extracted by the contour line extraction unit. 400 is a network setting start point for determining a predetermined node for setting a network of nodes and arcs, with the center of gravity position as a node, and a line segment connecting an arbitrary center of gravity position and an adjacent center of gravity position as an arc It is a means.

【0010】500は該ネットワーク設定開始点から予
め定められた相対位置関係条件に基づいてネットワーク
を確認し、あるいは修正しながら順次ネットワークを拡
大して、前記画像信号の範囲でネットワークを設定する
ネットワーク設定手段である。600は該ネットワーク
決定手段で設定されたネットワークに基づいて画像の配
列を認識する認識手段であり、例えばアークの方向の角
度を算出する。
Reference numeral 500 denotes a network setting for confirming the network based on a predetermined relative positional relationship condition from the starting point of the network setting or expanding the network sequentially while correcting the network and setting the network within the range of the image signal. It is a means. Reference numeral 600 is a recognition means for recognizing the array of images based on the network set by the network determination means, and calculates, for example, the angle of the arc direction.

【0011】700は該認識手段によって認識された結
果を出力する出力手段であり、パターンの配列方向を画
像で表示したり、認識された結果を記憶したりする。図
2は本発明実施例の具体的な回路構成を示す図である。
図2において、中央演算処理装置(CPU)1、画像処
理プロセッサ2、画像処理用メモリ3、リードオンリー
メモリ(ROM)4、ランダムアクセスメモリ(RA
M)5、入出力インタフェース(I/O) 6がバス7に接続
され、I/O 6に撮像装置8、キーボード9、表示装置1
0が接続されている。
Reference numeral 700 denotes an output means for outputting the result recognized by the recognizing means, which displays the arrangement direction of the pattern as an image and stores the recognized result. FIG. 2 is a diagram showing a specific circuit configuration of the embodiment of the present invention.
In FIG. 2, a central processing unit (CPU) 1, an image processing processor 2, an image processing memory 3, a read only memory (ROM) 4, a random access memory (RA).
M) 5, an input / output interface (I / O) 6 is connected to the bus 7, and the I / O 6 has an imaging device 8, a keyboard 9, and a display device 1.
0 is connected.

【0012】CPU1は装置全体の制御を司り、上述各
部に対して動作指示を与える。輪郭線抽出手段、重心位
置検出手段、ネットワーク設定開始点決定手段、ネット
ワーク設定手段としての画像処理プロセッサ2は、撮像
装置8から得られる画像に対して画像処理を行い、輪郭
線抽出処理、重心位置検出処理、ネットワークの作成処
理を行う。
The CPU 1 controls the entire apparatus and gives operation instructions to the above-mentioned respective parts. The image processor 2 as the contour line extracting means, the center-of-gravity position detecting means, the network setting start point determining means, and the network setting means performs image processing on the image obtained from the image pickup device 8 to obtain the contour line extracting processing and the center-of-gravity position. Performs detection processing and network creation processing.

【0013】ネットワーク設定手段、ネットワーク角度
算出手段はCPU1で処理することも可能である。画像
処理用メモリ3には撮像装置8からの画像信号が記憶さ
れる。ROM4にはCPU1、画像処理プロセッサ2が
それぞれ実行する制御プログラムが予め格納されてい
る。
The network setting means and the network angle calculating means can be processed by the CPU 1. An image signal from the image pickup device 8 is stored in the image processing memory 3. The ROM 4 pre-stores control programs executed by the CPU 1 and the image processor 2.

【0014】RAM5はCPU1、画像処理プロセッサ
2の演算データを一時記憶する。I/O 6は接続機器とC
PU1との間で情報の転送を行う。画像入力手段として
の撮像装置8は例えば固体撮像素子(CCD)によって
物体を撮像し、対象物体を光電変換により画像信号に変
換するものである。CD−ROMなどの記憶媒体から画
像信号を入力してもよい。
The RAM 5 temporarily stores the calculation data of the CPU 1 and the image processor 2. I / O 6 is connected device and C
Information is transferred to and from PU1. The image pickup device 8 as an image input unit is for picking up an image of an object by, for example, a solid-state image pickup element (CCD) and converting the target object into an image signal by photoelectric conversion. The image signal may be input from a storage medium such as a CD-ROM.

【0015】キーボード9からはCPU1に対する動作
指示を入力する。表示装置10は撮像した物体画像の表
示や画像認識された物体配列の表示を行う。図3は本発
明の実施例の動作手順を示すフローチャート図であり、
図3は天竺で編成された編地の編目配列の認識の例であ
る。天竺で編成された編地の編目配列は6角形構造とな
っており、このように一定の規則で配列された複数のパ
ターンを有する画像を認識するものである。なお、本実
施例においては配列の方向性を認識するものとする。
An operation instruction for the CPU 1 is input from the keyboard 9. The display device 10 displays the picked-up object image and the image-recognized object array. FIG. 3 is a flow chart showing the operation procedure of the embodiment of the present invention.
FIG. 3 is an example of recognition of the stitch arrangement of a knitted fabric knitted with a plain cloth. The stitch array of the knitted fabric knitted with the plain cloth has a hexagonal structure, and an image having a plurality of patterns arranged in a certain rule in this manner is recognized. In this embodiment, the directionality of the array is recognized.

【0016】以下本実施例の動作説明を図3のフローチ
ャート図に基づいて行う。 (1) パターンの輪郭抽出 まず、撮像装置8から出力される編目の画像信号がI/O
6を介して画像処理用メモリ3に記憶される。画像信号
は、図17に示すように編地11の裏からの照明光を編
地を介して受光することによって得られ、この編地を撮
像すると糸の部分が黒く、編目の部分が白く写る。この
白く写った部分は図18に示す編目模式図に示されるよ
うに規則的な六角形構造となっている。
The operation of this embodiment will be described below with reference to the flow chart of FIG. (1) Pattern contour extraction First, the image signal of the stitches output from the imaging device 8 is I / O.
It is stored in the image processing memory 3 via 6. The image signal is obtained by receiving the illumination light from the back of the knitted fabric 11 through the knitted fabric as shown in FIG. 17, and when the knitted fabric is imaged, the yarn portion is black and the stitch portion is white. . This white portion has a regular hexagonal structure as shown in the stitch pattern diagram of FIG.

【0017】そしてノード重心テーブル(図4)、隣接
点テーブル(図5)、アークテーブル(図6)等、処理
にあたって各種テーブルを初期化する(ステップS10
0)。なお、各テーブルについては後に詳述する。次
に、画像信号から輪郭を抽出するために細線化を行う。
細線化処理は、例えば濃度信号である画像信号を規定値
と比較して2値化を行ない、黒部分、すなわち編糸部分
の細線化処理によって輪郭線を抽出することができる。
この輪郭線情報はRAM5に記憶される(ステップS1
20)。
Then, various tables such as the node center of gravity table (FIG. 4), the adjacent point table (FIG. 5) and the arc table (FIG. 6) are initialized (step S10).
0). Note that each table will be described in detail later. Next, thinning is performed to extract the contour from the image signal.
In the thinning process, for example, an image signal, which is a density signal, is binarized by comparing it with a prescribed value, and a contour line can be extracted by thinning the black part, that is, the knitting yarn part.
This contour line information is stored in the RAM 5 (step S1).
20).

【0018】(2)重心位置検出 画像処理プロセッサ2はRAM5に記憶された輪郭線情
報に基づき、輪郭線で囲まれた閉区画(編目)の重心位
置を検出する。例えば、輪郭線で囲まれた閉区画の座標
の合計および面積を求め、これらから重心位置を求める
ことができる。このように編目の重心位置が検出される
毎に、ネットワーク作成のために、検出された重心位置
(ノード)には番号(ノード番号)が付与され、図4に
示すノード重心テーブルの形態で、ノード番号とその重
心座標(x、y)がRAM5に記憶される(ステップS
130)。
(2) Detection of barycentric position The image processor 2 detects the barycentric position of the closed section (stitch) surrounded by the contour line based on the contour line information stored in the RAM 5. For example, the total of coordinates and the area of the closed section surrounded by the contour line can be obtained, and the position of the center of gravity can be obtained from them. In this way, each time the center of gravity position of the stitch is detected, a number (node number) is given to the detected center of gravity position (node) for network creation, and in the form of the node center of gravity table shown in FIG. The node number and its barycentric coordinates (x, y) are stored in the RAM 5 (step S
130).

【0019】次に、各ノードに対してその回りの隣接す
るノードを求め、図5に示す隣接点テーブルの形態で、
各ノード番号とそれに隣接するノード番号がRAM5に
記憶される。(ステップS140)。 (3)ネットワーク設定開始点の選択 正確なネットワーク作成のために、画像の不明瞭やノイ
ズの少ない最も規則性の高い部分をネットワーク設定開
始点(ネットワーク作成のスタート点)とする。本実施
例においては、ノード重心テーブル、隣接点テーブルを
用いて最も規則的な六角形構造となっている中心のノー
ドを選択し、ネットワーク設定開始点とする。ネットワ
ーク設定開始点は、画像を見ながら最も規則的な部分の
ノードを選択してもよいが、本実施例では、スタート点
の決定を以下のようにして行う。
Next, for each node, the adjacent nodes around it are obtained, and in the form of the adjacent point table shown in FIG.
Each node number and the node numbers adjacent to it are stored in the RAM 5. (Step S140). (3) Selection of network setting start point In order to create an accurate network, the most regular part with less unclear image and noise is used as the network setting start point (start point of network creation). In this embodiment, the center node having the most regular hexagonal structure is selected using the node center of gravity table and the adjacent point table, and is used as the network setting start point. As the network setting start point, the node of the most regular part may be selected while looking at the image, but in the present embodiment, the start point is determined as follows.

【0020】まず、任意のノードKを選択し、当該ノー
ドKに隣接しているノードを隣接順序(右回り)でソー
トする。そして、ソートの結果、6個のノードを有する
場合に、選択したノードKを抽出する。抽出されたノー
ドKの周囲に位置する隣接ノードについても同様に、そ
の隣接ノードに隣接するノードをソートし、隣接ノード
が6個の隣接したノードを有すかを調べ、その数kをノ
ードKの規則性のレベルとして記憶しておく。このよう
な処理をすべてのノードについて処理し、最も規則性の
高い、すなわちkの大きいノードをネットワーク作成の
スタート点とする。もし、kが等しいノードが複数存在
する場合には画像の中心に近いノードを選択する(ステ
ップS150)。
First, an arbitrary node K is selected, and the nodes adjacent to the node K are sorted in the adjacency order (clockwise). Then, as a result of the sorting, when there are 6 nodes, the selected node K is extracted. Similarly, for the adjacent nodes located around the extracted node K, the nodes adjacent to the adjacent node are sorted, and it is checked whether or not the adjacent node has 6 adjacent nodes. Remember as the level of regularity. Such a process is performed for all the nodes, and the node with the highest regularity, that is, the node with the largest k is used as the starting point for network creation. If there are a plurality of nodes with the same k, the node near the center of the image is selected (step S150).

【0021】(4)ネットワーク作成 ステップS150でネットワーク作成のスタート点を決
定すると、次いでノード重心テーブルおよび隣接点テー
ブルを用いて、ノードとアークからなるネットワークを
作成する。ネットワーク成長は、予め知られた規則性に
従い最も確実な(規則性に矛盾のない)条件(相対位置
関係条件)に合致する場合に行い、順次、緩やかな(規
則性に矛盾を含む)条件(相対位置関係条件)にしてネ
ットワークを成長して、すべてのノードとアークについ
てネットワークが成長しなくなるまで、これらの処理を
繰り返し、完成させる。相対位置関係条件は、ノードと
ノードの位置関係やアークとノードの位置関係を条件と
したものである。
(4) Network Creation When the start point of network creation is determined in step S150, a network of nodes and arcs is created using the node center of gravity table and the adjacent point table. Network growth is performed when the most certain condition (regularity is consistent) (relative positional relationship condition) is met according to a previously known regularity, and then gradually (including regularity is inconsistent) condition ( The network is grown under the relative positional relationship condition), and these processes are repeated and completed until the network does not grow for all nodes and arcs. The relative positional relationship condition is based on the positional relationship between nodes and the positional relationship between arcs and nodes.

【0022】以下、ネットワークの作成について詳細な
手順および条件を示しながら説明する。 (4−1)方向ラベルの付与 図7に示すようにネットワーク作成のスタート点から隣
接するノードに対して三角形の3辺の3方向a、b、c
を決定する。例えば、図7においては図面右上−左下方
向をa方向とし、図面上−下方向をb方向とし、図面左
上−右下方向をc方向とする(ステップS160)。
The creation of the network will be described below by showing detailed procedures and conditions. (4-1) Direction Labeling As shown in FIG. 7, the three directions a, b, and c of the three sides of the triangle from the start point of network creation to adjacent nodes
To decide. For example, in FIG. 7, the upper right-lower left direction of the drawing is the a direction, the upper-lower direction of the drawing is the b direction, and the upper left-lower right direction of the drawing is the c direction (step S160).

【0023】次いで、ステップS160で決定された方
向に位置する隣接したノードとの線分(アーク)に方向
を示すラベル(A、B、C)を付与し、各ノードを中心
にして、方向毎にアークテーブルの形態で順次RAM5
に記憶していく。この方向ラベルの付与はネットワーク
の成長毎に行う。図6に示すようにアークテーブルは方
向毎に3つのテーブルに分けられ、各テーブルは、ノー
ド番号とそのノードに隣接するノード番号の形態で記憶
される。例えば、ノード1にはノード4との間とノード
5と間にラベルAのアークが存在し、ラベルBのアーク
はノード21との間とノード3との間に存在しているこ
とがわかる。また、ノード2はノード3との間にラベル
Aのアークが存在し、ラベルBのアークはノード20と
の間に存在していることがわかる。
Next, a label (A, B, C) indicating a direction is given to a line segment (arc) with an adjacent node located in the direction determined in step S160, and each node is centered for each direction. RAM5 sequentially in the form of arc table
To remember. This direction label is given every time the network grows. As shown in FIG. 6, the arc table is divided into three tables for each direction, and each table is stored in the form of a node number and a node number adjacent to that node. For example, it can be seen that the arc of label A exists between the node 1 and the node 4 and between the node 5 and the arc of the label B exists between the node 21 and the node 3. Further, it can be seen that the arc of label A exists between the node 2 and the node 3 and the arc of label B exists between the node 2 and the node 20.

【0024】(4−2)ネットワークの成長(条件1) 既知部分の周辺の3角形で、下記の条件1−1〜1−3
に適合した部分を正しいネットワークとしてアークテー
ブルに追加して記憶する(ステップS170)。
(4-2) Growth of Network (Condition 1) The following conditions 1-1 to 1-3 in the triangle around the known part.
The part that conforms to is added to the arc table as a correct network and stored (step S170).

【0025】[0025]

【表1】 [Table 1]

【0026】これらの条件1−1〜1−3によりネット
ワークを成長させ、処理するノード、アークがなくなれ
ば、次の条件2に進む。 (4−3)ネットワークの矛盾検出(条件2) 上記の条件で成長したネットワークに下記の条件2−1
によって矛盾がないか判定する。矛盾した部分はアーク
テーブルから削除し(ステップS180)、下記条件2
−2によってそのアークにラベル付けし、これを新たな
推定情報とする(ステップS190)。
When the network is grown under these conditions 1-1 to 1-3 and there are no more nodes or arcs to process, the process proceeds to the next condition 2. (4-3) Network contradiction detection (condition 2) The following conditions 2-1 are added to the network grown under the above conditions.
Determine if there is any contradiction. The inconsistent part is deleted from the arc table (step S180), and the following condition 2 is satisfied.
The arc is labeled with -2 and used as new estimation information (step S190).

【0027】[0027]

【表2】 [Table 2]

【0028】以上のように条件2で処理を行うと、再び
条件1に戻りネットワークの成長を行う。条件1と条件
2により処理を行って、新たなネットワークの成長を行
うことができなくなると、次の条件3に進む。 (4−4)ネットワークの補正(条件3) 上記条件1、2により成長させたネットワークについ
て、下記の条件3によりネットワークを補正する(ステ
ップS200)。
When the processing is performed under the condition 2 as described above, the condition 1 is returned to again to grow the network. When it becomes impossible to grow a new network by performing the processing under the conditions 1 and 2, the process proceeds to the next condition 3. (4-4) Network Correction (Condition 3) Regarding the network grown under the above Conditions 1 and 2, the network is corrected according to the following Condition 3 (step S200).

【0029】[0029]

【表3】 [Table 3]

【0030】この条件3によりネットワークを成長さ
せ、処理するノード、アークがなくなれば、再び条件1
に戻りネットワークの成長を行う。条件1〜3により処
理を行って、新たなネットワークの成長を行うことがで
きなくなると、次の条件4に進む。 (4−5)ネットワークの成長(条件4) 上記条件1〜4により成長させたネットワークについ
て、下記の条件4に適合した部分を正しいネットワーク
としてアークテーブルに追加して記憶する(ステップS
210)。
When the network is grown under the condition 3 and there are no nodes or arcs to be processed, the condition 1 is re-established.
Return to and grow the network. When it becomes impossible to grow a new network by performing the processing under the conditions 1 to 3, the process proceeds to the next condition 4. (4-5) Growth of Network (Condition 4) Regarding the networks grown under the above-mentioned Conditions 1 to 4, a portion conforming to the following Condition 4 is added to the arc table as a correct network and stored (step S).
210).

【0031】[0031]

【表4】 [Table 4]

【0032】この条件4によりネットワークを成長さ
せ、処理するノード、アークがなくなれば、再び条件1
に戻りネットワークの成長を行う。条件1〜4により処
理を行って、新たなネットワークの成長を行うことがで
きなくなると、画面上のノードとアークについてネット
ワークが形成されたとして、ネットワークを確定し、次
のステップに進む。
When the network is grown under this condition 4 and there are no more nodes or arcs to be processed, the condition 1 is re-established.
Return to and grow the network. When it becomes impossible to grow a new network by performing the processing under the conditions 1 to 4, it is assumed that the network has been formed for the nodes and arcs on the screen, the network is determined, and the process proceeds to the next step.

【0033】(5)画像認識 上記のようにしてネットワークを作成すると、このネッ
トワークに基づいて画像認識をすることができる。本実
施例では、ネットワークの各アークの方向(角度)を求
める(ステップS220)。これは、例えば編機など
で、縦目方向を知る必要がある場合に有効である。
(5) Image recognition When a network is created as described above, image recognition can be performed based on this network. In this embodiment, the direction (angle) of each arc in the network is obtained (step S220). This is effective, for example, when a knitting machine or the like needs to know the longitudinal direction.

【0034】まず、上記のようにして形成されたネット
ワークについて、ラベルA、B、C毎にアークのベクト
ル和を下記式(1)、(2)、(3)のように求める。
First, for the network formed as described above, the vector sum of arcs for each of the labels A, B, and C is calculated by the following equations (1), (2), and (3).

【0035】[0035]

【数1】 [Equation 1]

【0036】[0036]

【数2】 [Equation 2]

【0037】[0037]

【数3】 [Equation 3]

【0038】各ベクトル和からそれぞれのベクトルの方
向を下記式(4)、(5)、(6)のように求めること
ができる。
From each vector sum, the direction of each vector can be obtained by the following equations (4), (5) and (6).

【0039】[0039]

【数4】 [Equation 4]

【0040】[0040]

【数5】 [Equation 5]

【0041】[0041]

【数6】 [Equation 6]

【0042】縦目の方向が予め判っている場合、それに
最も近い角度を縦目方向と判断することができる。な
お、繰り返し画面を撮像する場合で、前画面ですでに縦
目方向が判っている場合には、前画面と比較することに
より、縦目の方向を算出することができる。次に、求ま
ったアークを編目と対応させて画像表示する(ステップ
S230)。求まった編目配列構造の一例を図16に示
す。
When the direction of the longitudinal grain is known in advance, the angle closest to it can be determined as the longitudinal direction. In the case where the screen is repeatedly imaged, if the vertical direction is already known in the previous screen, the vertical direction can be calculated by comparing with the previous screen. Next, the obtained arc is displayed as an image in association with the stitch (step S230). FIG. 16 shows an example of the stitch arrangement structure obtained.

【0043】[0043]

【発明の効果】本発明によれば、構造からネットワーク
を作成し、このネットワークの構造から判断するため、
ノード間の距離や角度のパラメータから開放される。従
って、編目のように多少変形した場合にも、認識率を向
上させることができ、それにより、方向性の検出、角度
の検出が精度よく行うことができる。
According to the present invention, a network is created from a structure, and judgment is made from the structure of this network.
It is freed from parameters such as distance and angle between nodes. Therefore, the recognition rate can be improved even when it is deformed to some extent like a stitch, and thereby the directionality and the angle can be detected with high accuracy.

【0044】また、本発明によれば、画像の前処理(輪
郭線抽出等)を正確に行うことができず、本来輪郭線で
囲まれた1つの範囲であるべき部分が2つに分割されて
しまったような場合でも、本来の構造を相対位置関係に
より認識することができる。
Further, according to the present invention, the image preprocessing (outline extraction, etc.) cannot be accurately performed, and the portion which should be originally surrounded by the outline is divided into two parts. Even if it happens, the original structure can be recognized by the relative positional relationship.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の基本構成を示すブロック図である。FIG. 1 is a block diagram showing a basic configuration of the present invention.

【図2】本発明を実現するハードウェア構成図の例であ
る。
FIG. 2 is an example of a hardware configuration diagram for implementing the present invention.

【図3】本発明の動作手順を示すフローチャート図であ
る。
FIG. 3 is a flowchart showing an operation procedure of the present invention.

【図4】ノード重心テーブルを示す図である。FIG. 4 is a diagram showing a node centroid table.

【図5】隣接点テーブルを示す図である。FIG. 5 is a diagram showing an adjacent point table.

【図6】アークテーブルを示す図である。FIG. 6 is a diagram showing an arc table.

【図7】本実施例のアークとノードの関係を示す図であ
る。
FIG. 7 is a diagram showing a relationship between arcs and nodes according to the present embodiment.

【図8】条件1−1を説明する図例である。FIG. 8 is a diagram illustrating a condition 1-1.

【図9】条件1−2を説明する図例である。FIG. 9 is a diagram illustrating a condition 1-2.

【図10】条件1−3を説明する図例である。FIG. 10 is a diagram illustrating a condition 1-3.

【図11】条件2−1を説明する図例である。FIG. 11 is a diagram illustrating a condition 2-1.

【図12】条件2−2を説明する図例である。FIG. 12 is a diagram illustrating a condition 2-2.

【図13】条件3−1を説明する図例である。FIG. 13 is a diagram illustrating a condition 3-1.

【図14】条件3−2を説明する図例である。FIG. 14 is a diagram illustrating a condition 3-2.

【図15】条件4を説明する図例である。FIG. 15 is a diagram illustrating a condition 4;

【図16】本実施例の編目におけるアークとノード等の
配列構造の画像表示を示す図である。
FIG. 16 is a diagram showing an image display of an array structure of arcs and nodes in the stitch of this embodiment.

【図17】編地の撮影方法を示す図である。FIG. 17 is a diagram showing a method of photographing a knitted fabric.

【図18】編目を示す図である。FIG. 18 is a diagram showing stitches.

【符号の説明】[Explanation of symbols]

100 画像入力手段 200 輪郭線抽出手段 300 重心位置検出手段 400 ネットワーク設定開始点決定手段 500 ネットワーク設定手段 600 認識手段 700 出力手段 1 中央演算処理装置(CPU) 2 画像処理プロセッサ 3 画像処理用メモリ 4 リードオンリーメモリ(ROM) 5 ランダムアクセスメモリ(RAM) 6 入出力インタフェース(I/O) 7 バス 8 撮像装置 9 キーボード 10 表示装置 100 image input means 200 contour extraction means 300 barycentric position detection means 400 network setting start point determination means 500 network setting means 600 recognition means 700 output means 1 central processing unit (CPU) 2 image processor 3 image processing memory 4 lead Only memory (ROM) 5 Random access memory (RAM) 6 Input / output interface (I / O) 7 Bus 8 Imaging device 9 Keyboard 10 Display device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 一定の規則で配列された複数のパターン
を有する画像信号から前記パターンの輪郭をそれぞれ抽
出し、該輪郭で囲まれた範囲の重心位置をそれぞれ検出
し、各重心位置をノードとし、任意の重心位置とそれに
隣接する重心位置とを結ぶ線分をアークとして、ネット
ワーク設定開始点から前記一定の規則に基づいて予め定
められた相対位置関係条件に基づき順次ネットワークを
拡大し、このネットワークに基づいて画像の配列を認識
することを特徴とする配置認識方法。
1. A contour of each of the patterns is extracted from an image signal having a plurality of patterns arranged according to a certain rule, and barycentric positions within a range surrounded by the contours are detected, and each barycentric position is used as a node. , A line segment connecting an arbitrary center-of-gravity position and an adjacent center-of-gravity position as an arc, the network is sequentially expanded from a network setting start point based on a predetermined relative positional relationship condition based on the above-mentioned certain rule, and this network is expanded. An arrangement recognition method characterized by recognizing an array of images based on the.
【請求項2】 画像入力手段と、該画像入力手段から入
力された画像信号からパターンの輪郭を抽出する輪郭線
抽出手段と、該輪郭で囲まれた範囲の重心位置を検出し
て記憶する重心位置検出手段と、重心位置をノードと
し、任意の重心位置とそれに隣接する重心位置とを結ぶ
線分をアークとして、ノードおよびアークからなるネッ
トワークを設定するために所定のノードを決定するネッ
トワーク設定開始点決定手段と、該ネットワーク設定開
始点から予め定められた相対位置関係条件に基づいて順
次ネットワークを拡大して、前記画像信号の範囲でネッ
トワークを設定するネットワーク設定手段と、該設定さ
れたネットワークに基づいて画像の配列を認識する認識
手段と、該認識手段によって認識された結果を出力する
出力手段と、を具備することを特徴とする画像認識装
置。
2. An image inputting means, a contour line extracting means for extracting a contour of a pattern from an image signal inputted from the image inputting means, and a center of gravity for detecting and storing a barycentric position of a range surrounded by the contour. Position setting means, a center of gravity position as a node, a line segment connecting an arbitrary center of gravity position and its adjacent center of gravity position as an arc, and a network setting start for determining a predetermined node for setting a network of nodes and arcs The point determining means, the network setting means for sequentially expanding the network from the network setting start point based on a predetermined relative positional relationship condition, and setting the network within the range of the image signal, and the network setting means. A recognition means for recognizing the arrangement of images based on the recognition means; and an output means for outputting the result recognized by the recognition means. An image recognition device characterized by the following.
JP4097546A 1992-04-17 1992-04-17 Method and device for recognizing image Pending JPH0628472A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4097546A JPH0628472A (en) 1992-04-17 1992-04-17 Method and device for recognizing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4097546A JPH0628472A (en) 1992-04-17 1992-04-17 Method and device for recognizing image

Publications (1)

Publication Number Publication Date
JPH0628472A true JPH0628472A (en) 1994-02-04

Family

ID=14195243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4097546A Pending JPH0628472A (en) 1992-04-17 1992-04-17 Method and device for recognizing image

Country Status (1)

Country Link
JP (1) JPH0628472A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807364A (en) * 2021-09-08 2021-12-17 国网内蒙古东部电力有限公司兴安供电公司 Power equipment defect detection method and system based on three-light fusion imaging

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113807364A (en) * 2021-09-08 2021-12-17 国网内蒙古东部电力有限公司兴安供电公司 Power equipment defect detection method and system based on three-light fusion imaging

Similar Documents

Publication Publication Date Title
US4091394A (en) Pattern position detecting system
JPH03294976A (en) Reference mark pattern detecting device
JPH05256796A (en) Inspecting system
US6690819B1 (en) Method and apparatus for recognizing components
US20070086658A1 (en) Image processing apparatus and method of image processing
JP3924796B2 (en) Pattern position measuring method and measuring apparatus
US6320977B1 (en) Method and apparatus for positional detection using pattern matching process
JP2011237279A (en) Image measuring apparatus, program, and teaching method for image measuring apparatus
JP3266429B2 (en) Pattern detection method
JPH0628472A (en) Method and device for recognizing image
US20210042576A1 (en) Image processing system
JPH09128550A (en) Method and device for processing image
JP3627249B2 (en) Image processing device
JPH09178427A (en) Image position measuring method
JP4454075B2 (en) Pattern matching method
JP2516844B2 (en) Parts detection method and device
JP2000207556A (en) Method and device for pattern matching
JP2901644B2 (en) Image recognition method of stitch arrangement and image recognition device
JP5371015B2 (en) Cross mark detection apparatus and method, and program
JP2002008028A (en) Pattern matching method and device therefor
JPH0490078A (en) Centroid detector
JPH08202878A (en) Picture processor
JPH08171627A (en) Centroid detecting method for calibration pattern
JP3675366B2 (en) Image extraction processing device
CN117237266A (en) Defect detection method, product, device, system and storage medium